RTFlash

RTFLASH Recherche & Technologie
NUMERO 245
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 30 Mai 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le W3C, pour un Web libre de droit
Le projet américain de surveillance d'internet inquiète l'UE
Les câblo-opérateurs américains dominent le marché haut débit
Un ordinateur qui apprend a décrypter la pensée
Quand l'homme et la machine vivront en harmonie
Le Wi-Fi Turbo à 100 Mbps accroît aussi la sécurité des échanges
Une journée Wi-FI dans le Rhône le 14 juin
Avenir
De nouveaux équipements high tech pour les gendarmes du G8
Matière
Des balises radio dans la prochaine génération des billets d'euros
Comment transformer les déchets agricoles en pétrole
Une pile a combustible plus mince et plus performante
Espace
Les Européens lancent le système Galileo, concurrent du GPS
Mars Express, première mission martienne de l'Europe
Terre
Nucléaire: la France doit choisir entre "deux inconvénients"
Vivant
Un nouveau système révolutionne l'imagerie médicale
Des chercheurs strasbourgeois observent la réplication de l'ADN endommagé
Une micro-pompe cardiaque implantable en 2010
L'autisme : un syndrome complexe aux causes multiples
Edito
1953-2003 : de la soupe primitive à la recherche de la vie extraterrestre



1953 restera un millésime exceptionnel pour les sciences de la vie. Le 15 mai de cette année-là, soit trois semaines après la parution dans Nature de l'article de Francis Crick et James Watson décrivant la structure en double hélice de l'ADN, Science publie les travaux d'un jeune Américain de vingt-trois ans, étudiant à l'université de Chicago, qui va surprendre toute la communauté scientifique. Dans cet article, Stanley Miller explique comment il a réussi à fabriquer des acides aminés, qui composent les protéines, en reproduisant les conditions de l'atmosphère primitive telles qu'on les imaginait il y a cinquante ans. A la surprise générale, un étudiant obscur était parvenu dans un coin de laboratoire, à partir de gaz inertes, à fabriquer les briques du vivant ! Cette découverte semblait tellement incroyable que la revue Science, septique, décida de retarder sa publication. Comme beaucoup de grandes découvertes scientifiques, l'expérience de Stanley Miller était d'une élégante simplicité. En soumettant un mélange gazeux de vapeur d'eau, d'ammoniac, de méthane et d'hydrogène à des décharges électriques, il obtint en une semaine une bouillie brunasse. Celle-ci allait passer à la postérité sous le nom de "soupe primitive" en raison des composés organiques qu'elle contenait, parmi lesquels des acides aminés, ces briques indispensables à la vie. L'idée même de la "soupe primitive" n'était pas originale. Charles Darwin l'avait déjà, imaginée dés 1871. Dans les années 1920, deux biologistes, le Russe Alexandre Oparine et le Britannique John Haldane, imaginent à leur tour - et indépendamment l'un de l'autre - que l'atmosphère primitive de la Terre a pu favoriser l'apparition de composés organiques chimiquement réactifs qui se seraient ensuite complexifiés jusqu'à donner les premiers systèmes vivants. Mais ces chercheurs n'essayèrent pas de vérifier leurs hypothèses par l'expérimentation. C'est cette étape décisive que franchit avec succès Stanley Miller, sous la direction d'Harold Urey, Prix Nobel de chimie 1934, qui avait établi un modèle d'atmosphère primitive dans lequel le carbone, élément-clé de la chimie organique, était apporté par le méthane (CH4). " Même si, à l'heure actuelle, les chercheurs pensent qu'il y a 4 milliards d'années l'atmosphère de la Terre était dominée par le dioxyde de carbone (CO2) plutôt que par le méthane, cela n'enlève rien au caractère décisif des travaux de Miller, qui a fait voler en éclat les frontières entre chimie minérale, chimie organique et biologie. Mais un demi-siècle plus tard, nous ne savons toujours pas recréer la vie en laboratoire. Les scientifiques parviennent certes à fabriquer certaines protéines mais pas encore les acides nucléiques, composants indispensables à la vie. Mais 50 ans après l'expérience historique de Miller sur la "soupe primitive" la recherche de la vie, de ses origines et de ses formes d'évolution, a pris une nouvelle dimension grâce aux extraordinaires progrès de l'observation spatiales et de l'astrophysique. Une récente étude des étoiles voisines de la terre, réalisée par l'Institut canadien pour l'astrophysique à l'Université de Toronto pourrait bien bouleverser notre approche de la question de la vie dans l'univers. En effet, en étudiant la proportion de fer, grâce à des analyses spectroscopiques, de 642 étoiles "proches" de notre soleil, à l'échelle galactique, les chercheurs ont observé des niveaux étonnamment élevés de fer qui permettent d'extrapoler la présence, autour de plus de la moitié de ces étoiles, de planètes d'une composition physique sensiblement comparable à celle de la terre. Si on étend ces observations statistiques à l'ensemble de notre galaxie, avec ses 100 milliards d'étoiles, cela signifie qu'il existerait des milliards de planètes semblables à la terre. Même en éliminant, parmi ces "exoterres", toutes celles qui sont trop proches ou trop lointaines de leur étoile, on peut donc raisonnablement imaginer qu'il existe dans notre galaxie de très nombreuses planètes possédant des conditions physico-chimiques proches de celle de notre terre et donc permettant, au moins en théorie, l'apparition et le développement de la vie telle que nous la connaissons. Cette découverte, si elle est confirmée dans les années à venir par de nouveaux moyens d'observation, vient éclairer d'une lumière nouvelle et passionnante les récentes expériences réalisées en partenariat par le laboratoire d'Astrochimie du Ames Research Center de la NASA et le Département de Biochimie de l'Université de Santa Cruz. Ces expériences ont montré que la formation de cellules primaires était possible dans l'espace, apportant ainsi des éléments nouveaux dans la recherche des origines de la vie. En reconstituant, comme l'avait fait en son temps Miller pour notre terre, un environnement spatial hostile (vide, froid et soumis à de multiples radiations), l'équipe de chercheurs menée par Louis Allamandola du Centre Ames a réussi à provoquer la formation de composés chimiques particuliers. Ceux-ci se présentent sous la forme de petites bulles similaires à des membranes cellulaires, c'est-à-dire semi-perméables et permettant des échanges avec l'extérieur. Ces résultats surprenants suggèrent que la vie n'est pas forcement apparue sur Terre, mais qu'elle aurait pu naître dans l'espace avant d'être apportée sur Terre par une météorite ou un astéroïde. La vie pourrait également être présente partout dans l'espace sous forme primitive. La prochaine étape pour l'équipe de scientifiques californiens consistera à vérifier si leurs « bulles » peuvent supporter une activité cellulaire interne, en y injectant des molécules d'ADN et d'ARN. Ces recherches confirment d'autres observations qui ont montré depuis une dizaine d'années que la vie est capable de subsister et de se développer dans des conditions extrêmes, et presque inimaginables, de taille (nanobactéries), de pression et de température. Mais la prochaine étape, la plus extraordinaire, de cette quête de la vie extraterrestre est celle mis en oeuvre dans le projet international de "Recherche de planètes terrestres" (Terrestrial Planet Finder). Ce projet permettra en 2011 de mettre plusieurs télescopes sur des véhicules spatiaux séparés volant en formation. En travaillant de manière coordonnée, ces télescopes seront capables de détecter et d'analyser les spectres de planètes extra-solaires et de repérer les "signatures chimiques" spécifiques de la vie que pourraient contenir la lumière provenant de ces planètes. Nous pourrions alors avoir l'éclatante confirmation que la vie, loin d'être le fruit d'un extraordinaire et improbable hasard, est aussi à l'échelle cosmique un phénomène beaucoup plus banal que nous le supposions. On peut néanmoins penser qu'à partir des mêmes constituants, mécanismes et principes fondamentaux (chimie du carbone, protéines, acides nucléiques, cellules) la vie aurait évolué sur d'autres planètes de manière très différente car cette évolution dépend bien entendu des conditions spécifiques de l'environnement. La grande question étant naturellement de savoir si, in fine, ces évolutions biologiques singulières ont fini, dans certains cas, par produire des êtres conscients de leur propre existence et des civilisations intelligentes se posant les mêmes questions que nous.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Le W3C, pour un Web libre de droit
Samedi, 31/05/2003 - 00:00

Réuni mardi 20 Mai à Budapest, le W3C a choisi le changement dans la continuité. Le consortium a confirmé qu'à l'avenir les standards technologiques du World Wide Web seront pas sujets à redevance. L'organisme de préconisation regroupe en son sein tous les grands éditeurs et centres de recherche qui ont accompagné l'essor d'Internet. Les membres du W3C qui détiendraient un brevet susceptible d'être inclus dans une recommandation du consortium sont donc invités à abandonner leurs droits. Pour le directeur du W3C, Tim Berners-Lee, la ligne adoptée par le W3C jette les bases d'une « nouvelle décennie d'innovations techniques, de croissance économique et d'avancées sociales », sous le prisme du Web. Cette décision entérine officiellement l'abandon de la licence Rand (Reasonable and Non-Discriminatory) qui entretenait le flou sur la question des royalties liées aux brevets. Plus que jamais le maître mot du W3C est donc : interopérabilité. Pour la plus grande satisfaction des partisans de l'open-source en général et de la licence GPL en particulier. A quelques semaines d'une décision du Parlement européen concernant la brevetabilité des logiciels (déjà acquise aux Etats-Unis), la prise de position du W3C constitue un camouflet pour tout ceux qui entretiennent encore l'illusion d'un Web simple agglomérat de solutions propriétaires.

OINet : http://www.01net.com/article/208499.html

Le projet américain de surveillance d'internet inquiète l'UE
Samedi, 31/05/2003 - 00:00

Le projet américain de système de surveillance électronique menace le droit fondamental des citoyens de l'Union européenne à la protection de leur vie privée, a estimé vendredi Stefano Rodota, qui préside le groupe des instances de protection des données personnelles dans l'UE. Afin d'éviter d'autres attentats terroristes comme ceux du 11 septembre 2001, le département américain de la Défense travaille actuellement sur un projet qui lui permettrait de passer au crible un large éventail de données publiques et privées, comme des relevés bancaires ou des informations sur les déplacements. "Nous n'avons rien contre les objectifs américains mais les moyens utilisés pour y parvenir nous semblent excessifs", a déclaré Rodota à Reuters au cours d'un entretien. Ce programme "contrevient à toutes les réglementations européennes sur la protection de la vie privée", a-t-il souligné, demandant que le sujet soit évoqué à la mi-juin, lors d'un mini-sommet américano-européen. Le Pentagone a précisé que le projet "Terrorist Information Awareness", dont le coût est estimé à 54 millions de dollars, inclurait des garanties de protections des libertés individuelles des Américains. On ignore si celles-ci s'appliqueront en dehors des Etats-Unis. Washington s'est déjà attiré les foudres des instances européennes en demandant aux compagnies aériennes de l'Union de remettre des informations sur les passagers à destination des Etats-Unis. La Commission européenne a finalement accédé à cette demande, bien qu'elle enfreigne les règlements européens en matière de données privées. Pour Rodota, la Commission n'a pas fait preuve d'assez de fermeté et le Parlement européen doit faire pression sur les Etats-Unis pour obtenir la garantie que les données collectées ne seront pas détournées. Dans l'Union européenne, les données personnelles ne peuvent être transmises à un tiers qu'avec le consentement de la personne concernée.

Reuters : http://fr.news.yahoo.com/030523/85/37t15.html

Les câblo-opérateurs américains dominent le marché haut débit
Samedi, 31/05/2003 - 00:00

Les opérateurs téléphoniques américains ont beau avoir sacrifié leurs bénéfices sur l'autel de l'internet haut débit, réduisant drastiquement le coût de leurs abonnements, les télévisions câblées devraient maintenir leur emprise sur ce marché sans même avoir à baisser leurs prix, estiment les analystes. "Même si les opérateurs télécoms ont enregistré leur plus fort trimestre de croissance par rapport au trimestre précédent et à la même période l'année dernière, les câblo-opérateurs ont fait encore mieux", expliquait cette semaine John Hodulik, analyste d'UBS Warburg, dans une note de recherche. "Sur le long terme, nous pensons qu'une poignée de sociétés câblées sont bien positionnées pour riposter aux opérateurs téléphoniques et par satellites, étant donné leur offre supérieure regroupant plusieurs produits dont la vidéo, le transfert de données et des services téléphoniques", poursuivait-il. Au cours du premier trimestre, on a enregistré 1,7 million de nouveaux abonnés à des services d'internet à haut débit aux Etats-Unis, portant le total à 17,3 millions. Actuellement, les câblo-opérateurs contrôlent 65 % du marché de l'internet rapide, contre 35 % d'abonnement DSL (Digital Subscriber Line) pour les opérateurs télécoms. La part du DSL sur le marché du haut débit s'est réduite au cours du premier trimestre 2003, pour le troisième trimestre consécutif. De nouvelles réductions de prix pourraient aider les opérateurs traditionnels mais il y a peu de chance qu'ils détrônent les câblo-opérateurs. "Le prix est passé devant la qualité" comme facteur déterminant pour séduire et garder de nouveaux clients, a expliqué le directeur financier de l'opérateur BellSouth, Ron Dykes, lors d'une conférence financière à New York.

Reuters : http://fr.news.yahoo.com/030524/85/37u4n.html

Un ordinateur qui apprend a décrypter la pensée
Samedi, 31/05/2003 - 00:00

De nombreuses recherches a travers le monde portent actuellement sur l'interface cerveau-ordinateur (en anglais : brain-computer interface,BCI). Il s'agit de trouver une méthode pour commander directement un ordinateur par la pensée ou plus précisément par les signaux électriques produits. Des chercheurs de l'institut Fraunhofer sur l'architecture de calcul et les technologies logicielles FIRST travaillent actuellement sur un projet de ce type. L'ordinateur, qui est relie a un cobaye par le biais de 128 électrodes, apprend au fur et a mesure en analysant les signaux électriques émis par un utilisateur entrain de taper sur un clavier. Il s'aide pour cela d'outils mathématiques qui lui permettent de faire le tri, dans les signaux électriques émis par le cerveau, entre le bruit et les informations utiles. Les commandes utilisées sont encore très simples. Une touche enfoncée avec la main droite déplace la souris vers la droite, et inversement si l'autre main agit. Néanmoins, les résultats sont extrêmement encourageants. Certains ordinateurs sont capables en moins de vingt minutes de décrypter les pensées du cobaye avec dans certains cas des taux de réussite de 97%. Actuellement, ces essais n'ont été réalises qu'avec des cobayes en parfaite santé, mais encore cette année, d'autres sont prévus avec des personnes qui ont des membres amputées. Pour des sujets paralyses, il serait possible avec cette technologie de développer une machine a écrire mentale, ou l'utilisateur sélectionnerait les lettres a la suite en déplacent un curseur sur l'écran. Une application a plus long terme est la commande d'une prothèse a l'aide des pensées du cerveau. D'autres tout aussi importantes sont envisageables dans le secteur automobile (pour contrôler le véhicule dans une situation de danger) et

dans le domaine des loisirs (consoles vidéos).

BE Allemagne : http://www.be.adit.fr

Quand l'homme et la machine vivront en harmonie
Samedi, 31/05/2003 - 00:00

Il y a eu les ordinateurs centraux, puis les ordinateurs de bureau et enfin les portables. A en croire Nicolas Plouznikoff, actuellement en doctorat à l'école polytechnique de Montréal, nous allons voir d'ici quelques années l'avènement des ordinateurs « symbiotiques ». Nicolas Plouznikoff venait présenter ce matin au 71ème congrès de l'ACFAS sa vision de l'ordinateur du futur. « Les ordinateurs symbiotiques sont des machines compactes, que l'on porte à la ceinture ou que l'on peut intégrer dans une veste et qui aident l'être humain à accomplir certaines tâches, explique le chercheur. On les dirige par la voix et ils peuvent être équipés d'un dispositif d'affichage intégré dans une paire de lunettes transparentes qui superpose des informations au dessus de la réalité. J'ai pensé au qualificatif "symbiotique" car il correspond bien à l'idée d'une machine tellement discrète qu'elle est un complément à nos cinq sens». Au lieu d'améliorer l'interface homme-machine de façon à la rendre plus conviviale, l'objectif de l'équipe montréalaise est de faire en sorte que l'utilisateur oublie carrément qu'il utilise un ordinateur. « L'ordinateur symbiotique doit être sans arrêt actif et doit pouvoir s'adapter au comportement de l'individu. Dans l'idéal, la machine devrait être capable de devancer les désirs des utilisateurs », poursuit Nicolas Plouznikoff. Plusieurs entreprises ou universités ont déjà sorti des prototypes de telles machines. Bell Canada a ainsi développé un prototype de vêtement qui intègre les données du réseau électrique national de façon à ce que ces données soient disponibles en tout temps auprès de ses vérificateurs de lignes, surtout s'ils se trouvent en haut d'un poteau électrique. L'armée investit elle aussi largement dans ce domaine. Pour Nicolas Plouznikoff, cela ne fait aucun doute : « les premiers ordinateurs symbiotiques arriveront sur le marché dans moins d'une décennie ».

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N3213.asp

Le Wi-Fi Turbo à 100 Mbps accroît aussi la sécurité des échanges
Samedi, 31/05/2003 - 00:00

Alors que les réseaux sans fil Wi-Fi au débit théorique de 11 Mégabits par seconde (Mbps) se développent, les premiers matériels atteignant 100 Mbps font leur arrivée, basés sur la norme de communication radio 802.11g.C'est le cas notamment de la gamme "Wireless Turbo" de US Robotics, dévoilée le 21 mai aux États-Unis; elle sera disponible dès juillet en Europe. Le fabricant américain propose l'ensemble des équipements pour réaliser un réseau local sans fil (cartes Wi-Fi pour PC, bornes, routeurs...) en doublant le débit théorique de la norme 802.11g. Rappelons que cette dernière offre 54 Mbps de débit contre "seulement" 11 Mbps pour la 802.11b, la première arrivée sur le marché. Pour réaliser cette prouesse, US Robotics s'appuie sur la norme 802.11g dont il augmente les performances via un procédé baptisé "Accelerator Technology". Il s'agit d'un procédé d'optimisation des échanges de données, basé notamment sur la réduction des temps d'attente entre la réception et l'envoi d'informations. Côté sécurité, le fabricant américain a choisi le module de chiffrement des données du Wi-Fi, le Wireless Encryption Privacy (WEP), sur 256 bits, soit le niveau le plus haut. Certains constructeurs désactivent carrément cette fonction, comme le prévoit d'ailleurs la norme, afin d'éviter que le débit ne chute; le WEP étant très gourmand en ressources. Au final, le débit réel est largement en dessous des 100 Mbps théoriques, mais les données sont correctement protégées.

ZDNet : http://www.zdnet.fr/

Une journée Wi-FI dans le Rhône le 14 juin
Samedi, 31/05/2003 - 00:00

Le département du Rhône, le centre multimédia Erasme et l'association "Wireless Lyon", organisent le samedi 14 juin au Centre Erasme, à St Clément-Les-Places, une journée de rencontre et d'information autour du Wi-Fi. Le Wi-Fi est une technologie en pleine explosion qui permet la transmission de données informatiques sans fil et à haut débit. La rencontre du samedi 14 Juin propose un échange autour des architectures et des usages du Wi-Fi ainsi qu'une discussion sur les initiatives locales de déploiement de réseaux sans fils à haut débit (RLAN). Il s'agit d'une manifestation gratuite, ouverte à tous, ayant pour objectif de faire découvrir aux personnes débutantes des architectures simples, d'expérimenter de nouvelles applications offertes par la mobilité et pour les plus initiés, d'échanger autour des choix techniques du Wi-Fi (étude radio, réseau, sécurité). Cette rencontre est aussi l'occasion de concilier dans une même après-midi milieu rural, nouvelles technologies et espaces contributifs. Le développement et l'usage des réseaux informatiques rapides par voie radio s'inscrit aujourd'hui dans le cadre de missions de service public et associatives : elle autorise la réalisation de réseaux haut-débit dans des milieux non concernés jusque là par cette technologie, essentiellement pour des raisons économiques ou géographiques. L'utilisation du Wi-Fi permet ainsi aux acteurs de l'aménagement des territoires de proposer des solutions de desserte en Internet rapide aux zones reculées du monde rural et de mutualiser facilement des ressources réseau entre plusieurs utilisateurs en espace urbain. L'association Rhône sans fil annoncera, à l'occasion de cette journée, qu'avec le soutien du Département, elle vient de déposer une demande de licence Wifi pour étendre le réseau haut débit du Rhône dans les dernières zones non encore desservies. Au cours de cette journée Wi-Fi les questions cruciales de sécurités seront également abordées en détails par Wireless-Lyon. Les différents usages du Wi-fi seront également présentés au travers de plusieurs initiatives locales. Enfin on pourra assister à des démonstrations de visio-conférence sur Wifi, de télésurveillance et de radio-diffusion sur internet.

Erasme : http://www.erasme.org

^ Haut
Avenir
Nanotechnologies et Robotique
De nouveaux équipements high tech pour les gendarmes du G8
Samedi, 31/05/2003 - 00:00

Des caméras crayons, des "GPS" pour localiser leurs unités sur le terrain, deux hélicoptères transmettant en direct les images des manifestations: les 7.000 gendarmes mobilisés à l'occasion du G8 d'Evian prévu du 1er au 3 juin vont découvrir quelques uns des nouveaux équipements dont toutes les unités devraient être dotées dans l'avenir. Une immense antenne hérissée de paraboles domine d'une dizaine de mètres les arbres bordant l'ancien collège de Publier, sur les hauteurs d'Evian. Grâce à son camouflage kaki, cette excroissance passe pourtant pratiquement inaperçue dans le paysage verdoyant du lac Léman. Derrière les grilles du collège, désormais gardé 24 heures sur 24, les adolescents ont cédé leurs places aux gendarmes qui ont investi les salles de cours depuis une semaine. C'est dans ces bâtiments, entre les classes de sciences naturelles et d'histoire-géographie, dans l'aile ouest, qu'a été installé le PC de la gendarmerie. Celui-ci dirigera durant le G8 les 7.000 gendarmes et gendarmes mobiles chargés de la sécurité d'une zone de plus de 2.000 kilomètres carrés. "Toutes les informations recueillies sur le terrain sont centralisées ici. C'est aussi depuis ce PC que les ordres sont transmis aux unités", explique le commandant Christian Janus. Les murs de la pièce sont entièrement recouverts de cartes et de plans. Toutes les communes de Genève à Evian y figurent. Des punaises multicolores matérialisent les points de contrôles, le stationnement des différentes unités, ainsi que les sites "sensibles". L'originalité de cette salle de commandement se situe au plafond, où une batterie de vidéo-projecteurs diffuse en permanence une représentation iconographique de la zone de travail. "Chaque unité, chaque véhicule de la gendarmerie est équipé d'une balise GPS qui nous transmet en permanence sa position. Elle se matérialise sur l'écran. En fonction des événements, de leurs lieux nous pouvons instantanément savoir où sont nos hommes", explique le commandant Janus. D'un simple clic de souris, il peut zoomer à l'échelle d'un quartier, d'une rue pour visualiser précisément les forces disponibles. Une partie des projections au plafond est dédiée aux images vidéo retransmises par des caméras installées en divers points de la zone. "Nous avons mis également des caméras à bord des deux hélicoptères qui survoleront en permanence les manifestations. Ils nous permettront de localiser les incidents et de les suivre en direct", précise le commandant qui compare cette "première" pour la gendarmerie à une retransmission du "Tour de France". Un autre officier révèle que certains gendarmes, en civil, au milieu de manifestants seront eux aussi équipés de vidéo. "Ils auront des mini-caméras, des 'caméras crayon' que l'on peut dissimuler dans une branche de lunettes", raconte le militaire qui reste malgré tout très discret sur les possibilités de tels appareils "pour des raisons de sécurité", dit-il. Derrière leurs écrans, la vingtaine d'hommes de permanence aura également accès à toutes les banques de données judiciaires et d'identification. "Du fichier des cartes grises au fichier des personnes recherchées, en passant par les casiers judiciaires, nous pouvons avoir accès à toutes les bases de données de l'espace Schengen", explique le maréchal des logis-chef Jean-Charles Grégoire. "Nous avons même accès au fichier des impayés pour les impôts ou les PV". Chris Wichser, un militaire détaché par l'armée suisse et chargé de connecter le système de communication police et gendarmerie de son pays au dispositif G8, se déclare "très impressionné, par le dispositif technique mis en oeuvre par les Français".

AP : http://fr.news.yahoo.com/030527/5/380g9.html

^ Haut
Matière
Matière et Energie
Des balises radio dans la prochaine génération des billets d'euros
Samedi, 31/05/2003 - 00:00

De minuscules identifiants électroniques pourraient être intégrés à la future génération des billets d'euros. Selon l'agence de presse japonaise Kyodo, un accord serait en cours de négociation entre Hitachi et la Banque centrale européenne (BCE), portant sur la fourniture de "radio tags" à la principale instance financière du Vieux Continent. La technologie des "radio tags" ou RFID (Radio Frequency Identification), est basée sur de minuscules balises métalliques, qui réagissent aux ondes radio et permettent d'identifier un produit à distance. Une sorte de code-barre de nouvelle génération. Hitachi comme la BCE se refusent à tout commentaire sur un éventuel accord technologique. Cependant, la Banque centrale a déjà indiqué par le passé, qu'elle s'intéressait aux radio tags afin de lutter contre la contrefaçon. «Il est clair que la nouvelle série de billets d'euros, qui devrait voir le jour d'ici une dizaine d'années, sera aussi perfectionnée que la technologie le permet, que ce soit avec des radio tags ou d'autres systèmes», nous a indiqué un porte-parole de la banque à Francfort. Ces radio tags mobilisent déjà des industriels comme Sun Microsystems, Motorola et, surtout, Gillette, le numéro un mondial du rasoir, qui a déjà lancé son expérimentation RFID. Par ailleurs, en avril dernier, le géant italien du textile Benetton a révélé qu'il évaluait l'utilisation prochaine d'identifiants électroniques très discrets, pour marquer ses vêtements et les localiser dans ses magasins. Appliqué aux billets de banque, ce principe battrait en brêche le caractère totalement anonyme du paiement en liquide. Les billets ont toujours eu des numéros de série, mais en y intégrant un identifiant invisible que l'on peut activer à l'insu de son porteur, c'est la voie ouverte au "traçage" des achats. Un effet second non négligeable au but officiellement recherché, la lutte contre la contrefaçon. Ce risque potentiel est pris très au sérieux par Ari Juels et Ravikanth Pappu, deux scientifiques américains, respectivement des sociétés RSA Security et Think Magic. Selon leurs travaux, présentés en mars dernier lors de la conférence annuelle Financial Cryptography, collecter les itinéraires des billets grâce aux tags radio posera de sérieux problèmes sur la vie privée des simples citoyens. Ils recommandent de protéger ces données par de puissants systèmes cryptographiques. Quant à Hitachi, il a dévoilé en février, la plus petite balise radio au monde qui ne mesure qu'un tiers de millimètre d'épaisseur. Elle peut recueillir 128 bits d'informations, de quoi stocker un numéro de série et l'origine de fabrication d'un produit, ce qui serait particulièrement intéressant dans le cas de billets. Signalons par ailleurs, que les tickets d'admission de la prochaine Exposition universelle, qui se déroulera au Japon en 2005, intégreront les "radio tags" du groupe nippon.

ZDNet : http://news.zdnet.fr/story/0,,t118-s2135101,00.html

Comment transformer les déchets agricoles en pétrole
Samedi, 31/05/2003 - 00:00

Dans un parc industriel de Philadelphie se dresse une nouvelle machine capable de changer n'importe quoi (ou presque) en pétrole. Sans rire. "Nous tenons là la solution de trois des plus grands problèmes de l'humanité", proclame Brian Appel, président-directeur général de Changing World Technologies, la société qui a construit cette installation pilote et vient d'en terminer la première mise en place industrielle dans le Missouri. "Ce procédé peut permettre de résoudre le problème des déchets à l'échelle mondiale. Il peut augmenter nos réserves de pétrole et freiner le réchauffement de la planète." Excusez-moi, intervient un journaliste frissonnant dans la froidure matinale, mais ça m'a l'air trop beau pour être vrai. "C'est ce que tout le monde dit", répond Brian Appel. Ce chef d'entreprise, grand et affable, a rassemblé une équipe de scientifiques, d'anciens chefs d'Etat et de gouvernement et d'investisseurs fortunés pour développer et commercialiser ce qu'il présente comme le procédé de dépolymérisation thermique (PDT). Ce procédé est conçu pour traiter pratiquement tous les déchets imaginables, dont les fientes de dinde, les pneus, les bouteilles en plastique, les eaux sales des ports, les ordinateurs obsolètes, les ordures municipales, les tiges de maïs, les effluents de pulpe de papier, les déchets médicaux infectieux, les résidus des raffineries de pétrole et même les armes biologiques comme les spores de la maladie du charbon. A en croire Brian Appel, les déchets entrent d'un côté et ressortent de l'autre sous la forme de trois produits, tous de valeur et sans danger pour l'environnement : du pétrole de grande qualité, du gaz propre et des matières premières minérales purifiées. Contrairement à d'autres processus de transformation de solides en carburant liquide, telle la conversion de poudre de maïs en éthanol, le procédé fonctionne avec tout élément à base de carbone. Si un homme de 79 kilos tombait dans la machine, il en ressortirait sous la forme de 17 kilos de pétrole, 3 kilos de gaz, 3 kilos de minéraux et 56 litres d'eau stérilisée. Certes, personne n'envisage de mettre des gens dans une machine à dépolymérisation thermique, mais un sous-produit humain très intime pourrait bien servir de matière première. "Je ne vois pas pourquoi nous ne pourrions pas transformer en pétrole les eaux usées, y compris les excréments humains", s'enthousiasme Terry Adams, consultant sur le projet. La municipalité de Philadelphie est justement en discussion avec Changing World Technologies pour un projet de ce type. Aujourd'hui, dans l'enceinte du Naval Business Center de Philadelphie, la matière première provient d'un élevage industriel de dindes : des plumes, des os, de la peau, du sang, de la graisse, des intestins. Une benne déverse plus de 600 kilos de ces déchets dans une broyeuse de 350 chevaux qui malaxe l'ensemble pour en faire une purée d'un brun-gris. De là, cette pâte dégouline dans une succession de réservoirs et de tuyaux vibrants et sifflants, où la mixture est chauffée avant d'être digérée et décomposée. Deux heures plus tard, un technicien en blouse blanche actionne une valve d'où s'écoule un liquide couleur miel qui déborde un peu en remplissant un récipient de verre : du pétrole, vraiment superbe ! "Les chaînes de carbone les plus longues sont des C-18, ou de ce genre-là", commente Brian Appel en lançant des coups d'oeil admiratifs au liquide. "C'est du pétrole très léger. En gros, c'est l'équivalent d'un mélange, moitié fioul, moitié essence." La transformation de déchets contenant du carbone et de l'hydrogène en pétrole et en gaz est un truc que la nature maîtrise depuis longtemps. Pour l'essentiel, le pétrole brut provient de plantes et d'animaux unicellulaires qui meurent et reposent sur les fonds des océans, où ils se décomposent avant d'être broyés par le glissement des plaques tectoniques. Sous la pression et la chaleur, les longues chaînes de polymères, à savoir l'hydrogène, l'oxygène et les molécules porteuses de carbone de ces créatures défuntes, se décomposent en hydrocarbures de pétrole à chaîne courte. Mais, pour y parvenir, la Terre prend tranquillement son temps, généralement quelques milliers, voire des millions, d'années, parce que la chaleur et les modifications de pression du sous-sol sont chaotiques. Les machines à dépolymérisation thermique accélèrent le processus justement en augmentant la chaleur et la pression à des niveaux qui décomposent les longs liens moléculaires de la matière première utilisée. De nombreux scientifiques ont cherché à transformer des solides organiques en carburant liquide en utilisant des déchets, mais ces tentatives sont surtout connues pour leurs échecs. "Le problème, avec la plupart de ces méthodes, c'était qu'elles essayaient d'effectuer la transformation en une seule étape - en surchauffant la matière pour en éliminer l'eau tout en décomposant simultanément les molécules", explique Brian Appel. Ce qui entraîne une consommation excessive d'énergie sans éliminer le risque que des substances nocives contaminent le produit fini. En général, le contenu en BTU

Courrier International : [http://www.courrierinternational.com/">British Thermal Unit, unité de chaleur britannique ; 1 BTU = 0,2520 kilocal] du pétrole ou du gaz qui en résulte dépasse à peine la quantité requise pour le fabriquer. La dépolymérisation thermique, poursuit Brian Appel, a fait preuve d'une efficacité énergétique de 85 % avec des matières premières complexes comme les fientes de dinde. "Ce qui signifie que, pour récupérer 100 BTU, nous n'en consommons que 15." Il ajoute que le rendement est encore supérieur avec des matières premières relativement sèches comme le plastique. Or qui dit efficacité dit profit, Brian Appel n'en doute pas. "Nous avons procédé à tant de tests à Philadelphie que nous connaissons déjà les coûts, dit-il. Dans notre première véritable usine, nous estimons que nous produirons du pétrole à 15 dollars le baril. D'ici trois à cinq ans, nous arriverons à 10 dollars." Brian Appel a récolté plus de 12 millions de dollars de subventions fédérales pour la construction d'usines de démonstration capables de traiter de la fiente de poulet et du fumier en Alabama, des déchets agricoles et de la graisse dans le Nevada. Des sites de retraitement des déchets de dinde et de fumier au Colorado, et de porc et de fromage en Italie sont déjà à l'étude. Selon lui, la première génération de centres de dépolymérisation sera opérationnelle dès 2005. Et, d'ici là, on saura parfaitement si cette technologie est aussi miraculeuse que le prétendent ses partisans.

Courrier International : [http://www.courrierinternational.com/

Changing World Technologies :

http://www.changingworldtech.com/techfr.htm

Une pile a combustible plus mince et plus performante
Samedi, 31/05/2003 - 00:00

Toray, en collaboration avec plusieurs universités (Kyoto Institute of Technology, et universités de Shinshu, Sophia et Shizuoka) a mis au point un assemblage électrodes et de membrane (MEA) pour une pile a combustible a méthanol direct (Direct Methanol Fuel Cells, ou DMFC) assez petite mais suffisamment puissante pour permettre de faire fonctionner un téléphone mobile pendant une durée raisonnable. Le nouvel assemblage a une épaisseur de 3 mm et comprend une membrane poreuse permettant le transfert des ions hydrogène tout en réduisant de 80% la traversée parasite de méthanol. Cette membrane n'est pas fluorée, a l'inverse de celles habituellement utilisées pour les DMFC. Des simulations sur le transfert de l'eau et du méthanol ont été conduites qui ont permis de trouver la meilleure formulation pour la membrane. Le catalyseur mis en oeuvre permet d'utiliser une solution de méthanol plus concentrée, ce qui a pour effet de multiplier par trois la durée de vie de la pile et la puissance de sortie. Enfin, des études ont été menées sur épaisseur et la porosité du papier carbone fabrique par Toray, utilise comme couche de diffusion gazeuse. Un assistant personnel a été alimente a l'aide de cette pile, et un téléphone mobile peut fonctionner 90 minutes en conversation ininterrompue avec 10 cm3 de méthanol. Les batteries a ions lithium de Toray permettent 2 heures de conversation. La performance est donc comparable, et la source est par ailleurs moins épaisse et plus petite dans le cas de la pile a combustible. Toray se propose améliorer encore les performances de sa pile en collaboration avec divers laboratoires universitaires, et projette d'entrer sur le marche des 2005.

BE Japon : http://www.adit.fr

^ Haut
Espace
Espace et Cosmologie
Les Européens lancent le système Galileo, concurrent du GPS
Samedi, 31/05/2003 - 00:00

L'Agence spatiale européenne (ESA) a annoncé le 26 mai un accord entre ses 15 membres sur Galileo, un programme qui dotera l'Europe d'un système de positionnement par satellite indépendant du réseau américain GPS et dont le lancement a été longtemps retardé par des différends entre pays partenaires. C'est un grand jour pour l'Europe en général et l'Europe spatiale en particulier. Conscients de l'enjeu économique, industriel et stratégique que représente la navigation par satellite, nos Etats membres ont su s'entendre pour le bien commun", a déclaré Antonio Rodotà, Directeur général de l'ESA, à l'issue du conseil d'administration qui s'est tenu le même jour à Paris. Cet accord permet de créer l'entité juridique commune à l'ESA et l'UE, qui financent chacune 50% des 1,1 milliard d'euros consacrés à la première phase du projet, qui butait il y quelques jours encore sur un désaccord avec l'Espagne sur la répartition des charges de travail. L'Espagne et la Belgique apporteront finalement une contribution supplémentaire de six millions, portant celle de l'ESA à 553 millions, afin d'augmenter leur part de travail, a précisé un porte-parole de l'ESA, soulignant que cette disposition ne modifiait en rien l'équilibre général du projet. Ce projet-phare de la recherche européenne, évalué à quelque 3,3-3,4 milliards d'euros, comporte des implications civiles - le positionnement par satellite permet de localiser les bateaux, les voitures, les flottes de camions ou les avions - mais également militaires, en assurant notamment le guidage des missiles. Galileo devrait permettre selon l'ESA de créer plus de 140.000 emplois en Europe. Ce système, qui devrait être pleinement opérationnel en 2008, reposera sur 30 satellites (27 lancés plus trois en réserve), postés sur trois orbites terrestres circulaires de 23.616 km d'altitude, inclinées de 56° par rapport à l'équateur. Galileo sera complémentaire du système actuel de navigation par satellite qui repose uniquement sur le GPS (Global Positioning System) américain. Le premier satellite du futur système européen de navigation par satellites Galileo devrait être lancé en septembre 2005 pour devenir opérationnel avant la-mi 2006, a indiqué à Paris, Claudio Mastracchi, directeur des applications à l'Agence spatiale européenne (ESA).Avec Galileo, développé par l'ESA avec l'Union Européenne sur la base d'un co-financement 50-50, c'est un système civil complet qui sera disponible en 2008 et qui offrira aux européens, mais aussi au monde entier, un moyen précis et sécurisé de localisation par satellite. Deux centres de contrôle Galileo seront installés en Europe pour suivre le fonctionnement des satellites et gérer le système de navigation. Astrium, la filiale spatiale contrôlée à 100 % par le groupe européen d'aéronautique, d'espace et de défense EADS a créé avec Alcatel Space et l'italien Alenia Spazio une coentreprise, baptisée Galileo Industries, destinée à être maître d'oeuvre du projet. Astrium contrôle 50 % de cette société. L'électronicien de défense Thales devrait être également associé au projet pour certains équipements (composants de satellites et récepteurs). Le lancement de Galileo constituera une bouffée d'oxygène pour les industriels et pour le consortium européen Arianespace, tous confrontés à une crise profonde depuis l'éclatement de la bulle internet et des télécoms. Les industriels européens ont appelé récemment les pays de l'Union européenne à les soutenir pour ne pas laisser les Etats-Unis distancer irrémédiablement l'Europe dans le secteur spatial, jugé stratégique.

ESA : http://www.esa.int/export/esaCP/Pr_33_2003_p_FR.html

Mars Express, première mission martienne de l'Europe
Samedi, 31/05/2003 - 00:00

C'est le 2 juin 2003 que décollera Mars Express, première sonde martienne de l'Europe et première mission européenne à destination d'une planète. La sonde de l'ESA a été conçue pour conduire les observations les plus poussées jamais entreprises dans l'histoire de l'exploration martienne. Ses objectifs consisteront notamment à rechercher la présence d'eau et à appréhender le « comportement » de la planète dans sa globalité, le plus ambitieux étant toutefois sa tentative audacieuse - la première depuis 25 ans - d'identifier des formes de vie. Mars a exercé de tout temps une fascination sur les habitants de la Terre. Aucune autre planète n'a été aussi souvent visitée par des engins spatiaux. Les secrets qu'elle recèle sont toutefois encore difficiles à percer. Il semble même qu'à chaque mission, ces énigmes se multiplient et gagnent en complexité. Au début de l'exploration martienne, on s'attendait à trouver une planète « jumelle » de la Terre, verte, habitée et couverte d'océans. Les sondes Mariner, pionnières de l'étude de la planète rouge au cours des années 1960, ont déçu cette attente, ne découvrant qu'un sol aride. Plus tard, en 1976, les sondes Viking ont cherché en vain des traces de vie. Mars se révélait donc une planète aride, froide et inhabitée, tout le contraire de la Terre. Vingt ans après, c'est une vision différente, avec son cortège de nouvelles questions, que nous offrent les véhicules spatiaux. Les données actuelles montrent que la température sur Mars était probablement beaucoup plus élevée dans le passé. Il semblerait maintenant, selon les scientifiques, qu'il y ait eu des océans sur Mars, et donc que la vie ait pu s'y développer. Mars Express atteindra la planète rouge fin décembre 2003, après un périple d'un peu plus de six mois. Six jours avant d'être placée sur son orbite définitive, Mars Express larguera l'atterrisseur Beagle 2, ainsi dénommé en hommage au navire à bord duquel Charles Darwin eut l'idée de sa théorie de l'évolution. L'orbiteur de Mars Express observera la planète et son atmosphère depuis une orbite quasi polaire et fonctionnera au minimum pendant une année martienne complète (687 jours terrestres). Beagle 2, quant à lui, atterrira dans une zone équatoriale probablement recouverte d'eau par le passé, susceptible d'avoir conservé des traces de vie. L'orbiteur de Mars Express emportera, outre l'atterrisseur Beagle 2, sept expériences à la pointe de la technologie. Les instruments de l'orbiteur ont été conçus par des instituts scientifiques européens, russes, américains, japonais et chinois. Ils comprennent un radar de sondage de subsurface, une caméra haute résolution, plusieurs spectromètres qui étudieront l'atmosphère et la surface, un analyseur de plasma et une expérience de radioscience. La caméra haute résolution donnera des images en couleurs et en trois dimensions de l'ensemble de la planète, avec une résolution allant jusqu'à 2 mètres dans certaines zones sélectionnées. L'un des spectromètres cartographiera la composition minérale de la surface avec une extrême précision. Certains instruments fourniront des données qui seront essentielles pour savoir ce qu'est devenue l'eau qui semblait si abondante dans le passé. Par exemple, l'altimètre radar recherchera la présence d'eau et de glace en sous-sol, jusqu'à quelques kilomètres de profondeur. Les scientifiques espèrent découvrir une couche de glace ou de permafrost et pouvoir en mesurer l'épaisseur. D'autres observations à l'aide des spectromètres permettront de mesurer la quantité d'eau restant dans l'atmosphère et indiqueront également s'il subsiste un « cycle de l'eau » complet sur Mars, avec, par exemple, de l'eau qui se dépose aux pôles et qui s'évapore en fonction des saisons. Les instruments embarqués à bord de Beagle 2 étudieront la géologie et le climat du site d'atterrissage. Mais ils rechercheront surtout des traces de vie. Contrairement aux missions Viking, Mars Express tentera de déceler des signes de vie actuelle et passée. Les scientifiques sont désormais bien conscients du fait que quelques expériences biologiques ne suffisent pas et qu'il faut combiner différents types de tests pour acquérir davantage de certitudes. Afin de détecter des preuves directes d'activité biologique passée ou actuelle, le « nez » de Beagle 2 est composé d'un système d'analyse des gaz (GAP). Il pourra déterminer la présence éventuelle de carbonates ayant pu participer à des processus biologiques. Il pourra également détecter des gaz comme le méthane, qui, selon les scientifiques, ne peut être produit que par des organismes vivants. Beagle 2 sera aussi capable de prélever des échantillons du sous-sol, que ce soit sous de gros rochers ou à l'intérieur de roches, endroits préservés des rayons ultraviolets destructeurs du Soleil. Mars Express apportera une contribution considérable aux activités internationales d'exploration martienne. « Mars Express est un élément clé, car il servira de cadre à toutes les observations ultérieures », affirme M. Chicarro. La sonde Mars Express est actuellement en cours de préparation à Baïkonour, au Kazakhstan ; son lancement est prévu début juin 2003.

ESA : http://www.esa.int/export/esaCP/SEMML3S1VED_France_0.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Nucléaire: la France doit choisir entre "deux inconvénients"
Samedi, 31/05/2003 - 00:00

La ministre déléguée à l'Industrie, Nicole Fontaine, a déclaré à Paris que la France devrait choisir rapidement "entre deux inconvénients", les risques liés à l'utilisation de l'énergie nucléaire et ceux résultant du changement climatique. Elle ouvrait à la Cité des Sciences l'ultime rencontre du débat national sur les énergies. Relevant que les énergies renouvelables comme l'éolien et le solaire devront être développées mais que celles-ci "ne sauraient constituer seules la solution", Mme Fontaine a observé que "la question était donc posée du choix entre l'utilisation des énergies fossiles (comme le pétrole et le gaz) ou du nucléaire pour produire de l'électricité". "Des choix devront être faits très rapidement, car la question du renouvellement de notre parc (nucléaire) se posera dès 2020 ce qui est, dans le domaine de l'énergie, déjà demain", a averti la ministre. Si aucune décision n'est prise d'ici 2010 pour renouveler le parc nucléaire français, "on aura le choix en 2020 entre des centrales au gaz" émettrices de gaz à effet de serre "et des centrales nucléaires américaines", a expliqué à l'AFP un proche de Mme Fontaine. "Ce sont des perspectives modérément réjouissantes". "Il ne s'agit pas de passer sous silence les risques liés à l'utilisation du nucléaire, que ce soient les risques d'accident ou de prolifération à des fins militaires", a-t-elle poursuivi. "Ces risques doivent néanmoins être comparés à ceux que fait peser sur notre planète l'effet de serre: c'est bien entre deux inconvénients qu'il nous faudra choisir. Chacun doit en être conscient". Madame Fontaine a souligné "l'apport du nucléaire à la réduction de nos émissions de gaz à effet de serre" qui "est déterminant". "A titre d'exemple, a-t-elle dit, si les Etats-Unis avaient le même bouquet énergétique que la France, ils réduiraient de 30 % leurs émissions de CO2", le principal gaz à l'origine du réchauffement planétaire. D'après elle, le débat a également mis en évidence que "des solutions existent pour la gestion des déchets nucléaires". Elle a cité l'exemple de la Suède où un site de stockage définitif des déchets en profondeur est actuellement à l'étude. Mme Fontaine a déclaré avoir "relevé un certain nombre de constats très intéressants" dans le "débat sur le nucléaire" tout en admettant qu'"il n'y avait pas consensus" sur "un sujet qui demeure extrêmement sensible". Elle a cité la transparence, qui "est tout à fait déterminante pour assurer la pérennité de cette activité" et "l'apport du nucléaire à la réduction" des émissions françaises de gaz à effet de serre qui "est déterminant". Autre "constat", selon elle, "des solutions existent pour la gestion des déchets nucléaires et certains pays comme la Suède ont déjà choisi de les mettre en oeuvre". En introduction, Mme Fontaine avait estimé que la politique énergétique était confrontée à deux défis, l'effet de serre, "le plus grave et le plus urgent" de tous les problèmes "auxquels nous devons faire face", et le "renchérissement inévitable, à terme, des prix du pétrole et du gaz". Elle avait rappelé qu'il faudrait "diviser par quatre les émissions de gaz à effet de serre en France d'ici à 2050". Elle avait également insisté sur la volonté du gouvernement de "mobiliser tous les moyens" pour "relancer la politique de maîtrise de l'énergie". Le débat sur les énergies a été lancé au début de l'année par le gouvernement pour définir les grandes lignes de la politique énergétique de la France pour les 30 ans à venir. Mme Fontaine en dressera le bilan le 18 juin dans une communication au conseil des ministres.

AFP : http://fr.news.yahoo.com/030524/202/37u9d.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un nouveau système révolutionne l'imagerie médicale
Samedi, 31/05/2003 - 00:00

Les techniques d'imagerie, entres autres d'imagerie médicale, étaient jusqu'a présent limitées a un domaine étroit du spectre électromagnétique. Le rayonnement Terahertz permet d'étendre ce spectre du visible à la fréquence radar. Avec un inconvénient : la méthode utilise un système laser extrêmement onéreux. La recherche d'une source de plus économique a amené des chercheurs des universités de Braunschweig et Bochum à développer un appareil travaillant en rayonnement laser continu. Le procédé mis au point coûte moins de 100 euros et laisse désormais envisager une utilisation étendue du rayonnement Terahertz. La composante principale du système est une diode laser, semblable a celles que l'on trouve dans tout lecteur de disques compacts. A l'aide d'éléments optiques en aval, cette diode émet dans l'infrarouge a deux fréquences et de façon simultanée. La différence des fréquences se situe dans le domaine des Terahertz. Suite à la premier étape, appareil génère, au moyen d'un procédé électromagnétique, le rayonnement en Terahertz correspondant au potentiel précédemment mesure. La technique a déjà fait ses preuves : employée a l'analyse d'un morceau de foie cancéreux humain, elle a permis d'identifier la position exacte de la tumeur, le tissu sain réagissant différemment du tissu malade a l'irradiation. Si cette nouvelle technologie a un potentiel énorme en ce qui concerne diagnostics médicaux et les bioanalyses, elle est également très prometteuse pour tout ce qui a trait aux techniques de sécurité, par exemple dans les domaine de l'aviation et de la recherche cosmétique. La méthode pourrait également éviter de procéder a des actes médicaux de radiographie, nuisibles a la santé.

BE Allemagne : http://www.be.adit.fr

Des chercheurs strasbourgeois observent la réplication de l'ADN endommagé
Samedi, 31/05/2003 - 00:00

Des chercheurs strasbourgeois ont annoncé avoir réussi pour la première fois à avoir une vision en temps réel de la manière dont "la machinerie cellulaire arrive à répliquer son génome malgré la présence de dommages sur l'ADN".Les chercheurs de l'équipe de Robert Fuchs, basée à l'Institut de recherche contre les cancers de l'appareil digestif (IRCAD) de Strasbourg, ont observé une pause "de l'ordre de 50 minutes" dans la réplication de la cellule lorsque le processus arrive au secteur d'ADN endommagé. Ensuite, "la réplication reprend son cours" après "l'intervention d'ADN polymérases spécialisées récemment découvertes". En conséquence, "l'étude de ces ADN polymérases spécialisées constitue actuellement un enjeu majeur car elles représentent potentiellement de nouvelles cibles pharmacologiques", avancent les chercheurs. Les cancers apparaissent lorsque les cellules se répliquent avant que les dommages causés à l'ADN par des agressions chimiques et physiques n'aient été réparés. Leur réplication fixe alors définitivement ces dommages "sous forme de mutations génétiques", rappelle le communiqué. Pour donner une "vision en temps réel de ce qui se passe lorsque la machinerie réplicative rencontre un tel dommage" les chercheurs ont "construit une molécule d'ADN portant un dommage induit par un cancérogène chimique, introduit cette construction dans une cellule et analysé les intermédiaires de réplication en fonction du temps". Ces résultats "mettent en lumière le mécanisme de formation des mutations à l'origine de toutes formes de cancer.

Science du 23 mai 2003 :

http://www.sciencemag.org/cgi/content/abstract/300/5623/1300?etoc

Une micro-pompe cardiaque implantable en 2010
Samedi, 31/05/2003 - 00:00

le professeur André Garon travaille à la mise au point d'un nouveau type de pompe qu'on pourra insérer à l'intérieur même du coeur d'un patient affligé d'une insuffisance cardiaque. Cette pompe ne pèsera que 55 grammes et n'aura qu'une longueur de 22 millimètres, c'est dire qu'elle ne sera guère plus grosse que la moitié du pouce d'un adulte moyen. Pourtant, elle assurera le même débit de cinq litres de sang à la minute que fournit, au repos, le coeur d'une personne moyenne. Le chirurgien posera cette pompe dans le ventricule supérieur gauche du coeur, celui qui est responsable de propulser le sang dans l'ensemble du corps. « En fait, explique André Garon, professeur titulaire au Département de génie mécanique, elle se substituera au ventricule et poussera directement le sang dans l'aorte. » Au moment de la mise en marche, le pouls du patient cessera et il faudra un stéthoscope ultrasensible pour repérer l'infime sifflement de l'appareil. La mise au point d'un tel mécanisme représente un formidable défi d'ingénierie et fait appel à une foule de disciplines qu'on associe plus volontiers à l'aérospatiale de pointe : dynamique des fluides, matériaux avancés, mécanique miniaturisée. « En fait, on fait face à la fameuse triade de Virchow, avance le Pr Garon, dans laquelle il s'agit d'optimiser les rapports des trois composantes de la force, du temps de résidence et de la surface. » L'impératif majeur consiste à assurer un débit massif (pour une si petite pompe) tout en annulant les effets négatifs que cette dynamique hydraulique peut avoir sur le sang. Ainsi, faut-il contrôler le tranchant et l'inclinaison des pales en tenant compte du fait qu'elles risquent de déchirer la membrane des globules rouges. Par ailleurs, il faut leur assurer la plus haute vélocité de façon à minimiser le temps de résidence du sang dans la chambre. Car, s'il y a risque à court terme d'éclatement des globules, à plus long terme, des surfaces mal conçues pourraient entraîner la formation de caillots de sang. « Il peut y avoir un grand pic de force, explique le Pr Garon, ce qui n'est pas dommageable si, en contrepartie, le temps de résidence est court. » Et puis, il y a la chaleur produite par le moteur qui ne doit pas dépasser 42 °C, sinon le sang risque là encore d'être abîmé. Bref, le nombre de paramètres à contrôler est démesuré, leur nombre étant de l'ordre de 340. Pour jongler avec tant de variables, il a fallu trouver une voie simplifiée. « On a développé des plans d'expérience statistique, dit le chercheur. Au lieu de faire varier systématiquement les paramètres, on les fait varier tous en même temps, ce qui nous confronte à un échantillon beaucoup plus abordable de 100 possibilités. » Résultat : même si elle tourne à 10 000 tours à la minute, la pompe aura une durée de vie d'au moins 10 ans. Cette durabilité est attribuable au fait que le mécanisme ne comporte qu'une seule partie mobile, composée du rotor et des pales qui y sont rattachées. En fait, la partie la plus fragile est constituée de l'électronique de contrôle qui, pour cette raison, sera logée séparément de la pompe. « Une implantation sous-cutanée va faire en sorte que, si l'électronique flanche, son remplacement va nécessiter une opération mineure, » souligne le Pr Garon. Jusqu'ici, tous les résultats en laboratoire se sont avérés probants, de telle sorte que la pompe passera en essais sur les animaux sous peu. Si tout va bien, en 2010 les premiers patients verront leur coeur devenir silencieux.

Ecole Polytechnique de Montréal :

http://www.polymtl.ca/recherche/rc/garon.php

L'autisme : un syndrome complexe aux causes multiples
Samedi, 31/05/2003 - 00:00

Les romans de Howard Buten et le film Rainman ont, ces vingt dernières années, contribué à ouvrir les yeux du public sur l'autisme, maladie longtemps méconnue quoique définie scientifiquement depuis le début des années 40. Pour autant, ce trouble du développement notamment caractérisé par une sociabilité défaillante - mais parfois aussi par des capacités intellectuelles hors du commun -, demeure très largement incompris des médecins. L'autisme, qui touche environ 100 000 personnes en France, est un syndrome qui regroupe en fait plus d'une vingtaine de pathologies différentes dont la plupart sont encore mal connues. Il ne présente en outre aucun marqueur biologique qui permette de poser un diagnostic catégorique. Aussi le dépistage s'organise-t-il autour de critères cliniques dont l'Organisation mondiale de la santé a dressé la liste en 1993. Depuis lors, un enfant est considéré comme autiste lorsqu'il présente, avant l'âge de 3 ans, les trois caractéristiques suivantes: déficit de l'interaction sociale, difficultés de communication verbale et non verbale, anomalies sur le plan moteur - mouvements stéréotypés, troubles obsessionnels compulsifs... Ces dysfonctionnements, qui affectent trois fois plus souvent les garçons que les filles, surviennent au cours de la période de maturation du cerveau et s'expliquent probablement par des défaillances dans l'établissement de certaines connexions neurologiques. Fortement marquée par l'approche psychanalytique des troubles du développement, la communauté scientifique a longtemps considéré que l'autisme était le marqueur d'une carence affective entre les enfants et leur mère. Un point de vue qui, très culpabilisant pour ces dernières, est désormais considéré comme dépassé. Les chercheurs estiment en effet qu'il s'agit du plus génétique des troubles psychiatriques - une famille qui compte déjà un enfant autiste verrait multiplier par cinquante le risque d'en voir un second venir au monde - et travaillent d'arrache-pied à identifier les gènes qui prédisposent à l'autisme. «Mais cette pêche aux gènes avance lentement, explique le docteur Catherine Milcent. Elle est en effet compliquée par la grande hétérogénéité des pathologies rassemblées sous le nom d'autisme, qui pourraient bien n'avoir aucune signature génétique commune.» Des recherches récentes confirment néanmoins cette base génétique de l'autisme. Ainsi, si près d'un enfant sur 1.000 est touché, ce sont quatre fois plus souvent des garçons que des filles. Par ailleurs, le risque de récurrence dans les familles d'autistes est 45 fois plus élevé que dans la population générale. Les études chez les vrais jumeaux montrent que lorsqu'un enfant est atteint, l'autre a une probabilité de 60% de l'être également. Aujourd'hui, des mutations altérant deux gènes situés sur le chromosome X ont été identifiés dans deux familles distinctes présentant des membres autistiques. Cette découverte est le fruit d'une collaboration franco-suédoise. Ces gènes appelés NLGN3 et NLGN4 codent pour des protéines d'adhésion cellulaire, localisées au niveau des synapses (régions indispensables à la communication entre nos neurones). Ainsi, leur altération pourrait affecter certaines synapses essentielles au processus de communication, d'où un déficit dans ce domaine chez les patients présentant des troubles autistiques. En d'autres termes, un défaut dans la formation des synapses prédisposerait à l'autisme. Mais la découverte de ces deux mutations génétiques ne signifie que nous ayons découvert la cause de l'autisme. En effet, il est fort probable que plusieurs gènes soient impliqués dans ce trouble complexe et hétérogène. De plus, les gènes responsables varient très certainement d'une famille à une autre. Si certaines pathologies rarissimes incluses dans la large définition de ce syndrome peuvent être traitées, les médecins demeurent incapables de guérir l'immense majorité des enfants autistes. Il est donc essentiel, sur la base d'un dépistage précoce, de les faire bénéficier de méthodes éducatives adaptées qui, chez la plupart des malades, permettent de réduire sensiblement la gravité du handicap. Plusieurs psychiatres américains s'inquiètent de constater une forte augmentation du nombre de cas d'autismes diagnostiqués au cours des dernières années. Et redoutent que la maladie ne soit entrée dans une phase épidémique: selon les dernières estimations, ce syndrome touche désormais pas moins de six enfants sur mille. Rien ne prouve, cependant, que cette montée en puissance n'est pas simplement due au renforcement des systèmes de dépistage.

Brève rédigée par @RT Flash

Figaro : http://www.lefigaro.fr/sciences/20030522.FIG0093.html

ESanté : http://www.e-sante.fr/francais/accueil.asp

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top