RTFlash

RTFLASH Recherche & Technologie
NUMERO 182
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Février 2002
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Première cyber-cabine téléphonique publique à New-York
Une alliance pour des normes communes sur internet
Carte de crédit : votre banquier vous a à l'oeil!
La France prépare une carte d'identité électronique
Un ordinateur portatif petit mais costaud!
Les communications laser sans fibre optique
Trop de fibres optiques nuit aux télécoms
Bientôt 1 milliard de téléphones portables dans le monde
Avenir
Nouvelle étape vers la téléportation de la matière
La guerre du XXIe siècle sera hypertechnologique
Matière
Un dispositif électronique dans un fil nanométrique
Terre
Protocole de Kyoto : encore beaucoup de chemin à faire pour la France
Vivant
Une thérapie génique contre le cancer du colon
Le vaccin anti-grippal préviendrait les AVC
Accidents vasculaires cérébraux: un espoir de traitement
Crise cardiaque : un test sanguin pour détecter les personnes à risque
Des substituts du sang bientôt disponibles
Découverte d'une nouvelles molécule dans des cellules de la rétine
L'hépatite C, une maladie que l'on peut guérir
L'activité intellectuelle réduit les risques de maladie d'Alzheimer
La génétique risque de déstabiliser la démographie mondiale
Recherche
Le grand défi technologique du futur supersonique
Edito
Le virtuel et la cécité



Le Salon « Imagina » qui renaît cette année nous montre que les progrès annoncés dans l'image de synthèse sont arrivés. Les mouvements complexes telles que des vagues sur l'eau ou des panaches de fumée sont devenus très réalistes alors qu'il y a deux ans seulement les invraisemblances étaient encore nombreuses. Avec un tel constat, nous comprenons mieux l'importance de l'augmentation de la fréquence avec laquelle bat le coeur de l'ordinateur de Monsieur Toutlemonde. Là où les informaticiens et les ingénieurs ne pouvaient résoudre en 1971 avec le premier microprocesseur qu'une équation par seconde, ils ont maintenant la capacité d'en résoudre quelque 22.000 par seconde avec le dernier Pentium IV cadencé à 2,2 Giga. Mais pendant ce temps-là, que fait notre Société pour se préparer à une telle mutation ? Rien. Comme je l'écrivais dès le 10 novembre 1999 dans ces colonnes (voir mon édito de la lettre 71 http://www.tregouet.org/lettre/1999/Lettre71-Au.html) le plus grand danger qui va hanter l'avenir de nos jeunes et des personnes les plus faibles, ce sont les mondes virtuels. Une personne peu heureuse dans sa vie, comme elle le fait ou du moins le cherche aujourd'hui avec la drogue, se plongera dans ces mondes virtuels où elle se fera Roi ou Reine et son cerveau sera si trompé par le réalisme de ces mondes virtuels qu'il est à craindre qu'elle ne veuille pas en ressortir. De grands acteurs mondiaux du logiciel en tête desquels il faut placer, sans conteste, Microsoft, ont bien compris toute l'importance que vont prendre ces mondes virtuels. Il n'est pas innocent de constater que, pour la première fois de sa déjà longue mais oh ! combien impressionnante histoire, Microsoft décide de sortir de son domaine du signal pour se lancer avec détermination dans le domaine du hard en commercialisant une console de jeux. Après avoir su capter plus de 90 % des utilisateurs de micro-ordinateurs et sachant que ce monde est appelé à disparaître dans les 20 ans qui viennent, Microsoft, avec lucidité et détermination, a décidé, avec méthode, d'accaparer par le virtuel le cerveau de nos enfants. Ce qui est extraordinaire dans nos temps modernes, c'est que nos démocraties souffrent d'une telle cécité et montrent une telle incapacité à imaginer l'avenir qu'elles ne semblent pas prendre conscience des stratégies à long terme qui sont froidement appliquées par ces grands groupes mondiaux qui, eux, accordent toute son importance à la prospective. Ainsi, les Pouvoirs Publics de toutes nos démocraties dites avancées, que ce soit les Etats-Unis ou notre Pays, restent sans réagir quand des sociétés agro-alimentaires mondiales ajoutent du sucre ou (et) du sel dans leurs sodas ou leurs plats pour rendre peu à peu notre organisme, et plus spécifiquement celui de nos enfants, dépendants de ces sucres et de ce sel. Pourquoi diable restons-nous sans réagir alors que nous constatons que plus de la moitié des américains sont obèses et que l'obésité touche dorénavant 17 % des enfants français alors qu'ils n'étaient que 5 % en 1980 ? Il est du devoir des Gouvernements de tout mettre en oeuvre pour comprendre en temps utile les conséquences que pourraient avoir les stratégies mises en place par les grands groupes mondiaux. Ainsi, dans le domaine du virtuel qui, très rapidement, va devenir un sujet majeur, la réplique des Gouvernements ne doit surtout pas s'installer dans l'interdiction ou la répression. Cela rendrait ces mondes virtuels encore plus attractifs pour une jeunesse non encore stabilisée. La réponse ne peut se trouver que dans le domaine de l'éducation. Ainsi, est-il normal, alors que les technologies ont tellement évolué dans ces dernières décennies, que nos enseignants dans les écoles, les collèges et souvent même dans les lycées ne disposent encore que d'un tableau au mur et de leur propre élocution pour faire acquérir des savoirs nouveaux à leurs élèves ? Nombreux sont ceux qui n'ont pas encore compris le rôle qui va être joué par l'image dans notre société de demain. Elle va bouleverser notre vision du monde et changer de grandeur notre capacité d'accéder à de nouveaux savoirs. Or, actuellement, seulement les acteurs privés semblent avoir pris conscience de l'importance que va prendre l'image. Cela ne peut plus continuer ainsi. L'Histoire de notre Pays, car c'est bien là que se situent les enjeux, changera quand le petit gamin de 8 ans, revenant de l'école, dira à sa mère « Tu sais, Maman, c'est super, la grande image dont se sert mon maître à l'école pour m'expliquer le monde est autrement plus belle que celle de ma Xbox, Playstation ou Gameboy ». En effet, pourquoi ne prendrions-nous pas, tous ensemble, la ferme résolution que dorénavant la plus belle image serait à l'école à la disposition des enseignants et de leurs élèves et non plus sur les consoles de jeux de nos enfants. C'est ainsi qu'avance le monde : avec des images simples mais fortes.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Première cyber-cabine téléphonique publique à New-York
Samedi, 16/02/2002 - 00:00

Une petite compagnie de téléphone new-yorkaise a installé lundi dans une rue de Manhattan une première cabine d'accès payant à internet, prévoyant d'en ouvrir une centaine à New York d'ici un an. L'écran couleur de l'ordinateur et le clavier sont la seule chose qui différencient à première vue la cyber-cabine disposée par TCC Teleplex à l'angle de la 46ème rue et de la Cinquième Avenue. Contre un dollar les quatre minutes, les internautes de passage peuvent envoyer des courriers électroniques, consulter le Web, téléphoner aux antipodes pour le prix d'une connexion locale, envoyer des cartes de voeux ou même se prendre en photo digitale et l'envoyer sur la toile. "C'est un test sur trente jours dont nous avons convenu avec la ville de New York" explique Allan Rothenstreich, directeur du projet pour TCC Teleplex. Cette société indépendante possède environ 1.500 cabines téléphoniques classiques dans New York mais "nous avons enregistré une baisse de leur fréquentation à cause des téléphones cellulaires. C'est une diversification naturelle", ajoute-t-il. La cabine a été étudiée pour résister aux intempéries et solidement encastrée pour ne pas exciter les convoitises. Les premiers usagers faisaient la queue lundi pour l'utiliser. "Je me rendais à un défilé de mode quand j'ai reçu un coup de fil de mon bureau m'indiquant qu'ils m'avaient envoyé un document à mon adresse électronique", indique Chris Callnek, 25 ans, directeur des ventes de Public Internet Exchange. "Je peux consulter mon courrier à mon hôtel mais l'avantage de cette cabine c'est qu'elle accessible dans la rue et qu'elle est haut débit".

NYT :

http://www.nytimes.com/2002/02/10/technology/10PHON.html

Une alliance pour des normes communes sur internet
Samedi, 16/02/2002 - 00:00

Microsoft, IBM et plusieurs autres géants technologiques annoncent la formation d'une alliance dont l'objectif est de travailler sur des normes communes facilitant le partage de l'information et le commerce inter-entreprises via internet. Au sein de ce groupe baptisé Web Services Interoperability Organization (WS-I) se côtoient Microsoft, IBM mais aussi Intel, Oracle, SAP, Hewlett-Packard et Fujitsu Business Systems. Ces entreprises utilisent soit la technologie .NET de Microsoft, soit la technologie concurrente Java développée par Sun Microsystems. Sun, concurrent acharné de Microsoft, n'est pas sur la liste des partenaires. Mais selon un porte-parole, "Sun s'est engagé et s'engagera à fournir ces normes au secteur au fur et à mesure de leur mise en place et de leur évolution". L'objectif de la WS-I est d'établir une norme commune pour les services Web - un nouveau marché pour les éditeurs de logiciels qui facilitent le partage d'informations entre différents systèmes d'ordinateurs et permet l'exécution de différentes tâches comme la gestion de stocks sur le web. L'organisation veut s'assurer que les entreprises utilisent de la même façon les normes techniques de base -telles que XML, WSDL, UDDI- qui permettent de développer des services Web, a expliqué Bob Sutor, directeur du Programme pour la Technologie XML chez IBM.

Reuters :

http://fr.news.yahoo.com/020207/85/2h7z3.html

Carte de crédit : votre banquier vous a à l'oeil!
Samedi, 16/02/2002 - 00:00

A l'occasion du CeBIT 2002 à Hanovre, la société coréenne spécialisée dans les solutions de sécurité Internet, Senex Technology (http://www.senextech.com) dévoilera son premier système de vérification de carte de crédit basé sur la reconnaissance de l'iris. Baptisé TrueEYE, ce produit permet d'identifier le détenteur de la carte, puis de procéder à la transaction dès que l'iris a été vérifié. Une caméra infrarouge réalise cette identification, rendant ainsi inutile la signature d'un bordereau ou la présentation de papiers d'identité lors d'un paiement. Cette technologie résout à terme le problème des cartes volées. L'iris permet les vérifications les plus fiables. De plus, ce système de vérification ne nécessite aucun contact physique. La biométrie apparaît de plus en plus comme l'un des meilleurs systèmes de contrôle. Si elle est adoptée par l'IMT 2000, la vérification de l'iris permettra aussi des transactions via l'Internet mobile. TrueEYE ne requiert que 128 bytes pour extraire les caractéristiques de l'iris. Le port de lentilles de contact ou de lunettes ne gêne pas le fonctionnement du système. De plus, cette technologie garantit un haut niveau d'identification la nuit. Le dessin de l'iris est saisi par une caméra infra-rouge et mémorisé sous forme de photo noir et blanc. Cette image est ensuite codée et enregistrée dans une base de données. La vérification de l'iris ne prend que quelques secondes.

Atelier BNP Paribas :

http://www.atelier.fr/

La France prépare une carte d'identité électronique
Samedi, 16/02/2002 - 00:00

« Titre fondateur ». C'est le nom de la mission officiellement constituée par le ministère de l'Intérieur, en décembre dernier, pour réfléchir à l'identité électronique des citoyens, et aux moyens d'en garantir le contrôle. Annoncée par le ministre Vaillant, dans le cadre du plan d'action pluriannuel pour les préfectures 2002-2004, cette mission, dirigée par le haut fonctionnaire Michel Aubouin, doit établir les procédures d'enregistrement d'un titre national d'identité, servant à « authentifier les rapports entre l'Administration et les usagers ». L'objectif poursuivi vise à donner à chaque Français un numéro d'identifiant unique, servant à la fois de signature pour les échanges en ligne avec l'Administration et de clé d'accès personnel pour la consultation de données administratives. Dans le chantier de l'Administration électronique, le ministère de l'Intérieur semble donc décidé à jouer son rôle « sécuritaire ». Une commission présidée par le magistrat Pierre Truche a été chargée de réfléchir avec la Cnil aux limites légales d'une évolution possible vers un numéro d'identifiant unique utilisé par l'Administration. Sur ce sujet, le rapport Truche, prévu pour fin février, définira le nouvel équilibre entre interconnexion des fichiers et contrôle citoyen des données, rendu possible grâce aux technologies de l'information. En attendant, à Bruxelles, la présidence belge de l'Union s'est concentrée sur « l'identification électronique des citoyens » en publiant, en novembre, un état des lieux des projets en cours chez les Quinze. Dans ce rapport, l'identification unique et la mise en réseau généralisée apparaissent comme un objectif communautaire, déjà réalisé par la Suède, la Finlande et le Luxembourg. À ce jour, seules la Finlande et la Suède ont développé une carte d'identité électronique : l'une certifiée par l'Administration publique, l'autre par un organisme privé, qui associe La Poste et les grandes banques. L'Italie de son côté réalise des expérimentations dans les grandes villes et annonce une carte d'identité électronique pour 2003.

OI Net : http://www.01net.com/actus/

Un ordinateur portatif petit mais costaud!
Samedi, 16/02/2002 - 00:00

Lors de la Demo Computer Conference qui vient de se tenir à Phoenix, IBM a présenté le MetaPad, une unité centrale miniaturisée dotée d'une architecture multi-plateforme. Le MetaPad, de la taille d'un assistant personnel numérique (1,9 cm d'épaisseur, 7,62 cm de long et 12,7 cm de large, pour un poids de 255 g.), bénéficie d'un microprocesseur de 800 MHz, de 128 Moctets de RAM, et il est capable de contrôler sa vitesse de traitement et sa consommation énergétique. Il peut être connecté soit à un clavier et à un moniteur pour prendre la forme d'un PC, soit à un écran tactile pour être utilisé sur Palm OS, et il fonctionne également sur Linux. Diverses extensions permettent au MetaPad de se transformer en lecteur DVD ou MP3, voire en téléphone cellulaire "smart". Relié à un petit écran tactile, il se transforme en PDA « avec la puissance et les fonctionnalités d'un ordinateur de bureau », précise le communiqué d'IBM Research. Le MetaPad incarne ainsi le concept que Big Blue désigne sous l'appellation de "pervasive computing" (calcul omni-présent), et pour lequel il compte sur la perspicacité du consommateur, à la fois pour explorer le potentiel de cet appareil multifonctions et orienter ses développements futurs. MetaPad evrait être lancé sur le marché d'ici deux ans.

NYT 07/02/02 : http://www.nytimes.com/2002/02/07/technology/circuits/07META.html

Les communications laser sans fibre optique
Samedi, 16/02/2002 - 00:00

La technologie de télécommunication par laser à travers l'atmosphère est connue depuis le milieu des années soixante. Néanmoins, tous les systèmes de télécommunications de ce type utilisant des lasers infrarouges ont connu bien des problèmes du fait des interférences qu'entraînent la pluie, la neige et le brouillard. Certains progrès récents permettent aujourd'hui de relancer le développement de cette solution. Ainsi Trex, une entreprise de San Diego (Californie) a conçu des systèmes constitués de capteurs sensibles à plusieurs longueurs d'onde (lumière visible, infrarouge, micro-ondes), utilisés pour les télécommunications entre les avions et les stations de contrôle au sol. Egalement située à San Diego, LightPointe Communications a mis au point un dispositif permettant de s'affranchir des turbulences atmosphériques que l'on trouve dans les villes. Une simple variation de la température ambiante, le souffle d'une tempête, les séismes les plus anodins et les vibrations des bâtiments auxquels sont fixés les appareils peuvent également perturber ce mode de transmission par laser. Aussi Terabeam de Kirkland (Washington) a-t-elle développée une solution reposant sur l'utilisation de miroirs rotatifs qui permettent un ajustement constant des rayons laser.

NYT 07/02/02 : http://www.nytimes.com/2002/02/07/technology/circuits/07NEXT.html

Trop de fibres optiques nuit aux télécoms
Samedi, 16/02/2002 - 00:00

Recemment l'opérateur Global Crossing est passé des sommets de la Bourse, où il avait été valorisé jusqu'à plus de 50 milliards de dollars (58 milliards d'euros)... au tribunal de commerce, dans le cadre de la faillite la plus retentissante du monde des télécommunications. Un autre opérateur de réseau global, Level 3, a lui aussi reconnu qu'il risquait de ne pas pouvoir honorer ses engagements financiers. Dans le monde des télécoms, la cause des déboires de ces opérateurs porte un nom : le « fiber glut », la surabondance de fibres optiques installées à travers le monde. La plupart des experts s'accordent à dire que seulement 3 à 5 % de la fibre posée pour les réseaux mondiaux est « allumée », c'est-à-dire utilisée pour faire transiter des communications, le reste étant constitué de fibres inertes. « Mais sur certaines routes, le taux d'usage est inférieur , relève Stephen Young, analyste chez Ovum. Je connais un tronçon entre deux villes en France où une seule fibre a été allumée sur cent installées. » Le surcoût lié aux fibres inertes est certes faible - une fois l'installation effectuée, la dépense liée au placement de chaque fibre supplémentaire est quasi nulle. Mais ce n'est pas le cas des fibres en exploitation, qui nécessitent la mise en place d'équipements coûteux. Ainsi, les câbles sous-marins reliant l'Amérique à l'Europe étaient ceux sur lesquels les opérateurs de réseaux mondiaux comme Global Crossing misaient le plus. « Mais, compte tenu de l'excès d'offre sur la route transatlantique, seulement 5 % des fibres allumées génèrent du chiffre d'affaires », estime Jean-Charles Doineau, analyste à l'Idate. Comment un tel décalage entre l'offre et la demande a-t-il pu voir le jour ? Première explication : ces réseaux ont été construits avec la certitude que le trafic sur Internet allait croître de façon exponentielle. Ce fut certes le cas entre 1998 et 1999 où il a crû de 50 % par an sur la route transatlantique. Mais, aujourd'hui, la hausse du volume de communications s'est tassée pour atteindre de 15 à 20 % par an, indique Jean-Charles Doineau. Des relais de croissance comme l'accès haut débit, la vidéo à la demande ou l'accès distant aux logiciels (ASP) n'ont pas décollé aussi vite que prévu. Qui plus est, l'introduction de la technologie de multiplexage dense en longueurs d'onde (« Dense Wavelength Division Multiplexing », DWDM) a permis de faire transiter jusqu'à 200 canaux d'information sur une même fibre, démultipliant la capacité des réseaux installés. En outre, le caractère incontrôlable du réseau a aussi joué les trouble-fête. Contrairement à un réseau propriétaire reliant deux communications d'un point à un autre, une connexion Internet de Paris vers New York peut transiter par Johannesburg s'il s'agit de la voie la plus rapide au moment où elle est effectuée. Difficile donc de prévoir le trafic effectué sur une voie précise comme la route transatlantique. « Actuellement, sur chaque appel d'offres pour de la bande passante, il y a une trentaine de concurrents qui se battent », déplore un expert. Résultat de la surabondance de l'offre, le prix de la bande passante a chuté de 70 % en 2000 selon le cabinet Analysys, une baisse qui s'est poursuivie en 2001. Dans une étude où il prévoyait des surcapacités, Ovum estimait que si l'offre de capacité des réseaux transatlantiques restait stable entre 2000 et 2005, elle finirait ensuite par s'équilibrer avec la demande.

Les Echos :

http://hightech.lesechos.fr/

Bientôt 1 milliard de téléphones portables dans le monde
Samedi, 16/02/2002 - 00:00

Le nombre de téléphones portables dans le monde a augmenté de 40% en 2001 et devrait bientôt atteindre un milliard d'unités, soit plus que le nombre de lignes téléphoniques fixes, a annoncé l'International Telecommunication Union (ITU), agence spécialisée des Nations unies. Il y avait 1,045 milliard de lignes fixes à la fin 2001, contre près d'un milliard de mobiles, a précisé le porte-parole de l'ITU, Gary Fowlie. "Etant donné que le taux de croissance des mobiles était de 38% l'année dernière, cela ne prendra pas longtemps. Nous pourrions déjà l'avoir dépassé", a-t-il souligné. L'agence onusienne a expliqué dans un communiqué que le marché de la téléphonie sans fil était au bord de la saturation en Europe de l'Ouest, mais qu'il y avait un potentiel de croissance dans des pays en développement, tels que la Chine ou l'Inde. Mais le fait que dans certains pays, comme les Etats-Unis ou le Canada, celui qui passe l'appel et celui qui le reçoit doivent payer tous les deux a été "très dissuasif", selon l'agence basée à Genève. L'industrie a déjà dépensé plus de 100 milliards de dollars pour acquérir les licences de troisième génération, selon l'ITU, mais le lancement de cette nouvelle norme a pris du retard.

Reuters. :

http://fr.news.yahoo.com/020208/85/2haiv.html

^ Haut
Avenir
Nanotechnologies et Robotique
Nouvelle étape vers la téléportation de la matière
Samedi, 16/02/2002 - 00:00

La téléportation de la matière est un vieux rêve qui pourrait devenir réalité. Des physiciens travaillent sur une méthode qui devrait permettre de « corréler » n'importe quelles particules ; un préalable indispensable à la téléportation. La corrélation quantique est un phénomène qui se traduit par la capacité qu'ont deux particules de se comporter comme si elles n'étaient qu'une, aussi loin qu'elles soient l'une de l'autre. Un physicien britannique et un physicien indien ont démontré mathématiquement qu'il était possible de corréler des électrons, mais également des atomes et des molécules ; une grande découverte qui ne s'appliquait jusqu'à aujourd'hui qu'aux photons. En observant deux particules qui sont tout le temps dans le même état quantique, un mot est immédiatement apparu dans la tête des chercheurs : téléportation ! En effet, deux particules qui agissent l'une sur l'autre, instantanément et à distance, devrait pouvoir être manipulées pour échanger des informations. Démontrer que cette « téléportation quantique » est possible avec des particules massives est une étape décisive.

Physical Review Letters du 4 février 2002 : http://prl.aps.org/prlinfo.html

La guerre du XXIe siècle sera hypertechnologique
Samedi, 16/02/2002 - 00:00

Dans leur blindé, les soldats de la "bulle de contact", assis devant des écrans, observent les images vidéo et interprètent les différentes mesures (radar, laser, infrarouge...) prises par les drones survolant la zone de combat et les robots infiltrés dans les faubourgs de la ville qui abritent les troupes ennemies. Le char relaie l'ensemble de ces informations vers ses homologues, les autres "engins blindés à roue de contact" (EBRC), ainsi que vers les postes de commandement de l'artillerie et de l'aviation. Il peut également activer l'armement intégré aux robots et aux drones afin de détruire certaines cibles ponctuelles. A l'abri du relief et de leur protection par micro-ondes, les soldats les plus proches de la ligne de front sont nettement moins exposés qu'auparavant. Un tel scénario futuriste pourrait devenir réalité si le projet Bulle opérationnelle aéroterrestre (BOA), présenté le 6 février par la délégation générale pour l'armement (DGA), se concrétise. Pour l'instant, il s'intègre au "plan prospectif à 30 ans (PP30)" qui définit le cadre général des "études des perspectives technologiques". Bertrand Ballarin, colonel de l'armée de terre, définit la philosophie du projet BOA comme "une extension du principe de déconnexion physique entre les capteurs et les lanceurs puis de reconnexion avec le système d'information". Derrière ce jargon de spécialiste, c'est une "révolution dans l'emploi d'une unité de contact"qui se prépare. Aujourd'hui, ces troupes manoeuvrent souvent à vue directe et doivent maintenir le contact avec la ligne de front pour garantir l'acheminement de l'information, ce qui les rend particulièrement vulnérables. Demain, elles feront appel à des "capteurs" permettant de recueillir des données "au-delà de la vue directe", c'est-à-dire à une distance plus importante du coeur des opérations. La mise en oeuvre d'une telle stratégie s'appuie largement sur le développement des réseaux de télécommunication et de la robotique militaire. C'est même cette dernière qui promet une véritable rupture avec les pratiques actuelles. La DGA travaille ainsi sur deux axes majeurs : les robots terrestres et les drones, ces avions sans pilote qui font de plus en plus parler d'eux, du Kosovo à l'Afghanistan. L'ensemble de ces équipements deviendront, dans un premier temps, les yeux et les oreilles des unités de contact. Ensuite, les machines plus ou moins autonomes participeront directement aux combats. Le domaine des robots terrestres couvre une vaste gamme d'engins, allant du char lourd téléopéré à des engins d'observation de toutes tailles et de structures variées suivant les usages auxquels ils sont destinés. A terme, une panoplie sera constituée par différents types de robots pouvant coopérer et s'entraider.. Cette ménagerie de robots militaires assurera des missions de reconnaissance, d'observation et de combat, en particulier dans les zones urbaines difficiles d'accès pour les engins blindés. Parmi les verrous technologiques, le problème de l'énergie embarquée reste critique, surtout pour les petits robots dont les capacités en batterie sont limitées et qui doivent pouvoir se déplacer à 6 ou 7 km/h pour ne pas ralentir la manoeuvre. Dans les airs, les drones joueront un rôle similaire. Catherine Fargeon, responsable des systèmes de drones à la DGA, distingue trois étapes. Aujourd'hui, les drones existants disposent d'une voilure fixe de 30 à 50 cm qui leur permet de se déplacer à des vitesses inférieures à 30 km/h. La seconde génération, vers 2007-2010, plus petite, de 20 à 30 cm, sera capable de rester en vol stationnaire grâce à des rotors carénés et disposera d'une certaine "tenue à la rafale". Ces modèles seront adaptés à l'observation en milieu urbain. Ils pourront se déplacer en évitant les immeubles et se poster au sommet d'une tour pour en surveiller l'intérieur. Après 2015, des drones encore plus miniaturisés, moins de 15 cm d'envergure, pourront se glisser à l'intérieur même des bâtiments, un peu comme les sphères imaginées par Frank Herbert dans son roman Dune. En attendant de concrétiser les rêves ou les cauchemars des auteurs de science-fiction, le premier système d'armes issu du projet BOA, l'EBRC, devrait entrer en service en 2011 pour des missions de reconnaissance et de combat. L'EBRC sera équipé de canons, missiles et, ultérieurement, d'armes à énergie dirigée (laser et micro-ondes). Sa protection balistique doit également évoluer grâce à des moyens réactifs "capables de détruire avant impact la munition adverse". Tapis dans leur EBRC, les soldats se transformeront de plus en plus en manipulateurs d'engins robotisés et en centre de collecte et d'aiguillage d'informations. Il deviendra alors essentiel d'alléger au maximum leur charge de travail afin qu'ils conservent une vision stratégique des opérations. Un subtil partage des fonctions entre hommes et machines au combat s'ébauche.

Le Monde : http://www.lemonde.fr/article/0,5987,3244--261884-,00.html

^ Haut
Matière
Matière et Energie
Un dispositif électronique dans un fil nanométrique
Samedi, 16/02/2002 - 00:00

Les nanotechnologies ont déjà permis de réaliser des dispositifs électroniques expérimentaux, en assemblant des nanotubes de carbone et de nanofils semiconducteurs. Des chercheurs de Harvard ont maintenant trouvé le moyen de fabriquer un fil nanométrique qui est un dispositif fonctionnel à lui tout seul. Le groupe de recherche en chimie physiqye d'Harvard, qui publie ses résultats dans la revue Nature, a en effet réussi à fabriquer un nanofil en contrôlant les variations de composition chimique au long du fil. Une technique qui permet de réaliser une série de jonctions dans un nanotube. Ainsi, en jouant sur la composition des réactifs durant la croissance d'un nanofil à partir d'une phase vapeur, les chercheurs ont créé par exemple une structure qui comprend 11 jonctions entre des zones d'arséniure de gallium (AsGa) et de phosphure de gallium (GaP).Selon les chercheurs de Harvard, des nanofils comportant des structures pourraient servir à fabriquer des systèmes photoniques tels que des guides d'onde ou des lasers.

Nature :

http://www.nature.com/nsu/020204/020204-7.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Protocole de Kyoto : encore beaucoup de chemin à faire pour la France
Samedi, 16/02/2002 - 00:00

La France doit encore beaucoup faire pour respecter le protocole de Kyoto sur la réduction des gaz à effet de serre, indiquent deux rapports officiels français adressés à l'ONU et publiés le 11 janvier. Le premier est un inventaire d'émissions regroupant dans une unité de compte, le carbone, les rejets de CO2 et autres gaz réchauffant l'atmosphère. Le second, une "communication nationale" établie pour la troisième fois après celles de 1994 et 1997, dresse un bilan des mesures prises ou envisagées pour combattre le changement climatique. Selon l'inventaire, la France a réduit de près de 2% à 148 millions de tonnes de carbone (MTC) en 2000 ses émissions de gaz à effet de serre par rapport à 1990. Elle a ainsi satisfait à la Convention de Rio (1992), le premier accord climat de l'ONU qui invitait les pays développés à ramener en 2000 leurs émissions à leur niveau de 1990. Au plan européen, selon les données officielles 1999 de l'Agence européenne de l'environnement, elle fait partie des trois pays avec la Suède et la Finlande ayant grosso modo stabilisé leurs émissions en fin de décennie. L'Allemagne (moins 19%) et la Grande-Bretagne (moins 14%) ont fait beaucoup mieux pour des raisons largement conjoncturelles, tandis que d'autres dérapent (Espagne +23%, Pays-Bas +6%, Danemark et Italie + 4%). Mais l'état des lieux, basé sur une croissance économique annuelle de 2,2% dans l'actuelle décennie, pointe une forte tendance à la hausse des émissions à l'horizon 2010. Approchant 25% en l'absence de toute contre-mesure et encore 5% si les mesures annoncées en 1993, 1995 et 1997 sont toutes appliquées. Encore trop si les émissions de 2010 doivent être stabilisées à leur niveau de 1990 (151 MTC) en application du protocole de Kyoto (1997). Cet accord international prolonge et durcit la Convention. Il a été rejeté par l'administration Bush alors que l'UE souhaite annoncer le 4 mars qu'elle le ratifiera pour fin mai. La "Troisième communication nationale" indique que la France ne respectera pas Kyoto sans application intégrale des "mesures supplémentaires" inscrites au Programme national de lutte contre le changement climatique (PNLCC) de janvier 2000. Elle plaide en termes diplomatiques pour la relance d'une taxation de l'énergie en fonction de son degré de pollution, dont le premier volet (TGAP énergie) avait été lancé au printemps 2000 et censuré six mois plus tard par le Conseil constitutionnel. Cette taxation, qui représentait 40% de l'enveloppe du PNLCC, est seulement "suspendue" et toujours à l'étude à l'échelle européenne, souligne-t-elle. L'industrie française, très hostile à une taxe carbone, négocie actuellement avec le gouvernement des "engagements volontaires de réduction" de ses émissions polluantes. Les deux parties sont encore très éloignées sur l'ampleur des réductions qui pourraient être consenties, selon des sources concordantes. Et "personne ne peut affirmer" que ces engagements, assortis d'échanges de permis d'émission entre gros et faibles pollueurs comme prévu par l'UE à partir de 2005, auraient le même effet qu'une taxation.

ONU :

http://www.unep.org/

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une thérapie génique contre le cancer du colon
Samedi, 16/02/2002 - 00:00

Selon une étude récente, l'injection de cellules cancéreuses porteuses d'un gène suicide est capable d'entraîner une réponse antitumorale systémique dans un modèle de cancer du colon métastatique chez le rat. Ces travaux ouvrent une nouvelle voie vers l'inhibition du développement des métastases. La thérapie génique par insertion d'un gène suicide repose sur l'introduction dans des cellules cancéreuses d'un gène qui code une enzyme capable de convertir une molécule non toxique en un produit toxique. C'est le cas du gène de la cytosine déaminase (CD) de Escherichia coli : cette enzyme transforme la 5-fluorocytosine en 5-fluorouracile (5-FU). Une approche dérivée consiste à injecter des cellules cancéreuses qui expriment la CD. Dans un article paru dans la revue Gut, des chercheurs français montrent que cette approche peut induire une réponse antitumorale systémique et qu'elle pourrait être utile contre le développement et la dissémination des métastases d'un cancer du colon. Pierrefite-Carle et al. ont greffé des cellules de carcinome du colon sur le foie de rats, mimant ainsi des métastases hépatiques. Parallèlement, d'autres cellules de la même lignée ont été modifiées de façon à recevoir le gène CD. Les rats avec les métastases expérimentales ont reçu une injection de cellules de carcinome exprimant CD selon deux protocoles. Dans le premier protocole, ces cellules étaient injectées directement sur le site des métastases hépatiques. Pour le deuxième protocole, les cellules exprimant la CD étaient injectées à distance en sous cutané. Les animaux recevaient ensuite de la 5 fluorocytosine qui allait être métabolisée en 5-FU par la CD. Ces deux protocoles d'injection ont conduit à une réduction de 70 % du volume des métastases initiales et ont évité leur dissémination. Cette étude confirme que cette "vaccination basée sur le suicide cellulaire" induit la régression des tumeurs à distance. Cet effet est du à la stimulation du système immunitaire durant la régression (en présence de 5-FU) des cellules cancéreuses qui expriment la CD. L'approche employée permet de toucher des tumeurs distantes du site d'injection et elle présente donc un intérêt tout particulier pour lutter "contre le développement et la dissémination du carcinome du colon métastatique", concluent les auteurs.

Caducée :

http://www.caducee.net/breves/Default.asp

Le vaccin anti-grippal préviendrait les AVC
Samedi, 16/02/2002 - 00:00

La vaccination contre la grippe protégerait contre les accidents vasculaires cérébraux (AVC). Notamment par une réduction du risque de surinfection lié à la grippe et à ses complications. Un neurologue français, le Dr Pierre Amarenco de l'université Denis Diderot à Paris, a interrogé 270 patients sur leur statut vaccinal. Parmi eux, 90 avaient été hospitalisés pour un AVC. Les 180 autres constituaient le groupe contrôle. La proportion des sujets qui avaient été vaccinés durant la campagne vaccinale de l'année en cours s'est avérée plus faible parmi ceux qui avaient souffert d'un AVC que dans le groupe contrôle : 47% au lieu de 60%. Cette différence s'est également retrouvée chez les patients vaccinés au cours des cinq dernières années, avec 41% contre 56%. Les auteurs avancent deux explications à cela. D'une part, la vaccination contre la grippe réduirait le risque d'accident vasculaire cérébral en diminuant le risque infectieux. D'autre part le groupe vacciné correspondrait à des sujets dont le mode de vie serait lié à un meilleur contrôle des facteurs de risque de l'AVC.

American Heart Association, 1-02-2002 :

http://www.americanheart.org/presenter.jhtml?identifier=3000472

Accidents vasculaires cérébraux: un espoir de traitement
Samedi, 16/02/2002 - 00:00

Un espoir dans le traitement de l'accident vasculaire cérébral (AVC): une nouvelle étude américaine souligne l'efficacité des médicaments neuroprotecteurs jusqu'alors décevants sur cette affection qui représente la première cause de handicap chez l'adulte. L'AVC est dû à l'obstruction d'une artère cérébrale par un caillot de sang, affamant les cellules cérébrales situées à proximité. Les cellules sur le point de mourir sécrètent de grandes quantités de glutamate et d'autres substances chimiques, qui empoisonnent les cellules qui les entourent. L'objectif des médicaments neuroprotecteurs est de s'opposer à ces réactions chimiques. Partout dans le monde, la recherche sur ces produits est restée frustrante. Plus de 50 d'entre eux ont donné des résultats encourageants chez l'animal, mais tous ont échoué lors de l'expérimentation sur l'homme. ''Des millions de dollars ont été dépensés dans ce secteur de la recherche, et nous ne disposions pas de résultats positifs. Aujourd'hui, nous avons de bonnes nouvelles'', a déclaré le Dr Philip Gorelik, directeur de recherche sur l'AVC au Centre médical presbytérien St Luke à Chicago. Deux études présentées cette semaine au Congrès de l'association américaine de l'AVC à San Antonio, au Texas, font apparaître que la citicoline, un neuroprotecteur, diminue la sévérité de l'accident vasculaire cérébral. La citicoline, comme d'autres médicaments neuroprotecteurs, permet de prévenir une chaîne de réaction chimique aux conséquences graves qui favorise la progression de l'AVC dans les jours qui suivent l'accident. Pour l'instant, les médecins ne peuvent pas faire grand chose dans les heures qui suivent l'accident. Le seul médicament qui agisse est le TPA, un anticoagulant, mais seules 2% des victimes en bénéficient chaquée année. Les autres présentent soit d'autres complications, soit sont prises en charge trop tardivement, faute d'être tranportées à temps à l'hôpital. On estime que 700.000 personnes sont victimes d'AVC chaque année aux Etats-Unis, et 130.000 en France. Pour arriver à cette conclusion, le Dr Steven Warach, directeur de la thérapeutique de l'AVC à l'Institut national des troubles neurologiques (NINDS), a réuni les résultats de deux études qui utilisent la résonance magnétique nucléaire, l'IRM, un scanner perfectionné. Ces travaux incluent 214 personnes réparties en trois groupes: la moitié a reçu un placebo, l'autre moitié 500 mg ou 2 grammes de citicoline. Dans le groupe placebo, la taille de l'AVC a augmenté de 85%, 12 semaines après l'accident. En revanche, la taille n'a augmenté que de 34% chez les personnes prenant des doses de 500 mg de citicoline, et seulement de 2% chez celles prenant la dose la plus forte.

AP : http://fr.news.yahoo.com/020208/5/2h9x0.html

Crise cardiaque : un test sanguin pour détecter les personnes à risque
Samedi, 16/02/2002 - 00:00

Un essai clinique est en cours au "Cardiothoracic Centre" de Liverpool pour un test sanguin permettant de détecter les personnes les plus a risque de faire une crise cardiaque. L'essai devrait inclure 2500 patients et les résultats seront connus dans deux ans. Le but de ce test est de déterminer quelles sont les personnes a faire passer en priorité sur la table d'opération pour un pontage coronarien. Les responsables de l'essai espèrent pouvoir détecter les personnes ayant entre 3 et 5 fois plus de risques d'avoir une crise. Le test est fonde sur la détection de la "c-reactive protein", une protéine généralement associée a l'inflammation des tissus dans l'organisme. Sa concentration peut être élevée dans le cas d'infections chroniques. Ce type d'inflammation est considéré par certains médecins comme un facteur contribuant à endommager les vaisseaux cardiaques. La c-reactive protein étudiée dans ce test fixe plus particulièrement le cholestérol, un autre facteur de risque des maladies cardio-vasculaires.

BBC News 9/01/02 : http://news.bbc.co.uk/hi/english/health/default.stm

Des substituts du sang bientôt disponibles
Samedi, 16/02/2002 - 00:00

Publié dans le dernier numéro de Science, un article résume l'état actuel des recherches concernant les substituts du sang. Globalement, deux types de produits font l'objet de travaux. Le premier repose sur l'utilisation d'une forme synthétique de l'hémoglobine capable de véhiculer l'oxygène. Hélas, cette forme d'hémoglobine est facilement dissoute par les reins et son efficacité reste limitée. Quant aux perfluorocarbones qui constituent le second type de substituts du sang, ils véhiculent moins bien l'oxygène que le produit à base d'hémoglobine. En revanche, l'absence de protéines humaines ou animales permet leur utilisation chez des personnes dont la religion interdit les transfusions sanguines. A terme, ces deux types de produits devraient pallier le manque chronique de sang pour les transfusions. En outre, comme ils n'exigent pas les mêmes conditions de conservation que le sang et ne possèdent pas d'antigènes caractéristiques des types sanguins, ils pourront être administrés à tout patient qui en a besoin.

USAT 08/02/02 : http://www.usatoday.com/news/healthscience/science/aaas/2002-02-07-blood.htm

Découverte d'une nouvelles molécule dans des cellules de la rétine
Samedi, 16/02/2002 - 00:00

Des travaux menés indépendamment sur une espèce de grenouille d'Afrique et sur des souris aveugles amènent aujourd'hui les scientifiques à modifier leur conception, vieille d'un siècle, du fonctionnement de la vision chez les êtres vivants. Un chercheur de l'Uniformed Services University de Bethesda (Maryland) vient en effet de découvrir dans la peau de certaines grenouilles une molécule sensible à la moindre variation de la lumière. Baptisée "melanospin", cette molécule est une protéine capable de convertir les photons en signaux électrochimiques. De leur côté, des chercheurs de l'Imperial College de Londres, de la Harvard Medical School et de Brown University avaient constaté précédemment que des souris aveugles, tout comme certains êtres humains privés de la vue, pouvaient régler leur horloge biologique sans l'aide des cônes et des bâtonnets de la rétine. Lancée pour trouver le melanospin dans les bases de données génétiques existantes, une recherche vient de révéler la présence d'infimes quantités de cette protéine dans des cellules de la rétine, qui plus est associées au noyau suprachiasmatique responsable du réglage de l'horloge biologique.

NYT 08/02/02 :

http://www.nytimes.com/2002/02/08/health/08CLOC.html

L'hépatite C, une maladie que l'on peut guérir
Samedi, 16/02/2002 - 00:00

Enjeu majeur de santé publique, l'infection par le virus de l'hépatite-C touche près de 3% de la population mondiale et 1% de la population française. Maladie potentiellement grave par son risque d'évolution vers une maladie sévère du foie, la cirrhose, l'hépatite-C bénéficie aujourd'hui de traitements efficaces, quoique souvent mal tolérés. Le virus de l'hépatite-C (VHC) se transmet essentiellement par contact du sang d'une personne infectée avec celui d'une personne indemne, ou par le contact des muqueuses avec un objet souillé par du sang infecté. Après contamination, ''l'hépatite aigue C passe le plus souvent totalement inaperçue'', indique le Dr Yves Benhamou, de l'Hôpital de la Pitié-Salpétrière à Paris. Dans les 70 à 80% des cas restants, c'est l'hépatite chronique C'', a-t-il ajouté. De10 à 20% des personnes ayant une hépatite chronique C ont un risque de présenter une cirrhose après 10 ans d'évolution. La cirrhose, qui fait toute la gravité de la maladie, expose les personnes à des complications telles que les hémorragies digestives, un dysfonctionnement grave du foie et surtout, au cancer du foie dont le risque est estimé à 20% après 20 à 30 ans d'évolution de la cirrhose. D'où l'insistance des pouvoirs publics à inciter la population à risque au dépistage. En règle générale, cette simple prise de sang est conseillée à toutes les personnes qui ont pu être exposées au VHC, notamment aux usagers de drogues par voie intraveineuse, aux personnes ayant été transfusées avant 1991 et à celles ayant subi des examens médicaux nécessitant l'utilisation de matériel médical. Des cas ont été retrouvés aussi chez des personnes tatouées ou adeptes du piercing. Après confirmation du diagnostic par une technique d'amplification génétique (PCR), ''les patients doivent être informés des précautions à prendre. Il leur est notamment vivement conseillé de stopper totalement leur consommation d'alcool, source d'évolution rapide vers la cirrhose'', a rappelé le Dr Benhamou, tout en se félicitant qu'on puisse ''guérir de cette maladie''. Face à un tel diagnostic, ''le patient doit être accompagné et bénéficier d'un soutien psychologique''. Toutefois, avant de proposer un traitement, il est le plus souvent utile de connaître l'importance de l'atteinte du foie. C'est dans cette optique qu'une biopsie hépatique est proposée, un examen ''redouté par les patients''. La mise au point récente d'un test (fibrotest) associant un dosage sanguin de cinq protéines pourrait permettre d'éviter une fois sur deux cette biopsie hépatique. Ce début de siècle a été marqué par des progrès majeurs dans le traitement de l'hépatite-C: au stade aigu de l'infection, ''l'interféron permet d'espérer jusqu'à 98% d'éradication virale durable'', a indiqué le Pr Stanislas Pol, hépatologue à l'Hôpital Necker à Paris. ''On peut presque guérir toutes les hépatites aigues''. Au stade d'infection chronique, les différents traitements utilisant l'interféron pégylé (interféron retard) en association avec un antiviral, la ribavirine, montrent un bénéfice réel. ''Le virus est éradiqué de façon durable, jusque dans 80% des cas dans certaines formes virales'', a souligné le Pr Pol, qui a toutefois insisté sur la sévérité de certains effets secondaires (dépression, délire, agitation, suicides, homicides) nécessitant l'arrêt du traitement. ''Dix pour cent des malades arrêtent leur traitement au cours des six premiers mois, et 20% au cours de l'année''. Au stade de cirrhose, une réversibilité de la cirrhose, efficace et durable, a aussi été constatée chez 15 à 45% des cirrhotiques traités par ces deux médicaments. L'avenir proche sera marqué par le développement de nouvelles stratégies antivirales incluant des inhibiteurs de protéases, de nouveaux analogues nucléosidiques mais aussi la vaccinothérapie spécifique dont les premiers essais débutent. Parallèlement à ces stratégies antivirales, des stratégies antifibrosantes permettent d'espérer, même en l'absence d'efficacité antivirale durable, de stabiliser ou mieux de diminuer la fibrose.

AP : http://fr.news.yahoo.com/020207/5/2h83x.html

L'activité intellectuelle réduit les risques de maladie d'Alzheimer
Samedi, 16/02/2002 - 00:00

La participation fréquente à des activités stimulant les fonctions cérébrales réduit les risques de développer la maladie d'Alzheimer, selon une étude à paraître mercredi dans la revue américaine The Journal of the American Medical Association (JAMA). Une personne qui se livre à des activités intellectuellement stimulantes réduit de 47% ses risques d'être atteinte de la maladie d'Alzheimer, selon les résultats de l'étude menée sur 801 personnes âgées de plus de 65 ans, par Robert Wilson et ses collègues du Rush Alzheimer's Disease Center de Chicago. Les participants ont été suivis entre janvier 1994 et juillet 2001. Le groupe était composé de religieux répartis sur l'ensemble des Etats-Unis. Parmi les activités figuraient notamment la lecture, les mots croisés, les jeux de cartes et la visite de musées. Tous les participants ont accepté de faire don de leur cerveau à la recherche, ce qui devrait permettre aux auteurs de l'étude d'en apprendre davantage sur la corrélation entre activité cérébrale et déclin des fonctions intellectuelles.

JAMA : http://jama.ama-assn.org/issues/v287n6/ffull/jtw20002.html

La génétique risque de déstabiliser la démographie mondiale
Samedi, 16/02/2002 - 00:00

Le Dr Donald Louria, 73 ans, n'est pas un illuminé. Depuis 1970, il consacre son activité à la médecine préventive. Diplômé de Harvard, il a mis au point, il y a plus de trente ans, le « Healthful Life Program », bréviaire de la forme physique comprenant 17 tests (dont la mammographie, la mesure régulière de la tension artérielle, la mesure du taux de cholestérol, des examens d'ostéodensimétrie, de recherche du cancer colo-rectal et du glaucome, des recommandations sur le poids, le tabagisme et l'alcoolisme. Pendant 30 ans, le Dr Louria a dirigé le département de médecine préventive de l'université du New Jersey à Newark. Il a exigé et obtenu que son « Healthful Life Program » soit mis en oeuvre par les HMO (Health Maintenance organizations) dans le New Jersey. La loi a été adoptée par l'Etat, mais les HMO traînent dans l'application des mesures préventives. Il veut néanmoins en faire une loi nationale. Il a participé aux travaux de recherche sur un vaccin anti-SIDA en étudiant plus particulièrement le cas des femmes africaines qui ne sont jamais contaminées par le virus en dépit de comportements à très haut risque. Bref, le Dr Louria consacre son existence à prolonger celle de ses compatriotes. Il n'en publie pas moins, dans une revue, « The Futurist » un article qui soulève un vaste débat aux Etats-Unis. Dans cet article, il s'inquiète des progrès de la génétique, des progrès, dit-il, qui risquent « d'ouvrir la boîte de Pandore » : dès lors qu'on est en mesure d'agir sur les gènes qui programment la durée d'une vie humaine, on pourra la prolonger au-delà du raisonnable. Le Dr Nouria parle d'une espérance de vie qui, dans les pays industrialisés, « pourrait atteindre entre 120 et 180 ans ». Ce qui multiplierait par cinq le nombre d'habitants de la planète entre le XXIIe et le XXIIIe siècle. Situation forcément intolérable puisque les ressources du monde ne suffiraient plus. « A un moment donné, écrit-il dans "The Futurist", le nombre d'humains sera si élevé qu'il rendra leur vie misérable et fera disparaître d'autres espèces ; nous sommes en train de semer les graines de notre propre destruction. » Avec des conséquences faciles à imaginer : des conflits au sujet de l'eau, de la nourriture et des ressources minérales, une pollution accablante, des épidémies dévastatrices, des déplacements de populations, une accélération du réchauffement de la planète et de la destruction des forêts tropicales. La thèse du Dr Louria est approuvée par certains, critiquée par d'autres. Le Dr Robert Butler, qui a fondé le National Institute of Aging en 1975 et dirige aujourd'hui l'International Longevity Center (ILC) à New York, déclare au « Quotidien » : « Nouria a raison. C'est d'ailleurs la raison pour laquelle nous avons fondé l'ILC. Il faut absolument étudier, de manière scientifique, les conséquences à long terme de la progression de l'espérance de vie. Et inclure dans cette étude les effets des manipulations génétiques. Quand on joue avec la nature, il vaut mieux savoir où l'on va. » Pour le Dr Butler, Nouria est d'autant plus crédible qu'il n'a cessé de travailler sur la qualité de vie en s'aidant de la médecine préventive. « Il a donné aux baby-boomers la clé d'une vie de très bonne qualité pendant les 20 dernières années de leur existence ; l'objectif n'est pas de vivre jusqu'à 100 ans ou plus, mais de bien vivre sa retraite. Et c'est pourquoi Nouria dénonce le risque d'une espérance de vie qui, au contraire, ruinerait la qualité de vie des vieux comme des jeunes. » Mais beaucoup d'experts rejettent l'hypothèse d'une durée de vie de 120 ans ou plus. Certes, Nouria s'est appuyé sur les progrès de l'espérance de vie, passée en un siècle de 49 à 76 ans pour les seuls Etats-Unis. Mais il est le premier à reconnaître que les manipulations génétiques sur la souris ne sont pas transposables à l'homme. Et beaucoup de spécialistes du vieillissement estiment que, même en tenant compte des progrès de la génétique, l'espérance de vie ne dépassera jamais les 110-120 ans dans les siècles à venir. « Il n'existe aucun fondement à la théorie selon laquelle les hommes atteindraient 180 ans en 2100 », dit au « Quotidien » le Dr Hubert Warner, du National Institute of Aging. Et les progrès de la génétique ne constituent qu'un des facteurs, pas forcément le plus important. Si la longévité progresse, ce sera davantage grâce à l'hygiène de vie, à la thérapie génique, aux antioxydants et à la recherche sur les cellules souches. La plupart de ces facteurs en sont au stade de la recherche et n'ont aucune application thérapeutique courante. Pour le moment et pour ce qu'on en sait à l'heure actuelle, ce sont de merveilleux instruments pour améliorer la qualité de vie. Et il ne faut pas y renoncer au nom d'une hypothèse catastrophique que ne soutient aucun travail scientifique. »

Quotimed : http://www.quotimed.com/information/index.cfm?

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le grand défi technologique du futur supersonique
Samedi, 16/02/2002 - 00:00

Quarante ans après le début de la conception de Concorde, l'unique supersonique de transport civil, les défis à affronter pour assurer une relève sont redoutables, tandis que le marché reste insaisissable. Relancée en 1999, la dynamique de recherche sur le supersonique, qui occupe en France quelque 60 laboratoires et des réseaux en liaison avec les industriels, restera soutenue, mais il est trop tôt pour dire quand et sous quelle forme Concorde aura un successeur. Depuis Concorde, les contraintes, principalement d'environnement et de coûts, se sont accentuées, ont souligné les experts réunis mercredi et jeudi à Paris sur le thème du supersonique de demain. "Pour concevoir un avion civil supersonique, il n'est pas possible d'extrapoler à partir d'un avion récent, il faut anticiper les réglementations sur les nuisances, dont le bang sonique", a expliqué Alain Dervieux, de l'INRIA (Institut national de recherche en informatique et automatique). "Le futur supersonique ne devrait pas se concrétiser avant l'horizon 2020/2025, il y a encore des incertitudes sur la conception à retenir, il y a deux avant-projets en Europe pour un gros avion de transport de 350 tonnes et pour un avion d'affaires, et un projet aux Etats-Unis, mais pas de certitudes. Il nous faut mieux structurer la recherche publique pour des coopérations plus efficaces. Car les futurs projets ne peuvent qu'être internationaux", selon Denis Jeandel, expert. "Il ne s'agit pas de faire une version améliorée de Concorde", explique à l'AFP Jean-Jacques Mirat, d'Airbus. "Les niveaux de bruit de Concorde ne seront pas acceptables pour un avion du futur. Nous travaillons à la définition d'un avion qui sera véritablement +autre chose+. Nous avions étudié un cahier des charges pour un avion de Mach 2, mais la nuisance sonore aurait été inacceptable. A présent, on balaie tout, on étend les investigations à d'autres cahiers des charges, d'autres configurations de moteurs, etc...". Après l'avion géant A-380, qui mobilisera Airbus jusqu'en 2006, Airbus se focalisera sur un autre critère essentiel, la vitesse, et travaille sur l'avant-projet de supersonique. "Mais nous n'en parlons pas, contrairement à Boeing et son Sonic Cruiser, dont les premières livraisons sont promises en 2008, comme d'un projet avancé", poursuit M. Mirat. "Le marché du supersonique est encore difficile à cerner, et il ne nous parait pas être nécessairement l'option sur laquelle il faut se focaliser sur le moment", ajoute-t-il. "Nous réfléchissons à l'horizon de la prochaine décennie, renchérit Michel Rigault, de chez Dassault, où l'on a dans les cartons un projet de supersonique d'affaires de 30/40 tonnes. Handicap majeur, il n'existe au monde "aucun moteur" susceptible de l'équiper et qui satisferait aux exigences de cahier des charges. Depuis 95, une tendance à la diminution de la vitesse se dessine. "On réfléchissait à des vitesses de 2,2 ou 2,4 Mach, aujourd'hui on parle plus de 1,6 Mach, une façon de diminuer les difficultés et d'intégrer le facteur coût" (du combustible), constate un analyste du secteur. Seul point d'accord: le bien-fondé des efforts de recherche compte tenu des perspectives de croissance du transport aérien. Le nombre des liaisons long courrier a doublé depuis 1970, et ce trafic est majoritaire sur les routes transocéaniques. D'autre part, la vitesse diminue l'encombrement de l'espace aérien (temps de vol réduit, altitude plus élevée). Mais le défi reste celui de la viabilité économique: il touche à la surcharge tarifaire que le passager est prêt à supporter, aux coûts opérationnels pour les compagnies, et aux bénéfices que les constructeurs attendent.

AFP :

http://fr.news.yahoo.com/020208/202/2h9i5.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top