RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 150
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 08 Juin 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La Commission donne de l'élan à la sécurité sur l'Internet
Internet : l'équipement progresse, la fracture demeure
La messagerie instantanée universelle viendra du logiciel libre
Sony dote sa PlayStation 2 d'une plate-forme Java
Matière
Bientôt du carbone pour les diodes
Crise de l'énergie aux Etats-Unis: l'éolienne progresse
Dans quarante ans, l'électricité pourrait venir de l'espace
CES teste l'électricité “fossile” sans émission
Terre
Les activités humaines réchauffent aussi les océans
L'Académie des Sciences américaine confirme le réchauffement climatique
L'ONU lance un "bulletin de santé" de la planète
Vivant
Cancer : chronique d'une victoire annoncée
Des billes contre le cancer
Après avoir ravagé l'Afrique le SIDA menace l'Asie
Découverte d'une nouvelle molécule très active contre le SIDA
L'aspirine dévoile de nouvelles potentialités
Le bon cholestérol protège contre les attaques
Le lait maternel préviendrait le stress chez l'enfant
Des micro-robots chirurgiens
Le plasma : une nouvelle arme contre les bactéries
Puces à ADN et informatique : les prochains outils de la cancérologie
Une génisse clonée à partir d'une vache âgée donne naissance à un veau sain
Les dauphins se reconnaissent dans un miroir
Edito
Si Dieu nous est invisible...



Pour la première fois, il y a quelques jours, la Manche vient d'être reliée, en moins de quatre heures, à la Méditerranée, par un train. A partir de dimanche prochain, 10 Juin, il deviendra commun, en prenant le TGV, de ne mettre que trois heures pour atteindre la Canebière en partant du coeur de Paris. En 1765, il fallait 12 jours, au petit trot, pour joindre Paris à Marseille en diligence. En 1840, ce délai avait été ramené à 3 jours grâce à la malle-poste tirée par des chevaux au galop et avec de nombreux relais. En 1870, grâce à la force de la vapeur, il ne fallait déjà plus que 15 heures pour relier Paris à Marseille. Il ne faut plus maintenant que 3 heures. Certes, il est fini le temps des merveilleuses lettres, poésies, chroniques ou observations qu'ont pu nous laisser Madame de Sévigné, Victor Hugo, George Sand, Théophile Gautier ou Auguste Comte de leurs pittoresques voyages en carrosses, diligences, cabriolets, malles-postes ou trains à vapeur. Mais il nous faut prendre conscience que le TGV, auquel les Américains et même les autres pays du monde n'ont pas cru pendant si longtemps, aura profondément changé le visage de la France et l'image qu'elle donne d'elle-même dans le reste du monde. La perception spatio-temporelle qu'ont les Français de l'Hexagone se modifie rapidement et il est indubitable que le TGV, quand le réseau va s'étendre au reste de l'Europe, sera un vecteur important du développement de l'appropriation de la citoyenneté européenne par les habitants de notre Continent. Quand, dans quelque 20 ans, nous pourrons joindre en moins d'une journée Berlin à Séville ou Londres à Naples, c'est un autre visage de l'Europe qui se sera dessiné et moi qui ai le privilège d'être élu du Rhône, je ne puis m'empêcher de remarquer en cet instant que Lyon sera alors le carrefour naturel de toutes ces futures artères européennes. N'oublions pas que les Constituants de 1790 ont structuré la République en créant les Départements dont les chefs-lieux devaient pouvoir être atteints par tous leurs habitants, quel que soit leur lieu de résidence, en moins d'une journée, à cheval. Tout laisse à penser que le TGV va jouer le même rôle structurant de prise de conscience du territoire européen et, avec l'Euro, être un accélérateur d'Histoire. Certains pourraient penser que cette phase de réduction de l'espace a depuis longtemps été accomplie avec l'avion et que celui-ci l'a définitivement emporté sur tous les moyens de déplacement terrestres. Certes, cela est vrai à titre individuel mais cela est inexact au niveau des peuples. En transposant la définition de Napoléon qui précisait que la force d'une armée s'évalue par la masse multipliée par la vitesse, nous pouvons affirmer que le TGV est plus efficace que l'avion pour donner à nos peuples une notion réaliste de leur territoire naturel. Les cantons furent façonnés par le pas des boeufs se rendant au marché hebdomadaire du chef-lieu, les Départements le furent par le cheval, la France ne trouva ses limites naturelles qu'avec le train, tout laisse à penser que le TGV aidera grandement à dessiner l'Europe... Mais, au-delà de cette conquête de l'espace, il y a un autre phénomène fondamental qui explique cet engouement pour le TGV : celui de gagner du temps. Le temps va devenir la matière première la plus précieuse. Le monde ne se distribue plus seulement entre anciens et modernes mais surtout entre lents et rapides. La victoire sera dorénavant du côté des plus rapides et non plus du côté des plus riches. Il nous faut faire très attention à cette nouvelle fracture car à la fracture numérique pourrait aussi s'ajouter la fracture temporelle et ce sont ainsi les pays « largués » hors du temps qui ont le plus grand risque de prendre du retard. Le problème est d'autant plus pernicieux que ce sont souvent les plus riches qui, seuls, ont la capacité d'être les plus rapides. Si la vitesse qui permet de gagner du temps est ainsi assimilée aux valeurs fondatrices de la modernité, c'est qu'elle nous donne l'illusion de pouvoir comprimer la durée et nous permet ainsi d'obtenir dans l'immédiat ce que l'expérience aurait mis un long temps à nous procurer. La fascination de l'Homme pour la vitesse est vive puisque, poussée à ses limites, elle nous permettrait d'en finir avec le temps. Depuis Platon, le temps qui s'écoule, sans que nous ayons prise sur lui, est notre ennemi le plus intime. C'est bien sur ce constat d'impuissance que se sont appuyées les principales religions. J'aime souvent citer cette si jolie phrase de Paul Morand : « Si Dieu nous est invisible, c'est qu'il va trop vite. Pour arriver à le voir, il suffira d'aller aussi vite que lui : c'est toute l'Eternité ». Bien que l'Eglise catholique ait longtemps interdit à tout croyant de vouloir maîtriser le temps car celui-ci appartient à Dieu, ce qui a été une des raisons essentielles des divergences avec la Réforme, Saint Bernard de Clairvaux n'avait pas hésité à affirmer que « Rien n'est plus précieux que le temps ». Sans hésitation, nous pouvons deviner que cette lutte pour gagner du temps va devenir le défi essentiel de ce 21e siècle. Comme je l'ai déjà écrit à plusieurs reprises dans ces colonnes, il est paradoxal de constater que plus notre espérance de vie est grande, plus est importante notre peur de perdre du temps. La vitesse, donc la rapidité avec laquelle se parcourt la vie moderne, aurait ainsi comme résultat non seulement de contracter l'espace mais aussi de voir se contracter le temps. Pour relier ces sensations encore bien confuses qui enserrent notre modernité, il est grand temps qu'un nouvel Einstein harmonise dans un ensemble unique toutes les théories fondamentales qui ont été énoncées il y aura bientôt un siècle, déjà, et qui nous ont fait tant progresser dans notre compréhension de l'Univers. Pour conclure sur ce lien entre le temps et l'espace, je voudrais, de façon plus prosaïque, reprendre une idée pleine de bon sens de Joël de Rosnay. « Le capital-temps que nous amassons tout au long de notre vie doit produire des intérêts temporels ». Or, le bond extraordinaire constaté aux Etats-Unis depuis plus de dix ans et que nous commençons à ressentir en Europe (mais pour combien de temps ! ) est lié à la capacité de la « nouvelle économie » de faire croître très rapidement ce capital-temps. Avoir la possibilité de se déplacer à grande vitesse tout en ayant la capacité de communiquer instantanément avec le monde entier, de sélectionner et trier nos informations, amplifier nos connaissances et optimiser nos tâches grâce à l'informatique et aux réseaux, nous rend beaucoup plus efficaces que nous ne l'étions il y a quelque vingt ans seulement. Ce capital-temps produit donc des intérêts temporels qui, de manière basique, ne sont que du temps supplémentaire dont chacun peut disposer. Chacun a la faculté de dépenser comme il le veut les intérêts temporels de ce capital-temps. Il peut le faire en disposant de temps libre supplémentaire : c'est, semble-t-il, le choix qui a été fait par notre Pays en s'engageant avec détermination dans la démarche de la réduction du temps de travail. D'autres réinvestissent ces intérêts temporels en capital-temps supplémentaire : cela leur permet de transformer ce temps en moyens financiers supplémentaires. C'est, semble-t-il, jusqu'à maintenant, le choix qui a été fait par nos principaux concurrents. Si en respectant l'adage « time is money », le temps est régi par les mêmes lois du marché que l'argent (Adam Smith l'a brillamment démontré), les cigales que nous sommes pourraient se retrouver fort dépourvues à l'entrée de l'hiver...

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La Commission donne de l'élan à la sécurité sur l'Internet
Samedi, 09/06/2001 - 00:00

En réponse à la demande du Conseil européen de Stockholm des 23 et 24 mars 2001, la Commission européenne a lancé le 6 juin une série de recommandations visant à rendre l'Internet plus sûr pour les particuliers et les entreprises. À mesure que l'utilisation des réseaux électroniques et des systèmes d'information se développe, la sécurité des réseaux tend à devenir un enjeu essentiel. Erkki Liikanen, membre de la Commission européenne chargé des entreprises et de la société de l'information, a déclaré: "L'Internet est devenu un réseau véritablement planétaire. Son ouverture est le gage de sa réussite. Mais ce caractère ouvert implique également des risques et, pour cette raison, il nous faut une stratégie claire à l'échelon européen pour conjurer les menaces qui pèsent déjà ou commencent à peser sur la sécurité." La communication définit la sécurité des réseaux et de l'information, décrit les principales menaces qui pèsent sur la sécurité virus, piratage, refus de service, interception, mais également catastrophes naturelles et en conclut qu'une plus grande collaboration s'impose pour résoudre les problèmes.

La Commission propose les mesures suivantes : La sensibilisation est un élément essentiel : les utilisateurs doivent être en mesure d'apprécier parfaitement les risques liés à l'utilisation du réseau pour pouvoir choisir en connaissance de cause le niveau de sécurité qu'ils désirent. En effet, les niveaux de sécurité souhaités peuvent différer sensiblement en fonction du contexte. Un message électronique adressé à un ami pour l'informer du programme de la soirée ne comprend pas, un principe, de contenu sensible, contrairement à un message destiné à une entreprise de commerce électronique dans lequel figure un numéro de carte de crédit. Il faut assurer une sécurité adaptée. Les virus peuvent effacer la totalité d'un disque dur et se propager par le système de messagerie électronique. Les logiciels antivirus arrêtent les virus connus, mais contre les nouveaux virus seule la détection précoce constitue une défense efficace. La Commission propose une mise en réseau plus efficace des systèmes européens de détection et d'information. Pour certains problèmes de sécurité, il existe des solutions techniques, et il importe d'encourager une plus grande collaboration dans ce domaine. La Commission a intégré la problématique de la sécurité dans ses propositions relatives au 6 ème programme-cadre de R&D. Pour être utiles, encore faut-il que les solutions soient interopérables. Les logiciels de chiffrement ne sont d'aucun secours si leur compatibilité n'est pas garantie de bout en bout. Il faut développer des standards communs et des solutions interopérables. Les administrations publiques ont des responsabilités en ce qui concerne leurs propres systèmes. Les échanges de données à caractère médical, financier et personnel avec les administrations comptent parmi les plus sensibles. Si les administrations publiques montrent la voie à suivre en utilisant des solutions de sécurité interopérables pour leurs échanges électroniques, tant les particuliers que les entreprises seront amenés à prendre la sécurité des réseaux au sérieux. La Commission proposera dès lors de renforcer la coopération entre les équipes nationales d'intervention en cas d'urgence informatique (les «CERT»). Le cadre juridique applicable en la matière doit tenir compte des nouveaux défis technologiques. À cet effet, la Commission dressera un inventaire des mesures nationales. Elle proposera également une mesure législative conformément au titre VI du traité sur l'Union européenne en matière d'attaques contre les systèmes informatiques, y compris le piratage et les attaques par refus de service. Enfin, toute solution doit être replacée dans un contexte mondial. Le dialogue avec les partenaires internationaux de l'UE sera inscrit dans la stratégie de la Commission.

Comission Européenne :

http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=IP/01/79...|0|RAPID&lg=FR

Internet : l'équipement progresse, la fracture demeure
Samedi, 09/06/2001 - 00:00

Le Centre de recherche pour l'étude et l'observation des conditions de vie ( CREDOC) vient de publier une étude* sur « la diffusion, l'usage et l'acceptabilité des nouvelles technologies en France ». Régis Bigot, son auteur, souligne que le rythme annuel de pénétration de l'équipement informatique s'est fortement accéléré depuis 1998. Il attribue ce phénomène aux nouvelles fonctionnalités offertes par les ordinateurs - comme la possibilité de lire les CD-ROM, ou, surtout, Internet. Ainsi, 83 % des PC domestiques sont équipés d'un lecteur de CD ou de DVD, 49 % disposent d'un modem et 35 % sont agrémentés d'un scanner. Le taux d'équipement n'est pas strictement proportionnel au revenu par foyers : 79 % des cadres supérieurs possèdent un ordinateur personnel contre 11 % des non-diplômés et 19 % des foyers dont le revenu ne dépasse pas 6 000 francs par mois. Les cadres supérieurs ne constituent pourtant que 6 % de la population française et disposent de 12 % des revenus mensuels, mais ils représentent 15 % du parc informatique. Ces tendances se renforcent pour l'accès à Internet : 23 % des résidents français ont accès à Internet, 9 % sont connectés uniquement du travail, 8 % exclusivement de leur domicile et 6 % ont un accès mixte. 73 % des cadres supérieurs disposent d'un accès à Internet contre 15 % des personnes qui gagnent moins de 6 000 francs par mois, ce qui montre l'évidence de la fracture numérique. Pour l'auteur de l'étude, cette dernière se résorbe peu à peu grâce à l'utilisation d'Internet au bureau, à l'école ou à l'université, qui représentent autant de facteurs clés pour l'adoption d'Internet. 47 % des étudiants français jouissent d'ailleurs d'une connexion. L'utilisation d'Internet, enfin, est abordée différemment selon que les personnes interrogées sont connectées ou non. Ainsi, pour 36 % des sondés qui ne sont pas équipés, Internet présente une utilité pour la recherche d'informations générales ou commerciales, le courrier électronique étant indispensable pour 34 % d'entre eux. En revanche, le mail est une priorité pour 56 % des personnes pourvues d'une connexion. Près de 80 % d'entre elles disposent d'une boîte à lettres électronique.

OINEt : http://www.01net.com/rdn?oid=151065&rub=2798

CREDOC : http://www.credoc.asso.fr/4/4150.htm

La messagerie instantanée universelle viendra du logiciel libre
Samedi, 09/06/2001 - 00:00

L'interopérabilité des outils de messagerie instantanée devra beaucoup aux adeptes de l'informatique libre et aux standards ouverts. Aujourd'hui, les "messengers" d'AOL (AIM et ICQ), de Microsoft, de Yahoo ou des autres sont techniquement incapables de dialoguer avec tous les autres. Et les tentatives d'unifier les protocoles sont au point mort. L'IETF, l'organe de normalisation technique de l'internet, a jusqu'ici échoué dans sa tâche. Un groupe de travail spécifique a même débouché en décembre sur... 3 protocoles différents. AOL, le leader du secteur, ne participait pas aux discussions. Pour tenter de palier ce problème, la société française Idea-LX, spécialisée dans les environnements open-source, a peaufiné son propre outil de messagerie (IDX-Mi) qu'elle compte proposer en marque blanche à un large panel d'opérateurs et de fournisseurs d'accès internet(FAI). Idea-LX avait déjà réalisé pour les portails du groupe LibertySurf une solution de messagerie instantanée, qui avait été prématurément annoncée par le FAI comme "interopérable". IDX-Mi est basé sur le logiciel d'origine américaine Jabber, qui répond lui aussi aux normes du logiciel libre (licenceGPL). Jabber est justement censé assurer l'interopérabilité des messageries directes déjà sur le marché qui, elles, ne sont pas aux normesGPL. Pour cela, Jabber assure des passerelles entre les différents outils de messagerie et permet d'afficher la liste de l'ensemble des contacts dans une fenêtre unique. De plus, Jabber repose largement sur le standardXML (Extensible Markup Language) comme support de communication et d'interface. Ce choix permet aux solutions dérivées de Jabber, comme IDX-Mi, d'être multiplateformes et donc de fonctionner aussi bien sous Windows, PocketPC, téléphones mobiles WAP ou assistants personnels de type Palm. Bref, difficile de faire plus ouvert. Ce système libre semble actuellement avoir le vent en poupe, puisque FranceTélécom vient d'investir 7millions de dollars dans Jabber.com, la start-up américaine à l'origine de son développement.

ZDnet : http://news.zdnet.fr/zdnetfr/news/story/0,,s2087967,00.html

Sony dote sa PlayStation 2 d'une plate-forme Java
Samedi, 09/06/2001 - 00:00

La PlayStation 2 de Sony sera équipée à la fin de l'année d'une plate-forme compatible avec le langage Java, favorisant ainsi sa connexion à internet, a annoncé Sony Computer Entertainment. Les joueurs disposant des périphériques adéquats pourront télécharger des applications Java via internet et communiquer avec d'autres joueurs utilisant des appareils compatibles avec ce langage de programmation comme les téléphones portables, a déclaré Sony. Le langage Java développé par Sun Microsystems Inc. fonctionne sur de nombreux systèmes d'exploitation. Les fabricants de consoles de jeux Sony, Microsoft Corp et Nintendo Co. qui se livrent une lutte sans merci, proposent des nouvelles consoles dotées de périphériques leur conférant la souplesse d'un ordinateur doté d'un accès internet. "(Sony) envisage de créer un nouveau monde de divertissement en fusionnant les jeux avec la communication", a déclaré Shinchi Okamoto, vice-président de Sony Computer Entertainment. Selon le chercheur John Cage, la nouvelle étape pour les fabricants de jeux consistera à connecter les joueurs sur internet, un projet que Sony espère réaliser cet automne lorsqu'il sortira la première gamme de jeux en ligne pour PlayStation2. Sony a vendu plus de 10 millions de PlayStation 2, mais il devra affronter bientôt la concurrence de nouvelles consoles comme le GameCube de Nintendo qui sera lancé en septembre au Japon et la XBox de Microsoft dont la commercialisation est prévue en novembre. Sony a déjà annoncé d'autres alliances qui permettront d'utiliser la Playstation2 pour envoyer des e-mail et pour recevoir du son et des images sur le net.

Reuters : http://fr.news.yahoo.com/010605/85/1brlg.html

^ Haut
Matière
Matière et Energie
Bientôt du carbone pour les diodes
Samedi, 09/06/2001 - 00:00

Très performantes pour certaines applications les LED (Light Emitting Diodes) ne répondent pas aux besoins des écrans a haute résolution comme ceux dont sont dotes les ordinateurs portables. D'ou l'importance des OLED (Organic Light-Emitting Diodes), des diodes conçues a partir de molécules organiques et qui pourraient être utilisées pour fabriquer une nouvelle génération écrans. Les chercheurs des laboratoires d'Eastman Kodak, situes a Rochester (New York), travaillent sur des polymères qui, hélas, sont de très mauvais conducteurs d'électricité. Cependant, le passage aux couches minces et l'introduction de molécules fluorescentes ont accéléré les progrès dans ce domaine et permis de baisser les besoins en voltage. Cependant, ces écrans restent associes a des circuits en silicium. Or les techniques de gravure photolithographiques détruisent les polymères organiques. L'équipe d'Eastman Kodak a donc isole les circuits en silicium sur des supports en verre avant d'ajouter la couche organique sur laquelle apparaît l'image. Les OLED, qui comme tout produit organique se détériorent rapidement, ne sont utilisées actuellement que pour des applications de faible coût.

NYT 31/05

New York Times :

http://www.nytimes.com/2001/05/31/technology/31NEXT.html?searchpv=day07

Crise de l'énergie aux Etats-Unis: l'éolienne progresse
Samedi, 09/06/2001 - 00:00

L'énergie éolienne progresse aux Etats-Unis où sa production devrait bondir de 50% en 2001, alors que la crise de l'énergie qui a frappé la Californie relance son attrait. "Le vent est la source d'énergie qui croît le plus rapidement", selon l'Organisation américaine des énergies renouvelables (SEC - Sustainable Energy Coalition), qui avance cette estimation d'une hausse de 50%. Le vent est une source d'énergie renouvelable, propre et son prix devient de plus en plus attrayant, indique pour sa part Randall Swisher, directeur de l'Association américaine de l'énergie éolienne (AWEA). Selon l'organisation, grâce aux progrès réalisés dans la conception des turbines, le coût de cette énergie est passé de 38 cents par kilowatt-heure au début des années 80 à 4,5 cents en moyenne actuellement. "Le vent est actuellement en concurrence avec les carburants fossiles et dans certaines régions il est déjà moins cher que le gaz", affirme Lester Brown, président de l'Institut Earth Policy. Pour lui, le nucléaire, très prisé par la nouvelle administration américaine, ne fera pas l'objet d'un nouveau programme de construction de centrales. "Les Etats les plus riches en vent, situés dans les grandes plaines, sont en mesure de fournir toute l'énergie demandée par le plan Bush", observe Lester Brown, faisant référence au plan présenté à la mi-mai par le président des Etats-Unis. Un projet de construction dans le Dakota du sud (Midwest) d'une centrale éolienne d'une capacité de 3.000 mégawatts est à l'étude. S'il est réalisé, il s'agira du plus grand projet mondial dans le secteur. Le centrale permettra, avec la construction de lignes de transmission, de pourvoir en énergie la région très industrialisée de Chicago. Les principaux problèmes pour les turbines à vent sont cependant les oiseaux, qui sont pris dans les pales et tués, et également la difficulté de les relier aux lignes de transmission pour pouvoir transporter l'énergie sur de longues distances. "Avant de construire des turbines, il faut faire un état des lieux pour déterminer tout d'abord s'il y a assez de vent dans la région pour les faire tourner et s'assurer qu'elles ne soient pas placées le long des routes migratoires des oiseaux", indique Randall Swisher, soulignant qu'il est impossible de générer de l'énergie sans aucun impact sur l'environnement. Les premières turbines à vent américaines ont vu le jour en Californie au début des années 80 en réponse à la crise de l'énergie qui avait frappé le monde quelques années auparavant. Mais le prix élevé de cette source d'énergie ainsi que la baisse successive du prix du pétrole et des autres sources d'énergie avait empêché son décollage. Les Etats-Unis doivent maintenant rattraper le retard pris vis-à-vis de nombreux pays européens. Avec un territoire plus de trois fois supérieur à celui de l'Union européenne, ils n'ont produit que 2.500 mégawatts d'énergie en utilisant le vent en 2000, contre 6.100 mégawatts pour l'Allemagne, principal producteur mondial, 2.300 mégawatts pour le Danemark et 2.200 mégawatts pour l'Espagne.

AP : http://fr.news.yahoo.com/010602/1/1bk20.html

Dans quarante ans, l'électricité pourrait venir de l'espace
Samedi, 09/06/2001 - 00:00

Depuis plusieurs mois, la Californie subit des coupures de courant à répétition et la région la plus "branchée" du monde vit à l'heure de la bougie. Le prix du kilowattheure y atteint presque 2,50 francs, soit sept fois plus que dans l'Etat du New Jersey et cinq fois plus qu'en France. Le 9 mai, le Brésil a annoncé des rationnements. L'Australie aussi est menacée...La fameuse question "Quelle énergie pour demain ?" n'en devient que plus lancinante. Avec l'augmentation de la population mondiale, l'accession de beaucoup au confort électroménager, la demande en électricité sur toute la planète pourrait connaître jusqu'à 75 % de hausse d'ici à 2020. Comment y faire face ?La prise de conscience de la fragilité de notre Terre, qu'ont avivée les recherches sur l'augmentation de la température et l'effet de serre, pourrait limiter le recours aux combustibles fossiles, dont les réserves ne sont de toute façon pas illimitées. De la même manière, la relance du nucléaire que préconise aujourd'hui le gouvernement américain se heurtera de plus en plus au problème du stockage des déchets radioactifs. Alors, quelle énergie pour demain ? La réponse pourrait venir de l'espace et s'appelle centrale solaire orbitale (CSO). D'un futurisme forcené, ce projet fou - par ailleurs propre pour l'environnement-envisage de mettre en orbite autour de la Terre de gigantesques panneaux solaires couplés à des antennes émettant de larges faisceaux de micro-ondes vers d'immenses récepteurs situés au sol. Chacune de ces centrales électriques de l'espace pourrait produire de 1 à 10 gigawatts. A titre de comparaison, un réacteur de centrale nucléaire chacune en compte généralement plusieurs-fournit autour de 1 gigawatt. Mais pourquoi choisir l'espace plutôt que la Terre pour implanter ces armées de cellules photovoltaïques? La raison principale était exposée dans un article paru en avril 2000 dans le journal de l'Electric Power Research Institute: des panneaux solaires reçoivent en moyenne huit fois plus de lumière solaire en orbite géostationnaire (à 36 000 kilomètres d'altitude) qu'au sol. A cette altitude, il n'y a pas d'atmosphère, donc pas de poussières-écran ni de nuages réflecteurs, et des cycles jour-nuit moins contraignants qu'au sol avec une flotte de satellites en orbite. L'idée des centrales solaires orbitales n'est pas neuve. Elle a été inventée en 1968 par l'ingénieur américain d'origine tchèque Peter Glaser, qui s'appuyait sur la possibilité de faire voyager l'énergie par le biais d'ondes électromagnétiques. Pour Jean-Daniel Lan Sun Luk, "les premiers prototypes devraient être japonais". Ne disposant pas de combustibles fossiles, le pays du Soleil-Levant s'est en effet intéressé depuis longtemps au sujet. En janvier, Osamu Takenouchi, responsable de la division spatiale au ministère nippon de l'économie, du commerce et de l'industrie (METI), annonçait que son pays allait investir dans la recherche et les études de faisabilité d'une centrale solaire orbitale d'un gigawatt. Prévu pour 2040, ce satellite serait équipé de deux panneaux géants de 1 kilomètre sur 3 et pèserait autour de 20 000 tonnes. Le METI estime que le prix du kilowattheure ainsi produit s'élèverait à moins de 1,50 franc. A comparer avec celui du kilowatt heure "nucléaire": moins de 20 centimes à la production en France et entre 50 et 70 centimes en moyenne à la vente pour un particulier. "Le premier des obstacles à la réalisation des centrales solaires orbitales est économique car l'énergie est encore bon marché aujourd'hui, estime Jean-Daniel Lan Sun Luk. Mais si un choc énergétique advient, le processus sera accéléré. Il faudra aussi optimiser l'ensemble des systèmes, trouver de meilleurs composants et des matériaux plus légers pour diminuer le coût de transport. La construction des centrales elles-mêmes n'est pas évidente et nous réfléchissons à l'idée d'autocroissance: après l'arrivée des premiers éléments par cargos spatiaux, le montage serait effectué par des petits robots alimentés par l'énergie qui serait déjà collectée. Une autre idée - à un horizon lointain - pour réduire le coût de transport consiste à imaginer une base lunaire où la matière première serait extraite et où les structures des centrales seraient fabriquées dans une usine automatisée avant d'être mises en orbite autour de la Terre, sachant qu'il est beaucoup plus simple d'échapper à l'attraction de la Lune qu'à celle de notre planète." Il faudra aussi convaincre les terriens que les centrales solaires orbitales ne risquent pas de les griller sur place... Les antennes réceptrices - du grillage en l'occurrence - seront situées dans les déserts, sur le sommet des forêts ou sur les océans. Non pas en raison d'un danger potentiel, mais parce qu'elles prendront beaucoup d'espace, plusieurs kilomètres carrés. Ce afin, justement, de permettre l'émission d'un large faisceau au sein duquel le flux énergétique sera dilué. "La norme que nous nous sommes fixée est de 50 watts par mètre carré au sol, sachant que la densité de puissance moyenne du Soleil est de 1 000 watts par mètre carré, explique Jean-Daniel Lan Sun Luk. Il faut aussi rappeler que, pour que l'onde interagisse avec la matière, il faut que sa longueur soit de la même taille que l'atome." Or il s'agit ici d'ondes centimétriques comparables à celles utilisées par les... téléphones portables.

Le Monde : http://www.lemonde.fr/article/0,5987,3244--190302-,00.html

Journal de l'Electric Power Research Institute :

http://www.epri.com/Journal.asp?issueid=240518#ARTICLE-240520-7

CES teste l'électricité “fossile” sans émission
Samedi, 09/06/2001 - 00:00

CES teste l'électricité “fossile” sans émissions Clean Energy Systems, un essaimage de la firme aéronautique Aerojet, est en train de développer un procédé de génération électrique à base de gaz fonctionnant sans aucune émission, ZEST (zero- emission steam technology). Après avoir achevé la période d'essai d'un pilote de 100 kW en janvier et analysé l'expérience, CES s'apprête à proposer au gouvernement américain un projet de pilote pré- commercial de 10MW qui serait construit sur le site du laboratoire fédéral Lawrence Livermore. L'affaire n'est pas garantie mais comme Washington veut favoriser les énergies fossiles “propres” et donner l'impression qu'il travaille sur l'impasse énergétique californienne, un soutien à la firme de Sacramento semble très possible. La technologie de CES est dérivée de l'aéronautique. Un mélange de carburant fossile et d'eau est brûlé dans de l'oxygène pur à plus de 1400°C. Le carburant de départ peut être un peu n'importe quelle combinaison de biomasse, de gaz naturel, de pétrole ou de syngas mais le résultat de la combustion est inévitablement de la vapeur et du dioxyde de carbone. La vapeur alimente une turbine et sert donc à générer l'électricité. Quant au CO2, il est séquestré par injection dans la couche terrestre ou dans l'océan. La clé de cette étape est que le procédé génère et isole assez naturellement le dioxyde de carbone, ce qui permet de le récupérer sans grand effort. Par comparaison, des centrales plus conventionnelles peuvent également récupérer et séquestrer le CO2 mais elles doivent consommer une bonne portion de l'énergie produite à cet effet, ce qui n'est pas économique. Avec ZEST, la récupération de CO2 devrait coûter cinq moins cher...

Usine Nouvelle :

http://www.usinenouvelle.com/usn/site/pages/actualit/actua_j/general.cfm?

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les activités humaines réchauffent aussi les océans
Samedi, 09/06/2001 - 00:00

L'augmentation des émissions de gaz à effet de serre dans l'atmosphère aurait déjà entraîné le réchauffement des masses océaniques. C'est ce que montrent deux études américaines publiées simultanément dans la revue Science . On savait, grâce aux travaux menés l'an dernier par Sydney Levitus, de la National Oceanic and Atmospheric Administration (NOAA), que la température moyenne des trois mille premiers mètres des océans Atlantique, Indien et Pacifique s'était élevée de 0,06 °C entre 1955 et 1996. Mais on ignorait, à l'époque, si les activités humaines y étaient pour quelque chose ou s'il s'agissait d'une simple fluctuation naturelle. Pour le savoir, S. Levitus et ses collaborateurs ont simulé l'évolution de la température des océans en réponse à l'émission de gaz à effet de serre. Ils ont utilisé pour cela la toute dernière version d'un modèle climatique, dit de circulation générale : tenant compte des échanges entre l'atmosphère et l'océan, il a été développé au GFDL (Geophysical Fluid Dynamics Laboratory) à Princeton. L'évolution de l'océan y est décrite avec une résolution de 1,875 degré en longitude et 2,25 degrés en latitude sur dix-huit niveaux verticaux ; celle de l'atmosphère s'appuie sur un maillage un peu plus large en longitude (3,75 degrés), sur quatorze niveaux. Outre l'augmentation des gaz à effet de serre au cours du temps, ce modèle intègre les effets des changements de l'intensité du rayonnement solaire, des aérosols sulfatés et des aérosols rejetés lors des éruptions volcaniques depuis un siècle. Résultat, le réchauffement simulé pour les cinquante dernières années (19,7 x 1022 joules) est comparable au réchauffement mesuré (18,2 x 1022 joules) qui, de ce fait, semble bien dû aux activités humaines. Parallèlement, Tim Barnett et son équipe, de la Scripps Institution of Oceanography de San Diego, en Californie, sont arrivés à la même conclusion en utilisant le Parallel Climate Model (PCM). C'est l'un des modèles les plus sophistiqués d'interactions entre climat, gaz à effet de serre et aérosols sulfatés, ayant une résolution très fine pour la partie océanique, à savoir 0,65° longitude/0,65° latitude. Les climatologues ont constaté que le réchauffement enregistré depuis 1955 dans les différents océans ne survenait que si l'on introduisait dans le modèle un surplus de gaz à effet de serre. De plus, leurs simulations rendent compte des variations observées entre les différents bassins océaniques. Ces deux études, focalisées pour la première fois sur les températures océaniques et non sur celles de l'air à la surface de la Terre, vont donc dans le sens d'un réchauffement en cours de la planète attribué aux gaz à effet de serre relâchés massivement par les activités humaines depuis le début de la révolution industrielle. Les auteurs rappellent néanmoins que ce bon accord entre observation et prédiction doit être analysé en gardant à l'esprit les points d'incertitude que contiennent encore les modèles. Ils pointent en particulier le rôle des aérosols sulfatés ou volcaniques qu'il reste à mieux évaluer. De plus, l'accord est observé sur l'ensemble des quatre décennies, mais il existe des divergences à l'échelle décennale qu'il faut comprendre. Quoi qu'il en soit, ces résultats sont encourageants pour la simulation des variations thermiques multidécennales de l'océan qui, plus que jamais, apparaissent comme les grands régulateurs du climat global.

Recherche : http://www.larecherche.fr/data/343/03430072.html

L'Académie des Sciences américaine confirme le réchauffement climatique
Samedi, 09/06/2001 - 00:00

Dans une étude commandée par la Maison Blanche, l'Académie des Sciences américaine a annoncé le 7 juin que le réchauffement de la planète ''est réel et particulièrement fort au cours des vingt dernières années'', et que sa principale cause sont les émissions de dioxyde de carbone provoquées par l'embrasement de combustible fossile. La rapport de l'Académie, commandé pour aider le président Bush à préparer son voyage européen de la semaine prochaine, n'avait pas pour but de donner des recommandations politiques, et n'en donne pas. Le président américain doit rencontrer plusieurs personnalités européennes à propos de ce dossier sensible. Selon le rapport de 27 pages redigé par 11 scientifiques de renom international, dont un Nobel, le réchauffement global est aussi causé par l'émission d'autres gaz à effet de serre causée par l'activité humaine : le méthane, l'ozone, l'oxyde de nitrate et le chlorofluorocarbone. Ralph Cicerone, Recteur de l'université de Californie, qui dirige le groupe de scientifiques ayant travaillé pour ce rapport a précisé : "Il y a de fortes présomptions scientifiques pour que l'accélération du réchauffement climatique constatée depuis plusieurs décennies soit liée à l'augmentation des émissions de gaz à effet de serre, meme s'il est impossible aujourd'hui de déterminer avec précision quelle est la part des activités humaines et des causes naturelles dans le réchauffement mondial du climat. En mars dernier, quelques semaines seulement après sa prise de fonctions, George Bush avait annoncé que les Etats-Unis ne signeraient pas les accords de Kyoto visant justement à réduire les émissions des gaz à effet de serre, provoquant un tollé international.

Brève rédigée par @RT Flash

Washington Post :

http://www.washingtonpost.com/wp-dyn/articles/A31221-2001Jun6.html

National Academy of Sciences :

http://www4.nationalacademies.org/news.nsf/(ByDocID)/854F0F191BB3912385256A6300697720?OpenDocument

L'ONU lance un "bulletin de santé" de la planète
Samedi, 09/06/2001 - 00:00

C'est un véritable inventaire à la Prévert que s'apprêtent à faire les Nations Unies. Un inventaire à l'échelle de la Terre... Il s'agit de faire un rapport circonstancié sur l'état de l'ensemble des ressources naturelles terrestres. Ce "bulletin de santé" de la planète, selon les mots de Kofi Annan, secrétaire général des Nations Unies, doit apporter aux décideurs des connaissances scientifiques solides sur l'état des écosystèmes afin de remédier à leur dégradation. L'étude intitulée "Evaluation des écosystèmes pour le nouveau Millénaire (millenium Ecosystem Assessment) va s'échelonner sur quatre ans, pour un coût estimé de 21 millions de dollars. L'enquête doit être lancée officiellement ce lundi par l'ONU à Turin, hôte cette année de la Journée de l'Environnement avec Cuba. 1.500 scientifiques du monde entier doivent participer à cet inventaire des ressources de la planète. "L'ambition est de fournir aux décideurs des informations certaines et convaincantes, pour leur permettre de prendre des décisions, comme le fait actuellement le Groupe intergouvernemental sur l'évolution du climat (GIEC, IPCC en anglais)", explique Véronique Plocq-Fichelet, chargée de coordonner le groupe d'étude sur les scénarios d'évolution des écosystèmes. Mme Plocq-Fichelet dirige l'association scientifique Scope, qui regroupe notamment 40 Académies des Sciences du monde entier. L'exemple du climat est éclairant : les 3.000 scientifiques réunis depuis 1988 sous l'égide des Nations Unies et de l'Organisation météorologique mondiale ont su au fil des rapports (1990, 1995, 2001) convaincre la communauté internationale de la réalité du changement climatique. Les écosystèmes sont, comme le climat, sensibles aux activités humaines et leur dégradation compromet la survie de l'homme et des espèces : déforestation, sécheresse, inondations, pollutions diverses. Des études sur les écosystèmes existent, mais "on dispose surtout de scénarios globaux, donc imprécis sur les conséquences régionales", souligne Véronique Plocq-Fichelet. L'évaluation doit se dérouler au niveau mondial, régional et national. Des travaux sont déjà en cours pour l'Afrique australe, l'Asie du Sud-Est, l'Amérique centrale, l'Ouest de la Chine et la Norvège. Au niveau local, des études ont démarré en Inde et en Suède.

TF1 : http://www.tf1.fr/news/sciences/0,2280,787461,00.html

ONU : http://www0.un.org/apps/press/latestFrench.asp

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer : chronique d'une victoire annoncée
Samedi, 09/06/2001 - 00:00

«LE CANCER sera vaincu au XXI e siècle ! » Aux Etats-Unis, en France, et partout en Europe, médecins et chercheurs sont de plus en plus nombreux à adopter cette assurance optimiste. Le congrès Eurocancer (*), qui débute aujourd'hui à Paris, n'échappera pas à la règle. Même si le nombre des nouveaux malades ne diminue pas d'année en année en France, le nombre de personnes guéries, lui, augmente. Il y a vingt ou trente ans, avoir un cancer, c'était, dans l'esprit des malades, être « condamné ». Aujourd'hui, plus de la moitié d'entre eux s'en sortent. Et, dans quinze ans, les chercheurs ont bon espoir de guérir 80 % des malades (lire notre interview page 7) . A quoi est due cette inhabituelle confiance médicale ? D'abord aux progrès spectaculaires de la recherche sur les traitements. L'exemple le plus frappant est, cette année, celui de « la pilule miracle », le Glivec, qui vient d'être commercialisé aux Etats-Unis. Même s'il ne concerne qu'un faible nombre de malades atteints d'une leucémie rare, il signe le premier succès d'une nouvelle arme anticancer prometteuse : la thérapeutique moléculaire. Avec seulement quelques comprimés, sans chimiothérapie ni radiothérapie, 90 % des malades entrent en rémission pour une maladie jusque-là quasi incurable. En France, ce médicament n'est pas attendu avant le début de l'année prochaine. Des médicaments moins toxiques Lors d'un récent congrès américain sur le cancer, l'un des pères de ce médicament a lancé à la tribune : « Une de mes malades était en train de programmer ses funérailles et maintenant elle joue avec ses petits-enfants. » Le « miracle » est en réalité celui de la biologie moléculaire, capable désormais de « cibler » les cellules à l'origine du cancer. Ces médicaments, à l'étude depuis plus de quinze ans, vont jouer dans l'organisme le rôle de fusible : plutôt que de détruire les cellules malades comme le fait la chimiothérapie, ils vont les empêcher de se multiplier. Avantage non négligeable pour les malades, ces nouveaux médicaments seront beaucoup moins toxiques et mieux tolérés. Ici, dans tel laboratoire, la piste d'un vaccin anticancer progresse, là, de nouvelles chirurgies légères obtiennent des succès francs, partout les chercheurs luttent tous azimuts pour que le cancer soit relégué en bas de la liste des maladies mortelles, comme la médecine l'a fait au XX e siècle contre la grippe ou la tuberculose. Cependant, les individus ne peuvent et ne doivent pas tout attendre du progrès médical. Vaincre le cancer, c'est aussi pratiquer un dépistage régulier, c'est s'abstenir de fumer, de boire avec excès, c'est adopter une alimentation équilibrée, c'est-à-dire agir individuellement contre le risque de cancer.

Parisien : http://www.leparisien.fr/home/info/permanent/article.htm?

Des billes contre le cancer
Samedi, 09/06/2001 - 00:00

De microscopiques billes de verre radio-actives injectées dans le sang pourraient aider à vaincre le cancer du foie.La technique, dite «TheraSphere», consiste à utiliser des billes dont le diamètre ne dépasse pas la moitié de celui du cheveu humain, qui seront amenées jusqu'à la tumeur cancéreuse par le flux sanguin. Le docteur Van Echo de l'université du Maryland, a mis au point le procédé, qui a permis à nombre de patients inopérables de voir leur tumeur régresser ou du moins ralentie dans sa progression.Les résultats sont donc largement positifs. Les radiations sont portées par un radio-isotope appelé yttrium 90.Il s'agit maintenant pour les chercheurs du Greenebaum Cancer Center à Baltimore d'observer les résultats sur le long terme.

Besok : http://www.besok.com/actu.cfm?id=8146

Après avoir ravagé l'Afrique le SIDA menace l'Asie
Samedi, 09/06/2001 - 00:00

En 20 ans, le sida a causé en Afrique des ravages pires que les guerres ou les catastrophes naturelles, il annonce une terrible saignée avec 25 millions de gens infectés, mais semble enfin pousser Etats et dirigeants à s'éveiller et réagir à la pandémie. Les rapports d'ONUSIDA dressent chaque année un tableau plus effarant du sida sur le continent noir: 25,3 millions de porteurs du virus VIH et malades du sida en Afrique sub-saharienne fin 2000, soit 70% des adultes et 80% des enfants atteints dans le monde. L'Afrique a enterré les trois-quarts de 20 millions de morts du sida depuis le début de l'épidémie. 2,4 millions en 2000, après 2,2 millions en 1999, ce qui représentait 11 fois plus de décès que dans tous les conflits du continent cette année-là (200.000 morts), selon l'UNICEF. Dans certains pays comme le Botswana (où un adulte sur trois séropositif), l'espérance de vie, de 60 ans en 1990-95, devrait chuter à 36 ans sur 2000-05. Le pire est sans doute à venir. Avec 12 millions d'orphelins du sida, avec la naissance de 70.000 bébés séropositifs par an dans un pays comme l'Afrique du Sud (pays le plus touché au monde), le continent est promis à une mortalité dramatique pour des années et a un impact socio-économique cauchemardesque. Car au-delà des chiffres, l'impact social du sida en Afrique se lit sur le terrain, dans ces foyers où le "chef de famille" survivant est parfois âgé de 10 ans, à travers ces enfants sans attaches ni espérance de vie, livrés aujourd'hui à eux-mêmes, demain à la rue ou au crime. L'impact se devine dans les secteurs clefs, comme l'agriculture, qui perdra 16 millions de travailleurs d'ici 2020 à cause du sida, selon des projections l'Organisation de l'ONU pour l'alimentation et l'agriculture (FAO) sur les 24 pays les plus touchés. L'Afrique n'a pas réagi assez tôt face au sida, diagnostiquait en décembre le directeur exécutif de la Commission économique de l'ONU pour l'Afrique (CEA), le Ghanéen K.Y. Amoako, à un sommet sur le sida en Ethiopie. "Un environnement fait d'ignorance et de pauvreté rend difficile de s'attaquer au problème et il y a eu peu d'engagement pour une action dès les premiers stades... Mais le vent tourne peut-être. Des percées (relatives) sont enregistrées. En 2000, le nombre de nouvelles infections dans le monde à légèrement baissé, en Afrique du Sud par exemple il était de 500.000 supplémentaires (contre 600. 000 en 1999). L'Afrique compte aussi ses "success stories" comme l'Ouganda et le Sénégal, qui ont réussi à faire baisser fortement leur taux de prévalence, consacrant des recettes "classiques" mais incontournables: mobilisation, information, transparence, prévention, protection. Et antirétroviraux. L'Afrique a aussi marqué des points dans sa lutte pour l'accès au traitements: plusieurs grandes firmes pharmaceutiques offrent des médicaments gratuits ou à prix cassés. D'autres ont renoncé à combattre en justice l'importation de copies de médicaments génériques. Reste que, selon une étude de l'ONU, c'est de 2 à 10 milliards de dollars d'aide extérieure par an dont l'Afrique aurait besoin pour tenter de contenir la propagation du fléau. Vingt ans après la découverte du virus du sida, l'impact de cette épidémie pourrait être dévastateur en Asie. Bien que l'Afrique soit le continent comptant le plus grand nombre de personnes affectées par le virus HIV, qui provoque le sida, l'Asie du Sud et du Sud-Est sont les régions du monde où le virus se propage le plus vite. Selon le site internet du Southeast Asia AIDS, il y a plus de six millions de personnes porteuses du virus HIV en Asie, continent abritant 60% de la population mondiale. L'IAS (International AIDS Society) a estimé récemment que le continent asiatique faisait face "potentiellement à une propagation dévastatrice de l'épidémie". Plus de 800.000 nouveaux cas ont été répertoriés en 2000, la plupart en Inde. Le site internet du Southeast Asia Aids estime que 4% de la population adulte cambodgienne est infectée par le virus. En Thaïlande, c'est de l'ordre de 2% tandis que les Nations-Unies estiment qu'un seul cas d'infection par le HIV est rendu public sur au moins vingt cas en réalité. En Chine, qui pourrait compter plus de dix millions de porteurs du virus d'ici à 2010 si la maladie n'est pas prise en compte, près de 20% des personnes interrogées lors d'une enquête l'an dernier ont déclaré n'avoir jamais entendu parler du sida. Selon les statistiques officielles du gouvernement chinois, 22.517 personnes étaient séropositives à la fin de l'an dernier, soit une hausse de 30% par rapport à 1999, mais d'autres chiffres officiels font état de 500.000 séropositifs. Le sida s'impose peu à peu en Chine comme une véritable menace pour la population urbaine, en raison notamment de la propagation de la drogue. Cependant, la majorité des personnes infectées vivent encore dans les campagnes. Dans de nombreux cas, les séropositifs chinois le sont devenu en vendant leur sang à des banques illégales où aucune protection sanitaire n'existe réellement. Un village dans la province centrale du Henan, Wenlou, a été particulièrement touché après que ses habitants eurent commencé à vendre leur sang à partir du milieu des années 80. Aujourd'hui, 65% de la population de ce village est séropositive. Alors que le Cambodge fait face à un problème grandissant, les responsables sur place estiment que le nombre d'adultes séropositifs est en diminution. Selon un rapport officiel établi l'an dernier, 169.000 adultes vivent avec le virus HIV, soit une baisse significative par rapport aux 184.000 répertoriés en 1999, et 210.000 en 1997, ce déclin s'expliquant par le nombre de morts. En Thaïlande, les estimations font état d'un million de porteurs du virus, qui a déjà coûté la vie à quelque 300.000 personnes. Cependant, la réaction rapide et efficace du gouvernement thaïlandais a été considérée comme un modèle pour les autres gouvernements asiatiques. Le cas du Vietnam est préoccupant bien que les chiffres soient plus rassurants que chez ses voisins. Officiellement, on se réjouit à Hanoï du faible nombre de séropositifs, 28.661 personnes, enregistrés l'an dernier. Les chiffres officiels à Singapour font état de 1.325 séropositifs ou malades du sida à la fin de l'an dernier, soit un peu moins qu'en Corée du Sud où, officiellement, 1.350 personnes étaient porteuses du virus du sida à la fin mars. A Taïwan, 1.036 des 3.044 séropositifs répertoriés ont développé la maladie du sida, selon des chiffres officiels. Jusqu'à présent, l'Indonésie était considérée comme préservée du sida. Mais de nouvelles statistiques, notamment parmi les populations les plus à risque, ont révélé un taux de propagation alarmant. Dans certaines parties du pays, dont la capitale Jakarta, une prostituée sur cinq s'est révélée séropositive à la suite de tests.

AFP : http://fr.news.yahoo.com/010603/1/1blfx.html

Découverte d'une nouvelle molécule très active contre le SIDA
Samedi, 09/06/2001 - 00:00

L'Université de pharmacie de Genève vient de découvrir une molécule active deux millions de fois plus puissante que l'AZT pour lutter contre le sida, indique mardi un communiqué de l'Université. Cette molécule, baptisée NU 1320, a été mise à jour par le professeur Jean Tronchet de la section pharmacie de l'Université de Genève alors qu'il effectuait des recherches sur de nouvelles molécules anti-virales et anti-cancéreuses, précise le communiqué. Les scientifiques ont constaté que le NU 1320 empêchait le virus du sida, présent dans les défenses immunitaires de l'homme (lymphocyte), d'introduire son code génétique (ADN) dans le noyau de la cellule. Le NU 1320 présente plusieurs avantages selon le professeur Tronchet: il est extrêmement peu toxique pour les lymphocytes humains, repère précisément sa cible et se fixe très solidement sur elle. En revanche, "il devient inefficace face aux virus mutants et résistants". D'où la nécessité de l'associer à l'AZT, qui peut attaquer des virus susceptibles de devenir résistants au NU 1320. Le professeur Tronchet, dont la découverte est brevetée, vient de s'associer avec un laboratoire parisien, Mayoly Spindler, afin de développer un nouveau médicament. Après les recherches in vitro à l'université de Genève, le laboratoire français est chargé de pratiquer des tests biologiques pour étudier le comportement de la molécule dans l'organisme humain. Cette période devrait durer au moins une année. Si les tests sont concluants, l'élaboration d'un médicament prendra environ cinq ans.

AFP : http://fr.news.yahoo.com/010605/1/1bsu1.html

L'aspirine dévoile de nouvelles potentialités
Samedi, 09/06/2001 - 00:00

L'aspirine pourrait être un médicament efficace pour éviter le rejet de greffe d'organe et pour soigner certaines maladies auto-immunes, selon des travaux menés à l'Université de Pittsburgh (Etats-Unis). Un nouveau mécanisme d'action de ce médicament plus que centenaire a été mis en évidence par l'équipe du Dr Hackstein. L'aspirine prend pour cible les cellules dendritiques myéloïdes, qui jouent un rôle essentiel dans le déclenchement de la réponse immunitaire. Ces cellules signalent à d'autres agents du système immunitaire qu'il faut passer à l'attaque. Selon les recherches du Dr Hackstein, l'aspirine empêcherait l'activation d'une molécule au sein des cellules dendritiques. Or cette molécule joue un rôle primordial dans la mise en route du processus inflammatoire. Les chercheurs, qui publient ces conclusions dans le Journal of Immunology, estiment que l'aspirine pourrait être utilisée pour éviter la réaction du système immunitaire contre un organe greffé qui aboutit parfois au rejet. De nouvelles stratégies de lutte contre les maladies auto-immunes, lorsque le système immunitaire se retourne contre l'organisme, pourraient aussi être envisagées. D'autres études sont programmées pour confirmer ces premiers résultats.

Sciences&Avenir :

http://quotidien.sciencesetavenir.com/sci_20010606.OBS5059.html

Journal of Immunology :

http://www.jimmunol.org/cgi/content/abstract/166/12/7053?

Le bon cholestérol protège contre les attaques
Samedi, 09/06/2001 - 00:00

Le bon cholestérol protège contre les maladies cardiaques et réduit les dangers d'attaques les plus courantes parmi les populations à risque, révèle une étude publiée dans le Journal of the American Medical Association. Selon cette étude, des taux élevés de cholestérol à haute densité lipoprotéinique (HDL-C), appelé bon cholestérol, pourraient réduire dans certains cas de près de 70% les risques d'attaque dans les groupes les plus menacés. "Une détection plus efficace de taux bas de HDL-C et la mise en oeuvre de traitements pour modifier ce facteur de risque pourrait avoir une influence significative", écrit le journal. Les chercheurs de l'Université Columbia de New York et de la Mailman School of Public Health rapportent que le risque pour des groupes à risque comme les personnes âgées, les noirs et les hispaniques d'être victimes d'une attaque pourraient être réduite d'un à deux tiers en fonction de leur niveau sanguin de HDL-C. Les bénéfices pourraient être particulièrement importants pour les plus de 75 ans, qui sont susceptibles d'être victimes d'une attaque causée par un caillot sanguin dans une artère rétrécie en raison d'un durcissement des artères. Le bon cholestérol réduit jusqu'à 80% les risques d'attaques causées par un durcissement des artères en raison de sa capacité à transporter le cholestérol à faible densité ou "mauvais cholestérol" jusqu'au foie en vue de son excrétion, selon les chercheurs. Cette étude, la Northern Manhattan Stroke Study, a été réalisée sur un échantillon de plus de 1.000 personnes entre 1993 et 1997.

Journal of the American Medical Association :

http://jama.ama-assn.org/issues/current/abs/joc02275.html

Le lait maternel préviendrait le stress chez l'enfant
Samedi, 09/06/2001 - 00:00

Le lait maternel contient une concentration élevée de leptine, une substance qui rendrait le nourrisson mieux adapté au stress et qui influencerait favorablement le développement de son cerveau. C'est la conclusion à laquelle est arrivée Claire-Dominique Walker, neuroendocrinologue au Centre de recherche de l'hôpital Douglas de l'université McGill, à la suite d'études effectuées sur l'effet de l'allaitement maternel chez le jeune rat. Lorsque la scientifique a soumis des rates en gestation, puis en lactation à une restriction alimentaire qui diminue les taux de leptine, elle a observé que la structure des neurones du cerveau des ratons était altérée et que le poids total du cerveau était moindre que la normale.

Devoir :

http://www.ledevoir.com/public/client-css/section.jsp?section=249

Des micro-robots chirurgiens
Samedi, 09/06/2001 - 00:00

Une nouvelle génération de robots vient de voir le jour : avec 0.6 millimètres de long et 0.3 de large, ils sont capables, avec leur coude, leur bras et leur main, de manipuler des sphères d'un dixième de millimètre. Autre innovation de taille : ils sont insubmersibles (dans l'eau, le sang ou l'urine), contrairement aux autres modèles qui contiennent des composants électroniques. Leur mode de fonctionnement est simple. Les articulations se tendent ou se contractent sous l'impulsion d'un faible courant électrique. L'équipe suédoise, qui a mis au point ces robots, a également réussi a en faire tenir 140 sur une plaque de silicium, créant ainsi une usine miniature. Les scientifiques prévoient de les utiliser pour des opérations de microchirurgie dirigées contre des cellules isolées.

Besok : http://www.besok.com/actu.cfm?id=839

Linköpings University :

http://www.ifm.liu.se/Applphys/ConjPolym/index_frames.html

Le plasma : une nouvelle arme contre les bactéries
Samedi, 09/06/2001 - 00:00

Des chercheurs russes de l'Université de Petrozavodsk ont trouvé un nouveau traitement antibactérien plutôt original : le flux de plasma froid. Le plasma est un gaz partiellement ionisé, un état de la matière présent dans l'univers. La technologie des plasmas est utilisée pour le traitement des matériaux, la propulsion de fusée ou encore la mise au point d'écrans à plasma. En chirurgie il permet d'inciser la peau de façon totalement stérile. Les bactéries finissent toujours par s'adapter aux antibiotiques, et la montée des résistances aux traitements devient de plus en plus préoccupante. De nouvelles armes doivent être trouvées pour combattre les bactéries. Il existe des moyens radicaux qui éliminent à coup sûr les micro-organismes, comme les hautes températures et l'exposition à des radiations, mais ils ne peuvent évidemment pas être utilisés sur l'homme. Le microplasmotron, dispositif mis en place par les russes, est un appareil portatif qui s'utilise sous une tension normale de 220V et qui transforme de l'eau en plasma froid, dont la température oscille entre 40°C et 80°C. Le flux de plasma détruit en 50 secondes des staphylocoques en culture. Forts de ces résultats, des scientifiques russes ont donc testé le microplasmotron sur des lapins atteints de kératite ulcéreuse, maladie causée par un staphylocoque pathogène. Le flux de plasma a permis l'arrêt du développement de la maladie. Les lapins sains qui ont suivi le même traitement n'ont subi que des changements insignifiants et éphémères des tissus de l'oeil. Devant ce nouveau succès, les chercheurs ont utilisé ce traitement sur un patient atteint d'un phlegmon, inflammation de la paupière, résistant à tous traitements. Les résultats ne se sont pas fait attendre, les tissus abîmés ont laissé place à des tissus sains. Le microplasmatron pourrait s'avérer une arme efficace contre les micro-organismes si les chercheurs montrent que son utilisation est sans danger pour l'homme.

Science&Avenir :

http://quotidien.sciencesetavenir.com/sci_20010605.OBS4961.html

Puces à ADN et informatique : les prochains outils de la cancérologie
Samedi, 09/06/2001 - 00:00

L'utilisation des puces à ADN connaît un essor croissant notamment dans le domaine de la cancérologie pour le typage des tumeurs d'après leur profil génétique. En combinant l'outil informatique à la technologie des puces à ADN, des chercheurs ont mis au point un système qui permet de classer et différencier des types tumoraux difficiles à distinguer par les méthodes usuelles. L'utilisation des puces à ADN (biochips, DNA-microarrays ou microarrays) comme outil diagnostique présente l'avantage de faire appel à de nombreux marqueurs : plusieurs milliers de gènes peuvent être criblés simultanément pour fournir une signature du type cellaire étudié. En considérant que chaque type tumoral présente une signature génétique "unique", ce système permet virtuellement de distinguer et classer tous les types de tumeurs. Cette possibilité a été étudiée par Khan et al. dans des travaux présentés dans l'édition de juin de Nature Medicine. Ces auteurs se sont intéressés à quatre types de tumeurs difficiles à distinguer par les méthodes histologiques de routine : neuroblastome, rhabdomyosarcome, lymphome non-Hodgkinien et tumeurs d'Ewing. Leur distinction est néanmoins cruciale en raison des options thérapeutiques différentes et des résultats différents que l'on peut attendre des solutions proposées. Pour cette étude, Khan et al. ont utilisé les puces à ADN pour suivre l'expression de plus de 6.000 gènes dans 88 échantillons. Un outil informatique dédié a permis de classifier ces tumeurs selon la signature moléculaire. Baptisé "réseaux neuronaux artificiels", ce système est un programme informatique qui peut être entrainé à reconnaître les différents profils d'expression. A chaque analyse, l'efficacité du système s'améliore. Le test final consistait à évaluer les performances du système dans un protocole en aveugle : 25 échantillons de type inconnu (et non-utiliséS pour le calibrage) ont été testés. Tous ont été classés avec succès.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=2256

Une génisse clonée à partir d'une vache âgée donne naissance à un veau sain
Samedi, 09/06/2001 - 00:00

Une génisse clonée en 1999 à partir d'une vache âgée a donné naissance à un veau de 45 kg en parfaite santé, a annoncé mardi le professeur Xiangzhong Yang, qui dirige le département de recherche transgénique animale de l'Université du Connecticut (nord-est des Etats-Unis). "Daisy a mis bas sans assistance" dimanche, a précisé le professeur Yang dans un communiqué, précisant que la vache et le veau, prénommé Norm, "se portent bien". La particularité de cette naissance tient au fait que Daisy, née le 7 juillet 1999, a été clonée à partir d'une vache déjà ménopausée, âgée de 13 ans. Des veaux sont déjà nés de vaches clonées à partir de jeunes donneurs, notamment au Japon. L'équipe du professeur Yang a insisté sur le fait que les télomères - les sections de l'ADN à l'extrémité naturelle des chromosomes - des cellules de clones, même issus de donneurs âgés, étaient parfaitement normales. "La naissance normale de Norm et les autres grossesses à partir de clones âgés, ici à l'Université du Connecticut, démontrent qye lorsque l'on procède à un clonage à partir d'un animal âgé, le résultat n'est pas un copie âgée", a expliqué le professeur Yang.

La Recherche :

http://www.larecherche.fr/biologie/n010605191928.4shgq654.html

Les dauphins se reconnaissent dans un miroir
Samedi, 09/06/2001 - 00:00

Les dauphins sont capables de se reconnaître dans un miroir. Une étude récente a démontré qu'ils possédaient cette faculté intellectuelle, dont on pensait jusqu'alors qu'elle était l'apanage des hommes et des grands singes.Des chercheurs de l'Aquarium de New York y ont placé des glaces, visibles par deux grands dauphins. Le test consistait ensuite à voir si les animaux regardaient dans le miroir la réflexion des marques qui avaient été dessinées sur leur corps. Les deux dauphins ont observé longuement et avec insistance les traces d'encre portées sur leur front et sur leurs flancs, selon le rapport de Diana Reiss de l'Université Columbia et Lori Marino de l'Université Emory, publié le mois dernier dans les Actes de l'Académie nationale des sciences. ''Ces résultats apportent la première preuve convaincante que les individus d'une espèce autre que les primates, en l'occurrence les grands dauphins, sont capables de reconnaître leur propre image réfléchie dans un miroir'', écrivent les chercheuses. Cette aptitude a déjà été prouvée chez les chimpanzés: des études précedentes ont démontré que les cobayes réagissaient à un marquage corporel. Et les êtres humains, bien sûr, apprennent très jeunes à faire le lien entre l'image réfléchie et leur personne. Les tentatives pour déceler cette faculté chez d'autres animaux, comme les éléphants ou d'autres singes, ont échoué. Mais l'expérience de Mmes Reiss et Marino prouve que les dauphins réagissent de la même façon que les chimpanzés lorsqu'ils examinent des marques corporelles qui ne peuvent être perçues que sur un miroir. ''Ces résultats signifient que la reconnaissance de soi ne découle pas de facteurs spécifiques aux grands singes et aux hommes, mais qu'elle peut être attribuée à des caractéristiques plus générales, telles la taille du cerveau et la capacité cognitive'', estiment les scientifiques. Pour leur étude, elles ont placé des glaces dans les piscines de l'aquarium. Elles ont ensuite marqué les dauphins avec une encre non-toxique, avant de les laisser nager vers les miroirs. Ultérieurement, elles ont fait semblant de marquer les animaux, c'est-à-dire qu'elles les ont touché de la même façon, mais sans laisser d'encre. Elles ont observé que les dauphins regardaient dans le miroir et passaient plus de temps à s'examiner s'ils portaient des traces d'encre que s'ils n'en portaient pas. De plus, les animaux se tournaient et orientaient leur corps de sorte que les endroits où ils avaient été touchés, avec ou sans marque, soient visibles dans le miroir. Face à leur image réfléchie, les dauphins n'ont pas réagi de façon ''sociale'', contrairement aux animaux qui ne se reconnaissent pas dans un miroir. Ces derniers se comportent face à leur propre image comme s'il s'agissait d'un autre animal. Par ailleurs, les dauphins n'ont prêté aucune attention aux marques sur les corps de leurs compagnons, à l'inverse des chimpanzés. Mmes Reiss et Marino expliquent cette différence par le fait que ''les dauphins, contrairement aux primates, ne s'épouillent pas les uns les autres''.

AP : http://fr.news.yahoo.com/010601/5/1bgrf.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top