RTFlash

RTFLASH Recherche & Technologie
NUMERO 235
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Mars 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les projets de loi du ministre de la Culture pour éradiquer la contrefaçon numérique
Pour Bruxelles, Microsoft aurait enfreint les règles antitrust
Informatique à la demande: Après IBM, HP opte pour la facturation à l'acte
Un réseau informatique sur le réseau électrique
Quand votre téléphone mobile saura si vous pouvez répondre
Texas Instruments dévoile un nouveau concept d'appareil sans fil
Avenir
L'attraction reste universelle, même à très courte distance
Matière
Energies renouvelables: la France fait pâle figure
Energie solaire: Lyon montre la voie
Le changement climatique est le "défi majeur" de la politique de l'énergie
Terre
La déforestation de l'Amazonie surveillée par télédétection
Les biocarburants émettent moins de gaz à effet de serre
Mieux récolter la pluie et mieux irriguer pour doubler les récoltes mondiales
Vivant
Cancer de la prostate : pour un dépistage systématique
Simuler une opération pour minimiser les risques
Un test sanguin pour mesurer les risques de cancer colorectal
Un test de dépistage rapide et fiable des drogues bientôt sur le marché
Charbon: une attaque dans une grande ville ferait plus de 120.000 morts
Mobilisation mondiale après l'apparition d'une épidémie de pneumonie atypique
Des chercheurs auraient identifié le virus responsable de la pneumonie atypique
Découverte d'une nouvelle population de lymphocytes T
Des cornées artificielles à partir de membranes de la bouche
Les enfants soumis à des images de violences deviennent des adultes plus agressifs
Une biopuce pour mieux comprendre le fonctionnement du cerveau
Edito
Hauts débits : dans une décennie, chacun d'entre nous aura besoin de plus de 100 mégabits



En cette semaine de la fête de l'Internet, il est intéressant d'imaginer ce que pourrait être devenue la Toile dans dix ou quinze ans. Tout d'abord, et toutes les enquêtes le confirment, le développement d'Internet dans le Monde est encore plus rapide que ce que nous pouvions imaginer, il y a quelques années. Nous sommes déjà quelque 600 millions d'êtres humains à être reliés les uns aux autres par un même protocole nous permettant d'utiliser tous les réseaux de télécommunications mondiaux. Alors qu'à la fin des années 1990 nous pensions qu'il nous faudrait attendre la fin de la première décennie du 21ème siècle pour atteindre le premier milliard d'internautes, ce cap symbolique devrait être franchi dès 2005 ou 2006. Ainsi, l'éclatement de la bulle financière qui, en 2000 a mis à mort des milliers d'entreprises ayant construit leurs business plan sur le rêve n'a en rien ralenti le tissage de la Toile qui, inexorablement, s'étend sur l'ensemble de la Planète. La nouveauté des temps présents dans ce monde Internet est la montée en puissance rapide des hauts débits, depuis quelques mois. Les internautes ressentent aujourd'hui le même engouement pour l'ADSL ou le câble que celui qu'avaient connu nos Grands Parents quand la modernité avait apporté l'eau courante sur l'évier au lieu d'être obligé d'aller la chercher au puits. Ils ont ainsi apprécié le très grand confort apporté par une connexion permanente au réseau Internet et ce, pour un prix forfaitaire, connu d'avance. Ils ne font que commencer à découvrir l'intérêt des grandes vitesses d'échanges pour télécharger de plus en plus rapidement de lourds dossiers. En analysant l'ensemble des travaux qui sont actuellement menés dans les principaux laboratoires mondiaux, nous en sommes amenés à conclure que la Loi de Moore qui veut que les performances d'une technologie double tous les 18 mois, tout en conservant les mêmes coûts, va dorénavant s'appliquer au débit dont disposera chaque internaute. Ainsi, si nous prenons comme point de départ de l'application de cette Loi de Moore la présente année 2003, en constatant que l'offre de base des hauts débits est actuellement de 500 Kbits, tout laisse à penser que les débits, dont aura besoin chaque internaute dans un peu plus d'une décennie, se positionneront entre 100 et 200 Mégabits (128 Mégabits dans 12 ans !) Il est nécessaire de faire cet effort d'anticipation pour éclairer suffisamment loin devant la voie de l'avenir. Ce n'est qu'avec cette vision claire du futur que l'investissement pourra enfin repartir dans ce secteur hautement stratégique. Pendant quelques années, les technologies XDSL (ADSL, etc...) vont gagner d'importantes parts de marchés car, les réseaux cuivres que ces technologies utilisent sont déjà construits et les investissements à réaliser ne sont pas des travaux d'anticipation, mais des dépenses réellement ajustées, dans ces moments difficiles, aux demandes d'abonnements. Pendant les cinq à six ans qui viennent, du moins si la Video On Demand ne fait pas accélérer le pas, les technologies ADSL devraient pouvoir relever le défi des hauts débits. Toutefois, quand les exigences des internautes atteindront un débit descendant de 15 Mégabits, ce qui arrivera avant la fin de la présente décennie, les technologies cuivre devront laisser place aux réseaux optiques, le photon remplaçant alors l'électron. Aussi, quand nous prenons conscience qu'à l'horizon 2010, il sera nécessaire de disposer de réseaux optiques sur l'ensemble du Territoire si nous voulons que tous les Français aient les mêmes chances d'entrer dans l'avenir, nous comprenons mieux tous les défis qu'il va nous falloir relever dans ces prochaines années. Pour inciter les investisseurs à se concentrer à nouveau sur la construction de ces réseaux optiques les Pouvoirs Publics doivent, sans retard, prendre toutes les décisions qui s'imposent. Le législateur doit tout d'abord améliorer la Loi et les Ministères compétents faire progresser la réglementation pour faire redémarrer l'industrie du câble dans notre Pays. Faisons disparaître ces lois anti-concentration qui ne sont plus de saison et surtout qui sont injustes quand nous constatons ce qu'on a pu accorder à la concurrence satellitaire, par exemple. Mais surtout, et cela devient urgent, le Gouvernement va devoir se prononcer clairement sur l'économie du câble. Soit les Pouvoirs Publics confirment la volonté exprimée par le précédent Gouvernement de déployer la TNT (Télévision Numérique Terrestre), et alors tous les opérateurs de la TNT, comme ceux du câble, iront vers l'échec car aucune de ces technologies ne trouverait son point d'équilibre économique. Par contre, si la France décide, comme beaucoup d'autres Pays l'ont déjà décidé, de faire converger toutes les technologies (Télévision, Internet et Téléphone) sur l'optique, les investissements exigés seront alors viables, du moins dans les zones où les populations sont suffisamment denses. Mais, en raison de sa géographie singulière (notre pays est géographiquement le plus grand d'Europe) les Pouvoirs Publics français doivent très rapidement admettre que l'équipement de l'ensemble de notre Pays ne sera possible qu'au travers d'une profonde synergie entre la volonté politique et l'initiative privée. Comme cela s'est fait depuis bientôt deux siècles dans notre Pays pour la construction de tous les réseaux, qu'ils soient ferrés, électriques, d'eau potable, téléphoniques ou même autoroutiers, des financements publics devront venir étayer les financements privés si nous voulons que toutes les régions de France, même les plus isolées soient desservies. Or, quand on sait que l'accès au très haut débit sera aussi nécessaire, dans 15 ans, à chacun de nos concitoyens, que ne l'est aujourd'hui l'électricité, nous prenons bien conscience que nous n'avons plus le droit de prendre du retard. Mais, plus encore, je suis convaincu que l'usage du haut débit par l'ensemble des Français passera, essentiellement, par le développement des usages publics. Ainsi, dans les domaines de l'éducation, mais aussi de la Santé, des Secours et du secteur social, les usages des hauts débits vont vite devenir incontournables sous l'impulsion de l'Etat et des Collectivités Locales. Prenons un exemple : dans le domaine social, le fait marquant de ces prochaines décennies, sera celui du vieillissement de nos populations. Statistiquement, la vie de chacun d'entre nous devrait s'allonger de trois mois chaque année. Nous gagnons ainsi une année d'espérance de vie tous les 4 ans. Ce problème de l'allongement de la vie va devenir, bien au-delà du problème du chômage qui, mécaniquement va s'estomper, le premier problème que devront affronter nos gouvernants de demain. Or, je suis convaincu que très rapidement les hauts débits seront appelés à la rescousse pour améliorer la situation. Ainsi, des liaisons permanentes haut-débits, mises gratuitement à disposition entre vieux parents et enfants ou entre frères et soeurs âgés permettront de retarder les entrées dans les établissements spécialisés, en facilitant, par vidéotransmission, la disparition du triste isolement des personnes seules. Je pourrais vous citer ainsi des dizaines et des dizaines d'usages publics de ces nouvelles technologies qui, très rapidement (il suffira de quelques années), inciteront les Français à adhérer massivement, enfin, à ce Monde Internet. Cette découverte d'une technologie nouvelle par un usage public gratuit favorisera ensuite dans la foulée, une large adhésion aux offres commerciales. Nous avons déjà suivi cette voie, avec succès, il y a deux décennies avec le Minitel. Pourquoi, diable, prenons-nous tant de retard pour appliquer cette démarche gagnante, au Monde Internet ? Voilà le message d'espérance que je voulais vous transmettre en cette semaine de la fête de l'Internet. Loin de la tristesse ambiante portée par certains hommes qui appartiennent déjà au passé, je voulais vous dire que ces nouvelles technologies vont profondément changer la vie de chacun d'entre nous en y apportant surtout une nécessaire espérance.

René TREGOUET

Post-Scriptum : Vous qui avez été des centaines et des centaines à m'envoyer des courriels, souvent de soutien, parfois de « franche engueulade », mais tous sympathiques, suite à mon éditorial, la semaine dernière, dans @RT Flash et dans @Acropolitis, demandant que les Etats-Unis et la France fassent un pas l'un vers l'autre, je vous remercie avec une grande sincérité. Ces messages m'ont été très précieux mais, malheureusement, en définitive, notre action aura été inutile, comme le montrent les évènements de ces dernières heures. C'est dommage car les plaies auraient été moins profondes et les cicatrices moins longues à effacer. Enfin, je fais confiance à nos deux Peuples. Les lecteurs d'@RT Flash qui voudraient encore réfléchir, avec moi, sur la situation internationale après la déclaration de guerre à l'Irak par les Etats-Unis, peuvent le faire en allant lire mon édito d'@Acropolitis

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Les projets de loi du ministre de la Culture pour éradiquer la contrefaçon numérique
Samedi, 22/03/2003 - 00:00

Le ministre de la Culture Jean-Jacques Aillagon a clarifié le calendrier pour la mise en place d'une législation sur la protection des droits d'auteurs à l'ère du numérique. Dans un discours devant le Conseil supérieur de la propriété intellectuelle et artistique (CSPLA) le 5 mars, il a précisé que ce projet de loi ("sur le droit d'auteur et les droits voisins dans la société de l'information") «devrait être déposé début mai». Ce texte transpose la directive européenne sur le même thème adoptée en mai 2001. Dès les premières fuites à son sujet, il a été l'objet de vives contestations de la part d'associations représentant le logiciel libre ou les consommateurs. Celles-ci estiment qu'il risque de remettre en cause l'exception française du droit à la copie privée. Jean-Jacques Aillagon souhaiterait qu'une première lecture à l'Assemblée nationale puisse avoir lieu avant l'été. Le ministre a également annoncé l'organisation au second semestre d'une table ronde avec pour thème «la lutte contre la contrefaçon en matière de propriété littéraire et artistique». Il entend y associer le comité national anti-contrefaçon (CNAC), ainsi que les différentes «parties intéressées, professionnels et administrations, afin de définir des axes d'action en commun». Un nouveau projet de loi pourrait à terme être élaboré sur la base du projet de directive «sur le respect des droits de propriété intellectuelle» présenté le 30 janvier par Frits Bolkenstein, le commissaire européen en charge du marché intérieur. Ces futures dispositions seront valables pour tous les secteurs, du tee-shirt Lacoste aux logiciels sur CD-Rom.

ZDNet : http://news.zdnet.fr/story/0,,t118-s2131682,00.html

Pour Bruxelles, Microsoft aurait enfreint les règles antitrust
Samedi, 22/03/2003 - 00:00

Les experts de la Commission européenne sont parvenus à la conclusion que Microsoft enfreignait les règles communautaires antitrust, a-t-on appris de source proche du dossier. Cependant, les propositions de solutions avancées par le groupe d'experts doivent encore être affinées, a-t-on précisé de même source. Les experts formulent deux exigences principales que Microsoft partage plus d'informations sur ses programmes avec ses concurrents et qu'il découple son logiciel de lecture audio et vidéo Media Player de son système d'exploitation Windows, a-t-on expliqué à Reuters de même source. Les conclusions de l'Union européenne ne sont pas attendues avant plusieurs mois. Cependant, après étude des conclusions préliminaires des experts, il apparaît qu'elles doivent être affinées juridiquement et techniquement. Il s'agit de minimiser les risques que la Cour européenne de justice rejette la future décision de la Commission européenne dans ce dossier où le premier éditeur mondial de logiciels est accusé d'abus de position dominante sur le marché des systèmes d'exploitation. De même source, on souligne que les recommandations des experts n'ont pas encore été transmises au commissaire européen à la concurrence, Mario Monti, et peuvent donc être modifiées en cours de route.

Reuters : http://fr.news.yahoo.com/030311/85/337mx.html

Informatique à la demande: Après IBM, HP opte pour la facturation à l'acte
Samedi, 22/03/2003 - 00:00

Payer mensuellement la puissance réellement utilisée de serveurs loués: un service que propose désormais HP, pour rejoindre le principe de l'informatique fournie comme prestation, au même titre que l'eau ou l'électricité. L'idée est que les clients ne paient que ce qu'ils ont utilisé en temps réel. La compagnie proposait déjà un service similaire, mais de moindre efficacité puisqu'elle était uniquement en mesure de voir si un processeur était utilisé ou non sur une machine. Concrètement, affirme HP, un logiciel intégré aux machines enregistre la puissance consommée avec une extrême précision. Ces données sont ensuite chiffrées avant de lui être transmises, pour établir la facture mensuelle en fonction. Une technologie unique sur le marché, clame la compagnie. La nouvelle offre concerne ses serveurs Unix Superdome équipés de 8, 16, 32 ou 64 processeurs. Elle est d'ores et déjà disponible en Europe, Amérique du Nord, au Moyen-Orient et en Afrique. Ce type de services séduit de plus en plus les industriels. L'idée est d'offrir un maximum de souplesse aux entreprises dont les besoins peuvent varier. Ainsi, si elles connaissent une hausse d'activité, elles n'ont pas à acheter de machines supplémentaires pour disposer de plus de puissance; et inversement. Le concept rejoint celui de l'infogérance, que proposent déjà HP et IBM, où le traitement de données d'entreprises clientes est pris en charge par leurs centres dédiés. IBM pour sa part élargit l'idée avec son initiative d'informatique à la demande, à savoir des solutions entièrement taillées sur mesure selon les besoins des clients.

ZDNet : http://news.zdnet.fr/story/0,,t118-s2131899,00.html

Un réseau informatique sur le réseau électrique
Samedi, 22/03/2003 - 00:00

Plus qu'un concept, le CPL (courant porteur en ligne, autrement dit transport des données sur le réseau électrique) est désormais une technologie qui fonctionne réellement. Oxance nous en donne la preuve, avec la solution la plus simple jamais rencontrée par la rédaction : PLCnet. Un seul adaptateur par poste de travail suffit, là où les autres solutions du marché que nous avons rencontrées jusqu'alors nécessitent un équipement maître à installer sur le compteur électrique et un modem sur chaque poste de travail. Pour mettre au point son adaptateur, Oxance s'est appuyé sur la technologie PowerPacket d'Intellon, qui « découpe » les données modulées à des fréquences de 4 à 20 MHz en petits paquets et les reconstitue à l'autre extrémité. PowerPacket utilise en fait une modulation de type OFDM (Orthogonal Frequency Division Multiplexing) déjà utilisée dans la norme 802.11a. Nous avons construit un LAN au travers du réseau électrique, relié à Internet par une connexion haut débit (ici, accès câble). Nous avons connecté en réseau un poste de travail équipé de Windows 2000 Professionnel avec un PC portable exploitant Windows NT, tous deux reliés à Internet par un routeur câble. Chacun de ces équipements est relié à un adaptateur branché sur une prise de courant. Premier avantage de taille : l'absence d'un câblage spécifique pour monter le réseau local, puisque ce sont les fils électriques existants qui sont utilisés. Second avantage : la simplicité d'emploi de l'adaptateur. Il suffit de le brancher sur une prise de courant et de le relier au poste de travail par un câble Ethernet ou USB (selon l'adaptateur choisi). Aucun pilote à fournir (le pilote réseau standard de l'OS est utilisé), le réseau fonctionne immédiatement, un témoin lumineux confirmant l'activité des adaptateurs. Notons qu'un utilitaire de configuration fourni par Oxance permet de visualiser et de sécuriser les PLCnet présents sur le réseau, ainsi que d'évaluer la bande passante disponible entre les différents équipements. Le débit disponible dépend de la distance entre les adaptateurs. Il est également tributaire de la qualité du réseau électrique, de la présence de variateurs, lampes halogènes, multiprises ou rallonges. Oxance recommande d'ailleurs la présence d'un seul adaptateur par prise, dans la mesure du possible. En théorie, Oxance annonce un débit de 14 Mbit/s, qui devrait être triplé dans les prochaines versions, pour une distance de communication de 200 m. Pour le tester, nous avons effectué plusieurs transferts de fichiers lourds (images, vidéos, documents multiples) entre les deux PC. Nous avons parfois atteint des pics à 10 Mbit/s, lorsque les deux adaptateurs étaient proches (une trentaine de centimètres) sur le réseau électrique. Pour une distance de quelques mètres, nous avons obtenu en moyenne un débit, tout à fait acceptable, de 5 ou 6 Mbit/s. Lors de cet essai, nous avons aussi voulu évaluer la fonction de chiffrement des données. L'opération de sécurisation du réseau s'est effectuée simplement à l'aide de l'utilitaire fourni. Tout le réseau électrique devenant communicant, la sécurité n'en est que plus cruciale. PLCnet emploie DES 56 bits - un chiffrement minimal, mais qui a le mérite d'exister - et une authentification par mot de passe de chaque point d'accès. Tous les PLCnet doivent avoir la même clé.

Oxance a su rendre le CPL extrêmement simple et très bon marché : un adaptateur Ethernet ne coûte en effet que 99 euros, 119 euros pour l'USB. À titre de comparaison, les solutions concurrentes se payent en moyenne 1 500 euros pour le modem maître et 150 euros par modem client. Avec un débit réel pratiquement identique, le CPL se place comme une alternative au Wi-Fi, la mobilité en moins.

OINet : http://www.01net.com/article/204278.html

Quand votre téléphone mobile saura si vous pouvez répondre
Samedi, 22/03/2003 - 00:00

Les téléphones intelligents sauront peut-être un jour détecter si vous êtes trop occupé pour être interrompu et demander à la personne qui appelle de laisser un message. Des chercheurs de l'Université de Carnegie Mellon, en Pennsylvanie, travaillent sur une technologie qui pourrait être utilisée dans les systèmes de messagerie instantanée, les téléphones mobiles et de bureau, rapporte le magazine New Scientist. De minuscules micros, des appareils photo et des capteurs enregistrent les signaux émis par le corps qu'un logiciel analyse ensuite pour déterminer si le sujet est trop occupé pour prendre un appel. Si par exemple, la personne tape sur un clavier, que les portes de son bureau sont fermées ou qu'elle est en conversation, le logiciel en déduit qu'elle est occupée. Quatre personnes sur leur lieu de travail ont mesuré leur degré d'occupation tandis que des capteurs enregistraient les signaux émis par leur corps. Leurs notations ont été mises en parallèle avec leur comportement et le logiciel a reconnu les signes les plus révélateurs. "L'ordinateur a su en fait mieux qu'un collègue dire si une personne était trop occupée pour être dérangée", selon le magazine scientifique. Ce système pourrait être disponible dans quelques années, ont estimé James Forgarty et Scott Hudson, les chercheurs qui le développent.

Reuters : http://fr.news.yahoo.com/030313/85/33eu4.html

Texas Instruments dévoile un nouveau concept d'appareil sans fil
Samedi, 22/03/2003 - 00:00

Texas Instrument dévoile lundi un nouveau concept d'appareil portable de communications intégrant à la fois la technologie du téléphone cellulaire GSM/GPRS, le WiFi et Bluetooth. L'association en un seul appareil de normes jugées par certains incompatibles pourrait ainsi permettre de passer un coup de fil depuis un micro-oreillette tout en surfant sur le web via une connexion à haut débit, tout cela depuis, par exemple, une terrasse de café. Le projet de Texas Instrument, baptisé WANDA, est présenté dans le cadre du salon CTIA (Cellular Telecommunications and Internet Association) qui se tient à La Nouvelle-Orléans. Le concept fait appel aux microprocesseurs de Texas Instruments - premier fabricant mondial de puces pour téléphones portables - et au système d'exploitation Pocket PC de Microsoft. Le GSM est la norme de téléphonie cellulaire la plus répandue au monde, le GPRS en étant une version avancée permettant de surfer sur internet à la même vitesse que depuis une connexion fixe classique tout en se déplaçant. Le WiFi, ou 802.11, est un système de connexion haut débit sans fil par ondes radio sur courte distance. Bluetooth, enfin, est une technologie qui permet de relier entre eux, sans fil ni câble, sur une courte distance, des appareils comme un ordinateur et une imprimante, ou encore un casque et un téléphone mobile. Texas Instrument, qui estime que ces technologies sont complémentaires les unes des autres, affirme que ses clients peuvent déjà accéder à ce concept et qu'un combiné pourrait être présenté au public à la fin de cette année.

Reuters : http://fr.news.yahoo.com/030317/85/33mu2.html

^ Haut
Avenir
Nanotechnologies et Robotique
L'attraction reste universelle, même à très courte distance
Samedi, 22/03/2003 - 00:00

Isaac Newton, pour le moment, a toujours raison. La loi de la gravitation universelle, qu'il a formulée il y a plus de trois siècles et qui décrit la force d'attraction entre deux corps, est valable même à une distance aussi petite qu'un dixième de millimètre. C'est ce qu'a réussi à vérifier une équipe du Département de physique de l'Université du Colorado, grâce à une méthode inédite. Les résultats ont été présentés dans la revue Nature du 27 février. Si les chercheurs avaient mis en défaut l'équation de Newton, ils auraient déclenché une révolution scientifique comparable à l'avènement de la théorie quantique ou de la relativité générale d'Einstein. Cette éventualité, contrairement à ce que l'on pourrait croire, n'est pas si improbable que cela. En effet, une version de la «théorie des cordes» - la tentative la plus sérieuse à ce jour de réunir dans une même théorie les quatre forces de la nature, celle de gravitation, l'électromagnétique, la «forte» et la «faible» - prédit des effets gravifiques «anormaux» à petite distance. Et ces anomalies, si elles existent, ne se manifesteraient qu'à une distance inférieure à 108 micromètres, soit à peine plus d'un dixième de millimètre. Il n'est donc pas exclu que l'instrument inventé par les chercheurs, s'il est perfectionné, apporte le premier indice en faveur de ces étranges théories. Ou, au contraire, confirme dans les moindres détails la validité de l'équation de Newton. C'est d'ailleurs, selon un commentaire qui accompagne l'article de Nature, toute l'importance de cette expérience: elle offre à la science un nouvel instrument pour mettre la réalité à l'épreuve. Car mesurer la gravitation à petite échelle n'est pas simple. Ce n'est qu'en 2001 que des scientifiques sont parvenus pour la première fois à la détecter entre deux masses séparées de moins d'un millimètre. Pour porter la mesure à une échelle plus petite encore, les auteurs de l'article ont dû renoncer la balance ultra-précise, inventée voici deux siècles déjà par Henry Cavendish, qui mesure la force d'attraction entre de lourdes sphères métalliques. Ils ont utilisé des masses minuscules qu'ils ont fait osciller à haute fréquence pour les mettre à l'abri des perturbations extérieures.

Le Temps : http://www.letemps.ch/template/multimedia.asp?

^ Haut
Matière
Matière et Energie
Energies renouvelables: la France fait pâle figure
Samedi, 22/03/2003 - 00:00

Moins de 1 % de la production d'électricité française provient des énergies renouvelables, en dehors des grands barrages, en dépit du dynamisme de la filière éolienne, selon le dernier inventaire mondial de l'Observatoire des énergies renouvelables publié lundi par EDF. La production des barrages, particulièrement bonne en 2001 grâce aux fortes pluies, permet à la France d'être le deuxième producteur d'électricité renouvelable de l'Union européenne (derrière la Suède), avec 14,4 % de l'électricité produite par l'hydraulique en 2001. Les autres énergies renouvelables (solaire, éolienne, biomasse) pèsent seulement 0,66% de la production d'électricité en France. Mais le potentiel hydraulique français est quasiment atteint, et seul le développement des autres énergies renouvelables permettra d'atteindre l'objectif européen (22,1 % de la consommation électrique en 2010), selon les experts. L'énergie éolienne connaît la plus forte dynamique de toutes les énergies renouvelables en France (+60,9% en moyenne de 1993 à 2001). Mais son démarrage tardif ne lui permet pas d'occuper une place de leader au sein de l'Union européenne, avec seulement 0,6% de la production éolienne de l'UE. La production d'électricité d'origine solaire, partie de presque rien en 1993, a cru de 26,4 % par an en moyenne de 1993 à 2001 en France, soit 10 gigawatts/heure (GWh) supplémentaires, "ce qui est peu comparé aux 130 GWh supplémentaires allemands", souligne l'Observatoire. En 2001, le nucléaire a représenté 76,7% de la production d'électricité française. La participation des énergies fossiles (pétrole, charbon, gaz), à 8,2%, est l'une des plus faibles d'Europe. L'inventaire 2001, qui porte sur 70 pays, constate une diminution de la part des renouvelables dans la production électrique mondiale, de 20,6 % en 1993 à 18,4 % en 2001. Cette baisse s'explique par la forte croissance (+3,24 % par an en moyenne) de la production électrique à partir de combustibles fossiles et par le dynamisme du nucléaire (+2,43 % par an en moyenne). Si la part des énergies renouvelables dans la production d'électricité diminue dans le monde, elle augmente dans l'Union européenne, de 15,2 % en 1993 à 17 % en 2001.

EDF : http://www.edf.fr/

Energie solaire: Lyon montre la voie
Samedi, 22/03/2003 - 00:00

Sur une grande avenue de l'est lyonnais, les huit étages de béton beige rosé sont alignés au cordeau comme dans toute résidence moderne et les panneaux solaires qui jalonnent le toit de zinc sont invisibles. Les panneaux vitrés anthracites qui absorbent la chaleur du soleil sont intégrés au toit côté jardin, face au sud. Du même côté les vérandas qui équipent presque tous les 40 logements HLM de trois ou quatre pièces se repèrent aisément.

"C'est une serre solaire avec 12 m2 de vitrage qui est séparée du séjour par une porte-fenêtre à double vitrage", indique Denis Eyraud, l'architecte qui a tout juste terminé la construction de l'immeuble pour la municipalité. "Il ne faut surtout pas que les gens en fassent une pièce supplémentaire, c'est toute une éducation à faire", avertit-il. L'hiver et quand il n'y a pas de soleil, véranda et portes-fenêtres doivent être fermées pour servir de tampon avec l'extérieur. Inversement, il faut ouvrir l'une ou l'autre quand il y a beaucoup de soleil et que la température de la serre dépasse celle de l'appartement. Contrepartie de ces contraintes, une réduction d'un tiers de la facture annuelle de chauffage. La réduction de facture est encore beaucoup plus spectaculaire pour l'eau chaude de la cuisine et de la salle de bains: quelque 65%. Cette eau "sanitaire" est préchauffée par les 42,5 m2 de "capteurs solaires" installés sur le toit. Elle est stockée dans un ballon spécial de 3.000 litres situé dans la cave. Elle est amenée à la température désirée par la même chaudière collective au gaz qui alimente les radiateurs et qui au total tourne beaucoup moins que d'habitude. Autre laboratoire lyonnais du solaire thermique, un ensemble de 22 maisons HLM accolées deux à deux à Corbas (banlieue sud). Les capteurs du toit, 14 m2 pour deux maisons de 80 m2 chacune environ, ne servent pas seulement à préchauffer l'eau chaude sanitaire mais aussi celle de serpentins circulant sous le plancher ("planchers solaires" ou "planchers chauffants"). A Oullins, dans la même banlieue, c'est le solaire photovoltaïque (production d'électricité à partir du soleil) qui est expérimenté dans un immeuble de logements collectifs avec "toit solaire". Il s'agit de 22 panneaux bleu nuit totalisant 25 m2, composés de petits carrés de silicium collés sur du verre. L'électricité, 2.420 watts en pointe au total, est produite par le métal semi-conducteur qui capte le soleil. Elle est soit consommée directement par les habitants soit injectée dans le réseau national. Lyon en témoigne et plus encore des pays froids comme l'Allemagne: le solaire, le plus souvent énergie d'appoint, peut prospérer dans tous les climats, relève Antoine Saglio, délégué général du Syndicat des énergies renouvelables. Encore faut-il que les pouvoirs publics donnent un coup de pouce aux deux filières, notamment au photovoltaïque dont la rentabilité dans les pays du Nord n'est pas attendue avant 2025-2030, sauf pour les sites isolés. Côté soutiens et réalisations, la France fait encore pâle figure face à l'Allemagne. Fin 2001 elle n'avait installé que 550.000 m2 de panneaux solaires thermiques contre 4,3 millions m2 pour son voisin. Et la même année, elle n'a produit que 12 GWh (un gigawatt/heure = un million de kWh) d'électricité photovoltaïque contre 136 GWh en Allemagne.

La Recherche :

http://www.larecherche.fr/afp/n030311104622.lq9hfuft.html

Le changement climatique est le "défi majeur" de la politique de l'énergie
Samedi, 22/03/2003 - 00:00

Le changement climatique est le "défi majeur" de la politique de l'énergie et aucune ressource peu émettrice de gaz à effet de serre ne pourra à elle seule satisfaire une demande croissante en énergie, estime l'Agence de l'environnement et de la maîtrise de l'énergie (ADEME). La France comme tous les pays industriels devra diviser par quatre ses émissions de gaz réchauffant l'atmosphère comme le CO2 d'ici 2050, rappelle le directeur de la stratégie de l'ADEME François Moisan. "C'est un objectif très difficile à tenir mais possible", a-t-il estimé jeudi lors d'une conférence de presse. Les stratégies possibles sont détaillées à l'horizon 2030 et 2050 dans quatre études étrangères (Allemagne, Grande-Bretagne, Pays-Bas et Suisse), publiées par la Mission interministérielle de l'effet de serre, un service du premier ministre (www.effet-de-serre.gouv.fr). Elles reposent sur une amélioration de l'efficacité énergétique, un "recours important aux énergies renouvelables", la réduction du contenu en CO2 des énergies conventionnelles ("charbon propre") et le développement de la filière hydrogène qui pourrait alimenter la pile à combustible des voitures du futur. Ces simulations, note l'établissement public, supposent un ralentissement de la hausse prévisible des consommations d'énergie, notamment chez les ménages, et donc "une évolution des comportements". Le débat national sur les énergies doit préparer une "loi d'orientation" sur le mix énergétique national à long terme, c'est-à-dire la part respective à l'horizon 2030-2050 des énergies fossiles (charbon, pétrole, gaz), du nucléaire et des renouvelables. "Il importe de garder l'ensemble des options ouvertes dans une logique de précaution", avertit l'ADEME à l'adresse notamment des anti-nucléaires.

ADEME : http://www.ademe.fr/htdocs/actualite/DNE/Default.htm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La déforestation de l'Amazonie surveillée par télédétection
Samedi, 22/03/2003 - 00:00

Le bassin amazonien, le plus grand massif forestier tropical du monde avec quelque 5,8 millions de km2, subit depuis plusieurs décennies une intense déforestation que des chercheurs viennent d'analyser en faisant appel à la télédétection, annonce l'IRD (Institut pour la Recherche et le Développement) jeudi dans un communiqué."Le croisement de données obtenues à des échelles et des dates différentes permet d'appréhender la taille des surfaces défrichées, leur diversité, ainsi que les dynamiques d'occupation des sols en Amazonie", précise le texte. Au Brésil, le total des surfaces défrichées est passé de 152.000 km2 en 1976 à 517.000 km2 vingt ans plus tard, soit l'équivalent en surface de la France métropolitaine. Phénomène complexe, la déforestation recouvre une réalité mouvante et diversifiée: elle résulte aussi bien de la demande accrue en terres agricoles, des besoins du commerce international du bois que de choix d'aménagement du territoire. Entre janvier 2000 et décembre 2002, les chercheurs de l'IRD ont mené une étude fondée sur des données de télédétection obtenues à partir de satellites et d'avions. Une démarche dite "hiérarchique descendante" souvent utilisée par les géographes, et appliquée pour la première fois en Guyane française. Elle consiste à analyser la couverture forestière amazonienne à l'aide d'une gamme complète d'outils prenant en compte les différentes échelles spatiales, depuis l'échelle régionale (plus de 2.000 km) jusqu'à l'échelle locale (quelques dizaines de kilomètres). Les chercheurs ont pu ainsi mettre en évidence la diversité des tailles des parcelles défrichées, depuis les grandes zones de déboisement que sont les fronts pionniers brésiliens jusqu'aux petites parcelles défrichées (d'un ha environ), les abattis en Guyane française. Parallèlement, ils ont traité une grande quantité de relevés de terrain et de données socio-économiques, afin de calibrer les observations aériennes ou satellites et les interpréter. Les abattis de Guyane correspondent à une occupation agricole spontanée et souvent momentanée, alors que les fronts pionniers, au Brésil, s'inscrivent dans une logique gouvernementale d'octroi et de "mise en valeur agricole" de l'espace forestier, à l'origine des défrichements et d'une occupation pastorale permanente.

AFP : http://fr.news.yahoo.com/030306/202/32xu2.html

Les biocarburants émettent moins de gaz à effet de serre
Samedi, 22/03/2003 - 00:00

Les biocarburants comme le Diester (30 % d'ester de colza et 70 % de gazole), émettent nettement moins de gaz à effet de serre que les carburants classiques, selon une étude menée par le cabinet PricewaterhouseCoopers rendue publique jeudi par l'Association du Club des villes Diester. Un véhicule roulant au Diester en mélange à 30 % (comme il est utilisé en France) réduit de 23 % ses émissions de gaz à effet de serre par rapport à un véhicule diesel roulant au gazole. Selon l'étude, l'impact sur l'effet de serre de la filière essence est 2,5 fois supérieur à celui des filières éthanol (produit à partir de betterave ou de blé) et 3,5 fois supérieur à celui des filières "EMHV", ou ester méthylique d'huiles végétales, dont fait partie le Diester français. La consommation d'une tonne de Diester permet d'économiser l'équivalent de 2,5 tonnes d'équivalent CO2, relève l'étude. Une petite partie de la production française de Diester est utilisée en biocarburant (mélange à 30 %) : 4.000 véhicules Diesel roulent aujourd'hui au Diester. L'essentiel est incorporé (moins de 5 %) dans le gazole classique comme lubrifiant. Le Club des villes Diester, rebaptisé "Partenaires Diester", entend faire valoir cet impact positif sur l'effet de serre pour stimuler la production française de Diester, stagnante depuis plusieurs années. La France a démarré la production de biocarburants en 1992, pour échapper au gel des terres cultivées pour l'alimentation imposé par la Politique agricole commune. La production française - 317.500 tonnes de Diester en 2002 - est inchangée depuis plusieurs années, car elle dépend d'un agrément de l'Etat, qui consent une baisse de fiscalité. Leader en Europe depuis le lancement de cette filière, la France s'est fait doubler en 2002 par l'Allemagne (440.000 tonnes). Le ministère français de l'Agriculture vient de décider un relèvement de 70.000 tonnes, s'est félicitée l'association. L'étude ne prend pas en compte le coût (plus élevé) des biocarburants ni les impacts sur l'environnement. Les biocarburants sont généralement issus de cultures intensives, grosses consommatrices d'engrais et pesticides. Le secteur des transports est le principal émetteur de gaz à effet de serre en France et connaît la plus forte augmentation: + 22 % entre 1990 et 2010.

AFP : http://fr.news.yahoo.com/030306/202/32y9s.html

Mieux récolter la pluie et mieux irriguer pour doubler les récoltes mondiales
Samedi, 22/03/2003 - 00:00

En étant plus efficace dans l'irrigation et la collecte d'eau de pluie, il serait possible de multiplier par deux le rendement des récoltes, ont estimé des experts lors du Troisième Forum mondial de l'eau. L'agriculture consomme environ 70% de l'eau fraîche sur la planète et au rythme de progression de la population mondiale et de l'expansion des mégalopoles, les ressources seront insuffisantes pour nourrir tout le monde, ont constaté les experts. "Un fermier consomme cinq litres d'eau par jour mais il a besoin de 5.000 litres par jour pour ses cultures. L'idée n'est pas de réduire la quantité d'eau globalement consommée dans le monde mais de la stabiliser tout en l'utilisant de manière beaucoup plus efficace", a expliqué Olivier George Covers, responsable d'un programme spécial de la FAO à Rome. "L'irrigation est le seul facteur sur lequel on peut agir pour augmenter la production de nourriture", a-t-il souligné. L'une des techniques les plus cotées lors du Forum est l'irrigation au goutte à goutte et son utilisation pour des produits de base comme les légumes à racines peut réduire de plus de la moitié la consommation d'eau et générer des rendements plus élevés, selon David Molden de l'Institut de la gestion internationale de l'eau. Les experts estiment que 60% de l'eau d'irrigation est gaspillée en raison souvent d'un arrosage excessif. L'irrigation au goutte à goutte via des tubes en plastique très localisés est particulièrement adaptée aux cultures méditerranéennes et s'est enracinée aussi en Afrique, selon Suhas Wani de l'Institut international de recherche sur les tropiques semi-arides. Des horticulteurs d'Erithrée sont parvenus à cultiver des fleurs avec de bons rendements et à les exporter. Au Niger, au Nigéria et au Burkina-Faso, un programme israélien à bas coût a permis de créer des pépinières dans le cadre du programme African Market Gardens. "La demande pour ce type de stratégies est de plus en plus forte, ce qui réduit les pressions sur les gouvernements locaux pour construire des infrastructures qui puiseraient dans des rivières déjà stressées", a indiqué M. Molden. L'irrigation au goutte à goutte n'est toutefois pas adaptée au maïs, au blé et encore moins au riz qui consomme énormément d'eau. Dans les régions les plus sèches, il est donc nécessaire de développer la collecte d'eau de pluie. Selon M. Molden, "à l'avenir, la moitié des cultures pousseront grâce à l'eau de pluie collectée". C'est déjà le cas pour 97 % de l'agriculture en Afrique, selon Johan Rockstrom de Waternet.

AFP : http://fr.news.yahoo.com/030318/202/33oiz.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer de la prostate : pour un dépistage systématique
Samedi, 22/03/2003 - 00:00

L'Association française d'Urologie (AFU) a annoncé hier au Médec le lancement d'une campagne d'information sur le dépistage du cancer de la prostate. Le cancer masculin le plus fréquent après 50 ans, avec 40 000 cas chaque année ! A l'origine de plus de 10 000 décès chaque année, le cancer de la prostate peut être dépisté et diagnostiqué précocement. Les chances d'améliorer la survie des patients peuvent donc être considérablement augmentées. Pour inverser la courbe de mortalité, les membres de l'AFU ont donc décidé de lancer cette semaine une campagne d'information sur le dépistage de ce cancer en direction des malades, des médecins et des pharmaciens. Grâce à des posters, des fiches explicatives, chacun trouvera l'information nécessaire à ses besoins. Le dépistage du cancer de la prostate s'appuie principalement sur deux outils : un dosage du PSA, le Prostate specific antigen, ou antigène prostatique spécifique, et le toucher rectal. Le président de l'AFU, le Pr Philippe Mangin précise les modalités de ce dépistage. « Les hommes entre 50 et 75 ans seront concernés par le dépistage une fois par an. Mais aussi ceux âgés de 45 ans qui ont des antécédents familiaux. En fonction des futures études cliniques sur le sujet, nous affinerons les modalités du dépistage », nous a-t-il confié.

Médec, 11 mars 2003 : http://www.destinationsante.com/home.cfm

Simuler une opération pour minimiser les risques
Samedi, 22/03/2003 - 00:00

Les chirurgiens spécialisés en problèmes vasculaires planifient la plupart des opérations de greffe sur la base de leur expérience et en suivant leur intuition. Souvent, on ne peut déterminer qu'après l'opération si une greffe d'artère a été effectuée au bon endroit, pour minimiser les complications et rétablir le flux sanguin. Mais un groupe mené par CharlesTaylor, un ingénieur mécanicien a l'université de Stanford, qui étudie le système vasculaire humain, développe un logiciel expérimental qui permet aux chirurgiens d'évaluer différents schémas d'opération avant de pratiquer une simple incision. Le processus commence par la collection des données de résonance magnétique nucléaire tridimensionnelles, qui décrivent l'anatomie du patient - la forme exacte des coronaires ou des carotides - avec les instantanés du flux de sang en différents points. Le logiciel de Taylor convertit les données anatomiques dans un modèle informatique qui représente les vaisseaux. Ainsi les chirurgiens, grâce a des outils de conception assistée par ordinateur, peuvent ajouter des greffes de contournement au modèle. Ensuite, un super-ordinateur applique des équations de dynamique des fluides aux données de flux originales, produisant une simulation utilisant des codes couleurs pour observer le flux sanguin. Grâce a ces simulations, les chirurgiens peuvent décider quel emplacement choisir pour la greffe, et éviter ainsi que des points avec un flux sanguin faible ne se créent, ce qui pourrait mener le patient a une crise cardiaque. Taylor espère optimiser ce système pour que dans 5 ans le logiciel soit suffisamment rapide et efficace pour être utilise régulièrement lors de ce type d'opération.

Flash TIC USA : http://www.france-science.org

Un test sanguin pour mesurer les risques de cancer colorectal
Samedi, 22/03/2003 - 00:00

Des chercheurs américains ont mis au point un test sanguin permettant de mesurer les risques de développer la forme la plus commune de cancer colorectal, selon une étude publiée jeudi dans la revue Science. Ce test, expérimental, permet de détecter certaines modifications génétiques favorisant la survenance de ce cancer, selon le Dr Andrew Feinberg, de l'Université Johns Hopkins dans le Maryland. "Nous espérons que cette découverte permettra d'identifier les personnes à risque de cancer colorectal et de les suivre pour prévenir la survenance de la maladie ou au moins la détecter tôt, à la façon des médecins qui identifient les patients à risque de maladie cardiaque", a-t-il expliqué. La création d'une version plus efficace du test devrait prendre plusieurs années. Le test a été mis au point grâce à une étude précédente menée dans la même université, qui identifiait les mutations génétiques associées aux formes les plus communes de cancer du colon. Environ 155.000 nouveaux cas de cancer colorectal sont diagnostiqués chaque année aux Etats-Unis. En 2003, plus de 57.000 décès seront dus à ce cancer. Une autre étude publiée jeudi par les Centres de contrôle des maladies (CDC) conclue que le taux de dépistage du cancer colorectal par les moyens actuellement sur le marché demeure trop faible aux Etats-Unis. Un décès sur trois provoqué par cette maladie aurait pu être évité si les personnes de plus de 50 ans étaient régulièrement suivies, selon les CDC. Le dépistage permet de repérer les polypes précancéreux, qui peuvent mener à la maladie s'ils ne sont pas opérés.

BBC : http://news.bbc.co.uk/1/hi/health/2847711.stm

Science du 14-03-2003 :

http://www.sciencemag.org/cgi/content/abstract/299/5613/1753

Un test de dépistage rapide et fiable des drogues bientôt sur le marché
Samedi, 22/03/2003 - 00:00

Le premier test de dépistage rapide des principales drogues à partir de la sueur ou de l'urine sera sur le marché en France à partir du mois d'avril, a annoncé vendredi, au 31e MEDEC (Salon de la médecine), la société ID Pharma qui le commercialisera. Ce test, baptisé Narcotest, bénéficie de l'agrément de l'Agence de sécurité sanitaire des produits de santé (AFSSAPS) et sera vendu sur prescription médicale en pharmacie mais son prix n'a pas encore été fixé, a précisé son fabricant. Fiable à plus de 99 % selon ID Pharma, le Narcotest peut détecter en quelques minutes la présence dans l'urine ou la sueur des principales drogues : cannabis, ecstasy, cocaïne, héroïne, morphine, mais aussi la méthadone, la benzodiazépine ou les barbituriques. Le test permet de dépister simultanément jusqu'à neuf familles de stupéfiants. S'il est positif, il doit être suivi d'une prise de sang, seule capable de déterminer avec précision la quantité de drogue présente dans le sang. Toutefois, souligne son fabricant, le test ne permet pas d'affirmer que la personne était sous l'influence de la drogue au moment du prélèvement, contrairement à la prise de sang. Le cannabis, rappele-t-on, peut être retrouvé dans l'organisme plusieurs semaines après usage. La commercialisation de ce test intervient après l'adoption de la loi du 3 février 2003 créant un délit de conduite sous l'emprise de stupéfiant, puni d'une peine pouvant aller à deux ans de prison et 4.500 d'euros d'amende. Cette loi rend également obligatoire le dépistage des stupéfiants en cas d'accident mortel. Selon les chiffres officiels, 1 million de Français, dont 600.000 adolescents, sont des consommateurs réguliers de cannabis et 14 % des conducteurs impliqués dans un accident mortel sont sous l'emprise de produits au moment des faits. Cette proportion grimpe à plus de 27 % chez les conducteurs de moins de 27 ans, tranche d'âge pour laquelle la route est la première cause de mortalité. Quelque 1.500 jeunes conducteurs meurent chaque année en France à cause de la drogue au volant.

AFP : http://www.caducee.net/afp/edit.asp?id_depeche=13800

Charbon: une attaque dans une grande ville ferait plus de 120.000 morts
Samedi, 22/03/2003 - 00:00

Un kilo de spores de la bactérie du charbon disséminés dans une zone urbaine de 11,5 millions d'habitants provoquerait l'infection de 1,5 millions de personnes et la mort de 123.000 personnes même si chacun prend des antibiotiques sous 48 heures, selon une étude publiée lundi qui envisage la distribution préventive d'antibiotiques. Si la population dispose déjà des médicaments ou les obtient en quelques heures, le nombre de victimes de l'attaque est divisé par deux, poursuit l'auteur principal de l'étude, Lawrence Wein, qui avec ses collègues a réalisé une modélisation mathématique d'une attaque terroriste au bacille du charbon. Les auteurs, professeurs à Stanford, Yale et au Massachusetts Institute of Technology, recommandent aussi la mise en place d'unités sanitaires mobiles pour la distribution rapide d'antibiotiques en cas d'attaque. Ils notent également que l'utilisation d'équipements de détection contre les attaques bioterroristes n'a qu'un effet marginal sur la réduction de la mortalité en cas d'attaque au charbon. Les auteurs dont l'étude est publiée dans les Comptes-rendus de l'Académie nationale des sciences (PNAS) estiment que les mesures actuellement prises par le gouvernement pour protéger la population sont insuffisantes. Le gouvernement s'appuie trop sur les équipements de détection et ne prépare pas assez le pays au déploiement rapide d'une grande quantité de médicaments et de personnels médicaux dans une zone touchée, estiment-ils. "Rien ne remplace la délivrance d'antibiotiques et soins médicaux le plus rapidement possible aux personnes" dans les zones touchées par une attaque, a estimé M. Wein en rappelant que le bacille du charbon est "idéal comme arme car il survit à une explosion".

Université de Stanford :

http://www.gsb.stanford.edu/news/headlines/wein_anthraxremarks.shtml

Mobilisation mondiale après l'apparition d'une épidémie de pneumonie atypique
Samedi, 22/03/2003 - 00:00

Après l'alerte sanitaire lancée à l'échelle de la planète par l'Organisation mondiale de la santé (OMS), des mesures de surveillance strictes sont appliquées dans les aéroports asiatiques pour détecter les cas suspects de pneumonie atypique et éviter la propagation de l'épidémie au reste du monde. Face à l'inquiétude générale soulevée par cette alerte, l'OMS a appelé au calme et diffusé une information rassurante en estimant que la variante chinoise de cette pneumonie atypique "semblait pouvoir répondre au traitement". l'Organisation mondiale de la santé (OMS) qui a chargé onze laboratoires parmi les plus renommés du globe d'en trouver au plus vite la cause infectieuse, ont indiqué les experts de l'OMS. Lors d'une conférence de presse à Genève, le directeur exécutif de l'OMS pour les maladies infectieuses, David Heymann, a souligné que l'OMS n'avait pas d'"indications montrant qu'il pourrait s'agir d'une forme de grippe". Il a souligné que la maladie ne se répandait pas aussi vite et aussi facilement qu'une épidémie de grippe. "A l'heure actuelle, nous n'en savons pas la cause", a-t-il admis, ajoutant que l'épidémie touchait surtout les personnels soignants et leurs familles. Cette pneumopathie dont les symptômes ressemblent à ceux de la grippe commence par une forte fièvre supérieure à 38 degrés Celsius ainsi que par un ou plusieurs symptômes respiratoires (toux, difficultés respiratoires, souffle court). Depuis le mois de novembre, 305 personnes ont été infectées par cette mystérieuse maladie dans la province méridionale de Guangdong, limitrophe de Hong Kong. Au 20 mars, neuf personnes sont mortes après avoir été atteintes par le syndrome respiratoire aigu sévère (SRAS) -- 5 à Hong Kong, 2 au Vietnam et 2 au Canada-- auxquels pourraient s'ajouter 7 cas mortels survenus en Chine mais qui n'ont pas encore été formellement attribués à la maladie. Toutefois, selon l'OMS, le nombre de cas rapportés par le gouvernement chinois est stable depuis la mi-février. Un rapport du ministère chinois de la Santé, publié par l'OMS, entretient toutefois une certaine confusion en soulignant que "les antibiotiques n'ont pas d'effet évident" sur les malades mais que, pourtant, "les patients sont guéris un par un". A l'aéroport de Hong Kong, des voyageurs inquiets portaient des masques chirurgicaux pour ne pas risquer de contracter cette maladie hautement contagieuse dont les principaux symptômes sont de la fièvre, une toux et une gêne respiratoire, des maux de tête, des diarrhées ainsi qu'une raideur musculaire. Toutefois, les médecins semblent savoir peu de choses sur ce "syndrome respiratoire aigu sévère". Malgré le peu de certitudes concernant cette nouvelle pathologie, la Première ministre néo-zélandaise Helen Clark a affirmé que certains responsables de l'OMS craignaient une épidémie aussi "mortelle que la (pandémie) de grippe de 1918" qui avait fait au moins 20 millions de morts dans le monde. D'autres font un rapprochement avec l'apparition du sida il y a une vingtaine d'années. Alan Schnur, qui travaille pour l'OMS à Pékin estime "qu'il y a le même genre de choc et de préoccupation maintenant que lorsque le sida s'est développé au début. Encore une fois, nous avons une nouvelle maladie dont nous ne connaissons pas encore la cause. On cherche encore comment la traiter". Toutefois, une responsable de l'OMS au Vietnam, où une infirmière est devenue samedi la neuvième victime à succomber, a minimisé les choses: "Aujourd'hui, nous n'en savons pas suffisamment sur l'épidémie pour pouvoir dire cela", a déclaré cette responsable, Pascale Brudon. Selon elle, 10 patients suivis à Hanoï "vont de mieux en mieux". Au total, 31 cas ont été signalés au Vietnam. A travers le continent asiatique, les autorités ont pris des mesures de précaution. En Chine, le gouvernement a demandé l'aide des spécialistes en maladies infectieuses de l'OMS pour enquêter sur cette maladie. Au Japon, les autorités ont placé en état d'alerte les services de quarantaine des aéroports du pays. A Hong Kong, où une victime a succombé la semaine dernière à cette infection dans un hôpital, le nombre de cas a presque doublé pour atteindre 83. La principale compagnie aérienne de ce territoire, Cathay Pacific, a ordonné à son personnel au sol de refuser tout passager présentant les symptômes de la maladie. En Europe également la vigilance est de mise. Deux Français de retour d'Asie du Sud-Est ont été hospitalisés lundi au Mans après avoir éprouvé les symptômes de la pneumonie atypique, a annoncé mercredi la préfecture de la Sarthe dans un communiqué.

OMS : http://www.who.int/mediacentre/releases/2003/pr22/fr/

OMS : http://www.who.int/csr/sars/en/

Des chercheurs auraient identifié le virus responsable de la pneumonie atypique
Samedi, 22/03/2003 - 00:00

Des chercheurs de Hong Kong ont réussi une percée dans l'identification de la cause de la pneumonie atypique qui a fait au moins six morts dans le monde et provoqué une alerte internationale, a rapporté mercredi un quotidien du territoire.Selon les chercheurs du Prince of Wales Hospital et de la Chinese University, le syndrome respiratoire aigu est dû à un virus de la famille des paramyxoviridae, a rapporté le South China Morning Post. "Il s'agit d'une découverte importante qui montre que le traitement antiviral constitue le bon choix", a dit au journal le doyen de la faculté de médecine de la Chinese University, Sydney Chung Sheung-chee. Les médecins soulignent cependant que la famille des paramyxoviridae comprend différents virus qui peuvent toucher l'homme et d'autres recherches étaient nécessaires pour déterminer si le virus responsable de la flambée actuelle qui a fait plus de 200 malades dans le monde est un nouveau virus et s'il est curable. L'épidémie actuelle a fait au moins six morts, deux au Canada, deux à Hong Kong et deux au Vietnam. Les responsables sanitaires soupçonnent également que la même maladie a fait 305 malades et cinq morts le mois dernier dans la province de Canton, dans le sud de la Chine, adjacente à Hong Kong. Le virus serait de la même famille qu'un autre virus apparu voici 7 ans en Australie ayant fait à l'époque un mort au moins, a affirmé mercredi un expert australien. En Allemagne où trois cas au moins ont été détectés, les scientifiques indiquent que la pneumonie atypique pourrait être provoqué par un virus voisin de celui de la grippe, de type paramyxovirus. Selon un scientifique australien Dominic Dwyer, médecin au centre de microbiologie et des maladies infectieuses de l'hôpital Westmead à Sydney, le paramyxovirus qui peut se transmettre depuis l'animal aux humains est lié au morbillivirus équin qui aurait été responsable de la mort d'un entraîneur de chevaux en 1994. Le Dr Dwyer estime que l'information publiée à Hong Kong est "plausible" affirmant qu'une forme inconnue de paramyxovirus est considérée comme une hypothèse très vraisemblable. "Les paramyxovirus constituent une vaste groupe de virus, il y en a toute une variété, certains que nous connaissons provoquent des affections respiratoires et certains sont nouveaux", a-t-il dit. Les paramyxovirus sont des virus enveloppés de forme plus ou moins sphérique. La taille moyenne des particules est d'environ le double de la taille des virus grippaux. Le médecin estime que l'identification du virus constituerait une percée dans la lutte contre l'épidémie alors qu'on ne possède encore ni traitement spécifique ni vaccin. Toutefois le Dr Dwyer affirme que des renseignements complémentaires sont nécessaires sur la forme précise du virus en cause. "Jusqu'à ce que nous obtenions des informations supplémentaires nous ne savons pas s'il provient d'un animal qui s'est transmis aux humains qui ensuite l'ont répandu ou s'il s'agit d'un virus humain qui a pris une forme plus virulente", ajoute le médecin. L'Organisation mondiale de la Santé (OMS) a indiqué que l'hypothèse du paramyxovirus devait être considérée sérieusement tout en ajoutant qu'il était encore trop tôt pour tirer des conclusions.

BBC :http://news.bbc.co.uk/1/hi/health/2863229.stm

OMS : http://www.who.int/csr/sars/en/

Découverte d'une nouvelle population de lymphocytes T
Samedi, 22/03/2003 - 00:00

Des chercheurs de l'Inserm (Institut Curie-Paris) annoncent, dans la revue Nature, la découverte d'une nouvelle et très particulière population de lymphocytes T chargés de la régulation de l'immunité intestinale qui pourrait améliorer le traitement des cancers digestifs. Alors que la plupart des lymphocytes T - des cellules "sentinelles" assurant la protection de l'organisme - ne se multiplient qu'après leur rencontre avec l'agent pathogène qu'ils sont spécifiquement chargés d'éliminer, les "nouveaux" lymphocytes - baptisés MAIT - abondent en permanence et possèdent des récepteurs dont la structure est identique chez l'homme, la souris, la vache... "Les maladies inflammatoires (maladie de Crohn, rectocolite ulcéro-hémorragique) pourraient bénéficier de ces nouvelles connaissances. Mais il est également possible d'envisager d'utiliser ces lymphocytes T pour déclencher une réponse anti-tumorale chez les patients atteints d'un cancer digestif", estiment les chercheurs de l'Institut Curie dans un communiqué. "Acteurs-clefs de la réponse immune intestinale, les MAIT pourraient servir à stimuler des défenses immunitaires afin qu'elles reconnaissent et éliminent les cellules tumorales, une découverte qui pourrait apporter de nouvelles perspectives à l'un des traitements prometteurs en cancérologie, l'immunothérapie", ajoutent-ils. "Les propriétés originales (de ces lymphocytes) indiquent qu'ils ont une fonction singulière et ces travaux (...) apportent un nouvel éclairage sur le fonctionnement de l'immunité intestinale et sur l'équilibre subtil existant entre le maintien de la flore intestinale et la réponse à une infection", soulignent les immunologistes.

INSERM : http://www.inserm.fr/

Des cornées artificielles à partir de membranes de la bouche
Samedi, 22/03/2003 - 00:00

Une équipe de chercheurs japonais menée par un médecin ophtalmologue est parvenue à restaurer la vue de patients en développant une cornée artificielle à partir de membranes prélevées dans leurs bouches, selon l'agence de presse Jiji.La nouvelle méthode a été présentée mercredi lors d'un congrès de la Société japonaise de médecine régénérative à Kobe. Aucun membre de l'équipe n'a pu être joint pour confirmer ces informations. Les greffes de cornée pratiquées habituellement ont le désavantage d'être parfois rejetées par le système immunitaire du receveur, alors que l'opération inventée par les Japonais ne comporte pas ce risque, selon Jiji. L'équipe du Dr Takahiro Nakamura, de l'université de médecine de Kyoto, a pratiqué l'opération sur neuf patients qui avaient perdu la vue en raison de maladies ou de blessures ayant affecté la surface de la cornée, formée de cinq couches. Des chirurgiens ont prélevé des membranes de deux mm2 dans la bouche des patients et les ont cultivées pendant trois semaines dans du tissu amniotique (la membrane qui entoure l'embryon dans l'utérus), a indiqué Jiji. Les patients ont reçu une greffe lorsque les membranes ont atteint trois cm2. Huit des patients ont recouvré la vue après l'opération, selon Jiji.

AFP : http://fr.news.yahoo.com/030312/202/3397v.html

Les enfants soumis à des images de violences deviennent des adultes plus agressifs
Samedi, 22/03/2003 - 00:00

Les jeunes adultes qui se sont abreuvés d'images violentes à la télévision dans leur enfance, avec des feuilletons aussi banals que "Starsky et Hutch" ou "L'Homme qui valait trois milliards", sont plus agressifs, affirme une étude américaine publiée en mars dans la revue "Developmental Psychology". L'effet est observé chez les deux sexes et quel que soit le degré initial d'agressivité de l'enfant, selon les chercheurs. L'étude, qui a porté sur 329 personnes, établit un lien entre le fait de regarder des émissions violentes entre 6 et 9 ans et des comportements violents à l'âge d'une vingtaine d'années. L'étude a été réalisée par le psychologue Rowell Huessman et ses collègues de l'université du Michigan. Selon le Pr Huessman, la violence à la télévision tend à enseigner aux jeunes enfants que l'agression est un comportement adapté à certaines situations, surtout lorsqu'elle est utilisée par des héros charismatiques. Elle atténue également une aversion naturelle à la violence, ajoute-t-il. Il recommande aux parents de restreindre autant que possible l'exposition de leurs enfants aux émissions ou films violents, depuis leur plus jeune âge et jusqu'à ce qu'ils soient pré-adolescents. Cette étude va à l'encontre de l'idée selon laquelle les enfants agressifs recherchent la violence à la télé, et que les résultats sont liés au statut socio-économique, à l'intelligence ou encore à l'éducation reçue des parents. Les chercheurs ont étudié les habitudes télévisuelles des participants lorsqu'ils étaient enfants à la fin des années 70. Pour vérifier leur degré de violence une fois adulte, ils ont interrogé des proches et examiné des casiers judiciaires. Lorsque les participants étaient enfants, les chercheurs ont évalué le niveau de violence auquel ils étaient exposés en leur demandant de désigner, parmi 80 émissions populaires pour leur classe d'âge, leurs huit préférées, et de préciser la fréquence avec laquelle ils les regardaient. Des séries telles que "Starsky et Hutch", "L'Homme qui valait trois milliards" et les dessins animés mettant en scène l'oiseau coureur Bip-Bip et le Coyote, ont été considérés comme très violents. Une fois devenus de jeunes adultes, les hommes qui ont figuré parmi les 20% d'enfants les plus exposés à ce genre d'émissions étaient deux fois plus susceptibles que les autres sujets d'avoir poussé, empoigné ou bousculé leur épouse lors d'une querelle conjugale dans l'année écoulée, selon l'étude. De leur côté, les femmes qui se trouvaient dans la même tranche des 20%, étaient deux fois plus enclines à avoir jeté un objet sur leur mari. Chez les deux sexes, ces "grands consommateurs de violence à la télé" étaient également plus susceptibles que les autres participants à l'étude d'avoir poussé quelqu'un dans un accès de colère, frappé, battu ou étranglé un autre adulte, ou d'avoir commis un délit ou une infraction au code de la route au cours des 12 mois précédents.

Developmental Psychology :

http://www.apa.org/journals/dev/press_releases/march_2003/dev392201.pdf

Une biopuce pour mieux comprendre le fonctionnement du cerveau
Samedi, 22/03/2003 - 00:00

Le producteur industriel de semi-conducteurs Infineon Technologies vient de développer une nouvelle espèce de biopuce, à l'aide de laquelle de grandes avancées pourraient être réalisées dans le domaine de la recherche sur le fonctionnement du cerveau. En coopération avec l'Institut Max Planck de Biochimie de Martinsried (Bavière), les chercheurs d'Infineon sont parvenus a enregistrer et traiter les signaux électriques des cellules nerveuses avec une exactitude inégalée jusqu'alors : plus de 32 millions de signaux sont ainsi recueillis et amplifies chaque seconde. Pour atteindre ce résultat, les neuropuces sont pourvues de détecteurs dont la distance avec les cellules nerveuses est inférieure de huit nanomètres par rapport au diamètre d'une cellule (soit dix a cinquante nanomètres). Un millimètre carre de surface de neuropuce compte 16.384 détecteurs ; chacun est capable de traiter au moins 2.000 signaux par seconde. Malgré de nombreuses visées pratiques -notamment en ce qui concerne les recherches portant sur la thérapie de maladies cérébrales incurables- la "neuropuce" reste actuellement fabriquée pour les seuls besoins des laboratoires en recherche fondamentale. Mais il n'est pas exclu que son utilisation s'étende ultérieurement a la recherche pharmaceutique.

BE Allemagne : http://www.adit.fr

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top