RTFlash

RTFLASH Recherche & Technologie
NUMERO 147
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Mai 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le réseau VTHD : bienvenue dans le futur
Vers la fin du modèle gratuit sur le Net ?
Les nouveaux filets de la Toile
Un nouveau CD vidéo
Le numérique au secours du cinéma
Avenir
Le penchant de la nature pour la matière dévoilé
Matière
Un détecteur portatif de présence
La vidéo en qualité DVD... bientôt sur vos mobiles
Le renouveau de la machine à vapeur ?
Les Etats-Unis dévoilent leur politique énergétique
Les centrales utilisant la biomasse connaîtront une expansion spectaculaire en Allemagne
Espace
L'espace : une ambition politique et stratégique pour l'Europe
L'agriculture par satellite arrive
Terre
Les manchots empereurs, baromètres des changements climatiques
Vivant
Un détecteur portable pour le cancer de la peau
Vache folle : un rapport du Sénat
L'épidémie de Creutzfeldt-Jakob pourrait être plus grave que prévue
L'Europe et l'OMS s'attaquent au tabac
SIDA : des anti-oxydants pour prévenir les troubles neurologiques ?
La marche prévient le déclin intellectuel
Vers un vaccin contre la maladie d'Alzheimer
Les végétaux parlent aux végétaux
Des matériaux capables de tuer des bactéries par simple contact
Edito
Vaincre le cancer : un double défi scientifique et social



Vaincre le cancer reste un des défis majeurs des 20 prochaines années mais dans ce domaine il faut toujours rester prudent et éviter les annonces prématurées et les faux espoirs. Pourtant, on peut affirmer sans exagérer que nous sommes à l'aube d'une révolution thérapeutique sans précèdent qui ouvre des perspectives nouvelles dans le traitement du cancer. Les trois principaux axes de cette révolution thérapeutique seront sans doute constitués par les vaccins anti-cancer, le ciblage moléculaire et la prévention active. S'agissant des vaccins anti-cancer, les progrès réalisés depuis 2 ans sont considérables et ouvrent de grands espoirs. En mars 2000, la revue Nature Medicine rapportait une réduction de 50% des tumeurs cancéreuses de deux patients atteints d'un cancer du rein métastasé grâce à un vaccin expérimental. Ce traitement prometteur, obtenu par la fusion électrique de cellules prélevées sur le malade et de cellules d'un donneur, pourrait soigner d'autres formes de cancer, par exemple le cancer du sein et le cancer de la prostate. Parallèlement à ces recherches, un vaccin anti-cancer à base de télomérase, enzyme impliquée dans le vieillissement cellulaire et exprimée dans 90 % des cancers, est actuellement testé sur des souris au centre des thérapies géniques de l'université Duke (Durham, Caroline du Nord, Etats-Unis). Les souris immunisées avec le vaccin fabriquent des anticorps qui détruisent in vitro plusieurs types de cellules tumorales et inhibent in vivo la croissance de divers cancers. Enfin, plus récemment, l'Institut Pasteur a mis au point un vaccin original qui utilise la présence d'un sucre, appelé antigène Tn, à la surface des cellules cancéreuses. Ce vaccin a permis à des "souris humanisées" cancéreuses de rejeter, dans 80 % des cas, leurs tumeurs et de survivre à la maladie. Ce type de vaccin, qui est complémentaire des vaccins anti-cancer utilisant des cellules sanguines (les lymphocytes T) pourrait être utilisé chez l'homme contre les cancers de la prostate, du poumon et du colon. Parallèlement à ces progrès très encourageants en matière de vaccins anti-cancer, une autre voie est en train de révolutionner les moyens thérapeutiques contre cette maladie : le ciblage moléculaire. Le groupe pharmaceutique Novartis ent de faire sensation à San Francisco, où se tient le plus grand congrès mondial de cancérologie, avec la présentation du Glivec, une pilule efficace contre certains cancers. Fruit de 16 années de recherches, le Glivec représente une révolution dans le monde de la cancérologie. Il est le premier d'une nouvelle génération de médicaments en cours de développement fondée sur une nouvelle stratégie : le "ciblage moléculaire". Cette approche permet, tout en épargnant les cellules saines, de s'attaquer spécifiquement aux protéines qui se dérèglent à l'intérieur des cellules cancéreuses et qui causent leur prolifération anormale. Le Glivec pourrait aussi servir contre d'autres tumeurs cancéreuses. Une étude présentée au 37ème congrès annuel de la Société américaine d'oncologie clinique (ASCO) montre que le STI-571 est efficace chez 89 % des personnes atteints de sarcomes gastro-intestinaux (GIST), un autre cancer rare. "Pour la première fois, le STI-571 fait preuve d'effet remarquable sur une tumeur solide", a souligné l'auteur de l'étude, Charles Blanke, oncologiste à l'Université de l'Oregon. Le Glivec vient de faire l'objet d'une autorisation accélérée de mise sur le marché par la FDA. Une étude récente publiée par le New England Journal of Medicine a montré l'efficacité de ce nouveau médicament contre la leucémie myéloïde chronique puisqu'après un an de traitement, 51 des 53 patients traités sont toujours en rémission.(voir article du NEJM. Les scientifiques récoltent aujourd'hui les fruits de 20 années de recherches en biologie moléculaire. Les cancers naissent du dysfonctionnement ou de la mutation de certains gènes qui jouent un rôle-clé dans la croissance des cellules. Ces gènes "sont environ au nombre de 500 et le cancer se déclenche lorsqu'une mutation survient dans quatre ou cinq gènes d'une cellule", explique John Mendelsohn. Dans une cellule cancéreuse, les gènes mutants ou suractivés "s'expriment" de façon anormale en produisant des protéines en quantité excessive. Celles-ci viennent commander l'apparition de récepteurs chimiques sur la membrane de la cellule, sur lesquels viennent "s'accrocher" d'autres molécules présentes dans l'organisme : des facteurs de croissance. Une fois fixés sur la membrane de la cellule, ces facteurs envoient au noyau, via des enzymes intramembranaires, un signal chimique ordonnant à la cellule cancéreuse de se diviser indéfiniment. Dans le cancer, ce processus devient incontrôlé, causant la prolifération des cellules tumorales. Le "ciblage moléculaire" consiste à "accrocher" une molécule spécialement conçue (anticorps monoclonal par exemple) sur ces récepteurs que l'on veut cibler et en bloquer ainsi l'accès. Une autre approche consiste à inhiber, tel un "fusible", directement les enzymes messagers à l'intérieur de la cellule. Dans les deux cas, la cellule cancéreuse ne reçoit plus de signaux lui commandant de se multiplier et elle meurt. De nombreux laboratoires se sont lancés dans la course pour identifier ces cibles (entre 300 et 400) et mettre au point des anticorps monoclonaux pour les attaquer. Une demi-douzaine de ces molécules font actuellement l'objet d'essais cliniques. Selon les chercheurs, un ou deux nouveaux médicaments issus de cette approche devraient être commercialisés chaque année au cours de la prochaine décennie. Il ne faut cependant pas attendre une molécule qui serait un anticancéreux universel mais la médecine disposera dans quelques années de toute une série de molécules qui pourront agir sur les récepteurs spécifiques qui correspondent aux différentes tumeurs. Tout traitement avec ces nouveaux anticancéreux devra donc être précédé d'un test, pour vérifier la présence sur la tumeur du récepteur visé. Cette nouvelle génération de médicaments devrait permettre non de supprimer mais de stabiliser les tumeurs. Ces nouveaux anticancéreux, dont une quarantaine sont à l'étude (dans des cancers aussi fréquents que le sein, le poumon, ou le côlon), vont progressivement faire des cancers, à l'instar du SIDA, une maladie chronique. Des tumeurs aujourd'hui incurables pourront être mises sous contrôle à l'aide de toute une panoplie de nouveaux médicaments à ciblage moléculaire. A plus long terme, il sera possible d'utiliser ces médicaments en chimioprévention, chez des sujets à risque, de manière à éviter que le cancer ne survienne. Cette prévention active et sélective pourrait également être sensiblement renforcée par une modification de notre mode de vie et notamment de nos habitudes alimentaires. On sait aujourd'hui que la consommation régulière de certains aliments constitue une véritable prévention contre certains cancers et si nous parvenions à modifier en une génération nos comportements alimentaires, nous pourrions probablement diminuer d'un quart ou d'un tiers le nombre de cancers. Défi scientifique et médical, le cancer est aussi un défi social et culturel et la victoire sur cette maladie passera tout autant par la modification profonde de nos modes de vie que par les avancées thérapeutiques. A cet égard, l'exemple américain est remarquable. Aux Etats Unis, la mortalité par cancer diminue régulièrement depuis 6 ans d'environ 2 % par an et cela n'est pas seulement le fruit des progrès thérapeutiques mais aussi le résultat d'un grand effort collectif de prévention et d'information. La diminution par trois du nombre de fumeurs américains depuis 40 ans est à cet égard parlante. La victoire sur le cancer est à notre portée, d'ici une génération, si nous le voulons et si nous nous en donnons les moyens. Mais il faut savoir que cette victoire aura un coût élevé et ne se gagnera pas seulement sur le terrain scientifique car le cancer est un problème de société et pour le vaincre définitivement nous devrons changer en profondeur nos habitudes et nos comportements.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Le réseau VTHD : bienvenue dans le futur
Samedi, 19/05/2001 - 00:00

A l'instar des universités et industriels américains avec le projet Internet 2, France Telecom, l'INRIA (Institut National de Recherche en Informatique et Automatique) et le GET (Groupe des Ecoles de Telecommunications) ont lancé il y a un an et demi la construction d'une infrastructure expérimentale offrant des débits futuristes: le réseau VTHD (Vraiment Très Haut Débit). Les trois partenaires font aujourd'hui un premier bilan de cette expérience, qui devrait probablement se poursuivre jusqu'au milieu de l'année prochaine. Sur le plan technique, le réseau VTHD connecte 8 points de présence, permettant des débits entre deux sites d'environ 800 Mbit/s. Il est doté de routeurs gigabit Cisco et Jupiter et de routeurs terabit Avici. Il utilise également la technologie DWDM. Celle-ci permet, grâce au multiplexage de différentes longueurs d'onde sur fibre optique, d'ajouter et de retirer dynamiquement des canaux de communication qui ont des couleurs différentes. Ces dispositifs ont l'avantage de conserver le signal sous sa forme optique, en utilisant un système de type "micro-miroirs". Les applications utilisant ce type de technologie ne manquent pas et paraissent révolutionner l'approche de l'informatique. Ainsi, tout d'abord, si un tel débit est disponible, le modèle de l'internet computing paraît bien positionné car il devient possible de délocaliser facilement traitements et affichage. De même, les applications comme les data grid (calcul distribué à travers l'Internet) profitent pleinement de ces débits. Des applications de type videoconférence, e-learning ou encore travail collaboratif à distance utilisant la réalité virtuelle immersive sont d'ores et déjà en état de fonctionnement. L'utilisation de la réalité virtuelle dans le domaine médical, en combinaison avec des robots spécialisés est aussi au programme. Des solutions de sauvegarde massive pour les centres de secours des grandes entreprises pourront être envisagées dans le cadre de plans de continuation de l'activité en cas de catastrophe. Les jeux en réseau devraient également bénéficier de ces débits exceptionnels. Du côté du streaming, la qualité est au rendez-vous, et un flux numérique de 2,5 Mbit/s rivalise sans problème avec une diffusion hertzienne, surtout lorsque des mécanismes de gestion de la qualité de service sont implémentés. Une question demeure pourtant: quand ces technologies seront-elles accessibles ? "Des offres commerciales basées sur le savoir faire acquit lors de cette expérience pourraient voir le jour dès l'année prochaine", affirme Jean-Jacques Damlamian, directeur de la recherche et du développement chez France Telecom. Pour les entreprises en tout cas. Au niveau du grand public, la limite paraît bien être encore une fois la boucle locale. Les réseaux câblés paraissent cependant bien armés pour le très haut débit. La technologie VDSL, autorisant des débits de 40 à 50 Mbit/s sur la boucle locale est encore à implémenter. L'idéal étant bien sûr que la fibre optique se rende jusque chez l'abonné.

journal du Net :

http://developpeurs.journaldunet.com/news/010511vthd-net.shtml

Vers la fin du modèle gratuit sur le Net ?
Samedi, 19/05/2001 - 00:00

Une étude de Telecommunications Reports International Inc (TRI). publiée mardi dernier estime que le nombre de foyers américains connectés a diminué de 0,3 % pendant le premier trimestre 2001, pour la première fois depuis que le Net existe. Ils ne sont "plus" que 68,5 millions de foyers en ligne. TRI met ce déclin sur le compte des faillites des fournisseurs d'accès gratuits en Amérique, d'Altavista à Bluelight, qui auraient privé de Web d'une grande partie des nouveaux internautes. Un autre chiffre semble confirmer cette analyse : le nombre de ménages qui paient leur connexion a continué de croître de 8 %. Il faut croire que quelques déconnectés ont retrouvé le chemin du Net chez les grands réseaux payants. "Le marché américain n'a plus une croissance très forte, analyse Jean-Christophe Le Toquin, délégué de l'Association des fournisseurs d'accès. C'est normal : avec la moitié de la population connectée, on arrive à la saturation. Si vous enlevez les classes défavorisées, les technophobes, les jeunes, les personnes âgées, qui ne seront pas des internautes, le taux d'équipement est déjà énorme. C'est différent en Europe, où des pays comme la France, l'Italie, sont encore en phase d'équipement." En d'autres termes, Jean-Christophe Le Toquin doute que ce ralentissement soit uniquement le fait de la faillite du modèle d'accès gratuit aux États-Unis. C'est plutôt une question de cycle de maturation commerciale d'une technologie. Mais cette étude remet sur le tapis l'éternel débat sur le modèle économique de l'accès gratuit. C'est le seul véritable modèle inventé par les Européens. Son précurseur est le Britannique Freeserve, qui a vu dans la gratuité de l'abonnement un moyen de faire avaler la pilule des télécommunications locales trop chères (tarifées à la minute, alors que certains États américains pratiquent le forfait). Les Américains ont copié ce modèle, mais aujourd'hui ils déchantent. Ce qui les amène à penser que les Européens ont fait fausse voie, et vont, eux aussi, revenir à de bons vieux services payants. "À moyen terme, c'est-à-dire 2 ou 3 ans, le modèle gratuit va disparaître, assène Dan Stevenson, analyste londonien du cabinet de conseil américain Jupiter MMXI. C'est impossible de gagner de l'argent comme ça. D'ailleurs, les gratuits commencent à essayer de faire payer leurs abonnés. Freeserve a déjà fait passer le nombre de ses abonnements payants de 25 à 30 %." Tous les grands de ce secteur en pleine phase de concentration sont des services payants, souligne l'analyse : T-Online, France Telecom, AOL... Désormais, les fournisseurs d'accès gratuits européens vont tourner casaque et instaurer une "billing relationship", une relation commerciale basée sur la fourniture de contenus et de services tels que le téléchargement de fichiers musicaux. La disparition des gratuits ne freinera pas l'expansion d'Internet en Europe, affirme-t-il : "L'avenir, c'est la connexion forfaitaire illimitée, que nous pratiquons déjà en Grande-Bretagne. En France, en Allemagne, vous en profiterez bientôt. Et vous ne ressentirez plus le besoin d'un abonnement gratuit."

Transfert : http://www.transfert.net/fr/net_economie/article.cfm?

Telecommunications Reports International : http://www.tr.com/

Les nouveaux filets de la Toile
Samedi, 19/05/2001 - 00:00

Chercher et trouver sont deux activités ontologiquement différentes. Surtout sur l'Internet. L'excellente idée des fondateurs de Kartoo (1) pourrait contribuer à les rapprocher. L'originalité de ce «métamoteur» (un moteur qui interroge simultanément une série d'autres moteurs de recherche) est de présenter ses résultats sous forme cartographique. Au lieu d'une liste de sites, l'internaute obtient un joli dessin où des boules symbolisant les sites pertinents sont reliés par des mots-clefs sur fond d'espace bleuté. Cette présentation graphique lui permet d'affiner intuitivement sa recherche sans avoir à manier les redoutables «opérateurs boléens». «On a voulu développer un produit permettant aux internautes non experts de préciser leur pensée», explique Nicolas Baleydier, cofondateur de Kartoo. Le concept de la carte est aussi susceptible de séduire les internautes chevronnés. Il est heureusement adapté à la structure même de la Toile, irréductible au classement vertical. Et les multiples paramétrages permettent de personnaliser utilement sa recherche. Rodage. Discrètement lancé le 25 avril, Kartoo demeure en phase de rodage. Les temps d'attente sont parfois excessivement longs pour cause de saturation des serveurs. Ses responsables jurent que le moteur sera bientôt capable de répondre «dans les deux à trois secondes» aux interrogations. Dans un mois environ, une deuxième version devrait offrir plusieurs améliorations. Au stade actuel, les réponses obtenues sont d'une pertinence variable, le mystère étant renforcé par un intriguant choix «automatique» des moteurs interrogés en fonction de la nature de la requête. Il n'empêche que les caractéristiques de cet outil le rendent complémentaire d'un moteur traditionnel comme Google. Kartoo proposera son outil aux intranet des entreprises, portails et bases de données. L'entreprise entend également développer des logiciels payants prolongeant les fonctionnalités du système. Par exemple, un service de veille avertissant de l'apparition de nouveaux sites dans un domaine déterminé. A l'heure où la «nouvelle économie» peine en position de repli, cette entreprise a comme avantage d'être portée par une réelle innovation et d'être adossée à un modèle économique dégagé des chimères publicitaires.

Libération : http://www./quotidien/semaine/20010510jeuza.html

Kartoo : http://www.kartoo.com

Un nouveau CD vidéo
Samedi, 19/05/2001 - 00:00

Deux heures de vidéo, plein écran, avec une qualité proche de celle du DVD, le tout sur un CD : la performance de la jeune société bordelaise 3D Production Multimédia (3DPM) fait évidemment penser au DivX ;-). Mais au vu du film qui nous a été montré, le codec (codeur-décodeur) 3DPM semble offrir une meilleure qualité d'image que son célèbre concurrent. Lors de la démo, il a suffi d'insérer le CD 3DPM pour que Windows Media Player (version 6.0 ou plus) lance la vidéo en plein écran. La vidéo est compressée avec un codec qui respecte la norme MPEG-4. Il suffit donc de posséder un lecteur compatible avec MPEG-4 mais aussi DirectX 8. La société a également développé son propre lecteur doté de fonctions de base (lecture/pause) pour les vidéos de démonstrations afin de "protéger le secret de fabrication". 3DPM n'est pas gourmand : un processeur cadencé à 400 Mhz, 32 Mo de mémoire vive et une carte vidéo standard suffisent. Seule une version Windows existe pour le moment, la déclinaison Macintosh étant prévue pour l'automne 2001. La société promet également une mise en ligne d'une vidéo de démonstration d'ici à un mois. Mais il ne s'agira pas de streaming, même si Christian Dumeur, responsable de la communication de 3DPM, confie que c'est un des axes de travail. Il faudra télécharger l'intégralité de la vidéo avant de la visionner. "Le fichier en lui-même fait en moyenne 620 Mo pour deux heures de vidéo. On obtient donc un taux moyen proche de 5 Mo par minute. Le père du codec espère améliorer les performances de 20 % dans les trois prochain mois", explique Christian Dumeur à propos de Xavier Delas, qui a créé la société en janvier 2000. Mais 3DPM aura fort à faire pour s'imposer, avec des concurrents comme 3ivx, par exemple, dont le codec a le mérite d'être déjà disponible. Mais aussi avec les grands groupes tels Philips ou France Télécom qui développent également des codecs compatibles MPEG-4. " 3DPM entend garder le contrôle de sa technologie et effectuera toutes les compressions dans ses locaux, sur ses serveurs, en échangeant les vidéos par le biais d'une ligne haut-débit. Le mode de rémunération sera variable : des royalties pour une grande diffusion et un prix à la minute encodé pour l'archivage. Il sera également possible de se faire livrer directement les galettes : pour des CD encodés et pressés par ses soins, la start-up annonce un prix de 16 francs l'unité (pour 1 000 exemplaires). L'optique est différente chez 3ivx qui vend (cher) son codec (Windows, Mac OS, Linux-Unix, BeOS et Amiga) : environ 6 000 francs pour la version Pro ! 3DPM a peut-être une carte commerciale à jouer.

Transert :

http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=5558

Le numérique au secours du cinéma
Samedi, 19/05/2001 - 00:00

Alors que la Croisette s'enflamme et que les flashs des photographes crépitent à l'arrivée des stars, Cannes est le théâtre d'un autre événement important pour le monde du cinéma : le Marché international des techniques et de l'innovation du cinéma (MITIC). Depuis toujours les développements technologiques ont été des alliés essentiels pour les réalisateurs, qui ont ainsi pu mettre en images leurs idées avec de plus en plus de précision. Les effets spéciaux numériques ont pris au cours des dernières années une place déterminante dans les diverses productions. Si l'on compare, par exemple, le premier Godzilla (Tôhô, 1954) réalisé par le Japonais Honda Inoshirô et le remake mis en scène quarante-quatre ans plus tard par Roland Emmerich (Columbia, 1998), on mesure l'immense pas en avant auquel les technologies numériques ont contribué. Il suffit aussi d'observer attentivement le dernier film de Jean-Pierre Jeunet, Le Fabuleux Destin d'Amélie Poulain (Gaumont, 2001), pour appréhender leur apport considérable dans la construction même du scénario. Au-delà des effets spéciaux que des machines comme celles de Silicon Graphics ont portés à leur sommet dans Jurassic Park (Universal, 1993), de Steven Spielberg, le numérique est de plus en plus présent au niveau des caméras elles-mêmes. Au MITIC, on verra ainsi la désormais fameuse caméra numérique Sony 24P que le Français Pitof, complice de Jean-Pierre Jeunet, a utilisée pour la première fois pour réaliser Vidocq (sortie prévue le 19 septembre 2001), imité par George Lucas pour la suite de La Guerre des étoiles . Si les tournages en tout-numérique font encore figure d'exception, il est évident qu'ils finiront par s'imposer en raison de l'extrême souplesse de ces appareils. A Los Angeles, Robert Zemeckis, célèbre metteur en scène de Forrest Gump (Paramount, 1994), vient d'ouvrir un centre de formation dont l'objectif est d'enseigner toutes les nouvelles techniques liées à la réalisation en numérique, illustrant ainsi une prise de conscience chez certains cinéastes de l'importance des nouvelles technologies. La distribution des films est également à l'honneur au MITIC. Boeing Digital Cinema, société californienne, proposera ainsi un système permettant aux exploitants de salles de télécharger des films par satellite ou par le câble et de les diffuser numériquement. Aux Etats-Unis, l'expérience a été menée avec succès par AMC Theatres, l'une des principales chaînes de distribution outre-Atlantique, permettant ainsi de réaliser des économies conséquentes (jusqu'à 75 % des coûts de distribution si l'on en croit les responsables de la technologie). Il faut s'attendre à de profonds bouleversements dans les années à venir dans tous les secteurs cinématographiques, de la production à la distribution. Et, si l'on peut imaginer que les gros studios vont en profiter pour s'imposer encore davantage, il ne faut pas oublier que le numérique offre aussi une chance plus grande aux réalisateurs les moins riches. Car c'est une technologie beaucoup moins onéreuse que les produits traditionnels. L'exemple de Blair Witch Project (Artisan Entertainment, 1999) en est l'illustration la plus frappante. Reste à assurer à ces “petites” productions une distribution décente, ce qu'à terme Internet pourra offrir.

Courrier international :

http://www.courrierinternational.com/actual/multimedia.asp

^ Haut
Avenir
Nanotechnologies et Robotique
Le penchant de la nature pour la matière dévoilé
Samedi, 19/05/2001 - 00:00

Les physiciens pensent avoir percer d'un des secrets les mieux gardés de la nature : la raison pour laquelle elle préfère la matière à l'antimatière. Cette préférence se traduit par un phénomène appelé violation de CP, dont l'existence est confirmée par les résultats définitifs rendus publics par le laboratoire européen de physique, le CERN (Suisse). A l'origine de l'Univers, lors du Big Bang, des quantités équivalentes de matière et d'antimatière auraient été produites. Particules et antiparticules s'annihilent lorsqu'elles se rencontrent. Pour expliquer la formation d'un Univers composé de matière, et pour expliquer notre présence, il faut donc supposer que la nature a préféré la matière à l'antimatière. C'est en étudiant la violation de CP que les chercheurs expliquent ce déséquilibre. C désigne l'échange de charge entre particules lors d'une interaction, alors que P, pour parité, correspond à une inversion, comme une image dans un miroir. Jusqu'au début des années 50, les physiciens pensaient que les symétries de C et de P étaient conservées lors des interactions entre particules. Mais la violation de P a été démontrée en 1956, tandis que la violation de CP a été observée pour la première fois aux Etats-Unis en 1964, indirectement, sur des particules appelées kaons neutres à longue vie. Les recherches menées depuis plusieurs années an CERN, ainsi qu'au Fermilab de Chicago, ont permis de mesurer précisément la violation directe de CP, grâce à l'observation de vingt millions de désintégrations de kaons neutres. Les physiciens sont donc en mesure de dire qu'il s'agit bien d'un effet réel.

Science&Avenir :

http://quotidien.sciencesetavenir.com/sci_20010515.OBS4345.html

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1330000/1330190.stm

^ Haut
Matière
Matière et Energie
Un détecteur portatif de présence
Samedi, 19/05/2001 - 00:00

Les policiers à la recherche d'un suspect caché à l'intérieur d'un bâtiment pourraient bientôt disposer d'un nouvel outil pour se protéger et détecter une éventuelle présence. L'institut de recherche et de technologie de Géorgie (GTRI) a en effet mis au point un prototype de torche-radar capable de détecter une présence humaine derrière une porte ou un mur de 40 cm d'épaisseur. Le dispositif emploie un faisceau radar étroit (16 degrés) et un processeur spécialisé d'analyse de signal pour discerner la respiration et le mouvement jusqu' à trois mètres derrière un mur. Le prototype réalisé peut pénétrer les vêtements les plus épais et détecter une très faible respiration ou des mouvements de quelques millimètres. Sous son forme actuelle, la torche-radar ressemble à un gros pistolet de 3 kg. L'utilisateur la tient comme une arme de poing et appuie le dispositif contre le mur suspect. Il appuie alors sur la gâchette ce qui déclenche une impulsion électromagnétique. L'appareil détecte enfin le signal de retour qui est analysé par le processeur spécialisé. Un petit écran composé de barres permet de visualiser une éventuelle présence. Pendant que la personne de l'autre côté du mur respire, les barres d'affichage montent et descendent au rythme de la respiration captée. Ce détecteur fonctionne à travers la brique, le bois, le placoplâtre, le verre et le béton mais ne fonctionne pas dans l'eau ou à travers du métal ou tout autre matériau étant conducteur électrique. Son prix ne devrait pas excéder 1500 dollars (1650 euros).

Brève rédigée par @RT Flash

Georgia Rersearch Tech News :

http://gtresearchnews.gatech.edu/newsrelease/RADARFLASH.html

La vidéo en qualité DVD... bientôt sur vos mobiles
Samedi, 19/05/2001 - 00:00

Mitsubishi Electric vient de présenter une puce intégrant sur un centimètre carré toute l'électronique nécessaire à un encodage à la norme MPEG-2 utilisée par le DVD ou la télé numérique. Le processeur, qui vient d'être dévoilé à San Diego, est intéressant parce que sa miniaturisation permet d'envisager d'amener de la vidéo de qualité DVD à des équipements mobiles, par exemple avec une PC-Card pour un ordinateur portable mais aussi pour des caméscopes numériques, de mini-magnétoscopes à disque dur, voire pourquoi pas des téléphones portables. La puce est construite autour du noyau d'un media processor de Mitsubishi, le D90V, flanqué de 64 mégabits de DRAM et 1,2 mégabits de SRAM, à partir d'un procédé cuivre avec une finesse de gravure de 0,13 micron. La mémoire embarquée bénéficie des travaux réalisés en collaboration avec Matsushita pour mettre au point des DRAM très basse consommation, ce qui permet à la nouvelle puce MPEG-2 de consommer moitié moins que la solution équivalente la moins gourmande en énergie. Si le résultat est acquis, on ne doit cependant pas s'attendre à ce que la mini-puce MPEG-2 rafle le marché à court terme. En effet, Mitsubishi reste prudent et ne pense pas pouvoir l'échantillonner avant 2002. Qui plus est, la production en série dépend de la montée en puissance de l'usine de Kochi dédiée aux procédés 0,13 micron et aux wafers de 300mm... mais dont la construction commence seulement cette année. Dans le meilleur des cas, la puce MPEG-2 devrait donc pouvoir être commercialisée en 2003.

Usine nouvelle :

http://www.usinenouvelle.com/usn/site/pages/actualit/actua_j/general.cfm?

Le renouveau de la machine à vapeur ?
Samedi, 19/05/2001 - 00:00

Un groupe d'ingénieurs allemands du "Centre technologique pour une transmission de puissance sans émissions polluantes"(TEA) vient de dévoiler un moteur a vapeur baptise "ZEE" (Zero Emission Engine). Ce prototype ne ressemble guère a une machine a vapeur classique : nulle trace de volant cinétique, de foyer ardent ou de panache de vapeur... Au contraire, le ZEE ressemble tout a fait a un moteur conventionnel d'automobile (meme poids, meme taille). La vapeur, qui actionne un ensemble piston et vilebrequin, est obtenue par un réacteur thermique. Ce dernier comprend un brûleur fabrique en matériau poreux qui optimise la combustion carburant-air sans front de flamme. Ce nouveau brûleur a été développé à l'Université d'Erlangen et est la raison essentielle de la faiblesse des émissions polluantes du moteur ZEE. Jusqu'aux trois-quarts de sa puissance maxi, ce brûleur n'émet aucun HC, CO ou NOx décelables. Un autre avantage de ce brûleur est qu'il peut fonctionner avec tous les types de carburants: essence, gasole, gaz naturel, méthane et auusi l'hydrogène. Mais le ZEE recèle encore deux autres particularités :

-* Il fonctionne en expansion isotherme, c'est a dire que la vapeur est réchauffée des qu'elle entre dans le cylindre. L'expansion de la vapeur est alors amplifiée, ce qui améliore le rendement général du moteur.

-* Ce n'est plus de l'huile qui lubrifie l'ensemble mais de l'eau additionnée de polyglycol et d'un additif stabilisant. Le piston, en céramique de carbone, fonctionne sous vapeur sèche surchauffée sans aucun lubrifiant.

L'industrie automobile s'intéresse de près a ce nouveau moteur et ses concepteurs développent maintenant une variante de ce moteur, en tant que source d'énergie stationnaire pour les automobiles. L'idée se calque sur ce qui est entrepris actuellement avec les piles a combustible pour alimenter en énergie électrique les véhicules a l'arrêt. En 2005, pour des raisons écologiques dans certains états des USA, les moteurs des camions ne pourront plus démarrer automatiquement a l'arrêt pour recharger les batteries alimentant les systèmes d'air conditionne, les réfrigérateurs et autres dévoreurs Energie: le ZEE serait l'alternative idéale pour produire énergie nécessaire sans aucune pollution. Les concepteurs de ce moteur a vapeur y voient un débouche important comme pourrait l'être celui d'une petite centrale thermique/électrique dans la cave de nos immeubles. L'équipe de recherche poursuit ses améliorations et aimerait bien vendre son savoir-faire sous forme de licence a des producteurs confirmes pour la fabrication en série.

BE Allemagne 49 : http://www.adit.fr

Les Etats-Unis dévoilent leur politique énergétique
Samedi, 19/05/2001 - 00:00

Les Etats-Unis, qui consomment plus d'un quart de l'énergie mondiale disponible et n'en produisent que 19 %, selon l'Agence américaine pour l'information sur l'énergie (EIA). En 1999, la consommation mondiale d'énergie exprimée en unité thermale britannique (Btu ou 0,293 watt/heure) s'est élevée à 382 quadrillions (10 à la puissance 15), selon l'EIA. Sur ce total, quelque 97 quadrillions (25 %) Btu ont été consommés par la population des Etats-Unis, estimée à l'époque à 273 millions de personnes. L'Europe occidentale avec 475 millions d'habitants en a consommé 70 quadrillions Btu (18 %) dont 14 (3,6 %) par l'Allemagne et 10 (2,6 %) par la France et la Grande Bretagne chacune. L'Asie de l'est et l'Océanie, représentant plus de 3,3 milliards d'habitants, ne répondent que pour 98 quadrillions Btu soit un tout petit peu plus que les Etats-Unis tandis que 1,3 milliard de Chinois n'ont consommé que 32 quadrillions Btu (8,4 %). Quant au Japon, avec 127 millions d'habitants, il a consommé 22 quadrillions Btu (5,6 %). La Russie qui compte 147 millions d'habitants a consommé quelque 26 quadrillions Btu (6,8 %), toujours selon l'EIA. Selon les prévisions de l'EIA, la demande des Américains en énergie devrait augmenter de 32% d'ici 2020 et ainsi atteindre une consommation de quelque 127 quadrillions Btu. La production mondiale d'énergie s'est élevée à 380 quadrillions Btu en 1999. Les Etats-Unis en ont produit quelque 72 quadrillions Btu (19 %) soit plus que tout le Proche-Orient réuni qui en a produit 53 quadrillions Btu (14 %), l'Europe occidentale 44 quadrillions Btu (11,6 %), la Russie 42 (11 %), la Chine 31 (8 %) et le Japon 4,5 quadrillions (1,2 %). Quant aux émissions de dioxyde de carbone dans le monde, elles ont atteint en 1999 plus de 6.143 milliards de tonnes équivalent carbone. Toujours selon l'EIA, les Etats-Unis y ont contribué à hauteur de 24,5 %. L'Europe occidentale avec 16,3 % arrive derrière l'Asie et l'Océanie confondues qui en ont émis 29 %. La Chine a émis sur cette même année 10,9 % du volume de dioxyde de carbone, la Russie 6,5 % et le Japon 5 %. Le Président George W. Bush a présenté le 17 mai les cinq priorités pour sa politique énergétique, allant de l'augmentation des ressources nationales à la garantie de la sécurité des approvisionnements, en passant par de meilleures technologies pour économiser l'énergie. L'administration présidentielle américaine estime que les Etats-Unis sont en situation de crise énergétique avec des pénuries en Californie, l'Etat le plus peuplé du pays, et un prix de l'essence à la pompe en hausse de plus de 40 % ces derniers mois. Le plan estime nécessaire la construction de 1.300 à 1.900 nouvelles centrales génératrices sur les vingt prochaines années, de 60.000 kilomètres d'oléoducs et de gazoducs et de plus de 400.000 kilomètres de lignes à haute tension. Il appelle à l'exploitation des ressources pétrolières et gazières du pays, y compris dans les zones protégées de l'Alaska, prévoit une relance du nucléaire ainsi que des crédits d'impôts pour l'utilisation d'énergies propres et renouvelables et l'achat de voitures propres. "Selon les estimations, la consommation de pétrole des Etats-Unis va augmenter de 33 % sur les vingt prochaines années, celle de gaz naturel de 50 % alors que la demande d'électricité va progresser de 45 %. Si la production d'énergie du pays croît au même rythme que dans les années 90, nous ferons face à un déficit croissant", affirme le résumé du rapport. Les cinq priorités sont la modernisation des techniques pour économiser l'énergie, l'augmentation des infrastructures de distribution, l'accroissement de la production, le développement des techniques de protection de l'environnement ainsi qu'une meilleure sécurité des approvisionnements. Dans le cas du nucléaire, il prévoit le choix d'un site pour le stockage des déchets ainsi que la simplification des procédures d'autorisation pour la construction de nouvelles centrales. Selon des responsables de l'administration, la relance d'une politique de retraitement des déchets, abandonnée aux Etats-Unis depuis vingt ans, n'est pas exclue. Plus de 2 milliards de dollars de dix ans iront au développement des technologies propres d'exploitation du charbon qui assure encore pour 52 % de la production d'énergie aux Etats-Unis. Sur la question très sensible de l'exploitation des zones écologiquement protégées de l'Alaska, George W. Bush propose de consacrer 1,2 milliard de dollars des recettes des licences d'exploration au développement d'énergies renouvelables comme l'éolienne, le solaire, la biomasse et le géothermique. "Nous n'acceptons pas le choix biaisé entre la protection de l'environnement et la production d'énergie. Une approche exhaustive peut aboutir à un environnement plus propre, une économie plus forte et des ressources suffisantes pour assurer notre avenir", affirme le rapport. Les crédits d'impôts, d'un montant total de plus de 10 milliards de dollars sur dix ans, concerneront l'achat des véhicules "hybrides" (fonctionnant à la fois à l'essence et à l'électricité) et avec des piles à combustibles. Ils s'étendront également à la production d'énergie à partir du méthane dégagé par les décharges.

Brève rédigée par @RT Flash

Maison Blanche :

http://www.whitehouse.gov/news/releases/2001/05/20010516-7.html

Agence Américaine de l'Energie :

http://www.eia.doe.gov/emeu/international/total.html

Washington Post :

http://www.washingtonpost.com/wp-dyn/articles/A36578-2001May16.html

NYT : http://www.nytimes.com/2001/05/17/politics/17POWE.html




Les centrales utilisant la biomasse connaîtront une expansion spectaculaire en Allemagne
Samedi, 19/05/2001 - 00:00

Selon le ministre fédéral de l'environnement, M. Jurgen Trittin, il est grand temps de découvrir un nouveau marche promis a une formidable expansion: la production d'énergie a partir de la biomasse. Le ministre de l'Environnement juge ce créneau aussi prometteur que celui de l'énergie éolienne sur lequel il a dix ans de retard. Une entreprise de Schwerin, Inergetic est en train de prouver qu'on peut gagner de l'argent en fabriquant de l'énergie a partir de pelures de citron, d'excréments de volailles ou de vieux bois. Elle fait figure de pionnier en Allemagne. Inergetic gère trois centrales fournissant courant et chaleur dans le Mecklembourg-Pomeranie occidentale (en tout 15 mégawatts), auxquelles vont s'ajouter deux autres dans la région de Rostock et de Malchin, qui fourniront 30 mégawatts. En 1999 il existait dans tout le pays environ 1.100 centrales produisant de l'électricité (au total 448 mégawatts) a partir de la biomasse. Pour l'instant le courant ainsi obtenu ne représente que 0,2 % de la consommation en électricité. Mais ce chiffre, certes très modeste, devrait très rapidement augmenter. 80 projets sont en cours, ils correspondent a des investissements de 2 milliards de marks. Parlant d'une "énergie prodige", La Lettre d'Allemagne (N° 360) rappelle l'avantage de ces centrales qui répondent aux nouvelles exigences européennes en matière de décharges, de réduire le besoin d'incinérateurs et les émissions de méthane résultant du compostage agricole... La fameuse loi allemande en faveur des énergies renouvelables (EEG), qui fête son premier anniversaire et qui est a présent la référence au plan européen, rémunère le KWh issu de la biomasse entre 17 et 20 pfennigs: de quoi lui garantir, selon les experts, une croissance de 30 % par an en Allemagne. Signe révélateur: le premier titre spécifiquement biomasse sera introduit a la Bourse de Francfort au second trimestre: c'est Farmatic AG (Nortorf), le leader des procédés de conversion de la biomasse au biogaz. L'entreprise voudrait des 2002 tirer de la biomasse un substitut disposant des mêmes qualités que le gaz naturel. En 2005, un autre dérivé pourra être utilise pour les piles a combustible dont l'Allemagne veut faire la "centrale' du futur. Automobile ou domestique... Farmatic a fait les comptes: avec 930 centrales a la biomasse produisant au total 2,5 mégawatts - ce qui n'est pas insensé puisqu'il s'agit de centrales de petite taille -, l'Allemagne réduirait de près de 10 millions de tonnes ses émissions de gaz carbonique, soit en un an la baisse que Berlin veut obtenir en cinq.

BE Allemagne : http://www.adit.fr

Framatic : http://wwww.farmatic.de/farmatic/index.html

Inergetic : http://Gwwww.inergetic.de/inergetic.html

^ Haut
Espace
Espace et Cosmologie
L'espace : une ambition politique et stratégique pour l'Europe
Samedi, 19/05/2001 - 00:00

L'Office parlementaire d'évaluation des choix scientifiques et techniques du Sénat vient de publier un rapport intitulé : " L'espace : une ambition politique et stratégique pour l'Europe" dont l'objet est d'examiner la nécessité d'une politique spatiale française et d'analyser les questions que pose la définition de cette politique. On peut définir la politique spatiale comme l'expression d'une volonté de l'Etat qui s'exprime par des objectifs et s'accomplit par la mise en oeuvre de moyens financiers, institutionnels et réglementaires. Cette définition étroite s'applique parfaitement à ce que pouvait être la politique spatiale aux origines. L'activité spatiale s'identifiait alors au programme spatial financé par la puissance publique et la politique qu'elle exprimait répondait à des enjeux à long terme susceptibles d'être exprimés en termes très généraux : acquérir une capacité autonome d'accès à l'espace, maîtriser les applications émergentes, donner à la communauté scientifique les moyens d'exister dans ce nouveau domaine. Dans le court terme les enjeux politiques et la dimension économique étaient, pour un pays comme la France, pratiquement absents même s'ils étaient déjà présents, sous la forme d'enjeux de défense, pour les Etats-Unis et l'Union soviétique. La définition d'une politique spatiale française destinée principalement à préserver un avenir assez lointain était alors une tâche relativement simple. Il s'agissait, pour l'essentiel, d'acquérir les savoir-faire fondamentaux. Cette politique mettait en jeu un nombre très limité d'acteurs, les agences spatiales, et des moyens modestes par rapport à ceux que mobilisent les activités spatiales actuelles. Le problème est aujourd'hui complètement transformé. Le contexte international dans lequel s'inscrit la politique spatiale de la France s'est profondément transformé. Dans ce nouveau contexte les enjeux de dépendance stratégique relèvent pour l'essentiel de la relation entre le pôle européen et les Etats-Unis. L'ambition spatiale de la France ne peut s'épanouir que dans le cadre de l'Europe. Tout cela fait qu'une réflexion sur la politique spatiale française ne peut être dissociée d'une réflexion sur la politique spatiale de l'Europe.

Rapport de l'OPECST : http://www.senat.fr/rap/r00-293/r00-293.html

L'agriculture par satellite arrive
Samedi, 19/05/2001 - 00:00

L'agriculture sera la première bénéficiaire d'une technologie de localisation haute précision développée par le Jet Propulsion Laboratory (JPL) de la NASA. Dans le cadre d'un accord entre la NASA et la société NavCom Technology, qui utilise la technologie brevetée de l'Agence américaine, des tracteurs seront équipés de récepteurs qui leur fourniront des données en temps réel sur leur position. Le système Internet-based Global Differential GPS (IGDG) améliore la précision du GPS en combinant les données du logiciel développé par le JPL et le signal GPS en provenance du réseau Global GPS Network (GGN) de la NASA. Après traitement au JPL, des corrections sont apportées aux orbites et aux horloges des satellites GPS, et accessibles via Internet aux utilisateurs autorisés. La précision ainsi atteinte est unique au monde, avec 10 centimètres d'erreur horizontalement et 20 centimètres verticalement. De nombreuses applications se profilent, aussi bien pour les utilisateurs terrestres que pour améliorer les performances de satellites d'observation de la Terre.

NASA : http://gipsy.jpl.nasa.gov/igdg.

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les manchots empereurs, baromètres des changements climatiques
Samedi, 19/05/2001 - 00:00

La population de manchots empereurs de Terre Adélie a diminué de 50% à la suite d'un réchauffement de l'océan Austral, révélant que ces grands oiseaux marins constituaient un véritable baromètre des changements climatiques et environnementaux, selon une étude réalisée dans la base antarctique française Dumont-d'Urville et publiée dans Nature. La colonie de manchots empereurs qui viennent se reproduire dans les environs de cette base fait l'objet d'un suivi scientifique ininterrompu depuis 1952, date à laquelle le nombre de couples s'élevait à quelque 6.000. Ce nombre est resté à peu près stable jusqu'en 1975, avant de connaître une chute brutale et de se stabiliser dans les années suivantes à 3.000 couples environ. Christophe Barbraud et Henri Weimerskirch, du Centre d'études biologiques du CNRS de Chizé, à Villiers-en-Bois (Deux-Sèvres), ont eu l'idée de comparer l'évolution de la population des manchots aux données enregistrées par une petite station météorologique située à proximité. Ils ont alors constaté qu'après une période de stabilité dans les années soixante, caractérisée par une température hivernale moyenne de moins 17,3 degrés Celsius, dans les années 1970 et jusqu'au début des années 1980, le thermomètre ne descendait qu'à - 14,7C en moyenne. Depuis, la moyenne est redevenue un peu plus basse (- 16,6C). Répercuté sur les eaux de surface de l'océan Austral, ce réchauffement a limité la formation saisonnière de la banquise, sous laquelle se développent les proies des manchots, le krill, les poissons de glace et les céphalopodes. Cette réduction de la banquise et ses effets sur l'ensemble de l'écosystème ont raréfié les réserves de nourriture et ont entraîné, il y un quart de siècle, une mortalité anormalement élevée chez les manchots qui ne s'en sont jamais remis depuis. Les manchots empereurs sont la seule espèce à se reproduire en plein hiver austral. Exposés à des températures parfois inférieures à - 60C et fouettés par des vents de 180 km/h, ce sont les mâles qui couvent un oeuf unique en observant un jeûne total pendant quatre mois, jusqu'à l'éclosion de leur poussin. Ne pas trouver rapidement de la nourriture après le retour de leur compagne pour les relayer peut alors leur être fatal.

AFP : http://www.larecherche.fr/biologie/010509190112.po2r54pz.html

Nature : http://www.nature.com/nlink/v411/n6834/abs/411183a0_fs.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un détecteur portable pour le cancer de la peau
Samedi, 19/05/2001 - 00:00

Des chercheurs écossais ont mis au point un appareil portable pour la détection des cancers de la peau. Un produit photosensible est introduit sous la peau, et se concentre dans les tissus cancéreux. Un éclairage spécial le rend alors fluorescent, ce qui permet de localiser précisément les zones atteintes.

Optics.org : http://optics.org/article/news/7/5/8

St Andrews :

http://www.st-andrews.ac.uk/academic/physics/pandaweb/research/postgrad_leaf.pdf...

Vache folle : un rapport du Sénat
Samedi, 19/05/2001 - 00:00

Le Sénat a constitué le 21 novembre 2000 une commission d'enquête sur les conditions d'utilisation des farines animales dans l'alimentation des animaux d'élevage et les conséquences qui en résultent pour la santé des consommateurs. Au terme de six mois d'investigations qui lui ont permis de procéder à une soixantaine d'auditions, de visiter six départements directement touchés, ou heureusement épargnés par l'ESB, ainsi que d'effectuer un déplacement à Bruxelles et à Londres, la commission d'enquête du sénat vient de rendre son rapport. Ce document intitulé "Farines : l'alimentation animale au coeur de la sécurité sanitaire" souligne que ''L'attentisme'' et la réaction ''tardive'' de l'Etat français ont favorisé la propagation dans le cheptel bovin de l'encéphalopathie spongiforme bovine (ESB, dite ''maladie de la vache folle''). Alors que le rôle des contaminations croisées dans la propagation de la maladie ''a été très vite révélé par les services de contrôle'', ce facteur ''n'a été pris en compte que tardivement'', selon la commission d'enquête du Sénat. Le recours aux farines carnées dans l'alimentation des animaux d'élevage a été suspendu le 14 novembre dernier. Les sénateurs qualifient d'alibi commode'' l'importance donnée au rôle d'importations illégales de farines anglaises dans la contamination après 1996. Selon leurs conclusions, 300 cas du nouveau variant de la maladie de Creutzfeldt-Jakob (nv-MCJ) pourraient être diagnostiqués dans les 60 ans à venir en France.

Communiqué du Sénat : http://www.senat.fr/presse/cp20010517.html

Rapport du Sénat : http://www.senat.fr/rap/r00-321-1/r00-321-1.html

L'épidémie de Creutzfeldt-Jakob pourrait être plus grave que prévue
Samedi, 19/05/2001 - 00:00

Les scientifiques de l'Imperial College School of Medicine de Londres pensent que le nouveau variant de Creutzfeldt -Jakob pourrait faire beaucoup plus de victimes qu'il n'en a fait jusqu'alors. Ces prévisions alarmistes, qui viennent confirmer celles qui viennent d'être rendues publiques en France par la commission d'enquête du Sénat ( voir brève précédente), se fondent sur les conclusions de nouveaux travaux, menés sur plus d'un millier de souris de patrimoines héréditaires différents, auxquelles on a innoculé du prion pathologique. Au terme de ces expériences, la période d'incubation de la forme humaine de la maladie de la vache folle pourrait varier selon le patrimoine génétique. Le professeur Collinge, qui fait partie des spécialistes reconnus de maladies à prion, estime pouvoir extrapoler les constats au genre humain, la structure du génome des souris étant assez proche de celle du génome humain. Ainsi, les 99 victimes britanniques du nouveau variant de Creuzfeldt-Jakob seraient "génétiquement prédisposées à avoir la période d'incubation la plus courte", souligne le professeur Collinge. "Nous ne pouvons pas relâcher notre vigilance, les maladies à prions se développent selon un calendrier tout à fait particulier et nous ne pouvons pas exclure une épidémie qui évolue sur des décennies", a-t-il précisé.

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1330000/1330251.stm

Imperial College School of Medicine :

http://www.med.ic.ac.uk/divisions/52/neuro/vcjd.htm#vcjd

L'Europe et l'OMS s'attaquent au tabac
Samedi, 19/05/2001 - 00:00

La directive européenne réglementant la fabrication et la commercialisation du tabac a été définitivement adoptée par le Parlement européen le 15 mai dernier. Fondée sur des avis scientifiques, ce texte fixe des seuils pour la nicotine, le goudron, le monoxide de carbone et précise les mentions de mise en garde contre la consommation de tabac en raison des risques pour la santé. Dès octobre 2002, les paquets de cigarettes vont se parer des plus repoussants atours, afin de décourager les fumeurs: un avertissement occupant 30 % de l'avant du paquet clamera que «fumer tue» ou que «fumer nuit gravement à votre santé et à celle de votre entourage». Sur l'autre face, 40 % de la surface devra être occupée par une mention supplémentaire à choisir parmi quatorze phrases parmi lesquelles : «fumer bouche les artères et provoque des crises cardiaques et des attaques cérébrales» ou «fumer peut entraîner une mort lente et douloureuse». En outre, les Etats de l'Union pourront librement décider d'imposer des photos ou des dessins montrant les ravages du tabac (cancer de la bouche ou des poumons). La directive concernant «la fabrication, la présentation et la vente de produits de tabac» a été définitivement approuvée à une très large majorité, par le Parlement européen réuni à Strasbourg. La directive ne s'arrête pas à la réglementation de l'aspect extérieur des paquets de cigarettes. Elle interdit aussi les appellations «ultra light», «mild» ou «low tar», considérées comme trompeuses, à partir du 30 septembre 2003. Et elle limite à partir du 1er janvier 2004 la contenance en goudron à 10 mg, à 1 mg en nicotine et à 10 mg en monoxyde de carbone. Afin d'assurer la traçabilité du tabac et de permettre le retrait de lots qui poseraient problèmes, le lot dont les cigarettes sont issues sera précisé, ainsi que l'heure et le lieu de la production. Les producteurs et les importateurs seront tenus de fournir une liste de tous les ingrédients et de leurs teneurs dans les produits par marque et par catégorie. La Commission européenne devra établir une liste de ceux qui sont autorisés avant décembre 2004. Elle tiendra les Etats membres informés des derniers développements scientifiques et technologiques pour qu'ils puissent actualiser cette directive. De son coté, l'Organisation mondiale de la Santé (OMS) a entamé de négociations difficiles pour aboutir à un traité international contre le tabac. Attaqué sur deux fronts, à la fois par les cigarettiers pour ingérence et par les ONG pour manque d'ambition, l'OMS s'est fixé pour objectif de "protéger les générations présentes et futures des conséquences dévastatrices de la consommation du tabac aux plans sanitaire, social, environnemental et économique", selon un document présenté à l'occasion de la réunion qui rassemble les délégués d'environ 190 pays. L'OMS souhaiter que la Convention soit formellement ratifiée et mise en place d'ici l'année 2003. Le projet, tel que conçu actuellement, prévoit de sévères restrictions sur la publicité sur le tabac et réclame la disparition progressive du parrainage des événements sportifs par les cigarettiers, en Formule Un notamment. L'OMS estime que quatre millions de personnes meurent chaque année à cause du tabac et que depuis le début du XXeme siècle le tabac a tué plus de 100 millions de personnes, c'est à dire plus que les deux guerres mondiales qui ont fait environ 75 millions de morts.

Brève rédigée par @RT Flash

Union européenne : http://www.europarl.eu.int/press/index_fr.htm

OMS : http://www.who.int/inf-pr-2001/fr/cp2001WHA-1.html

SIDA : des anti-oxydants pour prévenir les troubles neurologiques ?
Samedi, 19/05/2001 - 00:00

Des travaux réalisés sur des neurones en culture laissent penser que des anti-oxydants pourraient contrer les effets neurologiques de l'infection par le VIH chez les patients au stade sida. Des chercheurs américains ont montré que le liquide céphalorachidien de patients atteints de démence liée au VIH pouvait induire un dysfonctionnement mitochondrial. Plusieurs molécules anti-oxydantes permettent d'éviter cette toxicité. Cette étude a été présentée ces jours-ci à la 53e réunion annuelle de l'Académie américaine de neurologie qui se déroule à Philadelphie. "La démence est une des complications les plus difficiles de l'infection par le VIH", explique le Dr Avindra Nath de l'Université du Kentucky à Lexington. Elle souligne que les derniers antirétroviraux ne permettent pas d'éviter ou de traiter complètement ces complications neurologiques. De ce fait, le recours à d'autres molécules constitue une approche intéressante. Pour cette étude, les chercheurs se sont intéressés à la toxicité du liquide céphalorachidien (LCR). Des prélèvements de LCR ont été réalisés chez 30 sujets avec une démence liée au VIH, 16 patients sans démence et 20 personnes affectées d'un autre trouble neurologique. Des cultures de neurones ont été incubées en présence de ces différents échantillons de LCR. Les auteurs ont ainsi montré que le LCR de patients infectés par le VIH et avec une démence induisait un dysfonctionnement mitochondrial dans les neurones exposés. De plus, ce dysfonctionnement mitochondrial était lié à la sévérité de la démence. Sept molécules anti-oxydantes ont été testées afin d'évaluer leur capacité à éviter ces atteintes mitochondriales. "Six des sept molécules ont inversé les effets de la toxicité du LCR", a déclaré le Dr Nath. Une des molécules, le L-deprenyl a donné des résultats prometteurs et mériterait d'être étudié chez des patients. Le didox, un analogue de l'hydroxyurée, s'est montré également efficace et présente l'avantage d'exercer une activité antirétrovirale.

American Academy of Neurology :

http://www.aan.com/roster_f.html

La marche prévient le déclin intellectuel
Samedi, 19/05/2001 - 00:00

Une étude présentée par l'Association Américaine de Neurologie et portant sur plus de 6.000 femmes âgées de plus de 65 ans montre que les femmes qui marchent régulièrement et pratiquent un exercice modéré et régulier sont moins sujettes aux pertes de mémoire et aux altérations des fonctions cognitives et intellectuelles liées au vieillissement. Les capacités cognitives ont été mesurées à 8 ans d'intervalle chez ces 6.000 femmes et les chercheurs ont constaté que les capacités de concentration et de mémorisation étaient proportionnelles à l'intensité des exercices physiques pratiqués. "Cette étude confirme d'autres études réalisées chez l'animal qui indiquent qu'il y a un rapport entre l'activité physique et la chimie du cerveau" souligne le Docteur. Neil Buckholtz de l'institut national sur le vieillissement. " Nous nous sommes beaucoup focalisés sur les facteurs de risque qui peuvent provoquer ou accentuer le déclin cognitif mais nous commençons maintenant à mieux connaître les facteurs protecteurs " souligne le Dr. Buckholtz. Le Docteur Arthur Kramer de l'institut pour la Science et la technologie de l'Illinois souligne pour sa part " qu'il y a un grand nombre de changements moléculaires, cellulaires et biochimiques qui se produisent en fonction des améliorations de la forme physique". " En fait notre cerveau s'avère bien plus plastique que nous le pensions et l'activité physique peut favoriser, par des mécanismes qui restent à élucider, les nouvelles connexions entre neurones."

Brève rédigée par @RT Flash

International Herald tribune : http://www.iht.com/articles/19435.html

Vers un vaccin contre la maladie d'Alzheimer
Samedi, 19/05/2001 - 00:00

Un essai à grande échelle d'un vaccin contre la maladie d'Alzheimer va prochainement être lancé dans plusieurs pays dont la France. Cette initiative ouvre enfin la voie à une thérapeutique efficace contre cette pathologie neurodégénérative incurable qui touche aujourd'hui douze millions de personnes à travers le monde et représente un des grands enjeux de santé publique des prochaines décennies. La découverte de deux enzymes qui produisent des plaquettes de bêta-amyloïde, une protéine dont l'accumulation dans le cerveau entraîne notamment des pertes de mémoire, a permis d'accélérer considérablement la recherche sur la maladie d'Alzheimer. Plusieurs laboratoires pharmaceutiques ont opté pour une stratégie visant a développer des médicaments, a savoir des inhibiteurs de secrétase, afin de bloquer l'activité de ces enzymes. Pour sa part, Dale Schenck, un chercheur du laboratoire d'Elan, à San Francisco, a préféré concevoir un vaccin permettant d'activer le système immunitaire d'une souris transgenique atteinte de la maladie d'Alzheimer. Les premiers résultats de ce vaccin publiés en 1999 dans la revue «Nature» montrent qu'un tel produit réduit l'apparition des lésions pathologiques caractéristiques de la maladie chez la souris souffrant d'un alzheimer expérimental. Cette démarche s'avérait d'autant plus révolutionnaire que la communauté scientifique dans son ensemble estimait qu'une stimulation du système immunitaire aggraverait la maladie. En fait, le vaccin encourage l'activité des cellules microgliales responsables de la disparition des plaquettes de bêta-amyloïdes. Néanmoins, le débat reste ouvert, l'activation du système immunologique pouvant être irréversible. Cela n'a pas empêché Schenck de procéder aux premiers tests concernant la sécurité de son vaccin pour l'homme. Par ailleurs, son travail vient être récompensé lors de la réunion de l'American Academy of Neurology. Rappelons que les chercheurs américains ont crée en l'an 2000 des souris génétiquement modifiées et donc capables de produire une protéine, la bêta-amyéloïde, dont l'accumulation dans le cerveau provoque la maladie d'Alzheimer. Ils ont ensuite injecté à ces souris un produit qui a nettoyé ces dépôts et apparemment protégé ces souris des pertes de mémoire spatiale. Les souris qui, auparavant, erraient dans des labyrinthes et recevaient autant de décharges électriques qu'elles récupéraient de morceaux de fromage ont, une fois traitées, été capables de retrouver leur chemin sans se tromper. D'autres tests, réalisés dans des bassins, ont montré que les rongeurs parvenaient sans dommage à regagner le ponton qu'ils étaient incapables de retrouver avant traitement. Selon une étude de l'Institut national (américain) des sciences de la santé liées à l'environnement (NIEHS), publiée en janvier dans le Journal of Neuroscience, les plaques formées par la protéine béta-amyéloïde seraient bien la cause, et non la conséquence, de la maladie. Elles se fixeraient, pour une raison encore inconnue, sur un récepteur particulier du cerveau, bloquant la transmission des signaux qui jouent un rôle dans l'apprentissage et la mémoire. Ce phénomène des plaques, caractéristiques de la maladie, a été mis en évidence en 1906 par le neuropathologiste allemand Aloïs Alzheimer. La maladie, qui a pris son nom, est une affection dégénérative du système nerveux central qui apparaît en général après 60 ans. Aux Etats-Unis, près de quatre millions de personnes sont affectées et, selon l'association (américaine) Alzheimer, le vieillissement rapide de la population pourrait faire grimper le nombre de malades à 5,5 millions en 2010 et près de 14 millions d'ici à 2050. En France, elle atteint près de 5% de la population de plus de 65 ans soit près de 350.000 personnes, dont 35.000 qui l'ont développée avant 60 ans.

Le Monde :

http://www.lemonde.fr/article/0,5987,3244--182537-,00.html

Washington Post :

http://washingtonpost.com/wp-dyn/health/A60329-2001May7.html

BJM : http://www.bmj.com/cgi/content/full/322/7294/1085

Première cartographie du cerveau du petit enfant
Samedi, 19/05/2001 - 00:00

Les techniques d'imagerie par résonance magnétique nucléaire (RMN) ont considérablement progresse au cours de ces dernières années. Elles devraient bientôt permettre le suivi, sans le moindre danger, du développement du cerveau d'un enfant durant ses dix-huit premiers mois. Un projet réunissant de nombreux centres de recherches hospitaliers et dont le centre névralgique sera le McLean Hospital de Belmont (Massachusetts),a pour objectif de réaliser la première étape d'une cartographie du cerveau humain. 500 volontaires représentatifs de la population des Etats-Unis ont été recrutes dans le cadre de ce projet finance a hauteur de 16 millions de dollars par différents départements des NIH (National Institutes of Health).

ADIT : http://www.france-science.org

Les végétaux parlent aux végétaux
Samedi, 19/05/2001 - 00:00

Une vieille plante qu'on arrache, c'est une bibliothèque qui brûle. L'expression d'Amadou Hampaté Bâ vaut également pour les végétaux : certains d'entre eux se transmettent le savoir. Des scientifiquesl'ontprouvédansuneétude parue jeudi dans la revue britannique Nature.Les feuilles adultes de l'arabette des dames (Arabidopsis thaliana), une petite plante qui est utilisée comme modèle en recherche sur les végétaux, transmettent aux jeunes pousses des informations sur le milieu, leur permettant ainsi de s'adapter à certaines modifications environnementales. Cette transmission d'information "longue distance" a pu être mise en évidence, pour la première fois, en analysant la répartition et le nombre des stomates (pores microscopiques) à la surface des feuilles. Par les stomates, transitent les gaz échangés avec l'atmosphère au cours de la photosynthèse le jour (absorption de gaz carbonique et rejet d'oxygène), et la respiration jour et nuit (absorption d'oxygène et rejet de gaz carbonique). Les variations de concentration de stomates influent donc sur la photosynthèse, et par suite sur la concentration en gaz carbonique (CO2). L'équipe de David Beerling (Université de Sheffield, Grande-Bretagne) a soumis différentes parties de la plante à des conditions environnementales artificielles variées. Sur des sujets dont les parties adultes ont été exposées à de fortes concentrations de CO2, les jeunes pousses qui se développaient à l'air libre ont développé moins de stomates. C'est au cours des premiers stades de développement de la future feuille que le nombre et la répartition des stomates qu'elle va développer vont être influencés par les conditions extérieures. Ainsi, lorsqu'une feuille se développe dans une atmosphère fortement chargée en CO2, le nombre de stomates est réduit. Mais la jeune pousse est souvent protégée de l'extérieur dans les premiers temps, notamment par des feuilles plus anciennes, et ne peut "goûter" à l'air ambiant. C'est donc grâce à la feuille adulte qu'elle en prend connaissance. Les plantes se parlent donc, reste à savoir si les végétaux s'expriment en "langage vert" ou de manière plus châtiée.

TF1 : http://www.tf1.fr/news/sciences/0,2280,782280,00.html

Nature :

http://www.nature.com/cgi-taf/dynapage.taf?file=/nature/journal/v411/n6834/index...

Des matériaux capables de tuer des bactéries par simple contact
Samedi, 19/05/2001 - 00:00

Des chimistes sont parvenus à modifier la surface du verre de lames de microscope de façon à ce qu'elles soient capables de tuer des bactéries par simple contact. Selon ces scientifiques, cette modification pourrait être employée à la création d'objets antibactériens à usage médical ou général. "De tels matériaux pourraient être utilisés pour recouvrir les surfaces d'objets courants touchés dans la vie de tous les jours (poignées de porte, jouets, claviers d'ordinateurs, téléphones, etc.) afin des rendre antiseptiques et ainsi incapables de transmettre des infections bactériennes", écrivent Joerg Tiller (Massachusetts Institute of Technology) et ses collègues dans leur article. Les travaux de ces chercheurs ont fait l'objet d'une publication dans la revue Proceedings of the National Academy of Sciences. Ces chimistes ont attaché à la surface du verre des chaînes de PVP (N-alkylated poly(4-vinylpyridine)). Les lames de microscope ainsi modifiées sont devenues capables d'éliminer des bactéries par simple contact. Cette propriété a été étudiée en déposant un échantillon de culture bactérienne sous forme d'aérosol, ce qui simule la transmission de ces bactéries. La surface était ensuite séchée avant de déterminer le pourcentage de bactéries survivantes. Plusieurs espèces ont été testées : Staphylococcus aureus, Staphylococcus epidermidis, Pseudomonas aeruginosa et Escherichia coli. Selon la modification apportée à la surface, le pourcentage de bactéries éliminé variait de 94 % pour S. aureus à 99 % pour les autres espèces. Par contre, le pourcentage de bactéries survivantes était proche de 100 % pour d'autres surfaces non modifiées telles que le verre "nu", des plastiques, du papier, de l'acier ou du bois. En raison de la simplicité relative de la méthode, les chercheurs estiment que ce procédé pourrait par exemple être employé dans le domaine médical. "Un simple lavage périodique enlèverait les bactéries mortes et régénérerait ces surfaces", concluent-ils.

PNAS : http://www.pnas.org/cgi/doi/10.1073/pnas.111143098

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top