RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 288
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 30 Avril 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
UE: le commerce électronique devrait atteindre 2.200 mds d'euros d'ici à 2006
Economie numérique : la France dans la moyenne européenne
Avenir
La révolution des nanosciences nécessite une réorganisation de notre recherche
Matière
Un nouveau laser pour identifier a distance les matériaux
Une pile à combustible de type SOFC entièrement en céramique
Sharp met au point un panneau solaire plus efficace
Terre
Les Pyrénées-Orientales positivent leur déchets
L'eau, un investissement rentable pour l'Humanité
Les traînées de condensation des avions peuvent réchauffer le climat
Le ralentissement de courants dans l'Atlantique nord pourrait préfigurer un changement climatique majeur
Un schéma pour prévoir l'impact de l'environnement sur la végétation
Une première dans l'observation des déformations des roches du manteau terrestre
Vivant
Une équipe restreinte chargée de préfigurer l'Institut national du cancer
Un rapport parlementaire préconise un "plan national contre l'obésité"
Une bibliothèque de protéines contre les maladies émergentes
Les ruses des cellules dendritiques pour informer le système immunitaire de l'infection par le virus du Sida
Une percée thérapeutique majeure contre le syndrome de Gilles de La Tourette
Homme
L'homme utilisait déjà le feu il y a 750.000 ans
Edito
Quelle médecine et quels médicaments pour demain ?



Le 25 avril dernier le groupe franco-allemand Aventis a finalement accepté de fusionner avec la firme pharmaceutique française Sanofi-Synthélabo qui se trouve ainsi valorisé à 55,3 milliards d'euros. Cette fusion donne ainsi naissance au premier groupe pharmaceutique européen et troisième groupe au monde (après Pfizer et GlaxoSmithKline). Ce rapprochement correspond à une nécessité financière et scientifique et illustre les nouveaux défis auxquels la recherche médicale et biologique française et européenne vont être confrontés dans les années à venir. Grâce à la génétique, la génomique et la conception assisté par ordinateur de nouvelles molécules, les médicaments de demain pourront être adaptés à chaque cas après analyse de l'ADN du malade.Ces médicaments conçus sur mesure seront à la fois plus efficaces et bien mieux tolérés que nos molécules actuelles. Mais cette révolution médicale aura un coût : de 15 000 à 20 000 ? de traitement annuel par malade. Aujourd'hui, à peine 70 médicaments figurent dans la catégorie des " blockbusters ". Il s'agit des, principaux médicaments contre les pathologies les plus fréquentes et qui génèrent au moins 750 millions d'euros de chiffre d'affaires annuel. Or d'ici 3 ans, la moitié au moins ne sera plus protégée par leur brevet. On voit donc qu'à court terme va se poser la question centrale du maintien de la profitabilité qui alimente la recherche, qui à son tour permet de renouveler notre arsenal thérapeutique. En outre, la recherche traditionnelle, qui consiste à tester des milliers de molécules à la découverte d'un effet favorable, montre aujourd'hui ses limites. Depuis 15 ans, le coût des nouveaux médicaments a crû de façon exponentielle et la source aux innovations se tarit. Dans le même temps de nouvelles contraintes de sécurité et d'innocuité apparaissent, sous l'action d'agences spécialisées comme la FDA aux Etats-Unis ou l'EMEA en Europe. Si nous voulons tous pouvoir être soignés demain avec ces médicaments du futur, nous devons préserver la capacité de nos centres de recherche privés. Ce sont eux qui depuis 50 ans nous ont fourni la quasi-totalité des médicaments actuellement disponibles. " Développer plus vite et dans des conditions plus économiques des médicaments avec un meilleur Service médical rendu (SMR) " voilà le défi de demain selon Richard Platford (IBM). Avec par exemple des essais cliniques qui ne seront plus effectués in vivo mais in silico, sur des puces en silicium. Heureusement les extraordinaires progrès en matière de puissance de calcul, grâce notamment au calcul distribué "en grille" vont bientôt permettre de modéliser à un coût abordable une protéine en quelques heures au lieu de plusieurs années il y a seulement 5 ans. Responsable de l'informatique de recherche chez Aventis, Rémi Le Goas explique que ces approches sont à l'oeuvre dans les laboratoires du géant franco-allemand à Francfort, Romainville et Bridgewater (USA). " Mettant en réseau nos chimistes, biologistes, pharmaciens, médecins et pharmacocliniciens, nous allons réduire le temps de gestation d'une molécule de 10/15 ans hier, à 6/9 ans. Si les entreprises entrent dans cette nouvelle vision de la recherche, nos médicaments demain seront très différents. Ils seront " taillés sur mesure " après analyse de notre ADN, produits à l'unité, dotés d'une efficacité largement supérieure avec des effets secondaires minimum. Ils seront enfin... très chers, de l'ordre de 15 000 à 20 000 euros par an et par individu. En fait, il existe déjà des médicaments qui entrent dans cette logique de développement fondée sur la génomique. Ce sont les anticorps monoclonaux, dont certains sont déjà prescrits. Mais d'ici 10 ans les puces à ADN se seront banalisées dans les laboratoires d'analyse et les cabinets médicaux et il deviendra possible, pour un nombre croissant de pathologies, de concevoir ou d'adapter les médicaments en fonction du profil génétique du patient. Toutefois cette révolution médicale, si elle est riche d'espoirs pour les malades, est aussi porteuse de lourdes incertitudes en matière de prise en charge et d'adaptation de notre système de santé. La généralisation de ces nouveaux médicaments "sur mesure", à très forte valeur ajoutée, nécessite en effet une mutation profonde de tout notre système de soins et de ses modes de financement et d'administration. Aujourd'hui les parts respectives des médicaments et de l'hôpital dans notre système de santé sont de 20% et 45%. Mais demain ce rapport va inéluctablement s'inverser, ce qui risque de provoquer des mutations socio-économiques très difficiles à gérer. Dans cette perspective, la télémédecine peut jouer un rôle majeur et constituer un outil très puissant d'adaptation pour faciliter la nécessaire mutation de notre système de santé sous l'effet de ces avancées scientifiques et médicales. La télémédecine pourrait notamment réduire de manière sensible la durée et le coût des hospitalisations préventives et post ou préopératoires en permettant à des patients à risque de rester chez eux tout en étant suivis à distance par leur médecin ou leur hôpital. Aujourd'hui la télémédecine est en train de franchir une nouvelle étape et ne se contente plus de télédiagnostic et de télésurveillance. Elle devient également capable de réaliser des soins et interventions à distance, soit de manière ponctuelle (interventions chirurgicales robotisées), soit de manière permanente (délivrance personnalisée de médicaments en fonction de l'état du patient). Le Fraunhofer Institut, organisme de recherche allemand, a ainsi présenté lors du dernier CeBIT, en mars à Hanovre, un bracelet électronique intégrant divers capteurs de paramètres biologiques et un module de communication sans fil pour le suivi médical des patients à domicile. Le bracelet comporte jusqu'à seize capteurs qui surveillent des paramètres vitaux comme la température, le taux d'oxygénation du sang, la pression sanguine ou le rythme cardiaque. Les données sont transmises en trois étapes. Dans un premier temps, une station de base, portée à la ceinture ou intégrée dans une montre, reçoit les données envoyées par le module radio du bracelet dans la bande 402-405 MHz. Cette station de base transmet à son tour les données vers un boîtier passerelle, ou un ordinateur connecté à Internet, en utilisant une connexion sans fil standard (DECT, Wi-Fi ou Bluetooth). Les données cryptées sont enfin envoyées sous IP vers un centre de soins, via Internet ou un réseau privé. Mais cette dernière passerelle, qui relie le patient au médecin, pourrait, elle aussi, être mobile et portée par le patient, libérant ses déplacements en dehors de son domicile grâce à une transmission des données empruntant les réseaux cellulaires GSM ou UMTS. D'après René Dünkler, l'un des responsables du projet, les capteurs pourront aussi à terme être couplés à des actuateurs pour corriger automatiquement certaines évolutions pathologiques. « Un capteur de glucose sanguin pourrait activer une pompe à insuline dès que le taux de glucose passe en dessous d'une certaine limite, explique-t-il. Dans un futur un peu plus lointain, la miniaturisation de l'électronique permettra même d'envisager une électronique implantable pour certaines pathologies. » Ce bracelet électronique pourrait s'intégrer dans le projet européen MobiHealth qui vise à permettre le suivi médical de nombreuses pathologies : maladies cardiaques, respiratoires, ou certaines grossesses à risque. Pour Martin Elixmann, directeur du groupe Distributed Systems de Philips Research à Aachen (Allemagne), « l'intégration de l'ensemble des fonctionnalités sur une puce, combinée à l'utilisation d'une électronique portée près du corps, avec des capteurs insérés dans les vêtements, nous amènera aux systèmes légers, non invasifs et ergonomiques que les gens désirent ». Demain, grâce à la miniaturisation des équipements électroniques et à la généralisation de l'internet sans fil, le développement de la télémédecine interactive et personnalisée va permettre, pour un nombre croissant de patients et de maladies, la surveillance médicale permanente et l'hospitalisation à domicile. Dans un tel contexte, nous allons assister à émergence de l'hôpital virtuel dans lequel la majorité des patients seront surveillés et soignés à distance, en dehors de leur établissement de rattachement. Avec la généralisation du dossier médical électronique, les choix thérapeutiques et les traitements seront décidés et mis en oeuvre de manière plus transparente et plus collective dans un processus de concertation permanent entre le médecin traitant, l'hôpital et ses spécialistes, et le patient. Cette nouvelle organisation des soins permettra également de définir avec une grande précision le meilleur rapport coût-efficacité thérapeutique pour chaque traitement et chaque malade. Au moment où le grand chantier de la réforme de assurance-maladie, et plus largement de notre système de santé, entre dans une phase décisive qui doit déboucher cet été sur le dépôt d' un projet de loi au Parlement, nous devons intégrer dans notre réflexion les conséquences et les potentialités de cette double révolution scientifique et médicale en cours -conception informatisé de médicaments sur mesure adapté au profil génétique du malade et généralisation de la télémédecine interactive- si nous voulons permettre l'accès à tous, au moindre coût pour la collectivité, à cette nouvelle médecine prédictive et personnalisée. Dans cette perspective, on voit donc qu'une réforme profonde, globale et cohérente de l'ensemble de notre système de santé et de protection sociale, concernant la prévention, la médecine de ville, l'hôpital et la politique du médicament, est inévitable et souhaitable car liée de manière consubstantielle aux révolutions scientifiques et médicales en cours dans les domaines de la conception et de l'administration des médicaments et plus largement des soins du futur qui utiliseront de manière massive la télémédecine.

René TREGOUET

Sénateur du Rhône


TIC
Information et Communication
UE: le commerce électronique devrait atteindre 2.200 mds d'euros d'ici à 2006
Samedi, 01/05/2004 - 00:00

Le commerce électronique devrait représenter 2.200 milliards d'euros d'ici à 2006 en Europe, selon un rapport présenté à l'occasion d'une réunion informelle des ministres des Communications de l'UE jeudi à Dundalk (nord-est de l'Irlande). Les transactions sur l'internet en Europe atteignent aujourd'hui quelque 77 milliards d'euros, mais elles sont appelées à se développer très fortement au cours des deux prochaines années, selon ce rapport préparé par la firme PriceWaterhouseCoopers pour le compte d'un groupe d'une vingtaine de chefs d'entreprises spécialisées dans les technologies de l'information. Ces chefs d'entreprise estiment que le haut-débit sera disponible dans quelque 30% des foyers européens d'ici à 2008 contre 8% actuellement, ce qui porterait de 3,3 milliards d'euros aujourd'hui à 21,7 milliards en 2008 les revenus tirés de cette techonologie sur l'internet. Les entreprises à l'origine de ce rapport (Tiscali, AOL Europe, Telefonica...) ont rencontré jeudi les ministres européens pour leur demander notamment des mesures effectives pour combattre le courrier indésirable (spam) sur l'internet, et pour assurer le développement du haut-débit, selon un communiqué du ministère irlandais des Communications.

AFP : http://fr.news.yahoo.com/040422/1/3rbno.html

Economie numérique : la France dans la moyenne européenne
Samedi, 01/05/2004 - 00:00

Quel est le pays européen le plus en avance dans l'usage de l'Internet ? Comment se placent les internautes espagnols par rapport aux internautes allemands dans l'usage du paiement en ligne ? La dernière étude éditée par le cabinet Jupiter Research décortique les comportements des internautes de l'Europe de l'Ouest. L'enquête en ligne, menée en novembre 2003, dans dix-sept pays européens et auprès de mille internautes par pays, révèle ainsi différents niveaux de maturité dans l'usage du Web. L'indicateur de Jupiter Research classe les pays en fonction de leur degré de sophistication numérique, défini par le recoupement de quarante-huit critères et le classement de six catégories dites "de sophistication" : l'adoption de l'Internet, de la télévision interactive, de plateformes mobiles, le développement de la publicité et du commerce électroniques, l'intensité d'utilisation de l'Internet et l'usage de terminaux alternatifs (assistants personnels, consoles de jeux, etc.). Alors que les pays nordiques se placent parmi le spays les plus "sophistiqués", la France et l'Allemagne, avec 101 se situent dans la moyenne européenne (base 100), derrière le Royaume-Uni (113) et la Suède (140), et loin devant les pays du sud de l'Europe (92 points pour l'Espagne, 85 pour l'Italie). Pour toutes les catégories, la Suède remporte le niveau de sophistication le plus élevé, suivie dans la plupart des cas par le Royaume-Uni. "Le niveau suédois résulte, selon Olivier Beauvillain, analyste chez Jupiter Research, d'un taux important d'adoption à l'Internet et en haut débit, et un dynamisme significatif des acteurs locaux dans le domaine de la publicité. En Suède, la part de la publicité consacrée au média Internet est plus importante qu'en France, pour une population nettement inférieure. Sur l'accès à la télévision numérique, en revanche, c'est le Royaume-Uni (163) qui est le plus en avance, suivi par la Suède (127), ex-aequo avec la France. Olivier Beauvillain analyse ainsi les tendances des mois à venir : "D'une part, nous pensons que le développement de services de télévision via le haut-débit va activer le marché de la vidéo à la demande. Et d'autre part, les fournisseurs d'accès en multipliant les offres d'accès Adsl bon marché, vont créer un effet d'accélération de l'accès même à Internet. Ils vont élargir leur clientèle en touchant les personnes qui se contentaient jusque là d'un accès bas débit pour consulter leur boîte électronique."

JDNet : http://www.journaldunet.com/0404/040428jupiter.shtml

^ Haut
Avenir
Nanotechnologies et Robotique
La révolution des nanosciences nécessite une réorganisation de notre recherche
Samedi, 01/05/2004 - 00:00

La révolution des nanosciences, où la matière s'étudie et se manipule à l'échelle de l'atome, se heurte aujourd'hui en France à des structures totalement inadaptées, notamment pour les financements, selon un rapport publié le 29 avril par l'Académie des Sciences.Il ne s'agit plus d'une simple étape supplémentaire dans la miniaturisation. Nanosciences et nanotechnologies, où l'on travaille à l'échelle du nanomètre, c'est-à-dire du millionième de millimètre, obligent physiciens, chimistes et ingénieurs à "une véritable révolution conceptuelle", souligne le rapport de l'Académie des Sciences et de l'Académie des Technologies. "La révolution des nanosciences est caractérisée par une extrême pluridisciplinarité et une évolution extraordinairement rapide", a souligné devant la presse l'un des auteurs de ce rapport, le physicien Philippe Nozières. Pour la rapidité de l'évolution, "l'échelle est le mois, voire moins, alors que l'unité de gestion française est l'année, dans le meilleur des cas", selon le physicien. "Si l'on se plie à ce carcan, la France sera toujours en retard d'un métro", ajoute-t-il. Les académiciens estiment d'autre part que les nanosciences, après avoir fait chambre à part pendant quelques années, sont appelées à se fondre un jour dans le fonctionnement normal de la science. D'où la suggestion de créer une Agence nationale des nanosciences et des nanotechnologies, une structure qui pourrait être un jour dissoute, destinée uniquement à évaluer, coordonner et financer les travaux des différents laboratoires impliqués. Il s'agirait d'une agence de moyens autonome, disposant de financements dans la durée, sur une échelle de cinq à dix ans. Les académiciens recommandent un financement de cette agence de moyens par l'Etat, et non par exemple par des fondations, et ils soulignent la nécessité d'un sérieux coup de pouce des pouvoirs publics pour que la France ne reste pas à la traîne dans ce domaine. Les académiciens ne sont pas favorables pour autant à de très gros investissements lourds, préférant une multiplication de petits équipements de base, en particulier dans les universités. Les académiciens souhaitent également favoriser les regroupements d'équipes interdisciplinaires, au sein d'instituts fédératifs. "Il est préférable que les chercheurs restent dans leur cadre d'origine", a commenté Philipe Nozières. Pour lancer ce vaste chantier, les deux académies estiment enfin nécessaire le lancement d'un programme interministériel pour "assurer à la France une position de premier plan dans ce domaine". "Dans l'industrie de demain, il faudra maîtriser la matière à l'échelle du nanomètre", a estimé Claude Weisbuch, l'un des auteurs du rapport. "Mais c'est aujourd'hui qu'il faut prendre les brevets et donc agir", ajoute-t-il. Les académiciens estiment ainsi que les départs en retraite massifs qui doivent marquer le secteur de la recherche dans les années à venir "peuvent être une occasion extraordinaire de remodeler le paysage scientifique français", et de l'adapter à la révolution des nanosciences. Académie des sciences : http://www.academie-sciences.fr/publications/rapports/rapports_html/RST18.htm

^ Haut
Matière
Matière et Energie
Un nouveau laser pour identifier a distance les matériaux
Samedi, 01/05/2004 - 00:00

Un nouveau procédé permet de déterminer a distance les matériaux à l'aide d'un laser. Pour la première fois, il est possible sans réglage de la distance focale du faisceau laser, d'analyser des matériaux de propriétés et de résistance différentes, ou même de les percer ou les découper. Le physicien Ludger Woste de université libre de Berlin (Freie Universitat) et Jean-Pierre Wolf de ,université de Lyon ont déposé un brevet pour le procède. L'invention est exploitée par la société d'exploitation de brevet Ipal GmbH pour le compte de université libre de Berlin. Le procèdé laser breveté s'appuie sur un phénomène d'auto-focalisation de la lumière dans atmosphère, qui utilise les propriétés divergente et convergente de l'air parcouru par une lumière de forte intensité. L'air se comporte d'une part comme une lentille convergente lorsqu'il est soumis a un champ lumineux très fort. D'autre part autour du faisceau de haute énergie, les molécules se ionisent et se comportent comme une lentille divergente. Sous certaines conditions, ces deux propriétés s'annulent et la lumière reste très concentrée sur un long parcours. Pour réaliser une analyse de matériaux, le laser cible, évapore et ionise le matériau cible. Ensuite une analyse spectrométrique à distance permet de caractériser la nature du matériau. L'utilisation de ce nouveau laser permet en outre la détermination instantanée et sans risque de matériaux a grande distance, ce qui pourrait intéresser les sapeurs-pompiers dans leur détermination des matériaux situes à proximité des feux. Une autre application possible pourrait être l'analyse des déchets dans les centres de tri sélectif. BE Allemagne : http://www.adit.fr

Une pile à combustible de type SOFC entièrement en céramique
Samedi, 01/05/2004 - 00:00

Le "Central Research Institute of the Electric Power Industry - CRIEPI" a développé une pile à combustible de type SOFC (acronyme de Solid Oxide Fuel Cell, il désigne des piles a combustible utilisant un oxyde conducteur ionique solide) composée entièrement de céramique. Les céramiques résistant mieux aux hautes températures que les métaux, leur utilisation pour la composition de connecteurs reliant individuellement les piles permet au système de fonctionner à une température plus élevée, augmentant ainsi sa capacité a produire de électricité. Les éléments composant une pile à combustible de type SOFC sont traditionnellement connectés entre eux par des liaisons métalliques en nickel. inconvénient des liaisons métalliques est qu'elles s'oxydent et se détériorent à haute température, obligeant ainsi les piles à combustible à fonctionner à des températures de l'ordre de 700-800°C. Un fonctionnement à de telles températures réduit considérablement le rendement des piles a combustible. Les connexions en céramique étaient pas utilisées à ce jour car elles avaient tendance à réagir chimiquement et à se détériorer, rendant possibles des fuites hydrogène et d'air. Le CRIEPI a résolu ce problème en ajoutant un oxyde inorganique à base de calcium à la céramique afin d'inhiber les réactions chimiques conduisant a sa détérioration. Le produit résultant est une pile a combustible composée uniquement de céramique fonctionnant a une température de 1000°C et capable de générer 1 Watt par centimètre carre électrolyte, ce qui représente cinq fois la puissance générée par les piles à combustible traditionnelles de type SOFC. De plus, la nouvelle pile à combustible peut fonctionner sans interruption pendant 2000h, ce qui représente une augmentation d'un facteur 50 de la durée d'utilisation, car la formation de craquelures dues à l'expansion thermique des métaux et des céramiques ne se produit plus dans ce nouveau dispositif.

BE Japon : http://www.adit.fr

Sharp met au point un panneau solaire plus efficace
Samedi, 01/05/2004 - 00:00

Sharp Corp. a annonce ce vendredi avoir développé les cellules solaires polycristallines les plus efficaces au monde. La Sunvista NE-142AN, dont la commercialisation débutera le 1er juillet, peut convertir les rayons solaires en électricité avec un rendement de conversion énergétique record de 14,8%. grâce a un nouveau matériau pour ses électrodes, diminuant la réflectivité et réduisant la résistance électrique, Sharp a réussi à améliorer le rendement énergétique du dispositif de 1,1 point. L'entreprise fabriquera les dispositifs sur commande a un prix de 79170 yens (610 euros) par unité. BE Japon : http://www.adit.fr

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les Pyrénées-Orientales positivent leur déchets
Samedi, 01/05/2004 - 00:00

Les Pyrénées-Orientales viennent d' inaugurer à Calce, dans les pré-Corbières, une centrale intégrée dernier cri qui permettra de traiter et incinérer ordures ménagères, boues de décantation et déchets hospitaliers sans pollution tout en créant de l'énergie.Epousant les courbes de terrains, entre trois collines en bordure de vignoble, l'usine, couverte d'écailles d'acier inox, reflète tantôt le ciel, tantôt les vignes, tantôt la roche, symbolisant le recyclage non polluant des déchets de la vie moderne. L'usine traitera l'ensemble des déchets de la totalité des 226 communes du département, générés par 403.000 habitants l'hiver mais près d'un million l'été, soit une capacité d'incinération de 179.000 tonnes par an. L'unité a permis la fermeture de six usines départementales pré-existantes, obsolètes et qui rejetaient notamment de la dioxine dans l'atmosphère. Elle entraînera également la fermeture et la réhabilitation de la décharge du col de la Done (Corbières catalanes), où s'accumulent une grande part des ordures ménagères du département depuis 30 ans, soit quelque 10 millions de tonnes d'ordures à ce jour. L'usine doit permettre de "dépolluer le département et valoriser les déchets", a indiqué Fernand Roig, président du "Syndicat départemental de transport de traitement et de valorisation des ordures ménagères et autres déchets des Pyrénées-Orientales" (Sydecom 66). La mutualisation des frais de transport a permis d'emporter l'adhésion de toutes les communes du département, tout en limitant les coûts de traitement à 55 euros la tonne, contre 65 actuellement au col de la Done. L'unité traitera les déchets verts et leur décomposition en compost pour limiter l'usage d'engrais chimiques, notamment dans les cultures maraîchères. Elle procèdera par ailleurs au tri et à l'acheminement des déchets récupérables issus du tri-sélectif (70% de papier, 20% de plastique, 10 % de métaux). Elle procèdera enfin au tri puis à l'incinération des ordures ménagères et déchets hospitaliers. L'opération, sans rejets dans l'atmosphère grâce à des filtrages successifs répondant aux normes les plus récentes, permettra une production d'électricité propre à alimenter une ville de 15.000 habitants (14MW). L'adjonction d'un troisième four d'incinération aux deux actuels, inéluctable à terme pour "traiter" tous les déchets du département devrait permettre une production de 21,6 MW, de quoi "éclairer" une ville de 20.000 habitants. Afin de ne pas surdimensionner l'installation, une capacité de stockage de 13.500 tonnes permet de "lisser" l'excédent d'ordures provoqué par l'afflux des touristes estivaux. L'incinération de ce stock permettra ainsi à l'usine de produire un maximum d'énergie électrique l'hiver, au moment où celle-ci est la plus demandée, donc la plus chère. L'usine, par son intégration industrielle comme par son intégration dans le paysage et ses normes de dépollution totale des effluents, est présentée comme un modèle écologique "dont chaque département devra légalement se doter d'ici peu", ont affirmé jeudi à la presse les responsables du projet.

AFP : http://fr.biz.yahoo.com/040422/202/3rc11.html

L'eau, un investissement rentable pour l'Humanité
Samedi, 01/05/2004 - 00:00

Deux nouveaux rapports des Nations Unies soulignent les avantages économiques inhérents à l'amélioration de l'accès à l'eau potable. Car aujourd'hui, plus de deux milliards d'entre nous ne disposent même pas d'installations d'assainissement de base. D'après un rapport de l'Institut Tropical Suisse, l'investissement chaque année de 11,3 milliards de dollars supplémentaires au titre de l'assainissement et de l'accès à l'eau potable permettrait des économies à hauteur de ... 84 milliards de dollars. Soit plus de sept fois la mise initiale ! Par ailleurs un autre rapport, dressé par l'OMS et consacré au Défi de l'assainissement, plaide vigoureusement en faveur d'un investissement social dans ce domaine ; Selon l'Organisation en effet, " l'engagement politique, la mise en oeuvre de mesures législatives et l'augmentation des ressources financières mais aussi les efforts des petites entreprises et la participation des associations " peuvent contribuer à favoriser l'accès de millions de personnes à l'eau potable. Au Bangladesh par exemple, l'ONG Village Education and Ressource Centre s'est attachée à mettre au point tout un éventail de solutions dans le domaine de l'assainissement. En collaboration avec les populations locales, ses responsables ont mis en place à peu de frais une vingtaine de latrines qui ont résolu bien des problèmes sanitaires. L'eau est une source de vie mais elle est aussi à l'origine chaque année, dans le monde, de 1,6 millions de morts ! Pour réduire ce chiffre effroyable, les Nations unies se sont engagées à fournir d'ici 2015 une eau de meilleure qualité à 1,5 milliards de personnes. Et des services d'assainissement de base à 1,9 milliards d'individus.

ONU : http://www.who.int/water_sanitation_health/en/

Les traînées de condensation des avions peuvent réchauffer le climat
Samedi, 01/05/2004 - 00:00

Les traînées de condensation formées par les réacteurs des avions ont pu provoquer une hausse des températures contribuant au réchauffement climatique aux Etats-Unis entre 1975 et 1994 et s'ajoutant aux gaz à effet de serre, a affirmé mardi un scientifique de la Nasa."Le résultat montre une augmentation des nuages attribuables au trafic aérien qui pourrait contribuer pour près de moitié au réchauffement observé aux Etats-Unis pendant près de 20 ans, à partir de 1975", a déclaré Patrick Minnis, chercheur au centre Langley de la Nasa à Hampton (Virginie). "Mais il est important de dire que les traînées de condensation s'ajoutent et ne remplacent pas les gaz à effet de serre", tenus pour les principaux responsables du réchauffement climatique, a-t-il ajouté dans un communiqué. En effet, "durant la même période, un réchauffement s'est produit dans de nombreuses autres régions où la couverture nuageuse (due aux avions) a baissé ou est restée stable", a-t-il poursuivi. Pour le chercheur, "cette étude démontre que l'activité humaine a un impact visible et significatif sur la couverture nuageuse et donc sur le climat. Elle indique que les traînées de condensation devraient être incluses dans les scénarios de changement climatique". M. Minnis a établi par une modélisation informatique que l'augmentation d'environ 1% des nuages de type "cirrus" était probablement due à des traînées de condensation provoquées par le trafic aérien, qui avaient à leur tour des conséquences sur la température au sol, dans des proportions comparables au réchauffement constaté aux Etats-Unis entre 1975 et 1994. Journal of Climate : http://ams.allenpress.com/amsonline/?

Le ralentissement de courants dans l'Atlantique nord pourrait préfigurer un changement climatique majeur
Samedi, 01/05/2004 - 00:00

L'océan et l'atmosphère participent tous deux à la régulation thermique de la planète par l'intermédiaire d'un processus thermodynamique qui sert à évacuer la chaleur équatoriale. Les courants océaniques transfèrent ces eaux surchauffées de l'équateur vers les pôles dans les océans du globe. Puis, ayant perdu leurs calories lors de ce périple, ils redescendent vers les régions intertropicales. Ce circuit complet de tous les courants mondiaux, en surface et en profondeur, appelé circulation thermohaline, s'effectue en quelque mille ans. Dans l'Atlantique nord, le Gulf Stream, qui longe la côte ouest de l'Amérique du Nord, transporte les eaux chaudes d'origine tropicale vers le nord de l'océan. A mi-chemin, il laisse place à la dérive nord-atlantique, qui file vers le nord-est de l'Atlantique et l'Europe, ce qui explique les conditions climatiques clémentes de nos côtes. Au large de la Norvège, du Groënland et du Labrador, ces eaux se refroidissent. Et c'est parce qu'elles deviennent alors plus denses et plus salées qu'elles plongent profondément. Ce sont en moyenne 17 millions de m3/s qui partent ainsi vers les abysses. Ce processus est capital pour le climat de la planète, "car les eaux profondes d'influence mondiale sont formées dans ces régions, et ce sont elles qui constituent le moteur de la circulation thermohaline", explique Alain Colin de Verdière, professeur d'océanographie physique à l'université de Brest. Or une étude menée par deux océanographes, Sirpa Hãkkinen (NASA Goddard Space Flight Center) et Peter Rhines (université de Washington, Seattle) - et que Science publie en ligne à la date du 15 avril -, a mis en évidence un ralentissement de cette circulation au cours de la décennie 1990. En particulier dans un courant subpolaire de l'Atlantique nord, entre 50 et 65 degrés de latitude nord. Plus grave encore, dans cette région où existent "d'intenses interactions entre l'océan et l'atmosphère" et où les eaux froides plongent pour former le North Atlantic Deep Water, ce ralentissement se "prolonge" jusque vers 2 800 m de profondeur. Sirpa Hãkkinen et Peter Rhines ont détecté le ralentissement de ce courant marin subpolaire en passant en revue les données altimétriques fournies pendant les décennies 1980 et 1990 par le satellite franco-américain Topex-Poséidon, mais aussi les informations collectées par d'autres satellites (ERS-1 et 2, Seasat, Geosat) et celles fournies par des instruments de mesure des courants marins. Pour être sûrs de leur fait, ils ont éliminé diverses hypothèses, notamment celle relative à l'oscillation nord-atlantique. Ce phénomène, qui résulte d'une grande différence de pressions entre l'anticyclone des Açores et la dépression d'Islande, modifie en effet l'intensité et la direction des vents sur l'Europe du Nord et du Sud. Au final, les conclusions des deux chercheurs restent prudentes, faute de données antérieures à 1978. Il n'est pas encore possible, selon eux, de dire si "le ralentissement constaté dans les années 1990 est la manifestation d'une oscillation naturelle ou une tendance lourde"indiquant une modification du climat. "Cette étude, réalisée par des scientifiques connus pour leur sérieux, montre néanmoins que la circulation thermohaline s'affaiblit dans cette région. L'océan perd moins de chaleur et la convection océanique y est moins profonde", analyse Alain Colin de Verdière. "Une étude menée actuellement sur les données altimétriques au Laboratoire de physique des océans (unité mixte CNRS/Ifremer/université de Rennes) corrobore cette tendance", ajoute le chercheur. Si un tel affaiblissement de la circulation thermohaline était confirmé sur le long terme, cela pourrait signifier le début d'un changement climatique lié à l'effet de serre. En effet, "en ralentissant la transformation des eaux chaudes en eaux froides, on diminue la capacité de l'atmosphère et de l'océan à transférer la chaleur de l'équateur vers les pôles", rappelle Xavier Carton, responsable du Laboratoire de physique des océans. "Ce faisant, on diminue la régulation thermique de la planète. Comment réagira le système océan/atmosphère et le Gulf-Stream dans ce cas-là ? Personne ne le sait."Le problème est d'autant plus complexe que l'océan joue un rôle intense dans les transferts de chaleur aux basses latitudes, tandis que, aux hautes latitudes, ce rôle est plutôt tenu par l'atmosphère. Le Monde :

http://www.lemonde.fr/web/article/0,1-0@2-3238,36-362409,0.html

Un schéma pour prévoir l'impact de l'environnement sur la végétation
Samedi, 01/05/2004 - 00:00

Un schéma de fonctionnement des végétaux, qui pourrait mesurer l'impact de l'environnement sur la croissance des plantes, vient d'être établi à partir de 2.250 espèces de plantes réparties sur toute la planète. "Connaître l'effet des changements climatiques, de la pollution, des aménagements du territoire sur la biomasse, c'est-à-dire l'ensemble des organismes vivants sur la terre, est le but ultime des chercheurs en écophysiologie", explique Catherine Roumet, chercheur au CNRS, qui a participé à cette étude. Le modèle établi par une équipe internationale d'une trentaine de chercheurs peut relier variations de l'environnement et croissance végétale, une composante essentielle de la biomasse. Cette question mobilise depuis 1998 des scientifiques répartis dans quatorze pays. Ils viennent d'élaborer, à partir de feuilles du monde entier, un schéma global de l'évolution des propriétés des plantes, présenté dans la revue scientifique Nature du 22 avril. Les études précédentes étaient dix fois moins complètes en termes d'espèces considérées et de sites géographiques couverts. L'équipe internationale du réseau GLOPNET (global plant network) a analysé par le menu des feuilles de 2.250 espèces de plantes vascularisées, c'est-à-dire qui possèdent des vaisseaux conducteurs permettant notamment le transport de l'eau depuis les racines jusque dans les parties les plus aériennes. Du chêne au blé cultivé : tous passés au crible. Pourquoi les feuilles? Parce qu'elles sont le lieu de transformation de la matière minérale, telle que le dioxyde de carbone et l'eau, en matière organique comme les sucres. Ce sont donc elles qui gèrent les ressources de la plante. La durée de vie d'une feuille, la quantité de protéines fixant le dioxyde de carbone et le rapport entre la masse et la surface foliaire donnent donc des renseignements sur le fonctionnement global de la plante, en particulier sa croissance. L'étude a modélisé les relations qui existent entre ces différents caractères. "Si une feuille a une photosynthèse très lente, comme lorsqu'elle vit dans un climat aride, sa durée de vie est relativement longue, elle peut atteindre une dizaine d'années. Un végétal est assimilable à un système économique, il ne peut optimiser toutes ses fonctions en même temps", explique Marie-Laure Navas, chercheur au CNRS, qui a également participé à ces travaux. "On peut utiliser ce modèle pour prédire les réactions de la végétation lorsque son environnement change", précise Marie-Laure Navas. Ce qui permet de telles prévisions, c'est que les relations qui existent entre les différentes propriétés de la plante sont constantes. "S'il fait plus chaud, on peut savoir comment elle s'adaptera globalement", ajoute-t-elle. Les chercheurs espèrent pouvoir, à terme, mesurer les effets de l'activité humaine sur les écosystèmes. "Le modèle n'établit pas une relation directe entre variations de la biomasse végétale et changements climatiques. Pour cela il faudrait connaître en plus l'influence directe de l'environnement sur la durée de vie de la plante", précise Catherine Roumet. AFP : http://fr.news.yahoo.com/040424/202/3rehw.html

Une première dans l'observation des déformations des roches du manteau terrestre
Samedi, 01/05/2004 - 00:00

Comme une casserole d'eau sur le feu, la Terre, machine thermique, évacue sa chaleur interne grâce à de vastes et lents mouvements de convection, à l'échelle de centaines de millions d'années, qui brassent le manteau terrestre. En surface, ces mouvements nous sont perceptibles, entre autres, par les frottements des plaques tectoniques et les séismes qui en résultent. Le manteau terrestre profond, qui s'étend jusqu'à 2900 km de profondeur, est constitué à 80 % d'un silicate (Mg, Fe)SiO 3, de structure cristalline dite « perovskite ». In situ, la température atteint plusieurs milliers de degrés celsius et la pression est de plus d'un million de fois supérieure à la pression atmosphérique. Pour comprendre les déformations subies par la perovskite et transmises à la surface de la planète, il est indispensable de se replacer dans des conditions extrêmes de pression et de température. Une fois ces conditions extrêmes obtenues, la technique habituelle d'observation des cristaux, la microscopie électronique, est inutilisable, parce qu'elle provoque des perturbations de ces cristaux fragiles qui ont alors tendance à se vitrifier. L'équipe de Patrick Cordier s'intéresse à cette problématique depuis une dizaine d'années. Cette équipe a réussi pour la première fois, en utilisant une presse multienclumes, à déformer des cristaux de perovskite de manière plastique dans les conditions de température et de pression qui règnent dans le manteau terrestre à la profondeur de 700 km (un record !). La seconde originalité a été d'adapter une technique d'analyse aux rayons X développée en métallurgie pour observer les microstructures de déformation ainsi produites. Ils observent ainsi que les cristaux de perovskite, soumis à une température de 1400°C et à une pression de 25 GPa (soit 250 000 fois la pression atmosphérique), sont bien capables de se déformer dans ces conditions extrêmes, et que les déformations subies sont orientées par des défauts de la structure cristalline. « Ces résultats donnent aujourd'hui une nouvelle vision de la dynamique de l'intérieur du globe. Effectivement, la perovskite est susceptible de se déformer dans les conditions du manteau, et nous avons plus d'informations sur les mécanismes mis en oeuvre à l'échelle microscopique. Ces données vont nous permettre de ré-interroger les données sismiques et d'améliorer notre vision de la dynamique du manteau terrestre », commente Patrick Cordier. CNRS : http://www2.cnrs.fr/presse/communique/464.htm

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une équipe restreinte chargée de préfigurer l'Institut national du cancer
Samedi, 01/05/2004 - 00:00

Le ministre de la Santé, Philippe Douste-Blazy, et le ministre délégué à la Recherche, François d'Aubert, ont annoncé jeudi avoir demandé à une "équipe restreinte", comprenant notamment le cancérologue David Khayat, de s'assurer que l'Institut national du cancer (INCa) sera opérationnel dès cet automne.Outre le Pr Khayat, chef de service à l'hôpital de la Pitié-Salpêtrière à Paris, cette équipe chargée de "préparer la stratégie, la politique scientifique et l'organisation de l'Institut" comprend le Pr Dominique Maraninchi, directeur de l'institut Paoli-Calmettes de Marseille, et François Werner, ancien directeur de cabinet de Pierre Bédier lorsqu'il était secrétaire d'Etat aux Programmes immobiliers de la Justice. Cette équipe "restreinte" doit s'appuyer sur cinq autres personnes, "particulièrement impliquées dans le plan cancer", dont le Pr Henri Pujol, président de la Ligue contre le cancer, ont précisé les ministres à l'occasion d'une visite à l'hôpital pédiatrique Armand-Trousseau à Paris. Sont également cités les Pr Daniel Louvard (Institut Curie), Roland Bugat (Centre de lutte contre le cancer de Toulouse), Victor Izrael (Hôpital Tenon à Paris) ainsi qu'un conseiller du cabinet du ministre de la Santé, Laurent Borella. Prévu par le plan cancer et la loi de santé publique en coursd'examenparlementaire, l'INCa, doté d'un statut de GIP (groupement d'intérêt public), sera chargé de coordonner les actions de lutte contre le cancer. Il doit être financé à hauteur de 11 millions d'euros dès cette année, et de 90 millions d'euros d'ici trois ans, a indiqué M. Douste-Blazy. Information des patients et des professionnels sur la prévention et les soins, coordination de la recherche, développement de référentiels de "qualité" pour garantir "l'égal accès aux soins pour tous" figurent au nombre des missions de l'INCa qui n'a pas pour vocation de concurrencer les organismes de recherche existant (Inserm, CNRS), a-t-il ajouté. Trois missions spéciales lui seront également confiées : cancers de l'enfant, cancers de la personne âgée et cancers rares. Ainsi, pour les traitements très spécifiques et onéreux concernant les cancers de l'enfant, l'INCa identifiera les sites "hautement spécialisés", pouvant délivrer ces traitements. La circulaire du 29 mars relative à l'organisation des soins en cancérologie pédiatrie fixe les critères de qualité à respecter: seuil d'activité, accès à un plateau technique, existence de lieux de vie permettant aux enfants de jouer et suivre une scolarité, prise en compte de la dimension sociale, familiale et psychologique de la maladie, a notamment souligné le ministre. Un suivi multidisciplinaire et la mise en place à partir de 2005 d'un dispositif spécifique dédié à l'annonce de la maladie sont également exigés.

AFP : http://fr.news.yahoo.com/040422/202/3rbmj.html

Un rapport parlementaire préconise un "plan national contre l'obésité"
Samedi, 01/05/2004 - 00:00

La France risque de rejoindre vers 2020 le "taux d'obésité américain", selon un rapport parlementaire qui préconise le lancement d'un "plan national contre l'obésité" et la création d'une "agence nationale de lutte contre l'obésité".Adopté à l'unanimité le 13 avril par l'Office parlementaire d'évaluation des choix scientifiques et technologiques, le rapport du sénateur Claude Saunier (PS, Côtes-d'Armor) tire la sonnette d'alarme à l'égard d'"une maladie chronique difficilement réversible". "En France, l'obésité, qui n'affectait que 6% de la population en 1990, en a affecté 11,3% en 2003. Et depuis six ans, elle progresse annuellement de 17%. A ce rythme, notre pays devrait atteindre le taux d'obésité américain vers 2020, ce qui impliquerait une charge annuelle de 14 milliards d'euros pour la seule assurance maladie", relève le sénateur. "On est donc confronté à un fléau social dont on sait avec certitude qu'il sera à la source d'un désastre sanitaire et d'une implosion financière de l'assurance maladie", poursuit-il, ajoutant: "Mais la progression de ce fléau n'est pas une fatalité insurmontable". Le plan national contre l'obésité que propose le rapport "ne pourra être que de grande ampleur" et "devra être largement financé par l'assurance maladie", qui consacre une part trop faible de ses ressources à la prévention. S'agissant d'une "cause nationale", M. Saunier estime "nécessaire que cette action soit portée par une Agence nationale de lutte contre l'obésité regroupant les moyens financiers et gérant leur utilisation". L'Agence de lutte contre l'obésité pourrait être financée par une taxe "assise sur les produits alimentaires composés dépassant un taux de calories au gramme donné ou une proportion donnée de sucres et de graisses.

AFP : http://fr.news.yahoo.com/040426/202/3rimp.html

Une bibliothèque de protéines contre les maladies émergentes
Samedi, 01/05/2004 - 00:00

Prendre un coup d'avance sur les épidémies de demain en constituant dès maintenant une bibliothèque regroupant les «modes d'emploi» des principales protéines virales : c'est l'audacieux pari que s'apprêtent à relever une vingtaine d'équipes allemandes, britanniques, italienne, slovaque, belge, suédoise et française. Baptisée projet «Vizier», cette initiative est portée par le laboratoire marseillais du CNRS «Architecture et fonctions des macromolécules biologiques» (AFMB) et soutenue par l'Union européenne. Son credo : une connaissance fine des complexes molécules impliquées dans la transmission et la multiplication des germes dangereux pourrait faciliter la mise au point de drogues antivirales efficaces - pour l'heure très peu nombreuses. Contrairement à la plupart des infections bactériennes, qui répondent au moins partiellement aux antibiotiques existants, les grandes maladies virales prospèrent en effet dans un quasi-désert thérapeutique. Et dans le même temps, de nouveaux micro-organismes viennent régulièrement grossir les rangs des virus dangereux pour l'homme - contre lesquels la recherche de molécules thérapeutiques par «screening» des composés existants a montré des limites. «Dans ce maquis de germes nouveaux ou mal contrôlés, la récente chronique des maladies émergentes nous a incités à nous intéresser en priorité aux virus composés d'ARN (acide ribonucléique), explique Christian Cambillau, coordinateur de «Vizier». Cette famille, qui compte plus de 200 organismes pathogènes pour l'homme - notamment ceux de la dengue, de la gastro-entérite, de la rougeole, des entérovirus ou encore de la grippe -, semble en effet particulièrement mal dotée en médicaments efficaces.» C'est pour tenter de mettre un terme à cette pénurie que plusieurs dizaines de virologues et biologistes moléculaires s'apprêtent à plancher de concert sur la structure et le fonctionnement des protéines composant les principaux virus ARN. Leur projet repose sur un postulat actuellement très répandu parmi les biologistes : bien plus que le décryptage du génome viral, jugé peu exploitable en l'état, la compréhension du rôle de certaines protéines composant les pathogènes serait au coeur de la recherche visant à identifier des candidats médicaments. «Or depuis l'entrée dans l'ère post-génomique, explique Christian Cambillau, nous disposons des moyens nécessaires pour caractériser à haut débit la structure en trois dimensions - et donc la fonction - de nombreuses protéines.» Ce travail repose sur la mise à contribution de diverses spécialités. En amont, le séquençage de virus vivants dans un laboratoire sécurisé constitue un préalable indispensable à la production des protéines recherchées. Il faut en effet disposer de la séquence du gène correspondant qui, une fois «exprimée» par une bactérie - l'AFMB utilise notamment Escherichia coli -, génère les molécules désirées. Isolées par un système de «tamis» puis multipliées, celles-ci finissent par former un cristal. Dernière étape : l'étude aux rayons X des formes cristallines ainsi obtenues permet, après traitement informatique, de déduire la structure en trois dimensions de la protéine étudiée. Cette description posée, les chercheurs pensent être en mesure d'identifier les sites actifs des protéines qui, au sein d'un virus, composent le complexe de réplication. «Ce qui revient à cibler, grâce aux images obtenues, des fragments de molécules auxquels un candidat médicament devra s'attaquer en priorité pour empêcher le virus de se multiplier à l'intérieur d'une cellule, décrypte le docteur Vincent Deubel (laboratoire P4 de Lyon), partenaire de «Vizier». Une approche autrement plus scientifique que celle employée lors des essais répétés - et infructueux - de médicaments sur les virus d'Ebola ou de la fièvre de Congo-Crimée.» «Plus les spécialistes de biologie structurale décriront des protéines et plus ils seront susceptibles d'esquisser rapidement des comparaisons avec les molécules qui composeront demain les virus émergents», observe pour sa part Jean-Claude Manuguerra, virologue à l'Institut Pasteur. l fut un temps où la création d'un bébé mammifère ne pouvait se réaliser sans deux éléments essentiels, l'ovule et le spermatozoïde. Cette époque est maintenant derrière nous puisque des chercheurs japonais ont réussi à obtenir la naissance d'une souris sans ces ingrédients ni clonage. La souris Kaguya, dont le matériel génétique est exclusivement d'origine femelle, est présentée par une équipe de l'université d'agriculture de Tokyo comme le premier mammifère sain et fertile, arrivé à l'âge adulte, obtenu par parthénogenèse, un mécanisme de reproduction asexué. Le terme parthénogenèse, du grec « né d'une vierge », est un mode de reproduction rencontré chez les pucerons, certains poissons, les lézards et même quelques espèces de dinde. En fait, la souris née des travaux de l'équipe japonaise coordonnée par Tomohiro Kono (université d'agriculture de Tokyo) "n'est pas un clone, mais elle n'est pas non plus une souris parthénogénétique" véritable, a commenté pour l'AFP Jean-Pierre Ozil, chercheur à l'Institut national de la recherche agronomique (Inra). "Elle a deux mères génétiques et une mère porteuse", a précisé Jean-Pierre Ozil. En effet, "les parthénogenèses artificielles effectuées dans les laboratoires sont des activations d'oeufs non fécondés", a-t-il ajouté en reconnaissant "l'intérêt majeur" de ces recherches. De tels travaux apportent en effet de précieuses informations sur les empreintes parentales, c'est-à-dire sur les rôles différents et complémentaires de gènes portés par les chromosomes paternels et maternels sur le développement de l'embryon. Ces recherches donnent notamment des explications sur l'impossibilité d'une parthénogenèse naturelle chez les mammifères, Selon Tomohiro Kono, cette nouvelle technique pourrait être utilisée à des fins agricoles et scientifiques. Des experts y voient, eux, d'éventuelles implications dans le traitement de maladies par le biais de cellules isolées.

Figaro : http://www.lefigaro.fr/sciences/20040414.FIG0321.html

Les ruses des cellules dendritiques pour informer le système immunitaire de l'infection par le virus du Sida
Samedi, 01/05/2004 - 00:00

Les lymphocytes T CD8 sont les acteurs les mieux identifiés de la réponse immunitaire contre les cellules infectées par le VIH. Ce sont les cellules dendritiques qui les informent de l'infection en leur présentant des antigènes dérivés du VIH. Il s'ensuit une prolifération des lymphocytes spécifiques du virus et l'acquisition de toutes leurs propriétés antivirales. Ainsi stimulée, la population de lymphocytes T CD8 se partage entre cellules effectrices, engagées dans la lutte contre les cellules infectées, et cellules mémoire, quiescentes, prêtes à agir ultérieurement en cas de renouvellement de la menace. La médiation des cellules dendritiques apparaît donc ici essentielle, comme elle l'est aussi dans la réponse immunitaire à nombre d'agents infectieux ou de tumeurs malignes. Cependant, dans le cas du VIH, un paradoxe existe : les cellules dendritiques, qui présentent des constituants viraux aux lymphocytes T CD8, sont elles-mêmes rarement infectées par le virus. C'est cette énigme que les chercheurs de l'équipe dirigée par Anne Hosmalin, directeur de recherche au CNRS, se sont évertués à élucider. Leurs travaux, publiés dans les annales de l'Académie des Sciences américaine, démontrent que les cellules dendritiques sont capables d'utiliser des échantillons cellulaires contenant des constituants viraux en provenance des lymphocytes T CD4, la cible principale du virus VIH. Le déficit immunitaire caractéristique du Sida est en effet lié à la destruction progressive de cette population de lymphocytes infectés par le virus. Leur mort cellulaire résulte du phénomène d'apoptose, aujourd'hui très étudié. Ce terme signifie que l'infection par le virus, éventuellement associée à l'intervention d'un lymphocyte tueur, déclenche au sein de la cellule infectée un programme de mort cellulaire. On savait déjà que des fragments de ces cellules apoptotiques peuvent être récupérés par les cellules dendritiques, leur permettant de transmettre le signal d'alerte aux lymphocytes T CD8. L'équipe d'Anne Hosmalin a précisément quantifié ce phénomène et démontré qu'il stimule plus efficacement les lymphocytes T CD8 que la présentation du virus seul. Elle a, de plus, mis en évidence un mécanisme tout nouveau d'échantillonnage par les cellules dendritiques aux dépens de lymphocytes T CD4, infectés mais vivants. Les cellules dendritiques semblent en effet capables d'internaliser de petits fragments de ces cellules, sans les tuer. Des travaux ultérieurs permettront de déterminer si ces deux modalités d'acquisition par les cellules dendritiques de constituants viraux (à partir de lymphocytes T CD4 soit apoptotiques, soit vivants) ont les mêmes conséquences pour le système immunitaire, ou bien si l'une induit une réponse protectrice et l'autre, à l'inverse, une tolérance. Dans ce dernier cas, ce serait là l'une des explications au retard bien établi avec lequel le système immunitaire des malades infectés réagit de manière efficace au VIH. Inserm :

http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite

Une percée thérapeutique majeure contre le syndrome de Gilles de La Tourette
Samedi, 01/05/2004 - 00:00

Grâce à la chirurgie, une équipe américaine est parvenue à éliminer tics, grimaces et autres symptômes présents chez un patient souffrant du syndrome de Gilles de La Tourette. Un trouble neurologique qui en France, frappe près de 20 000 personnes. " Nous sommes franchement stupéfaits par la réponse du malade " a ainsi expliqué le Pr Robert Maciunas, neurochirurgien à la Case Western Reserve University School of Medicine de Cleveland. Au terme de l'intervention, ses tics aussi bien moteurs que vocaux avaient en effet disparu ! Les auteurs ont utilisé la stimulation cérébrale profonde, une technique notamment utilisée dans le traitement de la maladie de Parkinson. " Elle offre de belles perspectives dans le traitement de cette maladie qui apparaît généralement dans l'enfance, voire à l'adolescence ". Malgré ce résultat encourageant, les auteurs restent prudents. " En présence de cette maladie, le traitement médicamenteux qui peut être efficace reste la première chose à faire ". Comme on s'en doute, après ce travail réalisé sur un unique patient, cette technique manque singulièrement de recul. Dans le syndrome de Gilles de La Tourette en tous cas. Pour en savoir davantage sur cette maladie, visitez le site de l'Association française du syndrome Gilles de La Tourette à l'adresse : http://www.afsgt-tourette-france.org/main.html, avril 2004. Hôpital Universitaire de Cleveland : http://www.uhhs.com/DisplayContent.aspx?PageID=337

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'homme utilisait déjà le feu il y a 750.000 ans
Samedi, 01/05/2004 - 00:00

Il y a 750.000 ans, des hommes préhistoriques se réunissaient autour d'un feu, à proximité d'un lac du Moyen-Orient, pour fabriquer des armes et faire cuire de la nourriture, selon les travaux publiés dans l'édition de vendredi de la revue "Science". Il s'agirait de la plus ancienne utilisation du feu en Europe et en Asie. Les chercheurs ont découvert que ces hommes primitifs chassaient, consommaient de la viande et utilisaient le feu sur un site appelé Gesher Benot Ya'aqov, au nord de la vallée de la Mer Morte, dans ce qui est aujourd'hui Israël. Développer la capacité de faire du feu "a certainement entraîné des changements spectaculaires dans leur comportement face à l'alimentation, la défense et l'interaction sociale", relève le principal auteur de l'étude, Naama Goren-Inbar, de l'Université hébraïque à Jérusalem. L'occupation de ce site remonterait à environ 790.000 années, selon l'équipe de chercheurs. Des restes de bois brûlé ont été mis au jour, ce qui accrédite la possible présence de foyers, et des petits morceaux de pierre découverts seraient la preuve de la fabrication d'outils. Le site en question comprenait aussi des preuves de la consommation d'aliments, dont des os présentant des marques d'entailles et des cassures pour pouvoir en extraire la moelle. Les éléments trouvés démontrent que les hommes primitifs mangeaient une grande variété d'animaux: chevaux, rhinocéros, hippopotames, cerfs, oiseaux, explique Goren-Inbar. Plusieurs essences de bois étaient par ailleurs utilisées sur ce site pour faire les feux: saule, peuplier, frêne, olivier sauvage. Les chercheurs ont aussi découvert des preuves de la présence à cette époque d'avoine, de vigne, de gaillet, d'orge et de différents types d'herbes. "Cela élargit notre compréhension des schémas comportementaux de ces premiers hommes", souligne le chercheur israélien. "On comprend mieux ce dont ils étaient capables de faire alors pour se réchauffer, faire cuire des aliments et affronter les dangers potentiels." Avant cette découverte, les sites recelant les preuves les plus anciennes de l'utilisation du feu en Europe ou en Asie permettait de faire remonter celle-ci à 500.000 ans. La découverte des chercheurs israéliens fait donc reculer le contrôle du feu en Europe et Asie de plus d'un quart de million d'années. Il existe des sites en Afrique qui mettraient en évidence une utilisation antérieure du feu, mais plusieurs scientifiques soutiennent que les preuves y sont ambiguës et qu'il pourrait s'agir de feux naturels. Le site israélien est au centre des mouvements de population intervenus entre l'Afrique, l'Asie et l'Europe. L'utilisation du feu pourrait avoir contribué à la colonisation des territoires froids d'Europe, qui a commencé voilà 800.000 ans. Toutefois, la découverte publiée dans "Science" laisse une inconnue: les chercheurs ne savent pas encore qui peuplait ce site. Il pourrait s'agir de l'Homo erectus, maintenant disparu, ou d'une version archaïque de l'humain moderne, l'Homo sapiens.

AP : http://fr.news.yahoo.com/040429/5/3rptj.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top