RTFlash

RTFLASH Recherche & Technologie
NUMERO 303
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Septembre 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La location de voitures à l'heure désengorge les Pays-Bas
La Commission européenne dresse son palmarès 2004 des meilleures innovations
Matière
Nouvelle étape vers l'ordinateur quantique
Espace
Eau et méthane au même endroit sur Mars: un possible indice de vie
Terre
Du pétrole dans le manteau de la Terre ?
Dans l'Atlantique nord, le réchauffement climatique bouleverse déjà les écosystèmes
Vivant
Le génome d'un arbre séquencé pour la première fois
Des substances anti-cancéreuses découvertes dans des éponges marines
L'IRM doublerait le taux de détection du cancer du sein
Les lieux enfumés plus pollués que les autoroutes
Le chromosome 5, long mais pauvre en gènes, décrypté
Une prédisposition naturelle au langage
Edito
maladie d'Alzheimer, un défi social majeur



Le ministre de la Santé Philippe Douste-Blazy a présenté le 13 septembre un plan pour favoriser un diagnostic précoce de la maladie d'Alzheimer et mieux prendre en charge les 800.000 personnes qui souffrent de cette maladie ou de troubles apparentés. Alors que 165.000 nouveaux cas sont enregistrés chaque année, un diagnostic précoce est le "seul moyen", a-t-il dit, pour ralentir l'évolution de cette maladie neuro-dégénérative du cerveau, actuellement incurable, qui conduit à une disparition graduelle des facultés intellectuelles et physiques. Stimulation de la mémoire et médicaments peuvent cependant freiner ce processus et retarder le déclin de la personne. "La maladie d'Alzheimer va devenir une des préoccupations de santé du monde moderne", a souligné le ministre de la Santé Philippe Douste-Blazy.

Le ministre a promis de renforcer les moyens des 238 consultations mémoires existantes et d'en créer cent de plus d'ici 2007, une mesure qui devrait coûter 15 millions d'euros sur trois ans. Ces centres, où une équipe pluridisciplinaire peut faire ce diagnostic complexe et démarrer la prise en charge, sont inégalement répartis : il en existe un seul dans le Limousin, mais 22 en Midi-Pyrénées et 43 en Ile-de-France. Autre mesure pour faciliter le diagnostic : une "évaluation cognitive" à partir de 70 ans va être intégrée aux consultations de prévention prévues par la loi de santé publique.

Pour mieux accompagner les malades vivant à domicile, le nombre de places d'hébergement temporaire et d'accueil de jour en "petites unités de vie" devrait passer de 2.378 en 2004 à 15.500 en 2007. Un décret, promis depuis deux ans et actuellement examiné par le Conseil d'Etat, devrait permettre à l'Assurance maladie de financer ces structures de moins de 25 places. Cette mesure vise à permettre aux familles de "souffler", a précisé le ministre, qui a aussi évoqué la création de "gardes itinérantes de nuit" susceptibles de venir sur appel de la famille ou de façon programmée pour "calmer le malade". L'Association France Alzheimer, qui doit tenir son congrès mardi à Paris, chiffre pour sa part à 100.000 le nombre de places d'accueil de jour nécessaires, alors que sept malades sur dix résident à domicile.

Répondant à une autre revendication de l'association, M. Douste-Blazy a annoncé que la maladie d'Alzheimer serait inscrite en tant que telle sur la liste des affections de longue durée, et non plus, comme actuellement, sous la rubrique "psychose, troubles graves de la personnalité, arriération mentale". Pour financer ce plan, qui prévoit aussi d'allouer 88 millions d'euros d'ici 2007 pour améliorer l'encadrement médical des établissements de personnes âgées dépendantes, 105 millions d'euros avaient été réservés sur les crédits du plan "vieillissement et solidarités" adopté cet été. Mieux former les professionnels de santé, favoriser la recherche et prendre en compte la spécificité des patients touchés par Alzheimer avant 65 ans figurent également au nombre des objectifs.

Ce plan gouvernemental est d'autant plus nécessaire qu'avec le vieillissement de notre population la maladie d'Alzheimer est en train de devenir un véritable défi médical et social. Seulement la moitié des patients sont diagnostiqués, "voire 30 % dans certains endroits", souligne Françoise Forette, présidente du Comité scientifique de l'Association France Alzheimer. Une fois le diagnostic posé, il faut soigner et aider. Malgré la dégénérescence des neurones provoquée par cette maladie actuellement incurable, le cerveau peut compenser, il est "plastique", explique le Professeur Touchon. Pour cela, il doit "être stimulé de façon plurielle, adaptée", ajoute-t-il, évoquant notamment l'art-thérapie et la musicothérapie.

Des médicaments peuvent atténuer les symptômes, précise le Professeur Bruno Dubois (La Pitié-Salpêtrière, Paris), alors que des recherches se poursuivent pour trouver des molécules susceptibles de freiner l'évolution de cette forme de démence, voire un vaccin. La maladie "commence d'abord à bas bruit", peut-être dès 40 ou 50 ans, mais les premiers symptômes visibles n'apparaissent que vingt à vingt-cinq ans plus tard, ajoute-t-il. Hormis pour des formes héréditaires très rares (0,3 % des cas), la cause première reste inconnue.

L'agrégation de protéines (peptides) amyloïdes sous forme de plaques séniles est observée, mais on ignore si c'est pour protéger le cerveau d'une protéine qui s'avérerait toxique. D'où des doutes sur les stratégies à suivre pour lutter contre la maladie, qui tue les neurones. Les techniques de neuro-imagerie pourraient favoriser un diagnostic précoce, en permettant de repérer, avant l'apparition des premiers symptômes, des altérations dans certaines zones du cerveau, explique-t-il encore. Des avancées en matière de traitement sont attendues d'ici quatre à dix ans, selon les experts.

Mais pour les familles touchées, c'est au quotidien qu'il faut assumer un parcours du combattant pour trouver aides financières, soins et structures de prise en charge. La prise en charge d'une personne souffrant de la maladie d'Alzheimer peut coûter plus de 20.000 euros par an, selon plusieurs expertises, dont certaines prennent en compte le coût de l'aide informelle des familles. Pour l'assurance-maladie, le coût estimé par la direction générale de la santé est évalué à 15.200 euros par malade vivant à domicile et 20.800 à 24.300 euros en institution, selon qu'elles sont médicalisées ou non, a rappelé Eric Badonnel, sous-directeur de la Caisse nationale d'assurance maladie. L'OCDE avait estimé en 2000 à 19.581 euros le coût annuel de la maladie en France par patient, chiffrant à 43 % de ce montant le coût médical direct, à 26 % les coûts directs non médicaux et à 31 % la part de l'entraide informelle.

Mais avant que les recherches en cours ne débouchent, d'ici une dizaine d'années, sur de réelles percées thérapeutiques, il est important de rappeler que la maladie d'Alzheimer, même chez les personnes très âgées n'est nullement une fatalité. On ne sait pas assez que cette maladie, trop souvent présentée comme inévitable, peut être très largement prévenue grâce à une bonne hygiène de vie, surveillance du cholestérol, exercice physique régulier, alimentation équilibrée et riche en vitamines E. Il semble également que la prise régulière de certains anti-inflammatoires entraîne un effet protecteur réel contre l'Alzheimer. Il est enfin démontré qu'une vie intellectuelle et sociale riche permet également de prévenir dans une certaine mesure cette maladie neuro-dégénérative. Nous devons donc mettre en oeuvre dès à présent une politique de prévention globale et ambitieuse qui pourra à long terme -20 à 30 ans- diminuer de manière considérable l'apparition de nouveaux cas.

Il faut que nos concitoyens comprennent qu'une bonne hygiène de vie constitue la première arme contre cette maladie redoutable. Quels que soient les futurs progrès de la médecine, le coût de cette politique de prévention sera toujours infiniment moins lourd pour la collectivité que celui des traitements curatifs. Il est temps que notre pays accepte cette réalité et consacre enfin à la prévention des grandes pathologies tueuses ou invalidantes, cancer, maladies de coeur, diabète, Alzheimer, des moyens humains et financiers à la hauteur des défis de société à relever.

René Trégouët


TIC
Information et Communication
La location de voitures à l'heure désengorge les Pays-Bas
Mercredi, 22/09/2004 - 00:00

Une entreprise néerlandaise de location de voitures à l'heure, Greenwheels (Les roues vertes), est devenue en moins de 10 ans une "success story" tout en désengorgeant routes et agglomérations notoirement congestionnées. "Aux Pays-Bas, nous détenons plus de 80% du marché de la location à l'heure, et en Europe, nous sommes un des plus grands", indique Jan Borghuis, membre de la direction de Greenwheels. Il refuse de dévoiler le nombre d'abonnés et le chiffre d'affaires "pour des raisons de concurrence", mais cite volontiers une étude du ministère néerlandais des Transports, selon laquelle d'ici 2010, 400.000 personnes devraient être affiliées auprès de Greenwheels ou une autre organisation comparable. Si cette projection se réalise, cela rendra 65.000 voitures actuellement en circulation inutiles, libèrera l'équivalent de 600 terrains de football en espaces de parking, diminuera de 3 milliards le nombre de km roulés aux Pays-Bas et représentera près de 11% des réductions de CO2 que le gouvernement néerlandais veut imposer au transports. Le principe autour duquel cette entreprise a grandi est simple: le consommateur ne paie que ce qu'il roule, et n'a plus à se soucier de la voiture. Greenwheels débute à Rotterdam (sud-ouest) en 1995 avec trois voitures. Moins d'une décennie plus tard, cette jeune entreprise dispose de 525 points de stationnement dans 30 des principales villes néerlandaises. A chacun de ces points, une ou plusieurs voitures attendent un utilisateur, abonné à Greenwheels, qui a réservé "sa" voiture quelques minutes plus tôt par internet ou par téléphone. Un "petit" abonné de Greenwheels peut déjà effectuer des trajets pour 2,5 euros de l'heure (5 euros en heure de pointe), auxquels il faudra ajouter quelque 0,19 euros de frais d'utilisation au kilomètre, carburant compris. Les abonnements vont de 5 à 50 euros par mois selon la consommation en km des membres. Les tarifs à l'heure et au Km sont décroissants, voire gratuits, pour les "gros" utilisateurs. "Selon l'association des consommateurs néerlandais, c'est le moyen le moins cher de rouler pour les personnes qui n'utilisent pas quotidiennement de voiture ou qui roulent moins de 10.000 km par an", explique M. Borghuis. Aux Pays-Bas, cela signifie en moyenne près de 1.600 euros d'économies sur les faux-frais (taxes, assurances, parking, entretien,...) que représente annuellement une voiture, avant d'avoir roulé le premier km. "Tous les abonnés reçoivent une carte magnétique qui permet d'ouvrir et de démarrer la voiture. Cette carte nous permet également de calculer le nombre d'heures et de km qu'a effectués le conducteur. A la fin du mois nous lui envoyons la note, comme le ferait une compagnie de téléphone", précise Jan Borghuis. Chaque voiture Greenwheels (des Peugeot 106 et 206, reconnaissables à leur peinture rouge cerise avec des décorations vertes) dispose d'un permis de parking pour la ville où elle est stationnée. Un atout de poids dans une ville comme Amsterdam où, dans certaines quartiers, l'attente pour une carte de stationnement résidentiel peut atteindre 10 ans. La voiture est équipée d'une carte-essence pour toute station-service aux Pays-Bas, d'un abonnement au Touring Club néerlandais, et elle est couverte par une assurance tous risques. Les entretiens et les nettoyages sont pris en charge, "ce qui est également un souci en moins pour nos abonnés", estime M. Borghuis.

AFP :http://fr.news.yahoo.com/040921/202/42823.html

La Commission européenne dresse son palmarès 2004 des meilleures innovations
Mercredi, 22/09/2004 - 00:00

Des RFID à l'anti-spam, plus de 400 technologies touchant aux domaines de la société de l'information ont été évaluées par des experts indépendants désignés par Bruxelles. Vingt sociétés lauréates ont été retenues parmi lesquelles quelques françaises. Vingt sociétés ont été distinguées par la Commission de Bruxelles dans le cadre du «Prix européen 2004 des technologies de la société de l'information». Chaque lauréat pourra exposer son travail lors de la manifestation IST 2004 organisée à La Haye (Pays-Bas) en novembre prochain. Au terme de laquelle, trois grands prix seront décernés. Pour sélectionner les vingt finalistes, la Commission a réuni des experts indépendants de 16 pays européens, qui ont évalué 430 produits-candidats provenant de 29 pays. D'après le palmarès diffusé le 20 septembre, les lauréats viennent de Finlande, France, Irlande, Israël, Pays-Bas, Norvège, Espagne, Suède et Royaume-Uni.Les technologies primées touchent plusieurs secteurs. La catégorie logiciels est la plus fournie, avec par exemple:

-* Baboo (Royaume-Uni), qui clone à la volée des bases de données Oracle;- l'anti-virus pour plates-formes mobiles de F-Secure (Finlande) ;

-* du traitement d'image avancé avec Turtle (Royaume-Uni) ;

-* CodecID, un nouveau mode numérique de compression et de correction d'images de Let it wave (France);

-* du traitement 3D avec Total Immersion (France) ;

-* ou encore un système anti-spam des Espagnols d'Optenet.

Dans le domaine des techniques d'identification, les RFID sont à l'honneur avec les emballages intelligents des Suédois de Cypack, alors que la PME française Elva est distinguée pour sa méthode d'identification par fréquence vocale VocalID ("Iproved"). Autres curiosités: Fogscreen (Finlande) est un système de rétro projection qui utilise un brouillard compact comme support; la société New index (Norvège) est primée pour un système d'affichage électronique adaptable sur tout type de support; ou encore le «musée virtuel des sens numériques» de Digisens (France), qui vise à reproduire en "réalité virtuelle" certains sensations tactiles ou visuelles. Chacun des vingt finalistes recevra une somme de 5.000 euros; et les trois grands gagnants 200.000 euros chacun.

ZDNet: http://www.zdnet.fr/actualites/technologie/0,39020809,39172860,00.htm

^ Haut
Matière
Matière et Energie
Nouvelle étape vers l'ordinateur quantique
Mercredi, 22/09/2004 - 00:00

NTT, l'opérateur téléphonique historique du Japon, et l'Agence Japonaise pour la Science et la Technologie (JST) ont réussi a renverser un flux de supracourant (en état de transition quantique) en un procède d'absorption d'un, deux, et trois photons, par l'irradiation d'un flux supraconducteur de qubits avec des photons micro-ondes en résonance. Dans des résultats présentes le 13 septembre a l'Université d'Aomori, NTT a confirme que la mécanique quantique, appliquée d'ordinaire aux objets microscopiques tels que les particules élémentaires et les atomes, peut également être appliquée a l'état macroscopique d'un flux supraconducteur de qubits d'une taille de six microns. Le qubit est compose de trois jonctions de Josephson, a une échelle inférieure au micromètre, et obéit aux lois de la mécanique quantique. NTT prévoit déjà d'améliorer le temps de cohérence d'un qubit, pour peut-être s'approcher progressivement de la réalisation d'un ordinateur quantique.

BE-Japon :http://www.bulletins-electroniques.com -

^ Haut
Espace
Espace et Cosmologie
Eau et méthane au même endroit sur Mars: un possible indice de vie
Mercredi, 22/09/2004 - 00:00

Les concentrations de vapeur d'eau et de méthane "coïncident de manière importante" dans l'atmosphère de Mars, ce qui pourrait constituer un "indice supplémentaire" d'existence d'une vie sur la planète rouge, suggèrent lundi des responsables de l'ESA (Agence spatiale européenne). Des analyses récentes effectuées à partir de données fournies par la sonde européenne Mars Express, note l'ESA dans un communiqué, "nous font mieux comprendre les processus géologiques et atmosphériques spécifiques à Mars, et ouvrent de nouvelles pistes concernant l'existence d'une vie actuelle sur la planète rouge". Ces résultats proviennent de données obtenues par un spectromètre planétaire dit PFS, lequel a observé qu'à une altitude comprise entre 10 et 15 km de la surface, la vapeur d'eau est présente dans l'atmosphère de manière uniforme et est intimement mélangée à ses autres composantes. L'instrument a permis de constater, à proximité de la surface, la présence de vapeur d'eau sous des formes plus concentrées dans trois grandes régions équatoriales: Arabia Terra, Elysium Planum et Arcadia-Memnonia. "Dans ces endroits, cette concentration est deux à trois fois supérieure à celle des autres régions observées", selon l'ESA. Comme l'indique Vittorio Formisano, responsable de recherche du PFS, "ces zones de plus forte concentration de la vapeur d'eau correspondent également à celles où la sonde Odyssey de la Nasa a repéré une couche de glace hydrique à quelques dizaines de centimètres sous la surface". Le PFS a également permis de faire "la même cartographie avec le méthane, et on voit qu'il y a corrélation spatiale entre les deux", explique à l'AFP Roberto Loverde, porte-parole du département Science à l'ESA. "Nous disposons là d'une nouvelle pièce du puzzle dans la compréhension de ce qui pourrait être une vie possible, passée ou présente, sur Mars", a-t-il ajouté. L'équipe en charge du PFS a constaté que les zones de plus forte concentration en méthane sont les mêmes que celles où la vapeur d'eau et la glace hydrique souterraine sont également concentrées. "On peut supposer que cette corrélation spatiale entre la vapeur d'eau et le méthane s'explique par une origine souterraine commune", selon l'ESA. L'instrument PFS a également détecté des traces "d'autres gaz" dans l'atmosphère martienne, ajoute le communiqué de l'ESA sans donner plus de précision. "D'autres études détermineront s'il existe un lien de causalité entre ces gaz et l'eau et le méthane, ce qui contribuera à apporter une réponse aux questions non résolues.

ESA. :http://sci.esa.int/science-e/www/object/index.cfm?fobjectid=35854

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Du pétrole dans le manteau de la Terre ?
Mercredi, 22/09/2004 - 00:00

Des chercheurs estiment que des hydrocarbures peuvent se former à 100 ou 300 mètres de profondeur dans le manteau terrestre. Les réserves de gaz naturel et de pétrole aujourd'hui exploitées se situent à moins de 10 Km de profondeur dans la croûte terrestre. Ces hydrocarbures sont formées par des processus de dégradation biologiques.Il en va tout autrement à 200 mètres de profondeur. Henry Scott (Indiana University, USA) et ses collègues ont reconstitué dans leur laboratoire les conditions de pression et de température du manteau terrestre à cette profondeur. Ils ont emprisonné de l'oxyde de fer, du carbonate de calcium et de l'eau entre deux couches de diamant, puis soumis l'ensemble à une pression 50.000 à 110.000 fois plus élevée que celle du niveau de la mer et à une température de 1.500°C. Dans ces conditions extrêmes, Scott et ses collègues ont observé la formation de méthane, l'un des principaux hydrocarbures. Ces résultats, publiés dans les PNAS, suggèrent que des réserves de gaz ou de pétrole dormiraient très profondément. Il ne faut pas y chercher pour autant une réponse rapide à la crise pétrolière. Même si leur existence était confirmée il n'est pas certain que de telles réserves seraient exploitables.

PNAS : http://www.pnas.org/

Dans l'Atlantique nord, le réchauffement climatique bouleverse déjà les écosystèmes
Mercredi, 22/09/2004 - 00:00

Dans le nord-est de l'Atlantique, des côtes scandinaves et islandaises aux côtes espagnoles, les pêcheurs pourraient voir leurs prises, dans les prochaines années, se réduire fortement. A mesure que les effets du réchauffement se feront sentir, les ressources halieutiques, déjà touchées depuis les années 1960, pourraient décroître. L'une des causes de ce déclin annoncé tient à la surexploitation des océans, disent la majorité des écologistes. Sans doute, mais seulement pour partie. Il tient aussi aux variations des quantités disponibles de plancton, qui sont, elles, plus directement liées au réchauffement climatique qu'aux excès de la pêche industrielle. Deux chercheurs, un Britannique et un Sud-Africain, révèlent, dans l'édition du 10 septembre de la revue Nature, une forte corrélation entre la température de surface de l'océan et l'abondance de phytoplancton. Or ces petits organismes sont, dans les écosystèmes marins, à la base de la chaîne alimentaire, et les moindres variations de leur concentration peuvent avoir d'importantes répercussions sur l'équilibre écologique du milieu. Pour étudier le lien entre température de surface et abondance de plancton, Anthony Richardson et David Shoeman ont utilisé le Continuous Plankton Recorder, la plus grande base de données mondiale disponible sur ces petits organismes. Tous les mois depuis plusieurs décennies, cet outil enregistre, secteur par secteur, des informations à partir d'échantillons prélevés dans la mer du Nord et dans l'Atlantique. Cette base de données unique, créée par la Sir Alister Hardy Foundation for Ocean Science (Sahfos), a permis aux chercheurs de travailler avec des données remontant à 1958. Plus de 115 000 échantillons de plancton ont ainsi pu être étudiés. Les évolutions constatées, sur une période de plus de quarante ans, ont été mises en relation avec les données de température de l'Office météorologique britannique.Le constat est éloquent. Non seulement l'abondance des populations de plancton est affectée par le réchauffement climatique, mais leur structure l'est également. Certaines espèces migrent, en effet, vers les secteurs les plus froids, fuyant les zones sujettes à un plus fort réchauffement. La diversité du plancton est donc aussi affectée.Le lien entre les quantités de ces petits organismes et les ressources halieutiques est-il si évident ? Une étude dirigée par Grégory Beaugrand, chercheur au laboratoire Ecosystèmes littoraux et côtiers (CNRS/université Lille-I), publiée en décembre 2003 par la revue Nature, a donné les premières indications en ce sens. Ces travaux, qui utilisaient également les données du Continuous Plankton Recorder, ont montré que la pêche industrielle n'expliquait pas, à elle seule, la baisse catastrophique des stocks de morue en mer du Nord, contrairement aux hypothèses jusqu'ici formulées par une grande part des spécialistes.Cette recherche exploite un indice planctonique caractérisant à la fois la quantité et la composition du plancton disponible. Cet indice explique 50 % de la variabilité du "recrutement" de la morue en mer du Nord, disent M. Beaugrand et ses collègues, qui mettaient déjà en évidence, voilà près d'un an, une relation entre les variations de l'indice planctonique et les fluctuations de la température de surface.

Ces conclusions vont donc dans le sens de l'étude publiée par Nature. Ces deux publications indiquent que d'importants bouleversements sont à l'oeuvre dans l'Atlantique et dans la mer du Nord. Ils ne feront que s'accentuer. Pour le néophyte, ils peuvent paraître d'autant plus étonnants qu'ils ne sont liés - à en croire les données fournies par MM. Richardson et Shoeman - qu'à d'infimes variations des températures de surface : 0,1° C à 0,4° C, en fonction des secteurs étudiés.Or, rappellent les chercheurs, les projections du GIEC (Groupe intergouvernemental pour l'évolution du climat) tablent sur des prévisions autrement plus importantes. Voire inquiétantes. Selon les zones, les températures des eaux du nord-est de l'Atlantique devraient augmenter de 2° C à 4° C d'ici à 2100. Et toutes les eaux océaniques seront touchées par le réchauffement, argumentent les chercheurs, qui concluent leur étude en affirmant que les impacts qu'ils prévoient sur les écosystèmes marins "se feront également sentir, globalement, sur les écosystèmes terrestres". Dont l'homme fait partie, il n'est pas inutile de le rappeler.

LeMonde :http://www.lemonde.fr/web/article/0,1-0@2-3238,36-379597,0.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le génome d'un arbre séquencé pour la première fois
Mercredi, 22/09/2004 - 00:00

Le peuplier n'a plus de secrets pour les scientifiques: plusieurs équipes de chercheurs à travers le monde ont mis au point collectivement l'inventaire de ses 40.000 gènes, premier séquençage complet du génome d'un arbre, annonce mardi l'Institut national de la recherche agronomique (INRA).Ce décryptage "permettra, grâce à des travaux complémentaires en physiologie, en biologie et en écologie, une avancée spectaculaire des connaissances sur les arbres", souligne l'INRA dans un communiqué.Le peuplier (Populus), "essence déjà connue pour sa grande valeur économique et son intérêt environnemental, accède ainsi au statut d'arbre-modèle pour des dizaines de laboratoires", ajoutent les chercheurs de l'institut français. Cet arbre a été choisi en raison de son génome relativement compact: presque 50 fois plus petit que le génome du pin, ce qui en fait l'arbre-modèle idéal, explique l'INRA dans un communiqué. Le génome du peuplier comporte 19 paires de chromosomes, soit quatre fois plus que le génome de la première plante séquencée il y a quatre ans: l'arabette. Quelque 200 scientifiques du monde entier, dont quatre équipes de l'INRA en France et en Belgique, réunis au sein d'un consortium international, ont participé à cette première, sous le coordination de trois organismes (américain, canadien et suédois). Stefan Jansson, coordonnateur du projet, devait présenter ces travaux dans la journée à l'INRA d'Orléans (Loiret). Les équipes françaises ayant collaboré à ce programme "se réjouissent du décryptage de ce génome qui accélérera les programmes de recherche déjà en cours à l'INRA", notamment sur la formation du bois, la nutrition, la résistance à la sécheresse et aux pathogènes ou encore le fonctionnement des symbioses mycorhiziennes (association entre un champignon et les parties souterraines de certains végétaux). Les connaissances ainsi acquises ont une portée plus générale. "Elles aideront à améliorer les propriétés sylvicoles et biotechnologiques d'autres espèces d'arbres et conduiront à une gestion plus durable des milieux forestiers", concluent les chercheurs.

INRA :http://www.inra.fr/Internet/Directions/DIC/PRESSE/COMMUNIQUES/comm124.htm

Les nanotechnologies contre le cancer
Mercredi, 22/09/2004 - 00:00

Le National Cancer Institute (NCI) vient d'annoncer le lancement d'un programme de 144 millions de dollars sur 5 ans destiné à développer l'emploi des nanotechnologies dans la lutte contre le cancer. L'objectif est de mettre au point, au niveau moléculaire, des structures capables de détecter et détruire les cellules cancéreuses. Aux Etats-Unis, différentes approches sont en cours d'évaluation, dont certaines sont prometteuses. Sur le plan thérapeutique, de nombreux produits issus des nanotechnologies sont en cours d'évaluation. Tous ces médicaments anticancéreux en évaluation combinent des agents capables de cibler de manière exclusive un type de tumeur, associés à un produit chimique ou physique ayant le pouvoir de détruire les cellules cancéreuses sur lesquelles il s'est fixé. Les agents «ciblants» peuvent être des anticorps capables de se fixer sur leurs antigènes spécifiques au niveau des tumeurs. Les agents thérapeutiques sont éventuellement chimiques ou encore physiques. Par exemple, certaines nanoparticules n'exerceront leurs effets destructeurs au niveau des cellules cancéreuses que placées dans un champ magnétique, à la lumière, ou encore confrontées à la chaleur. Le Massachusetts General Hospital travaille ainsi sur des nanoparticules magnétiques susceptibles, une fois injectées au malade, de renforcer l'efficacité des examens d'Imagerie par résonance magnétique (IRM). Dans les laboratoires de la Rice University (Texas), on cherche à produire des particules à base d'or capables de se fixer sur des tumeurs et, sous l'action d'une lumière proche de l'infrarouge, de chauffer et d'éliminer les cellules environnantes. Enfin, la dernière approche fait intervenir de petites particules qui progresseraient jusqu'aux tumeurs malignes pour y délivrer les principes actifs des médicaments et augmenter ainsi l'efficacité des chimiothérapies classiques. Les nanotechnologies devraient aussi affiner considérablement l'imagerie radiologique des tumeurs et rendre capable, toujours selon les experts du NCI, la visualisation des tumeurs quand elles n'ont encore que 100 000 cellules, au lieu de 1 milliard au moins, aujourd'hui. Cela grâce notamment à des nouveaux agents de contraste fabriqués à partir de nanoparticules spécifiques permettant de révéler, lors d'examens par résonance magnétique nucléaire, des cancers de toutes petites tailles.

USAT:http://www.usatoday.com/news/health/2004-09-12-nanotechnology-cancer_x.htm

Des substances anti-cancéreuses découvertes dans des éponges marines
Mercredi, 22/09/2004 - 00:00

Des scientifiques australiens ont passé un accord mercredi avec une firme pharmaceutique autrichienne pour développer des médicaments anti-cancéreux à partir de substances chimiques découvertes dans des éponges marines et des algues. Les chercheurs de l'Institut australien des sciences marines (AIMS) ont indiqué que les substances attaquaient les cellules d'un ou deux types de cancer sans porter atteinte aux cellules saines. "Nous avons découvert des organismes qui ont été identifiés comme ayant une activité potentielle contre le cancer du sein ou la leucémie", a déclaré Lyndon Llewellyn, pharmaco-biologiste à l'AIMS. "Il y a des substances chimiques dans ces organismes qui tuent les cellules. Un certain nombre d'entre elles ont déjà été identifiées et en sont au stade pré-clinique", a-t-il indiqué. Selon l'accord conclu mercredi, l'AIMS va faire équipe avec le laboratoire autrichien Faustus pour que ces travaux aboutissent à l'élaboration de médicaments. Un responsable de l'AIMS a précisé que des recherches similaires étaient en cours en Espagne et aux Etats-Unis mais que le projet australien était plus avancé. L'AIMS étudie les organismes marins dans l'objectif de découvrir des traitements anti-cancéreux depuis les milieu des années 80 et a développé l'une des plus vastes collections publiques au monde de substances extraites de plus de 20.000 organismes marins d'Australie.

AFP :http://fr.news.yahoo.com/040915/202/41y3f.html

L'IRM doublerait le taux de détection du cancer du sein
Mercredi, 22/09/2004 - 00:00

L'imagerie par résonance magnétique (IRM) utilisée pour la détection du cancer du sein est deux fois plus efficace que les mammographies conventionnelles, selon une étude canadienne publiée dans le "Journal of the American Medical Association".Les chercheurs recommandent toutefois que l'IRM soit utilisée pour les femmes présentant un risque important de développer ce type de cancer, compte tenu du coût élevé de la procédure et du grand nombre de faux résultats positifs.Les chercheurs ont également enquêté sur l'utilisation des ultrasons pour découvrir les tumeurs, mais n'y ont vu aucun avantage majeur sur les mammographies.Cependant, en faisant un usage combiné de ces trois méthodes de détection et des examens des seins en clinique, il devient possible d'identifier des tumeurs qui échapperaient autrement aux systèmes de détection individuels, souligne la responsable de ces travaux, le Dr Ellen Warner, du Sunnybrook Regional Cancer Centre de Toronto."De tous les tests, l'IRM est la plus performante", a déclaré mardi le Dr Warner, en faisant état de ses conclusions. "Nous ne recommandons pas que les femmes subissent ce test. Nous disons seulement qu'il peut détecter des tumeurs cancéreuses plus tôt que les autres moyens. Vont-elles vivre plus longtemps à cause de ça? Nous ne le savons pas encore."Malgré tout, une détection précoce peut éviter aux femmes d'avoir à suivre une chimiothérapie ou même de subir une mastectomie. Selon le Dr Warner, plus le cancer est découvert rapidement, plus il est facile à traiter.

JAMA :http://jama.ama-assn.org/current.dtl

Les lieux enfumés plus pollués que les autoroutes
Mercredi, 22/09/2004 - 00:00

L'air respiré dans les bars et autres lieux enfumés présente jusqu'à 50 fois plus de particules cancérigènes que les autoroutes et les rues encombrées de véhicules diesel aux heures de pointe, selon une étude américaine qui fait apparaître que la pollution disparaît presque entièrement dès lors que le tabac est interdit. Cette étude menée par le biophysicien James Repace, premier chercheur à avoir démontré la toxicité du tabagisme passif, tend à démontrer que les lieux enfumés sont exposés à une plus grande concentration de particules polluantes que ce qui est autorisé à l'extérieur. L'étude est publiée dans le numéro de septembre du "Journal of Occupational and Environmental Medicine" (Journal de médecine du travail et de l'environnement). Elle a été financée en partie par la Fondation Robert Wood Johnson, l'organisation caritative américaine la plus importante dans le domaine de la santé. "Cet article devrait aider les communes dans leur lutte contre l'usage du tabac", prédit James Repace, aujourd'hui responsable d'une consultation de tabagisme passif après s'être consacré à la recherche publique pendant trente ans. "Il montre combien l'interdiction du tabac est bénéfiques aux personnels hospitaliers." James Repace a analysé l'air ambiant dans différents lieux enfumés, notamment un casino, une salle de billard et six bars du Delaware (nord-est des Etats-Unis), en novembre 2002 et janvier 2003, deux mois après que l'Etat ait fermement interdit l'usage du tabac à l'intérieur. Ses détecteurs ont mesuré deux substances responsables de cancers liés au tabac: les hydrocarbones polycycliques aromatiques, ainsi que des particules suffisamment fines pour pénétrer les poumons. "Ce sont les substances les plus dangereuses dans le domaine du tabagisme passif", a souligné James Repace, intervenant à l'école de médecine de l'Université Tufts de Boston. Repace a découvert 231 microgrammes de microparticules en moyenne par mètre cube dans les huit lieux publics nocturnes étudiés dans le Delaware. Soit 15 fois les 15 microgrammes autorisés par l'Agence américaine de l'environnement dans l'air extérieur et 49 fois plus que la quantité retrouvée sur les voies express aux heures de pointe... Les huit sites analysés présentaient une moyenne de 134 nanogrammes d'hydrocarbones polycycliques aromatiques par mètre cube, soit cinq fois le niveau de l'air extérieur. Selon le chercheur, ces travaux montrent combien les systèmes de ventilation, alternative à l'interdiction de fumer, ne permettent pas de changer l'air ambiant suffisamment rapidement pour éliminer la fumée.Une fois entrée en application l'interdiction de fumer dans les lieux publics, le niveau de ces substances cancérigènes a diminué de 90% ou plus, l'air intérieur étant pratiquement le même que l'air extérieur."Ceci démontre clairement que l'interdiction de fumer entraîne une amélioration notable de la qualité de l'air", relève le Dr Jonathan Foulds, directeur du programme de dépendance tabagique à l'école de santé publique du New Jersey. Une observation qui, selon lui, devrait servir à faire pression sur le législateur.Le Delaware, le Massachusetts et l'Etat de New York ont interdit de fumer sur les lieux de travail, dans les restaurants et les bars. La Californie et le Connecticut ont fait de même,

JOEM :http://www.joem.org/




Le chromosome 5, long mais pauvre en gènes, décrypté
Mercredi, 22/09/2004 - 00:00

La connaissance du génome humain poursuit sa progression avec la livraison du décryptage complet et de l'analyse du chromosome 5 liés à diverses maladies, dont une maladie neuro-musculaire, selon la revue scientifique britannique Nature. La version peaufinée de la séquence de ce chromosome, relativement pauvre en gènes, est décrite dans la revue par l'équipe de Jeremy Schmutz (Stanford Human Genome Center, Palo Alto, Californie) qui a conduit ce travail. Le chromosome 5 ne recèle que 923 gènes, dont 66 sont connus pour être impliqués dans des maladies, selon les chercheurs participant au Projet Génome Humain international du secteur public. Le grand décryptage du génome humain par le consortium public s'était officiellement achevé en 2003. Mais restait à affiner l'analyse chromosome par chromosome; une mission remplie à présent sur une douzaine d'entre eux. L'être humain a 22 paires de chromosomes semblables deux par deux, ainsi qu'une paire de chromosomes sexuels déterminant son sexe (XX pour la femme, XY pour l'homme). Des anomalies d'un gène SMN, qu'avait isolé une équipe française sur ce chromosome, sont liées à certaines formes d'une maladie neuro-musculaire, l'amyotrophie spinale, qui entraîne une atrophie (fonte) des muscles. L'analyse de la région concernée du chromosome pourrait contribuer à mieux comprendre les différents degrés de gravité de cette affection, selon les chercheurs. Le travail fourni sur cette pièce du patrimoine génétique pourrait par ailleurs contribuer, selon eux, à améliorer les connaissances dans le domaine immunitaire, voire dans celui de l'asthme, ainsi que sur l'évolution des espèces. En effet environ un tiers du chromosome 5 est similaire à un chromosome déterminant le sexe du poulet. Après leur séparation au cours de l'évolution, il y a 300 millions d'années, mammifères et oiseaux, auraient ainsi développé chacun leur propre méthode de créer des mâles et des femelles, d'après les chercheurs.

Nature :http://www.nature.com/nature/focus/humangenome/5.html

Une prédisposition naturelle au langage
Mercredi, 22/09/2004 - 00:00

Les enfants sont-ils capables d'acquérir le langage comme ils apprennent à marcher, avec leurs propres réflexes ? C'est ce que suggère Ann Senghas, qui a étudié le cas unique de l'école pour sourds de Managua, au Nicaragua. Créée à la fin des années 1970, cette école tentait d'enseigner l'espagnol à ces enfants. Mais ceux-ci ont peu à peu développé leur propre langage, devenu depuis le langage des signes du Nicaragua (LSN). Tout en étant propre à cette communauté, ce langage présente des points communs avec les autres langues, expliquent Sanghas et ses collègues dans la revue Science. Ces chercheurs ont été frappés de l'évolution du LSN : si les plus âgés utilisent ont encore des gestes proches de la pantomime, les plus jeunes ont raffiné le langage, lui donnant davantage de structure grammaticale. Exemple : un adulte exprime le type de mouvement et sa direction en un seul geste, tandis que les enfants séparent les deux notions. Cette segmentation est considérée comme une base nécessaire à tout langage. Senghas en déduit donc qu'il existe une capacité à apprendre le langage en dehors de toute structure préexistante et de toute transmission. Une sorte de conception innée de la grammaire. Comme le réflexe de la marche.

S&A :http://sciences.nouvelobs.com/sci_20040917.OBS7142.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top