RTFlash

RTFLASH Recherche & Technologie
NUMERO 136
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 02 Mars 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Des professionnels du web interpellent les autorités françaises
Le service public à l'heure du numérique
Le moteur avance, les utilisateurs rament
Des exosquelettes pour augmenter les capacités du futur soldat
Le vidéoprojecteur le plus petit
STMicroelectronics invente la mini-caméra couleur pour portables
Terre
La France de 2060 vue par les scientifiques
Vivant
Un allié sous-marin contre le cancer
Les virus, nouveaux alliés contre le cancer
Comment contraindre le cancer à rester en sommeil
Myopathies et troubles vasculaires : des causes communes ?
Vers l'abandon du cathéter pour le diagnostic des maladies cardio-vasculaires ?
Les infections courantes aussi à l'origine de l'artériosclérose
Accidents vasculaires cérébraux : attaquer le caillot "sur place" ?
Prévention des attaques : mieux que l'aspirine ?
Une peau de vache qui a du coeur !
Découverte d'une nouvelle étape de la division cellulaire
Protéines "multi-brins"
Bacille de la lèpre : seulement 400 gènes clefs
Un cerveau artificiel pour prévoir la schizophrénie
Et si faire du sport rendait plus intelligent ?
Des chercheurs améliorent la congélation des ovocytes
Cancers traités par thérapie génique chez la souris
Recherche
Le futur en dix technologies
Edito
La vie est-elle banale dans l'Univers ?



Une récente étude des étoiles voisines de la terre, réalisée par l'Institut d'astrophysique à l'Université de Toronto pourrait bien bouleverser notre approche de la question de la vie dans l'univers. En effet, en étudiant la proportion de fer, grâce à des analyses spectroscopiques, de 642 étoiles "proches" de notre soleil, à l'échelle galactique, les chercheurs ont observé des niveaux étonnamment élevés de fer qui permettent d'extrapoler la présence, autour de plus de la moitié de ces étoiles, de planètes d'une composition physique sensiblement comparable à celle de la terre. Ces observations ne permettent pas toutefois de connaître la taille des planètes en question ni leur distance par rapport à leur soleil. Mais si on étend ces observations statistiques à l'ensemble de notre galaxie, avec ses 100 milliards d'étoiles, cela signifie qu'il existerait des milliards de planètes semblables à la terre. Même en éliminant, parmi ces "exoterres", toutes celles qui sont trop proches ou trop lointaines de leur étoile, on peut donc raisonnablement imaginer qu'il existe dans notre galaxie de très nombreuses planètes possédant des conditions physico-chimiques proches de celle de notre terre et donc permettant, au moins en théorie, l'apparition et le développement de la vie telle que nous la connaissons. Cette découverte, si elle est confirmée dans les années à venir par de nouveaux moyens d'observation, vient éclairer d'une lumière nouvelle et passionnante les récentes expériences réalisées en partenariat par le laboratoire d'Astrochimie du Ames Research Center de la NASA et le Département de Biochimie de l'Université de Santa Cruz. Ces expériences ont montré que la formation de cellules primaires était possible dans l'espace, apportant ainsi des éléments nouveaux dans la recherche des origines de la vie. En reconstituant un environnement spatial hostile (vide, froid et soumis à de multiples radiations), l'équipe de chercheurs menée par Louis Allamandola du Centre Ames a réussi à provoquer la formation de composés chimiques particuliers. Ceux-ci se présentent sous la forme de petites bulles similaires à des membranes cellulaires, c'est-à-dire semi-perméables et permettant des échanges avec l'extérieur. Ces résultats surprenants suggèrent que la vie n'est pas forcement apparue sur Terre, mais qu'elle aurait pu naître dans l'espace avant d'être apportée sur Terre par une météorite ou un astéroïde. La vie pourrait également être présente partout dans l'espace sous forme primitive. La prochaine étape pour l'équipe de scientifiques californiens consistera à vérifier si leurs « bulles » peuvent supporter une activité cellulaire interne, en y injectant des molécules d'ADN et d'ARN. Ces recherches confirment d'autres observations qui ont montré depuis une dizaine d'années que la vie est capable de subsister et de se développer dans des conditions extrêmes, et presque inimaginables, de taille (nanobactéries), de pression et de température. A cet égard, la découverte récente la plus extraordinaire est celle qui vient d'être annoncée par des scientifiques américains du Centre spatial Johnson de Houston ( http://amesnews.arc.nasa.gov/releases/

2001/01_14AR.html ). Ces derniers ont découvert, dans une météorite en provenance de Mars, un cristal de magnétite qui n'a pu être formé que par un microbe, ce qui pourrait être une preuve de la plus ancienne forme de vie jamais trouvée. Les scientifiques américains ont indiqué que leur minéral magnétique cristallisé, appelé magnétite, trouvé sur une météorite, était semblable aux cristaux formés sur terre par des bactéries. Mme Thomas-Keprta, astrobiologiste ayant participé à ces recherches, précise que la magnétite ne peut pas provenir d'organismes terriens, car elle se trouvait dans la météorite, à l'intérieur d'un morceau de carbone vieux de 3,9 milliards d'années. ''C'est la vie la plus ancienne jamais trouvée'', s'est enthousiasmée la scientifique. Depuis 1996, les progrès extraordinaires de l'observation astronomique ont permis de découvrir 53 planètes extrasolaires (qui sont pour la plupart des géantes gazeuses) et cette moisson ne fait que commencer. En effet, la NASA souhaite vivement lancer sa grande mission d'interférométrie spatiale en 2006. Elle sondera la centaine d'étoiles qui nous sont les plus proches avec une finesse telle qu'elle permettra la détection de planètes de type terrestre dans un rayon de 9 années-lumière de la Terre. La NASA a également dans ses cartons un projet de satellite entièrement consacré à la recherche d'exoplanètes. Il observerait environ 100 000 étoiles et en particulier celles de type de F, G et K, susceptibles d'offrir les conditions idéales à l'émergence de la vie et se rapprochant le plus du Soleil (G2V). Il serait capable de détecter les planètes présentes dans la zone d'habitabilité de l'étoile. Jusqu'à présent, nous devions nous contenter de "déduire" indirectement la présence d'une planète en observant les perturbations gravitationnelles provoquées par celle-ci mais d'ici une dizaine d'années, il deviendra possible d'observer directement des planètes comparables à notre terre qui graviteraient autour des étoiles les plus proches. Il se pourrait alors que nous découvrions que la vie, loin d'être le fruit d'un extraordinaire et improbable hasard, est à l'échelle cosmique un phénomène beaucoup plus banal que nous le supposions.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Des professionnels du web interpellent les autorités françaises
Samedi, 03/03/2001 - 00:00

Une trentaine de professionnels du web ont exhorté le 28 février les autorités françaises à favoriser "dans les plus brefs délais" la mise en place de forfaits de connexion illimitée, seul moyen selon eux de "démocratiser immédiatement internet en France". "Aujourd'hui, seule la mise en place dans les plus brefs délais d'une interconnexion forfaitaire illimitée (IFI) permettra aux Français de bénéficier d'offres forfaitaires illimitées à un tarif abordable", estiment-ils dans une lettre ouverte sous forme de pleine page de publicité parue dans la presse quotidienne. L'IFI permettrait aux fournisseurs d'accès de payer France Télécom au forfait et non à la durée. La lettre est adressée au président Jacques Chirac, au Premier ministre Lionel Jospin et aux ministres de l'Economie et de l'Industrie, Laurent Fabius et Christian Pierret. Les signataires déplorent que "les conditions et les délais de mise en place de l'IFI demeurent incertains et préoccupants" alors que le gouvernement s'est récemment prononcé en faveur de cette réforme. "Le coût et le manque de transparence de la facturation constituent les principales barrières à l'appropriation d'Internet par les Français", dont "19% des foyers sont connectés, contre 29% des foyers allemands, 35% des foyers anglais et plus de 50% des foyers scandinaves ou américains", soulignent les signataires. "Il est aujourd'hui urgent (...) que les pouvoirs publics et le régulateur demandent à France Télécom d'accélérer la mise en place opérationnelle d'une IFI permettant un prix pour l'internaute français proche des 100 francs par mois", ajoutent-ils. Les signataires, parmi lesquels figurent les noms de Stéphane Treppoz, pdg de AOL France et grand habitué du lobbying sur ce thème, Jean-Marie Messier, pdg de Vivendi Universal ou Philippe Guillanton, directeur général de Yahoo! France, demandent la mise en place de l'IFI "dès le printemps 2001".

AFP : http://fr.news.yahoo.com/010228/1/z7d0.html

Le service public à l'heure du numérique
Samedi, 03/03/2001 - 00:00

Intéressé sinon préoccupé par ce qui se trouve dans mon assiette, j'ai évidemment été interpellé par l'avis rendu par l'Agence française de sécurité sanitaire des aliments (AFSSA) concernant «les matériaux à risque chez les ovins et les caprins», lequel a eu pour conséquence de provoquer une mini-crise, après les critiques émises à son encontre par le président de la République. Aussi lorsque j'ai appris que la patron de l'AFSSA répondrait aux questions des journalistes sur une station de radio, j'ai pris soin de bien écouter les paroles de celui qui a aujourd'hui le pouvoir de dire ce que je peux ou non mettre dans mon assiette. Je dois dire que j'aurais préféré qu'il y eut en son temps un organisme qui contrôlât la nourriture donnée aux animaux. Parenthèse refermée. ,A la première question portant sur ledit avis, le responsable de l'AFSSA a répondu de façon très lapidaire en renvoyant les auditeurs sur le site de l'AFSSA sans en donner l'adresse - c'est pratique ! - pour qu'ils se fassent leur propre opinion. Evidemment, à 8 h 20 du matin, se connecter à Internet pour aller consulter un document officiel, alors que vous êtes encore un peu dans le gaz, ne suscite pas un enthousiasme débordant. Et puis, il faut aller travailler. Le site de l'AFSSA attendra... Cette petite mésaventure m'a rappelé que les organismes gouvernementaux français et étrangers étaient de plus en plus nombreux à s'implanter sur la Toile et à proposer des informations ou des rapports relevant de leurs attributions. Le seul problème, c'est qu'il n'est pas toujours facile de savoir à quelle adresse ils sont hébergés et, surtout, quelles sont les nouveautés proposées sur ces différents sites. Et à moins de passer des heures à les consulter les uns après les autres, vous passerez forcément à côté de quelque chose d'important, comme la mise en ligne des résultats du recensement de mars 1999 qui sont désormais disponibles sur le site de l'INSEE. Je me suis alors souvenu qu'il existait AdmiFrance, annuaire contenant les URL des sites officiels français. J'ai fini par retrouver son adresse et découvrir que le site avait été rebaptisé Service-Public. Plus qu'à un changement de nom, les responsables du site ont procédé à une refonte complète et intelligente de son contenu, ne se contentant plus d'indexer des adresses mais de fournir des liens en fonction de l'actualité des sites gouvernementaux. Le seul regret que l'on peut avoir, c'est que son existence demeure, semble-t-il, confidentielle, alors que, comme son nom l'indique, il s'agit-là d'un véritable service public. Au Royaume-Uni, le gouvernement Blair vient de lancer un site semblable qui se distingue de l'exemple français par l'accent mis sur les informations. Dirigée par un ancien journaliste, cette rubrique suscite déjà de nombreux commentaires négatifs, y compris au sein de l'administration britannique. On lui a d'ailleurs déjà donné un surnom, «Pravda.com», exprimant ainsi la crainte de le voir se transformer en un instrument de propagande travailliste, puisqu'il dépend directement du Premier ministre. UKOnline est le premier élément d'un vaste projet de gouvernement électronique. Bref, après avoir longtemps été à la traîne, les pouvoirs publics investissent le Net. Aux citoyens, désormais, de veiller à ce que l'usage qui en sera fait respecte le pluralisme.

Le moteur avance, les utilisateurs rament
Samedi, 03/03/2001 - 00:00

On l'a dit et répété : Internet est une immense bibliothèque qui abrite des images, des sons, de la vidéo, des pages en format HTML et des documents en format PDF. Inventé par Adobe, le format PDF (Portable Document Format) s'avère être une méthode très pratique pour enregistrer des documents dans leur mise en forme originale et les diffuser auprès de n'importe quel utilisateur disposant du logiciel gratuit Acrobat Reader qui permet de les lire. Utilisé régulièrement par les administrations, les entreprises ou encore les universités pour présenter des textes volumineux ou des contenus illustrés, le PDF permet ainsi de faire l'économie de pages HTML aux gestionnaires de sites. Il rend également service à l'internaute qui peut conserver l'intégralité du document dans sa mise en page originale, la notion de bibliothèque virtuelle prenant alors tout son sens. Malheureusement, les documents en format PDF disponibles sur la Toile étaient souvent difficiles à trouver, faute d'être indexés par les moteurs de recherche. Mais cela n'est plus vrai depuis que Google, l'outil de recherche le plus en vogue du moment, a décidé de procéder à l'indexation du contenu des fichiers PDF présents sur le Net. L'entreprise a ainsi ajouté 13 millions de documents au quelque 1,3 milliard de pages HTML qu'il a déjà répertoriées, soit 70 % de l'ensemble des fichiers enregistrés en ce format. Il s'agit d'une avancée considérable pour bon nombre d'utilisateurs qui pourront accéder à des milliers de documents dont ils ignoraient le contenu jusqu'à maintenant. Compte tenu du fait que la plupart des chercheurs, des universitaires ou des administrations ont adopté ce format pour présenter leurs travaux, l'initiative de Google arrive à point nommé. Pour la mener à bien, l'entreprise n'a pas lésiné sur les moyens, tant financiers qu'informatiques. Il lui a fallu développer un logiciel capable de lire le texte contenu dans les pages en PDF et allouer davantage d'espace de stockage aux informations recueillies, dans la mesure où celles-ci prennent cent fois plus de place que des données extraites de pages HTML, expliquait récemment le “New York Times”. Nul doute que cela va contribuer à renforcer la place de leader occupée par Google dans le monde des moteurs de recherche. Distingué en janvier par le Search Engine Watch comme étant le meilleur site de recherche, Google entend bien poursuivre son développement en indexant dans sa formidable base le contenu des pages en format WML et HDML utilisé en téléphonie mobile. Les internautes que nous sommes disposent donc d'un puissant outil de recherche. Reste à apprendre à l'utiliser, ce qui est loin d'être facile. Toujours pressés, nous ne prenons pas le temps de le faire, préférant taper un ou deux mots clés dans l'espoir que ceux-ci nous apportent un résultat satisfaisant. Et ce n'est malheureusement pas toujours le cas.

Des exosquelettes pour augmenter les capacités du futur soldat
Samedi, 03/03/2001 - 00:00

Doter l'homme de capacité augmentées grâce à la réalisation d'exosquelettes : depuis plus de deux ans, la Defense Advanced Research Projects Agency (DARPA) -agence de l'armée américaine- travaille au développement d'une structure anthropomorphique artificielle destinée à augmenter les capacités physiques (vitesse, force et endurance) des soldats au combat. Avec cette sorte de carapace développée dans le cadre du programme "Exoskeletons for Human Performance Augmentation" (EHPA) dirigé par Ephrahim Garcia, les GI's seront tout d'abord mieux protégés contre la puissance de feu. Parés de cet exosquelette doté de très ingénieux systèmes dignes du meilleur James Bond (tout cela reste très secret), les soldats se transformeront aussi en véritable RoboCop. Ils pourront, par exemple, porter des armes beaucoup plus lourdes, marcher plus vite, sauter plus haut... On image aussi que ces exosquelettes seront truffés d'électronique et d'interfaces intelligents... Rassurons-nous : il paraît que tout cela n'existe pour l'instant que sur le papier.

Le vidéoprojecteur le plus petit
Samedi, 03/03/2001 - 00:00

Dans la course à la miniaturisation des vidéoprojecteurs, Compaq se hisse au premier rang. Son appareil ultra portable MP2800 ne pèse en effet que 1,36 Kg. Désormais, le constructeur américain partage ce poids plume avec le japonais Mitsubishi, le premier à avoir atteint ce record de portabilité. Depuis cinq ans, les vidéoprojecteurs voient leur encombrement fondre sans pour autant sacrifier leurs performances. Après les vidéoprojecteurs portables (de 5 à 10 Kg) puis les ultra-portables (de 3 à 5 Kg), on entre maintenant dans l'ère des micro-portables, avec des appareils comparables en taille et poids aux PC portables. Le moteur de cette révolution réside dans la technologie DLP (Digital Light Processing) inventée par Texas Instruments. Au coeur de cette innovation, une puce à micro-miroirs génère l'image à partir des informations numériques. Chaque miroir fournit une sorte de pixel en réfléchissant ou pas la lumière. La puce peut contenir plus d'un million de miroirs microscopiques, gravés comme sur un circuit intégré. Cette technologie est à la base de presque tous les vidéoprojecteurs ultra et micro-portables du marché. Par rapport à la matrice LCD, elle offre un rendement lumineux bien meilleur. Parce que la lumière est seulement réfléchie, elle subit moins de pertes que quand elle traverse une matrice LCD. Résultat: pour la même luminosité d'image, on a besoin d'une lampe moins puissante qui pose moins de problèmes de chaleur et demande un ventilateur plus petit. La luminosité constitue la caractéristique clé des vidéoprojecteurs. Des images plus lumineuses sont visibles plus facilement en lumière du jour. Habituellement, plus l'appareil est compact et plus cette capacité est réduite. Compaq réussit à offrir un niveau de 1000 lumens, alors que la plupart des appareils de taille comparable se contentent de 700 lumens.

Industries&techniques :

http://www.industries-techniques.com/

STMicroelectronics invente la mini-caméra couleur pour portables
Samedi, 03/03/2001 - 00:00

C'est un véritable bijou de technologie. Ce module caméra baptisé Matisse fait moins d'un centimètre cube (10 x 10 x 7.5mm) et dispose d'une consommation électrique extrêmement réduite grâce à un capteur d'images couleurs réalisé selon la technologie C-MOS. Pour une fréquence de rafraîchissement de 15 images par seconde, la consommation est de l'ordre de 50 MW. Selon Graham Towsend, directeur technique de la division imagerie de STMicroelectronics, "cette caméra C-MOS est la 1ère à allier une basse consommation, des dimensions réduites, une tension unique et une haute qualité d'image dans un seul circuit". STMicroelectronics semblerait avoir fait un bon choix. Selon la société d'étude Cahners In-Stat, d'ici à 2004, ces caméras C-MOS devraient être intégrés dans près de 60 millions de téléphones cellulaires et 6 millions d'assistants numériques. Les ventes de capteurs d'image C-MOS devraient en effet enregistrer une très forte progression au cours des prochaines années, avec l'arrivée des téléphones cellulaires de 3ème génération, dont le débit est nettement plus important.

Europinfos : http://www5.europeinfos.com/

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La France de 2060 vue par les scientifiques
Samedi, 03/03/2001 - 00:00

En 2060, la France subira un climat moins doux dans un monde plus chaud. C'est la conclusion des expériences numériques menées par Météo France. Quelles en seront les conséquences? Bonnes pour le bâtiment, se réjouiront certains. L'élévation du niveau de la mer (environ 50 cm) et donc une grande fréquence de hautes eaux menacent les installations côtières lors des tempêtes conjuguées aux grandes marées. D'où la nécessité de bâtir de nouvelles digues et protections. Si les maçons peuvent se réjouir, l'addition présentée par Dame Nature sera saumâtre. Comme l'eau douce côtière, de surface ou de sous-sol - souvent exploitée -, qui sera envahie par le sel de mer. En Camargue, les plans d'eau salée s'étendront au sud de l'étang de Vaccarès et les marais salants des Salins-de-Giraud et d'Aigues-Mortes seront envahis par la mer. Partout, les lagunes seront redessinées, au profit des eaux salées et au détriment des étangs, modifiant les écosystèmes et les activités des ostréiculteurs. Côté catastrophes, si la prévision de tempêtes plus fréquentes se vérifie, il faudra durcir les normes de construction... ou élever les primes d'assurance. Les paysans seront diversement servis. Les sols de l'Hexagone, dopés par la hausse des températures et un gaz carbonique plus abondant, fourniront une alimentation supplémentaire à la végétation. Résultat: la production végétale pourrait augmenter de près de 30 %, mais de façon très variable selon les espèces. Ce qui se paiera par une sensibilité accrue aux épisodes de sécheresse. Pour les arbres fruitiers, des hivers trop chauds vont déclencher des floraisons trop précoces. La limite nord des cultures va remonter, mais, simultanément, la zone sud, touchée par le stress hydrique estival, fera de même. Pour la forêt, il va falloir s'adapter. Pin maritime, pin d'Alep, chêne pubescent et chêne vert, limités par les froids d'hiver, vont passer la Loire. Dans le nord, le hêtre ou le chêne pédonculé vont souffrir durant l'été sur les sols à faible réserves d'eau, alors que le chêne sessile devrait bien le supporter. Comme les fruitiers, la plupart des espèces forestières seront sensibles aux gelées de printemps survenant après des débourrements trop précoces pour cause d'hivers trop cléments. En montagne, les sapins grimperont vers les sommets, surtout dans les Alpes du Nord, tandis qu'au Sud, la végétation devra supporter de longues sécheresses estivales. Les forestiers vont devoir gérer des modifications des proportions entre espèces, travailler les sols et éclaircir les sous-bois pour améliorer l'alimentation en eau des arbres et lutter contre les maladies cryptogamiques et les pullulations d'insectes, favorisés par les hivers trop chauds. Quant à la sécurité civile et aux pompiers, ils peuvent s'attendre à des incendies plus fréquents au Sud. Pour le paludisme, l'Institut Pasteur estime sa réintroduction en France métropolitaine peu probable. Enfin, mauvaises nouvelles pour les skieurs... et les capitaux investis dans les stations de sport d'hiver de moyenne altitude. Météo France prévoit une nette diminution du nombre de jours enneigés à 1 500 m dans les Alpes : 30 de moins dans les Alpes du Nord, 37 pour celles du Sud, 59 de moins pour le Mercantour et jusqu'à 49 dans les Pyrénées. Ce sera trottinette sur herbe, été comme hiver.

Libération :

http://www.liberation.com/quotidien/semaine/20010222jeuh.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un allié sous-marin contre le cancer
Samedi, 03/03/2001 - 00:00

Un groupe de scientifiques de l'Institut National contre le Cancer aux Etats-Unis a découvert que certains organismes sous-marins pouvaient devenir des alliés fidèles pour la lutte contre le cancer. Les éponges, coraux, algues et autres organismes marins vivant dans les profondeurs de l'océan contiennent des substances chimiques capables d'attaquer les cellules cancéreuses humaines. Plus de 10 000 extraits d'organismes marins ont été collectés par l'institut. Parmi eux, le plus prometteur serait une sorte de mousse appelée bryozoan. Bryostatin, le médicament développé avec le bryozoan a montré des résultats encourageants au cours de plusieurs essais cliniques. Les scientifiques, concernés par le projet, se montrent très enthousiastes et pensent que cette découverte ouvre la voie à de nouveaux développements pour les thérapies anti-cancéreuses.

Besok : http://www.besok.com/homme/actu/acth_bs_CF.cfm?id=5562

National Cancer institute : http://www.nci.nih.gov/index.html

Les virus, nouveaux alliés contre le cancer
Samedi, 03/03/2001 - 00:00

Ces dernières années des avancées importantes ont été réalisées dans l'utilisation de virus pour développer de nouvelles thérapies anti-cancéreuses. L'idée n'est pas nouvelle puisqu'en 1904, la revue "Lancet" relatait déjà le cas d'une femme qui avait vu sa leucémie régresser à la suite d'une infection virale. Environ 10 types de virus différents font l'objet d'essai dans le cadre de thérapies anti-cancéreuses et parmi ceux-ci l'adénovirus Onyx-015 et le virus de l'Herpés HSV se sont révélés des alliés prometteurs contre le cancer. Au Massachusetts General Hospital, établissement en pointe dans ces recherches, des essais en phase III vont prochainement débuter sur des malades présentant des tumeurs rebelles de la tête et du cou. Le virus Onyx-015 utilisé a été modifié génétiquement de manière à être actif uniquement dans les cellules cancéreuses. Le virus de l'herpès, quant à lui, pourrait devenir un allié dans le traitement des cancers de la peau. Des chercheurs de l'université de Glasgow, Royaume-Uni, ont effectué des injections du virus de l'herpès modifié, HSV1716, dans des mélanomes chez cinq patients. Deux premiers patients ont reçu une unique injection de ce virus, deux autres, deux injections et un cinquième individu a reçu quatre injections. Tous les patients ont bien toléré le virus de l'herpès, signifiant que ce dernier n'est pas toxique. Chez un des patients, les chercheurs ont observé que le mélanome s'aplatissait 21 jours après les deux injections. Chez les autres individus, ils ont mis en évidence, au microscope, une nécrose évidente de la tumeur. D'autre part, les analyses des mélanomes ont révélé une réplication du virus de l'herpès. Constatation très importante, dans tous ces essais, les chercheurs n'ont constaté aucun effet néfaste de ces virus pour les cellules saines et ils considèrent à présent que les résultats sont assez encourageants pour continuer les recherches avec des doses plus importantes.

Brève rédigée par @RT Flash

Lancet :

http://www.thelancet.com/journal/vol357/iss9256/full/llan.357.9256.news.15380.1

Comment contraindre le cancer à rester en sommeil
Samedi, 03/03/2001 - 00:00

Les scientifiques pensent qu'il pourrait être possible de, maintenir les cellules cancéreuses dans un état de sommeil éternel. Contrairement aux cellules normales, les cellules cancéreuses peuvent s'opposer au processus du vieillissement et continuer à se développer. Une équipe de scientifiques dirigée par le docteur Ohtani, à l'institut Paterson à Manchester, travaille sur la possibilité d'employer une " berceuse " chimique pour contrôler cette croissance anarchique des cellules cancéreuses. Le docteur Ohtani, dont le travail est financé par la campagne de recherche sur le cancer, souligne que " si nous pouvons découvrir comment ce processus de contrôle se dérègle et évolue en cancer, nous pourrons trouver une substance chimique qui reprendra le contrôle de ces cellules turbulentes et les mettra en sommeil. " Les cellules normales peuvent diviser seulement un certain nombre de fois avant qu'elles n'entrent en sénescence. Elles restent alors vivantes mais ne peuvent plus se diviser. en étudiant ce processus, le docteur Ohtani et son équipe ont identifié un groupe de molécules qui induisent la sénescence et ils sont persuadés qu'il est possible de contrôler ce mécanisme et de mettre ainsi au point un traitement complètement nouveau du cancer. " Une des molécules impliquées s'appelle le p16INKâ et est connu pour être un " filtre à tumeur ". Il s'avère que p16INKâ est contrôlé par un certain nombre d'autres molécules. DR Ohtani et son collègue DR Eiji Hara étudient comment ces molécules travaillent ensemble pour assurer de délicat contrôle cellulaire. Le Professeur Gordon McVie, Directeur Général de la campagne de recherche anglaise sur le cancer, souligne que " l'activité perpétuelle des cellules cancéreuses - ou leur refus de se mettre en sommeil - est l'un des problèmes principaux qui se pose à la recherche actuelle. " Si l'équipe du docteur Ohtani peut découvrir comment maintenir ces cellules cancéreuses en sommeil de manière permanente, cela ouvrira de grands espoirs thérapeutiques".

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1178000/1178686.stm

Myopathies et troubles vasculaires : des causes communes ?
Samedi, 03/03/2001 - 00:00

Une équipe de l'INSERM vient de démontrer qu'une protéine impliquée dans la plus courante des myopathies congénitales le serait également dans certains troubles vasculaires. Il s'agit de la dystrophine, déjà connue pour être responsable de la myopathie de Duchenne de Boulogne, une maladie qui concerne un garçon sur 3 500 à la naissance et touche l'ensemble des muscles de l'organisme. Présente dans tous les muscles, aussi bien squelettiques que cardiaque, cette protéine serait en fait impliquée dans la manière dont les cellules " interprètent " certains signaux mécaniques. Les contractions musculaires par exemple, dans le cas de la myopathie. Mais aussi, d'après l'équipe de Daniel Henrion à l'INSERM, des signaux - de volume ou de pression - transmis aux cellules qui tapissent l'intérieur des vaisseaux. Ces recherches sont encore très fondamentales. Elles permettront peut-être de mieux comprendre les mécanismes qui mènent à la myopathie, d'expliquer les dommages qui touchent les fibres musculaires de ces malades mais aussi certains troubles du développement des vaisseaux sanguins...

INSERM :

http://www.inserm.fr/servcom/servcom.nsf/titre/actualite

Vers l'abandon du cathéter pour le diagnostic des maladies cardio-vasculaires ?
Samedi, 03/03/2001 - 00:00




L'imagerie par résonance magnétique (IRM) est la dernière-née des techniques d'imagerie médicale. De méthode d'imagerie anatomique elle est également devenue une méthode d'imagerie fonctionnelle. L'Unité de recherche en résonance magnétique médicale (U2R2M) mène plusieurs projets de recherche sur les techniques d'IRM fonctionnelle. Il a été montré que l'utilisation de gaz hyperpolarisé par un laser permet de visualiser et de quantifier la fonction ventilatoire pulmonaire. De nombreux travaux tendent à explorer par IRM les fonctions cardio-vasculaires. L'IRM devrait, à moyen terme, supplanter le cathétérisme cardiaque encore trop invasif et traumatique. L'une des méthodes essentielles d'exploration de la fonction cardiaque est le cathétérisme cardiaque qui consiste à introduire un tuyau ou cathéter, à l'intérieur des artères, jusqu'au coeur pour y mesurer la pression. Ce geste relativement traumatique doit se faire en milieu stérile sous contrôle radioscopique. L'avantage de l'IRM serait de fournir les mêmes informations mais de manière non-invasive.Cette méthode devrait trouver une application importante dans la mesure de l'hypertension artérielle pulmonaire. Cette maladie nécessite en effet un suivi régulier par des cathétérismes répétés au niveau de l'artère pulmonaire. L'IRM des pressions devrait ainsi permettre d'éviter ces traumatismes. Enfin, des recherches méthodologiques seront poursuivies pour mesurer directement la pression : connaissant la variation spatiale et temporelle de la pression en chaque point, il suffirait de connaître la pression absolue en un point et à un instant pour déduire immédiatement la pression absolue en chaque point et à chaque instant dans le système cardio-vasculaire.

CNRS Info : http://www.cnrs.fr/Cnrspresse/n390/html/n390a07.htm

Les infections courantes aussi à l'origine de l'artériosclérose
Samedi, 03/03/2001 - 00:00

Une nouvelle étude confirme l'hypothèse selon laquelle les infections courantes, gingivite, bronchite et sinusite notamment, aggravent le risque d'artériosclérose, ces dépôts graisseux qui réduisent l'orifice des artères provoquant des maladies cardiovasculaires. L'étude menée par des chercheurs italiens et autrichiens, et publiée dans le dernier numéro de Circulation, le journal de l'Association américaine du coeur, souligne que l'artériosclésose est plus fréquente chez les personnes souffrant de maladies infectieuses chroniques. Elle précise que de telles infections chroniques peuvent multiplier par trois le risque d'artériosclérose. Ces résultats pourraient expliquer pourquoi certaines personnes développent des maladies cardiovasculaires, même en l'absence de facteurs de risque classiques: hypertension artérielle, obésité, diabète, sédentarité, a déclaré le Dr Valentin Fuster de l'école de médecine de Mount Sinai à New York. Selon ce spécialiste, ces résultats démontrent l'importance du rôle joué par le médecin qui doit se montrer plus convaincant avec ses patients, notamment en martelant auprès des fumeurs la nécessité d'arrêter leur consommation, en incitant les patients en général à une bonne hygiène bucco-dentaire, et à avoir une alimentation équilibrée. Un des chercheurs, le Dr Stephan Kiechl, de la clinique universitaire d'Innsbruck en Autriche souligne tout l'intérêt de ce travail dans la prise en charge de certains accidents cardiovasculaires, notamment dans leur prévention. Pour expliquer leurs conclusions, les chercheurs suggèrent que la réaction inflammatoire consécutive à l'infection contribue à fabriquer la plaque d'athérome (dépôts graisseux). Des études complémentaires sont toutefois nécessaires pour se rendre compte de l'effet éventuel des antibiotiques ou des anti-inflammatoires sur l'évolution du processus. Pour mener à bien leur travail, les chercheurs ont observé les modifications des artères carotides, les principales artères cérébrales, de 826 hommes et femmes. Les volontaires étaient tous blancs, âgés de 40 à 79 ans, et un tiers d'entre eux souffrait d'infections chroniques. Cinq ans après le début de l'étude, 41 % d'entre eux avaient de nouveaux dépôts graisseux dans les artères carotides. Ces dépôts étaient trois fois plus fréquents chez ceux qui présentaient des infections chroniques. Le Dr Stephan Kiechl explique que la possibilité de développer de nouvelles plaques est associée à des affections bactériennes chroniques, notamment des bronchites et des sinusites, mais pas à des affections virales comme l'herpès ou l'hépatite B.

AP : http://fr.news.yahoo.com/010227/5/z0zi.html

Accidents vasculaires cérébraux : attaquer le caillot "sur place" ?
Samedi, 03/03/2001 - 00:00

Les suites d'accidents vasculaires cérébraux (AVC) par thrombose peuvent être réduites dans de larges proportions. Encore faut-il que l'équipe médicale agisse rapidement. Et si possible, directement sur le caillot qui les a provoqués. Cette intervention, la " thrombolyse in situ ", est pourtant plus complexe que la thrombolyse traditionnellement effectuée par voie veineuse. Et si elle donne de bons résultats, elle n'est pas dénuée de risques. L'équipe du Dr David Liebeskind de l'Université de Californie Los Angeles, a obtenu des résultats encourageants. La série de malades traités est relativement importante puisqu'elle compte 90 patients traités entre juillet 92 et juin 2000, âgés en moyenne de 69 ans et répartis à raison de53 % de femmes et 47 % d'hommes. La thrombolyse traditionnelle consiste à injecter une substance par le biais d'une injection intra-veineuse. Le médicament agit alors de proche en proche. Plus rapide, l'injection " in situ " se fait par l'intermédiaire d'une tubulure introduite dans l'artère fémorale au pli de l'aine, puis " poussée " sous contrôle radiologique jusqu'au siège du caillot. Le produit actif est alors injecté au contact du caillot lui-même. Il agit de manière quasi-immédiate et cette rapidité est un gage essentiel de succès. Les auteurs font état de 67 % de succès dans la levée de l'obstacle physique constitué par le caillot. Et de 40 % de récupération avec des séquelles minimales. A titre de comparaison, l'approche intra-veineuse ne lève l'obstacle que dans 30 % à 40 % des cas. Il y a toutefois un inconvénient de taille, c'est la fréquence des complications hémorragiques. Elle serait de 25 % dans l'approche directe contre 6 % par la technique traditionnelle...

Healthand Age com : http://www.healthandage.com/patient/f10_fr.htm

Prévention des attaques : mieux que l'aspirine ?
Samedi, 03/03/2001 - 00:00

Deux études, menées en Argentine pour l'une et en Espagne et au Portugal pour l'autre, relancent l'intérêt pour un médicament largement prescrit depuis... plus de 20 ans.Le triflusal vient en effet d'être présenté aux Etats-Unis dans le cadre d'une étude comparative face à l'aspirine, pour la prévention des récidives d'ischémie cérébrale. Développé en Espagne et largement prescrit dans la zone hispanophone et latine - Espagne et Portugal, Italie, Amérique latine...- ce médicament fait néanmoins figure de jeunot face à son challenger. Car l'aspirine elle, est largement centenaire ! En cas d'accident vasculaire cérébral (AVC) par thrombose, l'un et l'autre médicaments sont utilisés pour leurs propriétés anticoagulantes. Ce qui bien sûr les ferait rigoureusement contre-indiquer dans les cas d'accidents vasculaires par hémorragie cérébrale ... Les deux études présentées dans le cadre de la dernière réunion de la Société américaine pour l'Etude des attaques cérébrales ouvrent des perspectives nouvelles. Le triflusal aurait en effet donné des résultats d'aussi bonne qualité que l'utilisation quotidienne d'aspirine à faible dose, ces derniers étant néanmoins assortis d'une plus grande sécurité d'emploi. La mortalité par récidive d'AVC ou par thrombose coronaire a été du même ordre chez les malades traités par les deux médicaments. En revanche, l'allongement du temps de saignement et les incidents liés à ce phénomène ont été nettement plus élevés chez les patients qui avaient reçu de l'aspirine. A ce jour, les essais comparatifs ont concerné un peu plus de 2 500 malades. Des études complémentaires seront encore nécessaires pour évaluer précisément le potentiel des deux traitements, mais les patients auxquels l'aspirine est interdite pourraient d'ores et déjà tirer bénéfice de ces travaux.

Healthand Age com : http://www.healthandage.com/patient/f10_fr.htm

Une peau de vache qui a du coeur !
Samedi, 03/03/2001 - 00:00

Les scientifiques écossais qui ont participé à la fabrication du fameux clone de mouton "Dolly" viennent d'annoncer qu'ils sont parvenus à transformer la peau de vache en muscle du coeur et que le procédé qu'il ont mis au point pourrait un jour être employé pour créer des tissus et organes humains de rechange. La filiale américaine de la firme PPL a en effet annoncée qu'elle avait réussi à reprogrammer l'horloge génétique de cellules de peau de vache afin que celles-ci redeviennent des cellules-souches pluripotentes. Ces cellules-souches ont ensuite été programmées pour se transformer en cellules du muscle cardiaque. PPL est resté très discret sur la technique employée pour obtenir ce résultat mais l'un de ses dirigeants, Ron James, a précisé que cette technique devrait être également applicable à l'homme. Cette annonce survient alors que le débat éthique sur l'utilisation expérimentale de cellules d'embryons humains s'amplifie en Grande Bretagne, avec le récent vote de la loi autorisant une telle utilisation. Cette nouvelle voie de recherche, qui pourrait permettre à terme de se passer des cellules d'embryons humains, est donc observée avec un grand intérêt par la communauté scientifique.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1186000/1186291.stm

Découverte d'une nouvelle étape de la division cellulaire
Samedi, 03/03/2001 - 00:00

Les chercheurs de l'Institut Curie ont ''filmé'' une étape jusqu'alors inconnue de la division d'une cellule, grâce à la vidéomicroscopie. Cette technologie associe des microscopes optiques à de la vidéo, et permet d'obtenir des images en direct d'une cellule vivante, sous plusieurs angles. Le traitement informatique reconstitue en aval une image en trois dimensions. L'équipe de Michel Bornens (CNRS/Institut Curie), a ainsi mis en évidence des mouvements encore inconnus au sein de la cellule lors de sa division. Ces résultats, publiés dans la revue Science du vendredi 23 février, révèlent le rôle très important du centrosome, microstructure de la cellule. La division cellulaire se déroule en deux temps : d'abord la mitose (division), ensuite la cytodiérèse (la fission cellulaire). La séparation est définitive lorsque le pont cytoplasmique qui relie les deux cellules est rompu. Les chercheurs ont observé que le centrosome, normalement situé au centre de la cellule, se déplace au cours de la division cellulaire. Il quitte le centre pour se diriger vers le pont reliant les deux cellules filles en train de se séparer. Le retour au centre marquerait la fin de la deuxième étape. Les chercheurs ont également constaté que les cellules n'achevaient pas leur division sans centrosome. Sachant qu'une défaillance de l'un des mécanismes peut provoquer l'apparition de cellules cancéreuses, connaître ces mouvements intracellulaires est très important. Ces résultats pourraient également apporter un nouvel éclairage sur la division du noyau et la façon dont se transmettent le patrimoine génétique et les autres constituants de la cellule.

Science&Avenir :

http://quotidien.nouvelobs.com/sciences/20010222.OBS1800.html?1357

Protéines "multi-brins"
Samedi, 03/03/2001 - 00:00

Contrairement à ce qu'on croyait, le programme de fabrication d'une protéine peut être inscrit sur les deux "brins" qui constituent l'ADN.Comme ils le relatent dans le dernier numéro de Nature, Mariano Labrador et ses collègues ont fait cette découverte en induisant deux mutations sur les deux gènes mod(mdg4) d'une mouche à vinaigre. À leur surprise, lorsque ces deux gènes au nom barbare portent la même mutation, ils ne produisent plus une certaine protéine alors que la protéine en question réapparaît lorsque chacun des mod(mdg4) est porteur d'une mutation différente de celle qui touche l'autre.Les chercheurs de la Krieger School of Art and Sciences de l'université Johns Hopkins ont d'abord cru à une erreur, puis ils ont réalisé que les deux mutations en question ne touchaient pas le même "brin" d'ADN, c'est-à-dire le même "montant d'échelle" de cette molécule à la base de la vie. Une conclusion s'imposait alors : la recette de cette protéine fabriquée par les mod(mdg4) est écrite à moitié sur un "brin" d'ADN et à moitié sur l'autre. Puisque le premier lecteur de cette recette, l'ARN messager, ne peut toutefois la lire que dans un sens - c'est-à-dire lire un seul montant -, une deuxième conclusion s'imposait aussi : deux ARN messagers lisent chacun leur "brin" d'ADN, partagent ensuite leurs "notes de lecture" et ainsi, fabriquent ensemble cette protéine de mod(mdg4). Une découverte étonnante, qui montre que le génome humain, et ses interactions avec lui-même, est bien loin d'avoir livré tous ses secrets...

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N2219.asp

Nature : http://www.nature.com/nature/journal/v409/n6823/

Bacille de la lèpre : seulement 400 gènes clefs
Samedi, 03/03/2001 - 00:00

C'est avec des ressources génétiques finalement assez modestes que le bacille de la lèpre a fait -et continue à faire- autant de ravages dans le monde. Mycobacterium leprae a en effet perdu près de la moitié de son patrimoine génétique au cours du temps, révèle une analyse du génome du bacille publiée dans la revue Nature datée du 22 février. Les mêmes chercheurs qui ont annoncé en avril 2000 avoir décrypté le génome du bacille de la lèpre, l'ont comparé avec celui d'une bactérie cousine, Mycobacterium tuberculosis, l'agent infectieux responsable de la tuberculose. Stewart Cole (Institut Pasteur, Paris) et Bart Barell (Sanger Centre, R-U), ont ainsi découvert que M. leprae est beaucoup plus pauvre que sa ''cousine''. Le bacille de la lèpre a perdu près de 2.500 gènes au cours de son évolution, soit la moitié de son génome. Des gènes qui permettent par exemple de produire de l'énergie ne fonctionnent plus chez cette bactérie. Elle n'a pas non plus de mécanismes lui permettant de capter le fer, pourtant nécessaire à la croissance des organismes vivants. Tout cela contraint le bacille de la lèpre à vivre lentement. Il ne se reproduit qu'à petite vitesse, mettant ainsi 14 jours pour doubler sa population. L'avantage pour le bacille, c'est qu'il vit aussi longtemps que son hôte et qu'il peut mettre à profit cette longévité pour se répandre. Seuls 1.600 gènes sont véritablement actifs chez M.leprae, dont 1.200 qui existent chez d'autre bactéries. Les chercheurs vont donc se concentrer sur les 400 restants pour mieux comprendre les spécificités du bacille de la lèpre et mettre au point de nouveaux moyens de lutte contre cette maladie, notamment des tests de diagnostics plus précoces. On dénombre 700.000 nouveaux cas de lèpre par an dans le monde, dont près des trois quarts en Inde.

Science&Avenir :

http://quotidien.sciencesetavenir.com/sci_20010222.OBS1751.html

Un cerveau artificiel pour prévoir la schizophrénie
Samedi, 03/03/2001 - 00:00

Les scientifiques ont inventé un cerveau artificiel qui permet de détecter les signes avant-coureurs de la schizophrénie, avant même qu'elle ne se déclare chez les patients. Le système a été développé par Peter Liddle, psychiatre spécialisé en imagerie cérébrale à l'université britannique de Colombie à Vancouver. Il s'agit d'une machine modelé sur le cerveau humain et conçu pour apprendre tel que lui. Des grappes de processeurs de logiciels ont été conçu pour se comporter comme des cellules cérébrales. Le cerveau artificiel analyse le scan cérébral des patients. Il y recherche certaines caractéristiques du flux sanguin pouvant indiquer la schizophrénie. La machine s'est révélée 100% précise lors des premiers tests. Pour le Dr Liddle ce système pourrait révolutionner le traitement de la schizophrénie.

Brève @RTFlash

BBC : http://news.bbc.co.uk/hi/english/health/newsid_1182000/1182065.stm

Et si faire du sport rendait plus intelligent ?
Samedi, 03/03/2001 - 00:00

Est-il utile de citer les bienfaits qui découlent d'une activité sportive ? Si vous ne le saviez pas encore, le fait de pratiquer une activité sportive détend, tonifie les muscles, aide à se débarrasser du stress, augmente la capacité respiratoire et fortifie le coeur. Un nouveau bienfait vient s'ajouter à cette liste, et il est plutôt surprenant ! Selon deux études américaines, le fait de pratiquer une activité sportive qui sollicite particulièrement le coeur développerait les capacités intellectuelles de 15 à 20 % ! L'étude s'est penchée sur des souris : les chercheurs ont constaté que les souris qui passent leur temps à courir dans une roue se débrouillaient plus rapidement et mieux que les autres pour se sortir d'un labyrinthe par exemple. L'activité physique optimiserait les neurones et stimulerait la communication entre eux. Décidément, le sport est le meilleur ami de l'homme moderne, car il le détend, le fortifie et le rend même plus intelligent! Que demande le peuple ?

Csanté : http://www.csante.com/

Des chercheurs améliorent la congélation des ovocytes
Samedi, 03/03/2001 - 00:00

Des chercheurs italiens ont réussi à améliorer considérablement la technique de congélation des ovocytes, qui reste beaucoup plus difficile que celle du sperme ou d'embryons utilisée en routine. "C'est un espoir pour les femmes qui ont perdu leur fertilité en raison d'un traitement, par exemple contre le cancer, ou pour celles qui risquent d'avoir une ménopause précoce", souligne le Dr Raffaela Fabbri de l'université de Bologne, à l'origine de cette avancée. Les ovules de la femme, contrairement au sperme ou aux embryons, résistent mal à la congélation et à la décongélation. Mais les spécialistes italiens ont découvert qu'en triplant la concentration de sucre dans le liquide de congélation, la survie des ovules était considérablement améliorée. Selon le Dr Fabbri, avec cette nouvelle technique, le taux de survie des ovocytes humains atteint 82%. Seuls quelque trente bébés sont nés dans le monde à partir d'ovules congelés depuis le premières tentatives de 1986, tant cette congélation est délicate. La méthode de congélation plus douce, avec plus de sucre et des produits chimiques protecteurs, employée par les chercheurs italiens réduit la formation de cristaux de glace qui peuvent tuer l'ovule. Les chercheurs espèrent que leur méthode sera adoptée dans le monde. Mais ils ont déjà constaté que le meilleur moyen de fertiliser les ovules congelés était la technique appelée ICSI. Elle consiste à injecter directement un spermatozoïde dans l'ovule. "Les trois-quarts des embryons ainsi obtenus sont de bonne ou de très bonne qualité", relève le Dr Fabbri. Une bonne conservation des ovocytes permettrait d'éviter d'accumuler des stocks d'embryons congelés. Pour les femmes, la possibilité de préserver leurs ovules équivaut à celle dont disposent déjà les hommes, avec la congélation du sperme. Les femmes naissent avec environ 300.000 ovocytes, dont seulement 300 à 400 évolueront au cours de leurs cycles en ovules susceptibles d'être fécondés.

Human,Reproduction Human Reproduction :

http://humrep.oupjournals.org/current.shtml

Cancers traités par thérapie génique chez la souris
Samedi, 03/03/2001 - 00:00

Des cancers ont été traités par thérapie génique administrée par voie orale chez des souris, annoncent des chercheurs dans la version en ligne de la revue Proceedings of the National Academy of Sciences à paraître mardi. "C'est la première fois que nous pouvons empêcher le développement du cancer en utilisant la thérapie génique", souligne l'un des auteurs de l'étude, le Dr Carlo Croce, de l'université Thomas Jefferson à Philadelphie (Pennsylvanie). Selon lui, cette technique pourrait être utilisée chez l'homme pour des lésions précancéreuses des poumons, de l'oesophage, de la tête ou du cou. La méthode employée par les chercheurs a nettement réduit le développement de tumeurs dans l'estomac de souris dont un gène impliqué dans les cancers de l'oesophage, de l'estomac ou des poumons avait été altéré. Elles avaient ensuite été soumises à un produit cancérigène quatre semaines avant de recevoir leur thérapie. Les souris ont été divisées en quatre groupes. Toutes celles qui n'ont pas été traitées ont souffert de plusieurs tumeurs à l'estomac. Seules 50% de celles qui ont reçu le gène traitant avec un adénovirus ont eu des tumeurs et seulement trois des huit souris soignées avec le gène et un adénovirus associé en ont développées. "Nous avons été surpris que cela marche aussi bien", a noté un autre chercheur, le Dr Kay Huebner. Il a par ailleurs souligné que "beaucoup plus d'études seraient nécessaires" pour adapter cette thérapie à l'homme car il faudra mettre au point des techniques différentes pour envoyer les gènes traitants dans les diverses parties du corps tels que les poumons, l'estomac ou les reins.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1191000/1191334.stm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le futur en dix technologies
Samedi, 03/03/2001 - 00:00

A l'entrée du nouveau siècle le MIT ( Massachusetts Institute of Technology ) La sélectionné dix technologies émergente qui, selon cette grande institution, « changeront le monde ». Subjective, cette sélection n'en dresse pas moins, entre autres, un panorama de ce que pourra devenir le Réseau .

-# INTERFACE

Biométrie

La biométrie est l'ensemble de tous les systèmes de mesure des caractéristiques morphologiques qui permettent d'identifier avec certitude chaque individu.Essentiellement utilisée, aujourd'hui, pour assurer la sécurité d'accès à des locaux, la biométrie ne pourra être mise à profit sur le Réseau que lorsque chaque internaute sera équipé de capteurs biométriques. Thierry Martin, directeur technique de Canyon Technologies (entreprise de commercialisation d'outils d'identification biométrique) : " Les progrès à faire en matière de biométrie ne résident pas dans les méthodes d'acquisition des caractéristiques biométriques ni même dans les formats informatiques de stockage de ces données. Ces formats sont suffisamment légers pour être exploitables sur des réseaux informatiques. Ce qui reste à accomplir réside dans les algorithmes de recherche et de comparaison de ces informations au sein de bases de données toujours plus vastes. Ces dernières pourront contenir les caractéristiques de plusieurs centaines de milliers ou plusieurs millions d'individus, et il n'est pas envisageable de les parcourir de façon linéaire. "

Reconnaissance vocale

La reconnaissance vocale consiste à faire reconnaître à une machine le langage parlé et à l'interpréter en termes de commandes. Mais de la simple transcription de la langue à sa compréhension, un cap important reste à franchir. Les prochains terminaux mobiles d'accès à la Toile ne pourront pas s'embarrasser de clavier ou de souris. De même, d'ailleurs, que l'informatique embarquée dans les automobiles. La communication entre l'utilisateur et la machine devra donc être plus instinctive... et passer par la parole. Joseph-Jean Mariani, ancien directeur du Limsi (Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur) : " Les logiciels de dictée vocale peuvent transcrire plusieurs dizaines de milliers de mots de vocabulaire, prononcés par des locuteurs différents. A présent, les constructeurs sont conscients du fait qu'il faut améliorer les systèmes de dialogue homme-machine. La machine ne doit plus seulement être capable de transcrire le langage, elle doit pouvoir le comprendre. Cela n'est possible que dans un contexte bien délimité (réservation d'un billet de train, etc.). Il ne s'agit donc pas seulement de mettre au point un modèle acoustique mais aussi un modèle qui décrive la langue. C'est dans ce domaine que les choses ont le plus changé ces dernières années. "

Interface cérébrale

L'interface cérébrale revient à contrôler une machine avec la pensée. Il s'agit, grâce à plusieurs capteurs, de mesurer à la surface du cortex les variations de l'électroencéphalogramme, puis de les associer à une action spécifique. Cette technologie permettra aux personnes handicapées, d'ici à quelques années, de diriger leur fauteuil roulant, d'écrire un e-mail ou d'éteindre la lumière. On peut même penser, à très long terme, à un contrôle parfait d'une prothèse de bras, à partir de la reconnaissance de la pensée associée au mouvement désiré de ce bras. José del R. Millàn, responsable du projet ABI (Adaptative Brain Interface), du programme européen Esprit : " Plusieurs équipes dans le monde travaillent au développement d'une interface cérébrale facilement utilisable. Pour l'heure, il s'agit surtout d'un système de laboratoire. Le dispositif que nous avons développé différencie cinq activités électriques, comme par exemple un calcul mental. A chacune de ces activités, nous pouvons associer une action. La difficulté consiste à réduire les erreurs de reconnaissance et à augmenter le nombre de pensées distinctes identifiables. Mais, à moyen terme, il faudra rendre le système plus naturel à utiliser. "

-# LOGICIEL

Data mining

Le data mining est généralement défini comme " l'extraction de connaissances implicites et précédemment inconnues à partir de grandes bases de données ". Il s'agit donc de mettre au point des outils informatiques de recherche destinés à ausculter les montagnes d'informations quotidiennement produites et d'en tirer le meilleur parti. Essentiellement utilisé à des fins commerciales ,le data mining trouve de plus en plus d'applications dans les domaines où de grandes quantités d'informations doivent être engrangées : médecine, astronomie, administrations... Nicolas Pasquier, chercheur au Laboratoire informatique signaux et systèmes de Sophia-Antipolis (I3S) : " Le data mining connaît un fort développement en raison de l'évolution rapide des techniques d'acquisition et de stockage des données. Par exemple, en analysant les bases de données des transactions d'un supermarché, on peut corréler les données et définir des modèles de comportement des clients et réorganiser les rayonnages pour améliorer les ventes. Mais ce qu'il est simple d'analyser sur de petites bases de données devient trèscomplexelorsqu'ellesstockentplusieurs millions d'événements. Il faudra à l'avenir construire des bases de données capables de s'auto-organiser et susceptibles de se passer d'outils de recherche externes. "

Gestion numérique des droits d'auteur

La gestion numérique des droits d'auteur ne cadre pas avec une technologie précise, mais plutôt avec un faisceau de technologies logicielles destinées à contrôler la " consommation " et la diffusion des oeuvres stockées au format numérique. il s'agit pour les éditeurs de musique, de contrôler les oeuvres disponibles sur le Réseau. Frédéric Goldsmith, directeur juridique du Syndicat national de l'édition phonographique (SNEP) : " Dans le domaine de la sécurisation, il faut distinguer deux mondes : le monde en ligne et le monde hors ligne. Pour ce dernier, qui concerne les supports 'classiques', des solutions techniques existent déjà pour limiter voire empêcher les copies et seront mises en oeuvre sur les DVD audio. Pour le monde en ligne, des technologies permettent d'ores et déjà de limiter la diffusion de fichiers numériques, y compris via des systèmes comme Napster. Chaque fichier peut ainsi être encapsulé dans une enveloppe logicielle que l'utilisateur n'est en mesure d'ouvrir qu'à l'aide d'une clé numérique, fournie lors de la souscription d'un abonnement. Il sera donc possible d'échanger des fichiers, mais pas de les'consommer',sans cet abonnement. "

Programmation " orientée aspect "

Autour du coeur d'une application se greffent de nombreux modules qui jouent des rôles différents au sein du programme, tout en s'influençant les uns les autres. L' " orientation aspect " permet de " démêler " ces intrications en créant des modules supervisant un programme dans sa globalité. La programmation " orientée aspect " permet de faire évoluer de vastes programmes informatiques sans, par exemple, avoir à rechercher manuellement le même fragment de code dans la totalité du programme. Gregor Kiczales, chercheur au Xerox-PARC (Palo Alto Research Center), inventeur de la programmation " orientée aspect " : " La technologie AspectJ est en ce moment même développée au Xerox-PARC et la version bêta est déjà disponible. La version 1.0 devrait être prête dès juin 2001. Mais comme toutes les nouvelles techniques de programmation, la programmation 'orientée aspect'' se heurte à un obstacle qui est tout simplement la formation de nouveaux développeurs. Nous avons donc contourné cet obstacle en faisant d'AspectJ une extension naturelle de Java. Cela donne la mesure du potentiel de la programmation ''orientée aspect'' tout en restant compatible avec ce qui existe déjà. "

-# MATERIEL

Microfluidique

La microfluidique revient à intégrer sur une " puce " de verre, de silicium ou de plastique, des systèmes permettant d'analyser, de modifier ou de synthétiser des produits. C'est, vis-à-vis des fluides, l'équivalent des puces électroniques, qui effectuent de nombreuses opérations sur des flux d'électrons. Cette technologie doit révolutionner le monde biomédical.

Elle permettra d'effectuer des diagnostics et des analyses complexes à partir, par exemple d'une seule goutte de sang. A terme, c'est tout un laboratoire d'analyse qui pourra être réduit à un seul appareil. Jean-Louis Viovy, directeur de recherche CNRS, chercheur au laboratoire physico-chimique de l'Institut Curie (Paris) : " Ce domaine de recherche connaît une croissance exponentielle depuis deux à trois ans. Aujourd'hui, l'un des principaux problèmes auxquels s'affrontent les chercheurs, est l'interfaçage de ces puces avec l'extérieur. Nous devons apprendre à travailler avec des quantités de fluides de l'ordre du nanolitre un milliardième de litre, voire du picolitre un millième de milliardième de litre. Aujourd'hui, la taille de ces puces varie de celle d'une pièce de monnaie à celle d'un disque compact, avec des microcanaux dont les dimensions sont comprises entre 10 et 100 microns entre 10 et 100 millionièmes de mètre. L'enjeu, aujourd'hui, n'est pas tant de continuer à miniaturiser que d'intégrer sur un seul système un nombre et une variété de plus en plus grands d'opérations, parmi toutes celles qu'on peut souhaiter effectuer sur un fluide : filtration, traitement thermique, identification, etc. "

Optoélectronique

L'optoélectronique mêle les " grains de lumière " aux électrons pour acheminer l'information. Partout où les chercheurs substituent la ronde des électrons à des transferts de photons, les flux de données gagnent en effet en rapidité et en efficacité. Les technologies de l'information utilisent déjà largement la lumière, qui permet l'acheminement des données via les fibres optiques. Mais la mise à contribution des photons pourrait se généraliser, à l'intérieur même des puces qui constituent nos ordinateurs. Pierre Benech, directeur adjoint du Lemo (Laboratoire d'électromagnétisme micro-ondes et optoélectronique) : " Aujourd'hui, l'attention se porte sur certains polymères électro-optiques qui sont particulièrement bon marché. Leur transparence varie en fonction de la tension électrique à laquelle ils sont soumis : ils permettent donc de moduler la lumière qui les traverse et ainsi de coder une information. Il faut bien voir qu'à un instant donné, toute les informations échangées sur la planète peuvent potentiellement transiter par une seule fibre optique. Mais ce qui, essentiellement, nous manque, ce sont des matériaux d'amplification, de régénération et de transmission du signal capables de transmettre la lumière à des fréquences très élevées. Le record, aujourd'hui, se situe autour du térahertz soit un débit d'un million de milliard de bits par seconde. Mais ces systèmes ne sont pas commercialisables car trop coûteux. Le défi, en la matière, est autant technologique qu'économique. "

Electronique flexible

L'électronique actuelle est essentiellement basée sur des matériaux minéraux comme le silicium. Les remplacer par des matériaux organiques - apparentés aux matières plastiques - aux propriétés semblables pourrait voir l'émergence de composants électroniques souples et moins coûteux. L'arrivée annoncée d'une utilisation nomade d'Internet et des réseaux rendra nécessaire la mise au point d'écrans aisément transportables et suffisamment souples pour résister à des traitements d'ordinaire infligés aux seules feuilles de papier. Gilles Horowitz, directeur de recherche CNRS-Laboratoire Itodys (université Paris-VII) : " Depuis deux à trois ans, ce secteur est l'objet de très gros investissements dans le monde de l'industrie. Ce que nous savons faire aujourd'hui, ce sont des écrans à diodes électroluminescentes constituées de matériaux organiques. Ces derniers ne sont pas encore souples, mais pourraient, à court terme, supplanter les écrans à cristaux liquides. Plus généralement, remplacer les puces silicium par leur équivalent organique permettra de faire baisser les coûts et d'en généraliser l'usage. Ce n'est pas tout : les développements de cette nouvelle électronique laissent présager d'autres techniques de fabrication des composants. De la photolithographie, on pourrait passer à des techniques plus souples et moins coûteuses, proches de l'imprimerie. "

-# ROBOTIQUE

Créer des machines évolutives, plus autonomes, est l'un des grands enjeux de la robotique actuelle. Une discipline située au carrefour de l'algorithmique, de la mécanique et de l'informatique qui, selon le MIT, n'en est qu'à ses balbutiements. Les champs d'application de la robotique sont aussi divers que la médecine, la domotique, l'assistance à des personnes handicapées, l'exploration de milieux hostiles ou inaccessibles à l'homme, sans oublier les applications ludiques, promises à un bel avenir. Jean-Arcady Meyer, directeur de recherche CNRS - Laboratoire d'informatique de Paris-VI : " Pour concevoir des robots de plus en plus adaptatifs, capables d'interagir avec leur environnement, il nous faut encore travailler sur la versatilité des comportements, la sélection de l'action. Cela consiste à rendre les robots suffisamment 'intelligents' pour qu'ils puissent 'décider' du comportement à adopter en fonction de la situation dans laquelle ils se trouvent. Et qu'ils puissent, par exemple, après avoir accompli une tâche précise, prendre de façon autonome la décision d'aller se ravitailler en énergie au moment opportun... L'autonomie énergétique est d'ailleurs le second sujet brûlant sur lequel nous devrons nous pencher dans les années à venir. Il faudra concevoir des machines capables de s'alimenter à plusieurs sources énergétiques. "

Le Monde : http://interactif.lemonde.fr/article/0,5611,2854--150240-0,FF.html

MIT : http://web.mit.edu/news.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top