RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 132
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 02 Février 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La loi du plus fort n'est plus la meilleure
Satellite et ondes radio combleront-ils les vides du réseau ?
Internet : toujours plus vite et moins cher
Le logiciel libre entre en classe
France Télécom teste la télévision interactive
Avenir
De la lumière avec les nanofils
Matière
Une technologie miracle pour produire de l'électricité ?
Espace
La conquête de l'espace ne fait que commencer
Mon jardin potager sur Mars
Vivant
Biotechnologies : Davos promet une nouvelle ère de prospérité
Reconstituer la peau au poil près
La carte du génome du riz pourra aider à lutter contre la faim dans le monde
L'ail : un aliment aux vertus anti-cancéreuses
L'informatisation de l'hôpital sauve des vies
La boîte à outils futuriste des chirurgiens
La thérapie cellulaire au secours de l'insuffisance cardiaque
Alcool : 13 % des hommes à risque de dépendance
L'origine de la vie est-elle extraterrestre?
Athérosclérose : l'action des fibrates enfin comprise !
Maladies cardiovasculaires : une nouvelle molécule réduit la rigidité des vaisseaux
Le gène de la résistance du paludisme identifié !
Cancer du sein : une nouvelle pièce au puzzle
Edito
Il faut créer une dynamique planétaire du savoir et de la formation



Le dernier rapport du Bureau International du Travail (http://www.ilo.org/) constitue une source d'informations et de réflexion pour tous les décideurs économiques et politiques. Ce rapport montre que la "fracture numérique" entre les pays technologiquement avancés et les autres s'élargit et que près de 90% des usagers d'internet se trouvent dans les pays industrialisés. Les auteurs du Rapport sur l'emploi dans le monde 2001 font en effet observer qu'en dépit de la révolution de l'information qui se déroule actuellement dans le monde un nombre croissant de travailleurs ne trouvent pas d'emplois ou n'ont pas accès aux nouvelles ressources technologiques qui sont indispensables pour garantir la productivité dans une économie mondiale de plus en plus numérisée. Ils constatent en outre qu'en raison de sa diffusion inégale dans les pays riches et les pays pauvres la révolution des technologies de l'information et de la communication (TIC) crée entre ces pays une «fracture numérique» croissante. Au début de l'année 2001, un tiers des 3 milliards de personnes qui constituent la population active du monde sont sans travail ou sous-employées. Et 160 millions d'entre elles, malgré des signes manifestes de reprise économique dans la plupart des pays d'Asie, sont officiellement au chômage. L'économie mondiale devra au minimum maintenir son présent rythme de croissance pour créer les 500 millions d'emplois qui seront nécessaires durant les dix années à venir pour satisfaire les nouveaux demandeurs d'emploi et réduire de moitié l'effectif actuel des chômeurs. Pour que les TIC permettent aux pays à faibles revenus de «brûler les étapes» du développement économique, via des investissements dans les ressources humaines, il faut réunir trois conditions: une stratégie nationale cohérente en matière de TIC, une infrastructure de télécommunications d'un coût abordable et une main-d'oeuvre instruite. Les pays et les régions qui ne réussiront pas le pari technologique non seulement risquent de rester à l'écart du grand marché des produits de l'information et de la communication mais encore ne bénéficieront pas des gains de rentabilité et de productivité qu'offrent ces technologies. Cependant, par-delà la production de matériels, la constitution d'un savoir-faire national dans le domaine de la conception et de l'utilisation de logiciels semble être un facteur essentiel pour l'initiation des pays au monde de la haute technologie numérique. A cet égard l'industrie informatique de l'Inde, dont la croissance annuelle a été de 50 pour cent pendant toutes les années quatre-vingt-dix, a créé des milliers d'emplois et un vivier de talents qui retient l'attention des pays industrialisés. Les TIC peuvent également être utiles pour réduire la pauvreté non seulement grâce à leur incidence sur la croissance économique mais aussi en améliorant l'accès aux soins de santé, à l'instruction et à d'autres services sociaux. Un enjeu décisif quand on sait qu'à peine un quart de l'Humanité a accès à un système de protection sociale. Mais les avantages de la révolution numérique ne se feront pas sentir sans un niveau d'instruction suffisant. C'est pourquoi «L'instrument le plus important dont disposent les gouvernements pour tirer avantage des TIC est l'investissement dans l'instruction de base et l'enseignement supérieur», affirment les auteurs du rapport. En outre, l'instruction et la croissance économique étant complémentaires, investir dans la première engendrera la seconde. Ce lien de cause à effet est encore plus vrai en ce qui concerne la nouvelle économie dans laquelle le savoir, plutôt que des moyens de production matériels ou des ressources naturelles, est le principal facteur de création de richesse.» Dans l'ère numérique, la formation continue est en train de devenir la source fondamentale d'employabilité. Nous touchons ici au paradoxe fondamental qui caractérise la mutation planétaire vers la civilisation de l'information : pour les pays en voie de développement, qui représente les trois quarts de l'Humanité, les nouvelles technologies de l'information représentent une chance historique et extraordinaire accès au savoir et à la formation mais les habitants de ces pays ne pourront exploiter pleinement les potentialités de ces technologies que s'ils atteignent un niveau suffisant d'éducation et de formation. Il est donc capital de faciliter autant que possible, par des mesures concrètes prises au niveau international, l'accès à l'internet dans l'ensemble des pays en voie de développement qui représente les trois quarts de l'humanité. Malheureusement dans la plupart de ces pays, les réseaux de télécommunications physiques (réseau téléphonique et réseau câblé) ne desservent qu'un petite partie de la population et ne peuvent pas permettre un accès fiable et généralisé à l'internet. Pour contribuer à résoudre ce problème fondamental, j'ai récemment proposé à notre ambassadeur auprès de l'UNESCO que tous les satellites qui seront lancés dans le futur soient équipés de transpondeurs permettant l' accès gratuit à l'internet à haut débit pour tous les établissement éducatifs et culturels et tous les habitants de ces pays en voie de développement. Je suis convaincu qu'une telle mesure pourrait contribuer à amorcer cette dynamique planétaire du savoir et de la formation. N'oublions pas que le minerai de cette société nouvelle qui s'annonce est l'information et que ce minerai qui a pour vocation d'être enrichi par le savoir sera à la base de l'économie nouvelle. Cette information doit donc être accessible à tous. Priver des Peuples du Monde de ce libre accès à l'information leur fermerait toutes les portes de l'avenir.Engager toute la planète dans une spirale de l'éducation et de la formation, capable de s'autoalimenter grâce aux technologies de l'information, tels sont donc les défis majeurs du XXI eme siècle si nous voulons construire un monde plus supportable, plus juste et plus humain. Comme le rappelle avec force M. Somavia nous devons oeuvrer en faveur d'une connectivité socialement responsable pour que la justice sociale règne aussi bien dans le monde matériel que dans le monde virtuel.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La loi du plus fort n'est plus la meilleure
Samedi, 03/02/2001 - 00:00

Prenez Obélix et Astérix. Placez-les chacun sur le plateau d'une balance géante. Que se passe-t-il ? Le plateau sur lequel se trouve Obélix bascule irrémédiablement vers le sol, tandis que celui d'Astérix se trouve à une bonne distance du plancher des vaches et n'a aucune chance de redresser la situation, malgré les efforts du petit guerrier gaulois. Il y a une différence de poids trop grande entre les deux personnages. Cette allégorie - pas du meilleur goût, je le concède - correspondait au rapport de force sur Internet, Obélix représentant les Etats-Unis et Astérix le reste du monde. Elle était vraie jusqu'au 16 janvier dernier. Depuis cette date, la balance penche de l'autre côté. Désormais, selon une étude réalisée par StatMarket, 55 % du trafic sur la Toile n'a pas pour origine les Etats-Unis, alors qu'auparavant, c'est dans ce pays que l'essentiel du trafic se produisait. Le centre du cybermonde était là-bas. Aujourd'hui, il se déplace. Bien sûr, avec un peu plus de 45 % du trafic enregistré, l'Amérique du Nord est encore très loin devant les autres nations, mais on constate, au regard de l'étude, que plusieurs pays font preuve d'une réelle activité sur le réseau mondial. L'Allemagne, le Canada, la Corée du Sud et le Japon sont les plus actifs sur le Net après les Etats-Unis. A eux quatre, ils comptent pour plus de 20 % du trafic, un chiffre qui ne surprend pas les analystes de StatMarket, selon lesquels «cette tendance devrait s'accentuer à mesure que le reste de la planète se connectera au réseau mondial». Ce changement mérite d'être souligné, car cela signifie qu'à terme - comptez une demi-douzaine d'années, peut-être moins - l'influence du monde anglo-saxon dans le cyberespace pourrait être moins prédominante qu'aujourd'hui. En d'autres termes, on peut espérer qu'Internet deviendra un véritable pôle d'interculturalité où toutes les cultures pourront s'exprimer sur le pied d'une relative égalité. A ce propos, on peut noter que l'anglais reste la principale langue du Net puisque 47,6 % des utilisateurs du réseau la pratiquent en ligne. Il n'empêche que les autres idiomes occupent une place grandissante, à l'instar du japonais, du chinois, de l'espagnol ou de l'allemand. Une tendance qui réjouira les tenants de l'antiglobalisation, lesquels se réunissent à Porto Alegre jusqu'au 30 janvier, pour débattre notamment de la sauvegarde des identités culturelles. D'ailleurs, le site officiel du sommet de Porto Alegre est multilingue, tandis que celui de Davos n'est qu'en anglais...

Satellite et ondes radio combleront-ils les vides du réseau ?
Samedi, 03/02/2001 - 00:00

Pour les gouvernements inquiets de la croissance du "fossé numérique", l'accroissement de la bande passante pour l'accès à internet ne devrait qu'aggraver le phénomène. Les connexions par câble ou par téléphone de type DSL (Digital Subscriber Line) semblent être en mesure de fournir à haut débit un riche éventail d'information et de divertissement à la plupart des foyers européens, mais pas à tous. Les défis géographiques concernent les utilisateurs résidant dans des endroits isolés ou des "zones d'ombres urbaines" qui devront trouver un autre moyen de se connecter. Les professionnels auront quant à eux besoin d'un réseau plus rapide, plus sécurisé, plus mobile et moins sujets aux coupures que le câble ou le DSL et seront - contrairement aux consommateurs - moins réticents à payer ces services plus cher pour une qualité accrue. Le satellite, le "sans fil fixe", la "fibre (optique) sans fil", les téléphones portables ou les lignes électriques sont des technologies de substitution dont pourront disposer ceux qui ne souhaitent pas utiliser le câble ou le DSL. En 2005, un foyer européen sur cinq possédant un accès à haut débit devrait avoir recours à ces autres moyens de connexions, selon diverses études. Le réseau câblé ne touche qu'un tiers des habitations et reste très coûteux lorsqu'il s'agit de l'étendre en zones reculées. La technologie DSL peut convertir une ligne téléphonique ordinaire en lien numérique à grande vitesse, mais ne fonctionne pas dès que plusieurs kilomètres séparent l'utilisateur du central le plus proche, ni sur les lignes de mauvaise qualité. "Les utilisateurs en milieu rural n'auront pas d'autre solution technologique et seront tenus à l'écart pendant plusieurs années", dit Peter Cowley, responsable de l'internet haut débit chez le fournisseur d'accès britannique Freeserve. La solution la plus prometteuse, en ce qui les concerne, est l'internet par satellite dont les temps de réponse sont ultra-rapides. Les données sont transmises à grande vitesse directement du satellite à l'utilisateur. En revanche l'émission de données doit transiter par une connexion conventionnelle de type "dial-up" jusqu'à une station terrestre qui transmet ensuite l'information au satellite, comme pour les services de télévision interactive. Cela entraîne un petit décalage temporel sans grande conséquence à l'heure actuelle mais qui pourrait, par exemple, gâcher les appels téléphoniques via internet (VoIP). Des communications satellites à deux canaux sont depuis longtemps à l'étude. D'ici quelques années, les réseaux de téléphonie mobile de troisième génération couvriront eux aussi la majeure partie de l'Europe, permettant la transmission de vidéo et d'autres services haut débit via une connexion permanente. Les internautes pourront utiliser ces téléphones pour accéder à internet de temps à autre mais sans que cela ne remplace une connexion fixe. "Il y aurait pénurie d'espace dès que trois gamins joueront à Doom", estime James Allen du bureau d'étude Analysys. Mais il existe aussi une option "radio" pour accéder à internet. La "fixe sans fil" permet de transmettre des données d'une antenne à une autre située sur le toit de la résidence de l'utilisateur. Néanmoins la vue entre les deux mâts doit être déggagée pour que rien ne vienne obstruer la transmission des ondes. Son rayon d'action limité et le coût élevé de l'équipement devrait donc restreindre son application à des zones industrielles. Les analystes ne s'attendent à aucun marché d'envergure pour cette technologie. La technologie de la fibre optique, capable de transmettre 10 milliards de bits à la seconde (10 Gigabits, soit 10.000 Mb), est attrayante mais son prix reste prohibitif. Un lien direct à l'utilisateur n'est réellement envisageable que pour les professionnels, qui, au vu des coûts d'installation de nouvelles lignes, continuent de rechercher des solutions de rechange. La "fibre (optique) sans fil", ou "l'optique sans fil", pourrait permettre de transmettre des données par laser depuis le noeud optique le plus proche jusqu'aux bureaux. Ce serait plus rapide que le "sans fil fixe". C'est l'un des systèmes les plus futuristes qui soit à l'étude, mais il faut encore surmonter des problèmes essentiels tels que la pluie et le brouillard. En fin de compte, les utilisateurs utiliseront peut-être un amalgame de liens fixes et sans fils, assortis d'un réseau sans fil reliant ordinateur, téléviseur et autres appareils à un boitier de réception des données installé à domicile ou au bureau. Des tests sont effectués à partir de réseau locaux LAN (local area network) dans des endroits publics tels que des parcs ou des aéroports. Toutes ces technologies, comme d'autres reposant sur les lignes électriques ou des aérostats stationnés au-dessus des villes, ont pour but d'augmenter la capacité de transmission des données mais qu'en est-il de faire rétrécir l'information pour la faire passer dans des tuyaux plus petits? Une amélioration des progrès des algorithmes de compression pour la vidéo et le son, comme le MPEG et le MP3, pourrait permettre d'éviter d'utiliser des canaux toujours plus gros, dans l'attente d'une norme dans ce secteur.

Reuters : http://fr.news.yahoo.com/010128/2/v5k2.html

Internet : toujours plus vite et moins cher
Samedi, 03/02/2001 - 00:00

La transmission d'un million de bits par seconde (bps), rendue possible avec la technologie ADSL, a complètement déclassé les maigres 56 000 bps offerts par les modems " classiques " ; mais l'ADSL sera bientôt elle-même dépassée par un laser qui, à peu de frais, transmettra à chaque seconde entre... 100 et 600 millions de bits ! Le laser, c'est bien connu, permet de faire passer beaucoup plus de données que le simple fil de cuivre qui est à la base de la technologie ADSL. Mais le laser, à cause de différentes contraintes industrielles, est souvent enfermé dans une gaine de fibre optique : d'où un coût prohibitif qui empêche les particuliers d'en voir un bout arriver à leur porte. Mais quelques compagnies ont débarrassé le laser de sa gaine. fSONA au Canada, ou AstroTerra aux États-Unis, proposent ainsi de poser, sur les toits des bâtiments, des émetteurs qui laisseraient filer des lasers infrarouges dans l'air libre : au bout d'environ cinq kilomètres, ces signaux seraient reçus par une lentille télescopique qui les décoderaient et les transmettraient aux ordinateurs des étages du dessous. Non seulement ces émetteurs et récepteurs coûteraient beaucoup moins cher que la fibre optique mais ils seraient bien appréciés par ceux qui souhaitent installer un réseau temporaire, au cours d'une exposition par exemple.

Cybersciences : http://www.cybersciences.com/Cyber/0.0/0_0.asp

Le logiciel libre entre en classe
Samedi, 03/02/2001 - 00:00

Force est en effet de le constater : la plupart des élèves du primaire et du secondaire sont, dans le cadre de leur initiation à l'informatique, plus accoutumés à utiliser des logiciels propriétaires (Windows, Word, Mac, etc.) que leurs équivalents « libres ». Et, pourtant, entre l'école et le « libre », il y a plus d'un atome crochu, plaident sans cesse les chantres du logiciel libre. Question de morale, sinon d'économie. Doit-on seulement enseigner aux enfants le maniement d'un outil dûment estampillé d'un logo commercial ou plutôt leur transmettre autonomie et polyvalence ? Dans le système éducatif, l'intérêt que suscite le logiciel libre ne date pas d'hier. Le ministère de l'éducation nationale, de la recherche et de la technologie a ainsi signé, en octobre 1998, un accord-cadre avec l'Association francophone des utilisateurs de Linux et des logiciels libres (AFUL), portant sur le « déploiement de l'informatique libre dans le système éducatif français ». L'accord prévoit, entre autres, « le soutien de l'AFUL à des projets de mise en réseau de lycées, collèges et écoles, grâce à des logiciels libres » et « l'assistance technique et pédagogique de l'AFUL à la formation des personnels de l'éducation nationale ». La gratuité des logiciels libres, si elle peut favoriser l'égalité devant l'outil informatique, présente aussi un réel intérêt pour les établissements eux-mêmes. Les coûteuses licences d'exploitation qu'ils doivent acheter auprès des éditeurs pourraient, à l'avenir, peser lourdement en faveur du « libre ». C'est cependant en contournant le cadre de l'enseignement scolaire que le « libre » pourrait forcer avec le plus de succès la porte du système éducatif. Notamment en investissant les infrastructures réseaux des établissements, l'administration ou la gestion des bibliothèques. L'introduction du logiciel libre à l'école pose aussi des problèmes plus profonds en termes d'éducation. L'informatique, dans le primaire tout au moins, n'est pas enseignée en tant que telle, mais comme outil utilisé dans le cadre d'autres matières. « Le problème est de savoir si l'école doit former des citoyens ou des consommateurs ! », insistent les promoteurs du « libre ». Pour eux, l'école doit permettre aux élèves d'acquérir une « culture informatique » et non les seules fonctions de base de tel ou tel outil, qu'il soit dominant sur le marché ou non. Un projet qui relève de la gageure. « Aujourd'hui, confie un responsable de l'AFUL, 80 % des enseignants ne sont pas suffisamment sensibilisés à ces questions. » Et la plupart, sans doute, ne font pas de distinction entre les logiciels libres et les autres... Introduire le « libre » à l'école, c'est aussi expliquer ce qu'il est... et ce qu'il n'est pas.

Le Monde :

http://interactif.lemonde.fr/article/0,5611,2894--141446-0,FF.html

La revanche de la bande magnétique
Samedi, 03/02/2001 - 00:00

Quasiment enterré voici peu par l'émergence du DVD et d'autres procédés optiques, l'enregistrement magnétique sur bande fait un retour inattendu. Sony vient par exemple d'annoncer une nouvelle bande magnétique destinée à des applications d'archivage et capable de conserver un téraoctet de données sur une cassette 8mm. Le phénomène n'est pas isolé puisque c'est aussi grâce aux progrès des bandes magnétiques que JVC, tout récemment, a réussi a présenter une version de son D-VHS, le VHS numérique, capable de concurrencer le format DVD .Les technologies de JVC et de Sony ne sont pas équivalentes. Là où Sony vise avant tout l'archivage et la copie, JVC veut concurrencer un procédé défini par le temps réel. Dans le premier cas, c'est un dérouleur de bande de un téraoctet sur un petit format de cassette, dans l'autre,les 600 gigaoctets (déjà considérables) de JVC, sur un format plus grand. La nouvelle technologie de Sony, qui laisse dans la poussière sa génération actuelle de “streamers”, les AIT-2 et leurs 50 à 100 gigaoctets, devrait être disponible commercialement en 2003 ou 2004. Pour atteindre une densité de 1 gigabit/cm², Sony utilise des têtes à magnéto-résistance géante (GMR), comparables à celles qui se sont déjà imposées dans les disques durs de haut de gamme. C'est du reste avec l'arrivée des premières têtes GMR que les disques durs d'IBM avaient pour la première fois passé ce cap de densité. Et pour obtenir le résultat voulu dans un très petit facteur de forme, Sony a mis au point une bande métal par évaporation, avec des micro-particules permettant d'abaisser considérablement le rapport signal/bruit et les autres facteurs limitants de l'enregistrement.

Usine Nouvelle : http://www.usinenouvelle.com/

France Télécom teste la télévision interactive
Samedi, 03/02/2001 - 00:00

En partenariat avec Arte et Télérama, France Télécom R&D (ex-CNET) expérimente de nouveaux usages résultant de la convergence entre la télévision et Internet. Le centre de recherche et développement de l'opérateur historique vient en effet de mettre au point un démonstrateur qui sert à développer des services interactifs liés aux émissions diffusées. Grâce à ce prototype, les téléspectateurs pourraient bénéficier d'une nouvelle approche de la télévision qui mélangerait, sans qu'ils puissent en faire la distinction, des programmes audiovisuels à des contenus issus de l'Internet. Pour renforcer le caractère ludique et convivial de la télévision, les chercheurs de France Télécom ont développé une interface graphique qui facilite la personnalisation des services. Chaque membre de la famille peut définir des critères de recherche particuliers pour filtrer les émissions qui l'intéressent, disposer des fonctions de magnétoscope numérique (enregistrement d'une émission) ou constituer sa propre vidéothèque (programmation d'enregistrement,...). Le prototype comprend également un guide électronique de programmes qui bénéficie de la richesse des contenus accessibles par Internet. Ce guide permet un tri par mot clé des autres programmes disponibles pendant que l'émission regardée continue à s'afficher. Il propose aussi un choix d'émissions personnalisé dans des créneaux horaires précis ainsi qu'une visualisation par images et bandes-annonces des programmes concernés. Connectée en permanence au réseau, la télévision de demain devient véritablement interactive. Le téléspectateur peut à tout moment recevoir des informations complémentaires issues du web sur le programme qui l'intéresse. Par exemple, un bandeau interactif fournit pendant un opéra des éclaircissements sur l'histoire et les personnages de l'oeuvre, ou durant la diffusion d'un film la biographie d'un acteur. Dans un avenir proche, elle permettra par ailleurs de suivre, sur le même écran, un match de football tout en participant à un forum de discussion, ou de converser simultanément en visiophonie avec un interlocuteur. Un portail Internet, spécialement conçus pour les téléspectateurs, mettra à la portée du petit écran des services comme le streaming vidéo/radio, l'écoute de fichiers musicaux MP3, la bourse ou le commerce électronique.Au plan technique, le prototype développé utilise la toute nouvelle technologie DVB-MHP qui garantit la diffusion numérique des images, le haut débit et la capacité de stockage nécessaire aux données. Il s'appuie sur le décodeur de télévision numérique sous Java mis au point par les chercheurs de France Télécom à Rennes. Cette nouvelle approche de la télévision s'adresse tout particulièrement aux 71 % de foyers français non équipés d'ordinateurs domestiques pour lesquels la télévision doit rester ludique mais évolutive.

Industries&Techniques : http://www.industries-techniques.com

^ Haut
Avenir
Nanotechnologies et Robotique
De la lumière avec les nanofils
Samedi, 03/02/2001 - 00:00

Les nanofils, comme les nanotubes, sont tout naturellement considérés comme un matériau de connection idéal pour la nano-électronique de demain. Les uns comme les autres sont d'une taille adéquate et peuvent être fabriqués dans des quantités raisonnables. Le contrôle de leur pureté, de leur qualité cristallographique et de leurs propriétés électroniques est modulable sans trop de difficultés. Avec des éléments de construction comme ceux là, il semble raisonnable de commencer à envisager de construire des systèmes nano-électronique moléculaire par la méthode bottom-up. Il est maintenant possible d'élaborer des nanofils de qualité en les faisant croître à partir de germe métallique. Si la particule métallique est suffisamment petite et pour des conditions appropriées, le fil sera nano avec une composition, un diamètre et une longueur réglables à volonté. De plus par l'ajout de dopants appropriés, ce fil sera n ou p. D'un autre coté, il devient aussi possible maintenant de manipuler ces fils relativement facilement en les polarisant électriquement pour les aligner dans un champ. On peut ainsi former des ensembles parallèles de pont aux bornes d'une alimentation. Dans un récent article, paru dans la revue Nature, l'équipe du Professeur Lieber de l'Université Harvard à Cambridge a pu montré qu'il était maintenant possible de fabriquer des nanofils d' InP dopé p (Te) et n (Zn) par croissance catalytique assistée par laser (Laser-assisted Catalytic Growth) et d'en monter deux croisés, figurant ainsi les prémices d'une diode luminescente à l'échelle du nanomètre (cf figure). Le procédé de luminescence de ce système est le même que pour celui des LEDs plus classique : la recombinaison des porteurs de charge électrons-trous au niveau de la jonction n-p permet l'émission d'une radiation lumineuse sous forme de photons. La fréquence de la lumière émise par ces nano-LED's augmente quand la taille du fil utilisé diminue, comme si l'effet de confinement des électrons les décalait en énergie. On peut aussi remarquer que ces dispositifs sont plus petits que la longueur d'onde qu'ils émettent. En améliorerant l'efficacité de ces diodes, une grande partie de l'énergie est dissipée sous forme de chaleur, et en réalisant une grille de fils de tailles variables, de lumière émise variable, les travaux de l'équipe du Massachusetts pourraient conduire rapidement à la réalisation de panneau de diodes à très haute résolution.

Lettre des Matériaux :

http://www.france-science.org/publications/materiaux/105/LM105.htm

^ Haut
Matière
Matière et Energie
Une technologie miracle pour produire de l'électricité ?
Samedi, 03/02/2001 - 00:00

Une entreprise américaine affirme avoir développé un procédé permettant d'obtenir de l'énergie “propre” même en partant de carburants notoirement polluants comme des charbons à fort contenu de soufre, des graisses ou des huiles. ThermoEnergy Corporation vient de se voir accorder un brevet américain couvrant le procédé et ses 27 revendications, assez générales .On est évidemment sceptique, d'autant que TEC juge le procédé parfait dans tous les cas de figure : nouvelles centrales électriques d'un peu n'importe quelle taille, mise à jour de vieilles centrales, remplacement de technologies de contrôles d'émission conventionnelles... Concrètement, TIPS (ThermoEnergy Integrated Power System) fonctionne en récupérant la chaleur latente de vaporisation de l'eau produite en cours de process . Il travaille dans le cadre du cycle de Rankine, familier aux centrales thermiques classiques ou nucléaires mais dans des conditions d'opération inhabituelles permettant de capturer la quasi-intégralité du gaz carbonique qui peut être séquestré ou réutilisé dans un process différent. La technologie, si son intérêt se confirme, est évidemment d'un intérêt particulier pour les États-Unis où le charbon, éminemment polluant, représente la moitié de la production électrique et 95 % des réserves énergétiques connues. En présentant TIPS comme la panacée, nulle doute que TEC espère convaincre le département de l'énergie et la nouvelle Administration Bush favorable aux combustibles fossiles de financer une centrale pilote. Mais parce qu'elle est théoriquement applicable à une large gamme de combustibles, elle pourrait bien intéresser au-delà de l'Amérique du Nord.

Usine Nouvelle : http://www.usinenouvelle.com/

ThermoEnergy Integrated Power System :

http://www.thermoenergy.com/clean.htm

^ Haut
Espace
Espace et Cosmologie
La conquête de l'espace ne fait que commencer
Samedi, 03/02/2001 - 00:00

L'odyssée de l'espace a véritablement débuté en 1957, avec la mise en orbite du premier Spoutnik. Ce fut une vraie, une immense révolution. Ensuite, nous avons continué sur notre lancée, nous nous sommes dotés d'outils pour nous déplacer autour de la planète et nous en éloigner un peu - le plus spectaculaire, ce furent bien sûr les missions lunaires - et nous avons surtout développé les applications industrielles pour la Terre. Disons-le, depuis Spoutnik, il n'y a pas eu d'autres vraies révolutions technologiques. On a, certes, perfectionné les satellites, réduit les poids, diminué les coûts. Mais nos fusées ne sont jamais que des extrapolations des V2 de la Seconde Guerre mondiale, comme l'étaient aussi les fusées lunaires de Wernher von Braun: de gros pétards un peu élaborés. Nous sommes encore dans la première phase de la conquête. La découverte de l'électricité à la fin du XIXe siècle a provoqué une longue période d'industrialisation. C'est la même chose avec l'espace. Nous lançons aujourd'hui une soixantaine de satellites par an, activité devenue aussi indispensable que l'électrification jadis. Imaginez nos vies quotidiennes si tous les satellites en orbite tombaient en panne. Cela nous semble tout naturel, et pourtant... L'actuel marché des satellites n'incite pas à de grandes révolutions techniques. Pourquoi? Tout simplement parce que les moyens dont nous disposons nous suffisent: pour mettre un satellite en orbite, nous n'avons pas besoin de fusées plus rapides, pas besoin d'inventer un autre mode de propulsion. Pourtant, concevoir des engins qui iraient ne serait-ce que dix fois plus vite serait une révolution: on pourrait alors réduire la durée des voyages - il faut actuellement de six à dix mois pour un aller simple vers Mars - ce qui est indispensable à cause des risques qui pèsent sur les hommes en cas de panne ou d'accident grave. Et on pourrait passer à une deuxième phase de l'exploration. La propulsion chimique, telle qu'elle est utilisée pour lancer les satellites actuels, n'est pas très efficace: elle nécessite un volume important de carburant pour emporter un faible poids. La propulsion nucléaire, qui donne de l'énergie dans un maximum de concentration possible, résoudrait ce problème. Nous aurions besoin d'une nouvelle ambition en matière spatiale. La Lune était à l'époque le point symbolique qu'il fallait atteindre pour montrer son prestige. Les Soviétiques voulaient prouver à la face du monde qu'ils étaient capables d'aller dans l'espace; les Américains, poussés aux fesses, ont relevé le défi. Cette compétition a donné la même technologie des deux côtés, et la panoplie de lanceurs que nous utilisons encore. L'Europe, avec peut-être bientôt la Chine, est actuellement la seule alternative crédible aux Etats-Unis, mais elle avance lentement et avec difficulté et elle dépense six fois moins pour l'espace que les Américains. Aujourd'hui, nous avons une vision théorique, et même poétique, de ce que nous pourrions faire dans l'espace. Encore faut-il que les politiques, et les budgets, suivent... La station internationale est déjà un pas en avant.

L'Express : http://www.lexpress.fr/Express/

Mon jardin potager sur Mars
Samedi, 03/02/2001 - 00:00

Vivre un jour sur Mars et y cultiver son jardin... Un rêve qui pourrait devenir réalité grâce à la culture d'un microbe sur la planète rouge. L'idée peut sembler saugrenue, mais le projet d'Irme Friedmann, microbiologiste à l'Institut d'Astrobiologie de la Nasa, tient la route. Aujourd'hui Mars est une planète gelée et hostile à toute forme de vie. Si l'homme veut un jour coloniser la planète rouge, il lui faudra transformer son sol en terre cultivable. D'où l'idée de transformer le sol de Mars en terre par l'ajout d'une matière organique, comme par exemple le compost utilisé par les agriculteurs. Sur Mars les micro-organismes joueront eux-mêmes le rôle du compost, et produiront la matière organique nécessaire à toute forme de culture agraire. Le microbe sélectionné par M. Friedman est le Chroococcidiopsis. Il a été choisi pour sa capacité à résister aux environnements les plus extrêmes. Il pourrait être cultivé dans les roches qui forment le sol de Mars. Seul petit bémol à ce projet, la température de la planète. Il faudrait en effet que l'atmosphère de Mars se réchauffe très sensiblement (approchant le zéro degré celsius) pour permettre au microbe d'être cultivé. Selon M. Friedman, le jour où Mars deviendra une planète habitable, les technologies auront tellementt évoluées qu'on ne parlera plus du petit microbe compost.

Besok : http://www.besok.com/espace/actu/acth_bs_CF.cfm?id=4754

NASA :

http://science.nasa.gov/headlines/y2001/ast26jan_1.htm?list470836

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Biotechnologies : Davos promet une nouvelle ère de prospérité
Samedi, 03/02/2001 - 00:00

Les personnalités présentes au Forum économique mondial de Davos n'en doutent pas, la mariage de la biologie, en particulier de la génétique, et des nanotechnologies va ouvrir une nouvelle ère de croissance dans les années à venir, mais va également soulever de nombreux problèmes éthiques. "Le XXIe siècle va inaugurer le véritable âge de l'information, et je ne parle pas d'internet", a déclaré Bill Joy, directeur de l'équipe scientifique de Sun Microsystems , l'un des leaders mondiaux de l'industrie informatique. Les richesses que dégageront ces nouvelles technologies vont reléguer l'ère internet au rang de la préhistoire, a-t- il poursuivi, avant d'ajouter: "C'est tout un symbole que le code génétique humain ait été décrypté en l'an 2000". La découverte de l'ensemble des liaisons chimiques qui composent le génome humain, reproduit intégralement l'an dernier sous la forme d'un code numérique, a ouvert une myriade de possibilités dans le domaine médical. Les scientifiques estiment notamment que les connaissances dans le domaine génétique leur permettront bientôt d'intervenir directement sur la cause de nombreuses pathologies. George Church, directeur du Lipper Center for Computational Genetics de l'université d'Harvard, a déclaré que les spécialistes seront prochainement en mesure de séquencer, c'est à dire d'interpréter, le génome de n'importe quel individu, inaugurant ainsi l'ère de la médecine réellement personnalisée. Reste que nombre de problèmes, notamment éthiques, sont encore à régler. Confrontés à la question "faut-il décrypter le génome des embryons pour en exclure les gènes défectueux?" scientifiques, hommes politiques, chef d'entreprises et informaticiens se sont divisés en deux camps égaux. Mais selon Jeremy Rifkin, président de la Foundation on Economic Trends, il ne fait aucun doute que tous répondrons par l'affirmative lorsque le choix leur sera proposé. "Je vous garantis que chacun choisira le décryptage (...). L'enfant deviendra le stade ultime du commerce dans la vie post-moderne", a-t-il lancé. Richard Klausner, directeur de l'Institut de recherche américain sur le cancer, a estimé pour sa part que les fruits de la recherche génétique, qui permettront de différencier des dizaines de cancer singuliers, présentaient un gigantesque potentiel en terme d'amélioration des traitements. Aussi prometteuse soit-elle, la génétique n'est pas, loin s'en faut, l'unique vecteur de progrès pour les années à venir. Les entreprises spécialisées dans les biotechnologies se préparent en particulier a exploiter les capacités du corps humain à se soigner lui-même, notamment par le biais des cellules souches. Ces cellules, qui ne sont pas encore différenciées, sont virtuellement capables de former tout type de tissu biologique, quelle qu'en soit la fonction. "L'utilisation de ces cellules ne fait que commencer", a déclaré Irving Weissman, professeur à l'école de médecine de l'université de Stanford et fondateur de StemCells Inc. . L'équipe de chercheurs travaillant sous sa direction est déjà parvenue à isoler des cellules sanguines à un stade de maturité très précoce et à les utiliser pour régénérer la moëlle osseuse d'un patient ayant suivi un traitement cancéreux. Du côté des nanotechnologies, les laboratoires Xerox travaillent au développement d'un matériaux baptisé "argile numérique" fait de molécules intelligentes capables de s'organiser entre elles et, peut-être, de remplacer un jour les microprocesseurs qui équipent les ordinateurs, a expliqué Seely Brown, directeur de recherche chez Xerox Corp . "Notre objectif est d'amener ceci à la taille d'un grain de sable", a-t-il déclaré, tenant un cube de matière brune entre le pouce et l'index.

Reuters : http://fr.news.yahoo.com/010128/2/v5sp.html

Reconstituer la peau au poil près
Samedi, 03/02/2001 - 00:00

Des chercheurs français viennent de montrer que la peau d'un mammifère contient les cellules souches permettant de recréer l'épiderme dans sa totalité, avec les glandes sébacées et les follicules pileux. Cette découverte ouvre des perspectives sans précédent en dermatologie, en cosmétologie ou en cancérologie. Elle est publiée dans la revue américaine Cell datée du 26 janvier. L'équipe de Yann Barrandon, de l'Institut pour la recherche médicale (Inserm, Ecole normale supérieure), a isolé chez des rongeurs des cellules capables de générer toutes les lignées de cellules nécessaires pour reconstituer un épiderme : les glandes sébacées, qui produisent le sébum, indispensable pour lubrifier la peau, et les follicules pileux qui ''fabriquent'' les poils et les cheveux. Ces cellules souches sont d'ailleurs principalement situées dans ces follicules, caractéristiques des mammifères. Ils participent à la régulation de la température du corps et à la protection contre les rayons ultraviolets. La découverte de l'équipe de Yann Barrandon pourrait permettre d'améliorer les greffes de peau sur les grands brûlés, de mieux traiter les problèmes de pilosité ou encore d'améliorer la compréhension de certains cancers de la peau.

AFP : http://fr.news.yahoo.com

La carte du génome du riz pourra aider à lutter contre la faim dans le monde
Samedi, 03/02/2001 - 00:00

Les chercheurs du groupe agrochimique suisse Syngenta en Californie ont achevé la carte du génome du riz, une découverte qui ouvre de nouvelles perspectives pour améliorer les cultures vivrières et mieux lutter contre la faim dans le monde. "C'est l'une des découvertes scientifiques majeures dans cette ère du génome", a affirmé vendredi Peter Meldrum, pdg de Myriad Genetics, partenaire de Syngenta. "Des variétés de cultures à haut rendement peuvent nous permettre d'éliminer la faim dans le monde", a-t-il indiqué lors d'une audioconférence. Après trois ans de recherche, Syngenta a annoncé vendredi avoir décodé 99,5 % de la carte du génome du riz, première culture commerciale à ainsi avoir sa carte décryptée. Les chercheurs travaillant à La Jolla, où se trouve le laboratoire californien de Myriad Genetics, ont identifié 50.000 gènes. Le groupe Syngenta prévoit d'utiliser ses découvertes pour des applications innovantes dans le domaine commercial. Le développement de nouvelles variétés de riz, plus résistantes et plus productives, pourra être accéléré. "C'est la première étape vers des études appliquées", a déclaré Steven Briggs, de Syngenta, qui décrit le décryptage de la carte du riz comme l'équivalent agricole de celui de la carte du génome humain réalisé l'an dernier. La carte du génome du riz, que Syngenta entend partager avec d'autres chercheurs de la communauté scientifique à travers des accords de collaboration, devrait permettre de développer de nouvelles semences d'ici quatre à cinq ans, a encore assuré David Evans, directeur de la recherche à Syngenta. Le groupe veut travailler avec des instituts de recherche locaux dans les pays en développement pour un usage commercial des nouvelles espèces au profit de ceux qui cultivent des produits de subsistance. Après le riz, d'autres céréales pourraient profiter de la découverte de cette carte du génome. "Je pense que cela va améliorer la qualité de l'alimentation et aider à nourrir une population grandissante", ajoute David Evans.

AFP : http://fr.news.yahoo.com/010126/1/v29q.html

Wired : http://www.wirednews.com/news/technology/0,1282,41453,00.html

L'ail : un aliment aux vertus anti-cancéreuses
Samedi, 03/02/2001 - 00:00

Certains aliments ont mauvaise presse, non pas du point de vue sanitaire, mais social : ainsi, manger de l'ail peut "marquer" durablement l'haleine. Mais parions qu'à la lecture de cet article, vous allez utiliser ce condiment dans toutes vos recettes ! Le principe d'une méta-analyse est simple : il s'agit de reprendre l'ensemble des articles scientifiques écrits sur un sujet, d'évaluer la méthodologie utilisée pour les études et de faire une synthèse. C'est ce qu'ont fait les auteurs d'un article paru il y a quelques mois dans la revue "American journal of Clinical Nutrition". Ils ont fait une méta-analyse de 300 publications portant sur la nutrition et le cancer. Ils ont isolé 22 études portant plus spécifiquement sur les effets de l'ail. Les résultats sont largement en faveur de l'utilisation de ce condiment : il aurait une action préventive sur l'apparition de certains cancers. Ainsi, une consommation régulière d'ail permet de diminuer de moitié le risque d'apparition d'un cancer de l'estomac et de deux-tiers celui d'un cancer colo-rectal. L'origine de cette vertu anti-cancéreuse n'est pas encore définie : toujours est-il que les auteurs avancent l'hypothèse d'une propriété anti-bactérienne de l'ail, qui lutterait contre la présence d'Helicobacter pylori dans l'estomac : or, l'implication de ce germe dans l'apparition d'un cancer de l'estomac est connue. Si vous désirez agir préventivement contre l'apparition d'un cancer de l'estomac ou colo-rectal, vous devez impérativement consommer de l'ail "frais", utilisé cru ou cuit. En effet, cette action préventive n'est pas prouvée lorsque l'ail est consommé sous forme de compléments diététiques. Tant pis pour l'haleine !

Csanté : http://www.csante.com/

L'informatisation de l'hôpital sauve des vies
Samedi, 03/02/2001 - 00:00

Dans le monde entier, la plupart des centres médicaux souffrent encore d'un important retard technologique par rapport aux agences bancaires, aux usines de production... voire au garage du coin ! Mais dans quelques rares établissements, comme, à Boston, le Brigham & Women's Hospital et le Massachusetts General Hospital, le personnel, des grands patrons aux internes, utilise massivement les technologies de l'information, révolutionnant ainsi la pratique de la médecine. Ici, le dossier en papier, emblème de l'univers médical, cède la place à un fichier électronique, consultable à tout instant et réactualisé en permanence. Les médecins y saisissent leurs prescriptions - qu'il s'agisse d'ordonnances ou d'analyses de laboratoire - dans un logiciel qui détecte instantanément les erreurs. Dans le service de radiologie, les images numériques remplacent progressivement les anciens films radio, si faciles à égarer. Le Brigham et le General sont les deux piliers de la faculté de médecine de Harvard (Massachusetts) et figurent parmi les meilleurs hôpitaux du monde. Pourtant, même dans des établissements aussi prestigieux, la généralisation de l'informatique a induit des améliorations stupéfiantes. Elle a réduit de 55 % la fréquence des erreurs thérapeutiques graves et fait chuter de 81 % le nombre total d'erreurs médicales, indique John Glaser, directeur informatique de la société Partners Health Care System, qui possède les deux hôpitaux. Selon l'Institut américain de médecine, les erreurs médicales provoquent chaque année la mort de 44 000 personnes aux Etats-Unis - un bilan plus lourd que celui du sida ou du cancer du sein. Sans compter que ces erreurs médicales sont très onéreuses : John Glaser chiffre ainsi à 10 millions de dollars les économies réalisées chaque année par le Brigham Hospital depuis que le système informatisé des commandes a été mis en place. Alors que l'usage de telles technologies est plus que courant dans les entreprises, il en va autrement des milieux médicaux. Les méthodes de ces deux hôpitaux sont ainsi à l'avant-garde. 95 % des médecins et plus de 90 % des hôpitaux continuent de s'appuyer sur des documents papier. Le système du Brigham Hospital repose sur le principe de la création d'un dossier électronique par personne, alors que le patient américain possède 11 dossiers médicaux en moyenne. Les gains d'efficacité s'avèrent prodigieux. Alors que les dossiers papier, souvent mal classés, s'égarent, les dossiers électroniques sont toujours accessibles et plus faciles à utiliser. Mais c'est lorsqu'il est associé au système de saisie des prescriptions que le dossier électronique donne toute sa mesure. Aujourd'hui, les alertes automatisées aux allergies modifient 60 prescriptions par jour au Brigham Hospital. Et l'on n'a là qu'un modeste aperçu des fabuleuses améliorations que le système peut apporter. En premier lieu, il évite au personnel de déchiffrer l'écriture des médecins, notoirement illisible et source d'erreurs fréquentes. Il permet de commencer les soins plus tôt en alertant les médecins par un bip dès que les analyses du laboratoire reviennent en indiquant qu'un patient est en danger. « En proposant des médicaments aussi efficaces mais moins onéreux, la gestion électronique a limité la croissance annuelle du budget médi caments à 5 % au cours des cinq dernières années, alors qu'elle atteint 13 % à 15 % dans d'autres systèmes d'assurance-maladie », explique le président du Brigham, Jeffrey Otten. De même, de nombreux examens radiologiques sont planifiés via les technologies Web. Grâce au Net, le délai nécessaire à la planification des examens ne représente plus que 15 % du temps autrefois consacré à cette tâche, explique Ramin Khorasani, responsable informatique de ce service. Les deux pionniers de Boston font encore figure d'exception. Mais leur cas sera devenu banal d'ici à la fin de la décennie.

Le Monde : http://interactif.lemonde.fr/article/0,5611,2865--141462-0,FF.html

La boîte à outils futuriste des chirurgiens
Samedi, 03/02/2001 - 00:00

La chirurgie sans chirurgien. La chirurgie sans sang, ni pansement. Bref, la chirurgie de demain. «Ce qui est particulier, c'est que les patients ont l'air d'avoir plus confiance dans la technique que dans leur chirurgien», lâche Jacques Marescaux, chef du service de chirurgie digestive à Strasbourg. L'homme a fondé l'Institut européen de téléchirurgie. Fer de lance en France de la robotisation de l'acte chirurgical, il le reconnaît non sans courage: «La robotique, c'est la grande révolution de la chirurgie à venir. Mais aujourd'hui, il n'y a pas encore de bénéfice évalué pour le patient.» A l'Institut mutualiste Montsouris de Paris, s'est tenu en fin de semaine un colloque sur «la chirurgie de demain». Une rencontre passionnante et inédite. Vers où va-t-on? La main et l'oeil du chirurgien vont-ils peu à peu disparaître? La chirurgie de demain a-t-elle tous les droits? Et bien d'autres perspectives. «C'est moins fatigant et beaucoup plus précis. Les tremblements de la main du chirurgien sont réduits au minimum. Mais soyons honnête, on en est encore à faire simplement accepter le robot dans les salles d'opérations», insiste Jacques Marescaux. La révolution ne fait en effet que débuter: on est encore loin de remplacer complètement l'acte chirurgical par la divine machine. Certes, cela existe en chirurgie orthopédique avec le robot Caspar qui pose des prothèses de hanche ou de genou: dans ce dernier cas, la veille de l'opération, on visualise le genou en trois dimensions, puis on choisit une prothèse, on programme. Le lendemain, le chirurgien regarde et surveille, pouvant intervenir à tous moments. Pour le reste, en chirurgie viscérale et cardiaque, les robots sont plutôt des sortes de bras articulés. L'un d'entre eux, - baptisé Zeus -, est doté de trois bras pilotés à distance par le chirurgien via un ordinateur: un bras tient la microcaméra, les deux autres manient les instruments chirurgicaux miniaturisés. Assis devant l'écran où est visualisé le champ opératoire, le chirurgien manipule des pinces similaires à celles qu'il utilise habituellement mais câblées à l'ordinateur. «En chirurgie digestive ou urologique, beaucoup d'interventions ont eu lieu avec ce type de robots, explique le professeur Vallancien, chef de service d'urologie à Montsouris. Comme le retrait de la vésicule biliaire, mais aussi des ablations de rein, des prostatectomies.» «Quand on est à l'intérieur du cerveau, on voit du blanc partout. On est comme un marin perdu dans le brouillard.» Marc Tadié, qui dirige le service de neurochirurgie du CHU de Bicêtre, a cette jolie formule: «Avec la neuro navigation, on a un GPS. On sait se repérer, puis distinguer clairement la cible.» Désormais, l'ordinateur va mettre au point une représentation tridimensionnelle exacte de la tête du patient et de son cerveau. Bref, on voit tout. «La neuronavigation permet alors deux choses: d'une part de localiser avec précision une lésion, y compris de petite taille, avec sa superficie et sa profondeur. Et d'autre part de choisir un trajet précis en partant d'un point précis d'entrée allant jusqu'à un point de cible, en évitant les structures nobles. La précision est d'environ 1 mm, ce qui est tout à fait acceptable», note Marc Tadié. Ensuite? Par laser ou par coelioscopie, on détruit la lésion ou la tumeur. «Les avantages sont bien réels. Une précision de l'acte, et bien sûr, une forte réduction de la durée opératoire. Il nous reste maintenant à passer à une étape supérieure où les images que l'on a du cerveau du patient sont immédiatement corrigées pour voir en direct les effets de l'intervention.» En septembre 1998 puis en janvier 2000, l'équipe du professeur Dubernard a réalisé les premières allogreffes de mains. Des prouesses qui ont posé autant de questions qu'elles ont apporté de réponses. Certes, ces greffes de tissus composites ont eu de bons résultats sur le plan immunologique: ainsi, il n'y a pas eu de crise majeure de rejet. «Cela ouvre une nouvelle ère de la transplantation, en particulier pour la chirurgie plastique et réparatrice», a pu noter Jean-Michel Dubernard. Mais pour le reste... Il s'agit de réparer, mais jusqu'où? Greffer des oreilles, des pieds? Depuis peu, se dégage un consensus. On estime que cette chirurgie de la réparation ne se justifie que si le handicap est très important. Ainsi, l'allogreffe de mains n'est conseillée que pour une double amputation. «Ces opérations sont si lourdes, y compris symboliquement, qu'il faut qu'elles répondent à un vrai manque.» La chirurgie réparatrice, - en particulier de la main -, prend pourtant une place de plus en plus importante. Et pour cause... 1,4 million de Français se blesse à la main chaque année, dont 600 000 très gravement. «Les techniques de microchirurgie sont tout à fait au point. Et les progrès des biomatériaux vont permettre le remplacement d'articulations de la main à l'aide de prothèses encore plus fiables, a analysé le professeur Michel Merle, qui dirige l'Institut européen de la main à Nancy.

Libération :

http://www.liberation.com/quotidien/semaine/20010127samw.html

La thérapie cellulaire au secours de l'insuffisance cardiaque
Samedi, 03/02/2001 - 00:00

Un nouveau traitement de l'insuffisance cardiaque a commencé à être appliqué chez l'homme au cours de l'année 2000. Une équipe française, coordonnée par le professeur Philippe Menasché, chirurgien cardiaque à l'hôpital Bichat, a tenté une transplantation, dans le muscle cardiaque, de cellules musculaires. Les premiers résultats de cette intervention sont parus, samedi 27 janvier, dans l'hebdomadaire médical britannique The Lancet. Cette mise en oeuvre de l'utilisation de cellules souches, ici musculaires, préfigure peut-être l'orientation thérapeutique du siècle qui commence (Le Monde du 18 octobre 2000). Trois malades ont bénéficié de cette technique, le premier d'entre eux il y a huit mois. Pour redonner vie à une partie du muscle cardiaque défaillante, l'équipe a utilisé des cellules souches musculaires prélevées dans la cuisse du malade. Elle les a cultivées et fait proliférer pendant trois semaines pour obtenir 800 millions de cellules qui ont ensuite été transplantées dans une zone morte du myocarde. Cinq mois après l'intervention, ces cellules sont vivantes et se contractent de façon synchrone avec l'ensemble du coeur. C'est le succès de l'ensemble d'une équipe de cardiologues et de chercheurs. Car cette première spectaculaire a été précédée de longues études expérimentales sur le rat, puis par une préparation précise du protocole de sélection des malades et de leur évaluation. Ce sont d'abord des cellules musculaires foetales qui furent utilisées, puis les propres myoblastes de l'animal d'expérience, les cellules souches des muscles, que l'on faisait se multiplier en culture. Cette dernière technique a de multiples avantages. Faisant appel aux cellules de l'individu qui doit être soigné, elle n'entraîne aucune manifestation de rejet immunitaire. Elle repose sur des cellules d'un accès aisé : une discrète incision de la peau de la cuisse, le prélèvement d'un morceau de muscle, l'isolement de petites cellules rondes à la périphérie des fibres musculaires, leur mise en culture et leur transplantation dans les zones du myocarde lésées par un arrêt de la circulation sanguine. « Ces transplantations se sont avérées efficaces chez le rat, même à long terme, ajoute Philippe Menasché. Il fut d'abord décidé de ne pas ouvrir la poitrine de malades en insuffisance cardiaque pour leur faire uniquement cette transplantation cellulaire, mais aussi de pratiquer dans le même temps un pontage artériel. Ensuite ne furent retenus que des malades en grande insuffisance cardiaque dont, d'une part, l'état du coeur justifiait ce pontage. Deux cardiologues cliniciens furent plus particulièrement chargés de sélectionner les malades et d'évaluer très précisément leur fonction cardiaque, avant intervention et dans les mois suivant l'acte chirurgical. Dans le suivi des malades, l'échocardiographie très fine mise au point par Albert Hagège a permis de visualiser la contraction des zones transplantées. Leur force de contraction est analysée par imagerie Doppler tissulaire par François Héloire dans le service de Denis Duboc. Et surtout, une technique d'imagerie très moderne, la tomographie par émission de positons, permet de visualiser la présence des cellules vivantes dans la zone muette avant transplantation. Des images jamais vues après revascularisation ! Et c'est là un moyen irréfutable de rapporter à la thérapie cellulaire une partie du progrès enregistré dans l'état des malades. La fraction d'éjection du malade décrit dans l'article du Lancet est passée de 20 % à 30 %. Ce patient a en effet pu quitter le fauteuil dans lequel il était cloué pour emmener ses petits-enfants en promenade.

Le Monde : http://www.lemonde.fr/article/0,5987,3244--141431-,00.html

Lancet :

http://www.thelancet.com/journal/vol357/iss9252/full/llan.357.9252.talking

Alcool : 13 % des hommes à risque de dépendance
Samedi, 03/02/2001 - 00:00

Un Français sur quatre âgé de 12 à 75 ans consomme un verre d'alcool chaque jour ! A douze ans... L'alcool, même si on en parle peu, représente un réel problème social dans notre pays. Ainsi le Baromètre santé du Comité français d'éducation pour la santé montre-t-il que les 20-25 ans ont pris la mauvaise habitude - très anglo-saxonne - de se " défoncer " durant les fins de semaine. Avec une moyenne de cinq verres d'alcool fort chaque samedi soir. Dans ces conditions, il n'est pas surprenant que 25 % de ces jeunes aient été ivres au moins une fois dans l'année. Mais le chiffre le plus ahurissant, c'est la proportion de 13,3 % des hommes (tous âges confondus), qui présentent un risque objectif de dépendance à l'alcool. Un homme sur huit... Dans la population féminine, ce chiffre n'excède pas 4 %. Voilà un exemple parlant, non ? Comment savoir si vous êtes dépendant ? C'est simple. Essayez de rester trois jours sans boire une goutte d'alcool. Si vous ne tenez pas trois jours, si vous ressentez des envies pressantes ou vous laissez abuser par des occasions qui ne sont que des prétextes - ah ! le petit verre avec les amis de passage... -, alors vous devriez en parler à votre médecin.

Panorama du Médecin:

http://fr.news.yahoo.com/010131/81/vbyu.html

L'origine de la vie est-elle extraterrestre?
Samedi, 03/02/2001 - 00:00

Mélangez de l'ammoniac, du monoxyde et du dioxyde de carbone, de l'eau et du méthanol, et refroidissez le tout à -263 degrés Celsius. Exposez ensuite ces glaçons aux rayons ultraviolets, puis plongez-les dans l'eau :vous obtiendrez alors des molécules complexes, dont certaines ressemblent à des membranes cellulaires .Telle est la conclusion d'une étude publiée dans le dernier numéro du Proceedings of the National Academy of Sciences (PNAS). Celle-ci conforte l'hypothèse que la vie serait d'abord apparue dans l'espace, puis sur Terre. Les membranes créées, en effet, sont comme celles qui protègent toutes les cellules animales ou végétales ; et dans l'espace, on trouve ces mêmes éléments chimiques, une température proche du zéro absolu et des rayons ultraviolets. Pour James Dworkin du Ames Research Center (NASA) et ses collègues du Search for Extraterrestrial Intelligence Institute et de l'université de Californie à Santa Cruz, ce seraient donc comètes et astéroïdes qui auraient amenés la vie sur Terre. Notre planète n'aurait amené que l'eau nécessaire à la dernière réaction chimique. Une étude antérieure avait d'ailleurs démontré que la météorite de Murchison, tombée en Australie en 1969, contenait également de nombreuses molécules biologiques parmi lesquelles des acides aminés.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1142000/1142840.stm

Athérosclérose : l'action des fibrates enfin comprise !
Samedi, 03/02/2001 - 00:00

Jean-Charles Fruchart, directeur d'une unité INSERM à l'Institut Pasteur de Lille, vient de découvrir comment fonctionnent les fibrates, des médicaments déjà bien anciens utilisés contre l'excès de cholestérol. Comme quoi il n'est jamais trop tard pour comprendre... . L'apparition des fibrates remonte aux années 70. Ils ont à proprement parler révolutionné le traitement de l'hypercholestérolémie, permettant de diminuer le cholestérol total d'environ 20 % chez les malades souffrant d'un excès de cholestérol sanguin. Depuis lors, la découverte des statines a permis de faire encore progresser la médecine. Mais les fibrates continuent d'être des médicaments fort utiles, très compétitifs et largement prescrits. En fait, l'équipe de Jean-Charles Fruchart a démontré qu'ils jouent un rôle d'éboueurs de cholestérol, en l'emportant vers le foie où il est ensuite dégradé. Ils régulent le taux de HDL-cholestérol, aussi appelé " le mauvais cholestérol ", stimulant son transport à l'extérieur des macrophages, cellules sanguines où il s'accumule en provoquant un engorgement et une réaction de caractère inflammatoire. C'est celle-ci, en contrecoup, qui favorise les dépôts et lésions artérielles. En contrecarrant cet engorgement, les fibrates assurent donc une réelle protection contre l'athérosclérose. Certes les statistiques avaient démontré cette capacité. Mais aujourd'hui les chercheurs éprouvent la satisfaction de l'avoir expliquée... Et peut-être pourront-ils grâce à cela faire encore mieux demain.

HealthandAge Com : http://www.healthandage.com/newsletter/npf.htm

Maladies cardiovasculaires : une nouvelle molécule réduit la rigidité des vaisseaux
Samedi, 03/02/2001 - 00:00

Une nouvelle molécule qui rompt les liaisons au niveau du collagène réduit significativement la rigidité des vaisseaux sanguins chez les primates non humains selon une étude parue dans Proceedings of the National Academy of Sciences. Ces résultats suggèrent que cette molécule puisse être utilisée dans le traitement de l'hypertension artérielle, de l'insuffisance cardiaque et de certaines complications vasculaires du diabète. ALT-711, une molécule contenant un groupement thiazolium (3-phenacyl-4,5-dimethylthiazolium chloride) rompt les liaisons ou les ponts créés au niveau des artères quand le glucose se lie au collagène. Ces pontages empêchent la flexibilité naturelle du collagène. Le Dr E. Lakatta et ses collaborateurs ont étudié les effets du ALT-711 sur les propriétés artérielles et ventriculaires de 6 singes rhésus (Macaca mulatta) âgés (21 +/- 3,6 ans), de sexe masculin, normotensifs et non diabétiques. Ceux-ci ont reçu des doses de ALT-711 tous les deux jours pendant 3 semaines. Six semaines après le dernier traitement, toutes les parois des vaisseaux testées étaient devenues plus flexibles et l'effet a persisté pendant plus de 4 mois après la dernière administration du médicament. Il y a eu une amélioration de la fonction ventriculaire gauche et celle-ci a duré pendant presque 10 mois après la fin du traitement. Les auteurs concluent que chez les primates âgés, en bonne santé et non diabétiques, l'ALT-711 améliore à la fois la fonction ventriculaire et artérielle et le couplage ventriculo-vasculaire.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=1908

Le gène de la résistance du paludisme identifié !
Samedi, 03/02/2001 - 00:00

Une équipe américaine dirigée par Tom Wellems a identifié un gène qui, en mutant, permet au parasite responsable du paludisme de résister au médicament le plus commun contre cette maladie, la chloroquine. Le gène en question, précisément localisé sur le chromosome 7, est identifié sous le nom de code pfcrt. D'après Tom Wellems, son code génétique est destiné à une protéine localisée sur l'estomac du parasite plasmodium falciparum. C'est ainsi que ce dernier deviendrait insensible à l'action de la chloroquine, le médicament le plus économique actuellement disponible contre le paludisme. Selon le chercheur américain, d'autres recherches seront nécessaires pour comprendre la manière dont ces mutations agissent sur le chloroquino-résistance. Pourtant, ces premiers résultats représentent une réelle révolution. " Nous savons désormais que nous pouvons concentrer nos efforts sur une molécule précise, le pfcrt, pour comprendre les mécanismes de la résistance au traitement. " Cette découverte représente de grands espoirs pour le traitement du paludisme. Car ainsi que le souligne Wellems, " si nous savons demain imiter l'action de la chloroquine avec un médicament qui saura également bloquer ce gène et l'empêcher d'exprimer sa résistance, alors celui-ci aura un bel avenir devant lui. " Quand on connait les ravages du paludisme, en Afrique et en Asie mais aussi en Amérique latine, on mesure la portée de cette découverte car dans ces régions le parasite présente de plus en plus souvent une résistance au traitement qui semble liée à ce mécanisme. Sans oublier tous ceux qui, doivent se rendre dans ces régions du monde pour leurs vacances ou leur travail.

Bulletin de l'OMS :

http://www.who.int/bulletin/digests/french/ringwald.pdf

Cancer du sein : une nouvelle pièce au puzzle
Samedi, 03/02/2001 - 00:00

Le gène BRCA2, bien connu pour son rôle dans les cancers du sein et des ovaires, a livré un nouveau secret : il ne répare pas seulement l'ADN pour limiter la prolifération cancéreuse de cellules, il est aussi un acteur essentiel de la division cellulaire. Acronyme de breast cancer (cancer du sein), le gène BRCA2 a des fonctions qui restent globalement bien mystérieuses. Pour mieux comprendre son rôle, une équipe du Wistar Institute, de l'université de Pennsylvanie et du Fox Chase Cancer Center a décidé de purifier ce gène, c'est-à-dire d'isoler un composé qui le contenait. Comme Lihua Marmorstein et ses collègues le rapportent dans Cell, ils ont alors découvert que les protéines du gène BRCA2 se lient avec celles d'un gène jusqu'ici inconnu - le BRAF35, ou BRCA associated factor 35 - et qu'ensemble, ces protéines deviennent un composé qui s'attache à l'ADN et provoque des divisions cellulaires. En fait, lorsque les protéines de l'un ou de l'autre de ces gènes sont neutralisées par des anticorps, à peine 50 % des cellules réussissent à se diviser, contre plus de 80 % dans une culture "normale".

Brève rédigée par @RT Flash

Cybersciences : http://www.cybersciences.com/Cyber/0.0/0_0.asp

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top