RTFlash

RTFLASH Recherche & Technologie
NUMERO 131
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Janvier 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet au service de la création d'entreprise
Un fauteuil roulant commandé par la pensée
USA : lancement projet super-ordinateur pour recherche biologique
Un nouvel outil permet de donner du relief à la production de sons
Compact Disc : la guerre de succession
Avenir
Des physiciens américains sont parvenus à arrêter la lumière
Prévoir les tremblements de Terre par satellites
Matière
Les microprocesseurs ne manquent pas d'air
Bientôt des fils électriques plastiques ?
Terre
Un rapport de l'ONU confirme l'ampleur du réchauffement climatique
Vivant
La salmonelle combinée à la radiothérapie s'avère efficace contre certains cancers
Comment faire taire le système immunitaire ?
Premiers essais chez l'homme d'un vaccin synthétique contre le paludisme
Les défis d'une microscopie adaptée au vivant
Les crises d'épilepsie désormais prévisibles
Certaines cellules du rat peuvent vivre indéfiniment en laboratoire
Les antikinases seront-elles les antiprotéases des cancers ?
Des puces contre les bactéries...
Une nouvelle approche pour la sclérose en plaques
Prévoir l'évolution des tumeurs pour mieux les combattre
Recherche
General Motors se met à son tour à la reconnaissance vocale
Edito
UMTS : Ayons le courage de tout arrêter pour voir si cela marche et s'il y a un réel marché solvable



Dans quelques jours, combien d'opérateurs de télécommunications déposeront leur candidature auprès de l'Autorité de Régulation pour pouvoir disposer dans quelques mois des quatre licences UMTS que les pouvoirs publics français ont décidé d'attribuer pour une somme de 32,5 milliards de francs (4,95 Milliards d'euros) par licence ? Quelques jours avant de faire cet acte de candidature qui décidera du destin de leur compagnie, les managers de ces grands groupes doivent être saisis par un doute angoissant. En effet, cette candidature les engagera à faire une dépense qui à terme dépassera les 75 milliards de francs (11,5 milliards d'euros) si nous prenons en compte les investissements nécessaires alors qu'ils n'ont aucune certitude sur la fiabilité et les réelles capacités de ces technologies UMTS et surtout sans savoir si un réel marché existe. Le risque est d'une telle ampleur que tout laisse à penser, au moment où je rédige ces quelques lignes, qu'il y aura seulement deux candidats et peut-être même un seul qui serait notre opérateur national, France Télécom, qui s'est mis dans l'obligation d'obtenir cette licence s'il ne veut pas voir mettre à bas toute la stratégie qu'il a initiée avec l'acquisition d'Orange. Depuis le début de l'ère industrielle, c'est la première fois, sur notre continent européen (car ce que je dis là est aussi vrai dans tous les autres pays d'Europe et surtout pour ceux qui ont attribué ces licences avec des enchères) qu'un tel risque industriel serait pris par des sociétés privées. Certes, et cela est particulièrement vrai en France, la puissance publique, au travers de ses sociétés nationalisées, a déjà pris des risques comparables aussi bien dans le domaine bancaire avec le Crédit Lyonnais et même dans le domaine industriel avec la longue et douloureuse histoire de Bull ou les « rêves » technologiques des satellites TDF ou des normes D2 Mac. Cette fois-ci, ce ne sont plus, seulement, les contribuables qui se retrouvent en première ligne mais bien les actionnaires. Certes, notre opérateur national France Télécom peut à certains moments, quand l'angoisse est trop forte, penser que son actionnaire principal est l'Etat et que celui-ci pourrait lui éviter, dans l'ouragan, le naufrage. On ne peut se trouver en haute mer, affronter la terrible tempête du marché mondial et penser qu'une amarre nous relie encore à la terre... Les opérateurs (ou l'opérateur) qui, dans quelques jours, vont (va) accomplir cet acte déterminant en posant leur (sa) candidature pour une licence UMTS ne pourront (pourra) s'empêcher de penser au destin du Réseau Iridium. Reprenons ce qui était annoncé il y a quelques courtes années par les « experts » les plus écoutés des télécommunications. Pour eux, les constellations satellitaires de basse altitude avaient un destin radieux. Malheureusement, les clients attendus ne se sont pas présentés... Un jour, ces constellations satellitaires trouveront leur véritable place, qui fera envie, j'en suis convaincu, mais seulement lorsque la technique, l'acquisition des usages par les utilisateurs et surtout l'acceptation des coûts par les clients seront en phase. Pour l'UMTS, nous sommes devant une problématique fort comparable. Il est certain que les utilisateurs auront un jour besoin de large bande associée à la mobilité. La vraie question : quand auront-ils ce besoin et combien seront-ils prêts à débourser pour assouvir ce besoin ? J'ai déjà à plusieurs reprises dans ces colonnes précisé que la « killer-application » du mobile de demain émergera de la fusion entre le monde de l'automobile et le monde des télécommunications. Dans un prochain éditorial, j'essaierai de mieux préciser les traits essentiels de cette killer-application. Elle deviendra évidente à partir de l'instant où nous aurons intégré que le mobile de 3e génération n'est pas une simple évolution du GSM et même du GPRS mais que la mission des larges bandes « mobiles » est de favoriser l'émergence d'une ère nouvelle dans les relations sociales et culturelles. Vous noterez que j'emploie les mots génériques « large bande mobile » pour définir cette technologie du futur qui ouvrira une ère nouvelle et non pas UMTS. En effet, comme tout observateur qui analyse avec attention toutes les informations accessibles, je n'ai aucune certitude que l'UMTS sera bien cette technologie qui permettra de relever le défi du futur. Devant un tel amoncellement d'incertitudes, que ce soit au niveau des réelles capacités de ces nouvelles technologies UMTS ou au niveau de l'acquisition des usages par des clients potentiels qui, seuls, ont la capacité de créer un marché solvable, j'ai l'intime conviction que les gouvernements européens qui ont réclamé « a priori » de fortes sommes soit au travers d'enchères, soit au travers de « concours de beauté », s'honoreraient à stopper la procédure et à mettre en oeuvre un moratoire tant qu'ils n'auront pas la certitude que la technologie UMTS pour laquelle ils s'apprêtent à accorder des licences est viable et peut créer un marché réellement solvable. Le Gouvernement français a une raison supplémentaire d'arrêter immédiatement cette procédure : son « concours de beauté » est un échec. Comment pourrait-il persévérer alors qu'il n'y aurait que deux ou même un seul candidat là où les pouvoirs publics proposaient d'attribuer quatre licences. S'il le voulait, le pourrait-il d'ailleurs alors qu'il s'est engagé envers le Parlement à percevoir 130 milliards de francs (19,8 Milliards d'Euros) pour le déploiement de l'UMTS en France ? En toute conscience, l'Autorité de Régulation pourrait- elle accepter d'attribuer ces licences à deux (ou même un seul) candidat(s) alors qu'elle sait pertinemment qu'en raison du manque de concurrence, elle manquerait totalement d'« autorité » pour imposer à ces (cet) opérateur(s) des règles strictes surtout au niveau de la couverture du territoire ? Si les Gouvernements européens et les autorités françaises ne prenaient pas cette mesure de bon sens en arrêtant immédiatement tout le processus d'attribution et de déploiement de l'UMTS, la crise que devraient affronter les opérateurs européens qui sont sur le point d'engager leur destin mais aussi les gouvernements qui, avec trop de légèreté, auraient attribué ces licences, serait d'une telle ampleur que c'est toute la nouvelle économie, si porteuse d'avenir, qui pourrait être gravement ébranlée, pour de longues années sur l'ensemble du continent européen.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Internet au service de la création d'entreprise
Samedi, 27/01/2001 - 00:00

Lancé par les quatre dirigeants associés du Greffe du Tribunal de Commerce de Paris (dont le rôle est d'assister les juges du tribunal de commerce et de gérer l'ensemble des registres de 270 000 entreprises parisiennes), le site www.greffe-tc-paris.fr fournit depuis sa création en juillet 2000 des informations légales et économiques aux professionnels . "Avec le vote par le Parlement en mars 2000 de la loi sur la signature électronique, les greffiers ont réalisé qu'il serait désormais possible de réaliser des modalités en ligne. Une collaboration avec la société Intrinsec a permis de rendre le site interactif et l'on pourra proposer bientôt la constitution du dossier de création d'entreprise, sans passer par l'envoi postal des pièces complémentaires." explique Marie-Christine Berneron, Directrice de la Communication du Greffe de Paris. Le site comporte déjà deux parties, l'une libre et l'autre sécurisée. Le créateur d'entreprise non encore identifié entre dans la partie non sécurisée et remplit un questionnaire. "Les formulaires nécessaires ont été numérisés et possèdent un module interactif destiné à éliminer les erreurs de saisies. Dans quelques semaines, il devrait être possible de les signer électroniquement. De même que les K-Bis qui pourront être signés et envoyés par le greffier. " indique Marie-Christine Berneron. Dans la partie sécurisée et grâce à l'usage d'une clef d'authentification disponible auprès du Greffe, les chefs d'entreprise déjà enregistrés peuvent de leur côté actualiser leurs dossiers avec une garantie de protection des informations par cryptage. Une partie judiciaire sera ajoutée au site afin de permettre aux acteurs juridiques (Juges et avocats) d'accéder en partie aux dossiers des affaires judiciaires en cours, ainsi qu'une assistance par téléphone. De même le règlement en ligne des frais de greffiers (environ 200 francs pour un coût global de 1200 francs dans le cas d'une SARL) est envisagé dans un futur proche, soit par système d'abonnement, soit par carte bleue. "L'usage du site n'implique pas de coûts supplémentaires et la clef de signature électronique est délivrée gratuitement par le greffier. " précise enfin Marie-Christine Berneron. Les entreprises parisiennes ne seront bientôt plus les seules à profiter de l'outil mis en place par le Greffe de Paris, puisque ce dernier va prochainement être étendu à tout la France où l'on compte aujourd'hui 190 tribunaux de commerce.

France Internet Com : http://france.internet.com/

Tribunal de Commerce de Paris : http://www.greffe-tc-paris.fr/

Un fauteuil roulant commandé par la pensée
Samedi, 27/01/2001 - 00:00

Le Monde du 8 janvier 2000 fait le point sur l'avancement du projet ABI (Adaptative brain Interface) financé par la commission européenne et réalisé par une équipe italienne d'Ispra. Il s'agit de commander les mouvements d'un fauteuil roulant motorisé pour handicapé, ou de faire fonctionner un traitement de texte, à partir d'ordres "pensés" par la personne handicapée et captés par une espèce de casque ressemblant à ceux utilisés pour les EEG. L'originalité de ce système est de personnaliser les commandes en fonction du type de pensée choisi par le sujet individuel concerné. Cinq types de "pensées" particuliers ont été identifiés, pour commencer, en utilisant des algorithmes génétiques.

Le Monde :

http://interactif.lemonde.fr/article/0,3649,2854--133768-0,FF.html

USA : lancement projet super-ordinateur pour recherche biologique
Samedi, 27/01/2001 - 00:00

Le secrétaire américain à l'Energie Bill Richardson a annoncé vendredi à Washington le lancement d'un projet de super-ordinateur, destiné à la recherche médicale et biologique, qui sera l'un des plus rapides jamais fabriqué. Ce projet est le fruit d'un accord signé vendredi entre Celera Genomics, Sandia National Laboratories et Compaq. Compaq s'occupera de la fabrication, tandis que les laboratoires du département de l'Energie Sandia et le laboratoire privé de recherche génétique Celera Genomics seront chargés du développement des programmes de recherche et d'analyse biologiques. Le super-ordinateur, qui devrait être opérationnel en 2004, sera capable de réaliser 100.000 milliards d'opérations à la seconde, soit 8 fois la vitesse atteinte par l'engin le plus rapide aujourd'hui.

AFP : http://fr.news.yahoo.com/010119/1/ui68.html

Un nouvel outil permet de donner du relief à la production de sons
Samedi, 27/01/2001 - 00:00

Le bruit d'une boîte d'allumettes secouée se déplace de haut en bas dans le dos de l'auditeur. Une voix douce chuchote quelques mots dans son oreille gauche avant de s'éloigner, puis se rapproche, de plus en plus près, à le toucher. La démonstration du procédé de traitement du son enregistré mis au point par Georges Vielledent, compositeur devenu ingénieur du son autodidacte, ne peut laisser indifférent. Les premiers témoins de ce qui constitue plus une découverte qu'une invention ne cachent pas leur enthousiasme. Certains parlent de bouleversement comparable à celui de la stéréo. La découverte de Georges Vieilledent pourrait bouleverser la reproduction du son de façon encore plus profonde que celle de Ray Dolby, l'homme qui, dans les années 60, a imposé au monde entier son système de réduction du bruit des cassettes audio. Depuis, il a créé le Dolby Surround et le Dolby Digital, qui distribue le son sur six canaux indépendants. Le procédé Arkamys ne se pose toutefois pas en véritable concurrent de cet illustre prédécesseur. Georges Vielledent prétend donner au son une profondeur, une présence et un réalisme inédits. Son système est capable de localiser avec précision dans n'importe quel point de l'espace un son particulier. Il s'inscrit ainsi dans le droit-fil des améliorations de la reproduction, amorcée avec l'apparition de la stéréophonie dès les années 30.L'intérêt du système réside presque autant dans son potentiel d'application que dans ses performances. En effet, les versions grand public des procédés multicanaux imposent toujours un important investissement en matériel (décodeurs, amplificateurs, enceintes supplémentaires). Avec Arkamys, on ne dépense pas un centime. C'est la musique elle-même qui transporte son amélioration. Ainsi, un simple poste de radio monophonique en tirera profit. « Bien entendu, plus l'installation est sophistiquée, plus les effets sont amplifiés », indique Georges Vieilledent. De fait, le son Arkamys s'accommode de toutes les configurations. Un simple signal stéréo passe parfaitement sur un décodeur Dolby Pro Logic. Appliqué à une bande-son en Dolby Digital 5 1, il atteint son meilleur réalisme. Pour la jeune société Arkamys, qui emploie huit personnes, les marchés qu'ouvre le procédé sont considérables. A lui seul, le catalogue des films les plus anciens dont la bande-son reste en mono arrive en tête des candidats à « l'arkamysation ». Cette dernière leur permettra de se hisser à un niveau plus adapté à l'équipement des amateurs de cinéma à la maison. Les oeuvres les plus récentes, quant à elles, bénéficieront d'une ambiance sonore plus dense. Les films d'horreur devraient provoquer plus de frissons. La science-fiction, plus de sensations fortes. La radio, qui mise sur la relation presque charnelle avec l'auditeur, devrait également s'approprier ce moyen de s'en rapprocher. D'autant qu'à l'intérieur des automobiles, situation qui se rapproche de l'écoute au casque, l'effet Arkamys se révèle particulièrement spectaculaire.

Le Monde :

http://www.lemonde.fr/article/0,5987,3244--139440-,00.html

Compact Disc : la guerre de succession
Samedi, 27/01/2001 - 00:00

En audio, la technologie change tous les quarts de siècle environ. Ce fut à peu près la durée de vie du 78 tours, puis du microsillon. Le CD est certes inusable, ce dont ses prédécesseurs ne peuvent se prévaloir, mais cet avantage n'est pas suffisant pour assurer sa pérennité face aux atouts supplémentaires des nouveaux supports.Premier d'entre eux : le Super Audio Compact Disc (SACD), fruit de l'association entre Sony et Philips. Il utilise un système de codage numérique inédit, appelé DSD (« one bit » avec une fréquence d'échantillonnage de 2,8 MHz), permettant une analyse plus fine du signal, donc un plus grand stockage d'informations sur le disque et une meilleure définition sonore. L'utilisateur aura par ailleurs le choix entre une écoute en stéréo ou en multicanal (5 canaux). Défendu par un consortium de constructeurs parmi lesquels Panasonic et Pioneer, le DVD audio est le deuxième support briguant la succession du CD. Il offre lui aussi une plus grande précision d'analyse du signal et le son multicanal, mais avec une technologie différente. Ici, le système de codage des données est le même que celui du compact (dit « PCM linéaire »). En revanche, la résolution et la fréquence d'échantillonnage passent respectivement de 16 bits à 24 bits et de 44,1 kHz à 192 kHz. Finalement, ses prestations sonores sont proches de celles du SACD. L'indiscutable supériorité affichée par ces deux formats sur le Compact Disc ne garantit pas leur succès commercial. La technique est une chose, la loi du marché une autre. Or jamais deux supports vidéo ou audio grand public n'ont pu cohabiter (sauf pour les caméscopes). Le magnétoscope VHS de JVC a écrasé ses adversaires de l'époque, le V 2000 et le Bétacam. Plus près de nous, au début des années 90, la bataille entre le Minidisc et la DCC s'est soldée par la disparition rapide de cette dernière. Une pareille guerre des standards semble inévitable entre le SACD et le DVD audio. Nul ne peut en prédire la durée et l'issue. Une chose est sûre : cette situation confuse entretiendra l'attentisme des consommateurs. Pour les convaincre, chaque camp va se livrer à une course contre la montre et une surenchère d'arguments. A ce petit jeu, Sony et Philips ont pris une longueur d'avance. Deux lecteurs de SACD sont d'ores et déjà disponibles. Leur prix est élevé (35.000 et 20.000 francs), mais ils seront rejoints par un modèle plus accessible (on parle de 6.000 francs) dans le courant de l'été. Leurs concepteurs estiment qu'en plus d'une meilleure qualité de son, ils ont pour avantage clef une double compatibilité. Ces machines peuvent lire les compacts, et les disques SACD comportent une deuxième couche lisible par n'importe quelle platine CD (mais sans le bénéfice de la haute définition). Disponible à la rentrée, le DVD audio n'offrira pas une compatibilité si poussée. Ses partisans misent plutôt sur une synergie avec le DVD vidéo, dont la popularité est croissante. Les futurs lecteurs seront par conséquent universels : ils liront les CD ainsi que les DVD vidéo et audio. Ils combleront aussi bien les cinéphiles que les passionnés de musique épris de perfection sonore.

Les Echos : http://www.lesechos.fr/club/hightech/hig_2505_1.htm

^ Haut
Avenir
Nanotechnologies et Robotique
Des physiciens américains sont parvenus à arrêter la lumière
Samedi, 27/01/2001 - 00:00

Des physiciens américains sont parvenus à arrêter un rayon lumineux, à le stocker brièvement, avant de le laisser reprendre sa course, à la vitesse de 299.274 kilomètres par seconde, dans le cadre d'une expérience évoquée dans l'hebdomadaire ''Nature'' du 25 janvier. Menée par deux équipes de chercheurs dans des laboratoires distincts de Cambridge (Massachussets), cette expérience pourrait servir à stocker des informations dans des particules de lumière plutôt que dans des électrons dans les futurs et très puissants ordinateurs quantiques du futur, espèrent les scientifiques. Les chercheurs n'ont pas seulement ralenti la lumière, mais l'ont totalement arrêtée. Ils ont créé une trappe dans laquelle des atomes de gaz ont été refroidis magnétiquement à une température inférieure proche du zéro absolu et à une consistance présentée comme ''de la mélasse optique''. L'équipe conduite par la physicienne Lene Vestergaard Hau de l'institut Rowland a utilisé des atomes de sodium, tandis que celle emmenée par Ronald L. Walsworth et Mikahil D. Lukin s'est servie de rubidium chauffé. Normalement, les atomes de gaz sont opaques. Les scientifiques ont réussi à les rendre totalement transparents en appliquant un champ magnétique variable au travers de ces gaz par l'intermédiaire d'un laser, autrement dit grâce à un processus de transparence par électromagnétisme. Ils ont ensuite envoyé un second laser opérant à une fréquence différente, si bien que les particules lumineuses ont fortement ralenti au contact des atomes de gaz. Pour arrêter complètement le rayon lumineux, les chercheurs ont attendu qu'il ait pénétré totalement dans la sonde, rencontré tous les atomes gazeux, et changé leurs caractéristiques, avant de réduire l'intensité du laser de couplage assurant la transparence. Le rayon lumineux diminue, puis s'arrête. Une milliseconde plus tard, le laser de couplage est rallumé. La lumière, dont les atomes de sodium et de rubidium ont pris l'empreinte, ressort et reprend sa trajectoire. Environ la moitié de la lumière et de son information a été récupérée dans le rayon régénéré, ont indiqué les chercheurs. Si cela devrait être insuffisant pour un système informatique, cela prouve au moins qu'un tel procédé pourrait permettre de stocker et fragmenter des informations. Les moyens de manipuler la lumière font l'objet d'intenses recherches. En juillet, des physiciens de Princeton (New Jersey) auraient réussi à envoyer un rayon laser à travers une vapeur d'atomes de césium, les faisant se déplacer plus vite que la vitesse de la lumière.

Brève rédigée par @RT Flash

New York Times : http://www.nytimes.com/2001/01/18/science/18LIGH.html

Nature : http://www.nature.com/nsu/010125/010125-3.html

Physical Review Letters : http://prl.aps.org/v86p783.pdf

Prévoir les tremblements de Terre par satellites
Samedi, 27/01/2001 - 00:00

Les chercheurs du département de physique de l'université de Moscou pensent qu'il devrait être possible de prédire les tremblements de Terre en mesurant la polarisation de la lumière solaire, lorsqu'elle est réfléchie par la surface de la planète. Point de départ de leur recherche, le lien entre la polarisation de la lumière solaire et le champ géo-électrique. La polarisation est toujours modifiée dans les régions où l'intensité du champ électrique augmente. Or tous les tremblements de Terre sont caractérisés par des perturbations du champ géo-électrique. Ces perturbations sont liées aux variations de pression qui s'exercent à ce moment là dans la terre et notamment à sa surface. Des charges apparaissent dans les zones du futur tremblement de terre et le champ géo-électrique s'en trouve modifié. Ce phénomène est appelé effet "baroélectrique". En théorie donc, pour prédire un tremblement de terre, il faudrait placer de nombreux points d'observation pour surveiller et mesurer les champs magnétique et électrique dans les zones à risque. Malheureusement, c'est techniquement difficile et économiquement coûteux. Dans la solution proposée par les chercheurs russes, les mesures peuvent être effectuées depuis des satellites météorologiques spécialement équipés. Une piste alternative qui pourrait s'avérer d'autant plus intéressante que les physiciens moscovites estiment pouvoir faire appel à une technologie simple et peu coûteuse.

Infoscience : http://www.infoscience.fr/breves/breves.php3

^ Haut
Matière
Matière et Energie
Les microprocesseurs ne manquent pas d'air
Samedi, 27/01/2001 - 00:00

Petits, mais utiles. Deux micro-systèmes américains, récemment mis au point, pourraient résoudre l'un des principaux casse-tête des fabricants d'ordinateur, de PDA et de mobiles : comment refroidir les microprocesseurs. Une de ces deux découvertes est née dans les laboratoires de l'université du Colorado. C'est là que Paul Kladitis est parvenu à construire un ventilateur moins gros qu'une tête d'épingle. Composé de huit pales et d'un moteur intégré, son joujou pour lilliputien possède - au moins - deux atouts : il est à la fois minuscule et silencieux. D'après son concepteur, une armée de ces mini-ventilateurs serait capable de refroidir les microprocesseurs des ordinateurs. Gravée dans une feuille de silicium, chacune de ses pales mesure moins d'un millimètre de long. Lorsqu'on soumet ces ventilateurs à un courant électrique, ils fonctionnent à une vitesse qui varie entre 50 et 180 révolutions par minute. "Ingénieux, mais trop lent", a commenté Mark Spearing. Interrogé par des journalistes du New Scientist, ce spécialiste des micro-turbines qui travaille au Massachusetts Institute of Technology (à Boston) a déclaré qu'il tentait, pour sa part, d'atteindre des vitesses d'un million de révolutions par minute ! Il a aussi émis des réserves sur la technique utilisée, basée sur un phénomène de friction. Selon lui, à une telle échelle, les ventilateurs pourraient tout bonnement connaître des arrêts inopinés... De son côté, la société californienne Novel Concepts propose elle aussi une solution destinée à refroidir les sources de chaleur, dont les microprocesseurs. D'après ses dirigeants, le système baptisé IsoSkin permettrait même de se passer de ventilateurs, et donc d'économiser la durée de vie des batteries utilisées sur les mobiles ou les PDA. Le principe d'IsoSkin : il canalise la chaleur des microprocesseurs, la diffuse, et la fait disparaître. Contrairement aux systèmes de refroidissement des PDA, qui se présentent sous la forme de tuyaux, le système IsoSkin est ultra-mince. IsoSkin est composé de deux feuilles métalliques aux bords soudés, entre lesquelles se diffusent un liquide (de l'eau en général). Son épaisseur n'excède pas 0,5 millimètre. Les deux feuilles de l'IsoSkin ne sont pas composées de la même matière. L'une d'entre elles sert à condenser la chaleur, l'autre à la vaporiser de telle façon que la chaleur puisse se propager avant de se dissiper. Alors que leur technologie vient de faire l'objet d'un dépôt de brevet, les concepteurs d'IsoSkin pensent mettre au point un prototype dans le courant de l'année.

Transfert :

http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=3694

Bientôt des fils électriques plastiques ?
Samedi, 27/01/2001 - 00:00

Les polymères conducteurs (objet du prix Nobel de chimie 2000, attribué à Hideki Shirakawa) vont peut-être se décliner sous forme de fils. C'est en tous cas l'ambition des travaux réalisés à l'Université de Tokyo par des chercheurs de l'International Center for Elementary Particle Physics. Ces recherches ouvrent ainsi la voie à de futurs dispositifs électroniques de taille très inférieure à ceux obtenus aujourd'hui par les méthodes conventionnelles de l'industrie des semi-conducteurs. Toute la difficulté réside dans le contrôle de l'alignement des molécules. Les chercheurs japonais ont alors réussi à étirer de longues chaînes de polyaniline à partir d'une solution. Ces chaînes moléculaires ont en effet tendance à s'enrouler sur elles-mêmes. L'astuce de ces chercheurs a été d'isoler ces molécules à l'intérieur de «pailles » microscopiques (également en matériau organique) pour les maintenir en conformation linéaire. Il faut alors« pécher » les molécules de polymère une à une en utilisant un microscope à balayage. Le procédé est pour l'instant fastidieux, mais les enjeux sont potentiellement énormes. Les fils obtenus mesurent jusqu'à 30 microns, ce qui est loin d'être négligeable à l'échelle du polymère. Les chercheurs vont maintenant déterminer les propriétés conductrices effectives de ces fils.

Industries&Techniques : http://www.industries-techniques.com/

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Un rapport de l'ONU confirme l'ampleur du réchauffement climatique
Samedi, 27/01/2001 - 00:00

Un rapport alarmant de l'ONU prédit que les effets du réchauffement climatique pourraient être plus importants que prévu, avec une possible hausse des températures moyennes de 5,8 degrés au cours du XXIe siècle. Le phénomène, lié à l'effet de serre, pourrait entraîner des dégâts écologiques majeurs. Le rapport, rendu public le 22 janvier lors d'une conférence à Shanghaï, ''devrait inciter un peu plus les gouvernements du monde à trouver un moyen de tenir leurs engagements (...), à réduire les émissions de gaz à effet de serre'', souligne Robert Watson, président du Panel intergouvernemental sur les changements climatiques, affilié à l'ONU, qui a organisé la conférence. Les négociations internationales ont pris fin en novembre sans accord sur les modalités d'application du protocole de Kyoto, signé en 1997. Par cet accord, les pays industrialisés s'engagent à réduire d'ici 2012 leurs émissions de gaz à effet de serre de 5,2%, par rapport à leur niveau de 1990. Les discussions reprendront en mai à Bonn, en Allemagne. Selon le rapport, qui se présente comme l'étude la plus complète sur le réchauffement climatique à ce jour, de nouvelles preuves démontrent encore plus clairement que les hausses de température sont le fait principalement de la pollution et non de facteurs naturels. ''Le rythme des changements climatiques durant le siècle devrait être plus élevé qu'au cours des 10.000 dernières années'', estime Sir John Houghton, co-président de la conférence de Shanghaï. Des bouleversements spectaculaires pourraient avoir lieu. Des sécheresses pourraient frapper des zones agricoles et la montée des océans inonder des zones côtières très peuplées en Chine, en Egypte et ailleurs. Le GIEC, qui a rassemblé pendant trois ans dans le monde entier les meilleures données scientifiques sur le phénomène, estime que la température de la Terre va augmenter de 1,4 à 5 degrés au cours du siècle. Dans le même temps, le niveau des mers progressera de 0,09 à 0,88 m, a déclaré R.J. Watson, le président du GIEC, lors d'une conférence de presse. Même si ces changements peuvent sembler minimes, ils sont suffisants pour détruire certains écosystèmes comme les barrières de corail menacées de mort si la température de la mer augmente d'un seul degré. Certains archipels plats, comme les Maldives, sont menacés d'engloutissement, a indiqué M. Watson. Des dérèglements climatiques, comme le phénomène El Nino constaté dans le Pacifique à la fin des années 1990, seront plus fréquents. Des régions entières risquent de passer brutalement de la sécheresse aux inondations, pénalisant l'agriculture dans les régions tropicales déjà touchées par la famine. "Les inondations risquent de déplacer des dizaines de milliers de gens en Inde, en Chine ou au Bangladesh", selon M. Watson. Durant le siècle écoulé, les températures ont déjà augmenté de façon considérable, les années 1990 s'avérant les plus chaudes du siècle, particulièrement l'année 1998, la plus chaude depuis 1861. Le XXe siècle a également été le plus chaud du millénaire. Depuis la fin des années 1960, la couverture neigeuse mondiale a décru d'environ 10%. Les glaciers de montagne sont en "retraite généralisée" et les vagues de froid hivernales dans une grande moitié septentrionale de l'hémisphère nord durent deux semaines de moins qu'il y a 100 ans. "Il est de plus en plus établi que la hausse des températures découle directement de l'activité humaine", a estimé M. Watson. La concentration d'oxyde de carbone dans l'atmosphère a augmenté de 31% depuis depuis 1750, une hausse sans précédent depuis 20.000 ans. La concentration actuelle, provoquée par le brûlage d'hydrocarbures et par le déboisement, est la plus élevée depuis 20 millions d'années. La publication du rapport du GIEC survient alors que les gouvernements ne sont pas parvenus à se mettre d'accord en novembre dernier à la Haye sur un plan de lutte mondial contre le réchauffement de l'atmosphère. Les mesures coercitives préconisées par l'Union européenne se sont heurtées à l'hostilité des Etats-Unis envers l'application du protocole de Kyoto (1997) sur la réduction des émissions de gaz à effet de serre.''Les pauvres dans les pays en développement seront les plus touchés'', souligne Robert Watson. Selon les projections les plus extrêmes, la fonte des glaces en Antarctique pourrait provoquer une élévation de la mer de trois mètres au cours du 3e millénaire. La Chine, deuxième pollueur mondial en terme de rejets de gaz à effet de serre, derrière les Etats-Unis, a connu l'an dernier la pire sécheresse de son histoire depuis des décennies et a vu sa production de céréales baisser de 10%. Dépendant fortement du charbon, elle a commencé à se tourner vers le gaz naturel et d'autres énergies plus propres. La conférence de Shanghaï s'inscrit dans une série de réunions sous l'égide de l'ONU destinées à fournir des éléments aux négociations sur le climat. Elles prendront fin en avril avec la publication d'un rapport à Nairobi, au Kenya. Le dossier oppose les Européens, partisans d'un effort important de réduction des gaz, et les Etats-Unis, qui produisent un quart des émissions de gaz à effet de serre dans le monde, et y sont hostiles.

Brève rédigée par @RT Flash

Nations Unies : http://www.ipcc.ch/pub/spm22-01.pdf




^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La salmonelle combinée à la radiothérapie s'avère efficace contre certains cancers
Samedi, 27/01/2001 - 00:00

Une étude sur les mélanomes réalisée par des chercheurs de l'Université de Yale, et publiée dans le Journal Européen du cancer, a montré que des injections de salmonelles en combinaison avec une thérapie radiologique constituaient une nouvelle approche thérapeutique prometteuse contre le cancer. " En combinant la radiothérapie avec des injections des salmonelles génétiquement modifiées on obtient un nouveau traitement très efficace contre les tumeurs solides, " souligne John Pawelek qui dirige ces recherches à Ecole de médecine De Yale " . La salmonelle est une bactérie bien connue qui peut causer des intoxications alimentaires. Les chercheurs de Yale avaient précédemment découvert que la salmonelle attaque les tumeurs chez les souris. En collaboration avec la firme pharmaceutique de Vion, ils ont franchi un pas supplémentaire en modifiant génétiquement des salmonelles afin d'amplifier leur action antitumorale tout en atténuant leur toxicité chez l'animal. Ces résultats ont préparé le terrain pour des essais cliniques en phase I chez l'homme, actuellement en cours aux Etats-Unis et en Europe. " Nous avons été étonnés par le pouvoir antitumoral spécifique de cette combinaison d' injections de salmonelles et de radiothérapie, " précise John Pawelek. Pawelek indique que la plus longue survie des souris ont été réalisées avec une dose simple de salmonelles et de doses fractionnaires de rayon X se montant à 50Gy (une mesure d'intensité pour des rayons X). Avec cette de combinaison, les tumeurs ont mis 100 jours de plus pour atteindre un gramme; c'est six fois plus long que chez les souris traitées des salmonelles seules, et environ 50 pour cent plus long qu'avec des rayons X seuls. " Il reste cependant aux chercheurs à comprendre pourquoi cette association est si efficace et à améliorer encore cette combinaison pour stopper complètement le développement des tumeurs.

Brève rédigée par @RT Flash

Yale News Yale News :

http://www.yale.edu/opa/newsr/01-01-10-03.all.html

Comment faire taire le système immunitaire ?
Samedi, 27/01/2001 - 00:00

Grâce aux travaux d'une équipe canadienne, une protéine dont on croyait tout savoir a dévoilé une autre de ses fonctions : arrêter les assauts guerriers de notre système immunitaire. Selon l'article paru dans Nature et signé par une quinzaine de chercheurs, tel est un des rôles-clé de la protéine CD45, produite par le gène du même nom. La protéine CD45 agirait sur deux molécules qui contribuent à réguler l'action du système immunitaire : les cytokines et les kinases. Les cytokines - des protéines fabriquées par le système immunitaire - se fixent plus difficilement aux cellules étrangères lorsque la CD45 entre en action tandis que les kinases, elles, en se liant avec la protéine « stop système », perdent de leur efficacité et facilitent moins bien les réactions cellulaires.

Menés par l'immunologiste Josef Penninger, du Ontario Cancer Institute de l'hôpital Princess Margaret et du Amgen Research Institute, ces travaux promettent de nouveaux remèdes. Le système immunitaire, en effet, détruit parfois les îlots de Langerhans, causant le diabète, ou il fonctionne de façon anarchique et provoque une leucémie ou encore, rejette bêtement une greffe qui est pourtant la bienvenue. Si seulement, en transformant le gène cd45, on pouvait dire au système immunitaire de se taire !

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N2190.asp

Premiers essais chez l'homme d'un vaccin synthétique contre le paludisme
Samedi, 27/01/2001 - 00:00

Une équipe américaine a publié dans Journal of Immunology les résultats d'un essai chez l'homme d'un vaccin synthétique antipaludique qui a réussi à provoquer une forte réponse immunitaire contre le parasite Plasmodium falciparum. Un essai ouvert de phase I fournit la première démonstration de l'immunogénicité d'un vaccin antipaludique synthétique bien défini. Cette étude conduite par le Dr E. Nardin du New York University School of Medicine à New York, et ses collaborateurs sur des volontaires sains présentant des profils HLA divers. Ce vaccin synthétique a été conçu à partir de différents déterminants antigéniques de Plasmodium falciparum . Il apparaît que la majorité des individus immunisés par ce vaccin (7/10) ont développé une réponse immunitaire importante à P. falciparum. De plus, ce vaccin a été bien toléré et les auteurs n'ont observé que de légers effets secondaires. Ces résultats suggèrent que ce type de vaccin peut s'avérer utile pour le développement de vaccins synthétiques (à multicomposants) fortement immunogéniques dirigés aussi bien contre le parasite du paludisme que contre d'autres agents infectieux.

Brève rédigée par @RT Flash

Journal d'Immunologie : http://www.jimmunol.org/current.shtml

Les défis d'une microscopie adaptée au vivant
Samedi, 27/01/2001 - 00:00

Affublés de lunettes vertes et rouges, les yeux découvrent sur l'écran une sorte d'« amibe », projetant dans un univers en trois dimensions des excroissances cunéiformes, des tentacules rétractiles. Il ne s'agit pas d'une animation digne de Spielberg mais bien d'une visualisation stéréoscopique d'une cellule humaine vivante. Comme pour le cinéma du même nom, les lunettes permettent de superposer les images pour donner l'impression de volume. En quelques années, la visualisation de l'infiniment petit dans le monde du vivant a fait des progrès considérables. Franchissant des étapes dignes de celle qui, dans les années 1930, a marqué le passage de la microscopie optique à la microscopie électronique. Autrement dit, le remplacement du faisceau lumineux pour éclairer ou « exciter » l'échantillon par un faisceau d'électrons. On est passé d'une résolution de 200 nanomètres (1 nm = 4 milliardième de mètre) avec le microscope optique, une résolution inférieure au nanomètre, révélant les structures moléculaires. Si les images obtenues grâce au microscope électronique donnent des informations morphologiques et topographiques importantes, les observations se font toujours sur du matériel mort, le plus souvent en coupes très fines. Que se passe-t-il dans la matière vivante ? Comment fonctionne la « machinerie » cellulaire ? Quels sont les différents processus physiologiques qui interviennent dans les conditions naturelles ? C'est ce que les biologistes veulent savoir, et pour cela il leur faut s'intéresser aux cellules en culture. Observer ces cellules vivantes, en mouvement et, si possible, en trois dimensions représente donc un défi qu'ont tenté de relever un petit nombre de centres de microscopie biologique. A l'Institut Curie, à Paris, cela fait maintenant trois ans que les chercheurs dispoent du premier poste de vidéomicroscopie, un prototype complètement automatisé pour suivre le mouvement des cellules et de leurs composants. « Seulement, se rappelle Jean-Baptiste Sibarita, ingénieur de recherche au CNRS, responsable du service d'imagerie numérique de l'institut, on ne voyait que ce qui se passait sur un plan. » Plus précisément sur une « couche » de 1 micron (10-6 m) d'épaisseur, correspondant au dixième d'une cellule. Or certains trafics intracellulaires se font à la vitesse de 1 micron par seconde. En collaboration avec des industriels, l'équipe de Jan De Mey, professeur à l'université Paris-Sud (Paris-XI), et celle de Jean-Baptiste Sibarita se sont par conséquent attelées à la lourde tâche de développer un système autorisant l'acquisition rapide d'images en volume (3 D), tout en intégrant le mouvement (4 D), et avec la possibilité de suivre la position respective de deux objets cellulaires « marqués » (5 D) par des molécules fluorescentes ou fluorophores. Le résultat est fascinant : « Pour la première fois, nous faisons ces prises de vues à une vitesse compatible avec les vitesses d'échanges entre les compartiments intracellulaires et de déplacement de certains composants de la cellule tels que les chromosomes, soit jusqu'à 1 micromètre par seconde », explique Jean-Baptiste Sibarita. L'empilement de ce type de coupes permet, par exemple, de visualiser le mouvement des chromosomes, lors de la division cellulaire. Ceux-ci étant marqués par une protéine fluorescente qui s'accumule dans une région bien précise du chromosome appelée centromère. « Cela nous sert de base pour interpréter des expériences dans lesquelles nous allons empêcher la synthèse de certains produits de gènes, des protéines, qui jouent un rôle dans le déplacement des chromosomes », explique Jan De Mey. A terme, ces études amènent une meilleure connaissance des pro cessus à l'origine des cancers ou d'autres maladies associées au dysfonctionnement des cellules. Prochaines étapes pour les chercheurs concernés : d'une part, coupler la microscopie rapide 4 D et 5 D à des lasers afin de perturber les cellules et observer ce qui se passe et, d'autre part, développer des outils pour mesurer les mouvements ainsi visualisés et analyser les nouveaux phénomènes spatiaux observés.

Le Monde :

http://interactif.lemonde.fr/article/0,5611,2862--139266-0,FF.html

Les crises d'épilepsie désormais prévisibles
Samedi, 27/01/2001 - 00:00

Les crises d'épilepsie - qui dans la plupart des cas surviennent sans avertissement et mettent souvent en danger la vie du patient - sont désormais prévisibles grâce à un simple électro-encéphalogrammme (EEG), indique samedi une équipe de chercheurs français dans la revue médicale britannique The Lancet. Les chercheurs du CNRS et de l'INSERM, associés aux médecins du service de neurologie de l'hôpital de la Pitié-Salpétrière, à Paris, ont repéré, sur les tracés fournis par ces appareils, un signal spécifique permettant de détecter les crises jusqu'à sept minutes avant leur survenue. L'idée des chercheurs - qui ont déjà posé des brevets sur leurs travaux - est maintenant de mettre au point un petit appareil qui analyserait en continu l'activité du cerveau et signalerait au malade l'imminence de la crise. Cet appareil comprendrait une minuscule électrode, implantée dans la tête, juste sous la peau et reliée par un fil a un élément de la taille d'un baladeur que le malade porterait à la ceinture. "Cela peut sembler peu de chose mais cela permettra par exemple au malade de prendre des médicaments pour éviter la crise, d'arrêter sa voiture ou de s'asseoir et d'éviter ainsi pour un temps des activités a priori banales mais susceptibles de mettre sa vie en danger", a expliqué vendredi à l'AFP Francisco Varela, responsable du laboratoire de neuro-sciences cognitives où ont été découvertes les propriétés de ce signal cérébral. Des accords vont être prochainement passés avec des industriels pour la fabrication de cet appareil mais celui-ci ne sera pas disponible avant au moins deux ans, a-t-il précisé. Les chercheurs vont aussi tenter de transformer leur appareil en une thérapie complète: "sur le modèle des défibrillateurs cardiaques, il devrait être possible de fabriquer un appareil délivrant des petites quantités de courant pour faire avorter la crise", estime le chercheur. Dans un commentaire accompagnant l'article du Lancet, le Pr David Fish, de l'Institut de Neurologie de Londres estime que cette étude "passionnante", va avoir des implications dans le traitement futur des crises.

AFP :

http://www.afp.com/ext/francais/lemonde/sci/010119132638.0p7vmiif.html

Certaines cellules du rat peuvent vivre indéfiniment en laboratoire
Samedi, 27/01/2001 - 00:00

Certaines cellules du rat peuvent se multiplier indéfiniment dans certaines conditions, sans montrer de signes de vieillissement, indique une étude britannique publiée le 19-01sur le site internet de la revue Science. La plupart des cellules des mammifères comportent des dispositifs limitant leur cycle de reproduction. Cette limite permettrait d'éviter le développement de cancers avec une surprolifération de ces cellules mais, en même temps, l'accumulation de cellules en fin de vie serait une des causes du vieillissement. Les chercheurs ont sélectionné des cellules, appelées Schwann, du système nerveux. Prélevées sur le nerf sciatique du rat, elles ont ensuite été placées en laboratoire dans un bouillon de culture. Là, indiquent les chercheurs, "leur taux de prolifération est resté constant, avec une division continue". "A aucun moment elles n'ont traversé de période de faible croissance", caractéristique d'un début de processus de vieillissement. Les cellules d'origine se sont subdivisées au moins 50 fois avant que l'expérience n'ait été arrêtée et les dernières produites "ne pouvaient pas être morphologiquement distinguées" des premières, notent les chercheurs, du University College de Londres. Des cellules du tissu conjonctif, des fibroblastes, cultivées dans les mêmes conditions ont, elles, cessé de se subdiviser après trois ou quatre épisodes. Enfin, voulant confirmer de nouvelles théories déclarant que le vieillissement de certaines cellules pouvait être dû à un "choc culturel", les chercheurs ont plongé des Schwann dans des solutions de diverses concentrations et ont constaté qu'elles évoluaient différemment. Ces résultats montrent que le processus du vieillissement dépend en partie du milieu dans lequel vivent les cellules et non pas uniquement du nombre de divisions, concluent-ils.

Brève rédigée par @RT Flash

Science :

http://www.sciencemag.org/feature/express/expresstwise.shl#1056780

Les antikinases seront-elles les antiprotéases des cancers ?
Samedi, 27/01/2001 - 00:00

Aux Etats-Unis, des chercheurs de l'université Johns Hopkins viennent de mettre au jour les propriétés exceptionnelles des bisubstrats analogiques. Derrière cette appellation barbare se cachent des molécules capables de bloquer l'action de certains enzymes, les kinases, dont le rôle dans certaines affections paraît déterminant. Au premier rang des maladies concernées, certains cancers dont le processus est déclenché par la mutation des gènes qui régularisent la sécrétion des kinases. Ou encore des maladies chroniques - arthrose, polyarthrite rhumatoïde, athérosclérose -qui seraient provoquées par un emballement des kinases. Le Pr Philip A. Cole, qui a dirigé ces travaux, voit dans le mode d'action de ces bisubstrats une certaine analogie avec celui des inhibiteurs des protéases. Lesquels, mieux connus sous le nom d'antiprotéases, ont permis au SIDA de passer du statut de fatalité à celui de maladie chronique... Les travaux de Cole n'ont pas encore dépassé le stade fondamental. Ils paraissent néanmoins assez encourageants pour qu'aujourd'hui, son équipe se concentre sur le pas suivant : la mise au point de bisubstrats " dont la durée de vie à l'intérieur de l'organisme permettrait d'espérer qu'ils deviennent des médicaments utilisables. "

HealthandAge Com : http://www.healthandage.com/newsletter/npf.htm

Des puces contre les bactéries...
Samedi, 27/01/2001 - 00:00

Il ne s'agit pas de puces dévoreuses de microbes, qui joueraient donc une version revisitée de la guerre des mondes... Mais tout simplement - si l'on ose dire... - de puces génétiques, des appareils minuscules (sic) qui enregistrent l'activité des gènes d'un microorganisme donné. Hans Gmuender, un chercheur qui travaille dans les laboratoires d'Hoffmann-La Roche en Suisse, vient de publier ses premiers résultats dans Genome Research, une revue assez pointue destinée aux spécialistes de ces disciplines. Avec ses collègues, il a pu étudier le comportement de la bactérie haemophilus influenza face à deux antibiotiques courants. Ce qui lui a permis d'observer que ces deux substances laissaient derrière elles des " signatures génétiques " très différentes. En d'autres termes, l'un et l'autre antibiotiques se sont attaqués à des gènes différents de la bactérie. Conclusion pratique ? En observant ainsi de l'intérieur la manière dont se déroule l'affrontement bactérie-antibiotique, il pourrait devenir possible de développer des médicaments plus efficaces. Et surtout de mieux contrarier l'apparition - de plus en plus préoccupante - de résistances.

Healtandage.Com :

http://www.healthandage.com/newsletter/npf.htm

Une nouvelle approche pour la sclérose en plaques
Samedi, 27/01/2001 - 00:00

Une nouvelle thérapie qui permet d'éliminer les lymphocytes T dirigés contre la myéline a été testée avec succès chez le singe. Selon le NIH (National Institue of Health), cette approche contre la sclérose en plaques et d'autres maladies auto-immunes pourrait être envisagée chez l'homme. Ces travaux ont été conduits par l'équipe de Michael Lenardo du Laboratoire d'Immunologie du National Institute of Allergy and Infectious Disease (NIAID). Le Dr Lenardo souligne que les traitements immunosuppresseurs actuels ont un effet global sur le système immunitaire et sont associés à des effets toxiques non négligeables. "Ce nouveau traitement, nommé immunothérapie antigène-spécifique, cible spécifiquement les lymphocytes T qui entraînent la maladie. A priori, il ne devrait pas entraîner de tels effets secondaires", explique Lenardo. Ses résultats seront publiés dans l'édition du 1° février du Journal of Immunology. Ce principe d'immunothérapie est fondé sur la réaction des lymphocytes T à certaines protéines qui composent la gaine de myéline. L'exposition à une faible quantité de ces protéines induit une activation des lymphocytes T contre la gaine de myéline. Au contraire, une surexposition à l'antigène déclenche une auto-destruction de ces lymphocytes T. Ainsi, introduire de larges quantité de protéines de myéline dans le corps devrait éliminer les lymphocytes T problématiques et stopper la maladie", poursuit Lenardo. Cette hypothèse a été testée chez 9 neuf singes (ouistitis). Une injection adéquate de protéines de myéline a induit chez les singes une maladie similaire à la sclérose en plaques chez l'homme. Les singes ont été répartis en suite en 3 groupes : 3 ont reçu une forte quantité du même antigène, 3 une quantité modérée et les trois derniers n'ont rien reçu. Après une période d'observation de 105 jours, les singes non-traités présentaient les symptômes cliniques de la maladie. Les symptômes étaient présents chez deux singes qui avaient reçu une dose modérée, mais leur apparition était retardée. Au contraire, aucun des singes ayant reçu une dose élevée d'antigène ne présentait les symptômes de la maladie. Ces résultats étaient confirmés par un examen IRM du cerveau des singes. Des lésions importantes de la gaine de myéline ont été observées chez les singes non traités et ceux qui avaient reçu une dose modérée. Les lésions étaient mineures dans le troisième groupe et montraient que le processus avait été largement ralenti. Aucun effet secondaire majeur n'a été noté.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=1882

Prévoir l'évolution des tumeurs pour mieux les combattre
Samedi, 27/01/2001 - 00:00

Les scientifiques pensent avoir trouvé ce qui rend certains cancers si rapides et plus difficiles à traiter que d'autres. Cette découverte pourrait être employée pour mieux soigner les cancers agressifs qui sont résistants aux chimiothérapies. Des chercheurs américains du centre de Sloan-Kettering, à New York, ont effet découvert que la présence d'un bas niveau de MAD2 ( une protéine) rend des cellules cancereuses génétiquement instables. Cette protéine semblerait indiquer les tumeurs qui sont susceptibles de se développer rapidement. A terme les chercheurs espèrent pouvoir prévoir l'évolution de chaque tumeur afin de choisir les traitements les plus efficaces.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1121000/1121684.stm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
General Motors se met à son tour à la reconnaissance vocale
Samedi, 27/01/2001 - 00:00

Après les vues de DaimlerChrysler sur Lernout & Hauspie, c'est au tour de General Motors de concrétiser, cette fois, son souhait de rendre ses voitures communicantes uniquement grâce à la voix. Au terme de cet accord, OnStar ( la filiale du constructeur automobile ) utilisera à l'avenir les logiciels de reconnaissance vocale de Nuance pour encore améliorer sa plate-forme de services embarqués. Le conducteur pourra donc par exemple accéder à ses e-mails vocaux, à ses cours de bourse ou encore aux informations qu l'intéressent en ne prononçant que quelques mots à son tableau de bord. L'acquisition du savoir-faire de Nuance va apporter une réelle valeur ajoutée aux services de OnStar. Sa plate-forme offre déjà en effet aux automobilistes des applications intéressantes comme la localisation par GPS ou l'accès au service de dépannage, sans compter qu'elle se veut personnalisable. A ce jour aux Etats-Unis, OnStar est en option ou même standardisé sur 32 modèles de voitures de General Motors, dont des Cadillac, des Buick ou autres Oldsmobile. Au total, pas moins de 1 million de véhicules sont équipés OnStar, et il est prévu d'en dénombrer plus de 4 millions en 2003. Avec ce " baptême " de General Motors dans l'univers de la reconnaissance vocale, c'est un peu toute l'industrie automobile qui fait un nouveau pas en avant vers plus d'interactivité, et plus de sécurité.

Lettre de l'internet :

http://www.lalettre.com/techinfos/today.cfm?id=993&home=1

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top