RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 89
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Mars 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Vers la fin du www
Pour en finir avec les liens morts...
VyouFirst, une arme contre le pillage sur le Web ?
Cyber-débat avec le Sénat pour la fête de l'Internet
L'UE à la traîne des Etats-Unis pour internet et la recherche
Bip 2000, le robot bipède anthropomorphe européen
Carte à puce : la fin du mythe de l'inviolabilité
Le Pocket PC arrive
Microsoft contre Sony : duel de titans pour le contrôle de la télévision interactive
La PlayStation2 connectée... via téléphone mobile
Matière
Electronique : les limites du silicium encore repoussées
Un observatoire géant pour détecter les ondes gravitationnelles
L'Univers à contre temps
A la recherche du neutrino
Espace
Une première carte de la matière sombre
Vivant
Un vaccin prometteur pour les cancers métastasés
La trangénomique pourrait révolutionner l'agronomie
Des biocapteurs ultrarapides
Voie ouverte vers la production d'ovules humains par des souris
Le premier cochon cloné est anglais
Une injection d'oestrogène pourrait protéger le cerveau en cas de crise cardiaque
Vaccin contre la méningite B : une avancée majeure
Des chercheurs américains découvrent des anticorps efficaces contre le Virus Ebola
Des neurones ressuscités
Comment freiner l'extinction annoncée des espèces vivantes
Un appareil médical révolutionnaire pour sauver les victimes de lésions traumatiques
Un nouveau traitement contre l'asthme
Le Président Clinton et Tony Blair en faveur du libre accés à la carte du génome humain
L'entraînement peut compenser un déficit génétique de mémorisation chez la souris
Homme
Une initiative européenne pour accélérer l'utilisation des nouvelles technologies éducatives
Recherche
Un train qui vole
Le moteur Diesel est transfiguré
Edito
2010 : l'Odyssée de l'esprit



Nous sommes en Mars 2010. En ce premier jour du Printemps, tous les internautes mondiaux, reprenant une habitude déjà ancienne des internautes français de la préhistoire se sont donné Rendez-Vous sur la Toile pour se souhaiter une belle Fête de l'Internet. Dans quelques mois sera célébré le vingtième anniversaire de l'ouverture du premier site Web qui, comme une petite flamme, fut allumé en décembre 1990. Le nombre d'internautes vient officiellement de franchir la barre du milliard selon la dernière estimation de la très puissante WWO (World Web Organization), la nouvelle et puissante instance mondiale indépendante chargée depuis quelques mois de veiller au respect des standards et normes universels sur le net et de faire respecter la “ néthic ”, le nouveau code de bonne conduite régissant l'ensemble des activités et échanges sur le Web, adopté sur la base d'une résolution de l'ONU prise en 2005 et d'une convention internationale de 2007. Au cours de la première décennie du 21e siècle, l'Internet a complètement absorbé les 3 secteurs, informatique, multimédia et télécommunications, qui, à la fin du XXe siècle, se livraient encore une guerre sans merci pour dominer toute la chaîne de valeur de l'information, du contenu au contenant. Mais l'Internet ne s'est pas contenté d'intégrer l'ensemble des outils de l'information et de la communication, il est également devenu un extraordinaire catalyseur en matière de productivité et de compétitivité. l'Internet a permis une véritable explosion de la sphère économique immatérielle qui représente à présent 25 000 milliards d'euros, soit pratiquement la moitié du produit mondial brut en cette année 2010. A l'instar du nombre d'utilisateurs, la quantité d'informations disponibles sur le net a augmenté de manière presque géométrique depuis 10 ans, et l'on estime que le nombre de pages disponibles sur le Web est à présent supérieur au nombre d'êtres humains et approche des 10 milliards (contre 1 milliard en l'an 2000). Jamais dans l'histoire de l'humanité une innovation techno-économique et culturelle n'avait aussi profondément et aussi rapidement transformé l'ensemble des activités et des connaissances humaines. Il avait fallu 4 siècles au livre pour qu'il devienne réellement un objet de grande consommation, à la portée financière du plus grand nombre. Un siècle avait été nécessaire pour que la majorité des foyers, dans les seuls pays développés, aient accès au téléphone et à l'électricité. La radio et la télévision avaient mis plus de 40 ans avant de faire partie de la vie quotidienne. Mais l'Internet, si l'on prend comme point de départ l'ouverture du premier site Web en décembre 1990, avait en moins de 20 ans, de la maison à la voiture, de l'entreprise aux vêtements, complètement bouleversé tous les aspects de notre vie. Depuis 2005 et la généralisation des communications numériques à haut débit (UMTS, boucle radio, voie descendante satellitaire, numérique hertzien), le principal moyen d'accès à l'Internet n'est plus le P.C. fixe, ni même le portable, mais le “ webmob ”, un terminal hybride de la taille d'un livre de poche qui a su combiner les meilleures fonctionnalités de 3 types d'appareils, le téléphone mobile, l'assistant personnel et l'ordinateur de poche. Les webmobs doivent leur phénoménal succès à 3 progrès déterminants qui leur a permis de s'imposer dans la poche de plus d'un milliard d'êtres humains. En premier lieu, des interfaces intuitives, commande vocale et tactile et reconnaissance d'écriture. En second lieu, le problème récurrent de l'autonomie a été définitivement réglé grâce à l'avènement des micro-piles à combustible au méthanol qui, combinées aux microprocesseurs à puissance ajustable pouvant descendre jusqu'à 1 watt de consommation, a permis d'atteindre une autonomie de plus d'un mois en utilisation continue. Mais la principale raison de l'extraordinaire succès de ces “ webmobs ” a été l'adoption d'une norme universelle de communication qui permet leur couplage en toute transparence avec le livre électronique. Ce dernier est devenu une extension naturelle et un complément idéal du webmob grâce à ses pages souples et réinscriptibles à volonté qui sont autant d'écrans portables. Mais au-delà de ces prouesses technologiques, si l'Internet s'est imposé dans tous les domaines de la vie professionnelle et privée, c'est parce qu'il offre au consommateur ce dont il rêvait, à la fois le branchement sur un continuum informationnel planétaire et l'accès à l'offre d'information de culture et de divertissement la plus personnalisée qui soit. Plus qu'un simple système technologique ou un nouveau médium, Internet est devenu une nouvelle organisation du monde de l'information et in fine de la réalité elle-même. Internet est à présent le support d'une sphère virtuelle planétaire largement autonome et d'une certaine façon vivante. Cet univers virtuel est devenu si riche, si grand et si complexe qu'aucun être humain, ni d'ailleurs aucune puissance économique ou politique isolée, n'est plus en mesure de le connaître totalement, et encore moins de le contrôler. Pour autant l'Internet n'est pas devenu une jungle sans foi ni loi ou règne la loi du plus fort car une conscience collective morale a émergé et a été relayée par l'avènement d'un niveau de contrôle politique planétaire dont chacun pressentait la nécessité depuis déjà plusieurs années. Pour la première fois dans l'histoire humaine, nous entrevoyons le jour où chaque homme sur cette terre pourra créer, explorer et façonner ce nouveau monde en s'affranchissant des contraintes spatio-temporelles qui ont toujours été celles de la condition humaine.

René TREGOUET

Sénateur du Rhône


TIC
Information et Communication
Vers la fin du www
Samedi, 18/03/2000 - 00:00

Microsoft et RealNames s'allient pour permettre d'atteindre un site web par un mot-clé plutôt que par son adresse complète et projettent de faire de ce procédé un véritable standard. D'un côté, http://safrane.renault.fr/index.phtml?id, de l'autre "Renault Safrane"... Pour trouver le site d'une société ou d'un produit, utiliser un mot-clé plutôt qu'une adresse est une idée qui fait son chemin. En fait, ce concept est déjà couramment utilisé par AOL. L'enjeu réside donc dans l'attribution de la paternité du nouveau standard, à l'instar de celui de messagerie instantanée qui a déjà opposé Microsoft et AOL l'été dernier. Le service existe depuis quelques années : les mots-clés de RealNames peuvent déjà être utilisés directement dans la barre d'adresses d'Internet Explorer mais aussi à travers des moteurs de recherche tels que celui d' Altavista ou MSN. Reste que l'entrée de Microsoft dans le capital de RealNames (à hauteur de 20 %) pourrait accélérer la montée en puissance du système des mots-clés par rapport à celui des URL. Microsoft s'est ainsi engagé à collaborer avec l'IETF (Internet Engineering Task Force) qui travaille déjà sur un standard de résolution par mots-clés. RealNames offre aux développeurs la possibilité d'intégrer gratuitement sa technologie à leurs logiciels ou sites web. La société facture l'obtention d'un mot-clé jusqu'à cent dollars par an mais le service est gratuit pour les particuliers hébergeant leurs pages sur des sites de communautés comme GeoCities, Tripod ou Xoom. Reste que la généralisation des mots-clés pourrait donner naissance à une toute nouvelle génération de "cybersquatters" enregistrant sous leur nom d'autres noms ou marques qui ne leur appartiennent pas, sur le modèle de ce qui se passe aujourd'hui dans le monde des .com.

ZDnet : http://www.zdnet.fr/actu/inte/a0013474.html

Pour en finir avec les liens morts...
Samedi, 18/03/2000 - 00:00

Selon Andrei Broder, vice président chez Altavista, un lien sur cinq mène à l'irritant message "Error 404, page not found" (page inaccessible). L'essence même du Web repose sur les liens hypertextes, c'est-à-dire ceux sur lesquels on clique pour passer d'une page à une autre. Quand ça marche, le procédé est quasiment magique. En revanche, lorsque l'on tombe sur un lien mort, qui ne mène donc nulle part, cela devient particulièrement frustrant. Deux chercheurs de l'université de Berkeley, en Californie, viennent de proposer une méthode qui pourrait éviter un grand nombre de ces liens sans issue. Leur réflexion repose sur un postulat de base très simple qui veut qu'en règle générale, le document vers lequel pointait le lien n'a pas disparu. C'est plutôt l'adresse du document qui a changé. L'idée est donc d'adjoindre à l'adresse d'une page Web, autrement appelée URL pour Uniform Resource Locator, un certain nombre de mots décrivant de façon précise et quasi unique le contenu du document que l'on souhaite atteindre. Une des découvertes majeures des deux scientifiques, Robert Wilensky et Thomas Phelps, est qu'un maximum de cinq mots suffirait pour désigner à coup sûr un document de façon unique. Le principe repose sur la sélection des mots qui sont les plus fréquemment utilisés dans le document tout en étant les moins utilisés dans tous les autres documents du Web. Un état désigné par les termes anglais "term frequency and inverse document frequency value". Selon les auteurs de la recherche, le calcul d'une telle valeur est très facilement automatisable. Il suffit de compter le nombre d'occurrences de chaque mot dans un document, de classer les résultats par ordre décroissant, et d'interroger un moteur de recherche pour chacun d'eux afin d'en connaître la fréquence d'utilisation sur le Web. On obtient en fin de course une signature "lexicale" unique. Selon les chercheurs Wilensky et Phelps, 5 mots sont un maximum et un plus petit nombre devrait suffire. Une fois déterminée cette signature unique, il suffit de l'ajouter à l'adresse URL classique. Selon les deux chercheurs, cette méthode dite de "liens robustes" répond à tous les impératifs de la navigation sur Internet. Une grande efficacité tout d'abord, sans pour autant trop influer sur les performances si le lien fonctionne normalement, ce qui est vrai dans 80 % des cas tout de même. Le seul problème, finalement, est la nécessité de modifier, même de façon minime, les butineurs pour qu'ils soient capables de lancer une recherche sur un moteur avec les mots clés accolés à l'URL. Et il faudra également créer les liens incluant les mots clés. Ce qui demanderait certainement une certaine discipline de la part des créateurs de pages. Andrei Broder, qui a également travaillé dans ce domaine, pense pour sa part qu'un document peut être identifié de façon unique à l'aide de 8 mots.

VUnet : http://www.vnunet.fr/VNU2/actualites/page_article.htm?id=0

VyouFirst, une arme contre le pillage sur le Web ?
Samedi, 18/03/2000 - 00:00

Vyou, start-up californienne basée à San Jose, affirme avoir développé une technologie permettant aux éditeurs de contenu de protéger leurs informations accessibles sur le Web. Installé sur le serveur, VyouFirst permet à l'éditeur de contenu de choisir le niveau de protection qu'il désire attribuer à chaque page de son site, et ce quel que soit le type de contenu de la page en question. Il peut même choisir de limiter la protection à certains éléments comme une image ou un tableau de données, par exemple : affichage uniquement, affichage et impression, téléchargement, couper-coller... Pour lire les documents protégés par VyouFirst, l'utilisateur télécharge une seule fois un module d'extension gratuit de 20 Ko qui fonctionne en permanence sur son PC ou son Mac. Un utilisateur qui a reçu par e-mail un document téléchargé sur un site devra obligatoirement retourner sur le site original pour lire, imprimer ou télécharger ce document, selon le niveau de protection qui lui a été attribué. Pour Peter Levy, fondateur et PDG, " la technologie VyouFirst va faciliter le développement du commerce électronique, car elle permet aux sites de mieux contrôler l'utilisation de leurs documents, tout en augmentant leur intérêt et donc leur audience. "

Internet Professionnel : http://www.internet-professionnel.com/ip/actus/0/2078.html

Vyou : http://www.vyou.com/pubsecure.asp?sect=publishers

Cyber-débat avec le Sénat pour la fête de l'Internet
Samedi, 18/03/2000 - 00:00

Les Sénateurs invitent les internautes à dialoguer en ligne et en direct à l'occasion de la fête de l'Internet. 15 d'entre eux (nombre de Sénateurs inscrits au 2 mars), représentant différents territoires, différentes sensibilités politiques du Sénat se relaieront sur Internet, heure après heure, durant deux jours, les 17 et 18 mars, pour discuter avec les citoyens de leurs propositions et de leurs actions. Le Président du Sénat, Christian Poncelet, interviendra, lui, le 17 mars après-midi depuis l'exposition MédiaSénat inaugurée le même jour à Bordeaux. Monsieur Trégouët dialoguera en direct avec les internautes et répondra à toutes leurs questions le vendredi 17 Mars de 19 à 20 heures. En partenariat avec Canal Chat, cette manifestation constituera une grande première en France à travers l'émergence d'un espace de dialogue en direct entre élus et citoyens. Il suffit de disposer d'un PC ou d'un MacIntosh datant de moins de 3 ans, doté d'une connexion à Internet avec un modem supérieur à 28,8 kbps pour participer dans de bonnes conditions. L'organisation des cyberdébats de la République permettra d'utiliser les technologies les plus récentes et les plus interactives dans ses relations avec le citoyen. Ces nouvelles technologies sont donc un nouveau moyen pour renforcer le dialogue avec les internautes. Elles permettent de converser en direct de tous les points du territoire et constituent ainsi un vecteur de décentralisation . Le Sénat organise les cyberdébats de la République en partenariat avec Canal Chat, site consacré au dialogue en direct sur Internet.

Sénat : http://www.senat.fr/fete/

Canal Chat : http://www.canalchat.com/

Dossier du Monde : http://www.lemonde.fr/sequence/0,2319,2397,00.html

L'UE à la traîne des Etats-Unis pour internet et la recherche
Samedi, 18/03/2000 - 00:00

En matière de production et de diffusion des technologies de l'information et de la communication (TIC), l'Union européenne est à la traîne des Etats-Unis, a souligné la Commission européenne dans un rapport. En moyenne, il existe 42 noms de domaines pour mille habitants dans l'UE. La Finlande vient en tête avec 123,2 noms par 1000 habitants, suivie par la Suède (96,5), le Danemark (73,9), les Pays-Bas (57,2), le Royaume-Uni (44,1), le Luxembourg (39,0), la Belgique (36,6), l'Autriche (35,5), l'Allemagne (25,6) et la France (22,8). Le Portugal et la Grèce ferment la marche avec 8,1 noms de domaines par 1000 habitants, mais l'Italie fait à peine mieux (12,7), assez loin derrière l'Espagne (16,2). Deux pays, l'Allemagne et le Royaume-Uni, assurent près de la moitié de toute la production communautaire de biens TIC. La formation ne suit pas non plus le mouvement, puisqu'il existe un lourd déficit de compétence des experts. Les Quinze se sont toutefois fixé des objectifs ambitieux dans ce domaine, puisqu'ils se sont engagés à fournir un accès gratuit à Internet pour les écoles d'ici à la fin 2002. Les tarifs des communications téléphoniques dans l'UE ont en outre considérablement baissé de 1997 à 1999 : moins 27 % en moyenne pour les appels longue distance (record pour l'Irlande avec moins 54 %) et moins 38 % pour les appels internationaux vers les Etats-Unis (record pour les Pays- Bas avec moins 89 %). La capacité d'innovation, qui est le moteur de la compétitivité et de l'emploi, est un autre point noir de l'Union européenne, qui risque d'être distancée par les Etats-Unis. "L'Europe est à la traîne des Etats-Unis pour ce qui est de sa capacité d'innovation et l'écart ne cesse de grandir depuis le milieu des années 1990", peut-on lire dans le rapport. En 1998, les dépenses de recherche et développement ont représenté 1,8% du PIB dans l'UE, contre 2,8 % aux Etats-Unis.

Reuters : http://fr.news.yahoo.com/000314/32/9vv3.html

Bip 2000, le robot bipède anthropomorphe européen
Samedi, 18/03/2000 - 00:00

Le robot Bip 2000, conçu par le service de moyens robotiques de l'INRIA, est capable de marcher de façon anthropomorphe sur un plan horizontal et de monter et descendre des escaliers. A terme, il sera équipé d'un capteur à ultrasons pour se repérer dans l'espace et pourra effectuer de vrais mouvements tridimensionnels. L'objectif de ces robots est de pouvoir accompagner l'homme dans ses activités personnelles ou professionnelles. Le but recherché est la conception mécanique des jambes couplée avec l'étude de techniques nouvelles de contrôle / commande. Bip 2000 fera sa première apparition en public à l'occasion de l'exposition universelle de Hanovre de mai à septembre 2000.

Besok : http://www.besok.com/besok/besok01

Carte à puce : la fin du mythe de l'inviolabilité
Samedi, 18/03/2000 - 00:00

Elle tient en 96 chiffres. C'est la formule secrète des Cartes bleues, révélée sur l'Internet, anonymement, le 4 mars. 96 chiffres qui permettraient à n'importe quel hacker (pirate informatique) peu scrupuleux de pirater l'une des 34 millions de cartes bancaires circulant en France, et même de fabriquer de fausses cartes. La menace, longtemps ignorée par le groupement cartes bancaires (GIE-CB, qui réunit plus de 170 banques), a été officiellement confirmée mercredi, au plus haut niveau de l'Etat, par le général Jean-Louis Desvignes, chef du Service central de la sécurité des systèmes d'information (SCSSI), qui dépend du secrétariat général de la Défense nationale: "Les banques doivent lancer rapidement une action d'envergure pour améliorer la sécurité des cartes à puce, ce qui impliquera le remplacement de millions de cartes et de lecteurs." La Banque de France avait déjà sonné l'alarme dans un courrier du 11 janvier 2000, qui enjoignait le groupement à changer son système de cryptage au plus vite . Car, cette fois-ci, le code est à la portée de chacun (ou presque) et c'est le bon code: selon le porte-parole du groupement, "les formules publiées [sur l'Internet] sont bien celles de l'une des clés de la Carte bleue. Un verrou a sauté". Ainsi, quinze jours après le jugement du tribunal correctionnel de Paris, qui l'a condamné à dix mois de prison avec sursis pour avoir percé ce fameux code secret, l'informaticien Serge Humpich voit ses recherches validées et même dépassées. Par le biais de l'Internet. C'est sur la Toile que cet ingénieur de 36 ans avait commencé, en 1995, à acheter logiciels de décryptage et puces dernier modèle, et c'est sur la Toile qu'un internaute anonyme a balancé une série de calculs dévoilant la clé de cryptage des cartes bancaires . Ça semble un jeu d'enfant: muni du code de 96 chiffres, le premier hacker venu se procure (toujours via l'Internet) le kit de fabrication auprès de la société Eléacard (lecteur-encodeur et cartes vierges), ainsi que les puces, via la boîte américaine Microchips. Le tout pour 2 500 francs. Reste à fabriquer, et utiliser, la yescard. Pour l'instant, aucune infraction de ce type n'a été constatée . Ce ne serait qu'une question de "semaines", selon Serge Humpich: "A l'époque, je n'avais pas plus d'éléments que ce code de 96 chiffres et j'ai quand même réussi à fabriquer des fausses cartes." Nous sommes au printemps 1998. L'informaticien contacte, via un avocat, le groupement cartes bancaires. Son objectif: négocier son "savoir-faire" technique et aider le GIE, par sa connaissance des failles du système, à colmater les brèches. Devant la méfiance de ses interlocuteurs, Humpich achète 11 carnets de tickets de métro dans une station du XVe arrondissement de Paris. Aux vraies-fausses cartes, les distributeurs automatiques délivrent d'authentiques facturettes. Ça ne suffit pas à ébranler la conviction du groupement, qui dépose plainte contre le farfelu Humpich. Il est arrêté en septembre 1998 . Malgré sa bonne foi proclamée dans de nombreux médias, Humpich est jugé et déclaré coupable de "contrefaçon". Alors qu'il n'a jamais, affirme-t-il encore aujourd'hui, dévoilé le code secret ni exploité sa trouvaille. D'autres s'en chargeront-ils demain?

(article résumé par @RTFlash)

Le Pocket PC arrive
Samedi, 18/03/2000 - 00:00

A la fin du printemps, Casio, Compaq et Hewlett-Packard vont commercialiser les premiers Pocket PC. D'une taille d'environ 13 x 8 cm, d'une épaisseur d'un centimètre à peine, et munis d'un écran tactile de 40 x 320 points en milliers de couleurs, ils auront presque tout d'un PC traditionnel. Utilisant Windows CE 3.1, ils feront tourner une version allégée de Word et d'Excel, en plus des fonctions classiques d'agenda, de bloc-notes et de calendrier. Les Pocket PC pourront se connecter à Internet, par une carte modem. Un logiciel leur permettra de recevoir et d'envoyer des courriers électroniques. Une version adaptée d'Internet Explorer redimensionnera les images pour qu'elles puissent s'afficher sur l'écran. Les machines seront équipées du logiciel Media Player, d'un lecteur de cartes Compact Flash, d'un petit haut-parleur et d'une prise casque. Les limites du concept du Pocket PC tiennent bien sûr à la taille réduite des machines. La capacité de sauvegarde des informations, par exemple, est limitée. Ces machines ne seront pas équipées de disques durs, mais d'une mémoire vive de 32 Mo et d'un connecteur pour carte Compact Flash. Le Pocket PC trouvera sa pleine mesure en complément d'un PC classique, avec lequel il échangera des fichiers grâce au port série du socle livré avec l'appareil et qui sert aussi à recharger les batteries. Son prix est encore inconnu, mais on peut supposer qu'il sera au moins égal à celui des assistants personnels les plus chers, soit environ 4 000 francs.

OI Informatique : http://www.01-informatique.com/actus/1/8699.html?

Microsoft contre Sony : duel de titans pour le contrôle de la télévision interactive
Samedi, 18/03/2000 - 00:00

Le géant américain Microsoft vient de déclarer la guerre à Sony sur le marché en pleine explosion du jeu video en annonçant le lancement de sa toute première console appelée X-Box, qui espère détrôner les géants mondiaux du secteur Sony, Nintendo et Sega. Un prototype de la console que le numéro un mondial du logiciel concoctait dans le secret depuis des mois a été dévoilé en avant-première mondiale à Tokyo, dans le fief de Sony. "X-Box représente une étape énorme parce qu'elle offre le meilleur de ce qui se fait en matière d'ordinateurs personnels et de consoles", a déclaré M. Gates dans un message vidéo diffusé à Tokyo. La console, équipée d'une unité centrale de 600 MHZ, sera équipée d'un lecteur de vidéo-disques DVD, d'un disque dur de 9 gigaoctets et pourra se connecter à l'internet à travers des réseaux à large bande, comme le câble. Elle sera commercialisée à l'automne 2001. Selon Microsoft, la X-Box serait deux fois plus puissante que la PlayStation 2 de Sony(150 millions de polygones affichés par seconde contre 66 millions ) et proposera des performances graphiques plus de trois fois supérieures à celles des consoles de jeux actuellement sur le marché . Pour établir la notoriété de la X-Box, Microsoft promet de dépenser un montant supérieur aux milliards de dollars investis dans la massive campagne de lancement de Windows 95. La partie ne sera pas toutefois facile . L'industrie des jeux vidéo (consoles et logiciels de jeux) réalise un chiffre d'affaires annuel d'environ 10 milliards de dollars, croît de 15% par an et est actuellement largement dominé par les trois grands fabricants de consoles japonais et une armée d'éditeurs de logiciels nippons. Cette intrusion de Microsoft dans le monde totalement japonais de la console va provoquer une vaste réorganisation du secteur. En effet, comme sa grande rivale la PS2 lancée le 4 mars, la console de Microsoft sera une plate-forme multi-usages, d'où on pourra jouer, regarder des films, décharger des morceaux de musique ou se connecter à l'internet. Au delà de, l'implantation sur le marché très juteux du jeu video( 7 milliards de dollars aux USA), le véritable enjeu de cette bataille techno-économique impitoyable n'est rien d'autre que le contrôle du marché de la Télévision interactive sur l'internet.

Brève rédigée par @RTflash

San Jose Mercury News :

_ http://www.sjmercury.com/svtech/news/indepth/docs/xbox031000.htm

La PlayStation2 connectée... via téléphone mobile
Samedi, 18/03/2000 - 00:00

Les possesseurs de PlayStation2 (environ 1 million de Japonais en deux jours si on en croit le raffut qui a suivi sa très récente sortie) "vont très bientôt pouvoir utiliser un téléphone cellulaire pour accéder à Internet via leur nouvelle console". Cette annonce de Ken Kutagari, boss chez Sony Computer Entertainment, a été suivie d'explications un peu plus poussées : les super-gamers se dégommant la rétine et les pouces à base de PS2 vont - aussi - pouvoir jouer et acheter en ligne, sans même avoir besoin d'un modem ou d'une ligne de téléphone fixe - mais simplement en reliant un téléphone mobile à leur console ! A cet effet, un logiciel et un câble propriétaires devraient sortir bientôt. Avantage du système : le téléphone mobile relié à la console n'a pas besoin d'être équipé d'un modem interne, la PS2 se chargeant d'interpréter les signaux reçus. Léger bémol (temporaire) de la chose : les connexions assistées par cellulaire n'assurent pas encore de débits très élevés. Ce qui va bientôt changer, cependant, suivez mon GPRS du regard... En somme, la console PS2 devient un appareil nomade d'un genre quelque peu nouveau. Mais comment porter sur soi la TV GEANTE 16/9, interface visuelle obligée de la PlayStation2 ? A moins qu'on n'utilise les Glasstron , espèce de lunettes-écran selon Sony... Ils ont pensé à tout, les bougres.

Lettre de l'Internet : http://www.lalettre.com/todaynews.cfm?id=292&actions=view

^ Haut
Matière
Matière et Energie
Electronique : les limites du silicium encore repoussées
Samedi, 18/03/2000 - 00:00

Le MIT vient de réaliser des grilles de transistors de 50 nanomètres grâce à une technique qui utilise les outils industriels d'aujourd'hui.. Une première ! Le silicium a encore de beaux jours devant lui. Le laboratoire de Lincoln du MIT vient de démontrer qu'il est possible de réaliser des gravures bien en-deçà de la limite des outils de lithographie optique actuelles. Cette limite est de 248 nanomètres. Mais en utilisant un logiciel de décalage de phase sur un système de lithographie classique, il est possible de diminuer encore l'épaisseur des traits de gravure. Les Cassandre expliquaient encore récemment que la limite actuelle était de 100 nanomètres et qu'il faudrait attendre presque une décennie pour passer outre... L'avantage de cette technologie, développée par Numerical Technologies, est qu'elle permet d'utiliser les outils industriels existant, sans changer profondément le processus de fabrication des puces électroniques. A deux milliards de dollars l'unité de fabrication, on peut comprendre tout l'intérêt que peuvent lui porter les fabricants de semi-conducteurs. Ils pourront ainsi concevoir des puces beaucoup moins gourmandes en énergie et surtout plus rapides.

Usine Nouvelle : http://www.usinenouvelle.com/

Un observatoire géant pour détecter les ondes gravitationnelles
Samedi, 18/03/2000 - 00:00

"Ce doit être le seul instrument de précision au monde qui soit surplombé par une route", souligne Fred Raab, astrophysicien travaillant au Ligo( Etat de Washington). Le Ligo est un gigantesque observatoire qui pourrait bientôt permettre de démontrer l'existence des fameuses ondes gravitationnelles prévues par la théorie de la relativité générale d'Einstein. Le Ligo est un complexe monumental de 350 millions de dollars qui comprend deux tunnels de 4 kilomètres qui se rejoignent en L et sont équipés d'un dispositif optique ultra-sensible. Cette machine colossale va servir à mesurer de minuscules perturbations de l'espace dus aux ondes gravitationnelles. Si le Ligo (Laser Inferometer Gravitational Wave Observatory) parvient effectivement à détecter certaines de ces ondes insaisissables, on le devra à son extrême sensibilité, qui lui permet de capter des ondulations à l'échelle du milliardième de milliardième de mètre, soit un million de fois moins que le diamètre d'un atome. Selon la théorie d'Einstein, la gravitation agit au moyen d'ondes. Tout corps possédant une masse émet donc des ondes gravitationnelles. La plupart de ces ondes sont impossibles à détecter. Mais certains corps, dont la masse dépasse plusieurs fois celle du Soleil et qui se déplacent dans l'espace à la vitesse de la lumière, génèrent des ondes gravitationnelles si puissantes que celles-ci créent de légères distorsions dans l'espace-temps. Les instruments classiques permettent de déceler des traces du big bang à quelques centaines de milliers d'années de l'événement. En revanche, on devrait théoriquement pouvoir détecter les ondes gravitationnelles au moment précis de la Création - ou presque. Le Ligo, grâce à l'extraordinaire sensibilité de son dispositif optique devrait permettre de mettre enfin en évidence les ondes gravitationnelles prévues par Einstein et apporter ainsi une nouvelle et éclatante confirmation de la relativité générale.

Brève rédigée par @RTFlash

Dailly Telegraph : http://www.telegraph.co.uk/et?ac=002550124263240&rtmo=LbNNLGhd&atmo=tttttttd&pg=...

L'Univers à contre temps
Samedi, 18/03/2000 - 00:00

On connaissait la valse à trois temps ou bien le moteur à quatre temps, voici maintenant l'Univers à deux temps. Plus exactement, un univers assez curieux qui possède deux flèches du temps, l'une étant la nôtre, et la seconde lui étant opposée. Autrement dit, un monde dans lequel des particules suivraient le sens commun du temps alors que d'autres le remonteraient. Mais où sont donc ces particules qui marchent à l'envers? Et que se passerait-il si nous en rencontrions? Les effets précéderaient-ils les causes? Autant de questions auxquelles s'est attelé Lawrence Schulman, un physicien de l'université Clarkson de New York particulièrement imaginatif. Publié il y a deux mois, dans la revue de référence en physique, Physical Review Letters, son modèle cosmologique renvoie aux paradoxes temporels aussi bien qu'à la nature de notre univers. Jugé amusant, original ou stimulant par d'autres physiciens, il est le résultat de plus de 20 ans de recherches centrées sur la flèche du temps. Rencontrer des particules dont le temps s'écoulerait de notre futur vers notre passé aurait d'intéressantes conséquences. Par exemple, j'ai oublié de fermer ma fenêtre et la pluie a inondé ma maison. J'envoie alors un signal à un messager remontant mon temps, qui ferme la fenêtre avant l'orage. Mais cette " communication" entre flèches du temps opposées ne va-t-elle pas modifier irrémédiablement ma propre histoire, comme le prédisent la plupart des scénarios de science-fiction ? Les résultats du modèle de Lawrence Schulman tendraient à dire non... ou presque : notre histoire suivra sa flèche mais un peu perturbée. Première conclusion, la coexistence de régions dans l'Univers ayant des flèches du temps opposées est donc possible. Seconde conclusion, la causalité est préservée dans ce modèle. Une "communication" est donc possible entre les deux mondes, voire la "détection" de l'un par l'autre... . Finalement, cet amusant modèle d'univers à deux temps pourraient arbitrer la "querelle" entre les "ouverts" et les "fermés". En effet, les régions ayant une flèche du temps opposée à la nôtre auraient été nécessairement créées lors du Big Crunch. Elles seraient donc les fossiles de notre univers témoignant de la fin de son expansion en une ultime contraction. En trouver ferait donc pencher la balance vers l'hypothèse "fermée". Cependant, pour parvenir jusqu'à nous, ces particules à rebours doivent effectuer une longue course, quelque cent milliards d'années. Elles seront alors certainement excessivement peu lumineuses et donc difficilement détectables. En revanche, elles obéissent aux lois de la gravitation. Deux propriétés caractéristiques de la matière noire. Lawrence Schulman fait donc de ses deux flèches, deux coups : matière noire et univers clos.

(article résumé par @RTflash)

Sciences & Avenir : http://www.sciencesetavenir.com/comprendre/page72.html




A la recherche du neutrino
Samedi, 18/03/2000 - 00:00

Au coeur de l'Italie, quelques skieurs glissent sur le blanc sommet du Gran Sasso, point culminant de la région des Abruzzes. 1.500 mètres plus bas, sous la roche, des dizaines de milliers de mètres carrés de galeries, hautes de vingt mètres, abritent le plus important laboratoire souterrain de physique des particules. Là, à l'abri de la radioactivité naturelle et du "bruit de fond" que constituent les rayonnements cosmiques, les physiciens traquent des particules "fossiles" de l'époque du big bang, d'autres venues de l'explosion d'étoiles géantes (supernovae), ou plus simplement du Soleil. Sphère, citernes, assemblages de modules contiennent des dizaines à des centaines de tonnes de liquides divers qui font "scintiller" les particules tant recherchées. Autant de structures métalliques bourrées d'électronique, reliées à des ordinateurs. Sur l'écran, de temps en temps, un segment lumineux apparaît. Peut-être la trace d'un neutrino... Les neutrinos!... Ces particules fantomatiques, méconnues et pourtant omniprésentes. La plupart viennent du Soleil. Comme toutes les autres étoiles, il est une usine à neutrinos. Avec les leptons chargés électriquement, dont le plus connu est l'électron, et avec les quarks, les neutrinos sont aujourd'hui considérés comme les particules les plus élémentaires. Les physiciens pensent que, dans l'ensemble de l'univers, les neutrinos sont un milliard de fois plus nombreux que les protons et les neutrons, qui forment le noyau des atomes. Et à vrai dire, si les physiciens subodorent que les neutrinos ont une masse, ils n'en sont pas sûrs. S'ils en avaient une, même proche de zéro, ils contribueraient à résoudre l'énigme de la matière sombre. Selon les astronomes en effet, notre galaxie se déplace trop vite par rapport à la masse de matière que l'on peut observer. Notre univers serait en fait composé à 90 % d'une matière sombre - qui n'émet pas de lumière - complètement inconnue, qui influencerait, par sa masse, l'expansion de l'univers et le déplacement des galaxies. L'envoi d'un faisceau de neutrinos du Cern (Laboratoire européen pour la physique des particules, Genève) au Gran Sasso pourrait éclaircir ce mystère. Cette expérience, nommée Opera, devrait permettre de démontrer la transformation - les physiciens disent l'oscillation - des neutrinos-muons en neutrinos-tau. Et si les neutrinos oscillent, c'est qu'ils ont une masse, insiste le Pr. Strolin. Ce faisant, les physiciens devrait également "voir" pour la première fois un neutrino-tau. Il existe trois types de neutrinos: le neutrino-électron et le neutrino-muon - qui sont couramment observés - et le neutrino-tau. Les neutrinos oscilleraient donc, mais sur de grandes distances. Avec l'envoi d'un faisceau de neutrinos-muons sur 730 kilomètres, OPERA veut aller plus loin: "voir" les neutrinos-tau, résultats de la transformation des neutrinos-muons. Pour saisir l'insaisissable, les physiciens du Cern vont construire un énorme accélérateur de particules. Cela ressemble à un tunnel de métro, mais sous vide et avec un diamètre de 2,5 mètres et une pente d'un kilomètre, explique Francesco Pietro Paolo (Cern). Le tunnel guide le faisceau de neutrinos, qui voyage ensuite à travers la terre. A la vitesse de la lumière. Au Gran Sasso, un détecteur d'une kilotonne l'attendra. A partir de 2005, cinq milliards de milliards de neutrinos par an vont être envoyés de Genève. Dont seulement 2.500 interagiront avec le détecteur du Gran Sasso, composé de couches de film photographique et de plomb alternées. Sur ces 2.500 "événements", les physiciens espèrent qu'environ 18 soient dus à des neutrinos-tau qui imprimeraient leur marque pour la première fois. En fonction du nombre de ces événements, nous pourrons aussi déduire la masse, souligne le Pr. Strolin. Plus les événements sont nombreux, plus la masse est grande. S'ils correspondent au chiffre attendu, nous pourrons avancer que les neutrinos constituent environ 20 % de la masse manquante de l'univers. Mais surtout, un nouveau champ - aujourd'hui vierge - de recherche en physique des particules sera ouvert...

Le Soir : http://www.lesoir.com/

^ Haut
Espace
Espace et Cosmologie
Une première carte de la matière sombre
Samedi, 18/03/2000 - 00:00

On dispose maintenant d'une carte de la distribution de la matière sombre couvrant une bonne partie du ciel. Cet exploit a été réalisé par une équipe d'astronomes dirigée par Yannick Mellier, de l'Institut d'astrophysique de Paris. Plus de 90% de la matière constituant l'univers n'émet aucune lumière, de sorte qu'on ne peut pas l'observer directement au télescope. Mais toute cette masse a un effet gravitationnel mesurable qui a été utilisé les chercheurs. En principe, la lumière se propage en ligne droite dans l'univers. Dans les faits, l'attraction gravitationnelle exercée par les galaxies et la mystérieuse matière sombre dévie légèrement les rayons lumineux. Pour dresser leur carte, les astronomes ont analysé les images de 200 000 galaxies lointaines. Celles dont les rayons lumineux avaient été fortement déviés par la matière sombre présentaient une forme légèrement allongée. Les chercheurs ,ont pu identifier les zones de matière sombre traversées par la lumière en analysant la direction et la force de cet effet pour chacune de ces galaxies . La carte qui résulte de ces travaux révèle l'existence d'une sorte de matrice, où alternent des zones vides et d'autres à haute densité, reliées entre elles par de fines passerelles de matière diffuse.

Brève rédigée par @RTFlash

BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_670000/670207.stm

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un vaccin prometteur pour les cancers métastasés
Samedi, 18/03/2000 - 00:00

Un nouveau traitement des cancers métastasés du rein, basé sur une stimulation des défenses immunitaires, a provoqué une rémission totale de la maladie chez 4 des 17 patients soumis à ce traitement. Ce vaccin thérapeutique expérimental a également permis une diminution des tumeurs de plus de 50% chez deux autres malades. L'équipe d'Alexander Kugler de l'Université de Gottingen (Allemagne), a appliqué ce traitement très prometteur à des patients atteints de cancer du rein métastasé (c'est-à-dire disséminé dans d'autres parties du corps). Mais cette technique pourrait aussi permettre de traiter beaucoup d'autres cancers métastasés, estime le Pr. Kugler. Ce vaccin curatif individualisé est obtenu par la fusion électrique de cellules cancéreuses prélevées sur le patient lui-même et de cellules immunitaires fournies par un donneur. Il a été administré aux malades sur une période de 11 mois, en seulement cinq ou six injections, et a provoqué une réaction immunitaire chez sept d'entre eux, capables dans quatre cas d'éliminer totalement les tumeurs. En revanche les autres patients sont tous morts des suites de leur cancer. Ce traitement affiche ainsi de biens meilleurs résultats que les traitements chimiothérapiques ou hormonaux classiques des cancers rénaux métastasés (moins de 10% de réussite). Les quatre malades qui ont bénéficié d'une rémission totale de la maladie, généralement en moins de trois mois, n'ont été victimes d'aucune rechute sur une période de 21 mois. Les métastases, étendues jusque dans les poumons et les os, ont été complètement éliminées. Les régressions enregistrées chez les deux autres malades ont porté sur plusieurs métastases formant des tumeurs de masse importante. Chez deux malades supplémentaires le cancer s'est stabilisé, un septième a présenté une réponse "mitigée". Le traitement n'a pas induit d'effet nocif important, mis à part un peu de fièvre pendant quelques jours. Les cancers du sein, du poumon, de la prostate et du rein, une fois métastasés, sont souvent mortels et les traitements classiques sont très toxiques. Cette technique "pourrait s'appliquer largement à d'autres tumeurs", estime le Pr. Donald Kufe, de l'Institut Dana-Farber pour le Cancer de la Harvard Medical School (Boston, Etats-Unis). Pour le spécialiste, les régressions obtenues avec cette techniques sont "sans précédent". "Si ces résultats sont confirmés, ils représentent une percée majeure dans le traitement par immunothérapie des tumeurs malignes métastasées", conclut avec enthousiasme Donald Kufe. Le Professeur Kugler, pour sa part précise que de nouveaux essais utilisant ce même type de vaccin "hybride" était en cours dans le traitement du cancer du sein et du mélanome malin.

Brève rédigée par @RTFlash

New York Times :

_ http://www.nytimes.com/library/national/science/health/022900hth-cancer-tumors.h...

ABC News : http://abcnews.go.com/sections/living/DailyNews/cancervaccine000228.html

La trangénomique pourrait révolutionner l'agronomie
Samedi, 18/03/2000 - 00:00

Des chercheurs australiens du Centre de Recherche agronomique de Camberra ont remarqué que les gènes responsables de la formation des différentes parties d'une plante sont très proches chez le riz et le maïs. Cette observation implique que la différence d'une plante à l'autre ne serait pas due essentiellement à une variation de la séquence des gènes mais plutôt à une variation des moments et de l'intensité de leur activation. S'appuyant sur ce constat, le Dr Jefferson, directeur du centre de recherche , tente d'obtenir de nouvelles espèces de riz en modifiant non plus leurs gènes mais leurs modes d'expression. Cette technique permet à la fois de modifier des plantes en insérant un minimum d'ADN étranger et de contourner les brevets des grosses multinationales comme Monsanto et Novartis. Ce nouveau procédé qui consiste à amplifier, par insertion d'un petit fragment d'ADN, un processus de mutation naturel, devrait permettre à terme de modifier les plantes de façon très sélective et sans recourir à des modifications génétiques majeures de plus en plus mal acceptées par l'opinion publique.

Brève rédigée par @RTFlash

New York Times : http://www.nytimes.com/library/national/science/022900sci-ge-plants.html

Des biocapteurs ultrarapides
Samedi, 18/03/2000 - 00:00

Des chercheurs du Los Alamos National Laboratory et de l'Universite de Californie a Los Angeles ont mis au point un capteur capables de détecter quasi instantanément une grande variété de marqueurs pathogènes ou biologiques. D'une utilisation simple et d'un format portatif, il permet à l'hôpital ou a la maison la détection chez le patient de certaines molécules (médicaments ou drogues) ou encore le diagnostic rapide et simple des maladies. Le détecteur de fluorescence est compose d'une source de pompage, une diode électroluminescente, d'un filtre rouge et d'un photodétecteur. L'échantillon est placée dans un petit flacon ou a l'extrémité d'une fibre optique. Une petite interface permet de coordonner l'ensemble et de traiter les données. Le système est sensible à de très faibles quantités molécules réactives. Ce procède a pour l'instant été testé sur des protéines et le virus du choléra. Un des avantages de cette nouvelle technique est qu'elle ne nécessite pas de préparation particulière de l'échantillon et que l'analyse est quasi instantanée. La prochaine étape va consister à tester cette technologie optique pour l'analyse rapide du sang.

Brève rédigée par @RTFlash

Photonics Spectra : http://www.photonicstechnology.com/feb00/techBiosensor.html

Voie ouverte vers la production d'ovules humains par des souris
Samedi, 18/03/2000 - 00:00

Des chercheurs japonais et américains ont annoncé avoir réussi à transplanter des ovaires humains à des souris, ouvrant la voie à la possibilité d'une fécondation d'ovules par les rongeurs. Les recherches ont été menées par une équipe japonaise menée par le Docteur Mizukami, en coopération de l'université de l'Utah. Les scientifiques ont obtenu des ovaires de trois femmes américaines avec leur accord et celui du comité d'éthique de l'université. Ils ont divisé les tissus ovariens en un centaine de petits morceaux de deux millimètres sur deux qu'ils ont ensuite implantés dans neuf souris. Les experts ont ensuite injecté des hormones pour stimuler la croissance des tissus ovariens. Deux semaines après, environ 6% d'entre eux ont montré des signes d'un commencement du processus de développement d'ovules. A terme, les expériences pourraient servir aux personnes souffrant d'infertilité avec la possibilité de créer une banque d'ovules, plus difficiles à obtenir que du sperme, selon lui. Pour mener de nouveaux tests, l'université de l'Utah espère obtenir des ovaires de donneurs en état de mort clinique.

Brève rédigée par @RTFlash

Utah Center For Reproductive Medicine : http://www-medlib.med.utah.edu/kw/utah_center/

Le premier cochon cloné est anglais
Samedi, 18/03/2000 - 00:00

La société de recherche en biotechnologies, PPL Therapeutics, à qui l'on doit déjà la célèbre brebis Dolly, a annoncé avoir mis au monde le premier clone de cochon. Cinq petites femelles, Millie, Christa, Alexis, Carrel et Dotcom, clonées à partir de cellules adultes, ont vu le jour le 5 mars. Ces clones ont été produits en utilisant la même technique de transfert du noyau cellulaire que celle employée pour produire la célèbre brebis Dolly; "Ceci ouvre la voie à des cochons modifiés dont les organes et les cellules pourront être greffés avec succès sur des humains, seule solution à court terme pour pallier la pénurie mondiale d'organes", déclare PPL. Les chercheurs de cette société espèrent pouvoir expérimenter les premières xenogreffes sur l'homme dans 4 ans. Les spécialistes estiment qu'à lui seul le marché d'organes pourrait rapporter 6 milliards de dollars.

Brève rédigée par @RTFlash

BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_676000/676906.stm

Une injection d'oestrogène pourrait protéger le cerveau en cas de crise cardiaque
Samedi, 18/03/2000 - 00:00

Des chercheurs américains, de l'université de Floride ont découvert qu'une injection d'oestrogène, une hormone femelle, peut protéger le cerveau en cas de crise cardiaque. Les chercheurs sont parvenus à réduire sensiblement les dommages subis par le cerveau chez des rats de laboratoire victimes de crises cardiaques artificiellement provoquées. Les chercheurs ont constaté que l'injection d' une dose élevée d'oestrogène dans un délai de 30 minutes pouvait réduire de 60% le taux de destruction des neurones. Administrée 3 heures plus tard, cette injection d'oestrogène permettait encore de protéger jusqu' à 40% des cellules. les chercheurs restent cependant prudents et soulignent que de nombreuses études complémentaires seront nécessaires avant que ce traitement puisse être utilisé sur l'homme. Il est vrai que les rats traités ont reçu 20 fois la quantité d'oestrogène qui est normalement présente dans leurs corps.

Brève rédigée par @RTFlash

BBC : http://news.bbc.co.uk/hi/english/health/newsid_664000/664184.stm

Université de Floride : http://www.napa.ufl.edu/2000news/estrogen.htm

Vaccin contre la méningite B : une avancée majeure
Samedi, 18/03/2000 - 00:00

Un vaccin contre la méningite à méningoccoques B pourrait bientôt être développé. En effet, une équipe anglo-américaine composée de chercheurs de l'Institut de recherche génétique du Maryland et de l'Université d'Oxford a réalisé le séquençage complet d'une souche de Neisseria meningitis du groupe B a permis d'identifier 7 protéines de cette bactérie. Ces 7 antigènes constituent des cibles de choix pour l'élaboration d'un vaccin. Les bactéries du groupe A sont responsables des épidémies en Afrique tandis que celles du groupe B touchent les populations européennes et nord-américaines. S'il existe un vaccin contre les souches du groupe A et C, un vaccin contre les bactéries du groupe B est actuellement indisponible. Ces 7 protéines ont été utilisées pour immuniser des souris contre N. meningitis: elles induisent chez la souris la production d'anticorps neutralisants capables de tuer les bactéries. Ceci suggère qu'un vaccin utilisant ces antigènes pourrait se révéler particulièrement efficace chez l'homme. Cette découverte majeure dans le traitement de la méningite de type B laisse espérer qu'un vaccin pourra être développé dans un avenir proche. 150 personnes sont mortes l'an dernier en Grande Bretagne des suites de cette méningite de type B, qui représente environ 60% des 1500 cas de méningites enregistrés au royaume Uni.

Brève rédigée par @RTFlash

BBC News : http://news2.thls.bbc.co.uk/hi/english/health/newsid%5F672000/672024.stm

Des chercheurs américains découvrent des anticorps efficaces contre le Virus Ebola
Samedi, 18/03/2000 - 00:00

Des chercheurs américains de l'US Army ont identifié des anticorps monoclonaux qui protègent du virus Ebola. Certains de ces anticorps neutralisants ont également un effet thérapeutique lorsqu'ils sont administrés à des souris 2 jours après avoir été infectées par le virus. L'identification de ces anticorps neutralisants a d'importantes implications pour le développement de vaccins et de thérapies. Le virus Ebola entraîne des fièvres hémorragiques aiguës et létales chez les sujets infectés. Aucun vaccin ou thérapie n'est actuellement disponible pour traiter cette infection virale. L'équipe de la Division de Virologie de l'armée américaine a identifié 5 groupes d'anticorps neutralisants monoclonaux dirigés contre le virus. Ces anticorps ont été produits par des hybridomes issus de souris infectées par le virus Ebola. Ces résultats indiquent que la mise au point de vaccins anti-Ebola reste possible. De plus, ces anticorps neutralisants pourraient être utilisés à des fins thérapeutiques chez l'homme.

BBC News : http://news.bbc.co.uk/hi/english/sci/tech/newsid_664000/664300.stm

Des neurones ressuscités
Samedi, 18/03/2000 - 00:00

Prendre des cellules de cerveau foetal humain, en isoler les cellules souches, cultiver, puis injecter à des souris. Laisser infuser plusieurs mois, et déguster les résultats. Aussi simple qu'elle paraisse, la recette mise au point par l'équipe du Pr. Nobuko Uchida (Stemcells Inc), et dévoilée lors d'un récent symposium à Keystone (Colorado), est du grand art. En effet, si des travaux sur des cellules souches de cerveau animal ont déjà été rapportés, c'est la première fois que de telles expériences font appel à des cellules humaines. De plus, après injection dans des cerveaux de souris, ces cellules ont survécu et se sont transformées en cellules nerveuses adultes (notamment neurones). Mieux, après sept mois, elles sont toujours vivantes, et ont migré dans des zones spécifiques du cerveau. Elles se comporteraient même, pour certains aspects, comme des cellules normales, annonce prudemment le communiqué de la société Stemcells. S'ils se confirment, ces résultats offrent de formidables perspectives dans le traitement des maladies neurodégénératives. Parkinson, Alzheimer, chorée de Huntington, sclérose latérale amyotrophique... toutes ces affections, dont certaines touchent des centaines de milliers de personnes en France, se caractérisent en effet par la mort de populations de neurones spécialisés. Voie de recherche très active depuis dix ans dans de nombreuses disciplines, les cellules souches (précurseurs de cellules différenciées adultes) sont d'autant plus étudiées en neurologie qu'on a longtemps cru qu'il n'en existait pas dans le cerveau. Aujourd'hui, on sait qu'elles existent dans le cerveau foetal mais aussi adulte. Sous l'effet de facteurs de croissance, ces cellules souches sont capables d'évoluer en neurones, ou en autres cellules nerveuses (astrocytes). Mais si les premières étapes (isolement et culture de ces cellules souches) semblent en voie d'être maîtrisées, "le challenge actuel est de les faire se différencier, poursuit le Dr Privat. Les cellules semblent se spécialiser différemment selon le site où elles ont été implantées, mais cela reste à prouver. De même qu'il reste à vérifier que leur intégration est non seulement anatomique, mais aussi fonctionnelle." Autre application potentielle des cellules souches en neurologie : les paralysies dues à une section traumatique de la moelle épinière. Il y a quelques mois, des chercheurs américains ont ainsi réussi rendre de la mobilité à des rats paraplégiques! Dès le dixième jour après la greffe (des cellules souches issues d'embryons de souris), les animaux ont pu se soutenir sur leurs pattes arrières, et ont retrouvé une coordination entre pattes avant et arrière.

Science &Avenir : http://www.sciencesetavenir.com/actualites/page8.html

Comment freiner l'extinction annoncée des espèces vivantes
Samedi, 18/03/2000 - 00:00

L'évolution des espèces est, par définition, changement. Quoi qu'il arrive, un mammifère comme le tigre devrait subsister quelques millions d'années avant de s'éteindre - ou bien il évoluera et deviendra quelque chose d'autre. Des espèces disparaissent, remplacées par de nouvelles. La mort n'est, dit-on, qu'une façon pour la nature de nous amener à relativiser la vie. Quelle importance, dans ce cas, si c'est l'homme qui détruit, et non pas un processus naturel tel que maladie ou changement climatique ? Parfois, cependant, la mort supprime un nombre colossal d'espèces en un temps relativement bref, beaucoup trop bref pour que ces espèces se reconstituent selon le grand cycle de l'évolution et de l'extinction. Depuis 530 millions d'années, cinq de ces "extinctionsen masse " se sont produites. La plus importante, à la fin de l'ère permienne, voilà 251 millions d'années, a éradiqué plus de 96 % de toutes les espèces. Celle de la fin du crétacé, il y a 65 millions d'années, arrive loin derrière, en dépit de la célébrité de ses principales victimes, les dinosaures. Peut-être sommes-nous en train d'assister aujourd'hui à un nouvel épisode de ce type, accéléré par nos propres agissements. Que se produit-il une fois la vague d'extinction passée ? Combien de temps la biodiversité met-elle à recouvrer toute sa richesse ? D'autant plus longtemps, pourrait-on penser, que la destruction est massive. Faux, affirment deux scientifiques américains dans le numéro du 9 mars de l'hebdomadaire Nature. James Kirchner (université de Californie, Berkeley) et Anne Weil (université Duke, Caroline du Nord) ont étudié ce que les fossiles nous disent du rapport entre extinction et repeuplement. Leurs conclusions sont claires : la reconstruction de l'écosystème prend toujours environ 10 millions d'années, quelle que soit la sévérité de l'extinction qui l'a précédée. L'idée selon laquelle un écosystème met davantage de temps à se reconstituer quand l'extinction est importante repose donc sur une hypothèse fausse, qui veut que les espèces vivent à peu près sans relation entre elles. Selon cette logique, la reconstruction de l'écosystème se limiterait à remplir des niches écologiques vides : plus la destruction est importante, plus cela prendrait de temps. Le problème est que les espèces sont interdépendantes. Elles constituent en elles-mêmes des niches écologiques et la destruction d'une seule nuit à beaucoup d'autres. Cela explique pourquoi les extinctions sont toujours suivies d'une période au cours de laquelle la flore et la faune restent pauvres. La végétation qui pousse sur les lieux où des bâtiments ont été démolis récemment est très peu diversifiée. De même, à l'échelle de la planète, il semble que seules des fougères ont existé durant les centaines de milliers d'années qui ont suivi l'extinction de la fin du crétacé. Quand la nature repeuple la planète, elle suit un calendrier qui lui est propre. Et le premier déterminant du renouveau - ainsi que l'ont montré Weil et Kirchner à partir des fossiles des 530 derniers millions d'années - c'est l'interdépendance des espèces. Ce message est sans appel : si nous détruisons les derniers tigres qui existent, nous ne reverrons plus jamais d'animal qui leur ressemble. Mais si les tigres sont détruits en même temps que la jungle où ils vivent, alors il faudra peut-être 10 millions d'années pour que réapparaissent d'autres grands prédateurs. Autrement dit, même si l'homme survit encore quelques millions d'années (car notre espèce, comme tous les mammifères, devra ensuite s'éteindre ou évoluer), il faudra plus de temps que cela à l'écosystème pour se remettre des destructions qu'il lui aura causées. L'animal qui succédera au tigre ne sera pas chassé par l'homme.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-45659-QUO,00.html

Nature : http://www.nature.com/nlink/v404/n6774/abs/404177a0_fs.html

Un appareil médical révolutionnaire pour sauver les victimes de lésions traumatiques
Samedi, 18/03/2000 - 00:00

La FDA (Food and Drug Administration) devrait autoriser la mise sur le marché du "Portable Cartledge Infuser" dans 90 jours. Il y a quatre ans, un jeune garçon de 12 ans suppliait le docteur Richard Cartledge de lui sauver la vie. Assisté de son équipe d'urgentistes, M. Cartledge a fait tout ce qui était en son pouvoir pour sauver l'enfant, victime d'un accident de voiture, qui a finalement succombé à une hémorragie interne. Un médecin expérimenté, puis un interne en chirurgie, ont alors tenté de consoler le docteur Cartledge, en lui assurant que le garçon n'aurait de toute façon pas pu être sauvé, compte tenu de la quantité de sang qu'il avait déjà perdu. Malgré tout, le docteur Cartledge n'était pas satisfait. Selon lui, le facteur temps était décisif. Une opération de 20 minutes aurait pu permettre de sauver cet enfant, mais l'hémorragie a été la plus rapide. Le jeune garçon a donc été lune des 40 000 personnes à mourir chaque année dune hémorragie liée à une lésion traumatique aux Etats-Unis. Les traumatismes sont actuellement la principale cause de décès des personnes âgées de moins de 40 ans. Le décès de cet enfant a donc conduit M. Cartledge à créer une machine portable, économique et peu encombrante, baptisée Cartledge Infuser. Cet appareil, breveté, permet de transfuser rapidement du sang réchauffé dans l'organisme du patient, et ce en toute sécurité. Au cours des cent dernières années, nos méthodes d'administration de liquides sanguins aux victimes de lésions traumatiques n'ont pas évolué : nous nous contentons d'accrocher les sacs à un perfuseur. De nombreux patients gravement atteints meurent avant même de parvenir à la salle d'opération, parce que leur hémorragie est trop importante pour être compensée par une perfusion traditionnelle. Grâce à notre appareil, les médecins seront en mesure de transfuser les malades extrêmement rapidement, ce qui leur permettra de les maintenir en vie assez longtemps pour établir un diagnostic pertinent et les soigner correctement, souligne Cartledge, vice-président exécutif de Smisson-Cartledge Biomedical. Cet outil de perfusion portable peut parfaitement être manipulé par une infirmière ou un interne de première année. Il est portatif, fonctionne sur piles ou sur l'alimentation secteur et peut être utilisé dans des salles d'opération ou d'urgences, des ambulances, voire sur un champ de bataille. Il devrait être commercialisé au prix unitaire de 20 000 dollars. Le perfuseur pourrait se révéler l'appareil thérapeutique le plus performant créé au cours de ce siècle, souligne M. Cartledge. Il aurait pu sauver la vie de cet enfant.

Biotech Actu : http://www.usinenouvelle.com/

Un nouveau traitement contre l'asthme
Samedi, 18/03/2000 - 00:00

Première véritable innovation thérapeutique dans la lutte contre l'asthme depuis la commercialisation des corticoïdes il y a plus de vingt ans, une nouvelle classe de médicaments, les antileucotriènes, a fait son apparition en France. Ces nouveaux médicaments - dont le premier est commercialisé par le laboratoire MSD et est remboursé par la Sécurité Sociale - agissent en bloquant les récepteurs spécifiques qui sont à l'origine de l'inflammation bronchique. Simples d'emploi - un comprimé à prendre chaque soir au coucher - les antileucotriènes améliorent le contrôle de l'asthme et diminuent les symptômes diurnes et nocturnes, chez l'adulte comme chez l'enfant de plus de six ans. Ils sont indiqués dans les asthmes persistants, légers à modérés, en complément d'un traitement à la cortisone chez les patients qui gardent des symptômes, a précisé le laboratoire, au cours du salon de la Médecine et de la communication médicale. Soulignant l'intérêt de cette nouvelle classe thérapeutique, le Pr. Pierre Duroux (pneumologue à l'hôpital Antoine-Béclère de Clamart) a rappelé que la gravité et la mortalité de l'asthme sont en augmentation depuis plusieurs années. "En huit ans, a-t-il indiqué, la fréquence de l'asthme a doublé chez l'enfant et chez l'adulte, notamment dans les régions où la densité urbaine est la plus élevée. Selon les épidémiologistes, l'asthme progresse chaque année de 10%, provoquant 850.000 journées d'hospitalisation, et 2.000 à 2.500 morts en France, soit plus de six par jour. Il naît un futur asthmatique toutes les dix minutes et cette maladie respiratoire due à un rétrécissement souvent brutal de leur calibre atteint plus volontiers les personnes de plus de 50 ans et, plus encore, les enfants de 7 à 15 ans qui représentent un tiers des cas identifiés. "3,5 à 5 millions de Français sont asthmatiques, dont plus de 500.000 enfants, mais la moitié seulement sont effectivement traités", a encore souligné le Pr. Duroux. Aux Etats-Unis, un autre médicament très prometteur est en cours d'essais contre l'asthme. Ce futur traitement, baptisé anti-IgE, présenterait l'avantage de prévenir les crises, au prix de une à deux injections par mois. L'anti-IgE (olizumab/rhuMab-E25) est un anticorps monoclonal humain recombiné, qui agit en bloquant la libération d'IgE, un anticorps responsable du déclenchement de substances inflammatoires qui sont à l'origine des maladies allergiques chroniques (asthme, rhinites).

AFP : http://www.afp.com/ext/francais/lemonde/sci/000309111919.urq1am88.html

Le Président Clinton et Tony Blair en faveur du libre accés à la carte du génome humain
Samedi, 18/03/2000 - 00:00

Le Premier ministre britannique Tony Blair et le président américain Bill Clinton ont demandé le 14 mars aux scientifiques du monde entier de placer dans le domaine public toutes les informations concernant le décodage du génome humain, actuellement en cours. "Les données fondamentales sur le génome humain, y compris le séquençage de tout le génome de l'ADN humain et de ses variations, devraient être librement accessibles aux scientifiques du monde entier", ont estimé Tony Blair et Bill Clinton dans un communiqué commun publié à Londres. Le décodage de la carte d'identité génétique humaine devrait permettre de "réduire le fardeau des maladies, améliorer la santé dans le monde ainsi que la qualité de vie de toute l'humanité", poursuit le texte. . Depuis une dizaine d'années, une course contre la montre est engagée entre scientifiques du monde entier pour décoder les trois milliards de paires de gènes humains, bases de la structure et du fonctionnement de l'organisme de l'Homme. Une première ébauche de carte de l'ADN humain devrait être publiée au printemps 2000, et la totalité du séquençage détaillé établie en 2003, a précisé le porte-parole de Tony Blair.

BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_677000/677246.stm

CNN : http://www.cnn.com/2000/HEALTH/03/14/human.genome/index.html

L'entraînement peut compenser un déficit génétique de mémorisation chez la souris
Samedi, 18/03/2000 - 00:00

En milieu stimulant favorise le développement cérébral des très jeunes enfants. Ce postulat, habituellement admis, est notamment vrai pour nos différents types de mémoires (spatiale ou non). Mais un entraînement tardif de la mémoire peut-il compenser une défaillance d'origine génétique ? Cette question de taille, car conditionnant la manière d'aborder des désordres comme la maladie d'Alzheimer, est au coeur d'une étude menée par Joe Tsien et ses collègues, de l'université de Princeton (Etat-Unis). Ces chercheurs ont choisi d'étudier une région particulière de l'hippocampe, dans le cerveau de souris, appelée CA1. Les lésions de cette région provoque, chez les humains comme chez les animaux de laboratoire, des déficits mémoriels importants. Dans un premier temps, l'équipe a donc créé des souris mutantes qui n'exprimaient plus, dans leur région CA1, de récepteurs du neurotransmetteur NMDA (N-méthyl -D-aspartate), connu pour son rôle centrale dans les mécanismes de la mémoire. Elle a ensuite testé leurs capacités de mémoire non-spatiale par rapport à celles de souris témoins. Arriveraient-elles, par exemple, à reconnaître un objet ? Placées au milieu de différents jouets, tous les rongeurs ont d'abord présenté le même niveau de curiosité et d'intérêt pour leur entourage. Mais le remplacement de l'un des objets a fait apparaître les premières différences. En effet, seuls les animaux de contrôle ont été capables de reconnaître la nouveauté, y portant une attention plus soutenue. .Constatant les dégâts causés par le défaut induit génétiquement chez leurs souris, Joe Tsien et son équipe ont voulu savoir s'ils pourraient en contrecarrer les effets. Les mêmes expériences ont été répétées, mais cette fois sur des rongeurs ayant préalablement été stimulés pendant deux mois. A l'issue de leur entraînement, les souris témoins ont montré des performances améliorées pour les différentes tâches (reconnaissance d'objet, d'aliment, etc.). Et, plus important, les souris mutantes ont vu leurs déficits partiellement ou entièrement compensés. L'absence d'activité des récepteurs NMDA dans l'hippocampe n'est donc pas une fatalité ; il peut être contrebalancer par des stimuli appropriés. Le phénomène s'explique par l'accroissement du nombre de connexions neuronales. Utilisant la microscopie électronique, les chercheurs ont ainsi pu mettre en évidence une augmentation significative de la densité synaptique dans la région CA1 des souris ayant été exercées, qu'elles soient mutantes ou non. Reste que l'extrapolation à l'homme de ces résultats est délicate. Ce qui est certain, c'est que les changements structurels au niveau du cerveau induits par l'entraînement intensif de la mémoire ne se limitent pas au développement précoce d'un individu. Les souris des expériences de Joe Tsien étaient adultes, et bien adultes...

Info-Science : http://www.infoscience.fr/articles/articles_aff.php3?Ref=407

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Une initiative européenne pour accélérer l'utilisation des nouvelles technologies éducatives
Samedi, 18/03/2000 - 00:00

A la veille du Conseil européen extraordinaire qui se tiendra à Lisbonne les 23 et 24 mars sur le thème de " l'Europe de l'innovation et de la connaissance " Mme Viviane Reding, membre de la Commission responsable de l'Education et de la Culture, a annoncé le lancement de eLearning, qui va concrétiser et compléter l'initiative eEurope dans les domaines de l'éducation et de la formation. Cette initiative comporte quatre éléments : un effort d'équipement en ordinateurs multimédia des écoles, un effort de formation des enseignants européens aux techniques numériques, le développement de services et logiciels éducatifs européens et l'accélération de la mise en réseau des écoles et des formateurs. Les moyens à mobiliser sont en grande partie nationaux, mais une intervention des fonds structurels européens dans les régions éligibles, une mobilisation des programmes communautaires en faveur du numérique et le développement de partenariats entre les pouvoirs publics et l'industrie devraient venir en complément. Quant aux deux premiers objectifs, eLearning se fixe, dans le cadre de eEurope, les objectifs suivants: pour la fin de l'année 2001, toutes les écoles devraient avoir accès sur Internet à des ressources multimédias et des services de soutien, y compris des informations et des ressources pédagogiques sur le Web, devraient être accessibles à tous les enseignants et élèves. Tous les jeunes devraient avoir accès à Internet et aux ressources multimédias dans des centres publics, y compris dans les zones les moins favorisées. Pour la fin de l'année 2002, tous les enseignants devraient disposer d'un équipement individuel et être capables d'utiliser Internet et les ressources multimédias. Tous les élèves devraient avoir un accès rapide à Internet et aux ressources multimédias dans les salles de classe. Pour la fin de l'année 2003, tous les élèves devraient avoir acquis une culture numérique au moment où ils quittent l'école. " Ces objectifs de la Commission, rappelle Mme Reding, sont particulièrement ambitieux et requièrent de la plupart des Etats membres des efforts supplémentaires. Ils permettront aux Européens, s'ils sont poursuivis et atteints, de rattraper une bonne part de leur retard sur les Etats-Unis. " Commission européenne

http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=IP/00/23...|0|RAPID&lg=FR

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un train qui vole
Samedi, 18/03/2000 - 00:00

Dans 20 ans, les trains rouleront peut-être à 5 cm au-dessus des rails. Les Japonais, dont l'expertise en matière de trains rapides et de trains à suspension magnétique est reconnue, travaillent actuellement à un projet de train sur coussin d'air. Son principal avantage par rapport à la suspension magnétique : l'économie d'énergie. Le nouveau train sera si économe que sa source d'énergie pourrait bien se limiter à des panneaux solaires installés sur le rail lui-même! Le principe du coussin d'air est simple. L'air confiné et comprimé sous le train permet à l'appareil de rester suspendu quelques centimètres au-dessus du sol, un peu comme un avion. Ceci lui permet d'avancer sans subir d'autre friction que la résistance de l'air. Le vol sur coussin d'air consomme beaucoup moins d'énergie que la suspension magnétique, où le train lévite au-dessus d'un électro-aimant énergivore. Le train sur coussin d'air ne roule pas sur des rails à proprement parler. Il circule plutôt sur une dalle plane, encadrée par deux murets de béton.

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N1719.asp

Le moteur Diesel est transfiguré
Samedi, 18/03/2000 - 00:00

Pas de doute, il s'agit bien d'un mouvement de fond. En dix ans, la part de marché du diesel a doublé en Europe. Les moteurs de dernière génération n'ont strictement rien à voir avec les diesels " camionesques " d'hier. L'injection directe et la technologie du common rail (une rampe à haute pression qui dose la quantité de carburant introduite dans chaque cylindre) ont eu raison des dernières idées reçues. La plupart des constructeurs proposent des motorisations silencieuses, puissantes et économiques dont les niveaux de consommation sont très modérés (moins de 7 litres de gazole sur route pour un moteur deux-litres). La bataille des sigles (Tdi chez Volkswagen, CDI chez Mercedes, dCi chez Renault, JTD chez Fiat, HDi chez Peugeot-Citroën) résulte autant d'une compétition technologique que d'une lutte d'influence autour des normes européennes relatives à la défense de l'environnement. Le diesel, en effet, dispose d'un avantage comparatif important : il produit moins de dioxyde de carbone (CO2) que l'essence. Or, les objectifs européens de lutte contre la pollution s'expriment essentiellement en termes de réduction des émissions de CO2, directement liées au niveau de consommation d'énergie. En France, depuis 1998, elles déterminent, avec la puissance du moteur, la catégorie fiscale d'un modèle. Hier encore soupçonné d'être écologiquement incorrect, le gazole est-il vraiment le carburant " vert " que l'on attendait ? Tout dépend de ce que l'on mesure. S'il émet moins de CO2, il est moins bien placé pour les émissions de Nox - oxydes d'azote - et de particules (en attendant la généralisation de filtres inaugurés par Peugeot et Citroën). Les puristes font également remarquer que le CO2, présent naturellement dans l'atmosphère, n'est pas directement dangereux pour la santé et n'est donc pas, à proprement parler, un polluant. " N'enterrons pas prématurément le moteur à essence, plaide pourtant un expert de Renault. Bientôt, une nouvelle génération de turbocompresseurs améliorera son rendement et lui offrira des performances équivalentes en matière de reprises tout en réduisant la consommation. "

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2040-46074-QUO,00.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top