RTFlash

RTFLASH Recherche & Technologie
NUMERO 99
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Mai 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Bientôt des virus dans votre téléphone ?
Intel veut marier l'audiovisuel et l'internet
Tout peut se connecter à Internet !
Le nombre d'internautes français a été mutiplié par 3 en un an et dépassera les 10 millions avant la fin de l'année
La Suède deviendra-t-elle la Silicon valley de ... l'Europe ?
Internet: les USA perdent leur hégémonie
Bientôt le e-commerce au bout du doigt ?
Les éditeurs américains mettent leurs best-sellers sur l'internet
La Commission propose un ambitieux plan d'action relatif à l'initiative eEurope
L'ordinateur quantique, un rêve qui devient réalité
Le sens de l'adaptation chez le robot
Les robots prennent la parole
Le piratage de logiciels a coûté 12 milliards de dollars en 1999
Le DVD va surclasser la cassette vidéo
Matière
Les nanotubes pourraient aider les voitures à hydrogène
Espace
Les télescopes du futur
Vivant
De l'argile au médicament : un nouveau traitement contre les leucémies
Un antihypertenseur efficace contre l'athérosclérose ?
On peut ralentir l'évolution de la maladie d'Alzheimer !
Des os produits à partir de peau ou de cellules de la gencive
Les espoirs de l'immunothérapie se concrétisent
La mortalité par cancers du sein diminue en grande Bretagne
Une intervention révolutionnaire pour lutter contre la maladie de Parkinson
Vers la fabrication d'un coeur humain en laboratoire ?
Les alliages à mémoire de forme au service de la chirurgie
Myéliniser les axones endommagés de la moelle épinière grâce aux cellules souches embryonnaires
Le nombre de gènes humains revus à la baisse ?
Edito
Un danger rode autour de la nouvelle économie



La nouvelle économie est en train d'entrer dans une phase plus réaliste. Mais ce n'est pas pour autant que les gestionnaires des fonds de pension et des autres circuits financiers qui, hier encore, s'emballaient sans mesure pour l'économie du « net » doivent soudainement chausser de nouvelles lunettes et lui appliquer les ratios de l'économie réelle. Certes, les entrepreneurs du virtuel vont devoir dorénavant appuyer leurs projets d'entreprises sur des modèles économiques crédibles et on ne les applaudira plus si les déficits s'inscrivent durablement dans les comptes, surtout si leurs exigences de valorisation de leurs « jeunes pousses » semblent être directement proportionnelles à la profondeur abyssale des trous creusés. Mais en face de cette obligation de réalisme des nouveaux acteurs, ceux qui il y a quelques semaines encore ne juraient que par la nouvelle économie et décidaient d'y injecter des centaines de millions doivent agir avec modération et sagesse. Tout coup de frein brutal et, pire encore, toute velléité de passer en marche arrière pourrait engager un processus de doute dont les conséquences pourraient être graves. Chacun avait bien conscience que les arbres ne pouvaient pas grimper jusqu'au ciel et qu'il était aberrant de voir la valeur d'une entreprise doubler, décupler en quelques semaines ou parfois même en quelques jours...Mais, maintenant, alors que des corrections annoncées se réalisent, certains semblent être prêts, déjà, à jeter le bébé avec l'eau du bain. Hier, ils avaient tort d'idolâtrer le veau d'or. Aujourd'hui, ils ont encore tort de croire que cette économie du virtuel n'est que du vent. Il n'est certes pas aisé de quitter une époque, de quitter un siècle pour entrer dans un monde nouveau, dans un nouveau millénaire. Il nous faut laisser sur le seuil nos règles antiques, nos anciennes habitudes et même nos vieilles hardes. Aussi, rien de surprenant qu'à la moindre bourrasque et à la première secousse certains prennent peur et soient tentés de faire demi-tour. Ils auraient bien tort car ils se priveraient d'entrer dans un monde dans lequel ils pourraient accéder à des biens dont leurs parents n'avaient même pas rêvé. L'ancienne économie ne permettait qu'aux riches d'acheter des biens rares donc chers pour finalement n'en user que peu. La nouvelle économie permet au plus grand nombre d'utiliser, selon ses réels besoins, ces biens rares en ne réglant qu'un coût marginal. Ce qui fait la puissance potentielle de cette nouvelle économie, si elle est bien comprise, c'est que chaque partie est gagnante. Le propriétaire d'un produit exceptionnel préfère avoir un million d'utilisateurs, qui ne lui verseront chacun qu'un franc, qu'un seul et versatile acheteur qui lui versera un million de francs. Mais l'heureux utilisateur qui peut bénéficier pour un franc d'un produit qu'hier il aurait dû payer un million de francs ouvre une porte qu'il ne pensait jamais pouvoir franchir. Dans un monde qui est encore trop étroit avec ses trois cents millions de pratiquants, l'avenir va prendre une autre dimension quand, dans quelques années, nous serons un milliard d'êtres humains, connectés les uns aux autres, à pouvoir accéder à des biens qui, aujourd'hui encore, nous sont totalement inaccessibles. Le danger qui rôde autour de cette nouvelle économie est porté par l'histoire encore bien jeune de la planète Internet. Hier (il y a moins de deux ans), nous n'étions encore que des internautes de l'ère primitive et nous avions pris l'habitude de chasser, de pêcher, de ramasser nos champignons dans notre immense forêt vierge sans que quiconque nous demande la moindre rémunération. Nous avons ainsi été quelques centaines de milliers à éprouver des plaisirs simples mais vrais que seuls, certainement, les hommes contemporains à Cro-Magnon avaient pu éprouver avant nous ! Très vite, nous avons commencé, bénévolement, la construction d'un temple dont la plus haute colonne portait l'un des maîtres-mots de notre devise : gratuité. Maintenant, alors que l'internaute a parcouru en quelques mois plusieurs dizaines de milliers d'années de l'histoire de l'Homme, il ne se satisfait plus du gibier de nos forêts, des poissons de nos lacs et autres babioles trop primitives mais exige au contraire d'accéder à ce qui est le plus « top » mais en rappelant sans cesse que le maître-mot ne peut rester que la gratuité. Réfléchissons bien : ne serait-il pas préférable que nous soyons un million à être d'accord pour payer un franc l'usage d'un bien pour lequel nous devrions débourser un million pour l'acquérir pour nous seul ? A trop vouloir la gratuité et à ne pas accepter le règlement d'un coût marginal, l'économie virtuelle risquerait de devenir irréelle et le propriétaire d'un bien réel pourrait préférer n'avoir qu'un seul acheteur au lieu d'un million d'heureux bénéficiaires... trop irréalistes.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Bientôt des virus dans votre téléphone ?
Samedi, 27/05/2000 - 00:00

Vous craignez les virus informatiques? Alors, gare aux virus téléphoniques. David Chess, un spécialiste des virus de la firme IBM, prédit dans la revue New Scientist que les téléphones mobiles constitueront bientôt une terre de prédilection pour les pirates. Comme ils sont fortement reliés entre eux, les virus sont susceptibles de s'y répandre comme une traînée de poudre. Et les dégâts pourraient être importants : conversations enregistrées et redirigées vers d'autres personnes, porte-monnaie électroniques vidés, énorme factures d'appels interurbains. Pour le moment, les téléphones sont à l'abri de ce type d'attaques. Mais la prochaine génération d'appareils, capables par exemple de signaler automatiquement un numéro de téléphone tout juste reçu par courrier électronique, sera vulnérable. Ces appareils seront programmables, ce qui permettra d'améliorer leurs fonctionnalités sans avoir à les changer, mais permettra aussi d'ajouter des fonctions nuisibles - les virus. Comment les concepteurs de ces nouveaux appareils peuvent-ils les protéger contre cette menace? Une option serait de faire en sorte qu'ils ne soient pas reprogrammables, en mettant les logiciels sur des puces de mémoire morte (non-modifiable), par exemple. Les virus ne pourraient donc pas s'y installer. Mais les manufacturiers tiennent beaucoup à ces futurs appareils programmables. Et de plus, les données des utilisateurs - la liste de numéro de téléphone, notamment - ne peuvent pas être enregistrées en mémoire morte, ce qui les laisse vulnérables. Une autre possibilité serait de faire en sorte que les diverses fonctionnalités des appareils ne puissent pas se mettre en marche les unes les autres. Sans possibilité de téléphoner, le virus serait incapable de se propager vers d'autres appareils, de détruire des fichiers ou de vider un porte-monnaie électronique. Mais cette restriction ferait en sorte que le téléphone ne serait pas non plus capable de signaler à partir d'un numéro reçu dans un courrier électronique, une fonctionnalité que les utilisateurs désirent fortement avoir.

Cybersciences :

http://www.cybersciences.com/Cyber/3.0/N1837.asp

Intel veut marier l'audiovisuel et l'internet
Samedi, 27/05/2000 - 00:00

Intel Corporation a annoncé une nouvelle activité de services Internet portant sur la diffusion en continu (streaming) de contenus audiovisuels à partir d'un réseau de centres d'émission et de serveurs Internet d'extrémité, situés à proximité du public. L'activité Intel® Internet Media Services permettra à des entreprises du monde entier de proposer de manière plus fiable et avec une meilleure qualité technique des concerts en direct, des longs-métrages, des émissions radiophoniques, des formations et des comptes rendus financiers. Les Intel Internet Media Services font partie du nouveau groupe New Business d'Intel, créé pour développer des services et produits liés à l'Internet. Ils renforcent la vocation d'Intel, qui est de s'affirmer comme le fournisseur de modules de base pour la Net-économie au plan mondial. Intel investit 200 millions $ dans la mise en place d'un réseau ultrafiable, mondial et évolutif, réservé à la diffusion audiovisuelle par l'Internet. La diffusion numérique se fera à partir de centres de diffusion qui bénéficieront de la technologie réseau d'Intel. Cette technologie analyse l'ensemble du réseau et diffuse le contenu à partir des serveurs les plus adaptés, situés à l'extrémité de l'Internet, pour ainsi assurer un débit plus important et une meilleure qualité d'image et de son. Grâce à cette approche, les contenus évitent les goulots d'étranglement susceptibles de les ralentir et de les dégrader lors de leur acheminement.

Cyperus :

http://www.cyperus.fr/

Tout peut se connecter à Internet !
Samedi, 27/05/2000 - 00:00

Même le plus vieux de vos fax peut se connecter à Internet. Enfin presque. C'est en tout cas ce que laisse imaginer Lantronix, avec ses device servers. Le nombre d'applications que permettent ces petits systèmes donne le tournis ! Les "device servers" incluent un port qui se connecte aux systèmes de sécurité, aux appareils de vente automatiques ou encore aux stations de surveillance météo. Et autorisent donc la création d'applications en réseau impossible jusqu'alors... Par exemple, la technologie est utile pour les entreprises qui veulent ajouter des "capacités Internet" à leurs robots industriels qui intègrent déjà un système de contrôle électronique. Avec la croissance d'Internet et la multiplication des terminaux d'accès, les entreprises veulent incorporer leur technologie au système d'informations pourront donc le faire avec cette solution... Par ailleurs, Sun Microsystems, Microsoft et Hewlett-Packard, par exemple, ont tous des logiciels qui devraient un jour être utilisés par les programmeurs pour ajouter des fonctionnalités Internet à n'importe quel gadget : caméras vidéo, lecteur DVD, lampes et cafetières, etc. Avantage immédiat : lorsqu'une entreprise change son réseau propriétaire pour Internet, elle évite la dépense de lignes dédiées. Par exemple, une ligne louée pour connecter une caisse automatique coûte environ 1 000 dollars aux Etats-Unis. Le site Ticketmaster et les services de la poste américaine, l'U.S. Postal Service, utilisent donc tous deux les équipements de Lantronix pour diminuer ces coûts. Ticketmaster exploite ces "matériels serveurs" dans les kiosques de ventes de tickets installés dans les magasins Kmart. Et la poste U.S., pour des terminaux de point de vente. Autres clients ? Les entreprises qui implémentent des systèmes de sécurité, de détection d'intrusion, contrôlables à distance, sont aussi clientes de cette solution. Le "matériel serveurs" de Lantronix utilise un système d'exploitation avec un kernel (noyau gérant le matériel élémentaire) de 64 Ko et est disponible aux Etats-Unis pour environ 300 dollars (environ 2 200 francs).

vunet :

http://www.vnunet.fr/VNU2/index.htm

Le nombre d'internautes français a été mutiplié par 3 en un an et dépassera les 10 millions avant la fin de l'année
Samedi, 27/05/2000 - 00:00

Dans sa livraison trimestriel, le Baromètre Internet IDC* comptabilise plus de 8,6 millions d'internautes français, soit une progression d'un million d'utilisateurs depuis la fin de l'année 99. Sur cette base, l'année 2000 devrait terminer sur un chiffre de 10,9 millions d'utilisateurs. Cette croissance est à rapprocher aux 6,3 millions de postes connectés, un chiffre en hausse soutenue depuis le premier trimestre, notamment sur le segment professionnel qui représente désormais 57,3 % des postes connectés. L'Association française des fournisseurs d'accès internet (AFA) pour sa part annonce que ses membres comptaient 4,105 millions de comptes actifs au cours des 40 derniers jours à la date du 15 avril, soit une progression de 35,4 % par rapport au 15 janvier et de 169,2 % sur un an. Dans un communiqué, elle précise que les utilisateurs ont totalisé 34,81 millions d'heures de connexion en un mois contre 25,265 millions en janvier et 17,025 millions en octobre 1999. Sur 12 mois, la croissance est de 173 %. Si la hausse des usagers a été stimulée par les offres couplées « Internet + PC » et l'apparition des fournisseurs d'accès gratuit, celle du secteur professionnel doit beaucoup à l'équipement des entreprises moyennes et des PME. IDC France scrute également l'arrivée en force des fournisseurs d'accès gratuits. Selon ses chiffres, les principaux FAI gratuit compteraient 3,7 millions d'abonnés à la fin du premier trimestre, dont un peu plus de la moitié sont des utilisateurs réguliers. Les trois premiers du marché -Libertysurf, Free et Internet Télécom (à travers son service de fourniture d'accès sous marques d'enseignes) totalisent 1,3 millions d'utilisateurs. Malgré cette arrivée en force, le marché reste solidement tenu par le « big four » - France Télécom, Groupe Cegetel, Club Internet et Infonie avec plus de 55 % des internautes et plus de 70 % du marché professionnel.

Reuters :

http://fr.news.yahoo.com/000518/32/e9br.html

La Suède deviendra-t-elle la Silicon valley de ... l'Europe ?
Samedi, 27/05/2000 - 00:00

Telle serait l'une des premières conclusions des 25 participants au voyage organisé par l'Atelier BNP Paribas en Suède : la Suède est la première nation à entrer dans la Société de l'Information (devant les Américains). 62 % des foyers suédois disposent d'un PC et d'une connexion Internet (72 % à Stockholm). Ce taux d'équipement élevé est dû, en partie, à une mesure de défiscalisation des PC prise il y a deux ans. Plan gouvernemental d'un backbone à très haut débit sur tout le pays,raccordement à celui-ci des réseaux des collectivités locales (qui installent eux-mêmes de la fibre noire comme à Stockhom), des start-ups dans tous les coins, une "mobile valley" près de la capitale (Kista -on prononce "chista"- avec 700 entreprises et 25 000 personnes) ... de nouveaux opérateurs large bande (20 mégas), des entreprises traditionnelles comme Electrolux (qui "donnent" la machine à laver IP ...), Ericsson qui lance un système de paiement sur téléphone mobile, 200 sociétés de capital-risque ... bref, la e-Suède se bouge .

Atelier :

http://www.atelier.fr).

Internet: les USA perdent leur hégémonie
Samedi, 27/05/2000 - 00:00

Les Etats-Unis perdent leur position dominante dans l'internet au profit de l'Asie et de l'Europe, selon une étude de la société de conseil américaine International Data Corporation (IDC) présentée lundi. "Le monde s'éloigne rapidement d'un internet centré sur les Etats-Unis et anglo- phone", a souligné IDC dans un communiqué. Les Américains ne représenteront plus qu'un tiers des internautes en 2003 -- dont le nombre s'élèvera à 600 millions de personnes -- contre la moitié en 1998, anticipe la société de conseil spécialisée dans le commerce électronique. La région Asie-Pacifique, où le nombre d'internautes devrait tripler à 75,6 millions de personnes en 2003, contre 19,7 millions l'an dernier, observe dans ce contexte la croissance la plus rapide. Une écrasante majorité des internautes japonais (84 %) préfèrent d'ores et déjà surfer sur le Net dans leur langue maternelle qu'en anglais. Cette proportion tombe à 75% pour les Latino-Américains et 52 % pour les Européens. Le commerce électronique réalisera en 2003 près des deux-tiers de son chiffre d'affaires (1.640 milliards de dollars) hors des Etats-Unis. Les entreprises américaines sont "en train de rater l'explosion internationale du commerce électronique", met encore en garde le rapport. Quelque 70 % d'entre elles réalisent moins de 10 % de leur chiffre d'affaires électronique à l'étranger. "Les six à 24 prochains mois seront déterminants si elles veulent mettre solidement le pied sur les marchés étrangers", ajoute IDC.

Bientôt le e-commerce au bout du doigt ?
Samedi, 27/05/2000 - 00:00

Après le partenariat annoncé avec l'éditeur I/O Software (voir édition du 3 mai 2000), Microsoft signe avec le fabricant de matériel d'authentification par empreintes digitales Veridicom. D'ailleurs, cette société née du géant en recherche et développement Lucent/Bell Labs travaille aussi avec le californien I/O Software depuis deux ans. A son tour, Veridicom proposera donc des solutions biométriques pour Windows puisqu'elles sont certifiées conformes à la norme BAPI (Biometric API). Pourtant, récemment, le BioAPI Consortium (le groupe de travail sur les nouvelles technologies de la biométrie) exprimait sa déception sur le choix du géant quant aux API (Application Programming Interfaces) d'I/O Software. Pourtant, Microsoft annonce l'acquisition des technologies BAPI et SecureSuite de I/O Software et semble bien décidé à diffuser les technologies biométriques dans la bureautique et les ordinateurs portables. Objectif de Veridicom ? Faire intégrer ses capteurs dans 15 modèles de huit grandes marques de portables d'ici la fin de l'année. La solution disponible pour les ordinateurs portables tournant sous Windows 95, 98, NT et 2000 se compose du 5thSense, le périphérique d'authentification personnelle et du logiciel "Confirma for SecureSuite". Avec ce type de produits de sécurisation d'empreintes digitales, la biométrie prend corps sur le marché de la sécurité informatique. D'ailleurs, ce marché pourrait se développer plus rapidement que prévu avec l'entrée inattendue de Sony et de son scanner d'empreintes digitales. Compatible avec les logiciels d'I/O Software et de la taille d'une carte de crédit, le matériel du géant japonais, le FIU-700, se destine à la vérification d'empreintes digitales pour autoriser l'accès aux réseaux, aux ordinateurs et aux applications individuelles. Ce matériel se connecte à un ordinateur via un port USB et tourne sous Windows 98 ou Windows 2000. Sony dit vouloir cibler les secteurs de l'industrie qui requièrent de haut niveau de sécurisation comme les entreprises d'e-commerce, le secteur de la santé, les cabinets juridiques et d'avocats. Et, envisage un certain nombres d'applications pour le commerce électronique comme pour la sécurité en entreprise. Toutefois, on ne peut s'empêcher de se demander si le géant n'envisagerait pas de se "faire la main" sur le marché des professionnels avant d'intégrer cette technologie futuriste dans ses consoles de jeux Playstation. Car c'est sans doute l'un des plus gros marché : à l'avenir, les joueurs s'affronteront en réseau et effectueront peut-être des transactions depuis leur consoles de jeux.

AFP :

http://fr.news.yahoo.com/000523/empg/htlm

Les éditeurs américains mettent leurs best-sellers sur l'internet
Samedi, 27/05/2000 - 00:00

De Michael Crichton à Mary Higgins Clark, les éditeurs américains multiplient les offensives en ligne, à grand renfort de best-sellers, pour être au rendez-vous du livre électronique. Le groupe Random House, filiale du géant allemand Bertelsmann, a ainsi annoncé mardi la parution en ligne de "Timeline", le dernier roman de Michael Crichton, déjà célèbre pour une dizaine de best-sellers internationaux, dont "Jurassic Parc". "La convergence de l'internet et des avancées technologiques offre une nouvelle forme de lecture qui aurait été inimaginable il y a une génération", a noté l'auteur lors d'une conférence de presse à New York. "L'idée de pouvoir télécharger des dizaines d'ouvrages sur un petit appareil est très attirante", a-t-il ajouté, en se félicitant de ne plus avoir à emporter des valises pleines de livres lorsqu'il part en vacances. Random House s'est associé à barnesandnoble.com, le deuxième grand libraire en ligne américain derrière Amazon.com, et à Microsoft, qui propose un logiciel permettant de télécharger des ouvrages sur internet et de les lire sur de petits écrans portables. "Timeline", qui fait remonter le temps à ses héros dans la France du 14ème siècle, sera ainsi accessible gratuitement sur barnesandnoble.com à tous les électeurs utilisant le format Microsoft Reader. Un autre grand éditeur américain, Simon and Schuster, va publier également en partenariat avec barnesandnoble.com et Microsoft quinze titres adaptés de la série télévisée "Star Trek". "Il y a 60 ans, nous avons eu la révolution du livre de poche", a commenté Kate Tentler, vice-présidente de Simon and Schuster Online. "Le livre électronique pourrait devenir la révolution du 21ème siècle comme le livre de poche a été celle du 20ème siècle", a-t-elle ajouté. "Il sera portable, peu coûteux et peut être distribué instantanément dans le monde entier", a-t-elle dit. Simon and Schuster doit aussi mettre en ligne cette semaine la version électronique de "Before I Say Good-Bye", le dernier best-seller de la romancière Marry Higgins Clark, qui a fait frémir des générations de lecteurs avec ses intrigues à grand suspense. Le groupe de communication Time Warner a lancé de son côté mardi iPublish. com, qui va offrir des oeuvres en ligne, et iWrite, qui collectera et sélectionnera des manuscrits en vue de leur publication. L'édition en ligne, encore balbutiante ces derniers mois, semble à un tournant depuis la parution en mars sur internet d'une nouvelle de Stephen King, un autre "poids-lourd" de l'édition américaine. "Ridding the Bullet", accessible uniquement sur l'internet, a fait l'effet d'un raz-de-marée avec 400.000 demandes de téléchargement le premier jour de parution de la nouvelle, le 14 mars. Les grands groupes d'édition américains, qui avaient d'abord laissé la place à de petits éditeurs en ligne, ont décidé de rattraper leur retard face à la révolution qui se profile, à l'horizon des dix prochaines années. "Ils réalisent qu'ils ont plus intérêt à apprendre par eux-mêmes qu'à regarder faire les centaines de start-ups qui se lancent sur le marché", commente un expert en édition de l'Université de New York, Robert Baensch. Pour autant, personne dans la profession ne croit à la disparition du papier. "L'internet représente simplement une extension du marché", estime Steve Riggio, vice-président de barnesandnoble.com. Dans ce contexte, la grande chaîne de librairies américaine Barnes and Noble, qui possède barnesandnoble.com, amorce déjà la prochaine étape : l'impression sur papier, dans ses magasins, de livres accessibles sur l'internet. "Il sera possible d'en faire de même chez soi d'ici cinq ans", promet Steve Riggio.

AFP :

http://fr.news.yahoo.com/000523/32/eo5t.html

La Commission propose un ambitieux plan d'action relatif à l'initiative eEurope
Samedi, 27/05/2000 - 00:00

La Commission européenne a présenté sa contribution au plan d'action relatif à l'initiative eEurope, qui devrait recevoir l'aval des leaders de l'UE lors du sommet de Feira des 19 et 20 juin 2000(1). Elle a défini une stratégie visant à lever les principales barrières empêchant l'essor de l'Internet en Europe et à garantir que les conditions de base seront réunies pour permettre une avancée décisive sur la voie de la nouvelle économie. Elle propose que les États membres et elle-même prennent l'engagement d'atteindre rapidement les trois objectifs suivants: faire en sorte que l'Internet soit moins cher, plus rapide et plus sûr; investir dans les connaissances et l'accès de tout un chacun; stimuler l'utilisation de l'Internet. Tous les éléments clés de cette stratégie devraient être en place d'ici à l'an 2002. Le plan vise surtout à accélérer l'adoption de la législation, à permettre le déploiement des infrastructures et des services partout en Europe et à faciliter la coordination entre les États membres - y compris au moyen de l'évaluation comparative des performances par la Commission. L'initiative eEurope a pour but d'accélérer sensiblement l'essor de la société de l'information en Europe. Elle ne sera cependant une réussite que si elle a une incidence à la fois positive et visible sur la manière dont les gens vivent. Les actions menées dans ce cadre peuvent faire la différence de bien des façons, mais elles porteront plus particulièrement sur les domaines suivants :

-* L'Internet sera intégré dans la formation de chaque enfant - Tous les écoliers utiliseront l'Internet dans le cadre de leur apprentissage quotidien. L'Internet fera son apparition dans les salles de classe dans toutes les disciplines, les enseignants seront dûment formés et les bons outils seront disponibles afin que ce potentiel soit pleinement exploité.

-* Les coûts d'accès à l'Internet cesseront d'être prohibitifs - Grâce au renforcement de la concurrence sur les réseaux locaux et au nombre accru de dispositifs d'accès, l'accès à l'Internet voit progressivement son prix diminuer et devenir à la portée de toutes les tranches de la population.

-* Les étudiants et les chercheurs européens pourront travailler et apprendre en collaborant sur l'Internet - La World Wide Web est née en Europe. Elle a permis une collaboration internationale étendue par voie électronique, mais se heurte à ses propres limites. La collaboration en direct (ou video-linking) exige de très grandes largeurs de bande. L'initiative eEurope favorisera le développement d'une nouvelle technologie - la World Wide Grid - qui facilitera de nouvelles méthodes de collaboration.

-* L'introduction de cartes à puce multifonctionnelles permettant d'accéder aux services facilement et en toute sécurité - L'initiative eEurope vise à faire en sorte qu'une même carte à puce puisse servir à de nombreuses finalités et se déplacer partout en Europe aussi facilement que son détenteur.

-* Un Internet plus rapide pour tous - Grâce à l'instauration d'un cadre de nature à encourager des investissements privés massifs, au déploiement d'une nouvelle technologie internet et, le cas échéant, à l'utilisation des fonds structurels pour s'assurer que les régions périphériques bénéficient d'un accès de grande qualité.

-* Une confiance accrue dans le commerce en ligne - Les consommateurs auront la garantie que leur détaillant virtuel existe bel et bien et qu'il a souscrit aux principes fondamentaux qui les protègent contre la fraude tout en leur proposant un niveau convenu de service et voies de recours.

-* L'accès aux services publics aux "heures internet". Les citoyens pourront entrer en relation avec leur administration aux "heures internet" et non seulement aux "heures de bureau". Les nouvelles technologies permettront aux gens d'éviter d'avoir à faire la queue, ce qui est source de frustration, et leur donneront la possibilité d'entrer en relation avec les services publics au moment qui leur convient.

Commission Européenne :

http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=IP/00/51...|0|RAPID&lg=FR

L'ordinateur quantique, un rêve qui devient réalité
Samedi, 27/05/2000 - 00:00

A chaque fois, c'est pareil”, s'exclame Isaac Chuang, assis dans son bureau de l'Almaden Research Centre d'IBM, à San Jose (Californie). “Dès qu'on fait une découverte en physique, tout le monde s'enthousiasme, et on est pris dans le tourbillon.” Dans les années 70, le tourbillon consistait dans la théorie du chaos. A la fin des années 80, c'était la supraconductivité à haute température. Et aujourd'hui ? “L'informatique quantique”, répond Isaac Chuang, un physicien svelte et tranquille qui apparaît déjà comme l'un des chefs de file de ce domaine en apparence ésotérique et à l'impact potentiellement gigantesque. Un ordinateur quantique fonctionne selon les lois de la bizarrerie quantique, au coeur d'un royaume subatomique où nos intuitions ordinaires se voient sytématiquement bafouées. Les ordinateurs quantiques diffèrent des ordinateurs classiques d'une façon essentielle. Les ordinateurs classiques suivent les règles de la logique binaire, régie par la rigoureuse alternative “soit-soit” : chaque unité élémentaire d'information représente “soit vrai, soit faux”, “allumé ou éteint”, “1 ou 0”. Pour réaliser cette distinction, les appareils classiques représentent chaque bit comme la présence ou l'absence de milliards d'électrons rassemblés dans un minuscule transistor au silicium. Mais, dès qu'on arrive au niveau des particules individuelles, ajoute Isaac Chuang, il n'y a presque plus rien d'absolu. Un électron, par exemple, pourrait tourner dans un sens ou dans l'autre. Selon les lois de la physique quantique, on peut dire que l'électron présente une probabilité de tourner dans un sens ou dans l'autre. Mais, à moins d'avoir effectivement effectué une mesure et forcé la décision, il est impossible de le savoir ; d'une certaine façon, le spin de l'électron est intrinsèquement indéterminé. Au lieu d'être “soit-soit”, un “qubit” quantique devient “à la fois-et”: il représente 0 et 1 simultanément. Cette ambiguïté a une conséquence essentielle dont l'évidence apparaît mieux lorsqu'on considère non pas un, mais deux qubits.

Technology Review :

http://www.techreview.com/articles/may00/waldrop.htm

Ccourrier international :

http://www.courrierinternational.com/mag/INTsciences.htm

Le sens de l'adaptation chez le robot
Samedi, 27/05/2000 - 00:00

Concevoir un robot parfaitement adapté à sa tâche et suffisamment intelligent pour se reconfigurer dès lors que les conditions changent ou qu'une nouvelle tâche se présente à lui. Ainsi, il serait capable d'aller où l'homme ne peut aller - sur une nouvelle planète qu'il explorerait, dans les décombres d'une explosion ou d'un tremblement de terre à la recherche de survivants - et de travailler en totale autonomie. Le sujet taraude suffisamment les scientifiques pour que quelques équipes de recherche publient régulièrement les résultats de leur travaux, ou présentent leur dernier-né, un prototype qui, la plupart du temps, ressemble à une chenille ou une araignée. Dans son édition du 13 mai 2000, le magazine britannique New Scientist relate ainsi les expériences de chercheurs américains de l'université Brandeis, près de Boston. Hod Lipson et Jordan Pollack ont développé un robot polymorphique. En fait, une simple structure en plastique thermoformé construite à l'aide d'une imprimante 3D - un outil de prototypage rapide largement utilisé dans l'industrie automobile. Car l'idée de Lipson et Pollack, chercheurs dans un laboratoire de dynamique et évolution des machines, n'était pas d'aboutir directement à un robot opérationnel, mais plutôt de vérifier une hypothèse de travail. A savoir que la conception totalement automatisée d'un robot ne pouvait être obtenue qu'à travers une « approche d'apprentissage coévolutif », c'est-à-dire en faisant évoluer simultanément et de manière continue le « corps » et l'« esprit » de ce robot, de manière à ce qu'il passe du simple mécanisme contrôlable à une complexité suffisante pour effectuer une tâche particulière. Car, de l'avis de Lipson et Pollack, ni les nouvelles méthodes explorées pour développer ou adapter des contrôleurs électroniques, ni l'intégration des capteurs et actionneurs les plus performants n'ont permis jusqu'ici de construire le robot complexe désiré. Concrètement, Lipson et Pollack ont fait évoluer la forme et le « système nerveux » de leur robot - un ensemble de circuits électroniques baptisé réseau de neurones - en les soumettant à des algorithmes génétiques : des programmes informatiques qui considèrent certains paramètres comme des gènes, se chargent de les croiser, et sélectionnent dans leur descendance les plus adaptés à une situation. Une fois le robot idéal obtenu, l'imprimante 3D s'est mise en marche, construisant couche par couche des barres de plastique liées entre elles par des joints à rotule. Lipson et Pollack n'excluent pas de pouvoir un jour intégrer cet outil au coeur du robot, de manière à lui offrir la possibilité de se reconstruire tout seul. Mais Marc Yim, chercheur au Xerox PARC et grand spécialiste des robots modulaires, fait remarquer que pour concevoir des robots opérationnels, il faudra du plastique plus dur et davantage de matériaux. Lui, a récemment mis au point un étonnant robot baptisé PolyBot, qui selon la nature du terrain peut prendre l'apparence d'une roue de tracteur, d'un serpent ou d'une araignée. La première configuration pour progresser sur les terrains plats, la deuxième pour gravir un escalier ou se faufiler, la dernière pour s'aventurer en terrain accidenté. Les modules du PolyBot, plus complexes à chaque génération - la troisième est prévue pour la fin de l'année 2000 - sont capables de pivoter pour se réorganiser. Ils disposent de leur propre informatique embarquée et changent automatiquement de position grâce à des dispositifs à mémoire de forme.

Le Monde :

http://www.lemonde.fr/article/0,2320,seq-2081-64187-MIA,00.html

Les robots prennent la parole
Samedi, 27/05/2000 - 00:00

Afin de connaître les compétences et les conditions minimales à l'apparition du langage, plusieurs équipes de chercheurs à travers le monde se livrent actuellement à une expérience hors du commun. Chacun dans son laboratoire a imaginé une paire de robots. Ceux-ci sont équipés de deux caméras vidéo et contrôlés par un programme - ou agent - capable de générer de manière aléatoire des syllabes. Tous les deux visualisent un tableau recouvert de formes géométriques de différentes couleurs. Le premier doit en choisir une et la nommer. Quant au second, après avoir émis des hypothèses, il doit deviner de quelle forme il s'agit. Après quelques tentatives de dialogue de la sorte, un vocabulaire propre aux deux robots apparaît. L'expérience s'est maintenant internationalisée. Ces robots existent au Japon, aux Etats-Unis et en France (au Palais de la découverte de Paris).Il est possible à tous les internautes de les animer en créant leur propre agent. Il en existe déjà 3000 et leur lexique grandit de jour en jour. Après le vocabulaire la prochaine étape sera la grammaire. A plus long terme, les chercheurs envisagent de créer des téléviseurs qui pourront dialoguer avec l'utilisateur et proposer des programmes en fonction des centres d'intérêt de ce dernier.

Besok :

http://www.besok.com/besok/besok01.nsf/NEWaffich/6346BF08DD434E6E802568E80055AD5...

Le piratage de logiciels a coûté 12 milliards de dollars en 1999
Samedi, 27/05/2000 - 00:00

Les pertes totales mondiales liées au piratage de logiciels informatiques se sont élevées à 12 milliards de dollars en 1999, selon une enquête réalisée par deux sociétés informatiques et rendue publique mercredi. "Le piratage de logiciels informatiques continue de voler des milliers d'emplois, des milliards en salaires, impôts et investissements risqués dans les nouvelles technologies", a déclaré, Robert Holleyman, président d'une des deux entreprises ayant réalisé l'enquête, la Business Software Alliance. Plus d'un logiciel informatique utilisé sur trois a été piraté en 1999, selon l'enquête réalisée par la Business Software Alliance et la Software Information Industry Association. L'enquête montre que les pertes pour les Etats-Unis et le Canada s'élèvent à 3,6 milliards de dollars, soit 26 % du total des pertes mondiales. Les dix pays les plus touchés par le piratage sont dans l'ordre les Etats-Unis, le Japon, la Grande-Bretagne, l'Allemagne, la Chine, la France, le Canada, l'Italie, le Brésil et les Pays-Bas. Ces dix pays regroupent 70% des pertes mondiales, soit 8,4 milliards de dollars. L'enquête précise aussi que les taux de piratage les plus élevés concernent le Vietnam avec 98 % des logiciels utilisés qui sont piratés et la Chine avec 91 %. Les pertes sur les cinq dernières années s'élèvent à 59 milliards de dollars, toujours selon selon l'enquête.

AFP :

http://158.50.204.19/ext/francais/lemonde/med/000524215936.b0rstwvt.html

Le DVD va surclasser la cassette vidéo
Samedi, 27/05/2000 - 00:00

AVEC PRÈS DE 400 % d'augmentation par an, les ventes de lecteurs de DVD vidéo (digital versatil disc) connaissent un succès retentissant en France. Fin 2000, environ 1,2 million de foyers seront équipés et l'industrie de la vidéo prévoit de vendre plus de 13 millions de films en DVD, pour cette seule année. Pour une fois, la France est en avance par rapport à ses voisins, puisqu'elle représente à elle seule un tiers des ventes européennes (*). Une rapidité qui a surpris plus d'un amateur de vidéo. Comme Vanessa, 30 ans, qui, un samedi de grisaille, s'était rendue dans son magasin spécialisé des Champs-Elysées pour s'offrir un laserdisc. Elle découvrit alors que son rayon avait disparu pour laisser place aux DVD. C'était il y a quelques mois seulement. Depuis, la production de laserdisc (CDV) a été stoppée. Et les observateurs pensent que la cassette VHS ne pourra pas résister longtemps. Un produit « interactif » Pourquoi ? Parce qu'en matière de vidéo, le DVD est le meilleur support existant. Il garantit un son et une image très supérieurs à la cassette et peut stocker 8 heures de programme sur une seule face alors que le laserdisc n'offrait qu'une petite heure. Autre avantage du DVD, il est censé restituer la même qualité d'image pendant plus de trois cents ans, quel que soit le nombre de lectures. Les collectionneurs de VHS de la première heure (1976) peuvent en témoigner : celle-ci ne résiste pas au temps. Enfin, et c'est un des plus qui séduit beaucoup le public, le DVD est « interactif ». De sa télécommande, on peut choisir la langue, le sous-titrage et le format de l'image. Les titres sont par ailleurs agrémentés de making-off (tournage du film). Si l'on ajoute la baisse des prix des lecteurs (à partir de 1 990 F), le match DVD contre magnétoscope tourne largement à l'avantage du premier. En fait, le seul point en faveur du bon vieux magnétoscope mais il n'est pas des moindres est l'enregistrement. Aujourd'hui, aucun lecteur de DVD ayant cette fonction n'est disponible en France. Deux modèles sont vendus dans le commerce (ou vont l'être dans quelques mois) au Japon : un Pioneer et un Panasonic mais ils ne feront pas leur entrée chez nous avant un an et leur prix sera un temps prohibitif (plus de 15 000 F).

Le Parisien :

http://www.leparisien.fr/

^ Haut
Matière
Matière et Energie
Les nanotubes pourraient aider les voitures à hydrogène
Samedi, 27/05/2000 - 00:00

Possédant un rapport résistance/poids inégale, pouvant conduire l'électricité, les nanotubes, à presque dix ans d'age, font beaucoup parler d'eux à travers les applications les plus variées. On pourrait même les utiliser d'ici quelques années pour le stockage d'hydrogène, facilitant ainsi la mise au point des voitures utilisant l'hydrogène comme source d'énergie. Nous devons ces recherches a Thomas Gennett, professeur de chimie au RochesterInstitute of Technology dans l'Etat de New York qui vient de passer deux ans au sein d'une équipe de chercheurs du National Renewable Energy Laboratory de Golden, dans le Colorado. Cette équipe de chercheurs a démontré que l'hydrogène pouvait être fixé à des nanotubes de carbone, et aussi être libéré sur commande. Gennett ne sait pourtant toujours pas si l'hydrogène reste prisonnier à l'intérieur des nanotubes ou bien entre ceux-ci. Si les nanotubes peuvent être produits en quantité et forme prédeterminées, ils pourraient devenir une éponge à hydrogène ultra légère, idéale pour un système de stockage, et donc pour un réservoir de voiture. Le gros problème persistant est la purification du mélange obtenu. Le process est si difficile que le laboratoire n'est actuellement capable de produire que quelques milligrammes de matériau en 24 heures. Le but du Department of Energy est de produire des nanotubes qui peuvent contenir des quantités d'hydrogène qui représenteraient au moins 6,5 % du poids du nanotube. Pour alimenter une voiture pendant environ 360 Km, le système aurait besoin d'environ 50 kilogrammes de nanotubes. Cet objectif parait bien loin compte tenu des rendements actuels. Cependant la confiance reste de mise car la quantité (et la qualité) de nanotubes obtenus a été multipliée par 10 en deux ans. Par ailleurs d'autres laboratoires travaillent sur le sujet : Cornell University, IBM, Lucent Technologies. Thomas Gennett est donc confiant et pense qu'une voiture à nanotubes pourrait bien voir le jour d'ici dix ans.

Lettre des nouveaux matériaux :

http://www.france-science.org.

^ Haut
Espace
Espace et Cosmologie
Les télescopes du futur
Samedi, 27/05/2000 - 00:00

Des Andes à Hawaii, en passant par les déserts américains, les montagnes éloignées des grands centres semblent couverts de télescopes, tous plus puissants les uns que les autres. Sans compter Hubble, qui scrute le ciel depuis son orbite terrestre. Mais les astronomes ne sont pas satisfaits. Plusieurs des mystères de l'univers leur échappent toujours. Un organisme américain, la National Science Foundation, vient de publier un rapport recommandant la construction de nouveaux appareils encore plus puissants par les États-Unis. Priorité numéro un : un remplaçant pour Hubble, dont la mise à la retraite est prévue pour 2010. Le nouveau télescope spatial sera 100 fois plus sensible que son prédécesseur et fournira des images 10 fois plus détaillées. Un tel appareil permettra, espère-t-on, de mieux comprendre comment les premières étoiles et les galaxies se sont formées, il y a des milliards d'années. Il pourrait aussi permettre de mieux évaluer la quantité totale de matière dans l'univers. Malheureusement, la facture sera à la hauteur des ces ambitions : au moins un milliard de dollars. Autre projet jugé important : un observatoire de planètes terrestres. Il s'agit non pas d'un, mais de plusieurs télescopes spatiaux, volant en formation très précise et combinant leurs données pour obtenir des images très précises. Ce projet ambitieux, utilisant des technologies inédites, pourra réduire 100 000 fois la luminosité des étoiles pour mieux voir les planètes se trouvant à proximité. Un tel appareil, croit-on, sera capable de répertorier toutes les planètes de la taille de la Terre dans un rayon de 50 années-lumière. Mieux encore, il déterminera leur composition chimique afin de savoir si la vie y est possible ou pas. La NASA espère mettre cet observatoire en orbite en 2011.

Cybersciences :

http://www.cybersciences.com/Cyber/0.0/0_0.asp

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
De l'argile au médicament : un nouveau traitement contre les leucémies
Samedi, 27/05/2000 - 00:00

Un nouveau traitement très prometteur des formes graves d'un cancer du sang de l'adulte, la leucémie myéloïde aigue, a été présenté dimanche à la Nouvelle Orléans (Louisiane) où se tient le 36ème congrès de la société américaine d'oncologie clinique (ASCO). Cette nouvelle thérapie combine un anticorps monoclonal et un médicament, le Mylotarg, qui contient une molécule extrêmement puissante, la calicheamicine, produite par des micro-organismes vivants dans l'argile texane. Chargé de médicament, l'anticorps est injecté dans l'organisme du malade. Il va ensuite pénétrer exclusivement dans les cellules cancéreuses, larguer sa charge de calicheamicine, et provoquer leur destruction en épargnant les cellules saines environnantes. La cible de cette nouvelle arme est un antigène, le CD33, présent à la surface des cellules cancéreuses chez 80 % des malades atteints de ces leucémies, mais absent chez les personnes saines. Autre avantage, cet antigène n'existe pas non plus dans les cellules-souches des malades : une fois le traitement effectué, leur organisme peut donc reprendre normalement la fabrication des cellules sanguines nécessaires à la vie. La leucémie myéloïde aigue - dont près de 10.000 nouveaux cas apparaissent chaque année aux Etats-Unis - est une forme de cancer extrêmement virulente et souvent mortelle au cours de laquelle certains globules blancs deviennent cancéreux et s'accumulent dans la moelle osseuse, empêchant la moelle saine de se développer et de fonctionner normalement. La plupart des malades doivent subir des chimiothérapies intensives et parfois des greffes de moelle. Mais même après des traitements aussi puissants, des cellules cancéreuses surviennent chez la moitié des malades, et beaucoup rechutent. La calicheamicine a été découverte, par hasard, en 1981 près de Kerrville (Texas) par un employé des laboratoires Wyeth-Ayerst. Les dirigeants de cette firme - qui menaient à grands frais un programme de tests sur les micro-organismes contenus dans le sol - avaient en effet demandé aux membres de leur personnel de rapporter des échantillons de terre de leurs voyages. Dans la poignée de terre, les biologistes ont découvert l'existence d'un micro-organisme (le Micromonospor echinospora calichensis) qui produisait une molécule, la calicheamicine. Cet antibiotique s'est révélé être 1.000 à 10.000 fois plus toxique pour les cellules que les autres médicaments anti-cancéreux existants. C'est en apprenant l'existence de ce produit que le Dr Irwin Bernstein, du centre de recherche sur le cancer Fred Hutchinson de Seattle (état de Washington) a proposé au laboratoire de l'utiliser, en l'intégrant dans l'anticorps qu'il venait de mettre au point contre les CD33 des leucémiques. L'utilisation, contre les leucémies, de l'anticorps monoclonal et de sa charge destructrice a été approuvée le 18 mai 2000 par la FDA, l'agence fédérale américaine des aliments et des médicaments.

AFP :

http://fr.news.yahoo.com/000521/2/eipz.html

Un antihypertenseur efficace contre l'athérosclérose ?
Samedi, 27/05/2000 - 00:00

Ce n'est pas d'hier que l'hypertension est considérée comme un facteur de risque aggravant d'insuffisance cardiaque ou de maladie coronarienne. En revanche, il semble que ce soit la première fois qu'un médicament utilisé dans le traitement de l'hypertension artérielle (HTA) s'avère efficace pour prévenir l'athérosclérose. Chez le singe seulement à ce stade, mais l'information est tout de taille. Dans une récente livraison de Circulation, une revue scientifique américaine qui fait référence en la matière, une équipe de la Wake Forest University vient en effet de démontrer que l'utilisation d'un inhibiteur de l'angiotensine II permettait " de réduire de moitié les dépôts d'athérome dans les coronaires " chez le singe de laboratoire. Il s'agit de la plus récente génération de médicaments utilisés pour traiter l'HTA, qui agissent en bloquant la transformation d'une hormone responsable de l'élévation tensionnelle. Carlos Ferrario dirige le Centre de traitement des maladies cardiaques et de l'hypertension au Centre médical de l'université. Selon lui, ces résultats préliminaires pourraient avoir des implications importantes. " Il se pourrait ainsi que, pour prévenir le développement de la plaque athéromateuse dans les vaisseaux, il soit nécessaire de traiter également les perturbations hormonales liées à l'hypertension. " Certes, les progrès réalisés depuis quelques années dans le traitement de l'excès de cholestérol ont permis d'obtenir des résultats spectaculaires. Pour autant, il estime que ces derniers pourraient être encore améliorés en traitant non plus seulement le cholestérol mais aussi l'angiotensine II. Voilà sans doute une affaire à suivre...

HealthandAge.com :

http://www.healthandage.com/

On peut ralentir l'évolution de la maladie d'Alzheimer !
Samedi, 27/05/2000 - 00:00

Entre 20 % et 25 % des plus de 85 ans souffrent de maladie d'Alzheimer. Mais dès 65 ans elle frappe plus de 5 % de la population. Or si la prévalence de cette maladie est appelée à croître avec l'augmentation de la population âgée, le fatalisme face à son traitement lui, n'est plus de mise. Dès l'an passé, un travail publié par le British Medical Journal a démontré "l'efficacité et la bonne tolérance de la rivastigmine sur une population essentiellement européenne." C'est le plus important essai international réalisé autour d'un médicament formé par une molécule qui bloque 'acétylcholinestérase, cet enzyme qui provoque les manifestations de la maladie en interférant sur la transmission nerveuse. Plus de 700 malades suivis dans 45 services européens et nord-américains ont été impliqués dans un programme qui doit s'élargir encore. A son terme, il va en effet incoporer "plus de 3.300 malades dans 111 services de 10 pays ", indiquent les auteurs. Cette mobilisation traduit l'impact grandissant de la maladie d'Alzheimer. Elle montre aussi l'espoir suscité par les nouveaux traitements. En France aujourd'hui, moins de 10 % des malades en bénéficient. Or le travail publié dans le BMJ fait état d'une amélioration "de 4 points ou plus des capacités cognitives chez 24 % des patients traités atteints de maladie d'Alzheimer d'intensité légère à modérée. " Une amélioration objective des fonctions intellectuelles dans leur ensemble est également objective chez 37 % des malades et surtout, " la détérioration intellectuelle progressive due à la maladie se trouve enrayée dans le groupe traité alors qu'elle s'est poursuivie dans le groupe placebo. "

HealthandAge.com :

http://www.healthandage.com/newsletter/npf.htm

Des os produits à partir de peau ou de cellules de la gencive
Samedi, 27/05/2000 - 00:00

Des os de rat et de souris ont été créés à partir de cellules de peau ou de gencive, ont annoncé des chercheurs de l'université du Michigan à Ann Arbor, laissant entrevoir une nouvelle technique pour des greffes chez l'homme. Les spécialistes ont réussi à reproduire des os avec leur paroi extérieure dure, leur partie intérieure spongieuse et de la moelle. A l'heure actuelle, une greffe d'os est réalisée en prenant de la moelle ou une partie de l'os de la hanche chez le patient. Avec la nouvelle méthode expérimentée chez les rats, les chercheurs ont seulement prélevé un peu de tissu de la peau et ont cultivé les cellules in vitro. Ces cellules ont ensuite été altérées pour leur faire produire une protéine, la BMP-7, qui provoque la formation de la matière osseuse. Puis elles ont été semées dans des sortes d'éponge placées dans la zone où il fallait remplacer l'os. Les chercheurs ont réalisé l'expérience sur des rats auxquels ils avaient retiré une partie du crâne et les os ont été pratiquement reconstitués en à peine quatre semaines, "ce qui me surprend beaucoup", souligne le responsable de l'équipe, le Pr Bruce Rutherford. Le nouvel os était absolument similaire à celui produit naturellement. Au cours d'une autre expérience, les chercheurs ont implanté chez des souris des cellules humaines provenant de gencives: le nouvel os s'est révélé posséder des tissus humains et de souris. Le fait d'utiliser chez le patient des cellules facilement accessibles et qui se développent rapidement est un pas majeur pour remplacer les méthodes conventionnelles de greffe d'os, estime le Pr Rutherford.

AFP :

http://158.50.204.19/ext/francais/lemonde/sci/000520082909.4ztbcmvq.

Les espoirs de l'immunothérapie se concrétisent
Samedi, 27/05/2000 - 00:00

La société de bio-technologie Genentech, à l'occasion du 36ème congrès de la société américaine d'oncologie clinique (ASCO), a présenté trois études très positives sur un même produit, un nouvel anticorps monoclonal. Cette société californienne est réputée pour avoir développé l'herceptine, un anticorps monoclonal capable de corriger, chez environ un tiers des femmes atteintes d'un cancer du sein, la fabrication excessive d'une protéine, la HER2. Depuis, elle en a mis au point un second, l'anti-VEGF, qui semble donner des résultats impressionnants contre toute une série de cancers : colon, poumon, sein et probablement rein. Cet anticorps s'attaque lui aussi à des protéines mais en stoppant totalement leur activité.L'anticorps s'attaque en effet à des protéines, les facteurs de croissance vasculaires, qui stimulent la formation de nouveaux vaisseaux sanguins, un mécanisme connu sous le nom d'angiogenèse. Dans l'organisme, l'anticorps va les empêcher de fabriquer les nouveaux vaisseaux sanguins par lesquels passe l'oxygène et la nourriture nécessaires à la survie des cellules cancéreuses. Conséquence, la tumeur ne peut plus se développer et finit par mourir. "C'est la première fois qu'un agent anti-angiogenèse fait preuve d'une telle activité, montrant que ce mécanisme joue un rôle capital dans le développement d'une tumeur", a indique le Dr Emily Bergsland, du centre de cancérologie de l'Université de Californie à San Francisco, qui a mené cet essai sur des malades atteints de cancers du côlon. Environ 40% des patients traités à faibles doses ont répondu au traitement et 24% de ceux qui recevaient les plus fortes doses. Le taux de réponse signifie que la taille des tumeurs a diminué de moitié au moins. Les cancérologues cherchent maintenant à comprendre pourquoi le traitement semble marcher mieux à petite dose qu'à dose intensive. Mais d'autres études, bien qu'encore préliminaires, montrent déjà que ce même anticorps monoclonal donne des résultats prometteurs contre les cancers du poumon et les cancers du sein avec métastases. Parallèlement un vaccin anti-cancer dénommé Avicine est actuellement à l'essai en phase II sur 77 malades atteints de cancers du colon. Mis au point par l'Université de l'Ohio puis développé par les sociétés Immunotherapeutics et Avibio ce vaccin stimule le système immunitaire grâce à une hormone appelée hCG( human chorionic gonadotropin) présente dans toutes les formes de cancers.

Brève rédigée par @RT Flash

Wired :

http://www.wired.com/news/technology/0,1282,36457,00.html

La mortalité par cancers du sein diminue en grande Bretagne
Samedi, 27/05/2000 - 00:00

Le nombre de décès causés par le cancer du sein a diminué en Angleterre et aux USA d'environ 20 % entre 1987 et 1997 pour les femmes de 20 à 69 ans. Les progrès réalisés auront permis de réduire de 25 % à 30 % le nombre de ces décès pour l'année 2000. Le Dr Richard Peto et son équipe (Radcliffe Infirmary d'Oxford) se sont basés sur les données enregistrées depuis 1987. Le taux de mortalité par cancer du sein montre une nette diminution depuis 1987. "Ceci suggère que cette amélioration est principalement due à des changements dans la façon dont le cancer est diagnostiqué et traité", soulignent les auteurs. Cette réduction n'est pas due à un progrès majeur de la recherche. Le Dr Peto évoque plutôt une amélioration globale de la prise en charge de la maladie tant au niveau du dépistage que du traitement. "La réduction substantielle des taux de mortalité nationale provient d'une évaluation prudente et de l'adoption de nombreuses mesures, chacune responsable d'une petite réduction de la mortalité par le cancer du sein".

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_753000/753821.stm

Une intervention révolutionnaire pour lutter contre la maladie de Parkinson
Samedi, 27/05/2000 - 00:00

Des neurochirurgiens grenoblois ont mis au point un procédé révolutionnaire pour limiter les tremblements et les troubles du sommeil des personnes atteintes. La technique élaborée par des neurochirurgiens pour enrayer les tremblements et les troubles du sommeil liés à la maladie de Parkinson consiste à annuler les effets néfastes des cellules responsables des troubles en leur infligeant des décharges électriques au coeur même du cerveau. L'opération consiste à implanter des électrodes exactement à l'endroit d'où part le mal ce qui nécessite une minutie extrême. Les électrodes sont reliées à un fil lui-même connecté à une pile électrique ce qui permet des stimulations plus ou moins puissantes. Cette intervention donne des résultats remarquables et élimine pratiquement les tremblements. Mais il s'agit d'une opération très coûteuse et risquée, réservée aux cas les plus invalidants de Parkinson.

Europe infos :

http://www.europeinfos.com/cgi-bin/login.cgi?type=LM&oid=110753

Vers la fabrication d'un coeur humain en laboratoire ?
Samedi, 27/05/2000 - 00:00

La fabrication d'un coeur humain en laboratoire pourrait devenir réalité dans les prochaines années, si l'on en croit une équipe de scientifiques américains attelés à un vaste projet prévu pour durer dix ans. L'université de Washington (nord-ouest des Etats-Unis) a en effet annoncé lundi qu'elle allait coordonner des recherches d'un montant de 10 millions de dollars sur dix ans, impliquant une cinquantaine de scientifiques de 14 laboratoires, pour faire croître un coeur humain en laboratoire à partir des cellules d'un patient. "C'est clairement possible. Nous allons faire croître un coeur", a déclaré Buddy Ratner, responsable des recherches et directeur du centre de matériaux biologiques de synthèse de l'Université de Washington. "C'est une sorte de mini-mission Appolo" a-t-il expliqué. "Leur objectif était de marcher sur la Lune dans les dix ans. Nous avons aussi un but passionnant, celui de faire croître un ventricule de coeur humain en laboratoire", a-t-il précisé. Les maladies cardiaques constituent plus d'un tiers des cas de décès aux Etats-Unis et seulement 2.300 coeurs sont disponibles chaque année pour être transplantés. Cela signifie que quelque 50.000 personnes en attente d'une transplantation meurent chaque année faute de coeur disponible. "Cela va changer la médecine", a déclaré Margareth Allen, chirugien cardiologue, qui fait partie du projet de Buddy Ratner. "Nous utiliserons les propres cellules d'un patient, pour éviter qu'il ait jamais besoin d'une transplantation cardiaque", a-t-elle ajouté. Le premier objectif est de faire croître un muscle cardiaque pouvant être implanté sur un coeur malade pour améliorer son efficacité et réparer des tissus endommagés. L'étape suivante sera de fabriquer un "tube ventriculaire", un cylindre de muscle cardiaque avec des valves qui pourra faciliter le battement d'un coeur affaibli. L'équipe de scientifiques tentera ensuite de créer un ventricule, première partie du coeur qui se gonfle et se dégonfle en expulsant le sang. Les chercheurs espèrent éventuellement que leur travail leur permettra de créer un coeur complet en laboratoire. Les scientifiques vont aussi chercher un moyen pour que les cellules se développent de la façon voulue et battent à l'unisson. Il est en effet actuellement possible de faire croître des cellules cardiaques en laboratoire mais elles se développent de manière désordonnée et chacune bat de manière indépendante. "Nous avons une équipe de personnes qui sont des experts chevronnés dans leur domaine et qui vont travailler sur les différents aspects du projet", a déclaré Buddy Ratner. "Le coeur est un organe complexe", a-t-il rappelé, soulignant qu'il était conscient de la difficulté de la tâche. Selon lui, il devrait falloir plusieurs années, uniquement pour parvenir à la première étape, le test d'un "implant" de muscle cardiaque sur un patient. Le projet est financé par les instituts nationaux de la santé (NIH) et impliquera quelque 50 scientifiques dans neuf laboratoires de l'université de Washington (UW) ainsi qu'un laboratoire de l'université de Toronto, le laboratoire des sciences avancées sur les tissus de Jolla en Californie, l'institut du coeur de Seattle et un laboratoire spécialisé de Redwood City en Californie.

AFP :

http://fr.news.yahoo.com/000524/54/ep28.html

Les alliages à mémoire de forme au service de la chirurgie
Samedi, 27/05/2000 - 00:00

Jusqu'à aujourd'hui, la seule manière de réparer les fractures était d'apposer contre les os cassés une barre d'acier inoxydable et d'attendre que la cicatrisation ait lieu. Mais le problème avec l'acier, c'est qu'il se relâche très vite. Afin de permettre aux os brisés de se souder le mieux possible, une équipe de chercheurs américains de l'Université de l'Ohio, a eu l'idée d'utiliser un alliage à mémoire de forme, composé de nickel et de titane. Le Nitinol est étiré à froid puis enroulé autour de l'os à réparer. Une fois dans le corps humain, l'alliage n'aura de cesse de retrouver sa forme initiale et de comprimer l'os, quels que soient ses mouvements. Cette technique permet une cicatrisation plus propre et plus rapide.

Besok :

http://www.besok.com/besok/besok01.nsf/NEWaffich/BD03AC3547AD83D7802568E80050084...

Myéliniser les axones endommagés de la moelle épinière grâce aux cellules souches embryonnaires
Samedi, 27/05/2000 - 00:00

La transplantation d'oligodendrocytes issus de la culture de cellules souches embryonnaires permet, in vitro et in vivo, de remyéliniser les axones endommagés. Cette "néo-formation" de myéline a été réalisée chez le rat et la souris. Les chercheurs américains estiment que cette approche fournit une alternative intéressante pour le traitement des maladies qui impliquent des processus de démyélination telles que la maladie d'Alzheimer, les leucodystrophies ou les lésions du système nerveux central. La démyélination des axones est un facteur important qui contribue à une perte de fonction dans le cas de nombreuses affections du SNC : sclérose en plaques, AVC ischémique, lésions de la moelle épinière et autres blessures. Le recours à des cellules souches embryonnaires apparaît comme une solution prometteuse car ces cellules sont multipotentes (peuvent donner naissance à tous les types cellulaires) et sont capables de se diviser à l'infini. Utiliser des cellules souches embryonnaires nécessite la mise au point d'un protocole permettant d'obtenir une culture cellulaire enrichie en cellules différenciées désirées. Pour ce faire, l'équipe du Dr McDonald (Washington University School of Medicine, St Louis) a réalisé une culture de cellules souches embryonnaires de souris en deux temps. La première étape de la culture s'est réalisée selon le protocole connu de "l'acide rétinoïque" qui oriente la différenciation vers des cellules du système nerveux. Dans la deuxième étape, une sélection des oligodendrocytes a été réalisée, ce qui a conduit à une culture formée de 90 % d'oligodendrocytes. Les auteurs rapportent que ces oligodendrocytes ont été capables de synthétiser de la myéline autour d'axones en culture. Les chercheurs ont évalué la capacité des cellules souches embryonnaires à se différencier in vivo en oligodendrocytes et à produire de la myéline. Cette propriété a été étudiée chez des rats qui avaient subi un processus de démyélination chimique. Les cellules souches traitées par l'acide rétinoïque (mélange d'axones, d'astrocytesetd'oligodendrocytes) ont été implantées au niveau du segment dorsal de la moelle épinière trois jours après l'injection du produit démyélinisant. Cette implantation a conduit à une remyélination des régions endommagées une semaine après la transplantation. Un immunomarquage par des Ac anti-souris a montré que ce processus était du aux cellules souches embryonnaires murines injectées qui s'étaient différenciées en oligodendrocytes. Ce résultat démontre que les cellules souches embryonnaires ont survécu et se sont différenciées en oligodendrocytes matures capables de myéliniser les axones. Restait à savoir si les oligodendrocytes "purs" issus de la culture des cellules souches pouvaient restaurer la myéline in vivo. Les chercheurs ont utilisé des souris transgéniques dépourvues de myéline. Les oligodendrocytes injectés ont conduit à une myélination des axones anormalement "nus". "Ces études montrent que les oligodendrocytes dérivés de culture de cellules souches embryonnaires sont capables de myéliniser les axones en culture et de remplacer la myéline dans le SNC endommagé", conclue le Dr McDonald.

Caducée :

http://www.caducee.net/

Le nombre de gènes humains revus à la baisse ?
Samedi, 27/05/2000 - 00:00

Combien y a-t-il de gènes chez l'être humain ? Les estimations courantes avancent des chiffres allant de 60 000 à 100 000. Mais cette évaluation repose sur des bases fragiles, comme le rappellent trois études publiées dans la revue Nature, qui avancent respectivement le chiffre de 30 000, 34 000 et 120 000. Mais il semble que les deux premières évaluations soient peut-être les plus réalistes : les chromosomes 21 et 22, complètement déchiffrés, contiennent en effet moins de gènes que prévu. Les chromosomes ne sont pas tous de la même taille. Ils contiennent un ombre variable de gènes, eux-mêmes formés d'un nombre variable de paires de bases, le fondement de l'ADN. Pour estimer le nombre de gènes dans un chromosome sans avoir à le décoder complètement, les chercheurs utilisent des marqueurs nommés EST. On croyait jusqu'ici que le nombre d'EST était équivalent au nombre de gènes. Or, cela n'est plus certain. Les scientifiques pensent à présent que certains gènes n'ont pas d'EST et que d'autres peuvent en avoir plusieurs. Les chercheurs utilisent diverses méthodes pour minimiser les erreurs, mais les résultats varient selon la méthode : le Institute of Genome Research évalue le nombre de gènes à 120 000, tandis que l'Université de Washington le fixe à 34 000. Mais les chercheurs de Genoscope, en France, ont utilisé une méthode différente. Ils ont comparé une partie connue du génome humain (42 %) à celle d'un autre vertébré, le poisson-globe Tetraodon, identifiée à 30 %. La similarité entre les deux génomes leur a permis d'établir que le nôtre compterait environ 30 000 gènes. Ce nombre, très faible par rapport aux chiffres avancés jusqu'ici, est toutefois en accord avec les projections établies à partir des chromosomes 21 et 22, qui comptent moins de gènes que prévus. Quoiqu'il en soit, les chercheurs soulignent que le plus important n'est pas le nombre total de nos gènes mais leur rôle et organisation.

Brève rédigée par @RT Flash

BBC News :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_755000/755702.stm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top