RTFlash

RTFLASH Recherche & Technologie
NUMERO 117
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Octobre 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La vie privée est-elle soluble dans le Net ?
PME : une boîte peut vous simplifier les réseaux !
L'électricité dans le Net
Compression et transfert de fichiers : records battus !
Un projet fou d'archivage du Web
Le législateur américain prend en charge les intérêts privés des internautes
La majorité des PME connectées d'ici 2002 ?
Surfer sur l'internet à la voix
Avec DivX le Net fait son cinéma
Le viking Ericsson a la dent longue
Francfort célèbre le livre électronique
Avenir
Des tissus énergisants, hydratants ou amincissants s'apprêtent à envahir nos garde-robes
Matière
La pile à combustible va détrôner la pile au lithium dans les portables
Terre
Comment réduire le réchauffement de l'atmosphère en agissant sur les eaux polaires
La mer à boire
L'espace au service de la protection de l'environnement
Vivant
Les chercheurs parviennent à détruire les défenses des cellules cancéreuses
Cancer du sein : découverte italienne pour prévenir les rechutes
Première autogreffe de cellules musculaires dans un coeur humain
La nouvelle génération d'anti-inflammatoires démontre son efficacité
Une bactérie vieille de 250 millions d'années
Du « bioverre » pour réparer les os
Détecter les dioxines grâce aux lucioles
Décryptage du génome d'une bactérie à risque pour les nouveau-nés
Séquence d'ADN mobile et création de nouvelles séquences protéiques
Comment fonctionne la mémoire du foetus ?
Edito
Concevoir un projet à développer sur 1000 ans : Est-ce une aventure hors de portée pour l'Homme ?



A la fin du film de science-fiction "Total Recall", on pouvait voir la planète rouge devenir habitable grâce à la mise en oeuvre d'un gigantesque mécanisme de production d'oxygène conçu et installé dans le sous-sol de Mars des milliers d'années auparavant par une civilisation extraterrestre disparue. Mais dans la réalité, est-il envisageable de pouvoir rendre un jour Mars suffisamment habitable pour pouvoir envisager une colonisation à grande échelle ? Au cours d'une conférence récente, les scientifiques ont répondu très sérieusement oui à cette extraordinaire question. Selon eux, il serait tout à fait possible, à l'aide de moyens certes considérables, mais issus de la technologie actuelle, de rendre Mars habitable en initiant un long et fascinant processus de "terraformation". Il s'agirait tout d'abord de réchauffer la température de Mars en utilisant à plein les propriétés des gaz à effet de serre et en amorçant la fonte de l'anhydride carbonique gelé contenu dans le sol martien. Lui-même gaz à effet de serre, la libération de l'anhydride carbonique favoriserait à son tour le réchauffement tout en élevant la pression atmosphérique. Chris McKay, astrobiologiste à la NASA, a calculé qu'il faudrait environ un siècle pour dégeler le sol martien et 700 ans environ pour faire de Mars une planète relativement "hospitalière". Un des principaux défis de cette terraformation consisterait à permettre à la flore microbienne de survivre et de se développer jusqu'à pouvoir atteindre le seuil critique à partir duquel s'amorcent puis s'autoentretiennent les grands cycles biochimiques. Le plus difficile selon les chercheurs ne serait pas, comme on peut le croire, de trouver des micro-organismes capables de résister aux conditions climatiques extrêmes de Mars, ni même aux très basses pressions, car il existe sur Terre des formes de vie qui résistent très bien à des environnements presque aussi durs que celui de Mars. Le premier défi lié à l'introduction de la vie sur Mars sera de créer par modifications génétiques des bactéries capables de survivre avec très peu d'azote, élément essentiel de la photosynthèse végétale. Il peut paraître étonnant, voire futile ou abstrait pour certains, que des scientifiques tout à fait sérieux imaginent un entreprise humaine qui prendra près d'un millénaire, si toutefois elle se réalise. Je crois au contraire que de tels rêves sont nécessaires car ils obligent l'homme à se dépasser et à se projeter très au-delà de son cadre de vie et de pensée spatio-temporel. Rappelons-nous de nos ancêtres qui se sont succédés pendant plusieurs générations pour bâtir des cathédrales dont la construction pouvait parfois s'étaler sur plusieurs siècles. Ils ont eux aussi participé à l'accomplissement d'un grand dessein en sachant pour la plupart qu'ils n'en verraient pas l'aboutissement. Le basculement mondial de l'homme dans la civilisation urbaine et informationnelle a changé en quelques décennies le rapport intime que l'homme avait avec le temps. Désormais le direct, l'instant et l'instantané règnent en maîtres médiatiques absolus. Mais l'homme ne peut se contenter de vivre dans cet "empire de l'éphémère", pour reprendre une célèbre formule, car il possède en lui une capacité irréductible et singulière à se projeter en avant pour imaginer et réaliser des projets qui dépassent largement sa vie, et parfois même sa civilisation, et sont la marque la plus incontestable de son génie créateur et de sa quête existentielle. A l'instar de ce que nous pouvons ressentir quand nous contemplons la pyramide de Kheops, la Muraille de Chine ou Notre Dame de Paris, nos lointains descendants qui, à la fin du prochain millénaire, auront peut-être réussi à faire de Mars une nouvelle Terre, éprouveront, j'en suis certain, gratitude et admiration pour ces visionnaires de la fin du XXème siècle qui eurent assez d'audace et d'imagination pour dessiner cette nouvelle frontière et ouvrir ce nouvel horizon à l'aventure humaine.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La vie privée est-elle soluble dans le Net ?
Samedi, 21/10/2000 - 00:00

Les nouvelles technologies banalisent l'espionnage des individus dans tous les domaines de la vie quotidienne. De plus en plus floues, les frontières de la vie privée et de la confidentialité semblent rétrécir chaque jour davantage avec l'invasion des ordinateurs, des téléphones portables, des caméras de surveillance ou des cartes à puce qui enregistrent chacun de nos gestes et de nos déplacements. «Il faut se rendre à l'évidence: la vie privée n'existe plus», affirme brutalement Scott McNealy, PDG de Sun Microsystems, un des géants de l'informatique. Nous vivons désormais dans une maison de verre, en liberté surveillée, sous le contrôle permanent de ces «objets communicants» dont nous ne pouvons plus nous passer. En France, le Parlement doit se pencher sur le sujet dans les mois qui viennent. C'est un mécanisme insidieux qui s'est mis en place plus ou moins à notre insu: en acceptant les avantages et le confort apportés par les nouvelles technologies, nous abandonnons implicitement une partie de notre «souveraineté» et de notre intimité. En échange des facilités de paiement par carte bancaire, nous nous résignons à accepter de voir enregistrer nos passages dans les restaurants, les hôtels, les supermarchés ou aux péages d'autoroute. Les services d'e-mail gratuits ne sont «offerts» par certains opérateurs que contre le renvoi d'un questionnaire détaillé sur nos goûts et nos comportements. En laissant s'installer des caméras de surveillance dans les immeubles pour nous protéger des voleurs, nous ouvrons en même temps la porte à la tentation de l'espionnage. Et ce n'est qu'un début. Le nouveau standard Wap, qui couple les téléphones portables à Internet, permettra bientôt à un commerçant de vous envoyer des messages lorsque vous passerez devant son magasin. Des magnétoscopes dits «intelligents» s'apprêtent à faire leur apparition sur le marché: ils permettront d'enregistrer jusqu'à trente heures d'émissions, d'éliminer à la demande les spots de publicité et de composer des programmes personnalisés. Exemple: un modèle baptisé TiVo dresse le profil de son propriétaire, en observant ses habitudes, puis lui suggère des émissions susceptibles de l'intéresser. Les objets les plus triviaux se dotent de capacités d'espionnage: le frigo Screenfridge, mis au point par Electrolux, garde en mémoire la liste des denrées qu'il contient et vous prévient lorsque vous allez manquer de lait ou de confiture. Et bientôt - pourquoi pas? - il vous enverra un blâme parce que vous avez consommé trop d'alcool ou de beurre...Sommes-nous condamnés à vivre dans une société transparente? La vie privée est-elle inéluctablement soluble dans la technologie? Nos petites affaires passionnent les commerçants, mais aussi les administrations. Dans le monde entier, sous prétexte de lutte contre le piratage et la délinquance, les gouvernements mettent en place des législations potentiellement liberticides et placent les réseaux sous contrôle avec des systèmes d'écoutes de plus en plus sophistiqués. En France, la loi votée par l'Assemblée nationale, le 28 juin dernier, marque ainsi la fin de l'anonymat sur Internet: elle oblige désormais les fournisseurs d'accès à conserver les données de connexion de tous leurs abonnés - heure et numéro d'appel, durée de connexion - et impose aux hébergeurs d'identifier les auteurs des pages Web stockées dans leurs serveurs. En Grande-Bretagne, le gouvernement travailliste vient, début juillet, de promulguer une loi qui autorise la lecture des e-mails par la police. Aux Etats-Unis, le FBI a reconnu récemment l'existence d'un système baptisé «Carnivore» qui trie les messages échangés sur le réseau et intercepte automatiquement tous ceux qui contiennent certains mots-clefs, comme «bombe» ou «drogue». Un procédé similaire a été mis en place au niveau international par la très secrète National Security Agency, l'Agence nationale de sécurité américaine. Face à cette cyber-inquisition on assiste à une nouvelle «course aux armements» entre, d'un côté, les organismes privés et publics de plus en plus curieux et, de l'autre, les citoyens et les consommateurs gagnés par la paranoïa, qui investissent dans des techniques de protection de plus en plus sophistiquées. «Une chose est sûre: ce sont les happy few les mieux éduqués et les plus débrouillards qui seront en mesure de défendre leur vie privée», affirme Margaret-Jane Radin, professeur de droit à l'université Stanford (Etats-Unis) et spécialiste des questions de propriété. Il existe déjà une expression pour désigner les riches et les pauvres dans ce domaine: le «fossé numérique».

PME : une boîte peut vous simplifier les réseaux !
Samedi, 21/10/2000 - 00:00

L'Eye-Box Pro est un appareil internet (Internet Appliance) permettant à une PME d'y héberger son site mais aussi de délocaliser l'ensemble de son réseau chez un fournisseur d'accès. Développée par la start-up européenne Right Vision, spécialisée dans les appareils internet, la Eye-Box Pro est une machine « tout-en-un » installée chez un FAI. Elle permet d'héberger des sites web, mais aussi de créer une zone sécurisée au sein de laquelle l'entreprise peut installer ses applications spécifiques, ses services de messagerie et même ses données, la Eye-Box Pro faisant également office de serveur de fichiers. Pour accéder à ce réseau d'entreprise délocalisé, il suffit que chaque employé dispose d'une connexion internet et d'un navigateur. L'avantage de ce système est de contourner les soucis d'installation et de paramétrage de chaque poste. L'administration du réseau, qui peut se faire depuis l'entreprise, est extrêmement simplifiée, sachant que toutes les contraintes techniques sont prises en charge par le fournisseur d'accès chez qui est installée la machine. Le transfert des données est sécurisé (SSL avec clé de chiffrement en 192 bits), quant aux fichiers stockés chez le FAI, il sont protégés par le pare-feu de ce dernier. Les accès s'effectuent via un identifiant et un mot de passe. l'idée de l'Internet Appliance est de se substituer au responsable réseau. Une PME qui n'a pas les moyens d'avoir un responsable réseau ou un administrateur système trouvera avec la Eye-Box Pro une solution simple à utiliser et qui ne nécessite aucune installation compliquée puisque tout est délocalisé vers le fournisseur d'accès à internet. »

Yahoo : http://fr.news.yahoo.com/001012/7/opff.html

L'électricité dans le Net
Samedi, 21/10/2000 - 00:00

En général, un modem possède trois prises : une pour l'alimentation électrique, une pour le réseau téléphonique et une pour l'ordinateur. Dans les labos d'EDF à Clamart, les modems n'ont plus de prise télécom : la prise de courant se charge de transmettre à la fois l'énergie et les données. C'est Internet par réseau électrique, selon la technique des courants porteurs en ligne (CPL). Il s'agit en fait de superposer des ondes radios codant les données (à des fréquences comprises entre 1 et 30 mégahertz) à l'onde du courant alternatif (50 hertz). Depuis février, EDF expérimente cette solution dans un collège de Saint-Lô (Manche) : à chaque étage, un ordinateur posé sur un chariot est à la disposition des profs qui peuvent ainsi se connecter à Internet de n'importe quelle prise électrique de l'établissement. Un nouvel essai prévu à Strasbourg en fin d'année permettra cette fois le raccordement de clients à l'échelle d'un quartier. Le débit est plutôt prometteur : les modems testés dans les labos d'EDF (fournis notamment par le fabricant suisse Ascom) transmettent entre 100 kilobits et 1 mégabits par seconde, soit 2 à 20 fois plus que les modems téléphoniques classiques. Selon les spécialistes d'EDF, la prochaine génération de modems pourrait atteindre 10 mégabits par seconde. La technique des courants porteurs est étudiée depuis 15 ans. Mais il aura fallu attendre 1997 pour que Nortel effectue les premiers essais concluants. Les fabricants de modems CPL doivent cependant attendent que les instances européennes de standardisation fixent le niveau maximal de rayonnement des fils électriques, afin qu'il n'y ait pas d'interférences avec les autres appareils utilisant les ondes radios. Internet par le réseau électrique est une solution intéressante mais pas miraculeuse. En effet les foyers éloignés de plus de 600 mètres d'un poste de transformation ne pourront profiter des CPL et les foyers reliés au même poste de transformation partagent la bande passante : si le poste de transformation offre 1 mégabits par seconde, 10 utilisateurs simultanés n'auront chacun "que" 100 kilobits par seconde. Enfin, dernier problème : en cas de déploiement sur le territoire national, chaque poste de transformation de quartier devra être relié à haut débit à Internet. Soit par des lignes spécialisées louées, soit sans fil par la boucle locale radio (dont le déploiement devrait débuter en France à la fin 2000) ou à l'aide de fibres optiques courant le long des pylônes EDF.

Transfert :

http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=2086

Compression et transfert de fichiers : records battus !
Samedi, 21/10/2000 - 00:00

FileFlow permet de transférer extrêmement rapidement les fichiers sur internet du fait du taux de compression qu'il atteint et de son système de transmission des données.Ce procédé, inventé par la société norvégienne du même nom offre en effet une puissance de compression inégalée pour les images. Ainsi, un fichier au format Tiff de 25 Mo ne pèse plus que 400 Ko (environ) avec la technologie File Flow. À titre de comparaison, le format JPeg parvient à réduire la même image à 2,4 Mo seulement. Selon les créateurs, les pertes de qualité dues à ce traitement seraient infinitésimales. Avec un tel niveau de compression, les 25 Mo ne mettent qu'une minute pour transiter d'un poste à un autre avec un modem V90 à 56 Kbps, phase de compression comprise. Premiers concernés par ce système, les photographes et les entreprises ayant à envoyer de gros volumes d'images en haute résolution.Cette rapidité de transmission est également obtenue par la transmission des données en mode “paquets”. Le fichier à envoyer est divisé en plusieurs lots, transmis au fur et à mesure de la compression. Ce procédé permet également de sécuriser le transfert, le système revenant à envoyer une à une les pièces d'un puzzle dans un ordre aléatoire dont seul le destinataire possède le plan de montage. En outre, File Flow chiffre ses données via l'algorithme RC4 grâce à une clé de 2 048 bits. Pour utiliser File Flow, il suffit de télécharger un petit plug-in, de se connecter sur le site de l'éditeur, d'indiquer l'adresse de son correspondant et de lui envoyer le fichier, qui arrivera sur l'un des serveurs de File Flow. Un e-mail d'avertissement sera dans le même temps posté au destinataire, qui n'aura plus qu'à se connecter sur le site pour récupérer le fichier. Le destinataire n'a rien à payer, l'envoi restant à la charge de l'émetteur. À cet effet, File Flow a mis en place un système d'abonnement basé sur la quantité de données transmises. Il faut compter 99 F par mois pour l'abonnement de base, puis 33 F (5 euros) par tranche de 40 Mo envoyés.

ZDnet : http://www.zdnet.fr/actu/tech/a0016296.html

Un projet fou d'archivage du Web
Samedi, 21/10/2000 - 00:00

Entre 30 et 100 To de données, tel serait le "poids" du Web estimé par Scott Kirkpatrick, un chercheur retraité d'IBM. Pourquoi s'est-il amusé à le calculer ? Tout simplement parce qu'il a pour projet d'archiver toutes les pages de la Toile accessibles au public ! The Archive, c'est le nom du projet, a pour but de faire passer les bibliothèques à l'heure du numérique. Il s'agit d'éviter que "l'Internet, un nouveau média porteur d'une importante signification historique, ne disparaisse dans le passé," trouve-t-on comme explication sur le site de cette très grande bibliothèque du Web. La tâche est immense vu que le contenu du Web change en permanence. Avec des comportements variant d'un extrême à l'autre : certaines pages semble vouloir rester en ligne pour l'éternité alors que d'autres disparaissent quasiment d'un jour à l'autre. Et c'est pour éviter l'oubli que l'Archive a emmagasiné, pour le moment, environ 30 à 35 To de données. Soit environ 1,2 milliard de pages. Si on estime aujourd'hui le nombre total de pages Web entre 1 et 4 milliards (la largeur de la fourchette d'estimation rendant compte de la difficulté du comptage), il ne faut pas oublier que le projet d'archivage a pour ambition de sauvegarder les évolutions du Web. Résultat, certaines pages, dont seul le contenu change mais pas l'adresse URL, sont archivées tous les jours... Comme tribut à l'histoire du Web, la bibliothèque a fabriqué une "sculpture" composée de quatre écrans informatiques qui font défiler des pages du Web tel qu'il était en 1997. On peut voir une démonstration de cette oeuvre d'art sur le site de l'Archive. Comme quoi le Web peut déjà faire naître un sentiment nostalgique...

Vunet : http://www.vnunet.fr/VNU2/index.htm

Le législateur américain prend en charge les intérêts privés des internautes
Samedi, 21/10/2000 - 00:00

Dès le début de l'année prochaine, quel que soit le résultat de l'élection présidentielle aux Etats-Unis, le paysage législatif d'Internet devrait être sérieusement modifié. Du moins en ce qui concerne le respect de la protection des droits individuels des internautes. Depuis des années, cette question embarasse à la fois le pouvoir politique et l'industrie de la high tech américaine dans son ensemble. Le président Clinton a, jusqu'à présent, choisi de laisser celle-ci s'organiser au sein de comités et autres consortiums, afin qu'ils élaborent eux-mêmes les règles qui rassureraient les consommateurs. Quitte à faire légèrement pression sur eux pour qu'ils accélèrent les choses. Peine perdue, jusqu'à présent. Une situation d'autant plus embarassante que l'Union Européenne, elle, a fait ses choix et qu'elle réclame à l'Amérique des options équivalentes, afin de garantir le libre développement du commerce électronique des deux côtés de l'Atlantique. Dans ce contexte, c'est le pouvoir législatif américain qui est en train de prendre le relais. Cette semaine, le Sénat et la Chambre des Représentants organisent, simultanément, des auditions afin de préparer une législation qui devrait être votée dès le début de l'année prochaine. Mais si les parlementaires s'attellent, subitement, à une telle tâche, c'est aussi parce que la situation s'est modifiée dans l'industrie high tech elle-même. Rassurée par le vote récent d'une loi qui lui permettra de faire venir deux fois plus d'informaticiens étrangers très qualifiés que le quota jusqu'ici autorisé (800.000 au lieu de 450.000), l'industrie sait qu'elles pourra désormais assurer son développement grâce à cet apport de main d'oeuvre. En revanche, elle s'inquiète de la méfiance croissante des internautes à l'égard du mépris ouvertement affiché par de nombreux sites commerciaux vis-à-vis des informations personnelles que leur ont confié leur clients. beaucoup ont montré récemment qu'ils considéraient ces informations comme une marchandise comme une autre, bonne à échanger ou à revendre surtout en cas de difficultés financières. Or, si ce sentiment s'aggrave encore, Jupiter Communications prévoit qu'il pourrait coûter la moitié du chiffre d'affaires de la publicité en ligne (soit 5 milliards de dollars) l'année prochaine aux sites commerciaux. Et de fait, certaines grandes firmes, parmi les plus concernées, comme America On Line, ne rejettent plus, maintenant, la perspective d'une législation contraignante "Si l'on veut que le potentiel d'Internet se réalise pleinement, il faut que les internautes aient confiance", a constaté George Vradenburg, responsable de la Global and Strategic Policy d'AOL, qui milite maintenant, discètement, pour faire valoir ses vues à Washington. Une attitude partagée par de nombreux autres industriels.

Les Echos : http://www.lesechos.fr/hightech/index.html

La majorité des PME connectées d'ici 2002 ?
Samedi, 21/10/2000 - 00:00

Selon une étude menée par l'Idate auprès de 600 PME françaises (10 à 500 salariés), 64 % des PME sont connectées à Internet et 12 % prévoient de s'équiper au cours des deux prochaines années. Les taux de connexion les plus importants se trouvent dans les secteurs des services tandis que le commerce de détail ferme la marche : en moyenne 21 % des PC sont connectés à Internet avec des pointes à plus de 40 % chez les SSII et bureaux d'études ainsi que les autres services aux entreprises. Autre aspect de la connexion, la largeur moyenne bande passante par PC s'élève à 12 Kbps. L'Idate prévoit déjà que cette bande passante s'avérera insuffisante à court terme. L'institut note que plus des trois quarts des PME augmenteront fortement leur utilisation d'Internet au cours des deux prochaines années. Et calcule que la demande de débit supérieure est de 20% en moyenne en sachant que les entreprises des secteurs SSII et commerce de gros, demandent des débits 10 fois supérieurs à ce dont elles disposent actuellement. Côté Web, 35 % des PME ont leurs sites. Soit plus d'une PME connectée sur deux. Là encore, les écarts entre secteurs sont importants. Les leaders sont les mêmes que ceux qui disposent d'une connexion : les SSII & bureaux d'études disposent d'un site Web pour 59 % d'entre eux. Les secteurs de la santé et du commerce de détail ne totalisent que 17 % et 19 % d'entreprises ayant un site. Motivations pour mettre en ligne un site web ? La publicité dans 38 % des cas et la collecte d'informations sur les clients potentiels dans 32 % des cas. Ainsi, un peu plus du quart des entreprises équipées d'un site web mettent en avant l'e-commerce. Et le paiement via Internet reste très minoritaire. Une fois sur deux, l'internaute cliquera dans un site qui lui permettra de consulter le catalogue mais il ne pourra faire sa commande en ligne qu'une fois sur quatre. Seules 10 % des PME disposent d'un Intranet. La moitié d'entre elles offrent un accès distant. Et compte tenu du taux d'équipement, seule une PME sur 20 offre à ses employés la possibilité de se connecter à distance à l'Intranet. Point positif, 20 % des PME non équipée envisagent de monter un Intranet d'ici 2002. Ce qui portera le taux de pénétration de ces réseaux à un tiers dans les entreprises pour les usages suivants : consultation du serveur de base de données, du site web interne et de la messagerie. Sans surprise, le taux de pénétration de l'Intranet croît avec le nombre de salariés : les entreprises de plus de 200 salariés ont un taux d'équipement cinq fois supérieur aux petites PME de 10 à 50 salariés. Encore une fois, le secteur d'activité est discriminant.

IDATE : http://www.idate.fr

Surfer sur l'internet à la voix
Samedi, 21/10/2000 - 00:00

Interactive Speech est une solution de navigation vocale sur l'internet développée par la jeune start-up française du même nom. Cette technologie permet de rendre un site web navigable à la voix. Côté utilisateur, il suffit de télécharger un plug-in pour le navigateur internet, disponible en téléchargement sur le site Iinteractivespeech.com. Durant l'installation le programme effectue quelques tests sonores très courts essentiellement basés sur le volume du micro. Le logiciel ne requiert pas d'apprentissage de la voix de l'utilisateur. La technologie Interactive Speech reconnaît immédiatement n'importe quelle voix et de plus dans n'importe quelle langue. Pour cela, les commandes possibles pour chaque page sont limitées. En effet, la simple visite d'un site compatible Interactive Speech lance une petite fenêtre de contrôle où s'affichent les commandes possibles à prononcer, et ce, pour chaque page web du site. Cela limite les possibilités mais simplifie le procédé de reconnaissance vocale qui est en général très capricieux. Comme l'explique Bruno Gachie, un des responsables de la société, « notre technologie n'est pas basée sur la reconnaissance phonétique à la manière de logiciels comme IBM ViaVoice. Interactive Speech utilise la comparaison acoustique. Plus précisément, le créateur du site enregistre lui-même chaque commande vocale qu'il associe à une URL ou à une commande Java Script. Par la suite l'application compare simplement le fichier son enregistré, avec la commande prononcée par l'internaute ».L'utilisation du logiciel est gratuite, en revanche le propriétaire du site s'acquitte d'une Licence de Publication. Le prix des licences est fixé en fonction du nombre de pages équipées et reste gratuit pour les sites perso de 1 à 19 pages. Peu de sites sont à l'heure actuelle compatibles avec Interactive Speech, l'activité de la société ne venant que de démarrer. Cependant une démonstration est déjà en ligne sur leur site, avec en prime un petit chien à télécharger qui répond à la voix. Très ludique.

Yahoo : http://fr.news.yahoo.com/001014/7/ot0c.html

Avec DivX le Net fait son cinéma
Samedi, 21/10/2000 - 00:00

Depuis la montée en puissance de la musique sur le Net, les internautes frétillent d'impatience: quand donc pourront-ils télécharger des films? Jusqu'à présent, qualité de l'image et volume de données étaient les deux derniers obstacles. Avec le DivX, format déjà annoncé comme le MP3 de la vidéo (du nom du format utilisé par les internautes pour s'échanger de la musique sur le Web), ces ultimes barrages sont balayés. Le numérique part à l'assaut des studios de cinéma. Pour se faire une toile sur un écran, il faut normalement télécharger les 4 à 9 gigaoctets (1) de données. Cela peut prendre plusieurs jours si on n'a qu'un modem. Mais si on compresse le film et qu'on dispose d'une connexion rapide (câble ou ADSL), il ne faut plus qu'une paire d'heures pour récupérer son James Bond favori. Le DivX est la perle qui permet de compresser des fichiers vidéo à 15 % de leur taille réelle, avec une qualité d'image professionnelle. Ainsi un DVD de 4 gigas devient un fichier de 600 mégaoctets, soit presque la taille d'un CD-Rom. Avec une image si bien compressée, on peut envisager des courriers vidéo, de la «vidéophonie» (se téléphoner en se voyant) sur le Net et, bien sûr, le téléchargement de films. Avec de tels arguments, le DivX fait trembler les majors du cinéma, non seulement à Hollywood mais aussi en Europe et en Asie. Beaucoup craignent que ce format fasse au cinéma ce que le MP3 fait subir à l'industrie du disque : défier les circuits de distribution jusqu'à les bouder outrageusement.

Libération :

http://www.liberation.com/quotidien/semaine/20001016lunze.html

Le viking Ericsson a la dent longue
Samedi, 21/10/2000 - 00:00

Elle est annoncée comme révolutionnaire. Qui ? Bluetooth, le terme choisi par Ericsson pour identifier sa dernière trouvaille technologique : un nouveau standard international de transmission radio. Bluetooh devrait, si l'on en croit les scientifiques, révolutionner la communication. Tous les appareils communicants (téléphone mobile, PC, organiseur...) équipés d'une puce Bluetooth vont en effet pouvoir s'échanger des données, et ce dans un rayon de dix mètres (voire cent mètres avec un amplificateur). Demain, votre domicile sera ainsi équipé d'un écran tactile qui centralisera toutes les commandes de la maison. En pressant du doigt l'écran de contrôle, vous pourrez mettre en marche le four à micro-ondes, allumer la chaîne stéréo ou encore faire vos courses sur Internet. Tous les appareils seront interconnectés entre eux. Le principe s'appliquera de la même façon dans les gares, les aéroports, les magasins ou au bureau. Le concept Bluetooth est né en 1994. A cette époque, Ericsson se lance dans une étude d'interface radio à faible consommation et à faible coût entre les téléphones mobiles et leurs accessoires. L'objectif est simple: parvenir à éliminer toute connectique entre le mobile et ses accessoires. En 1997, Ericsson, Nokia, IBM, Toshiba et Intel fondent le SIG (Special Interest Group). Un pari qui semble gagné aujourd'hui: Bluetooth utilisera les ondes radio basse fréquence pour permettre la transmission des données. Huit appareils au maximum peuvent se connecter entre eux sur le même réseau. Sachant que chaque appareil peut se connecter à un autre réseau, c'est donc au total 80 appareils (le maximum) qui peuvent communiquer à une vitesse variant de 400 Kb/s à 1 Mb/s. Pour éviter les éventuelles interférences qui altéreraient la qualité des transmissions, les appareils pourront automatiquement changer de fréquence. Un moyen rapide et efficace pour garantir la sécurité des communications. Plus de 100 millions de téléphones portables, ordinateurs et autres équipements électroniques seront équipés Bluetooth en 2002.

Figaro : http://www.lefigaro.fr/

Francfort célèbre le livre électronique
Samedi, 21/10/2000 - 00:00

Des centaines d'auteurs du monde entier se sont alignés dans la course au prix du livre électronique, lancé par la foire du livre de Francfort. Le plus important rassemblement d'éditeurs au monde a décidé de décerner 100.000 dollars à l'auteur de l'oeuvre la plus originale publiée exclusivement dans un format électronique. Le monde de l'édition reste convaincu que le XXIe siècle et sa révolution numérique sont encore loin de sonner le glas définitif du livre tel que nous le connaissons depuis des siècles, mais plutôt que de rivaliser, l'industrie préfère pactiser avec les acteurs de l'ère numérique. Le livre électronique, directement téléchargeable et lisible à l'aide d'appareil comme les assistants personnels ou les appareils de type Rocket eBook, SoftBook ou Cytale, réduit à rien l'encombrement des ouvrages, sans parler des coûts de production, et ouvre à de nombreux auteurs en mal de publication la voie de l'édition. Jusqu'à présent, les lecteurs n'ont pas fait preuve d'un enthousiasme débordant, sans doute en raison du coût des appareils (de 1.200 FF pour Rocket eBook, jusqu'à 9.000 FF pour EveryBook) et du sentiment bien ancré selon lequel l'écran d'ordinateur n'égalera jamais le confort de lecture d'un vieux tome relié cuir. Cela n'empêche pas Alberto Vitale de penser que l'heure de l'e-book est venue. L'éditeur, co-initiateur du prix littéraire qui sera décerné vendredi à Francfort, espère que le livre électronique rattrapera l'édition traditionnelle avant sept ans. "Les candidatures pour le première édition du prix ont largement dépassé nos attentes; nous avons reçu des centaines d'inscriptions venant des Etats-Unis et de 10 autres pays", a déclaré Vitale, qui est également PDG de la maison d'édition américaine Random House Inc.. Malgré ses débuts difficiles, Vitale se dit fermement convaincu des brillantes perspectives qui attendent le livre électronique. Les copies électroniques sont à l'abri des problèmes et des coûts d'impression et il ne peut y avoir d'invendus ni même de stock, pas plus que de livraison, souligne-t-il.

Reuters : http://fr.news.yahoo.com/001018/2/p110.html

^ Haut
Avenir
Nanotechnologies et Robotique
Des tissus énergisants, hydratants ou amincissants s'apprêtent à envahir nos garde-robes
Samedi, 21/10/2000 - 00:00

Changer de vêtements. Plus seulement pour se vêtir, mais aussi pour protéger et soigner son corps. Consacré seconde peau, le textile est devenu en quelques années extensible, respirant, imperméable ou thermorégulateur. Plus étonnant encore : les habits se targuent désormais de veiller sur notre santé. Pour lutter ainsi contre la pollution, voici le composite Antismog, mis au point par la société italienne Reis - une membrane en polyester enrichie de charbon actif -, qui filtre certains gaz, tout en évacuant l'humidité ou les mauvaises odeurs. De même, le stress possède son remède textile : un filament de cuivre, mélangé à une fibre, permet d'écouler les charges électrostatiques. Alors que le soleil fait peser sur les vacanciers le spectre des ultra-violets, tee-shirts et maillots de bains empruntent aux tenues de cyclisme leurs pouvoirs filtrants. Utilisé pour ses propriétés anti-UV, l'oxyde de titane - dont la structure est assez proche de celle des fibres - s'intégre dès la filature et assure une protection quatre fois supérieure à celle des fibres ordinaires. Dans cette course vers le bien-être, le textile n'hésite plus à s'associer au médical pour soulager les corps ou parfaire les anatomies. Encore à l'étude dans les laboratoires, les tissus « thérapeutiques » se cantonnent au domaine très fermé du médical. Alors que les patchs diffusent déjà médicaments et agents cicatrisants, on imagine pour bientôt des draps « veinotoniques», des serre-tête analgésiques ou des tee-shirts capables de mesurer tension artérielle et température du corps. Déjà dans nos vestiaires, les chaussettes ou les tenues de sports antibactériennes - à base de sels métallisés, de céramiques incorporées dans les fibres ou d'apprêts à base de composés organiques - terrassent les mauvaises odeurs. Sur le principe de la transdermie, les fabricants de textile empruntent à la cosmétique ses principes actifs pour faire de la peau le nouveau médium du bien-être. Déjà utilisée par le médical ou l'agroalimentaire, la « microencapsulation » révolutionne aujourd'hui les tissus, rebaptisés « cosméto-textiles ». Ce procédé consiste à insérer dans des microcapsules (dont la taille varie de 1 à plusieurs centaines de microns) une substance volatile ou active. Appliquées sur le textile par imprégnation - baigné dans un mélange d'eau et de principes actifs, le tissu ne conserve que les substances bienfaisantes, tandis que l'eau s'évapore -, enduction ou pulvérisation, elles sont ensuite fixées par un liant pour résister lors des lavages. Par frottement mécanique, les capsules se brisent, libérant sur la peau les agents actifs.

Le Monde :

http://interactif.lemonde.fr/article/0,3649,2894--106412-0,FF.html

^ Haut
Matière
Matière et Energie
La pile à combustible va détrôner la pile au lithium dans les portables
Samedi, 21/10/2000 - 00:00

Un téléphone portable capable de tenir en veille sans discontinuer pendant six mois, et dont l'autonomie atteint une semaine non-stop en temps de parole, ça vous dit quelque chose ? Non, vraiment ? Normal : la technologie est encore entre les mains de chercheurs. Mais il ne s'agit pas d'un rêve : ces fantastiques performances seraient obtenues grâce à des “piles à combustible”, qui utilisent de l'hydrogène et de l'oxygène pour fabriquer de l'eau et de l'électricité. Un prototype de pile à combustible pour les téléphones mobiles a déjà été mis au point par le chercheur américain Robert Hockaday et son équipe de Los Alamos, au Nouveau-Mexique. Leur pile a ceci de particulier qu'elle doit prendre place non pas dans le téléphone, mais dans son étui. C'est là qu'elle fabrique de l'électricité pour recharger la batterie en continu. Autrement dit : plus besoin de prise murale ! Pour l'instant, le prototype, qui n'a pas encore fêté sa première année d'existence, ne dure “que” trois fois plus longtemps que les batteries au lithium traditionnellement utilisées pour les téléphones portables. , tous les efforts sont dirigés vers une seule direction : augmenter la puissance à travers un usage optimal du méthanol. Et le 4 mai 2000, les laboratoires de Manhattan Scientifics font cette annonce : une micro-pile a fonctionné trois fois plus longtemps que les batteries au lithium. Enfin... en théorie, car cette prouesse est le fruit d'un calcul, à savoir qu'une micro-pile de même poids qu'une batterie au lithium contient suffisamment de méthanol pour assurer une durée de fonctionnement trois fois supérieure à celle de ladite batterie au lithium. Et comme le potentiel énergétique d'une pile à combustible fonctionnant au méthanol est trente fois supérieur à celui d'une batterie traditionnelle, d'autres progrès sont attendus ! Au passage, la pile a fondu de moitié en épaisseur. Et en plus, ces micro-piles à combustible seront moins chères : pour un prototype, il en coûte 37 dollars environ, mais une production en série ferait chuter ce prix à 7 dollars, contre 100 pour une batterie lithium-ion.

Vunet :

http://www.vnunet.fr/VNU2/svm/dossiers/lithium.htm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Comment réduire le réchauffement de l'atmosphère en agissant sur les eaux polaires
Samedi, 21/10/2000 - 00:00

L'ensemencement des océans par des composés ferreux pourrait être indirectement un moyen de réduire la concentration dans l'atmosphère du dioxyde de carbone, principal responsable du réchauffement climatique. Une recherche menée par le laboratoire marin de Plymouth avec l'université d'East Anglia a confirmé que l'addition de fer dans les eaux glaciales qui baignent l'Antarctique stimule la croissance d'algues microscopiques, qui absorbent le dioxyde de carbone, réduisant d'autant la concentration de ce dernier dans l'atmosphère. Trois tonnes et demie de substances ferreuses ont été déversées dans une zone maritime d'une surface de 50 km2, située à 2.000 km au sud de la Tasmanie. La floraison de phytoplancton qui s'en est suivie a conduit sur deux semaines à une réduction de 10% du dioxyde de carbone sur la zone étudiée. Selon les scientifiques, la spécificité de la circulation dans cet océan en fait le plus à même d'influencer la concentration de dioxyde de carbone dans l'air. "Les modifications que nous avons observées après avoir introduit des composés ferreux pourraient fort bien fournir une explication aux variations des niveaux de dioxyde de carbone sur terre intervenues dans le passé - pendant et après les périodes glaciaires", selon le chercheur. Mais si la "fertilisation" au fer des phytoplanctons peut contribuer modestement à la réduction du dioxyde de carbone, la réduction des émissions doit demeurer la stratégie la plus efficace pour lutter contre le réchauffement de l'atmosphère. D'autant plus qu'on ne peut prévoir comment les écosystèmes marins réagiraient à des injections massives de fer

Brève rédigée par @RT Flash

Nature : http://helix.nature.com/nsu/001012/001012-10.html

La mer à boire
Samedi, 21/10/2000 - 00:00

Comme tout le Moyen-Orient, Israël est confronté à un manque d'eau douce chaque année plus criant. Devant l'ampleur prévisible et dramatique du déficit, le gouvernement a pris une décision majeure: faire de l'eau douce avec de l'eau de mer. Un appel d'offres vient d'être lancé pour construire une usine de dessalement capable de produire 50 millions de mètres cubes d'eau douce par an, à partir de l'eau de la Méditerranée. Ce sera l'une des plus grosses usines jamais construites et elle profitera des toutes dernières avancées technologiques. Située au sud de Tel-Aviv, elle procurera 5% de la consommation annuelle d'eau de l'État hébreu dès 2003. Mais ce ne sera qu'un début "D'ici quinze à vingt ans, plusieurs centaines de millions de mètres cubes d'eau douce par an proviendront du dessalement ", soit 20 à 30% des besoins de la population, prévoit Shimon Tal, commissaire pour l'eau de l'État d'Israël. De nombreux pays, partout dans le monde, sont ou vont être confrontés au problème du manque d'eau douce. Pourtant, il s'écoule chaque année sur les terres émergées assez d'eau - issue des précipitations, de la fonte des neiges et des glaciers - pour fournir les 7 300 m3 nécessaires aux besoins des six milliards d'habitants de la planète. Mais l'eau douce est très inégalement disponible, à l'instar de la plupart des ressources naturelles. Alors qu'un Islandais peut disposer de 630 000 m3 par an, un habitant de la bande de Gaza doit se contenter de 59 m3. Dix mille fois moins. La population croissant, les besoins explosent. À elles seules, l'agriculture et l'industrie consomment 95% des ressources disponibles. Un tiers de la population de la Terre manque aujourd'hui d'eau potable propre et saine, selon le Programme des Nations unies pour l'Environnement, et les deux tiers de l'humanité pourraient être touchés en 2025. Pour profiter du gigantesque réservoir d'eau des océans - 97 % de toute l'eau de la Terre - il faut la dessaler. Déjà 12 500 usines de dessalement fonctionnent dans plus de cent vingt pays, et elles fournissent environ 1 % de l'eau potable consommée. Le secteur est aujourd'hui en pleine expansion. Revers de la médaille, le dessalement d'eau de mer n'est pas sans effets sur l'environnement. D'une part, l'importante quantité d'énergie nécessaire au dessalement - en général du pétrole ou du gaz - est une source de pollution de l'air et d'émission de gaz à effet de serre. D'autre part, le traitement rejette en mer des saumures chaudes, qui peuvent menacer les poissons et favoriser la prolifération d'algues. Face au manque d'eau douce, de nombreux spécialistes prônent plutôt la maîtrise de la consommation. Favoriser le recyclage de l'eau, améliorer les réseaux de distribution dont les fuites atteignent parfois 50 %, choisir des cultures qui nécessitent peu d'irrigation... Même si le dessalement permet à des pays de plus en plus nombreux de limiter les effets de la pénurie d'eau, bannir le gaspillage devrait être la priorité.

Sciences Actualités :

http://www.cite-sciences.fr/actu/index.html

L'espace au service de la protection de l'environnement
Samedi, 21/10/2000 - 00:00

Les convulsions naturelles de la terre représentent, toutes catégories confondues, 100.000 morts dans le monde par an, et leur coût économique atteint plus de 100 milliards d'Euros, selon des chiffres fournis par le CNES (Centre National d'Etudes Spatiales). Aussi, la contribution des satellites d'observation de la terre à la prévision ou l'analyse des risques naturels majeurs s'impose-t-elle comme une priorité, ont constaté les participants à une rencontre organisée à Lille cette semaine dans le cadre de la présidence française de l'Union européenne, et qui réunissait agences spatiales et industriels, responsables politiques et utilisateurs des satellites. Les débats ont porté notamment sur les moyens pour les pays européens de coordonner leurs efforts: "Il y a un manque d'information sur ce que sont les zones à risques, et nous aurons fait un grand pas lorsque nous aurons identifié les quelque 500 zones à risques sur notre continent", a estimé Jean-Pierre Perera, au nom de la Direction de l'Environnement à la Commission Européenne. Les données spatiales, associées aux autres sources d'information, rendent possibles une surveillance globale, permanente et fiable de l'environnement planétaire, aussi bien de l'atmosphère et des océans que des terres émergées, et couvrent toutes les échelles d'espace et de temps. L'enjeu est de faire le lien entre cette information globale et son utilisation pour les décisions au niveau local, d'assurer leur diffusion rapide et surtout leur interprétation pour que ces données spatiales rendent réellement service. "Nous avons besoin de modéliser le changement global. Nous savons qu'il y a un réchauffement, mais il nous faut en connaître les caractéristiques régionales. Il y a aussi un besoin de prévisions saisonnières, c'est de plus en plus important pour les pays touchés par la sécheresse. Il nous faut aussi des meilleures prévisions à moyen terme (plusieurs mois) pour pouvoir aider la décision publique", selon Jean-Pierre Beysson (Méteo France). Les techniques spatiales permettent deux approches complémentaires: avant la catastrophe pour réduire la vulnérabilité (l'imagerie satellitaire est particulièrement adaptée pour bénéficier de l'expérience des sinistres antérieurs) et pendant la catastrophe, afin de gérer la crise et les secours, selon José Achache, directeur général adjoint du CNES, organisateur du colloque. Mais ce travail de prévention doit s'accompagner d'un effort de prévision, comme cela se passe pour les cyclones tropicaux, dont la gestion est devenue routine grâce aux satellites d'observation météorologiques. A l'instar des Etats-Unis, qui ont une politique particulièrement active en ce domaine, la nécessité pour l'Europe d'"aller de l'avant" et de promouvoir l'outil spatial a été clairement mise en évidence à Lille. Outre la prévention des risques naturels, l'évaluation des pressions de l'homme sur l'environnement, et la surveillance des traités internationaux tels que le protocole de Kyoto en sont les autres enjeux. Reste à donner corps au GMES (Global Monitoring for Environment and Security), initiative conjointe lancée voici deux ans par les agences spatiales, la commission européenne et de l'industrie et qui fournit le canevas institutionnel.

AFP : http://fr.news.yahoo.com/001018/1/p0ty.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les chercheurs parviennent à détruire les défenses des cellules cancéreuses
Samedi, 21/10/2000 - 00:00

Des chercheurs hollandais sont parvenus à perturber le mécanisme normal de défense qui protège des cellules cancéreuses des effets de la la chimiothérapie. Ces cellules tumorales parviennent en effet à " pomper " les molécules qui peuvent les détruire puis à les évacuer par leur membrane, ce qui leur donne une grande résistance à la chimiothérapie. Ces mécanismes de pompage réduisent sensiblement l'efficacité de la chimiothérapie, quant elles ne l'annulent pas complètement. Les protéines, qui permettent aux cellules cancéreuses de se défendre pourraient théoriquement être neutralisées par la thérapie génique, mais les chercheurs redoutent que les gènes impliqués et utilisés dans ces thérapies ne commandent d'autres fonctions, vitales celles ci, pour l'organisme. Cependant, le Professeur Piet Borst, de l'institut du Cancer à Amsterdam, a présenté des travaux très encourageants devant la société européenne d'oncologie à Hambourg. Il a en effet réussi à produire des souris génétiquement modifiées de manière à ne pas produire les protéines responsables du " pompage" des médicaments anti-cancéreux. Il a constaté en outre que les souris ainsi modifiées ne semblaient avoir besoin de ces protéines supprimées pour fonctionner normalement. Cela signifie que ce traitement devrait pouvoir être utilisé chez l'homme sans effet secondaire. Le Professeur Borst souligne que " nous devons rapidement améliorer nos connaissances des protéines responsables du "pompage" des drogues anticancéreuses si nous voulons enfin surmonter le grave problème de la chimio-résistance qui concerne plus de la moitié des cancers. " c'est un domaine de recherche passionnant et prometteur qui, à plus long terme, offre la perspective de l'espoir pour beaucoup de patients dont le cancer prouve insensible au traitement de drogue. " Le Professeur Stephen Keyse, spécialiste de la chimio-résistance est persuadé que Piet Borst a ouvert une nouvelle voie de recherche trés féconde qui débouchera sur une nouvelle classe d' agents anticancéreux capables de supprimer la multirésistance des cellules cancéreuses et de rendre celles ci vulnérables à de nouvelles molécules.

Brève rédigée par @RT Flash

BBC :

http://news6.thdo.bbc.co.uk/hi/english/health/newsid_971000/971174.stm

Cancer du sein : découverte italienne pour prévenir les rechutes
Samedi, 21/10/2000 - 00:00

Des chercheurs italiens viennent de faire une découverte qui pourrait permettre à un plus grand nombre de femmes de survivre au cancer du sein en facilitant l'identification de celles les plus susceptibles de connaître une rechute. La population concernée est très large puisque plus de la moitié des femmes traitées pour un cancer du sein à un stade avancé subissent une rechute. Or les médecins sont pour l'heure incapables de déterminer avec précision chez quelles femmes la maladie refera son apparition. Le cancer réapparaît en effet chez un cinquième des femmes considérées comme à faible rique, en vertu des tests menés actuellement. Les travaux présentés à Hambourg, lors du Congrès de la société européenne d'oncologie, par le Dr Pier Francesco Ferrucci, spécialiste de l'Institut européen d'oncologie à Milan, font aujourd'hui espérer un test plus précis. Selon les résultats préliminaire de cette étude italienne, les femmes présentant dans leur moelle osseuse un taux élevé de maspine, protéine produite par des cellules du sein, seraient à l'abri d'une rechute pendant au moins deux ans. Un faible taux serait en revanche le signe d'une rechute quasi certaine. A l'heure actuelle, les tests visent à connaître les femmes atteintes d'un cancer du sein les plus susceptibles d'être victime d'une rechute. Les traitements les plus agressifs leur sont alors réservés. Les mesures restent toutefois imparfaites. Le principal indicateur du risque de rechute consiste à déterminer si le cancer a atteint les ganglions lymphatiques. Mais pour des raisons encore inconnues, environ 20% des patientes dont les ganglions restent sains voient la maladie réapparaître, selon le Dr Hoekman. L'étude du Dr Ferrucci s'appuie sur des informations récentes concernant la maspine. Les scientistes ont d'ores et déjà constaté que cette protéine semble freiner la croissance de la tumeur une fois que le cancer est établi. Elle y parviendrait en ralentissant la croissance des vaisseaux sanguins nécessaires à la prolifération des cellules cancéreuses. De faibles niveaux de maspine ont aussi associés à l'apparition initiale de la maladie. Les rechutes sont rarement de nouveaux cancers mais plutôt l'apparition de tumeurs microscopiques existant depuis le début de la maladie mais ayant échappé à la détection et au traitement. La maspine serait en mesure de bloquer le développement de ces tumeurs. L'étude italienne a impliqué 48 malades du cancer du sein présentant de hauts risques de développement de la maladie dans le deuxième sein. Toutes avaient subi une intervention chirurgicale et des séances de chimiothérapie. Les tests effectués sur leur moelle épinière avaient révélé la survivance de tumeurs microscopiques. La maspine a eu un effet particulièrement fort chez les femmes atteintes d'un cancer considéré comme grave, avec au moins 20 ganglions lymphatiques atteints. Parmi les dix femmes appartenant à cette catégorie, huit présentaient de la maspine dans leur moelle épinière. Deux ans après ce diagnostic, aucune de ces huit femmes n'a connu de rechute, contrairement aux deux autres: la première a développé un cancer du foie, la seconde un cancer du poumon.

AP : http://fr.news.yahoo.com/001016/5/ovda.html

Première autogreffe de cellules musculaires dans un coeur humain
Samedi, 21/10/2000 - 00:00

Pour la première fois, un malade de 72 ans souffrant, après plusieurs infarctus, d'une défaillance cardiaque sévère, a reçu "avec succès" une greffe de ses propres cellules musculaires directement dans le coeur, le 30 juin à Paris, a-t-on mardi appris de sources médicales. "C'est la première fois que l'on traite ainsi un malade avec une thérapie cellulaire directement dans le coeur", a ajouté auprès de l'AFP le Pr Michel Desnos, cardiologue (hôpital Boucicaut/Pompidou) qui a participé à cette "approche innovante" réalisée par une équipe de chirurgiens, cardiologues et biologistes parisiens. "C'est un succès parce que les cellules sont vivantes comme l'ont montré les examens, le coeur se contracte mieux et il n'y a pas eu d'effets indésirables", a-t-il commenté. "Le programme, soutenu notamment par l'assistance publique des hôpitaux de Paris, prévoit d'inclure huit autres patients", indique-t-il. Les cellules ont été prélevées dans un muscle de la cuisse, le quadriceps. Il s'agit de cellules dormantes, capables de régénérer de nouvelles cellules musculaires. Ces cellules sont des «myoblastes squelettiques autologues»: des cellules satellites prélevées dans un muscle du patient lui-même. Tous les muscles contiennent des cellules satellites, des myoblastes dormants, susceptibles si besoin de donner naissance à des fibres musculaires. Le grand avantage de cette méthode est que ces cellules sont ici greffées chez le donneur lui-même, les problèmes de rejet immunologique qui compliquent habituellement les transplantations ne se posent donc pas. Les cellules prelevées ont été mises en culture avant d'être injectées au malade qui a reçu ainsi "plusieurs dizaines d'injections directement dans la partie lésée du coeur pour remplacer les cellules mortes. Depuis le mois de juin, le malade a subi plusieurs examens qui ont établi que sa fonction cardiaque s'est améliorée: par rapport aux mesures faites avant l'intervention, le ventricule gauche éjecte plus de sang à chaque contraction. A l'échocardiographie, la zone du myocarde où les cellules ont été injectées se contracte maintenant, alors que cette zone cicatricielle était complètement flasque avant la transplantation cellulaire. Dernier argument solide pour attribuer les améliorations constatées aux cellules musculaires satellites injectées dans la paroi cardiaque : il existe maintenant une activité métabolique, une vie, donc, dans la zone auparavant morte, détruite par l'infarctus. En effet, le scanner avec émission de positons (pet-scan), montre, dans la zone traitée, l'existence d'une consommation de glucose, ce qui traduit une activité. Une telle activité était complètement absente avant les injections de cellules satellites ce qui démontre, avec l'échocardiographie topographique, l'existence d'une récupération de la fonction liée à la greffe cellulaire. Cette première a été conduite autour de l'équipe du Pr Philippe Menasché (hôpital Bichat), avec les docteurs Alain Hagège et Michel Desnos (hôpital Boucicaut/Pompidou), Ketty Schwartz et Jean-Thomas Vilquin (INSERM/Pitié-Salpétrière), et Jean-Pierre Marolleau (hôpital Saint-Louis).

AFP : http://www.caducee.net/afp/edit.asp?id_depeche=3036

Figaro : http://www.lefigaro.fr/

La nouvelle génération d'anti-inflammatoires démontre son efficacité
Samedi, 21/10/2000 - 00:00

Une nouvelle génération d'anti-inflammatoires permettrait de réduire jusqu'à 54 % la fréquence des complications digestives de ces traitements. Un peu plus d'un an après leur mise à disposition du corps médical, le Pr Maxime Dougados, du CHU Cochin-Port-Royal à Paris, a dressé au cours des Entretiens de Bichat un premier bilan de l'utilisation des Coxibs. Ces nouveaux médicaments paraissent en effet devoir bouleverser le traitement de certaines maladies rhumatismales, l'arthrose notamment. Ce n'est un mystère pour personne : les anti-inflammatoires non stéroïdiens - ou AINS - sont très efficaces contre la douleur. En revanche, ils provoquent souvent des effets indésirables à caractère digestif. Les douleurs gastriques, les ulcères voire les hémorragies digestives provoquées par ces traitements sont des accidents trop fréquents. Une méta-analyse réalisée dans le cadre des hôpitaux universitaires de Genève, l'étude Tramer, a ainsi montré que sur 1 220 patients traités par AINS pendant deux mois ou plus, l'un au moins décède alors qu'il ne serait pas mort s'il avait suivi un autre traitement. Cette étude a pris en compte les dossiers de pratiquement 1,2 millions de malades. Or ses auteurs estiment que ces chiffres, transposés à la France, correspondraient à 2 000 morts par an ! Le Pr Dougados cite une étude américaine portant sur 8 076 malades traités pendant 13 mois. D'après celle-ci, le risque d'ulcère gastrique et de complications digestives graves est réduit de 54% chez les patients traités avec un Coxib en comparaison de ceux traités avec un AINS conventionnel. Pourquoi ? Parce qu'ils bloquent une enzyme responsable de l'inflammation articulaire -la Cox-2 - mais n'interviennent pas sur le métabolisme d'une autre enzyme - la Cox-1 - qui contribue à protéger la muqueuse gastrique.

HealthandAge.com :

http://www.healthandage.com/newsletter/npf.htm

Une bactérie vieille de 250 millions d'années
Samedi, 21/10/2000 - 00:00

Une bactérie peut-elle être immortelle ? C'est la question fascinante posée après la découverte de chercheurs américains. Russel Vreeland (département de biologie, université West Chester, Pennsylvanie) est en effet parvenu à faire revivre une bactérie qui a passé au moins 250 millions d'années dans de l'eau de mer incluse dans un cristal. La découverte a été faite en octobre 1998 dans la formation Salado, au Nouveau-Mexique. Les fossiles invertébrés qu'on y a trouvés et des études radiométriques des sédiments attestent son âge avancé, 250 millions d'années. Les chercheurs se sont également assurés que le sel ne s'était pas recristallisé depuis sa formation, leur bactérie n'ayant donc pas été contaminée par des événements ultérieurs. Cette bactérie baptisée 2-9-3, n'est pas connue, mais l'analyse génétique montre qu'elle fait partie de la lignée de Bacillus marismortui, trouvé dans de l'eau de la mer Morte). Avec 250 millions d'années, cette bactérie pulvérise le record de la plus vieille créature jamais découverte, détenu jusqu'alors par une bactérie qui n'a que 40 millions d'années (Bacillus sphaericus, incluse dans de l'ambre). Mais la véritable question que pose cette découverte est celle du biologiste anglais John Parkes : « Si une bactérie peut survivre pendant une telle durée, pourquoi mourrait-elle ? » Le savant poursuit sa réflexion en soulignant que : « cet extraordinaire exemple de survie bactérienne » conduit à se demander si « les spores contenus dans les rochers n'auraient pas un mécanisme permettant à la vie d'être transportée entre les planètes ».

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_978000/978774.stm

Du « bioverre » pour réparer les os
Samedi, 21/10/2000 - 00:00

La réparation des fractures ou l'implantation de prothèses devraient connaître de très nettes améliorations avec l'élaboration de matériaux « bioactifs ». Une équipe de chercheurs français de l'Université de Reims travaille sur un « bioverre » capable d'accélérer et d'améliorer la ''soudure'' entre l'os et la prothèse. Selon le journal de l'Institute of Physics, qui fait état de ces recherches, le verre « bioactif » peut se lier avec l'os naturel et jouer ainsi le rôle d'interface entre l'implant et l'os. Les principales applications de ce matériau sont les fractures des petits os, comme le scaphoïde, ou les implantations de prothèse totale de la hanche, selon Edouard Jallot, à la tête de l'équipe de Reims. A Londres, une équipe du Tissue Engineering Center (Chelsea and Westminster Hospital), mène des travaux complémentaires. Ces chercheurs ont fait croître des cellules osseuses humaines in vitro en leur ajoutant un matériau « bioactif ». Très proche du « bioverre » mis au point à Reims, la céramique permet aux cellules de croître et de s'assembler beaucoup plus rapidement, selon l'article publié dans Calcified Tissue International. Cette céramique de phosphate de calcium est déjà utilisée en chirurgie orthopédique et dentaire. Avec cette nouvelle technique, des injections pourraient être faites aux patients souffrant de fractures très complexes afin d'accélérer la guérison. Selon Julia Polak, qui dirige ces recherches, ces progrès constituent également un pas important vers le traitement de l'ostéoporose. Calcified Tissue International.

Nouvel Obs :

http://quotidien.sciencesetavenir.com/sci_20001018.OBS8323.html

Détecter les dioxines grâce aux lucioles
Samedi, 21/10/2000 - 00:00

La société Xenobiotic Detection Systems (XDS) a mis au point un système permettant de déterminer la quantité de dioxines présentes dans un échantillon en utilisant des cellules de mammifères transfectées par un gène provenant de la luciole. Les dioxines sont des composés extrêmement toxiques, et des contaminants persistants de l'environnement. Ces composés en s'accumulant chez l'animal peuvent avoir des effets sur le développement du foetus, mais également des effets cancérigènes, immunotoxicogènes ou de modification du métabolisme. Ces composés se lient à un récepteur intracellulaire. Ce complexe récepteur-dioxine nouvellement formé migre alors vers le noyau ou il se liera à des séquences d'ADN spécifiques. L'expression des gènes associés à ces séquences sera altérée. C'est cette altération qui produit les effets toxiques observés. XDS a utilisé ces informations pour mettre au point un test permettant de détecter la présence de ces toxiques. Cette société a transfecté une lignée cellulaire de mammifère avec un gène de la luciole codant pour la luciférase. Quand les dioxines se lient aux récepteurs intracellulaires, cela a pour effet de déclencher la production de luciférase dans ces cellules modifiées : les cellules émettent alors de la lumière. En mesurant la quantité de lumière émise, on peut en déduire la quantité de dioxine présente dans l'échantillon. Ce système est une alternative aux méthodes de détection par chromatographie en phase gazeuse couplée à la spectrométrie de masse. Par rapport à cette dernière, ce système est aussi sensible. D'autre part, il est plus rapide et meilleur marché. Il peut être utilisé pour l'analyse de l'air, de l'eau, du sol ou des échantillons biologiques.

Caducée : http://www.caducee.net/breves/breve.asp?idb=1461

Décryptage du génome d'une bactérie à risque pour les nouveau-nés
Samedi, 21/10/2000 - 00:00

Des chercheurs américains ont décrypté le génome complet d'une bactérie sexuellement transmissible et susceptible d'être la cause de méningite, de pneumonie voire de décès parmi les nouveau-nés, selon la revue scientifique britannique Nature. Le génome de cette bactérie, dénommée Ureaplasma urealyticum comporte 652 gènes, dont la moitié a un rôle inconnu. C'est l'un des plus petits génomes microbiens connus. Ce travail de décodage et de séquençage du patrimoine génétique de la bactérie devrait permettre de mieux comprendre comment elle provoque des maladies et favoriser la mise au point de traitements plus efficaces, selon les chercheurs. Le germe est en fait mal connu. Par exemple, la majorité des femmes enceintes sont infectées par la bactérie, mais sans dommage dans la plupart des cas. 60 % à 80 % des adultes en seraient porteurs, selon le National institute of allergy and infectious diseases (NIAID) américain qui a soutenu cette recherche. La bactérie semble provoquerlamaladieseulement dans des sous-groupes de la population infectée. Les chercheurs vont maintenant tenter de repérer les gènes responsables de la virulence du microorganisme parasite hébergé dans les voies urinaires humaines. Cette bactérie peut en effet provoquer des infections graves pendant la grossesse et affecter la santé du foetus et du nouveau-né. Elle est notamment responsable de naissances prématurées, de septicémies, de méningites et de pneumonies du nouveau-né.

Nature : http://www.nature.com/nature/

Séquence d'ADN mobile et création de nouvelles séquences protéiques
Samedi, 21/10/2000 - 00:00

Une étude française publiée dans Science montre que la présence d'un élément mobile, dans une bactérie pathogène, s'insérant à l'intérieur de régions codantes modifie les protéines correspondantes. La conséquence est la création de nouvelles séquences protéiques.Trois équipes françaises, en réalisant le séquençage complet et l'étude bioinformatique approfondie du génome de Rickettsia conorii, bactérie pathogène intracellulaire stricte transmise par les tiques, ont mis en évidence une séquence d'ADN mobile aux propriétés nouvelles. Ce nouveau type de segment d'ADN mobile, qui semble propre aux Rickettsies, n'est pas un transposon. Il est capable de s'insérer au sein même de la région codante des gènes, entraînant une modification des protéines correspondantes. La multiplication de ce segment d'ADN de 150 pb (paires de bases) de long à l'intérieur de ces séquences codantes peut y causer une évolution très rapide par la création de motifs et de domaines protéiques nouveaux. Les chercheurs veulent maintenant savoir si ce type de séquence dans le génome des Rickettsies est lié à leur mode de vie et/ou au caractère pathogène de ces bactéries. Il pourrait également constituer un facteur primordial et général de l'évolution de tous les génomes et de l'émergence de nouveaux gènes.

Caducée : http://www.caducee.net/

Yahoo : http://fr.news.yahoo.com/001017/54/oxye.html

Comment fonctionne la mémoire du foetus ?
Samedi, 21/10/2000 - 00:00

La vie intra-utérine du bébé reste encore un grand mystère. Pourtant, de nombreux progrès dans la connaissance des capacités des foetus ont été réalisés. Ainsi, alors qu'on a longtemps crû que le foetus n'avait aucune capacité de mémorisation, nous savons aujourd'hui qu'il est capable de mémoriser des stimulations acoustiques. Comment fonctionne cette mémoire ? C'est le sujet d'une étude parue dans "The Lancet", réalisée par Catheline Van Heteren et Coll. (Maastricht, Pays-Bas). Pour analyser la mémoire du foetus, les auteurs ont étudié son "habituation". De quoi s'agit-il ? Devant une stimulation nouvelle, un sujet manifeste une réaction. La répétition de cette stimulation finit par ne plus déclencher de réaction : c'est l'habituation. L'habituation repose sur l'apprentissage et donc sur la mémoire. Dix-neuf foetus à terme ont participé à l'étude. Ils ont été soumis à des stimulations vibroaccoustiques appliquées sur leurs membres inférieurs (sons audibles et vibrations) à travers la paroi abdominale de leur mère. Ces stimulations ont une durée d'une seconde, et sont répétées toutes les trente secondes. Trois séries de stimulations sont réalisées : une série initiale, une deuxième dix minutes après et une troisième 24 heures plus tard. Lors de ces stimulations, les mouvements du tronc du foetus étaient observés par échocardiographie et son rythme cardiaque enregistré par cardiotocographie. Le foetus présentait un mouvement général du tronc lors de la stimulation. L'habituation est définie par la disparition de ces mouvements après plusieurs stimuli. Au stade initial de l'étude, l'habituation survient après quatre stimulations. Lors du deuxième test, réalisé 10 minutes plus tard, seize des dix-neuf foetus ne répondent pas du tout à la stimulation, ce qui signifie qu'ils ont immédiatement reconnu la stimulation. Deux autres foetus réagissent mais de façon écourtée, signant qu'ils ont eu une reconnaissance plus lente de cette stimulation. Les tests réalisés 24 heures plus tard montrent que l'habituation des foetus est plus rapide que lors de la série initiale, ce qui signifie qu'ils ont gardé en mémoire la stimulation vibroaccoustque subie la veille. On savait déjà que le foetus était doué de mémoire, sans avoir plus d'éléments sur les caractéristiques de celle-ci. Ces travaux démontrent que le foetus est capable de mémoriser un stimuli, à condition qu'il soit répété. Il est doté d'une mémoire à court terme d'au moins dix minutes et d'une mémoire à long terme d'au moins vingt-quatre heures.

Csanté : http://www.csante.com/

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top