RTFlash

RTFLASH Recherche & Technologie
NUMERO 86
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Février 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet obéit à la voix de son maître...
50 Parlementaires européens s'unissent pour promouvoir la société de l'information
Un outil pour contrer les attaques informatiques
Une alliance pour protéger l'internet
Le Sénat étend le projet de loi aux ventes aux enchères sur l'internet
Nokia lancera des écrans internet portables mi-2001
Pour l'Internet, en voiture !
Microsoft veut imposer Windows 2000 face à Linux
La réalité virtuelle révolutionne la conception des bâtiments
L'internet, eldorado des jeux vidéo
Avenir
Un capteur de gaz ultra-sensible grâce aux nanotubes
Matière
Intel sort un microprocesseur à 1,5 gigahertz
Mini disque dur pour méga capacité
Espace
La Terre a sa carte en relief haute résolution
Terre
Améliorer la prévision des phénomènes météorologiques violents en montagne
Un dossier pour comprendre les catastrophes climatiques
Vivant
As-tu bien pris ton comprimé d'appareil-photo ?
Vieillissement cellulaire : le métabolisme énergétique encore mis en cause
Deux thérapies géniques à l'essai pour retarder les greffes du foie
La Belgique soigne à distance
La super-aspirine va être expérimentée en France
L'exercice physique est bénéfique pour les patients ayant une maladie artérielle coronaire
Le mécanisme de déplacement des cellules décrypté
Une nouvelle méthode de détection des cancers
Sida: une thérapie génique permet de bloquer la multiplication du virus
Recherche
Il y a deux siècles Volta inventait la pile électrique
Edito
L'habitat devrait être un lieu essentiel pour rapprocher les « infopauvres » et les « inforiches »



Comme l'écrivait Mark Weiser (1), dès 1995, les ordinateurs, au lieu de prendre la forme de monstres avides décrits par les films de science-fiction, vont devenir si petits et si omniprésents qu'ils seront invisibles, partout et nulle part. Si cette vision d'ordinateurs puissants mais invisibles, cachés dans notre environnement vous semble irréaliste et très coûteuse : détrompez-vous elle est très réaliste. Selon Weiser, avec la chute du coût des puces qui tire implacablement vers le bas le prix des ordinateurs, ceux-ci vont devenir si bon marché que “ nous irons acheter un paquet de six ordinateurs comme nous le faisons aujourd'hui pour les piles ”. Ces puces vont insensiblement se fondre par milliers dans tous les objets de notre vie quotidienne, pour être incorporés dans les murs, le mobilier, nos appareils électro-ménagers, nos maisons, notre voiture et jusque dans nos bijoux. Au 19e siècle, l'électricité comme le moteur électrique étaient des biens si précieux que tout était conçu, dans les usines, les immeubles, pour les mettre en évidence. De nos jours, l'électricité est partout, cachée dans les murs et stockée, souvent, dans de minuscules batteries. Les moteurs sont devenus si petits et si communs qu'on en est entouré sans nous en rendre compte. Ainsi, il y en a plusieurs dizaines dans notre voiture pour actionner les essuie-glaces, les rétroviseurs, les vitres, les platines CD ou cassettes, etc... Dans moins de vingt ans, la puce électronique aura suivi le même parcours que le moteur électrique. Elle se sera introduite dans tous les objets qui, aujourd'hui, nous demandent un peu de réflexion ou de mémoire pour les utiliser, qui génèrent des coûts de fonctionnement ou qui sont nécessaires pour assurer des fonctions telles que la sécurité par exemple. Ainsi, nous comptons encore aujourd'hui, en France, plusieurs dizaines d'enfants qui meurent chaque année et plusieurs centaines qui sont cruellement blessés, soit dans la cuisine en s'ébouillantant avec de l'huile ou du lait chaud, soit dans la salle de bains en glissant dans la baignoire ou en buvant des produits dangereux que leurs parents ne rangent pas avec assez de précaution. Tout cet environnement quotidien dans notre maison, dans notre appartement, va acquérir de l' “ intelligence ” qui permettra d'éviter de nombreux accidents. Il en sera de même pour la consommation d'énergie (électricité ou gaz), d'eau mais aussi pour le tri sélectif des déchets. Ainsi, les ampoules électriques réguleront automatiquement leur dépense en énergie selon la luminosité voulue pour une pièce et s'éteindront automatiquement dès qu'il n'y aura plus de présence humaine. Il en sera de même pour une plaque de chauffe ou pour un robinet. Les codes-barres utilisés dans les magasins seront demain compris par plusieurs appareils ménagers, que ce soit le frigo, pour tenir à jour le stock alimentaire, que ce soit le four pour la cuisson ou le réchauffage ou même la poubelle pour éviter que nous mélangions des plastiques avec des éléments bio-dégradables. Il en sera de même pour la sécurité. La maman pourra ainsi surveiller son bébé quel que soit l'endroit où elle se trouve et même quel que soit l'endroit où se trouve le rejeton, que ce soit dans le bureau, dans la salle de bains ou même chez la voisine. Pour effectuer cette vigilance, elle se servira de l'un des nombreux écrans qui l'entoureront, que ce soit chez elle, au bureau, dans sa voiture ou même dans la rue avec son téléphone mobile. Vos maison, appartement, résidence secondaire se surveilleront seuls et vous avertiront à la moindre anomalie : intrusion, émission anormale de chaleur, fuite d'eau, etc... et les automates prendront même des initiatives sans que vous ayez l'obligation d'être physiquement présent. Il y a encore bien d'autres innovations qui vont trouver place dans notre environnement, maintenant, alors que nous échangerons naturellement avec tous les objets qui nous entoureront en leur parlant comme nous parlons à d'autres êtres humains. Tout cela est sur le point d'arriver dès ces prochaines années et beaucoup d'acteurs, tels les constructeurs automobiles ou les fabricants de matériels électro-ménagers, sont en train de se réorganiser pour faire face à cette profonde mutation. Or, je dois avouer que je suis sidéré du manque de prospective et de la totale inertie de toute la chaîne des responsables (élus, architectes, promoteurs immobiliers, offices d'HLM, etc...) qui ont en charge actuellement la construction de l'habitat, qu'il soit collectif ou individuel. Prenons le plan d'un appartement ou d'un pavillon tel qu'il était construit il y a 50 ans. Hormis les évolutions appréciables, mais marginales toutefois, qui sont liées aux progrès réalisés sur les matériaux ou imposées par la réglementation (isolation thermique et phonique), les plans qui nous sont encore proposés aujourd'hui sont encore trop souvent de simples copier-coller de ce qui se réalisait déjà il y a plusieurs décennies. Il faut que les architectes imaginent sans tarder et que les promoteurs immobiliers acceptent d'investir dans un habitat qui s'adaptera facilement aux nouvelles technologies et nous préparent ainsi à de nouveaux modes de vie. S'ils ne prennent pas rapidement conscience de cette nécessaire remise en cause, tous les acteurs qui, traditionnellement, construisaient les cocons dans lesquels s'épanouissait le bonheur d'un foyer, vont abandonner leur belle mission à des ensembliers de systèmes qui feront éclore un nouveau type de vie qui, socialement, risque d'être beaucoup plus déséquilibré, donc source de conflits entre voisins. Par ailleurs, toujours pour remplir cette fonction sociale essentielle que doit assurer l'habitat, les constructeurs d'immeubles collectifs, surtout de type HLM, devraient systématiquement réserver une partie du rez-de-chaussée de leurs immeubles à des locaux collectifs libres d'accès, pour permettre aux personnes habitant l'immeuble de s'y rencontrer, apprendre à se connaître, faire ensemble des jeux, découvrir des nouveaux mondes grâce à Internet qu'ils n'auraient pas encore introduit dans leur appartement et même d'y organiser des fêtes. La violence est trop souvent fille de cet isolement lié à l'habitat collectif et les nouvelles approches sociales ayant souvent tendance à renforcer cet individualisme, il est essentiel, alors que les cafés ont totalement disparu de ces cités de nos banlieues, que nous sachions imaginer autrement les lieux de vie, surtout de ceux qui sont les moins nantis. Entre le début de cet éditorial et sa conclusion, j'ai tenu à vous faire ressentir le fossé béant qui, très rapidement, pourrait séparer dans un même pays, le nôtre, les “inforiches ” qui pourraient bénéficier de toutes les avancées promises par les nouvelles technologies et les “infopauvres ” dans nos banlieues qui n'auraient pour seul horizon que l'exclusion et la violence. Tous ceux qui ont un rôle à jouer pour édifier notre société de demain doivent sans tarder prendre conscience de cette fracture qui, sous nos yeux, se creuse de plus en plus rapidement.

René Trégouët

Sénateur du Rhône

(1) Ancien responsable du PARC( Palo Alto Research Center)

Site de Marc Weiser : http://www.ubiq.com/hypertext/weiser/vita3.htm


TIC
Information et Communication
Internet obéit à la voix de son maître...
Samedi, 26/02/2000 - 00:00

Fruit des travaux d'une jeune société lilloise, MakeWord est un programme qui permet aux développeurs Web de rendre leur site Web navigable par la voix. Les Webmasters doivent auparavant définir les liens vocaux pour chacune de leurs pages Web. Un fichier (.IAS) contenant ces liens est alors créé et associé à ces pages. L'internaute visitant le site devra télécharger un plug-in gratuit de 150 kB. Il pourra ensuite naviguer sur le site en lisant simplement à haute voix les liens du site. Seul un micro et une carte son lui seront nécessaires. A son arrivée sur le site, le plug-in télécharge le fichier .IAS et lance une fenêtre de navigation vocale. Ce logiciel fonctionne quel que soit la langue employée. Une fois achetée, la licence MakeWord est utilisable sur un nombre de sites illimité.

Transphère : http://www.technosphere.tm.fr/index.htm

50 Parlementaires européens s'unissent pour promouvoir la société de l'information
Samedi, 26/02/2000 - 00:00

Cinquante parlementaires européens viennent de créer, le 22 février dernier, un organe de réflexion baptisé European Internet Foundation. Leur but : rassembler les élus autour d'Internet, et réfléchir avec des entreprises associées, à l'avenir concret du réseau. Le service EIFOnline.org représente la "European Internet Foundation". Cet organisme à but non lucratif, est administré par les parlementaires européens et financé par des entreprises* associées. La Fondation se définit comme un organe ouvert à tous les parlementaires européens et à toutes les entités commerciales souhaitant faire avancer les politiques en rapport avec le réseau. A la fois lieu de réflexion, groupement d'intérêts, et force de proposition vis-à-vis du Parlement Européen, la Fondation se veut non partisane et politiquement équilibrée. Elle a vocation à réfléchir à propos de l'impact d'Internet sur les droits de l'homme, la liberté d'expression ou l'économie. Elle travaillera concrètement sur des dossiers, en rapport avec l'élimination des barrières douanières sur le commerce électronique, les règles de la concurrence dans l'Union Européenne, les droits du consommateur ou l'égalité d'accès des citoyens au réseau. La Fondation centrera ses activités sur l'organisation de débats et de réunions en collaboration avec les entreprises associées. A terme cette initiative devrait permettre de faciliter le débat sur la société de l'information avec tous les pays qui souhaitent coopérer avec l'Europe sur cette question.

European Internet Foundation : http://www.eifonline.org/new.htm

Un outil pour contrer les attaques informatiques
Samedi, 26/02/2000 - 00:00

Un programme qui permet de retrouver l'origine d'attaques informatiques telles que celles subies récemment par Yahoo, Amazon et quelques autres a été mis au point par un chercheur américain. Spécialisé en sécurité informatique à l'Université d'Etat de Caroline du Nord, Felix Wu travaille à la version finale d'un programme de remonter à la source des attaques dites déni de service (Denial of Service) qui ont, ces dernières semaines, bloqué les plus gros des sites Web commerciaux. Lors d'un déni de service des quantités énormes de paquets d'information sont envoyés qui finissent par créer un embouteillage. Si ces attaques sont aisément détectables, elles sont difficiles à contrer. "Nous connaissons l'existence d'attaques de déni de service depuis longtemps, 20 ans au moins, mais il semble que la mode se développe" déclare Felix Wu. Lors des attaques récentes, les pirates ont multiplié les effets de ces attaques en embrigadant à leur insu des dizaines d'ordinateurs esclaves, multipliant les effets de manière exponentielle. Déjà opérationnel en version de test, le programme développé par Felix Wu, avec le soutien de la Defense Advanced Research Agency, devrait disponible gratuitement d'ici un mois.

AFP : http://www.actualinfo.com/fr/multimedia/depeche.cfm?depeche_Index=225568&cat=69&...

http://shang.csc.ncsu.edu/

http://www.eecs.berkeley.edu/EE/Faculty.pages/wu.html

Une alliance pour protéger l'internet
Samedi, 26/02/2000 - 00:00

Après la grande réunion da la semaine dernière à la Maison Blanche, c'est au tour des fournisseurs d'accès Internet de présenter leur projet sécuritaire. L'Alliance for Internet Security regroupe une douzaine de FAI américains (Cable One, Sprint, Cable and Wireless, Road Runner entre autres) et deux associations spécialisées dans la sécurité des réseaux informatique, ICSA.net et Information Security Magazine. Leur but est de développer des parades contre les attaques denial-of-services et de convaincre d'autres partenaires de les rejoindre. Car, pour le moment, les membres de cette alliance semblent bien seuls, les plus gros FAI américains n'en faisant pas partie. Pas plus d'ailleurs que les sites qui ont été victimes d'attaques ou que les sociétés spécialisées dans la protection informatique. De plus, dans sa déclaration préalable, l'alliance ne met l'accent que sur ce type de danger là, occultant, volontairement ou pas, les risques liés aux intrusions ou aux virus. Autre point discutable, alors que ces attaques n'ont pénalisé financièrement que les sites concernés et dans une moindre mesure leurs fournisseurs d'hébergement, l'Alliance considère que toutes les entreprises sont concernées par cette menace. Elle engage donc toute société se sentant potentiellement en danger à la rejoindre. Encore faut-il que les candidats correspondent aux cinq critères fixés par l'alliance. Dans l'ordre, il s'agit de communiquer sur les éventuels problèmes de sécurité rencontrés, de s'assurer que son site est protégé efficacement par des pare-feu (firewalls) et des filtres, de faire du prosélytisme pour que d'autres sociétés rejoignent l'Alliance, aider les autres membres de l'Alliance à se protéger et enfin réfléchir à des solutions efficaces à long terme. Tout un programme tenant plus de l'idéologie que des mesures concrètes. Néanmoins, l'alliance propose quand même une solution pour empêcher théoriquement toute attaque : multiplier les routeurs de sites afin que seuls ces derniers soient victimes des attaques et pas les serveurs eux même.

Le Sénat étend le projet de loi aux ventes aux enchères sur l'internet
Samedi, 26/02/2000 - 00:00

Le Sénat a étendu le 23 février, en seconde lecture, le projet de loi sur les enchères publiques aux ventes sur l'internet, mesure que les députés avaient supprimé en première lecture. Les sénateurs ont adopté un amendement de la Commission des Lois qui prévoit "que les ventes volontaires de meubles aux enchères publiques réalisées à distance par voie électronique sont soumises aux dispositions de la présente loi". Ils avaient déjà adopté un amendement identique en première lecture. "Nul ne doit voir dans le silence du projet de loi initial, l'intention du gouvernement d'éluder cette question délicate mais il était important de ne pas figer le débat dès la première lecture", a souligné la Garde des Sceaux Elisabeth Guigou. Finalement, le Sénat a adopté le texte qui supprime le monopole des commissaires-priseurs en le modifiant sérieusement sur plusieurs autres points. Le projet de loi avait été examiné en première lecture au Sénat le 10 juin dernier et à l'Assemblée nationale le 22 décembre. Les sénateurs ont rétabli pour l'essentiel le texte qu'ils avaient adopté en première lecture en recherchant "une plus grande libéralisation et une simplification de l'organisation des ventes". Ils ont aussi amélioré l'indemnisation des commissaires-priseurs.

Sénat : http://www.senat.fr/pl/92-9900.pdf

Nokia lancera des écrans internet portables mi-2001
Samedi, 26/02/2000 - 00:00

Nokia, premier constructeur mondial de téléphones mobiles, annonce la création d'une filiale qui développera des écrans portables permettant de consulter internet. Le groupe finlandais veut ainsi étendre son offre internet au-delà du marché de la téléphonie. Les premiers appareils - qui offriront du contenu internet transmis grâce des réseaux locaux sans fil - devraient être mis sur le marché mi-2001, a déclaré à Reuters Jyri Rosenberg, porte-parole de Nokia Ventures, dont dépendra la nouvelle entité (baptisée Nokia Mobile Display Appliances). A terme, Nokia devrait lancer des modèles utilisant la norme Bluetooth, qui permet à des appareils numériques de communiquer à courte distance par ondes radio, a-t-il précisé. Ces écrans viendront renforcer la gamme de terminaux internet Nokia, en complément des téléphones mobiles vecteurs du web via la technologie WAP (Wireless Application Protocol). "Il ne s'agit pas ici de faire un internet de poche, mais d'apporter l'internet des micro-ordinateurs vers le salon ou la cuisine", a expliqué Rosenberg.

Reuters : http://fr.news.yahoo.com/000222/32/91wa.html

Pour l'Internet, en voiture !
Samedi, 26/02/2000 - 00:00

Consulter la météo, les informations routières ou réserver une place de théâtre depuis sa voiture lancée en pleine autoroute, voilà ce que nous préparent plusieurs géants de l'industrie, avec la bénédiction de la Commission européenne. En effet, celle-ci finance depuis la fin de l'année 1999 le projet "Car Multimedia Platform", qui réunit notamment les centres de recherche de France Télécom, Deutsche Telekom, Nokia, BMW, etc. Le but : faire mûrir une technologie sans fil adaptée aux transports avec l'espoir de donner naissance à de vrais services interactifs pour le conducteur ou les passagers. Des prototypes existent déjà. La plupart d'entre eux font appel à la technologie de télévision numérique terrestre DVBT (digital video broadcasting terrestrial). Pourquoi ? Parce qu'elle offre de bien meilleurs débits que le GSM ou le GPRS. A titre d'exemple, un canal TV peut actuellement transmettre des informations à 5 à 10 Mbits/s, contre une centaine de Kbits/s au maximum pour le GPRS. Actuellement, les efforts encouragés par la Commission européenne concernent la standardisation des techniques de télévision numérique, appliquée à l'Internet mobile et aux transports. La technologie doit encore progresser, par exemple pour garantir la qualité du service. La communication ne doit pas être coupée lorsque le véhicule change de zone de transmission. Les piétons et les conducteurs (imprudents) qui utilisent un mobile GSM le savent, le cas est résolu depuis longtemps pour la téléphonie sans fil classique. Mais la vitesse ne semble pas poser trop de problèmes pour l'Internet sous DVBT. "A Rennes, nous avons une cellule qui conserve la diffusion dans les mobiles jusqu'à 440 km/h", explique Jean-Yves Savary. A signaler que la technologie de radio numérique DAB est aussi en lice, même si ses débits sont inférieurs (de l'ordre de 1 Mbits/s). Pour en finir avec les tuyaux, il faut savoir que ces technologies concernent la réception de données. Pour les courtes séquences d'émission (upload) qui apportent la réelle interactivité (comme le clic sur un lien ou le lancement d'une requête sur une moteur de recherche), on couple le système au GSM ou au GPRS, actuellement en pleine effervescence

Vunet : http://www.vnunet.fr/VNU2/index.htm

Microsoft veut imposer Windows 2000 face à Linux
Samedi, 26/02/2000 - 00:00

Devant le public nombreux et conquis d'avance du Bill Graham Auditorium de San Francisco, Bill Gates, le fondateur de Microsoft, a présenté officiellement Windows 2000 le 17 février devant le public nombreux et conquis d'avance du Bill Graham Auditorium de San Francisco. Il s'agit du projet le plus ambitieux et le plus coûteux jamais réalisé par le numéro un mondial du logiciel. Lancé avec plusieurs mois de retard pour en éliminer les derniers défauts, Windows 2000 se veut tout à la fois beaucoup plus fiable, flexible et adapté à Internet que ne l'était son prédécesseur, Windows NT. A l'oeil du profane pourtant, peu de choses distinguent la nouvelle famille de système d'exploitation, destinée aux utilisateurs professionnels, de la précédente : un nouveau logo, des icônes redessinées, des fenêtres à l'apparence identique. Mais, sous un capot ressemblant, le moteur, entièrement nouveau, est le produit d'un effort sans précédent. Travail titanesque. Quelque 5.000 ingénieurs ont travaillé depuis plus de trois ans à la conception et à la réalisation de Windows 2000, un monument de 35 millions de lignes de code, du jamais vu. 750.000 " testeurs " recrutés parmi les clients de Microsoft sur trois continents servent de cobayes depuis des mois, et plus de 100.000 développeurs de logiciels ont apporté leur pierre à l'édifice. Estimation officieuse de la facture : 1 milliard de dollars. Microsoft ne confirme pas ce chiffre. Si ce montant est sujet à caution, Bill Gates, quoi qu'il en soit, joue très gros pour sa première prestation officielle d'" architecte en chef des logiciels " de Microsoft le titre qu'il s'est lui-même attribué le 13 janvier, confiant à son fidèle lieutenant Steve Ballmer la gestion quotidienne du groupe de Redmond, dans l'Etat de Washington. En effet, si la plate-forme Windows règne encore sans partage sur le marché des utilisateurs personnels de PC, son emprise sur le marché professionnel, et en particulier sur celui des serveurs qui permettent le tri et les échanges de données, est beaucoup moins hégémonique. Selon une étude publiée au début de février par International Data Corp (IDC), la part de marché de Windows NT pour les systèmes d'exploitation serveurs était de 38 % en 1999, soit au même niveau qu'en 1998. Pendant ce temps, la concurrence s'installe, à commencer par la plate-forme Linux, qui a doublé sa part de marché, à 25 %, en un an. Le système d'exploitation mis au point en 1991 par le Finlandais Linus Torvalds est à la fois gratuit et " ouvert " son code de fabrication est accessible aux programmeurs qui peuvent le modifier et l'adapter à leur utilisation. Chez Microsoft, c'est l'inverse : il faut payer cher un produit non modifiable. " C'est un modèle totalement dépassé ", assène Bob Young, PDG de Red-Hat, l'un des principaux distributeurs de produits et services Linux. Pour lui, Linux est en passe de détrôner Windows : " Mais la concurrence n'est pas le seul problème de Bill Gates, ni même, pour l'heure, le plus urgent. Avec Windows NT " Microsoft gagne plus d'argent tous les matins avant la pause-café que tous les fournisseurs de Linux réunis en un an ", résume Dan Kusnetzky, l'auteur de l'étude d'IDC. Le premier pari de Microsoft consiste à faire en sorte que le produit soit irréprochable. Or, c'est encore loin d'être le cas. Symbole de reconquête. Après une année 1999 éprouvante, marquée par le procès antitrust intenté par le gouvernement fédéral et plusieurs Etats américains contre la firme de Redmond, le lancement planétaire de Windows 2000 il coûterait la bagatelle de 200 millions de dollars doit constituer le premier symbole de la reconquête, en attendant, au second semestre, Windows Me, le nouveau produit grand public.

La réalité virtuelle révolutionne la conception des bâtiments
Samedi, 26/02/2000 - 00:00

La réalité virtuelle va révolutionner le travail des architectes: non seulement elle sait représenter en 3D un futur bâtiment mais peut même prévoir son ambiance intérieure, en simulant le fond sonore, la répartition de la lumière ou la circulation de la chaleur. Le CSTB (Centre scientifique et technique du bâtiment), l'un des meilleurs centres européens de recherche dans la construction, consacre maintenant 25 % de ses travaux à la simulation, a expliqué à l'AFP Jacques Rilling, directeur de la recherche et du développement du CSTB. "Nous pouvons simuler très finement la réalité, avec des images d'une qualité photographique, par exemple pour visualiser l'éclairage des ponts de Paris avant les festivités de l'an 2000", a expliqué M. Rilling. "Notre seule limite est la technologie des écrans, qui ne sont pas assez lumineux. Par exemple ils ne savent pas éblouir, comme le soleil dans une pièce". Autre innovation majeure, la simulation acoustique. "Avec quelques hauts-parleurs, nous pouvons reproduire une perception acoustique qui tient compte de l'effet d'oreille -- par sa forme, l'oreille humaine sait situer l'origine d'un son -- d'où un relief sonore très proche de la réalité, y compris en reproduisant l'impact de l'environnement extérieur du bâtiment". La CSTB a conçu un fauteuil muni de deux hauts parleurs qui restitue l'ambiance d'une pièce, avec un réalisme très supérieur au cinéma. L'ambiance sonore et lumineuse fournit une réalité virtuelle dite "augmentée", c'est-à-dire très au-delà d'une simple maquette en trois dimensions. Reste encore le toucher et l'odorat: le CSTB réfléchit à restituer la sensation de différents matériaux, avec peut-être un "retour tactile", ou encore à reproduire les odeurs d'une habitation. Ces outils de simulation peuvent être à double tranchant. Ainsi plus question des jolis dessins ensoleillés que les promoteurs présentent à leurs clients: la réalité virtuelle pourra représenter l'appartement par tous les temps, avec la luminosité de chaque pièce.

AFP : http://fr.news.yahoo.com/000221/1/90yn.html

L'internet, eldorado des jeux vidéo
Samedi, 26/02/2000 - 00:00

Lorsqu'ils se projettent dans le futur, les éditeurs de jeux vidéo voient des clients partout. Aux arrêts de bus comme dans les avions ou devant leurs postes de télévision. Ils jouent seuls, en famille ou en réseau grâce à l'Internet. La cour de récréation qui est en train de se dessiner n'est plus limitée par aucune barrière physique. Déjà, l'an dernier, les éditeurs de jeux avaient crevé le plafond en réalisant un chiffre d'affaires de 17 milliards de dollars, dépassant celui des salles de cinéma. Au Milia, le marché international du multimédia où ils étaient réunis la semaine dernière à Cannes, les éditeurs n'avaient que le mot "réseau" à la bouche. Personne ne mesure encore trop la nature et le poids des bouleversements amenés par l'Internet. Mais tous s'y préparent, à commencer par les Français, qui contrôlent un tiers du marché mondial. A toutes fins utiles, ils créent des sites, ouvrent des portails de jeux. Les statistiques le prouvent: les sites de jeux sont parmi les plus fréquentés sur l'Internet. Aujourd'hui, leur expansion ne serait entravée que par des problèmes de circulation. "Dès que ces questions de tuyaux (la largeur des bandes passantes, ndlr) seront résolues, les jeux exploseront sur l'Internet", prédit Patrick Melchior, dont la société a créé la belle Lara Croft. Dans deux ans, estime Havas Interactive, le nombre de joueurs en ligne aura, sinon quadruplé, du moins triplé. Reste à inventer le business model qui permette à cette industrie dont les coûts de développement sont de plus en plus lourds de rentrer dans ses frais. Il est vrai que ces consoles - dont la puissance est multipliée par dix tous les quatre ans - sont en train de devenir des machines à tout faire. A jouer certes, mais aussi et surtout, puisque c'est désormais l'essentiel, à se connecter à l'Internet.

Libération : http://www.liberation.com/quotidien/semaine/20000221lunv.html

^ Haut
Avenir
Nanotechnologies et Robotique
Un capteur de gaz ultra-sensible grâce aux nanotubes
Samedi, 26/02/2000 - 00:00

Un nouveau développement dans l'utilisation des nanotubes vient d'être mis au point par des chercheurs de Stanford: des capteurs ultrasensibles pour la détection de très faible quantité de gaz toxique. La surveillance des gaz et de polluants tels que l'ammoniac ou le dioxyde de nitrogène est la clé de la protection de l'environnement, du contrôle des process chimiques, ainsi que de la maîtrise des missions spatiales. Mais les capteurs utilises jusque-la étaient bien loin de la miniaturisation. Plus problématique, ils ne fonctionnaient qu'a de relativement hautes températures. La résistance électrique de chaque nanotube, d'après les résultats des chercheurs de Stanford, change de façon significative, en seulement quelques secondes d'exposition a l'ammoniac ou au dioxyde de nitrogène, a température ambiante. Le temps de réponse est donc très rapide et de plus la sensibilité des nanotubes est très largement supérieure a celle des capteurs traditionnels a température ambiante. A titre d'exemple, des nanotubes a paroi unique soumis a flux de 1% d'ammoniac réagissent en moins de deux minutes, et avec une division par 100 de leur conductance, alors que pour des conditions équivalentes, il faut entre 5 et 10 minutes pour un capteur classique en polymère qui ne verra, lui, diminuer sa conductance que de 30%.

Lettre Matériaux : http://www.france-science.org

Contact: Hongjie Dai, Dept. of Chemistry, Stanford University, Stanford, CA

94805 ; Telephone : (650) 723-4518 ; Fax: (650) 725-0529 ; E-mail:

hdai@chem.stanford.edu

^ Haut
Matière
Matière et Energie
Intel sort un microprocesseur à 1,5 gigahertz
Samedi, 26/02/2000 - 00:00

A l'occasion de l'Intel Developers Forum à Palm Springs, le géant de Santa Clara a présenté un microprocesseur fonctionnant à 1,5 GHz, 2 fois plus rapide que le plus rapide de ses processeurs 32 bits. Cette puce, dont le nom de code est Willamette, ne nécessite aucun système de refroidissement spécifique et permet à Intel de reprendre la tête face à Advanced Micro Devices (AMD) dans la compétition effrénée à la puissance que se livrent les deux firmes. Intel a promis que le Willamette serait disponible à plusieurs centaines de milliers d'exemplaires d'ici la fin de l'année. Devant les interrogations de nombreux observateurs quant à la nécessité de tels monstres de puissance pour le grand public, le PDG d'Intel, Andy Grove, affirme que la complexité grandissante d'Internet et les nouvelles applications vidéo sur le Net vont nécessiter cette puissance accrue.

Brève rédigée par @RTflash

Bloomberg : http://www.bloomberg.com/bbn/technology.html




Mini disque dur pour méga capacité
Samedi, 26/02/2000 - 00:00

Quinze centimètres sur neuf : le plus petit disque dur au monde est à peine plus grand qu'un Palm Pilot. Et pourtant, il contient de 6 à 18 Go de données... Distribué par LaCie, société française, il s'adresse en premier lieu au marché japonais, toujours en quête de gain de place, mais aussi au créateur de contenu numérique et à l'homme d'affaire pressé... Une démo Powerpoint à faire à un client ? Plus la peine de s'encombrer de son ordinateur portable. Il suffit de sortir son disque dur de sa poche et de le brancher sur l'ordinateur de son hôte. Car le PocketDrive n'est pas plug and play, il est carrément hot-plug, c'est-à-dire qu'il est immédiatement reconnu par la machine sur laquelle on le branche. Même pas besoin de redémarrer.

Transfert : http://www.transfert.net/breves/b0395.htm

^ Haut
Espace
Espace et Cosmologie
La Terre a sa carte en relief haute résolution
Samedi, 26/02/2000 - 00:00

Fin de mission tranquille pour la navette spatiale Endeavour, malgré le report d'une heure et demie de son atterrissage pour cause de mauvais temps. Partie le 11 février pour dresser une carte numérique et en relief des continents, Endeavour a entamé son retour en pénétrant l'atmosphère à 27 000 km/h, pour toucher la piste du centre spatial Kennedy, à Cap Canaveral (Floride), mardi à 23 h 22 GMT, à plus de 480 km/h, au terme d'un vol plané parfait. Durant tout le vol, l'équipage de six hommes, dont un Japonais et un Allemand, n'a pas eu à sortir d'une routine bien réglée, surveillant jour et nuit les radars jumeaux de la navette - un radar dans la soute et un autre au bout d'un mât de 60 mètres de long. Leur mission, passer au peigne fin le relief terrestre en utilisant l'interférométrie, une technologie qui permet, en enregistrant l'écho radar d'un même lieu vu de deux points différents, d'obtenir directement l'altitude de chaque point du paysage en analysant les "franges d'interférence" qui apparaissent lorsque l'on superpose les deux images. Au total, la carte numérique obtenue couvre 123 millions de kilomètres carrés, soit plus de 80 % des terres émergées. Il faudra toutefois entre deux et trois ans de travail aux ingénieurs pour transformer en cartes 3D, conservés sur fichiers informatiques, les mille milliards de points de mesure effectués par les radars. Un travail de patience, qui sera effectué par la Nima, l'agence d'imagerie et de cartographie du Pentagone, qui a financé plus de la moitié des 2,3 milliards de francs de la mission d'Endeavour, dont le résultat sera réservé aux militaires américains. Sa précision extraordinaire pour une carte globale de la planète - avec, tous les trente mètres, un point dont l'altitude sera connue à six mètres près - permet en effet une utilisation militaire opérationnelle. Tant pour préparer en simulateur de vol une mission de bombardement que pour guider un missile vers sa cible, en suivant de très près le relief, évitant ainsi les radars ennemis. La Nasa, de son côté, a promis de rendre publique une carte de moins bonne résolution, trois fois moins précise, dont les usages civils sont très nombreux... surtout pour les pays du tiers monde qui, à l'inverse de l'Europe occidentale, ne possèdent pas, et de loin, de cartographie de leur relief de cette qualité. Pour la carte à haute résolution, tout espoir n'est pas perdu: l'Agence spatiale devrait s'entendre avec la Nima pour octroyer aux scientifiques - au cas par cas et lorsque les lieux n'offrent pas d'intérêt militaire - un accès à la carte du Pentagone.

Libération : http://www.liberation.com/quotidien/semaine/20000224jeuza.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Améliorer la prévision des phénomènes météorologiques violents en montagne
Samedi, 26/02/2000 - 00:00

La campagne internationale de mesures intensives du Mesoscale Alpine Programme (MAP), destinée à améliorer la prévision des phénomènes météorologiques violents en montagne à laquelle le CNRS et Météo-France ont participé activement, s'est achevée fin 1999. L'objectif fixé par le programme MAP avant la campagne expérimentale, était d'atteindre, en matière de prévision météorologique en terrain montagneux, une précision géographique de l'ordre de la dizaine de kilomètres, avec une anticipation de l'ordre de 12 à 24 heures. A ce jour, les premiers résultats des 17 périodes d'observations intensives réalisées sur le massif alpin semblent concluants. L'exploitation des mesures collectées devrait permettre d'ici deux ou trois ans d'émettre des recommandations. Les périodes d'observations réalisées ont permis d'expérimenter de nouveaux moyens de mesure et d'acquérir des données nombreuses et de qualité. S'inscrivant toujours dans un objectif de prévision et de prévention des inondations, la région du Lac Majeur a été le lieu de mesures hydrologiques. Quantifiant l'humidité du sol, les échanges d'eau entre le sol et l'atmosphère, les précipitations et les débits, ces données ont permis d'initialiser plusieurs modèles hydrologiques numériques. Les résultats obtenus en mode prévision ont reproduit assez fidèlement les situations observées. Survolant le Golfe de Gênes, l'avion français ARAT équipé du lidar Léandre devait caractériser le flux qui alimente en air instable les systèmes précipitants sur les Alpes. L'étude du sillage alpin, scruté par les avions français et américains, a confirmé l'existence d'une transition brutale entre la zone de Mistral où le vent atteint 30 m/s, et la zone protégée par l'effet d'abri des Alpes où le vent est faible. Les tourbillons qui en découlent ont leur importance car ils peuvent influer sur l'évolution météorologique en aval des Alpes. La structure tridimensionnelle de cette zone donnera certainement lieu à des simulations numériques. L'expérience de terrain a également débouché sur l'élaboration de nouveaux outils permettant de mieux appréhender les phénomènes observés. Cela a été le cas d'une carte composite combinant les données des radars météorologiques de l'ensemble des pays du massif alpin. La réalisation la plus spectaculaire a été la réalisation d'une mini-chaîne de prévision numérique à très haute résolution, préfigurant la future génération de modèles pour la prévision du temps. Un premier bilan scientifique des avancées permises par cette fructueuse moisson de données est envisageable fin 2000. Grâce à ces recherches il devrait être possible dans un avenir proche, 2 ou 3 ans, de mieux prévoir des catastrophes telles que celles que l'Aude a connues en novembre dernier.

CNRS : http://www.cnrs.fr/Cnrspresse/n381a7.htm

Un dossier pour comprendre les catastrophes climatiques
Samedi, 26/02/2000 - 00:00

Deux chocs brutaux en moins de trois mois ont surpris et ébranlé la France : des pluies violentes provoquant une inondation gigantesque dans le Midi - 35 victimes et toute une région sinistrée - mi-novembre 99, deux tempêtes successives, les 26 et 27 décembre 99, qui ont fait 88 morts et sans doute près de 50 milliards de francs de dégâts. En même temps, à l'autre bout de la planète, le Venezuela a été dévasté par des inondations et des glissements de terrain qui ont fait des dizaines de milliers de morts et des millions de dollars de dégâts. Sans oublier les ouragans et cyclones qui ont ravagé l'Amérique Latine en 98. Mais qu'arrive-t-il donc à notre planète ? Le climat aurait-il perdu le nord ? Pour mieux comprendre ces phénomènes dévastateurs mais complexes Webencyclo propose un dossier complet.

Webencyclo : http://www.webencyclo.com/dossiers/default.asp

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
As-tu bien pris ton comprimé d'appareil-photo ?
Samedi, 26/02/2000 - 00:00

Des chercheurs anglais travaillent actuellement sur la mise au point d'un micro-appareil-photo de la taille d'une gélule qui d'ici 3 ans pourrait explorer l'intestin et y rechercher des lésions ou tumeurs. De la taille d'une minuscule capsule (15mm de long) ce dispositif contiendra une puce qui fonctionne comme un appareil-photo, produisant les images qui seraient transmises directement à un ordinateur. Les médecins pourraient alors, à l'aide de ces images d'une précision incomparable, établir des diagnostics rapides et précis pour leurs patients. La capsule utilisera la technologie développée par la NASA pour mesurer la température à l'intérieur des corps des astronautes. A terme, elle pourrait remplacer les endoscopes traditionnellement employés par des médecins pour explorer l'intestin de leurs patients. Le Docteur David Cumming, spécialiste en électronique à l'Université de Glasgow, précise que cette capsule "sera suffisamment petite pour être avalée sans problème par n'importe quel patient." Il ajoute que cette technique représentera "un grand progrès pour les personnes ou groupes isolés vivant loin de toutes structures sanitaires ou hospitalières." Le docteur Cumming a indiqué que cette technologie pourrait par la suite être employée pour permettre un télédiagnostic par satellite ou par internet.

Brève rédigée par @RTFlash

BBC News/21-02-2000 : http://news.bbc.co.uk/hi/english/health/newsid_651000/651014.stm

Vieillissement cellulaire : le métabolisme énergétique encore mis en cause
Samedi, 26/02/2000 - 00:00

Un lien moléculaire direct vient d'être établi entre le vieillissement et le métabolisme cellulaire. Une protéine (Sir2), aurait la faculté de protéger certaines parties des chromosomes lorsque les processus de transformation des aliments en énergie sont ralentis. On considère que les dommages cellulaires responsables du vieillissement sont dus, en partie, à des molécules toxiques générées par des sous-produits de la respiration (radicaux libres, ions superoxide). La synthèse de ces sous-produits est d'autant plus élevée que la chaîne respiratoire est active, ce qui correspond à une prise massive de calories. Ainsi, un régime hypo-énérgétique ralentirait la formation des métabolites très réactifs. Selon des travaux publiés dans le numéro de Nature du 17 février, un autre mécanisme expliquerait le ralentissement du vieillissement lorsque la "charge énergétique" reste faible. Des chercheurs du Massachusetts Institute of Technology ont identifiés, chez la levure, une protéine (Sir 2) qui protégerait les cellules d'un vieillissement prématuré dans ces conditions. La protéine Sir2 est indispensable à la mitose. Les levures qui en sont dépourvues ne peuvent se multiplier. De plus, lorsque Sir2 est synthétisée en excès, les cellules se divisent un plus grand nombre de fois. Pour assurer sa catalyse enzymatique, Sir2 requière un cofacteur : le NAD (nicotinamide dinucléotide). Le NAD constitue le lien entre les propriétés protectrices de Sir2 et le métabolisme énergétique. En effet, le NAD est indispensable à l'oxydation des nutriments lors de la respiration. Au cours de ce processus il est transformé en NADH+ qui va permettre la synthèse d'énergie cellulaire sous forme d'ATP (adénosine triphosphate). Ces travaux ont mis en évidence un lien direct entre la protection du génome, le vieillissement cellulaire et le métabolisme énergétique. Bien que ces résultats concernent la levure, les auteurs indiquent que des mécanismes cellulaires comparables pourraient être identifiés chez des eucaryotes supérieurs tel que l'homme.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=338

Nature du 17-02-2000 : http://www.nature.com/server-java/Propub/nature/403795A0.abs_frameset

Deux thérapies géniques à l'essai pour retarder les greffes du foie
Samedi, 26/02/2000 - 00:00

Deux études scientifiques, l'une japonaise, l'autre américaine, révèlent que deux thérapies géniques, l'une pour multiplier les cellules du foie et l'autre pour prolonger leur vie, ont été essayées avec succès en laboratoire et pourraient permettre aux malades d'attendre une greffe de cet organe. Une équipe de l'université d'Okayama (au Japon), a réussi à multiplier en très grand nombre des hépatocytes, des cellules du foie qui manquent en cas d'insuffisance hépatique. Les chercheurs, dirigés par le Pr. Naoya Kobayashi, ont réussi à produire des hépatocytes de rat avec un gène commandant leur multiplication. Les cellules ont alors doublé leur nombre toutes les 48 heures. Une seconde équipe, dirigée par le Pr. Ronald DePinho de l'Institut du Cancer Dana-Faber (USA), a pu agir sur les télomères, ces capsules qui protègent le bout des chromosomes. Ils se sont rendus compte que les souris possédant des télomères anormalement courts souffraient de cirrhose à la suite d'atteintes au foie. Ils ont donc administré à ces souris un gène restaurant la fonction de la télomérase, un enzyme fabriquant les télomères, ce qui a protégé les souris de la cirrhose. Cette thérapie, selon les chercheurs, permettrait de retarder la progression de la maladie chez l'homme. Mais le Dr Michael Hagmann souligne que le chemin sera encore long et difficile avant de passer à l'expérimentation sur l'homme. Il rappelle qu'aux Etats-Unis quelque 20 millions de personnes souffrent d'une maladie du foie et que plus de 40.000 en meurent chaque année.

Brève rédigée par @RTFlash

New York Times :

_ http://www.nytimes.com/library/national/science/health/021800hth-liver-cirrhosis...

La Belgique soigne à distance
Samedi, 26/02/2000 - 00:00

Améliorer la qualité de vie et le traitement des malades, en transposant sur Terre les techniques utilisées dans l'espace pour les astronautes. Avec cette idée pratique, un projet pilote est développé à Bruxelles, avec un cocktail de solutions technologiques, thérapeutiques et scientifiques. Il s'agit du suivi et de l'assistance médicaux de patients à domicile, via Internet. Pour développer ce créneau de télémédecine à l'échelle humaine, trois entités travaillent en collaboration : l'hôpital Erasme, l'Université libre de Bruxelles et la firme belge Spacebel Informatique. Les bénéficiaires de cette expérience sont des transplantés pulmonaires et des personnes souffrant d'insuffisance respiratoire chronique ou d'asthme. " La médecine et les hommes ont beaucoup investi pour des patients aussi fragiles, explique le docteur Marc Estenne, responsable de ce programme à l'hôpital Erasme. Surtout dans les trois premiers mois après l'intervention, période où le poumon transplanté est très sensible au rejet. "Grâce à un spiromètre électronique portable, les patients échantillonnent quotidiennement leur fonction respiratoire. A la fin de la journée, ils connectent l'appareil de mesure au serveur de communication : un mécanisme de type Internet avec encryptage des données relié automatiquement vers l'hôpital. Au moment de la configuration du système, des clés sont attribuées au patient. Elles garantissent non seulement la confidentialité, mais aussi l'authentification des informations, une technologie assimilée au réseau santé social français. Le système est complètement transparent aux utilisateurs. Ils peuvent aussi bien se servir d'un ordinateur que d'une console de jeux branchée sur la télévision. Les fonctionnalités des appareils médicaux sont particulièrement limitées et extrêmement conviviales. Elles sont quasi automatiques et protégées contre les fausses manoeuvres afin d'optimiser les résultats. En fonction des données reçues grâce à un logiciel d'analyse, le médecin peut alors décider de modifier la configuration de l'instrument, le traitement du patient ou de demander à celui-ci de se rendre à l'hôpital. Toutes les informations des patients sont stockées et mises à la disposition des chercheurs de l'Université libre de Bruxelles. Le projet est financé par les services fédéraux belges des affaires scientifiques, techniques et culturelles belges à un niveau d'environ deux millions de francs français. Sa réussite a validé le concept. Et ses responsables parlent désormais d'étendre les domaines d'application en cardiologie, d'améliorer le suivi des diabétiques ou encore l'examen des apnées du sommeil.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2060-43419-MIA,00.html

La super-aspirine va être expérimentée en France
Samedi, 26/02/2000 - 00:00

NicOx S.A. annonce le début d'une nouvelle étude de Phase I, chez des volontaires sains, de son candidat médicament, le NCX 4016. Cet essai sera réalisé en France, à Grenoble. Le NCX 4016, dérivé nitré de l'aspirine, déjà testé avec succès chez l'Homme et ayant démontré une excellente tolérabilité entre maintenant en développement clinique avec une nouvelle formulation orale, sous forme de capsule. L'étude clinique, réalisée chez 24 volontaires, permettra de comparer 3 formulations différentes du NCX 4016 à l'aspirine. Cet essai fournira également des données préliminaires de pharmacodynamie telles que l'inhibition de l'agrégation plaquettaire et du thromboxane B2. Les travaux pré-cliniques réalisés avec le NCX 4016 ont montré que cette molécule possède une excellente tolérance gastrique ainsi qu'une activité antithrombotique supérieures à celles de l'aspirine. De plus, et contrairement à l'aspirine, le NCX 4016 exerce des effets protecteurs dans des modèles d'infarctus du myocarde. Dans les domaines de la douleur et de l'inflammation chez l'animal, la NO-aspirine s'est révélée plus puissante que l'aspirine. L'objectif de NicOx est de faire de la NO-aspirine, le nouveau produit de référence dans le traitement de la douleur et dans la prévention des troubles cardio-vasculaires.

L'exercice physique est bénéfique pour les patients ayant une maladie artérielle coronaire
Samedi, 26/02/2000 - 00:00

L'exercice améliore la vasodilatation endothélium-dépendante à la fois au niveau des artères de l'épicarde coronaire et dans les vaisseaux de résistance chez les patients souffrant de troubles coronariens, révèle une étude allemande, publiée dans le New England Journal of Medicine, réalisée sur 19 patients présentant une dysfonction endothéliale coronaraire, définie comme une vasoconstriction anormale après acétylcholine. Après 4 semaines d'exercice, la vasoconstiction coronaire en réponse à l'acétylcholine à une dose de 7,2 microgramme/min par minute avait diminué de 54 % et la réserve sanguine avait augmenté de 29 %.Ce résultat fournit un cadre physiopathologique pour la compréhension des effets positifs de l'exercice physique sur la perfusion myocardique et souligne la valeur thérapeutique de l'entraînement chez des patients présentant une maladie artérielle coronaire stable.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=346

Le mécanisme de déplacement des cellules décrypté
Samedi, 26/02/2000 - 00:00

Pourquoi et comment une cellule se dirige vers une autre cellule, sa cible en quelque sorte, c'est ce mécanisme que des chercheurs américains de l'institut John Hopkins ont mis au jour. C'est l'accumulation de certaines protéines en un point précis qui permet aux cellules de se diriger. Lorsqu'une cellule A veut attirer une cellule B, elle dégage certaines molécules qui vont trouver B. Ces molécules créent autour de la cellule B une sorte de pellicule qui lui permet de se diriger vers A. Les molécules entourant la cellule cible provoqueraient des modifications sur un point particulier de B qui serait le point directionnel. Ce mécanisme de chimiotactisme, par lequel des cellules sont attirées ou repoussées, pourrait être le moyen de nouveaux traitements. Selon les chercheurs de John Hopkins, en encourageant ou en empêchant le mécanisme, on pourrait faciliter la cicatrisation des plaies, améliorer le traitement contre le cancer en ralentissant la création de vaisseaux sanguins, ou encore limiter les inflammations.

Sciences&Avenir : http://quotidien.sciencesetavenir.com/sci_20000211.OBS1990.html

Une nouvelle méthode de détection des cancers
Samedi, 26/02/2000 - 00:00

Des chercheurs américains basés à San Diego, en Californie, ont développé, chez la souris, un système d'imagerie par fluorescence qui permet la détection de tumeurs cancéreuses à un stade précoce. Cette technique, non invasive, permet de suivre en temps réel la croissance et la localisation de cellules cancéreuses porteuses d'un gène qui commande la production d' une protéine fluorescente (Green Fluorescent Protein ). Les techniques classiques d'imagerie (radiographie, IRM, échographie) ne permettent pas toujours la détection des tumeurs au début de leur développement. Meng Yang et ses collaborateurs indiquent avoir réussi à suivre le développement de tumeurs cancéreuses chez la souris grâce à une technique de détection de fluorescence. Pour ce faire, les chercheurs ont introduit chez des souris des cellules cancéreuse porteuses du gène de la GFP. La GFP, issue d'une méduse, est une protéine qui émet une fluorescence verte lorsqu'elle est excitée par une lumière bleue. Grâce à une caméra spéciale, ils ont pu visualiser les cellules cancéreuses présentes dans le corps des souris simplement en les éclairant d'une lumière bleue. Cependant la détection de la fluorescence dépend de la taille de la tumeur et de sa localisation dans le corps (les tumeurs localisée en profondeur étant plus difficiles à visualiser). , les scientifiques précisent que cette technique, simple et non invasive, pourrait faciliter l'étude de molécules anticancéreuses en suivant de manière très fine le développement de tumeurs et la formation de métastases.

Brève rédigée par @RTFlash

Los Angeles Times : http://www.latimes.com/news/health/

Sida: une thérapie génique permet de bloquer la multiplication du virus
Samedi, 26/02/2000 - 00:00

Une thérapie génique menée aux USA a permis d'empêcher la multiplication du virus de l'immunodéficience humaine (VIH) dans des cellules cultivées en laboratoire. Les résultats de cette étude, conduite à l'Hôpital des Enfants de Philadelphie (Pennsylvanie), montre qu'il est possible de t garder les personnes infectées par le VIH exemptes de tout symptôme de la maladie. Les chercheurs ont inséré un gène particulier dans des cellules CD4+ du système immunitaire d'un homme infecté par le VIH et ont constaté que le virus ne se multipliait plus dans ces cellules. Bloquer la réplication ne fait pas disparaître le virus mais permet d'empêcher le déclenchement de la maladie. L'équipe du Pr. Ho a profité du fait qu'un gène du VIH, appelé "tat", est essentiel pour sa reproduction. Elle a alors conçu un gène anti tat bloquant le fonctionnement du gène tat et empêchant donc la multiplication du virus. Le gène anti tat a également permis de prolonger la vie des cellules CD4+, éléments essentiels du système immunitaire et principales cibles du VIH, ont noté les chercheurs. Cette technique, qui doit encore faire ses preuves in vivo chez l'homme, pourrait être utilisée en complément de tri ou quadrithérapies.

Brève rédigée par @RTFlash

BBC News/20-02-2000 : http://news2.thls.bbc.co.uk/hi/english/health/newsid%5F647000/647820.stm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Il y a deux siècles Volta inventait la pile électrique
Samedi, 26/02/2000 - 00:00

Postes radio, télécommandes, téléphones mobiles... Tous ces appareils des temps modernes ne fonctionnent que grâce à une seule chose : une batterie. Et pour cela, il faut remercier Alessandro Volta. Ce célèbre physicien italien est en effet le père de la pile voltaïque, premier générateur de courant continu. Né le 18 février 1745 à Côme, le jeune Volta est rapidement attiré par la physique. Il compose même un poème en l'honneur des découvertes les plus importantes dans ce domaine. Ses deux premiers mémoires, De vi attractiva ignis electrici (1769) et De modo constrendi novam machinam electricam (1771) lui permettent d'obtenir, en 1774, la chaire de physique à l'Ecole royale de Côme. C'est là que ses recherches sur l'électricité vont réellement prendre leur essor. Dès l'année suivante, il invente l'électrophore. L'appareil consiste en une plaque de métal placée sur une base isolante et qui peut être chargée. Une poignée, également isolante, permet de transporter la charge vers un autre appareil. Suivront l'électroscope condensateur et l'eudiomètre, qui sert à l'analyse quantitative des mélanges gazeux. Après un voyage en Suisse où il rencontre le physiologiste Haller, Voltaire ou encore le géologue Bénédict de Saussure, Allessandro Volta est nommé professeur à l'université de Pavie. Son prestige est tel qu'il attire de nombreux étudiants. Poursuivant ses recherches, il découvre aux environs de 1780 la relation quantitative entre la charge, la capacité et le potentiel. Mais c'est plus de dix ans plus tard que les événements vont le conduire sur la voie de la pile. En 1791, Luigi Galvani publie De Viribus Electricitatis in motu musculari commentarius. Il y expose le résultat de ses propres travaux sur les phénomènes électriques dans les organismes vivants. En particulier, il pense que les nerfs et les muscles des animaux contiennent un fluide, proche du fluide électrique. Volta s'intéresse alors à ce phénomène et tente de reproduire les expériences. D'abord en accord avec les conclusions de Galvani sur "l'électricité animale", il change vite d'avis et attribue les mouvements de la grenouille à l'électricité qui passe dans la tige. En effet, il découvre que ces saccades ne peuvent être produites qu'avec un arc composé de métaux hétérogènes. En 1793, il établit sa "série des tensions" pour différents métaux. Ses travaux ultérieurs vont alors l'amener à réaliser un dispositif totalement inédit. Il empile des disques de cuivre et de zinc en alternance. Chaque paire est séparée de sa voisine par un tissu imbibé d'eau salée. Grâce à cet assemblage, il obtient un courant électrique continu. C'est ainsi qu'il invente, en 1800, la pile électrique. La nouvelle de sa découverte franchit rapidement les frontières et il est convié, l'année suivante, à répéter son expérience devant une commission de l'Institut, à Paris. Subjugué, Napoléon Bonaparte le pensionne et il devient alors l'un des huit associés étrangers de l'Académie des sciences. En 1810, il est élevé au rang de sénateur de Lombardie et acquiert le titre de comte. Il s'éteindra dans sa ville natale dix-sept ans plus tard, à l'âge de quatre-vingt deux ans, coupé du monde scientifique depuis des années.

Info-Science : http://www.infoscience.fr/articles/articles_aff.php3?Ref=397

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top