RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 148
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Mai 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Course au Web : l'Europe revient sur les États-Unis
Le dernier PC de Sony est un magnétoscope
Linux plus fort que Windows selon IBM
IBM prépare un disque dur de 400 Go
La 3e dimension bientôt présente sur les écrans informatiques
Le retour de l'ordinateur le plus petit du monde
Un nouveau système de compression d'image pour le videophone
Bill Gates prédit "la fin du début" de l'ère numérique
Et si vous graviez vos propres DVD ?
Avenir
La machine à remonter le temps
Un rayon sonore
Une nouvelle forme d'azote
Matière
Les écrans plats dopés par les progrès des matériaux organiques
Un véhicule électrique qui roule à 300km/heure
Espace
Notre univers est né spongieux
Terre
Une étude sur les oiseaux confirme le réchauffement climatique
Vivant
Deux promesses dans un test sanguin
Des os artificiels plus solides que les vrais !
Cancer de la vessie : la chimio avant le bistouri
Les ravages de l'obésité
Quitter l'hôpital trois jours après un infarctus !
Vers la fin des injections d'insuline pour les diabétiques
Edito
La révolution énergétique est en marche



Notre planète consomme actuellement environ 8 milliards de TEP (tonnes équivalent pétrole) pour satisfaire ses besoins en énergie, soit, en moyenne, 1,33 tonne par terrien, et cette consommation pourrait augmenter de 50 % dans les 20 prochaines années. Actuellement le pétrole représente 34 % de la consommation mondiale d'énergie, le charbon 31 %, le gaz 22%, les énergies renouvelables 7 % et le nucléaire 6 %. Mais en 2020, pour des raisons à la fois écologiques, économiques et technologiques ce paysage énergétique mondial se sera sensiblement modifié : le charbon devrait représenter 20 % de l'énergie consommée, alors que la part du gaz naturel, en dépit de son coût, devrait passer de 23 à 28 %. Le pétrole régresserait légèrement à 31 %, le nucléaire resterait stable à 6 % mais surtout la part des énergies renouvelables (comprenant l'hydraulique) pourrait passer de 7 % à 15 %. Cette évolution vers un diversification et une décentralisation accrues de la production d'énergie montre bien le rôle de plus en plus important que sont appelées à jouer l'ensemble des énergies renouvelables au cours du XXIe siècle. Selon l'Institut Français de l'Environnement (Ifen), la France devra faire des efforts pour atteindre les objectifs communautaires en matière d'utilisation des énergies renouvelables dans la production d'électricité. "A l'horizon 2010, elles devraient contribuer à produire 15,5 % de l'électricité : une part inférieure à l'objectif de 21 % indiqué par la Commission européenne", souligne l'Ifen. L'évaluation de l'Institut tient compte d'un scénario où la consommation d'électricité continue à s'accroître et où les efforts se concentrent sur l'exploitation du biogaz et l'énergie éolienne. "Pour l'énergie éolienne, le potentiel à exploiter est encore très important puisqu'elle pourrait fournir à elle seule 10 à 20 % de l'électricité distribuée en France", avance l'Ifen. Pourtant la France a une puissance installée en éolien de moins de 100 MW contre 6.600 MW pour l'Allemagne! Si la France veut respecter la directive sur les énergies renouvelables elle devra faire un effort considérable dans ce domaine de l'éolien. Mais selon l'Institut, il ne faut oublier ni la maîtrise de la demande ni les gisements d'énergies renouvelables tels que le solaire, la biomasse ou la géothermie. S'agissant de l'énergie solaire il faut rappeler que la France dispose de conditions d'ensoleillement favorables et que notre gisement national d'énergie solaire reste largement sous exploité. Sait on que, même dans le nord de la France ou ensoleillement n'est pas le plus important, 7 m2 de capteurs solaires suffisent à couvrir la moitié des besoins en eau chaude d'une famille de 5 personnes, ce qui représente environ 5000kWh/an. Une telle installation revient à 10000 FF et permet d'économiser environ 1800 FF par an; elle est donc amortissable sur moins de 6 ans. Il faut donc tout mettre en oeuvre, notamment sur le plan fiscal, pour développer cette utilisation domestique simple et efficace de l'énergie solaire qui peut encore être rendue plus performante par le couplage avec une pompe à chaleur, et, à plus long terme avec une pile à hydrogène domestique. Il convient également d'encourager la production d'électricité par des sources d'énergie renouvelable en fixant pour cette électricité un juste prix d'achat qui permette aux producteurs "propres" de réaliser les très gros investissements nécessaires. Mais les énergies renouvelables ne se limitent pas à l'hydraulique au solaire et au vent. D'autres sources d'énergie renouvelable pourraient être considérablement développé dans notre pays, compte tenu de son cadre géographique et climatique. Parmi celles-ci il faut citer la biomasse mais aussi l'énergie thermique des mers et l'énergie de vagues qui constituent des gisements d'énergie considérables et exploitables à moyen terme dans des conditions acceptables de rentabilité économique, si l'on intègre le "bonus" écologique de ces sources d'énergie et les progrès technologiques remarquables intervenus depuis 20 ans dans ces domaines. Cette révolution énergétique que nous sommes en train de vivre ne se limite pas à la diversification et à la décentralisation de la production d'énergie, elle touche également à la distribution de cette énergie et aux transports. La mise en place d'un réseau de câblage électrique révolutionnaire vient de commencer à Detroit (Michigan), marquant ainsi une première mondiale. Ce réseau utilise, pour la première fois à grande échelle, le phénomène de la supraconductivité. Les premiers 400 mètres d'un câble supraconducteur ont été installés par des ouvriers de l'entreprise d'électricité Detroit Edison dans le centre-ville. L'entreprise américaine de haute-technologie American Superconductor et le fabricant de câble italien Pirelli ont collaboré à la mise au point de ce câble. L'ancien câblage en cuivre d'un poids de neuf tonnes va être remplacé d'ici la fin de l'été par ce nouveau maillage qui ne pèse que 1.250 kg. Il desservira dans un premier temps 14.000 foyers. Ce type d'équipement présente un gain multiplié par trois en efficacité par rapport au réseau actuel", a affirmé Jon Jipping, directeur de Detroit Edison. Un métal supraconducteur présente la particularité, lorsqu'il est refroidi à une certaine température, de n'offrir aucune résistance au passage de l'électricité. Fruit de dix années de recherches, le câble utilisé à Detroit est de type supraconducteur à haute température ou "High Temperature Superconductors", (http://www.ornl.gov/HTSC/htsc.html ). Il est ultra-léger, ultra-fin et extrêmement souple. Surtout, parce qu'il n'offre aucune résistance à l'électricité, il est capable de transporter davantage d'électricité qu'un câble classique et, le tout, sans pratiquement aucune déperdition d'énergie. Depuis 1986, la recherche sur la supraconductivité s'est accélérée, avec la découverte par deux chercheurs d'IBM d'un nouvel alliage capable de devenir supraconducteur à partir de 34 degrés Kelvin (-239,5 degrés C). Des recherches ultérieures ont permis d'atteindre des températures de 92 degrés Kelvin, puis 125, c'est-à-dire bien au-dessus de la température de liquéfaction de l'azote (77 K ou 196 degrés C). Ces progrès ont ouvert la voie à de nombreuses applications potentielles. Des alliages supraconducteurs rendraient les réseaux électriques en cuivre obsolètes et permettraient de mettre au point des moteurs, dont la taille pourrait être réduite de 80%. Les scientifiques n'excluent pas non plus de parvenir un jour à mettre au point des matériaux supraconducteurs à température ambiante. A plus long terme il sera possible de stocker sans perte l'électricité dans des bobines supraconductrices. Le Japon est également très impliqué dans ce domaine et la firme japonaise Fujikura Ltd. vient d'annoncer avoir réussi a mettre au point en commun avec le Superconductivity Research Laboratory une technique de fabrication plus efficace de câbles supra-conducteurs a base d'yttrium. En effet, la nouvelle vitesse est de 1 m/h, soit environ 20 fois plus grande que celle des techniques employées jusqu'à présent. Cette nouvelle technologie devrait aboutir à des produits commercialisables de 1 km de long dans les 5 années qui viennent. Mais c'est sans doute dans le domaine des transports qui connaît un développement mondial considérable que la révolution en matière d'énergie va être la plus rapide et la plus profonde grâce notamment aux extraordinaires progrès de la pile à combustible. Daimler-Chrysler, en pointe dans ce domaine, veut équiper avant 2004 leur Mercedes Classe A d'une pile à combustible, tout en lui conservant des performances, une autonomie et une ergonomie comparables à celles des voitures à moteur classique. Une pile à combustible produit de l'électricité à partir d'un combustible, stocké dans un réservoir externe. La mise au point d'une telle pile s'accompagne donc nécessairement d'une réflexion sur le combustible lui-même: il doit être facile à stocker à bord du véhicule et compatible avec les infrastructures de distribution de carburant existantes. Pour leurs piles à combustible, Daimler-Chrysler et d'autres constructeurs automobiles ont pour l'instant délaissé l'hydrogène au profit du méthanol, pour des raisons de sécurité liées au stockage. Ce carburant est aussi simple à manipuler que du super ou du gazole et ne nécessite aucune adaptation des stations-service. Il suffit de lui réserver une cuve, comme ce fut le cas pour l'essence sans plomb et pour le super 98. Du jour au lendemain, on pourrait faire le plein de méthanol à la pompe. Mais la pile à combustible ne peut pas fournir de l'énergie directement à partir du méthanol car elle n'utilise que l'hydrogène de ce carburant. Entre le réservoir et la pile proprement dite, les constructeurs automobiles ont donc ajouté un dispositif qui extrait l'hydrogène du méthanol: le "réformeur". Jusqu'ici, pour fournir l'énergie suffisante à une voiture de tourisme, cet ensemble de production d'électricité était bien trop volumineux et pesant. Dans les premiers prototypes, il occupait toute la place du coffre et des sièges arrière. Mais les ingénieurs sont parvenus, en moins de 10 ans, à miniaturiser le couple réformeur-pile et améliorer son rendement de manière à accroître la puissance électrique disponible. Chez Daimler-Chrysler, le dispositif a ainsi perdu 300 kg en moins de trois ans: désormais, tous les éléments du générateur électrique tiennent dans le double plancher du prototype Necar 5 (New Electric Car 5), dont l'apparence diffère peu de celle de la Classe A traditionnelle. Quant à la puissance, elle est passée de 50kW à 75 kW, soit 102 ch, ce qui devrait procurer une puissance réelle de 80 à 90 ch, compte tenu des pertes d'énergie mécaniques. Daimler-Chrysler annonce déjà une vitesse de 145 km/h et une autonomie de 600 km. Renault pour sa part travaille sur une pile fonctionnant à l'essence ou au gazole dans le cadre d'un programme de recherche associant Renault, le groupe PSA et le ministère de la Recherche; ce programme visait à étudier des couples pile-réformeur capables d'exploiter du méthanol mais aussi de l'essence ou du gazole. Le but de ce programme n'est pas de mettre au point un véhicule purement électrique mais d'explorer toutes les applications de la pile à combustible. Parmi celles-ci, Renault en a retenu une qui pourrait être intéressante à court terme : l'intégration d'une pile de moyenne puissance servant de batterie auxiliaire pour alimenter un moteur électrique d'appoint. Renault dispose déjà de ce moteur. C'est l'Adivi (Alternateur-démarreur intégré au volant d'inertie (http://www.sciences-et-avenir.com/techno/page96.html ). Il s'assemble sur un moteur à essence ou Diesel standard. Les 5 kW d'électricité qu'il requiert pourraient être fournis par une pile à combustible fonctionnant à l'essence ou au gazole. Ce système permet une transition en douceur pour le conducteur qui utilise un seul carburant pour alimenter à la fois le moteur thermique et la pile à combustible. Renault, en collaboration avec Nissan, pense commercialiser des voitures ainsi équipées dès 2003. Mais l'électronique permet aussi d'améliorer considérablement les performances de nos moteurs thermiques actuels. C'est ainsi que General Motors vient d'annoncer une innovation majeure qui permet de réduire de 25% la consommation en carburant de ses poids lourds et de ses véhicules 4x4. Le moteur Vortec V8 est équipé de capteurs informatises qui lui permettent, a la demande du conducteur, de ne faire fonctionner que quatre des huit cylindres durant un trajet effectué en conduite normale. Ce nouveau moteur devrait être installe des 2004 sur les modèles de ce constructeur qui compte en construire 1,5 million d'exemplaires d'ici 2007. (

http://www.gmpowertrain.com/news/vortec8100.htm ). On voit donc que tous les secteurs d'activité humaine vont être bouleversé bien plus vite qu'on ne l'imagine par cette révolution qui touche l'ensemble de la filière énergétique, de la production à la consommation en passant par la distribution et le stockage. C'est pourquoi il est capital que la France, qui dispose d'atouts naturels, économiques et technologiques de premier ordre, joue un rôle de pionnier dans cette mutation énergétique planétaire qui sera, avec les biotechnologies et les technologies de l'information, un des moteurs majeurs de la compétitivité et du développement économique mondial durant ce nouveau siècle.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Course au Web : l'Europe revient sur les États-Unis
Samedi, 26/05/2001 - 00:00

C'était impensable voici un an à peine, c'est désormais du domaine du possible : la domination quasi-absolue d'Internet par les États-Unis commence à être menacée par l'Europe. Le défi est encore modeste pour l'Oncle Sam mais la tendance est sans ambiguïté: alors que la population des internautes américains commence à plafonner, celle des surfeurs du Vieux Continent continue à augmenter rapidement. C'est ce qui ressort de la nouvelle étude d'Ipsos-Reid, "Face of the Web". Les internautes américains représentaient 40% de tous les surfeurs en 1999 mais cette proportion est tombée à 36% en 2000 et le cabinet d'études d'opinion nord- américain prévoit que cette érosion va continuer régulièrement. L'Europe, elle, est grimpée de 18% à 22% et, combinée (certes un peu artificiellement) avec le reste des pays anglophones, fait désormais jeu égal avec les États-Unis. Ce qui suggère que les pays industrialisés, s'ils ont parfois eu des retards au démarrage, s'orientent probablement vers un comportement assez homogène vis-à-vis de la Toile. La nouvelle est plutôt bonne pour les français. En effet, On se souvient qu'Ipsos, à la fin de l'année dernière, avait montré que la “consommation d'Internet” dans l'hexagone (comme du reste en Italie dans une moindre mesure) commençait à rattraper celle du Royaume-Uni ou de l'Allemagne. Il faut tout de même dire qu'il y a encore de la marge. En France, 23 % des domiciles ont une connexion Internet. Par comparaison, l'Allemagne est à 37 %, l'Angleterre à 35 % et la Belgique à 36 %... Tous sont donc encore assez loin des États-Unis où 59 % des domiciles sont en ligne. Mais à cet égard, l'Oncle Sam a déjà perdu sa couronne: il est vient en effet d'être dépassé par le Canada et la Suède où 60 et 65 % des domiciles, respectivement, sont désormais branchés sur la Toile...

Le dernier PC de Sony est un magnétoscope
Samedi, 26/05/2001 - 00:00

Sony vient de commercialiser aux États-Unis un ordinateur de bureau capable de recevoir des programmes de télévision tout en les enregistrant sur le disque dur, puis de les graver sur DVD. Le Vaio Digital Studio PCV-RX490TV intègre un tuner TV qui capte les signaux en provenance d'un câble ou d'une antenne et les affiche à l'écran. Mais il ne se contente pas d'émuler une simple télévision. Une carte spécialement dédiée à la conversion de la vidéo et du son en MPEG 2 permet d'enregistrer sur le disque dur en direct, sans surmener le processeur central. Un caméscope peut également être branché à cette carte, via une interface i.Link (IEEE 1394), pour capturer ses propres séquences vidéo. Le disque dur, d'une capacité de 80 Go, permet selon Sony de stocker jusqu'à 100 heures de vidéo, en fonction de la qualité d'enregistrement désiré. Il est ensuite possible d'archiver les fichiers présents sur le disque dur en réalisant son propre DVD. Le PCV-RX490TV intègre ainsi un graveur Pioneer capable d'enregistrer des disques au format DVD-RW. Ce graveur permet également de copier des données sur CD-Rom et bien entendu de lire les CD et DVD. Enfin, cet ordinateur haut de gamme intègre les derniers composants du moment : Pentium 4 cadencé à 1,7 Go, 128 Mo RDRAM, carte graphique à base de puce Nvidia GeForce2 MX avec sortie TV, modem V90 et carte Ethernet pour le haut débit, avec en prime une télécommande infrarouge pour diriger toutes les fonctions audio/vidéo depuis son fauteuil. Bref, le PCV-RX490TV est l'un des PC les plus prestigieux du marché. Hélas, il n'est disponible qu'au Japon et aux États-Unis à un prix record de 2 500 dollars sans écran, soit 18 700 F HT. Pour l'instant, aucune sortie n'est prévue en Europe, où Sony vient de faire une entrée plutôt timide sur le marché des PC.

ZDnzt : http://fr.news.yahoo.com/010522/7/1ak55.html

Linux plus fort que Windows selon IBM
Samedi, 26/05/2001 - 00:00

Dans la course à la performance, Microsoft vient de se faire ravir sa première place dans la liste des solutions serveurs de bases de données à 100 Go éditée par le Transaction Processing Performance Council(TPC). Le nouveau gagnant est Linux... avec la complicité d'IBM et de SGI. Big Blue a porté sa base de données DB2 UDB EEE 7.2 (qui sera présentée publiquement le 8 juin prochain) sur un serveur SGI 1450 sur plate-forme Red Hat 6.2 exploitant le noyau Linux 2.4.3. Le serveur de SGI comprend quatre racks de 4 processeurs Intel Xeon 700 MHz chacun avec un total de 4 Go de mémoire vive. Une configuration agrémentée de quelques outils d'optimisation des traitements (le ProPack 1.5 de SGI et le Linux Scalability) et dont la commercialisation est prévue pour le quatrième trimestre 2001. Cette configuration a obtenu 2733QphH (Composite-per-Hour Performance Metric) au test de performance TPC-H qui, sans entrer dans les détails, mesure la vitesse de traitement de requêtes complexes sur une base de données volumineuse. Il est suivi, de loin, par Microsoft SQL 2000 sur un Compaq ProLiant 8000-X700-8P, un serveur octo-processeur Xeon 700 MHz sous Windows 2000, qui n'obtient "que" 1699QphH. Comme le fait remarquer un porte-parole de Microsoft, la comparaison n'est pas justifiée puisque la plate-forme DB2 exploite 16 processeurs contre la moitié pour la solution Microsoft SQL sur Compaq ProLiant. D'autre part, le coût au QphH de la solution IBM est exorbitant par rapport à celle de Microsoft : 347 dollars/QphH pour IBM/Linux/SGI contre 161 dollars/QphH pour Microsoft/Windows/Compaq. Enfin, ultime argument, l'offre IBM n'ayant pas été mise sur le marché, on ignore ses véritables performances dans un environnement réel. IBM de son côté fait savoir que l'objectif visé était bien la performance. Objectif d'autant plus atteint que cette expérience démontre bien que Linux s'affiche comme une solution viable dans un environnement serveur de hautes performances, notamment avec une architecture multi-processeurs. Des résultats qui contredisent le récent discours de Microsoft sur les risques de sécurité voire d'incompatibilité que crée le monde de l'open source souvent assimilé à Linux. Microsoft peut toujours se consoler en se disant qu'il détient les 9 autres places d'un classement où Oracle se remarque par son absence.

Vunet :

http://www.vnunet.fr/actu/article.htm?numero=7626&pmag=ent

IBM prépare un disque dur de 400 Go
Samedi, 26/05/2001 - 00:00

IBM Corp. a annoncé la mise au point d'une nouvelle technologie de stockage sur disque dur permettant d'emmagasiner d'importants fichiers audio et vidéo sur des ordinateurs de poche. Ce système repose sur un nouveau revêtement magnétique baptisé "pixie dust" (poussière de fée"), qui selon IBM, permettrait de quadrupler la capacité de stockage des disques durs. Ce revêtement est composé d'une couche de ruthénium - un métal rare proche du platine - d'une épaisseur de trois atomes, entourée de deux couches magnétiques. Il devrait permettre d'atteindre une densité de 100 gigabits par carré d'un pouce de côté d'ici 2003, contre environ 25 gigabits aujourd'hui. IBM prévoit en 2003, grâce à cette innovation, des disques durs pour ordinateurs de poche pouvant stocker 200 gigaoctets de données, ou l'équivalent de 42 DVD ou plus de 300 CD. Pour les ordinateurs de bureau cette technologie permettra d'atteindre rapidement le cap des 400 Go. IBM souligne que depuis 10 ans la capacité de stockage des disques durs a doublé, en moyenne, tous les 18 mois et depuis 1997 cette capacité double tous les ans.

Brève rédigée par @RT Flash

NYT :

http://www.nytimes.com/aponline/business/AP-IBM-Storage-Breakthrough.html?

La 3e dimension bientôt présente sur les écrans informatiques
Samedi, 26/05/2001 - 00:00

La troisième dimension pourrait bien faire prochainement son apparition sur nos écrans d'ordinateurs. La société néo-zélandaise Deep Video Imaging a conçu un écran baptisé DVI actualdepth, capable de présenter simultanément des images différentes sur deux plans décalés, donnant ainsi une impression de profondeur de champ. L'écran, équipés de plusieurs couches de cristaux liquides (LCD), permet de différencier un premier et un second plan tout en préservant l'homogénéité de l'ensemble, et surtout sans imposer le port de lunettes polarisantes ou l'usage d'un logiciel particulier. "On a tout essayé pour obtenir l'illusion de la profondeur et le meilleur résultat que l'on puisse obtenir, c'est de porter des lunettes et de se tenir dans une position précise", a expliqué Lim Soon Hock, directeur de DVI, en marge d'une conférence de presse. "Nous n'avons jamais rencontré une telle impression", a déclaré à Reuters Foong Yew Chan, responsable du développement auprès de l'Institute of High Performance Computing de Singapour. Cet organisme public, financé par le gouvernement singapourien, travaille au développement des méthodes de simulation de pointe en collaboration avec DVI.

Reuters : http://fr.news.yahoo.com/010514/2/1a1kg.html

Le retour de l'ordinateur le plus petit du monde
Samedi, 26/05/2001 - 00:00

Le constructeur français d'ordinateur Compubox lance une nouvelle version de sa mini-unité centrale, celle-ci intégrant dans un boîtier de la taille d'un gros livre de poche l'équivalent d'un PC de bureau. Le Mini Box PC intègre un Pentium III cadencé à 800 MHz, 128 Mo de RAM, un disque dur de 12 Go, un modem 56k, une carte son, une puce graphique avec sortie TV, et une carte réseau. Compubox a même réussi à l'équiper d'un lecteur de disquettes et d'un lecteur DVD, le tout cohabitant dans une unité centrale de la taille d'un gros livre de poche (16x15x5 cm ) et pesant 950 grammes ! Certes, pour utiliser ce mini-PC, il faut lui connecter un clavier, des enceintes, une souris et un écran, ce qui alourdit sensiblement la configuration d'ensemble ; mais il s'agit quand même d'une véritable unité centrale miniature, qui peut être transportée dans une poche. Et puis le Mini Box PC pourra également satisfaire ceux qui souhaitent gagner un peu de place sur leur bureau...

ZDnezt :

http://news.zdnet.fr/zdnetfr/news/story/0,,s2086460,00.html

Un nouveau système de compression d'image pour le videophone
Samedi, 26/05/2001 - 00:00

La société de téléphonie Orange, détenue par France Telecom, s'apprête a commercialiser un "videophone", permettant d'agrémenter les conversations téléphoniques d'images mobiles et en couleur du correspondant. Ce dispositif, transmettra les images et les voix a la vitesse des GSM, soit 9600 bits par seconde, alors que les téléphones portables de troisième génération auront besoin de connexions d'au moins 384 000 bits/s. Ceci est rendu possible par une technologie de compression d'image développée par Essential Viewing, société issue de Strathclyde University. L'originalité de cette dernière est de combiner 3 techniques : une méthode de construction des images en mosaïque, une méthode qui fait l'économie de traiter les parties invariantes de l'image et une méthode de réarrangement de l'image résultante. En outre ce procède est asymétrique : le décodage demande beaucoup moins de ressources que le codage. En conséquence le décodage ne nécessitera qu'un élément logiciel de petite taille et donc facilement intégrable a un téléphone portable.

Brève rédigée par @RT Flash

Financial Times :

http://news.ft.com/news/industries/telecommunications

Bill Gates prédit "la fin du début" de l'ère numérique
Samedi, 26/05/2001 - 00:00

Le spectaculaire éclatement de la bulle de la nouvelle économie ne marque pas la fin du boom technologique, mais est seulement "la fin du début", estime Bill Gates, le président de Microsoft. "La prochaine décennie sera une période faste. Pendant cette décennie, vos relations avec l'informatique vont devenir omniprésentes", a-t-il déclaré devant environ 140 chefs d'entreprises réunis à l'occasion du cinquième sommet organisé à leur attention par Microsoft. Bien que les sociétés .com n'aient pas tenu leurs promesses irréalistes, la technologie permettra à de nombreuses entreprises d'améliorer considérablement leur traitement des données, a poursuivi le fondateur de la firme de Redmond. Selon lui, les logiciels et internet lieront dans les années qui viennent tous les éléments qui étaient jusque-là distincts, des PC aux assistants personnels en passant par les tablettes, des ordinateurs portables de la taille d'une pochette A4 munis d'un large écran tactile. "Aucune limite matérielle ne viendra freiner vos projets; à l'exception du coût de l'accès aux communications à haut débit, en premier lieu dans les foyers", a-t-il lancé. Il est optimiste d'imaginer que 20% des foyers américains seront équipés d'un tel accès à internet dans quatre ans, a-t-il ajouté. "Il s'agit d'un domaine dans lequel les progrès restent très lents", a précisé Bill Gates. Au cours de l'année passée, qui a vu le Nasdaq perdre la moitié de sa valeur, les dot-coms sont entrées en disgrâce aux yeux des investisseurs, apportant la preuve que la nouvelle économie n'avait pas réécrit les vieilles lois économiques, a déclaré Bill Gates. Il a ajouté que la situation de la nouvelle économie lui rappelait les remarques de Winston Churchill lors de la Seconde Guerre mondiale: "Ce n'est pas encore la fin, ce n'est pas non plus le début de la fin, mais c'est peut-être la fin du début", a-t-il dit, citant Churchill. Selon Bill Gates, les ventes de détail en ligne devraient quadrupler au cours des cinq prochaines années et des entreprises comme eBay ou Amazon sont assurées de survivre. Au sujet de l'activité de Microsoft, il a estimé que le logiciel allait devenir une activité difficile. "La propriété intellectuelle est un problème intéressant, dans la mesure où elle dure toujours. Votre clientèle déjà acquise devient une concurrence. Il faut faire mieux (pour la convaincre de s'équiper à nouveau)", a-t-il souligné.

Reuters : http://fr.news.yahoo.com/010524/85/1aqhb.html

Et si vous graviez vos propres DVD ?
Samedi, 26/05/2001 - 00:00

D'après une étude réalisée par Philips, en matière d'électronique grand public, les consommateurs attendent avant tout de pouvoir accrocher leur téléviseur au mur et d'enregistrer des films sur DVD. Deux attentes qui n'en sont plus désormais, puisqu'il suffit d'y mettre le prix pour réaliser son rêve. Enregistrer sur DVD, cela permet tout d'abord d'enregistrer beaucoup plus de données: si un CD-ROM peut contenir jusqu'à 650 Mo, un DVD a une capacité de 4,7 Go, soit sept fois plus. Cela représente jusqu'à 4 heures de vidéo en basse qualité et 2 heures en qualité DVD. Il est alors permis d'exploiter efficacement tous les périphériques numériques dont on dispose, que ce soient des appareils photo ou des Caméscopes. La possibilité de graver son propre DVD rend aussi le maniement beaucoup plus aisé en lecture: plus de câblages compliqués, de port ISB ou série à trouver, il suffit de prendre le disque et de l'introduire dans le lecteur. On peut aussi réaliser autant de copies que l'on veut pour les distribuer à son entourage et éviter des téléchargements interminables par Internet. Mais n'espérez pas copier des DVD vidéo du commerce comme vous avez, peut-être pu le faire avec un graveur de CD et des CD-ROM ou CD audio. Non seulement c'est illégal, mais les protections contre la copie sont bien meilleures dans les DVD que dans les CD. Qui plus est, les éditeurs ont aussi la possibilité de distribuer des DVD double couche (dont la capacité de stockage est doublée), ce que ne permettent pas aujourd'hui ces graveurs de DVD grand public. Pioneer a choisi de présenter dans un premier temps un graveur à destination des utilisateurs informatiques. Philips, lui, vise le grand public avec une machine de salon. Son credo: cette nouvelle machine n'est qu'un lecteur de DVD classique, avec une touche rouge pour enregistrer. Pioneer grave aussi bien les DVD-RW que les CD-R et CD-RW. L'appareil de Philips sert uniquement à enregistrer les DVD. En revanche, on peut interrompre son enregistrement quand on le souhaite sur la machine de Philips et visionner tranquillement son oeuvre, alors que le graveur de Pioneer demande que l'on ait complètement terminé son travail. Pioneer propose son graveur autour de 6 000 F, alors que celui de Philips coûte plus de 12 000 F.

Figaro :

http://www.lefigaro.fr/cgi-bin/gx.cgi/AppLogic+FTContentServer?

^ Haut
Avenir
Nanotechnologies et Robotique
La machine à remonter le temps
Samedi, 26/05/2001 - 00:00

Ronald Mallett pense qu'il a trouvé la voie pour réaliser une machine à remonter le temps. Mallett n'a rien d'un savant fou. Aucune des lois connues de la physique n'interdit le voyage dans le temps et, en théorie, un tel voyage est possible. Mallett, professeur de physique théorique à l'Université du Connecticut, pense avoir trouvé un chemin vers le passé grâce à la lumière. Mallett a mis au point un dispositif qui ralentit considérablement la lumière et pourrait être utilisé pour le voyage dans le temps. "Avec ce dispositif," précise-il, "le voyage dans le temps peut devenir une possibilité pratique." Mallet souligne toutefois les difficultés matérielles d'une telle entreprise et rappelle que le ralentissement de la lumière exige des températures proche du zéro absolu. Mais il pense que dans le futur des civilisations Technologiquement très avancées pourraient mettre surmonter ces difficultés et même revenir dans notre présent pour nous apporter le mode d'emploi du voyage dans le temps. Mallett a commencé à réfléchir au voyage dans le passé alors qu' il n'avait que dix ans. En 1955, son père est mort d'une crise cardiaque. "Pour moi, la vie a continué et pour lui elle s'est arrêtée et cela m'a complètement révolté," dit Mallett. A la même époque, il lit la Machine à voyager le temps de H. G. Wells. Mallett se persuade alors que le voyage dans le temps est possible et qu'il lui permettrait de prévenir son père avant qu'il ne meure d'une crise cardiaque à l'âge de 33 ans. Ce projet né d'une utopie enfantine s'est développé en enquête passionnée sur tout ce qui a été publié sur le voyage dans le temps. Quand Mallett a étudié le travail d'Einstein - qui est mort en même année que son père - il s'est rendu compte que le roman de Wells reposait sur une base scientifique et que le voyage dans le temps était, en théorie au moins, réalisable. Einstein lui-même avait montré que le temps était un concept relatif et que la gravité pouvait se représenter par une courbure de l'espace-temps : Tout ce qui est masse ou énergie déforme localement l'espace mais aussi l'écoulement du temps un peu comme la voie que la surface d'un divan moelleux est déformée quand quelqu'un y est assis. La résolution des équations de champ de gravitation d'Einstein nous indique comment d'espace est déformé par la masse et l'énergie. Certains théoriciens ont trouvé quelques solutions des équations d'Einstein qui incluent des "boucles de temps fermées". Le premier d'entre eux fut le Mathématicien Autrichien Kurt Gödel, en 1949, mais malheureusement sa solution exigeait que l'Univers entier forme une boucle. L'idée de Mallett, reposant sur l'emploi de la lumière est beaucoup moins exotique. "Les gens oublient que la lumière, bien qu'elle n'ait aucune masse, provoque une courbure de l'espace" dit-il. La Lumière qui a été reflétée ou réfractée pour suivre un chemin circulaire a des effets étranges. L'année dernière, Mallett a publié un article décrivant comment un rayon laser pouvait créer un tourbillon dans l'espace ( Lettres de Physique , vol 269, p 214). "J'ai alors compris que le temps, aussi bien que l'espace, pouvait être courbé grâce à des faisceaux lumineux" précise Mallett. Pour courber le temps dans une boucle, Mallett a imaginé un deuxième rayon laser, circulant dans la direction opposée. Selon Malett, si l'on augmente suffisamment l'intensité de la lumière il est possible de modifier la structure du temps qui devient comme une dimension ordinaire d'espace. Une personne marchant dans cette boucle du temps pourrait revenir à pied dans le temps et se rencontrer avant d'y être entrée. Mallett a aussi constaté que l'effet de la lumière sur le temps dépend de sa vitesse, mais pas dans le sens que l'on imagine : plus lente est cette lumière, plus la structure de l'espace-temps est modifié. Par chance, le ralentissement presque complet de la lumière est depuis peu maîtrisée par les physiciens. Lene Hau de l'Université d' Harvard a ralenti, à l'aide d'un condensat de Bose-Einstein, la lumière jusqu'à quelques mètres par seconde, et l'a même stoppée (New Scientist, 27 janvier, p 4). "Avant cela, je n'aurais pas pensé le voyage dans le temps par cette méthode était possible" souligne Mallett. "Mais la lumière lente ouvre un domaine nouveau d'exploration et de vérification expérimentale des grandes théories sur le temps." Mallett a convaincu son chef du département, William Stwalley, qui mène un groupe de chercheurs sur le refroidissement des atomes, de réaliser cette expérience. Celle-ci sera conçue pour observer si la courbure de l'espace-temps à l'aide de faisceaux de lumière refroidis provoque le voyage dans le passé de particules. En admettant que cette expérience donne les résultats attendus et démontre la faisabilité du voyage dans le temps, de nombreuses questions se poseraient alors. Pourrez-t'on retourner dans le passé pour le modifier de manière à rendre sa naissance impossible? Ce célèbre paradoxe, qui fait la joie des auteurs de science-fiction, a peut-être une solution. Il se pourrait en effet que de telles modifications n'affectent que certaines "branches quantiques du temps" sans modifier notre présent réel. Mais en supposant que toutes les difficultés théoriques et pratiques puissent un jour être surmontées, la machine à remonter le temps de Mallett ne permettra jamais d'assister à l'assassinat de Lincoln ou au sacre du Roi Arthur. En effet le cercle de lumière de Mallet ne permettra à personne de voyager en arrière au-delà du point où le temps a d'abord formé une boucle fermée. "Un éventuel explorateur futur du temps pourrait seulement voyager dans le passé jusqu'au moment où la machine a été mise en service," précise Mallet. Cela peut expliquer pourquoi nous n'avons jamais été envahis par des visiteurs de l'avenir. Cela veut dire aussi que Mallett ne réalisera jamais son rêve d'enfance et ne pourra jamais retourner dans le passé pour éviter à son père une mort précoce.

Brève rédigée par @RT Flash

New Scientist du 19 mai 2001 :

http://www.newscientist.com/newsletter/features.jsp?id=ns22911

Un rayon sonore
Samedi, 26/05/2001 - 00:00

La caractéristique principale du son est de se propager dans toutes les directions. Cependant, un inventeur a réussi a le rendre directif en reprenant des recherches réalisées au cours des années 1960 sur la distorsion des ultrasons par l'eau. L'étudiant F. Joseph Pompei au Media Lab du Massachusetts Institute of Technology (MIT), l'étudiant F. Joseph Pompei a perfectionné son système baptise "spot audio" capable de générer un rayon d'ultrason qui produit a son tour, a l'aide de combinaisons de fréquences appropriées, des sons audibles se propageant ainsi dans une seule direction. Le "rayon sonore" atteint une précision de trois degrés. Les applications de cette innovation sont très nombreuses. Les clubs de danse pourraient également proposer simultanément des zones sonores totalement différentes dans une même salle, et les constructeurs automobiles de la musique personnalisée pour chaque passager. Les militaires pourraient assourdir l'ennemi avec une précision extrême. L'American Technology Corporation de San Diego (Californie), qui développe une technologie similaire, a déjà signe un accord avec le chantier naval Bath Iron Works pour équiper un contre-torpilleur de la Marine.

Brève rédigée par @RT Flash

International Herald Tribune :

http://www.iht.com/articles/20049.html

Une nouvelle forme d'azote
Samedi, 26/05/2001 - 00:00

Des chercheurs ont réussi à rendre l'azote semi-conducteur en lui appliquant une très basse température et une pression très forte. Laissés à eux-mêmes, les atomes d'azote s'organisent en molécules en se liant solidement deux par deux via un échange de trois électrons. Ces molécules sont très stables et il est difficile de les "casser" pour organiser autrement leurs atomes. De fait, l'azote garde ses triples liens même si, suite à des manipulations, il devient liquide et réfrigérant ou encore, solide et isolant. Mais Mikhail Eremets et ses collègues ont réussit à faire fléchir ces solides liens atomiques et ainsi, à donner encore une nouvelle forme à l'azote. Ils ont soumis le gaz à une pression de 140 gigapascals - un million de fois l'atmosphère terrestre ! - et à une température de 300 degrés Kelvin, c'est-à-dire -573 degrés Celsius. Sous ces conditions extrêmes, l'azote ne se lie plus qu'avec un seul électron à un atome donné et devient semi-conducteur. De plus, si ce nouveau solide est maintenu à moins de 100 degrés Kelvins, il conserve sa nouvelle propriété même si la pression est relâchée. Ce nouveau matériau, soulignent les auteurs dans Nature, pourrait devenir une nouvelle source d'énergie... même si l'azote gazeux renferme six fois plus de "puissance". L'azote semi-conducteur, en effet, libère une énergie considérable en repassant à son état "naturel". Il y a toutefois plus d'un pas vers cette application puisque, pour l'instant, les chercheurs n'ont fabriqué qu'une quantité microscopique de ce "nouvel azote".

Cybersciencex : http://www.cybersciences.com/Cyber/3.0/N2327.asp

Nature :

http://www.nature.com/nlink/v411/n6834/abs/411170a0_fs.html

^ Haut
Matière
Matière et Energie
Les écrans plats dopés par les progrès des matériaux organiques
Samedi, 26/05/2001 - 00:00

L'ordinateur portable représente par la taille une fraction de son homologue de bureau; pourquoi est-il donc si cher à l'achat ? C'est en grande partie à cause de son écran. Le portable doit en effet la finesse de ses lignes à un écran à cristaux liquides, ou LCD (Liquid crystal display). Cet écran, dont la fabrication est très coûteuse surtout dans ses versions en couleur, représente un tiers du prix total de l'appareil. Pour devenir plus abordables, les portables pourraient profiter sans tarder d'une technologie radicalement différente et moins onéreuse. Des prototypes de ces nouveaux écrans couleur extraplats existent déjà, et on finira sans doute par les retrouver partout non seulement dans les ordinateurs portables, mais également dans les téléviseurs, les téléphones numériques, les panneaux de signalisation et d'affichage. Les diodes organiques émettrices de lumière, ou OLED (Organic Light-Emitting Diodes), vont en effet transformer la technologie de la prochaine génération d'écrans. Le marché des OLED devrait ainsi passer de 3 millions de dollars en 1999 à 2,7 milliards de dollars en 2005. "C'est tout simplement énorme", commente Richard Friend de l'université de Cambridge, un pionnier dans ce domaine. Mais que reproche-t-on aux LCD ? Hormis une luminosité médiocre, ces écrans sont également difficiles à fabriquer. Les cristaux liquides se comportent à la manière de volets électroniquement commandés. Les minuscules cellules de leurs molécules peuvent passer, à la demande, du transparent à l'opaque. Elles sont donc utilisées pour contrôler la lumière blanche émise à l'arrière du dispositif et répartie de façon uniforme par un diffuseur. Dans le cas des écrans couleur, la lumière est filtrée en ses composantes rouges, bleues et vertes. Le processus de fabrication est laborieux. Il fait appel à des techniques de pointe et coûte cher. Les OLED, en revanche, font tout par elles-mêmes: elles sont comparables à de petites ampoules lumineuses qu'on allume ou qu'on éteint et qu'il est possible de régler sur toutes les couleurs du spectre. Elles sont faciles à fabriquer avec des matériaux légers et bon marché. Beaucoup d'OLED sont élaborées à partir de plastiques résistants, ce qui veut dire que ces écrans sont également flexibles. Sans compter qu'ils consomment moins d'énergie que les LCD. Nombreux sont ceux qui, dans l'industrie, estiment que la troisième génération de téléphones cellulaires disposera d'un écran capable d'afficher des graphiques et des vidéos en provenance d'Internet. Le modèle Seiko Epson est doté d'un écran d'à peine 2,5 pouces carrés, fabriqué selon la méthode de l'impression à jet d'encre pour la mise en place des polymères. En septembre dernier, la firme Motorola a également lancé un téléphone cellulaire équipé d'un écran OLED. Elle commercialise aussi un téléphone à écran LCD, mais l'écran OLED se révèle beaucoup plus net et lumineux. Il est fabriqué non pas à partir de polymères, mais de petites molécules organiques de type colorant pouvant être amenées à l'électroluminescence. Ce modèle d'écran a des chances de devenir le grand concurrent des LED plastique. Les écrans LCD n'ont cependant pas dit leur dernier mot car des innovations récentescomme celles qui permettent d'aligner les molécules de cristaux liquides pourraient rendre les LCD moins coûteux et plus fiables.

Le Monde :

http://www.lemonde.fr/article/0,5987,3244--185794-,00.html

Un véhicule électrique qui roule à 300km/heure
Samedi, 26/05/2001 - 00:00

Un groupe de chercheurs de l'Université de Keio (Tokyo) a développé un véhicule électrique capable d'atteindre la vitesse de 300 km/h, et ayant une autonomie maximale de 300 km. Ce véhicule est équipé de batteries au lithium, plus performantes. Sa forme est prévue pour réduire au maximum la résistance de l'air. De plus il est monté sur 8 roues, chacune équipée d'un petit moteur électrique. Le fait d'avoir 8 roues permet de mieux distribuer la force motrice, ce qui réduit la taille de chaque roue. De plus, la tenue de route s'en trouve améliorée. Ce véhicule accepte 8 passagers, car l'intérieur est aussi spacieux qu'un monospace puisqu'il n'y a pas de compartiment moteur. Le poids total du véhicule est de 2.980 kg, avec les 168 batteries de 3,6V. Les dimensions sont 6,7m de long, pour 1,95m de large. Le Professeur Hiroshi Shimizu estime qu'avec une production annuelle de 500 unités, le prix serait équivalent à celui d'un véhicule similaire à essence, grâce à la structure simplifiée.

ADIT : http://www.adit.fr/adit_edition/index.html

^ Haut
Espace
Espace et Cosmologie
Notre univers est né spongieux
Samedi, 26/05/2001 - 00:00

Les premières galaxies se seraient formées le long de filaments, comme des gouttes d'eau accrochées à une toile d'araignée, lorsque l'Univers était ''spongieux'', confirment des astronomes danois. Leurs observations, réalisées au Chili grâce au VLT de l'observatoire européen (ESO), apportent une confirmation aux théories bâties sur ordinateur par les scientifiques. Ces astronomes ont réalisé une carte en 3D de galaxies très lointaines, remontant ainsi vers les origines de l'Univers. Les objets sont placés le long d'un très étroit filament, correspondant à l'image des premières structures de l'univers élaborées par les astrophysiciens. Ceux-ci étaient en quelque sorte en avance par rapport aux observations. Mais, aujourd'hui, la nouvelle génération de télescopes géants permet d'aller très loin dans les observations et de rejoindre la théorie.

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1345000/1345134.stm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une étude sur les oiseaux confirme le réchauffement climatique
Samedi, 26/05/2001 - 00:00

Une étude sur les oiseaux confirme que la Terre se réchauffe bel et bien. Cette étude montre que les oiseaux migrateurs pondent plus tôt. Deux chercheurs des Pays-Bas, Christiaan Both et Marcel E. Visser, se sont intéressés à des migrateurs de chez eux, les pies attrapeuses de mouches (Ficedula hypoleuca). Ils ont en effet constaté que ces bestioles pondent leurs oeufs -aux Pays-Bas- une dizaine de jours plus tôt qu'il y a 20 ans, soit à la mi-avril. Et aux Pays-Bas, la température moyenne, au printemps, est de 3 degrés supérieure à ce qu'elle était il y a 20 ans.

Science Presse :

http://www.sciencepresse.qc.ca/archives/2000/cap2105012.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Deux promesses dans un test sanguin
Samedi, 26/05/2001 - 00:00

Quel rapport entre un foetus et une tumeur ? La question choque, tant l'un est signe de vie et l'autre source de mort. Pourtant, entre ces deux extrêmes, il y a un point commun. Bébés et tumeurs libèrent des cellules - et donc de l'ADN - dans le sang de ceux qui les portent. Ce matériel génétique constitue une mine d'informations sur les foetus et les tumeurs. Une mine accessible par une simple prise de sang... Son exploration pourrait-elle bouleverser le suivi des grossesses et la détection des cancers ? C'est la perspective ouverte par deux communications présentées la semaine dernière à Vienne, lors du 10e congrès international de génétique humaine. Une équipe française a annoncé qu'elle avait développé une technique permettant, en routine, de déterminer le sexe du foetus grâce à l'analyse du sang de la mère. Dennis Lo (université chinoise de Hong-kong), a pour sa part montré qu'il est possible de lire, dans le plasma maternel, d'autres informations précieuses sur l'hérédité de l'enfant : rhésus et maladies génétiques. En outre, ajoute-t-il, «cette même technique d'observation de l'ADN "étranger" circulant dans le sang devrait également permettre, à terme, de détecter les premières phases de certains cancers, à un stade où ils sont traitables». Afin de savoir si un enfant à naître est atteint d'un trouble génétique, il faut disposer de son ADN. Cela impose, aujourd'hui encore, de prélever des cellules foetales, in vivo, par un acte nécessairement invasif, non sans risques pour la mère ou l'enfant. L'accès à l'ADN du bébé via le sang de la mère promettait de faciliter considérablement les choses. Cette technique va permettre de détecter «Virtuellement tout ce qui est présent chez le bébé et qui est absent chez la mère.» Le gène de la masculinité mais aussi le facteur rhésus, dont la détermination précoce est parfois vitale. Et enfin certaines maladies dues à des mutations transmises éventuellement par le père. Comme la chorée de Huntington ou la maladie de Steinert. Mais ce nouveau test devrait surtout permettre de mieux dépister le cancer. Il existe une tumeur très fréquente en Asie, un cancer du nez et du pharynx, lié à la fois à un virus, à la consommation de certains poissons fumés et à un terrain génétique. Dépistée très tôt, elle est traitable. Après, elle est fatale. Si on réussit à isoler dans le sang circulant un ADN marqueur de cette tumeur, ce sera un progrès majeur pour l'Asie.

Libération :

http://www.liberation.com/quotidien/semaine/20010522mary.html

Des os artificiels plus solides que les vrais !
Samedi, 26/05/2001 - 00:00

Pour réparer les os brisés, il n'y aura bientôt plus besoin de vis et autres broches métalliques. Des os artificiels se chargeront du boulot. C'est au sein du prestigieux MIT que l'idée a été développée. Edward Ahn, qui dirige le projet, espère bien obtenir les brevets dans l'année pour lancer son produit sur le marché. Et c'est dans cette optique qu'il vient de fonder sa société Angstrom Medica. Concrètement, les os synthétiques conçus par AM sont conçus de la même manière que les vrais, à partir d'éléments minéraux. Cela permet de réduire considérablement les risques de rejet de l'implant par rapport aux broches métalliques actuellement utilisées. De plus, il n'est plus besoin de revenir se faire opérer pour enlever celles-ci. Les risques d'infection et l'inconfort se voient donc eux aussi réduits à bien peu...Mais comment ça marche, me demandez-vous ? Ces os à l'apparence de quartz sont le fruit des plus récentes avancées dans le domaine des nanotechnologies. Travaillant à une échelle de plus en plus petite, au niveau moléculaire, les scientifiques peuvent désormais créer des structures proches de la perfection. Ainsi les os artificiels s'avèrent-ils plus solides que ceux qu'ils viennent remplacer. C'est ici que se situe le miracle : non seulement on vous répare, mais en plus on vous fortifie dans le même temps ! Seul bémol : pour l'instant, l'opération est estimée au double du coût des opérations actuellement pratiquées. Cependant Edward Ahn et son équipe assurent que sur le long terme, leurs os synthétiques reviendront moins chers que les broches. Mais ce n'est finalement qu'un petit détail au regard des améliorations pour le patient.

Besok : http://www.besok.com/actu.cfm?id=7779

Wired : http://www.wired.com/news/school/0,1383,43846,00.html

Cancer de la vessie : la chimio avant le bistouri
Samedi, 26/05/2001 - 00:00

La nouvelle est d'autant plus appréciable qu'elle concerne une tumeur méconnue, le cancer de la vessie, et dont la fréquence augmentait jusqu'à présent bien plus vite que les progrès thérapeutiques. Grâce à un traitement par chimiothérapie avant l'ablation chirurgicale, Ronald Natale (Cedars-Sinai Center, Los Angeles) a quasiment doublé la moyenne de survie de ses malades. Ses résultats, présentés hier au congrès de l'Asco (1), ont été salués par les cancérologues. Ceux-ci sont démunis face à cette tumeur responsable de dizaines de milliers de morts par an aux Etats-Unis, (environ 4 500 en France). Un chiffre en constante progression puisqu'elle est très liée au tabagisme. «Le traitement des cancers de la vessie est essentiellement chirurgical, mais il n'est pas rare qu'on opère des malades dont la tumeur est apparemment localisée et qui développent ensuite des métastases mortelles», explique Deborah Kuban (Anderson Cancer Center, Texas). Explication ? La tendance insidieuse de ce cancer à s'étendre en s'infiltrant, d'abord dans la paroi de la vessie, puis dans les organes voisins au niveau du petit bassin. Et c'est alors que se créent des micrométastases, en particulier ganglionnaires. Au départ difficiles à détecter, elles vont permettre à la tumeur d'essaimer à distance. Or, dès qu'existe une infiltration, le pronostic chute : de 70 % pour des tumeurs superficielles, la survie à cinq ans tombe à 30 % quand les couches profondes de la paroi vésicale sont touchées, et à 5 % si le petit bassin est envahi. Les chimiothérapies se révèlent peu efficaces. De plus, elles sont souvent mal tolérées. L'idée du Dr Natale a été d'effectuer les cures avant l'intervention. Objectif: étouffer d'éventuelles micrométastases. L'expérience avait déjà été tentée, mais beaucoup restaient réticents à proposer un traitement toxique chez des malades n'ayant pas de métastases décelables, d'autant qu'il fallait pour cela retarder l'intervention chirurgicale. Néanmoins convaincu de son hypothèse, le Dr Natale l'a testée chez 317 patients atteints d'un cancer déjà évolué mais encore localisé. La moitié d'entre eux a reçu une chimiothérapie préopératoire, les autres ont été seulement opérés. Avec un recul de sept ans, il comptabilise 9 décès de moins dans le groupe avec chimiothérapie, soit un gain de 10 %, et la survie moyenne passe de 3,6 à 6,2 ans. Enfin, chez 38 % des malades traités par chimiothérapie, la tumeur avait complètement disparu lors de l'intervention.

Libération :

http://www.liberation.com/quotidien/semaine/20010517jeus.html

Les ravages de l'obésité
Samedi, 26/05/2001 - 00:00

D'après un nouveau rapport de l'OMS, ce serait en effet le cas pour près d'un tiers des cancers du côlon, du sein, des reins et de l'appareil digestif. Face au nombre croissant d'obèses dans le monde, l'Organisation met en garde contre les dangers de ce qu'elle considère comme une épidémie. Aux Etats-Unis, où plus d'un adulte sur deux souffre de surpoids, le Centre de prévention et de contrôle des maladies (CDC) estime que 300 000 décès annuels sont imputables à l'obésité. S'il est clairement établi qu'elle accroît le risque de maladies cardio-vasculaires, son rôle dans le développement des cancers est mal connu. Selon certaines études, l'obésité augmenterait le risque de cancer du côlon, du sein, de l'endomètre - la paroi de l'utérus -, du rein et de l'oesophage. A l'origine de ces cancers chez les obèse, des altérations du métabolisme et du système hormonal. Particulièrement pour les tumeurs hormono-dépendantes comme celles du sein, de la prostate ou de l'endomètre. La production d'oestrogènes, des hormones qui favorisent la prolifération cellulaire, serait favorisée par l'augmentation des cellules adipeuses, les adipocytes. L'OMS appelle donc les pays industrialisés à intensifier la recherche sur les relations entre obésité et cancers. Mais aussi à augmenter l'effort de prévention. Cette étude de l'OMS est confirmée par une autre étude britannique selon laquelle 10 % des cancers touchant les anglais non fumeurs seraient liés à l'obésité. Les obèses sont aujourd'hui au nombre de 4,2 millions en France, soit 655 000 de plus qu'en 1997. Au total, 39 % de la population française est concernée par l'obésité ou le surpoids, soit 17 millions de personnes.

OMS : http://www.who.int/ncd/cancer/cancer_news.htm

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1334000/1334311.stm

Quitter l'hôpital trois jours après un infarctus !
Samedi, 26/05/2001 - 00:00

L'infarctus du myocarde, première cause de mortalité dans les pays industrialises, tue près de 300 000 fois par an en Allemagne. 30 % des décès surviennent avant l'admission a l'hôpital. L'infarctus du myocarde correspond a l'obturation d'une artère coronaire, artère chargée d'irriguer le muscle cardiaque. Tout le territoire musculaire situe en aval de la zone obturée peut mourir, n'étant plus alimente par le flux sanguin. Toutes les études statistiques montrent que les séquelles engendrées par un infarctus sont d'autant plus réduites que l'obturation de artère est limitée dans le temps. Partant de ce constat, le centre de traumatologie de Berlin a développe une nouvelle méthode de traitement d'urgence qu'il expérimente depuis janvier 1999. La méthode a été présentée ce 13 mai au cours d'une conférence de presse par le directeur du projet, le Dr Franz-Xaver Kleber,. Il s'agit d'administrer a la victime, par injection intraveineuse, un thrombolytique et un anti-aggregant plaquettaire. Cette opération est effectuée par le médecin urgentiste des que le diagnostic de l'infarctus est établi. L'association du thrombolytique et de l'anti-aggregant permet une reperfusion accélérée de la zone musculaire touchée par l'infarctus. Des arrivée de la victime aux urgences, le chirurgien-cardiologue pose une gaine dans artère endommagée, a l'endroit précis ou se situait le caillot, évitant la formation d'un second caillot. Les premiers résultats portant sur 225 patients sont extrêmement prometteurs. Le taux de mortalité est ramené de 12 % a 2,7 % et les victimes d'un infarctus léger (soit 50% des patients) quittent l'hôpital trois jours après leur attaque (notons qu'aux Etats-Unis, souvent cites en exemple, cette durée est de six jours). La reprise de l'activité salariée a lieu deux semaines plus tard. De l'aveu même du Dr Kleber, ce nouveau traitement est économiquement très avantageux, puisqu'en réduisant la durée de l'hospitalisation il permet l'économie de plusieurs milliers de DM par patient. Devant ce succès, l'expérimentation va être étendue à la totalité du Land de Berlin, puis vraisemblablement à l'Allemagne tout entière.

BE Allemagne : http://www.adit.fr

Vers la fin des injections d'insuline pour les diabétiques
Samedi, 26/05/2001 - 00:00

Certains médicaments, comme l'insuline, ne peuvent pas être absorbes sous forme de comprimes a cause de la dégradation des protéines au cours de la digestion et doivent être injectes aux patients par piqûres. Une équipe de scientifiques écossais des universités de Glasgow et Strathclyde a mis au point une nouvelle technique permettant de déposer les protéines en couche sur des microcristaux. Si les particules sont suffisamment fines, elles peuvent passer dans le sang par les poumons, ce qui permettrait de remplacer les piqûres par des inhalations, avec des appareils identiques a ceux utilises jusqu'à présent par les asthmatiques. La découverte, qui a été rendue publique le 11 avril, a été brevetée et les essais ont pour l'instant été faits sur un poumon artificiel. Des essais cliniques devraient bientôt suivre mais les premiers produits ne devraient arriver sur le marche que d'ici 4 ans. Cette découverte pourrait révolutionner le traitement de nombreux patients, comme les diabétiques qui ont parfois jusqu'à 4 injections d'insuline par jour.

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1148000/1148216.stm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top