RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 94
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Avril 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Liberté d'expression contre propriété intellectuelle : le DMCA sur la sellette
Ne lie pas qui veut
Le gouvernement britannique connecte les démunis
La Commission définit sa politique concernant la gestion d'Internet
Opticiens, chimistes et physiciens préparent l'ordinateur du futur
L'hologramme, superdisquette de demain
Virgin va lancer un mobile lisant de la musique téléchargée
Desernet invente la gravure en ligne
Fuji invente le polaroïd numérique
La " télévision personnalisée " arrivera en Europe à l'automne
E-Ink : l'encre intelligente
Avenir
Un nouvel alliage d'aluminium super-résistant
Des fibres de carbone pour renforcer les immeubles
Coup de maître sur le billard des atomes
Matière
Omron et Hitachi ont développé un microprocesseur exécutant directement le code Java
Ecrans plats : LCD et Plama plutôt complémentaires que concurrents
Espace
Les trous de ver permettront-ils les voyages inter-gallactiques ?
L'objet céleste le plus éloigné jamais observé
Terre
Les glaciations passées aident à comprendre le réchauffement futur
Vivant
Antibiotiques : une nouvelle molécule prometteuse
Une vie sociale riche pour garder le cerveau en forme
Hypertension, nos amies les bêtes
Il est normal de vieillir, mais pas d'être diminué !
Bientôt de l'ADN artificiel
La révolution des tests génétiques
Alzheimer et Parkinson : des avancées concrètes
Les chromosomes 5, 16 et 19 du génome humain ont été décodés
Homme
L'INPL de Lorraine mise sur les nouvelles technologies éducatives
Recherche
Hélico perso !
Edito
La création d'une démocratie électronique universelle est maintenant inéluctable



Au cours de ces dernières semaines, deux événements apparemment sans rapport direct sont venus éclairer de manière très révélatrice la montée en puissance de la fonction démocratique de l'Internet. En premier lieu, les primaires démocrates d'Arizona, qui étaient les premières élections réelles de cette importance à faire l'objet d'un "cyber-scrutin", ont obtenu une participation très supérieure aux prévisions les plus optimistes et ont montré toutes les potentialités du net comme mode d'expression démocratique. En second lieu, l'Icann, organisme chargé de gérer les adresses Internet au niveau mondial, a décidé, à l'occasion de sa dernière réunion du Caire, d'organiser prochainement le premier cyber-scrutin à l'échelle planétaire pour désigner 5 des 9 membres de son conseil mondial. Bien qu'il n'y ait aucun lien entre ces 2 événements, leur quasi-simultanéité n'est pas due au hasard et constitue la première étape d'un processus inéluctable qui va transformer à un triple niveau la nature et le fonctionnement de la démocratie. Au niveau local, tout d'abord, l'appartenance à des communautés virtuelles va permettre un renforcement des liens sociaux et des solidarités de proximité dans le domaine de l'éducation, de la santé ou de l'aide aux personnes âgées. Sur le plan économique, ces communautés virtuelles locales vont favoriser l'émergence de groupes d'action transversaux constitués autour de projets locaux et d'autant plus efficaces qu'ils pourront faire l'économie des infrastructures institutionnelles classiques. Sur le plan national, la présence de plus en plus forte des cyber-forums et la possibilité prochaine pour n'importe quel citoyen de pouvoir soumettre au débat, puis éventuellement de pouvoir mettre aux voix une initiative ou une proposition, vont profondément bouleverser le fonctionnement de notre démocratie. Celle-ci encore largement représentative et pyramidale, va devenir de plus en plus délibérative, transversale et transparente. Confrontée à une demande socio-politique directe, informée et permanente, la classe politique va devoir modifier radicalement ses méthodes décisionnelles et apprendre à filtrer, traduire et enrichir ce flux continu et accessible à tous, représenté par l'ensemble des demandes exprimées par la société. Une des autres conséquences fondamentales de cette mutation est que l'évaluation permanente et rigoureuse des politiques publiques va devenir la règle alors qu'elle reste aujourd'hui l'exception. Enfin, au niveau mondial, l'explosion d'Internet va favoriser de manière très positive l'apparition et le développement de très puissants contre-pouvoirs susceptibles de s'opposer efficacement aux Etats, mais aussi à la puissance financière des grands groupes mondiaux, puissance qui excède déjà dans bien des cas celle de beaucoup de pays en voie de développement. A plus long terme, on peut aussi prévoir l'avènement d'un véritable niveau de démocratie électronique planétaire sur les grandes questions essentielles pour l'avenir de l'espèce humaine, je pense notamment à la protection de l'environnement, à la gestion de l'eau, aux modifications climatiques, à l'accès au savoir pour tous ou à la prévention des épidémies. Ce niveau démocratique planétaire dont le moteur sera l'Internet, sera d'autant plus accepté et efficace qu'il permettra également l'expression très forte des particularismes socioculturels locaux. Même si cette vision du futur peut sembler utopique, je porte la conviction qu'avant 10 ans nous assisterons à l'organisation, à la suite d'initiatives citoyennes spontanées, des premiers référendums électroniques planétaires portant sur les grandes questions qui déterminent l'avenir de notre civilisation. On peut imaginer que si ces consultations atteignent un niveau de participation suffisant et suscitent un large débat démocratique, il deviendra très difficile pour les Etats ou les grandes sociétés multinationales d'en ignorer les résultats. Avec le milliard d'êtres humains qu'Internet réunira avant dix ans sur la même Toile, l'émergence de ce niveau démocratique planétaire, autonome et direct, sera bien plus rapide et puissant que beaucoup l'imaginent aujourd'hui et va probablement marquer le début d'une nouvelle étape historique, culturelle et sociale fondamentale dans la longue histoire de l'Humanité et de sa conquête jamais achevée de la Démocratie.

René TREGOUET

Sénateur du Rhône


TIC
Information et Communication
Liberté d'expression contre propriété intellectuelle : le DMCA sur la sellette
Samedi, 22/04/2000 - 00:00

Plusieurs procès récents incarnent aux Etats-Unis l'avant-garde des débats remettant en question les notions de liberté d'expression et de droit d'auteur : fondamentalement, le copyright a toujours été considéré comme une restriction, limitée mais nécessaire, à la libre expression protégée par le premier amendement à la constitution américaine, restriction légitime au nom du principe de la propriété intellectuelle. Cependant, les conditions d'application de cette restriction ont toujours été bornées par le "fair use", c'est-à-dire l'utilisation légitime et mesurée d'un matériel copyrighté. Par exemple, même s'il est interdit de dupliquer un CD, on admet qu'un utilisateur légitime ayant acquis un CD puisse le dupliquer sur un autre support, comme une cassette audio, pour bénéficier de l'enregistrement par exemple dans sa voiture. Il s'agit là moins d'une violation de copyright que de l'exercice légitime de la jouissance d'un bien dont on a acquis les droits en achetant le CD. Le DMCA (Digital Millenium Copyright Act) qui vient préciser les dispositions législatives concernant le droit de propriété intellectuelle aboutit à la disparition de cette notion de "fair use" par le biais d'une incrimination systématique des logiciels permettant d'exploiter un contenu numérique copyrighté ...

Nospoon : http://www.nospoon.org/

Ne lie pas qui veut
Samedi, 22/04/2000 - 00:00

Depuis quelques semaines, le petit monde de la presse en ligne française est en pleine effervescence. Certains membres du Groupement des éditeurs de services en ligne (GESTE) - "Le Monde", "Les échos", "La Tribune", "Libération" ou encore "ZDNet France" - ont publié une charte de l'édition électronique et ont dénoncé les méthodes de Net2One, start-up spécialisée dans la fourniture d'informations à la carte. Cette dernière reprenait les titres et les chapeaux de leurs articles et proposait de rediriger les usagers vers les sites des publications en question et bien d'autres. Chez les signataires de la charte, on parle de pillage. De son côté, Jérémie Berrebi, le patron de Net2One, se défend en affirmant qu'il contribue à la promoon des titres cités puisqu'il renvoie vers les sources originales. Alors, service ou pillage ?La réponse n'est pas aisée, mais on constate que l'hyperlien devient un enjeu extraordinaire dont cette "affaire" française n'est qu'un nouvel épisode. Si Net2One se contentait de renvoyer vers la page d'accueil des sites dont il reprend les informations, la jeune entreprise n'aurait sans doute suscité aucune réaction de la part des membres du GESTE, mais elle ne revendiquerait pas non plus les 100 000 abonnés à son service qui lui permettent de séduire les investisseurs. L'argent est une nouvelle fois au coeur du débat et risque de compromettre à terme l'un des fondements de la Toile, l'hyperlien. Aux Etats-Unis, l'affaire Ticketmaster.com contre Tickets.com en est l'illustration. La première société, qui vend des billets notamment pour des spectacles, accuse la seconde de faire des liens vers ses pages intérieures sans faire passer les utilisateurs par la page d'accueil, utilisant ainsi ses exclusivités pour faire la promotion de son site. Le 27 mars dernier, un verdict a été rendu, aussi peu clair que l'affaire elle-même, mais il marque une évolution à l'égard de l'hyperlien dans la mesure où il ouvre la porte à la mise en place d'instruments légaux interdisant l'hyperlien vers les pages intérieures d'un site. Une autre affaire relative aux hyperliens agite les Américains, celle qui oppose les industriels du cinéma réunis au sein de la Motion Picture Association of America (MPAA) au magazine "2600", le trimestriel des hackers. La MPAA a traîné la publication devant les tribunaux afin de l'empêcher d'utiliser son site pour faire des liens vers des pages proposant de télécharger le DeCSS, un programme qui décode les DVD et permet de les visionner sous Linux. Si cela n'a pas grand-chose à voir avec les deux cas précédents, il n'empêche que l'hyperlien est encore mis en cause. Il convient donc d'observer attentivement les développements à venir car on peut se demander si l'hyperlien ne risque pas à terme de devenir hors la loi.

Le gouvernement britannique connecte les démunis
Samedi, 22/04/2000 - 00:00

Tony Blair l'a récemment annoncé : son objectif tend vers "l'accès universel" de ses concitoyens. C'est dans ce cadre que s'inscrit l'initiative "Wired communities" (communautés connectées) visant à brancher les "deprived communities" (communautés démunies) à partir de 2001. Des foyers pilote, situés dans des cités et des zones rurales, auront ainsi accès à des services spécifiques, concernant la santé, l'emploi, ou l'éducation. Parmi les exemples cités, la possibilité pour les enfants de réviser des cours en ligne, ou pour les personnes âgées d'effectuer les achats en ligne, et éviter ainsi de se déplacer. Le gouvernement suivra avec attention l'évolution de ce projet, afin d'observer l'impact d'Internet et de l'email dans les zones défavorisées, et notamment le rôle que ces outils peuvent jouer dans l'intégration. Des partenaires privés apporteront leur soutien financier à l'opération

Les News : http://www.lesnews.net/

DFEE : http://www.dfee.gov.uk/news/news.cfm?prnumber=168&pryear=00

La Commission définit sa politique concernant la gestion d'Internet
Samedi, 22/04/2000 - 00:00

La Commission européenne a élaboré des recommandations de base visant à améliorer la gestion future d'Internet. Ces recommandations portent en particulier sur la façon dont l'infrastructure d'Internet - entre autres le système des noms de domaine ".com" et ".gov" et celui des adresses IP (Internet Protocol) - est coordonnée au niveau international. La Commission propose aussi un code de conduite pour lutter contre le cybersquat. Son document de stratégie explore des façons de résoudre les litiges entre noms de domaine et de permettre un plus grand nombre d'adresses internet. Il suggère d'améliorer les relations entre utilisateurs privés et utilisateurs publics dans l'Union européenne et de veiller à ce que l'organisme à but non lucratif chargé de superviser l'enregistrement des noms de domaine soit géré selon des principes transparents et mondialement représentatifs. Les recommandations de base de la Commission sont les suivantes:

-* élire les membres du conseil de l'ICANN ("Internet Corporation for Assigned Names and Numbers") au moyen de procédures transparentes et mondialement représentatives ;

-* veiller à ce que l'enregistrement des gTLD et des noms de domaine de niveau supérieur par code de pays (ccTLD) soit conforme aux principes relatifs à la propriété intellectuelle et la protection des données à caractère personnel ;

-* faire en sorte que le financement de l'ICANN par les "registries" et les "registrars" soit transparent et sûr pour les noms de domaine et les adresses IP ;

-* dégager un consensus concernant les politiques d'enregistrement des ccTLD, en tenant compte de l'intérêt général et du droit communautaire;

-* passer d'un système d'adresses fondées sur des numéros mesurant 32 bits (IPv4) à un protocole d'adresses fondées sur des numéros mesurant 128 bits (IPv6), ce qui permettra beaucoup plus d'adresses et d'usages ;

-* créer un nouveau nom de domaine ".EU" selon des critères transparents ;

-* faciliter l'accès à Internet grâce à des politiques de tarification appropriées pour les lignes louées au niveau communautaire et au dégroupage de la boucle locale.

Un organisme représentatif au niveau mondial et à but non lucratif, l'ICANN, a été constitué afin de gérer les numéros et les noms de domaine d'Internet. Nommés au départ pour une période de deux ans, les membres du conseil de l'ICANN sont maintenant élus. La moitié d'entre eux est élue par des organismes d'autorégulation de droit privé comme les DNSO ("Domain Names Supporting Organisations"), les ASO ("Addresses Supporting Organisations") et les PSO ("Protocols Supporting Organisations"), tandis que la seconde moitié le sera par les utilisateurs d'Internet en général selon une procédure en cours d'élaboration. La Commission européenne et les États membres de l'UE, en tant que membres d'un comité gouvernemental conseillant l'ICANN, veillent à la prise en compte de l'intérêt général et des questions de politique gouvernementale affectant l'utilisation d'Internet. Les noms de domaine sont les outils qui permettent aux particuliers et aux entreprises de communiquer au sein d'Internet. L'enregistrement dans les noms de domaine ".com", ".net" et ".org" a été ouvert à la concurrence et peut être effectué par plusieurs "registrars" (autorités d'enregistrement). L'ICANN a aussi entériné les lignes directrices de l'Organisation mondiale de la propriété intellectuelle (OMPI) relatives à la résolution des litiges concernant les noms de domaine et les marques. Des débats ont actuellement lieu entre l'ICANN, son comité gouvernemental consultatif et les autorités nationales d'enregistrement pour les noms de domaine de niveau supérieur par code de pays afin de clarifier les relations formelles entre les "registries" (gestionnaires de registre), les gouvernements et l'ICANN, compte tenu de l'intérêt général. La Commission a lancé un processus de consultation concernant la création d'un nouveau nom de domaine de niveau supérieur, ".EU". Cet exercice a rencontré un franc succès et a suscité beaucoup de réponses substantielles. La Commission analyse pour le moment ces réponses et décidera sous peu de la voie à suivre.

Commission européenne :

_ http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=IP/00/35...|0|RAPID&lg=FR

Opticiens, chimistes et physiciens préparent l'ordinateur du futur
Samedi, 22/04/2000 - 00:00

A quoi ressembleront les puces du futur ? A de simples molécules d'origine minérale, organique, ou même biologique comme pourraient le laisser croire des expériences menées sur des brins d'ADN. L'énergie qui les fait fonctionner aujourd'hui sera-t-elle remplacée par la lumière crachée par les lasers ? La diversité des recherches portant sur tous ces domaines rend toute prévision illusoire. Joseph Zyss ne se pose pas ce genre de question. Vingt ans de recherche pour France Télécom lui ont appris le pragmatisme en matière d'applications. Pour lui, la cause est entendue : l'ordinateur du futur sera... " hybride ", lance-t-il d'un air entendu. " A moyen terme, les semi-conducteurs resteront indispensables pour certaines tâches. " Mais ils ne seront plus seuls. Directeur du laboratoire de photonique quantique et moléculaire (LPQM), nouvellement créé à l'Ecole nationale supérieure (ENS) de Cachan (Val-de-Marne), Joseph Zyss travaille activement à la naissance de cette nouvelle " électronique ". La première grande mutation a été déclenchée par l'invention des lasers, dans les années 1970, explique-t-il. Les très fins rayons de lumière cohérente (à longueur d'onde unique) qu'ils émettent ont ouvert la voie à la transmission optique des données au sein de " cheveux " de verre, les fibres optiques. Les caractéristiques propres aux ondes lumineuses permettent des débits d'informations beaucoup plus importants que ceux qu'autorise le courant électrique, mais il est nécessaire d'amplifier périodiquement le rayon lumineux. Longtemps, cela n'a pu se faire qu'à l'aide de dispositifs électroniques " classiques ". Un peu comme si " les portions d'autoroutes photoniques étaient connectées entre elles par des départementales électroniques ", dit le chercheur français. Puis vinrent les amplificateurs optiques. La cause est désormais entendue : pour la transmission de données à haut débit, la photonique a détrôné l'électronique. Restait à faire profiter l'ordinateur de cette technique. " L'idée maîtresse a été de renverser la méthode. Partir de la brique de base, c'est-à-dire la molécule, au lieu de tenter de continuer à miniaturiser l'édifice, c'est-à-dire la puce ", raconte Joseph Zyss. Après avoir découvert que, dans la nature, des molécules se comportent un peu comme des composants électroniques de base, les chimistes ont appris à les modifier, les façonner, pour leur donner exactement les fonctions désirées. Le passage à l'optique permettait de résoudre le problème de l'interconnexion élégamment : les molécules pouvant agir sur la lumière à distance, il n'était plus nécessaire de brancher des fils sur ces dernières. Mais, pour transformer une poignée de ces molécules en modulateur (un composant capable d'inscrire de l'information sur un train d'onde) il était nécessaire de les orienter toutes dans le même sens. Une gageure quand on sait que cela ne se produit jamais dans des conditions naturelles, les molécules ayant plutôt tendance à se ranger tête-bêche ! Elles peuvent, certes, se ranger comme à la parade sous l'influence d'un champ magnétique. Mais, dès que l'action de ce dernier cesse, le désordre revient. Joseph Zyss et ses collègues ont imaginé d'effectuer cette opération sur des molécules en solution dans un polymère (matière plastique) à l'état liquide qu'ils solidifient ensuite, les piégeant ainsi dans la position désirée. Si le polymère présente de bonnes qualités de transparence, une lame du matériau ainsi réalisé peut jouer sur les photons d'un rayon laser le même rôle que les " puces " classiques sur les électrons. Les chercheurs du LPQM de l'ENS de Cachan ont déjà réalisé, selon cette méthode, un modulateur optique. Avec des molécules émettrices de lumière (diodes moléculaires) traitées de la même façon, ils ont obtenu un " laser souple " miniature. Ces " polymères dopés ", sophistiqués, pourraient aussi donner lieu à la fabrication d'écrans d'affichage bon marché, plus performants que les cristaux liquides. D'autres dispositifs sont envisageables. Ces polymères souples parfaitement intégrables aux fibres optiques sont, de surcroît, compatibles avec les semi-conducteurs, ce qui permet la réalisation de puces hybrides. Les chercheurs du LPQM travaillent ainsi à la mise au point, pour la firme américaine Motorola, d'un connecteur photonique qui permettrait de brancher directement les fibres optiques sur une antenne... "D'ici dix à vingt ans, pronostique le chercheur français, on assistera à une grande redistribution des cartes autour des nanotechnologies " et des composants à molécule ou même à atome unique.

Le Monde(article résumé par @RTflash) :

_ http://www.lemonde.fr/article/0,2320,seq-2077-50332-QUO,00.html

L'hologramme, superdisquette de demain
Samedi, 22/04/2000 - 00:00

D'ici deux à cinq ans, hologrammes devraient pénétrer au coeur des ordinateurs et multiplier leur capacité de stockage. Aux Etats-Unis, une firme connue pour ses superdisquettes, Imation, affirme pouvoir commercialiser des graveurs d'hologrammes en 2002, révèle le magazine New Scientist. De minces disques de plastique verraient ainsi leur capacité s'envoler à plus de 125 milliards de caractères (125 Go), sans pouvoir effacer les données. L'équivalent d'une demi-douzaine de DVD ou de 200 CD-ROM. L'industriel promet même de faire huit fois mieux par la suite. De quoi placer des dizaines de films sur une galette de plastique faite d'un matériau loin d'être banal, conçu avec les laboratoires Bell. "Le stockage holographique utilise des polymères sensibles à la lumière", explique Daniel Lougnot, qui dirige le laboratoire de photochimie générale du CNRS à Mulhouse, spécialisé dans la conception de ces plastiques. L'holographie est une technique photographique. Utiliser des polymères photosensibles à la place d'une chimie argentique de pellicule photo permet d'éviter l'étape du développement. Pour stocker des informations numériques dans un hologramme, on fabrique un objet artificiel, ou plus précisément une image, à partir d'un gros paquet d'informations. Elle est obtenue à l'aide d'un petit écran à cristaux liquides ou, dans le cas d'Imation, par une puce dotée de miroirs microscopiques pilotés par ordinateur. Après inscription sur le support photosensible, l'ordinateur lit l'image au travers d'un capteur de photo numérique. Il reçoit des millions d'informations d'un bloc, à une vitesse au moins vingt fois plus élevée que celles offertes par le DVD. Et ce n'est qu'un début. La conception du polymère photosensible n'est pas simple. "Il faut une bonne sensibilité à la lumière dans les gammes de couleur adaptées aux lasers du marché", souligne Daniel Lougnot. Les polymères ont progressé, mais restent au moins mille fois moins sensibles qu'un support photographique classique. Imation prévoit d'utiliser un mini laser à gaz, mais les solutions à base de diodes lasers semblent plus prometteuses. Reste l'épineuse question de la densité d'information stockée. Aujourd'hui, les chercheurs obtiennent une résolution légèrement supérieure à celle des bosses gravées au coeur des CD-ROM. Pour aller plus loin, il faut parvenir à empiler des couches, comme dans un DVD. Là-dessus, IBM et Bayer ont leur idée. Mais les deux partenaires s'estiment si proches du but qu'ils ne veulent rien laisser filtrer.

New Scientist : http://www.newscientist.com/news/news_223425.html

Virgin va lancer un mobile lisant de la musique téléchargée
Samedi, 22/04/2000 - 00:00

Virgin Mobile veut lancer cet été le premier téléphone mobile équipé pour lire et télécharger de la musique. L'appareil, qui comprendra un lecteur de musique au format numérique MP3, coûtera environ 300 livres (3.270 francs), a précisé la coentreprise lancée en novembre par Virgin et One2One, filiale de Deutsche Telekom. Il sera fabriqué par Samsung dans le cadre d'un accord de plusieurs millions de livres. Les utilisateurs pourront télécharger jusqu'à l'équivalent d'un album entier à partir de l'internet ou d'un CD. L'appareil a une mémoire de 32 mégabytes et peut récupérer un morceau de musique de trois minutes à partir d'un ordinateur en trente secondes environ. "Nous prévoyons que les gens achèteront de la musique et la téléchargeront aussitôt sur leur téléphone dans nos magasins", explique le président de Virgin, Richard Branson, dans un communiqué. "A l'avenir, il sera possible d'acheter et de télécharger la musique à distance, en utilisant le réseau de téléphonie mobile". De son côté, British Telecommunications Plc a annoncé le lancement cette année d'un téléphone capable de lire des disques miniatures de la taille d'un timbre, pour le prix d'environ 100 livres.

Reuters : http://fr.news.yahoo.com/000413/32/ben1.html

Desernet invente la gravure en ligne
Samedi, 22/04/2000 - 00:00

La société Desernet Broadband Media a inventé un procédé pour réaliser des gravures de CD par l'intermédiaire du Web. Une solution qui risque fort d'intéresser les sites de vente de musique malgré ses lacunes technologiques, inhérentes à l'état actuel du réseau. Vous vous rendez sur un site marchand de vente de disques ou de logiciels et vous y dénichez la perle rare que vous recherchiez depuis des lustres. Vous décidez de le commander en ligne mais avant de pouvoir en profiter, vous devez attendre un peu, le temps que prend l'expédition. Avec le procédé que vient de mettre au point la société américaine Desert Broadband Media, ce temps de latence risque de devenir un mauvais souvenir. Il suffit que l'acheteur possède un graveur de CD et que le site soit équipé de l'application Net CD Burner pour que la gravure s'effectue à distance. Malgré le débit peu conséquent disponible sur le réseau, la technologie semble au point, nos confrères du site hardware.fr ayant procédé à un essai probant, gravant 1 Mo de données en moins d'une minute. Entièrement gratuit pour les acheteurs, ce procédé est promis à un bel avenir. En effet, cette solution pour l'instant valable pour des petits et moyen fichiers, jusqu'à 650 Mo, pourrait aussi servir a terme pour les films en DVD, lorsque les graveurs pour ce type de média se seront standardisés et que les connexions Internet à haut débit seront en place sur l'ensemble de la Toile.

Vunet : http://www.vnunet.fr/VNU2/ent/actualites/page_article.htm?numero=4647

Fuji invente le polaroïd numérique
Samedi, 22/04/2000 - 00:00

Les nostalgiques se souviennent certainement de la languette qu'il fallait tirer sur le polaroïd avant de voir apparaître l'image magique... Tout en conservant la flexibilité qui fait le succès de l'appareil numérique, Fuji a eu la bonne idée d'intégrer une imprimante au dos de sa digicam !Certes, l'appareil n'est pas très sexy et pèse tout de même 500 grammes mais le Fine Pix 21 Princam permet l'impression immédiate (environ une minute quand même...) d'une photo stockée sur la carte smartmedia... Le chargeur peut stocker une dizaine de photos au format 46 x 62 mm. Le prix de l'impression s'élève à environ 5 F par photo. Du VRP en vadrouille en passant par le clubber qui veut immortaliser sa folle nuit, Princam devrait faire des adeptes ! L'appareil, déjà disponible au Japon pour environ 5000 F, ne devrait pas débarquer en Europe avant plusieurs mois.

Transfert : http://www.transfert.net/breves/b0522.htm

Fuji : http://www.fujifilm.co.jp/press/fxpr21.html

La " télévision personnalisée " arrivera en Europe à l'automne
Samedi, 22/04/2000 - 00:00

Les nouveaux enregistreurs vidéo personnels sonneront-ils la fin de la " boîte idiote " (ou dumb box), le surnom américain donné au poste de télévision ? Cette nouvelle technologie, dont la commercialisation commence aux Etats-Unis, devrait, en tous cas, profondément modifier le mode de consommation des programmes télé. Exemple : le téléphone sonne ou bien l'on frappe à votre porte alors que vous êtes en train de regarder la conclusion d'un épisode d' Urgences ou un match de football ? Il suffit d'appuyer sur la touche " Pause " de la télécommande pour que l'émission soit automatiquement enregistrée, et de reprendre ensuite le visionnage sans avoir rien perdu du suspense. Cette fonction, qui permet de suivre en léger différé les programmes copiés sur le disque dur, permet aussi de sauter les écrans publicitaires. On imagine la terreur des diffuseurs et des annonceurs, puisque les revenus des chaînes hertziennes proviennent principalement des rentrées publicitaires. Cette télévision " comme on veut, quand on veut " risque de remettre en question un modèle économique. Prime time, any time : c'est la télévision qui s'adapte à l'emploi du temps des téléspectateurs et non le contraire, sachant que le principal regret de ceux-ci est de manquer leurs émissions préférées. Selon le bureau d'études The Carmel Group, le nombre des utilisateurs, encore moins d'un millier cette année, atteindra 11,3 millions en 2005. Ces boîtiers, plus petits qu'un magnétoscope, sont compatibles avec tous les systèmes de réception, ondes hertziennes, câble ou satellite, auxquels ils finiront sûrement par être intégrés. Le premier appareil lancé sur le marché américain est TiVo. Cette société de Sunnyvale (Californie) a lancé son modèle, fabriqué par Philips, pour 400 ou 700 dollars (2 400 à 4 200 francs selon les capacités de mémoire, de 14 à 30 heures) et un abonnement mensuel de 10 dollars par mois (ou 200 pour une durée illimitée). L'autre pionnier de la télévision à la carte est ReplayTV (fabriqué par Panasonic, commercialisé en mai prochain au prix de 500 dollars) . ReplayTV permet d'accéder aux programmes à partir de zones thématiques, par exemple un " auto-club " qui affiche toutes les émissions sur l'automobile. On peut créer ses chaînes thématiques personnelles, en présélectionnant tous les films d'un certain réalisateur ou acteur annoncés dans les semaines à venir ou toutes les émissions autour d'un sujet donné. Le système le plus sophistiqué est Microsoft WebTV, qui associe la télévision personnalisée aux fonctions de l'Internet et à la réception satellite en numérique d'EchoStar, avec un clavier portable et sans fil (300 dollars). En ligne avec des banques de données, on appelle à l'écran des commentaires ou des statistiques sur un joueur pendant un match sportif, par exemple. Et l'on peut consulter une liste des rencontres à venir et acheter des billets, avec un plan de l'arène en couleurs qui permet de choisir précisément sa place. Les téléspectateurs jouent en ligne à Jeopardy et sont informés de leur score personnel. Cette télévision personnalisée va arriver en Europe : grâce à un accord entre TiVo et BSkyB, les Britanniques seront les premiers Européens à y goûter, dès l'automne prochain.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2061-50694-QUO,00.html

E-Ink : l'encre intelligente
Samedi, 22/04/2000 - 00:00

A priori, cela ressemble à une page imprimée : la feuille est souple, facile à lire. Mais le texte soudain s'efface pour laisser place à un autre. En un clin d'oeil, le contenu de la page et du livre entier change. On peut alors le glisser dans sa poche pour le lire plus tard. Dans un jour, ou dans un mois. Le secret de ce papier qui devrait bientôt donner un sacré coup de vieux aux pourtant encore balbutiants livres électroniques ? Son encre magique, qui change de couleur à volonté. On connaissait déjà l'encre sympathique, incolore et donc invisible tant qu'on ne la soumet pas à une température élevée. Voici venir l'" encre électronique ", qui obéit au simple principe d'attraction - répulsion entre deux charges électriques. Baptisée e-Ink (electronic ink), elle a été inventée au laboratoire Médias du MIT (Massachusetts Institute of Technology) de Boston par le professeur Joseph Jacobson et ses élèves J. D. Albert et Barrett Comiskey. Elle se présente sous la forme de milliers de microcapsules de moins d'un dixième de millimètre de diamètre, renfermant un liquide bleuté où baignent des particules blanches. Il suffit de les soumettre à un champ électrique pour que l'encre prenne vie. Chaque microcapsule voit alors ses particules blanches migrer vers l'avant ou vers l'arrière, selon la polarité du champ, formant soit un point blanc, soit un point bleu. Disposées en fine couche sur un support plastique flexible, entre deux circuits d'électrodes transparentes commandées par un microprocesseur, les capsules laissent apparaître des lettres, ou dessinent une image. Les avantages par rapport à l'e-Book sont multiples. Même en l'absence de champ électrique, les microcapsules restent stables et l'affichage perdure. Fini, donc, les problèmes de mémoire électronique pour stocker le texte : l'encre s'en charge. Fini, également, les problèmes de batterie : l'e-Ink n'a besoin d'énergie que pour changer de texte, son autonomie est ensuite illimitée. Moins fragile que les écrans à cristaux liquides, elle permet en outre une lecture en plein soleil et sous n'importe quel angle de vue. Pourtant, des progrès restent à faire : on pourrait sans doute réduire l'épaisseur des feuilles plastiques, améliorer leur résolution ou introduire la quadrichromie. Et ce d'autant plus que la concurrence est sérieuse : dans les laboratoires de Xerox, le chercheur Nicholas Sheridon, auteur des premières découvertes sur le papier électronique dans les années 70, travaille à un procédé similaire faisant appel à des microbilles, noires d'un côté, blanches de l'autre, qui tournent sur elles-mêmes sous l'effet d'un champ électrique... La société e-Ink, fondée par J. Jacobson en 1997, a déjà séduit plusieurs investisseurs, dont le fabricant informatique Motorola, l'éditeur Hearst, l'afficheur publicitaire Interpublic, la firme chimique allemande Creavis et, depuis janvier, l'éditeur français Havas. D'ores et déjà, e-Ink a entamé la commercialisation de panneaux publicitaires et annonce ses premiers livres pour 2003. De nombreuses autres applications sont à l'étude. Imaginez ainsi votre magazine " imprimé " à l'encre électronique. Le soir, vous l'abandonneriez sur votre table de chevet pour le retrouver le lendemain matin affichant la nouvelle édition chargée automatiquement pendant la nuit via l'Internet ou les ondes radio.

Le Point : http://www.lepoint.fr/data/PNT1439/3904601P.html

^ Haut
Avenir
Nanotechnologies et Robotique
Un nouvel alliage d'aluminium super-résistant
Samedi, 22/04/2000 - 00:00

YKK Corp. et un groupe de recherche de l'université de Tohoku ont développé conjointement un technologie pour produire un alliage d'aluminium qui serait 50% plus résistant que le Duralumin, le plus performant jusqu'ici des alliages d'aluminium du point de vue légèreté et résistance a la contrainte. Le nouvel alliage se recycle aussi mieux. Le premier fabricant d'aluminium japonais, avec l'aide du Pr. Akihisa Inoue du célèbre Institute of Material Research, espère parvenir a commercialiser des équipements de fabrication bases sur cette technologie des l'année 2003. Cet alliage est élabore avec des méthodes similaires a celles utilisées pour la fabrication de films minces semi-conducteurs. Les matériaux sont dans un premier temps vaporises dans une chambre a vide. Les fines couches de matériaux sont alors déposés sur des substrats de cuivre. Les alliages élaborés de cette façon possèdent alors une structure mi-cristalline mi-amorphe ce qui leur confère une résistance accrue. Une plaque d'alliage fabriquée avec cette technique a résiste a un étirement dont la contrainte s'élevait jusqu'à 80 tonnes/ cm2, ce qui signifie une amélioration de 50 % par rapport au Duralumin. Un véhicule ou un avion fabrique avec cet alliage ne manquera pas de voir sa consommation en carburant fortement réduite. Le Duralumin est normalement compose de 10% de nickel et de titane disperse dans de l'aluminium. Lorsqu'il est refondu pour recyclage sa résistance s'en trouve diminuée. Les alliages élaborés avec la nouvelle technique contiennent moins de 3 % de métaux autres que l'aluminium, ce qui améliore la recyclabilite et aide le matériau à conserver ses qualités de résistance.

Ambassade de France au Japon : http://www.adit.fr

Des fibres de carbone pour renforcer les immeubles
Samedi, 22/04/2000 - 00:00

Dans un premier temps, les constructions en fibre de carbone étaient recherchées essentiellement pour leurs performances mécaniques et leur légèreté, leur coût relativement élevée en limitant l'utilisation massive. Or on constate aujourd'hui que, tout en développant des performances de plus en plus poussées, les structures en fibre de carbone voient leur coût continuellement diminué. Par ailleurs, les professionnels du BTP prennent conscience des gains a long terme que peut procurer ce matériau, a l'encontre de l'utilisation de matériaux traditionnels moins onéreux mais dont les performances dans le temps sont problématiques. Un récent projet de Restructuration Corp. a Sedelia dans le Colorado, démontre comment la consolidation par le carbone peut être exploitée a l'intérieur même des bâtiments, pour accroître la longévité de leur structure et renforcer tés sensiblement leur résistance aux de tremblements de terre. Dans un immeuble du centre ville de Salt Lake City, Utah les ingénieurs, afin de répondre aux normes antisismiques, ont préconisé l'utilisation de carbone, de fibre de verre, et de composites a base de résine pour renforcer les colonnes, les poutres, et les solives. Apres avoir sablée et prépare la surface en béton avec de l'epoxy, le composite en carbone est appliquée. Les bandes de carbone sont placées dans le sens de la longueur, sur les deux cotés opposés de la colonne, les fibres de carbone étant alignées verticalement. Cette orientation permet de résister aux charges latérales. La colonne est ensuite entourée de bandes de plus d'un mètre de large de fibre de verre unidirectionnelle, les fibres étant cette fois-ci orientées horizontalement. Des tests en laboratoire et sur le terrain ont déjà permis de montrer que la ductilité des colonnes avait été multipliée par 8.

LA LETTRE MATERIAUX DE WASHINGTON : http://www.france-science.org

Coup de maître sur le billard des atomes
Samedi, 22/04/2000 - 00:00

Une équipe de l'université d'Oxford (Grande-Bretagne) vient d'ajouter un nouvel outil à la panoplie des instruments qui ouvrent la conquête du nanomonde : le billard à l'échelle atomique. John Pethica et ses collègues sont parvenus à faire glisser des atomes sur une surface plane à l'aide de la sonde d'un microscope à effet tunnel. Un déplacement suivant deux axes et le tout à température ambiante. Une première. En 1986, deux chercheurs du laboratoire IBM de Zurich obtiennent le prix Nobel pour la mise au point du microscope à effet tunnel. Un instrument capable de visualiser atomes et molécules à l'aide d'une sonde, une mince aiguille dont l'extrémité est large d'un atome. Depuis les scientifiques ne cessent de découvrir les possibilités multiples de ce nouvel outil polyvalent. Une pipette capable de déposer les atomes un à un, tout d'abord, que les chercheurs d'IBM présenteront en dessinant un logo de leur entreprise large de quelques molécules. Au milieu des années 90, les mêmes chercheurs annoncent que la mince aiguille peut faire office de râteau et déplacer les atomes le long d'un rail. Cette fois, ils construisent un boulier. Mais il restait encore à maîtriser les mouvements latéraux à une température acceptable. C'est ce que sont parvenus à faire les chercheurs britanniques qui ont réussi à utiliser les effets néfastes de la température à leur avantage. Refroidie à - 240°C, l'aiguille de leur microscope pousse les atomes sur un axe avec précision. Des travaux américains avaient obtenu un déplacement d'un atome froid sur deux axes. Mais à température ambiante, l'aiguille tremble trop pour atteindre sa cible et elle dérape sur un côté de l'atome et envoie celui-ci de l'autre côté, comme au jeu de billard. C'est cet effet "billard" qui a pu être maîtrisé par les chercheurs britanniques en chauffant l'atome à l'aide de l'aiguille. "Nous espérons un jour parvenir à assembler ou à couper des molécules atome par atome. Et pourquoi pas des molécules organiques, explique John Pethica. Peut-être pourrons-nous modifier de l'ADN ou mettre au point des composants électroniques moléculaires de cette manière."

Brève rédigée par @RTFlash

BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_712000/712191.stm

_ Nature 404/13-04-2000 : http://www.nature.com/

^ Haut
Matière
Matière et Energie
Omron et Hitachi ont développé un microprocesseur exécutant directement le code Java
Samedi, 22/04/2000 - 00:00

Ce microprocesseur, baptisé JeRTy, est destiné à la prochaine génération de systèmes de téléphonie. Il permettra aux souscripteurs d'engager des communications interactives vingt fois plus rapides que ce qui possible avec les puces existantes. L'architecture utilise une technologie FPGA (Field Programmable Gate Array) opérant à une fréquence de 8 MHz. Une version encore rapide devrait être disponible l'automne prochain.

ADIT : http://www.adit.fr/

Ecrans plats : LCD et Plama plutôt complémentaires que concurrents
Samedi, 22/04/2000 - 00:00

Le constructeur japonais NEC a présenté un nouveau type de dalle pour les écrans plats de technologie LCD TFT (matrice active). Avec une diagonale de 20,1 pouces, ces nouvelles dalles présentent une surface d'affichage comparable à celle d'un écran à tube cathodique de 60 cm. Là où Nec innove principalement, c'est dans la résolution et le nombre de couleurs que cet écran est capable d'afficher. En effet, une fois intégrée dans un moniteur, cette dalle peut monter jusqu'à la résolution de 1 920 par 1 200 points en 16 millions de couleurs. Toujours au niveau technique, le pitch (distance élémentaire entre les points) tombe à 0,225 mm. Autre bénéfice permis par ce type de dalle, l'aspect 16/10 pour visionner des films avec l'aspect d'un écran de cinéma ou d'un bon téléviseur de salon. De son coté Hitachi a présenté un nouvel écran à technologie Plasma, le CMP307. Avec une diagonale de 37 pouces, cet écran est l'un des plus petits (vous avez bien lu !) à utiliser un affichage Plasma. D'une résolution maximale de 1 024 par 768 points, il possède un pitch de 0,245 mm. Il vous faudra cependant débourser 120 000 francs HT pour accéder à cet écran de rêve. Si la taille des écrans LCD augmente parallèlement à la miniaturisation des Plasma, cela ne signifie pas pour autant que les deux technologies vont être placées en concurrence frontale. Au contraire, comme nous a expliqué un responsable de NEC, chez ce constructeur on considère que la taille maximale pour les écrans LCD serait de 25-30 pouces. En effet, au delà, le coût de fabrication de dalles serait prohibitif. A la différence du Plasma, qui voit son coût chuter quand la taille de l'écran baisse. Mais à la décharge de la technologie Plasma, plus l'écran est petit, moins bonne est sa qualité d'image. Toujours pour Nec, ce type de technologie serait plutôt destiné à des écrans de grand format et NEC compte monter cette taille à 70 pouces (soit presque deux mètres de diagonale).

Vunet : http://www.vnunet.fr/VNU2/actualites/page_article.htm?numero=4634

^ Haut
Espace
Espace et Cosmologie
Les trous de ver permettront-ils les voyages inter-gallactiques ?
Samedi, 22/04/2000 - 00:00

Existe-t-il vraiment des trous de ver dans l'espace? Les astronomes n'ont jamais réussi à détecter un seul de ces raccourcis cosmiques reliant des points éloignés de l'univers. Mais les physiciens persistent et signent : ces tunnels à travers l'espace-temps existent bel et bien. Ils pourraient même être assez stables et assez gros pour permettre des voyages intergalactiques. C'est du moins ce qu'affirme Sergei Krasnikov, de l'Observatoire de Saint-Petersbourg, en Russie. Diverses théories s'affrontent sur la nature des trous de ver, mais on s'entend habituellement pour dire qu'ils se sont formés soit lors du Big Bang, soit lors de la création des trous noirs. Ils relieraient des points éloignés de l'espace et du temps. En empruntant ces raccourcis, on pourrait en quelque sorte aller plus vite que la lumière. On croit qu'une sorte de matière à énergie négative, la " matière exotique " les maintiendraient ouvert. Malheureusement, les modèles physiques actuels donnent à penser que cette matière exotique est rare, ce qui limiterait les trous de ver, s'ils existent, à la grosseur d'une particule sub-atomique. Les calculs du chercheur russe, décrits dans la revue New Scientist, montrent toutefois qu'un trou de ver assez grand et assez stable pour laisser passer des gens pourrait bien exister. Les calculs, fort compliqués, ne font appel qu'à des lois connues de la physique. Ils expliquent comment un trou de ver pourrait lui-même créer toute la matière exotique dont il a besoin pour subsister. La communauté scientifique est intriguée, mais pour tester l'idée, il faudrait en fabriquer un, ce qui sera hors de notre portée pendant encore très longtemps. Mais le chercheur croit que certains trous de vers apparus pendant le Big Bang auraient pu se maintenir depuis. En découvrir un, croit-il, nous ouvrirait la porte du voyage interstellaire.

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N1776.asp

New Scientist : http://www.newscientist.com/news/news_223420.html

Lightcone : http://www.phy.syr.edu/courses/modules/LIGHTCONE/index.html




L'objet céleste le plus éloigné jamais observé
Samedi, 22/04/2000 - 00:00

Un nouveau record a été battu pour l'objet céleste le plus éloigné jamais détecté, avec un astre dont la source lumineuse remonte aux balbutiements de l'univers, à peine un milliard d'années après le Big Bang, ont annoncé vendredi des astronomes participant au projet d'exploration du cosmos Sloan Digital Sky Survey (SDSS). Cet objet de couleur rouge est un quasar, un astre d'apparence stellaire dont la source d'énergie proviendrait d'un trou noir dont la masse atteindrait celle de milliards de soleils, a indiqué le porte-parole du SDSS, le Pr. Michael Turner, de l'Université de Chicago (Illinois) et du laboratoire Fermilab. "Etant donné la luminosité exceptionnelle de ce nouveau quasar, il fournit une chance merveilleuse pour l'étude de l'univers tel qu'il existait au moment où les galaxies que nous voyons maintenant étaient jeunes", a souligné un des responsables du projet SDSS, le Pr. Robert Lupton. Jusqu'à présent, le SDSS, qui établit la carte du ciel dans l'hémisphère nord, a découvert un millier de quasars, dont les huit plus éloignés. Ce programme international regroupe des universités américaines, des organismes japonais et le Max Plank Institut pour l'astronomie en Allemagne.

Brève rédigée par @RTFlash

New York Times : http://www.nytimes.com/library/national/science/041400sci-space-quasar.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les glaciations passées aident à comprendre le réchauffement futur
Samedi, 22/04/2000 - 00:00

Une température moyenne inférieure d'à peu près 5 degrés Celsius à celle d'aujourd'hui, la calotte polaire recouvrant une bonne partie de l'Europe, de l'Asie, de l'Amérique du Nord et du Sud : telle la physionomie de la Terre durant 80 % du temps ces derniers 2,5 millions d'années. A bien des égards, les glaciations constituent " l'état climatique normal de la planète ", estime Mark Maslin, de l'University College de Londres. Le cycle glaciaire est fonction de l'orbite de la Terre autour du Soleil, qui change de forme (elle devient plus ou moins circulaire ou elliptique) avec une période d'environ cent mille ans. Ces cycles rythment la fréquence avec laquelle débutent les périodes glaciaires. Les variations qu'ils induisent dans le flux d'énergie solaire atteignant la Terre sont, cependant, beaucoup trop faibles pour modifier le climat à elles seules. L'atmosphère et les océans jouent forcément un rôle d'amplificateur, encore largement mystérieux. Pour comprendre comment et pourquoi commence et finit une ère glaciaire, la meilleure démarche est de reconstituer le climat terrestre en divers lieux et à diverses époques et de comparer toutes ces données. On peut remonter le temps climatique en creusant dans les épaisses couches de sédiments du fond des océans ainsi que dans les glaces du Groenland et de l'Antarctique, où la neige tombée depuis des millénaires s'entasse sur plusieurs kilomètres d'épaisseur. Les carottes extraites lors de ces forages recèlent des indices concernant les climats passés, parmi lesquels le rapport de deux types d'oxygène - l'oxygène 16 et l'oxygène 18, plus lourd car possédant deux neutrons de plus dans son noyau - est sans doute le plus intéressant. En effet, l'eau s'évapore plus vite quand elle contient de l'oxygène 16, plus léger. Avec le froid, la vapeur d'eau atmosphérique a tendance à se fixer dans les calottes de glace, qui croissent alors que le niveau des océans baisse. Ce transfert entraîne une hausse de la teneur de l'oxygène 16 dans les glaces et de l'oxygène 18 dans les mers. Plus on fore profond pour ce genre d'investigation, plus on s'éloigne dans le temps. Ainsi, Niall Slowey et Gideon Henderson, du Laboratoire de la Terre Lamont-Doherty (université Columbia, New York), ont appliqué des méthodes de datation améliorées aux températures déduites de l'analyse des coquilles de foraminifères. Cela leur a permis de fixer - avec une précision jamais atteinte - la fin de l'avant-dernière période glaciaire à cent trente-cinq mille ans, à deux mille ans près. Leur article, publié le 2 mars dans Nature, explique que le réchauffement a débuté au sud de l'équateur et non au nord, comme on le pensait généralement. Selon Henderson, la " cause première " en a été l'augmentation du rayonnement solaire sur l'hémisphère Sud. Ce phénomène aurait fait fondre les glaces de l'Antarctique, ce qui aurait provoqué une élévation du taux de dioxyde de carbone (CO2) dans l'atmosphère. L'effet de serre ainsi obtenu aurait réchauffé l'ensemble de la planète, y faisant fondre les glaciers... Le lien entre la couche de glace de l'hémisphère Sud et le CO2 est corroboré par un autre rapport, paru le 9 mars dans Nature sous la signature de Britton Stephens et Ralph Keeling, de l'Institution Scripps d'océanographie (Californie). Pendant les ères glaciaires, la proportion de CO2 dans l'atmosphère baisse d'un tiers, ce qui diminue l'effet de serre et entretient le froid. En se servant d'un modèle informatique, Stephens et Keeling expliquent cette chute : une banquise plus étendue dans l'Antarctique freine le dégazage du CO2 dissous dans l'océan. Selon Stephens, les preuves qui s'accumulent sont " révélatrices " des forces à l'origine du changement climatique dans l'hémisphère Sud.Kurt Cuffey, de l'université de Californie (Berkeley), et Shawn Marshall, de l'université de Colombie-Britannique (Vancouver), se sont, pour leur part, penchés sur la dernière période interglaciaire (de cent trente mille à cent dix mille ans). Ayant révisé la façon dont les proportions d'oxygènes 16 et 18 relevées dans les carottes de glace sont traduites en températures, les deux scientifiques indiquent, dans un article publié le 6 avril par Nature, que le Groenland était, durant cette période, plus chaud qu'on ne le pensait jusqu'à présent. Entrant ces nouvelles données dans un modèle informatique, ils ont calculé que la fonte des glaces qu'y provoqua ce réchauffement pourrait avoir été suffisante à elle seule pour élever le niveau de la mer de 4 mètres." Nos résultats, indique Cuffey, renforcent l'idée qu'une hausse de plusieurs mètres au moins du niveau de la mer accompagnerait très certainement un important réchauffement climatique. " Selon lui, " la fonte des glaces du Groenland pourrait entraîner une montée des océans de 50 à 70 cm environ au cours du siècle prochain. "

Le Monde(article résumé par @RTFlash) :

_ http://www.lemonde.fr/article/0,2320,seq-2077-50492-QUO,00.html

_ Nature : http://www.nature.com/nature/

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Antibiotiques : une nouvelle molécule prometteuse
Samedi, 22/04/2000 - 00:00

Une nouvelle molécule dotée de puissantes propriétés anti-bactériennes et synthétisée par des chercheurs américains pourrait contribuer à combattre les infections résistantes aux traitements actuellement disponibles, selon la revue scientifique britannique Nature. La résistance des germes à l'action des antibiotiques s'accroît dans le monde et le développement de nouvelles molécules pour remédier à cet état de fait est devenu une priorité, selon l'hebdomadaire. Samuel Gellman et ses collègues de l'université du Wisconsin annoncent dans une brève communication qu'ils ont réussi à synthétiser une nouvelle molécule aux propriétés anti-bactériennes puissantes. Les chercheurs ont développé une version artificielle de la magaïnine, petite protéine qui appartient à une classe d'antibiotiques naturels, produits par de nombreux organismes. Cette version artificielle résiste à la digestion par l'estomac et se montre active contre des souches de bactéries résistantes à d'autres antibiotiques. L'étude des moyens de défense naturelle de grenouilles, de crabes, d'insectes et divers animaux est devenue une source d'inspiration pour les chercheurs dans leur quête de nouvelles molécules anti-infectieuses. Un bon usage des antibiotiques, en évitant leur surconsommation et les sous-dosages, contribue par ailleurs à limiter la propagation de bactéries résistantes aux traitements, selon les spécialistes.

AFP : http://www.afp.com/ext/francais/lemonde/sci/000405192838.nzsv485r.html

Nature :

_ http://www.nature.com/cgi-taf/dynapage.taf?file=/nature/journal/v404/n6778/index...=

Une vie sociale riche pour garder le cerveau en forme
Samedi, 22/04/2000 - 00:00

Le risque de démence peut croître de 60 % chez les personnes âgés dont les relations sociales sont insuffisantes. Une étude suédoise montre que des contacts fréquents et durable avec la famille et des amis limite le risque de démence. Une équipe de chercheurs suédois a suivi pendant 3 ans 1203 personnes, âgées de 75 ans et plus, qui ne présentaient pas de trouble cognitif au début de l'étude. Des infirmières ont recueilli des informations sur le tissu relationnel de ces personnes lors d'entretiens individuels. Les cas de démence ont ensuite été diagnostiqués selon des critères prédéfinis. Les autres facteurs pris en compte était, l'âge, le sexe, le niveau d'instruction, les maladies vasculaires et l'état cognitif et physique des individus. Après trois ans de suivi en moyenne, 176 cas de démence ont été diagnostiqués. Les personnes vivant seules ou n'ayant aucun lien social présentaient un risque de démence de 1,5. Comparés avec les personnes vivant en couple, le risque de démence pour les personnes seules était presque multiplié par 2. Fait intéressant, une fréquence réduite des contacts (avec la famille, des amis) ne conduit pas à une augmentation du risque si ces contacts sont jugés satisfaisants par la personne. L'étude montre que le risque de démence est augmenté de 60 % chez les personnes dont le réseau social est limité ou absent. Le Dr Fratiglioni et ses collaborateurs suggèrent donc qu'un réseau social dense pourrait réduire l'incidence de la démence chez les gens âgés. La confirmation de ce résultat et la compréhension des mécanismes biologiques sous-jacents sont primordiales en terme de prévention et de santé publique. Mais il est à présent certain que l'environnement relationnel joue un rôle déterminant chez les personnes âgées en matière de prévention des maladies neurodégénératives et de maintien de l'autonomie personnelle.

Brève rédigée par @RTflash

Lancet : http://www.thelancet.com/newlancet/reg/issues/vol355no9212/menu_NOD999.html

Hypertension, nos amies les bêtes
Samedi, 22/04/2000 - 00:00

Si vous êtes hypertendu, achetez donc un chien ou un chat. Vous supporterez mieux les pressions et serez moins sujet aux à-coups de tension ! Ce conseil étrange est fondé sur des travaux menés avec le plus grand sérieux. Une équipe de Buffalo, près de New York, a suivi pendant plusieurs mois des hypertendus en situation de stress. Présentés début novembre à l'Association américaine de Cardiologie, ses résultats paraissent convaincants. Les " cobayes " retenus pour cette expérience, des courtiers en bourse des deux sexes, constituaient une population idéale toujours sous pression. Ces malades hypertendus ont bénéficié d'un traitement qui a normalisé leur tension. Cela fait ils ont été exposés à un stress intense : face à eux, un client certes virtuel mais... très fâché car ils lui avaient fait perdre 500.000 francs en bourse ! Simplement traités par un anti-hypertenseur, ces courtiers en situation d'agression ont franchi la limite considérée comme normale, soit 14-9 de tension. En revanche chez celles et ceux qui possédaient un chien ou un chat depuis 6 mois ou plus, l'augmentation des chiffres tensionnels a été diminuée de moitié. Mieux encore : les chiffres enregistrés n'ont jamais excédé une moyenne de 14-9,5 au lieu de 18-13 dans l'autre groupe. D'accord, un animal ne vous dispense pas de traitement. Mais il le rend plus efficace et il tient compagnie...

HealthandAge : http://fr.news.yahoo.com/000411/54/b6bt.html

Il est normal de vieillir, mais pas d'être diminué !
Samedi, 22/04/2000 - 00:00

Sur les 1,5 milliards de malades qui souffrent de troubles psychiques, près de 22 millions sont atteints de démence vasculaire ou de Maladie d'Alzheimer. Ces deux maladies sont très souvent rassemblées sous l'appellation générique de démence sénile et deviennent en effet plus fréquentes, en raison de l'allongement de l'espérance de vie. Pourtant, il ne s'agit pas d'une conséquence en quelque sorte "normale" du vieillissement. Il est parfaitement naturel de vieillir. Chez une personne en bonne santé, cette étape de la vie ne doit pourtant pas être synonyme de déclin. Le grand âge n'est pas inévitablement accompagné d'une altération de la mémoire, de la compréhension, de la capacité d'apprentissage, du langage et du jugement ainsi que de la faculté de réflexion et de calcul. Si des troubles de ce type apparaissent, ils doivent être signalés au médecin traitant. Le malade risque de ne pas le faire lui-même, précisément parce qu'il ne mesure pas l'importance de son handicap. Des traitements nouveaux - les inhibiteurs de l'acétylcholinestérase - permettent de préserver ou même de restaurer les capacités des patients, contribuant à leur maintien à domicile. Toutefois, leur indication ne peut être posée qu'après une évaluation rigoureuse par le médecin généraliste, puis par un spécialiste.

OMS, Rapport sur la Santé dans le monde, 1999 : http://fr.news.yahoo.com/000417/54/bohr.html

Bientôt de l'ADN artificiel
Samedi, 22/04/2000 - 00:00

A l'exception de certains virus, l'ADN de tous les êtres vivants est codé à l'aide de seulement quatre substances chimiques, connues sous le nom de bases: l'adénine, la thymine, la cytosine et la guanine. Le génome apparaît donc comme un livre écrit à l'aide de quatre lettres seulement, A, T, C et G. Mais cela pourrait changer à l'avenir. Des chercheurs américains ont trouvé le moyen d'ajouter des bases artificielles à l'ADN, ajoutant en quelque sorte des lettres à l'alphabet de la vie. Les quatre bases naturelles s'associent toujours par paires; trois paires forment un codon, qui correspond à l'un des 20 acides aminés formant une protéine. Mais des chercheurs de l'Institut de recherche Scripps, en Californie, sont parvenus à assembler des paires de bases artificielles, créant ainsi des codons et des acides aminés nouveaux qui eux mêmes peuvent s'assembler en protéines inédites dans la nature. Jusqu'à présent l'ADN comportant des bases artificielles n'arrivait pas à se répliquer mais les chercheurs américains sont parvenus à surmonter cet obstacle en fabriquant 20 nouvelles bases et en essayant, une à une, diverses combinaisons avec des polymérases - l'enzyme chargée de la réplication de l'ADN. Certaines d'entre elles paraissent maintenant viables. Il reste à présent à insérer cet ADN inédit dans des bactéries et à faire fonctionner ce nouvel ensemble sans nuire au fonctionnement normal de la cellule. En cas de succès on obtiendra des bactéries capables de produire des protéines complètement nouvelles, très différentes de ce que peuvent produire les êtres vivants ordinaires.

brève rédigée par @RTFlash

New Scientist : http://www.newscientist.com/news/news_223332.html

La révolution des tests génétiques
Samedi, 22/04/2000 - 00:00

La médecine du XXIème siècle sera-t-elle génétique ? Le diagnostic, en tous cas, le devient déjà. 650 maladies dues à des anomalies génétiques ou chromosomiques sont aujourd'hui détectées chez l'adulte, sur le foetus et même sur l'embryon de quelques cellules. Ce nombre augmente en permanence et d'autres prouesses se profilent. Trouver, par exemple, des solutions pour les maladies polygéniques (impliquant plusieurs gènes) et multifactorielles (facteurs environnementaux et génétiques), qui rassemblent un nombre important de pathologies chroniques communes, comme le diabète ou l'hypertension artérielle. Ces nouvelles techniques sont en pleine évolution. Leur champ d'application devrait s'élargir -il existe plus de 5000 maladies génétiques mendéliennes- et s'industrialiser, ce qui rendra leur utilisation moins coûteuse. A terme, c'est l'exercice de la médecine, notre rapport à la maladie, sa perception sociale, qui vont être profondément modifiés par l'arrivée des tests génétiques. Pour le meilleur, souvent, mais aussi, parfois, pour le pire. Ainsi, la technique du diagnostic pré-implantatoire, autorisée en France depuis juillet dernier, permet aux couples à risques de bénéficier d'une détection d'une anomalie génétique chez l'embryon, avant son implantation dans l'utérus de la mère. Mais on voit également, dans certains pays, des compagnies d'assurances envisager de soumettre leurs contrats aux résultats des tests génétiques des assurés. En France, les compagnies ont décidé sur ce point un moratoire jusqu'en 2004. Et après ?

Biotech : http://www.usinenouvelle.com/

Alzheimer et Parkinson : des avancées concrètes
Samedi, 22/04/2000 - 00:00

L'espérance de vie augmente à un rythme soutenu et la prise en charge des maladies de la vieillesse devient plus que jamais un problème politique. Ces deux affections sont une double menace pour la qualité de vie et l'autonomie de malades en nombres grandissant. L'une et l'autre peuvent aujourd'hui bénéficier de progrès thérapeutiques très concrets. Grâce à de nouvelles voies métaboliques d'intervention, le blocage des transmissions nerveuses induit par la maladie d'Alzheimer peut être ralenti. Certains malades, inclus dans des études comportant déjà plusieurs milliers d'individus, bénéficient même d'une amélioration sensible de leurs fonctions cognitives. Acquisition de connaissances, autonomie quotidienne sont transformées. Les crises délirantes, les phénomènes hallucinatoires et l'apathie propres à ces malades sont également réduites. En ce qui concerne la maladie de Parkinson, elle aussi très invalidante, les progrès sont tout aussi tangibles. Les traitements récents permettent de mieux maîtriser les variations motrices dont souffrent encore 60% des patients soignés par la L-dopa. Dans l'un comme l'autre cas la qualité de vie non seulement des malades mais aussi de leur entourage se trouve améliorée. Par ailleurs, les améliorations objectives observées dans les comportements quotidiens permettent d'espérer un allongement de leur période d'autonomie. Un vieillard capable de se diriger, de rechercher un numéro et d'appeler au téléphone sans aide extérieure reste intégré dans le tissu social. Le point de vue des institutions et des politiques, dans ce domaine, est prépondérant. Il n'est donc pas anodin de noter que le coût de la prise en charge médicale devrait se trouver compensé, et même bien au-delà, par les économies réalisées sur la prise en charge des dépendances.

Impact Médecin Hebdo : http://fr.news.yahoo.com/000413/54/bcr8.html

Les chromosomes 5, 16 et 19 du génome humain ont été décodés
Samedi, 22/04/2000 - 00:00

Les chercheurs de l'Institut du Génome de Walnut Creek en Californie, ont séquencé presque totalement trois chromosomes, les 5, 16 et 19, ce qui représente 10 à 15.000 gènes et plus de 300.000 paires de bases, soit environ 11% du génome humain. C'est le secrétaire à l'Energie Bill Richardson qui a annoncé ces résultats devant un congrès de l'Association américaine pour le progrès de la science. Les chercheurs doivent maintenant identifier très précisément la fonction de chaque gène. Le chromosome 5 est le plus important des trois ; selon les chercheurs de Walnut Creek il contient des gènes impliqués dans le cancer colorectal et dans une forme particulière de leucémie. Le chromosome 16, comporte des gènes défectueux liés aux cancers du sein ou de la prostate. Quant au chromosome 19, du génome, il contient des gènes responsables de l'artériosclérose, de l' hypertension et d'un type de diabète mais il recèle aussi des gènes qui permettent des corrections de l'ADN. Ces résultats sont disponibles sur la banque de données publique GenBank.

Brève rédigée par @RTFlash

BBC News : http://news.bbc.co.uk/hi/english/sci/tech/newsid_713000/713280.stm

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'INPL de Lorraine mise sur les nouvelles technologies éducatives
Samedi, 22/04/2000 - 00:00

Le Service Commun de Formation Continue de l'Institut National Polytechnique de Lorraine (I.N.P.L.) propose plusieurs formations en utilisant les Nouvelles Technologies Educatives (N.T.E.) notamment le réseau Internet et les outils de travail collaboratifs :

-* une formation Elan Ingénieur Grandes Ecoles (EIGE) qui permet à des techniciens supérieurs ayant trois ans d'expérience professionnelle de devenir ingénieurs. De nombreuses écoles sont accessibles (Mines de Nancy, ENSEM,.) et pour certaines écoles le premier semestre du cycle terminal sont proposés entièrement à distance, ce qui réduit à 1 an le temps en présentiel dans l'ensemble de la formation.

-* une formation multi-options permettant à des techniciens supérieurs d'effectuer un cursus diplômant dans les domaines de la biologie ainsi que la gestion des ressources humaines. La durée de cette formation est d'une année entière à distance. Chaque discipline est divisée en modules. Les cours sont accessibles sur le serveur de ressources, à partir du réseau internet. Le serveur contient des exercices (au format PDF) corrigés avec solutions ou corrigés détaillés en consultation immédiate ou différée. L'enseignant responsable du module suit à distance le déroulement et le suivi pédagogique Les échanges avec l'enseignant tuteur se font par le réseau chaque semaine. Plusieurs fois par semaine des chatroom sont organisées, véritables TD qui permettent de valider les acquis, proposer des exercices supplémentaires, répondre aux questions des stagiaires. En cours de cycle des regroupements présentiels (tous les deux mois) sont consacrés aux évaluations, au travail de la communication, ainsi qu'à des échanges stagiaires/enseignants pour faire le point sur l'avancement de la formation. Opérationnelle depuis plus d'un an cette formation innovante a fait ses preuves et ouvre des perspectives innombrables.

I.N.P.L de Lorraine : http://eige.inpl-nancy.fr

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Hélico perso !
Samedi, 22/04/2000 - 00:00

Looké façon film de science-fiction, SoloTrek est peut-être le scooter volant de demain. Conçu en secret jusqu'en septembre dernier par la société américaine Millenium Jet, dans un petit laboratoire de la Silicon Valley, l'engin est actuellement développé en collaboration avec la NASA. Portrait-robot de la chose : deux énormes hélices de part et d'autre d'une sorte de siège-baquet qui permet au pilote de conduire debout, des commandes à la main, un décollage vertical et deux roulettes pour l'atterrissage... Toujours en phase de test préliminaire, l'appareil n'a pas encore pris son envol, mais il fréquente assidûment les "tunnels à vent" de la NASA afin d'être opérationnel pour un vol grandeur nature courant 2000. Sur le papier -- enfin, sur les écrans d'ordinateurs -- le SoloTrek devrait pouvoir atteindre une altitude de 30 mètres, et se propulser à une vitesse de 128 km/h sur 190 km. Au stade actuel de développement, difficile d'obtenir plus de détails, sinon que les processus de sécurisation de l'appareil seront multipliés de façon à tendre vers le risque zéro. Même s'il est quasiment opérationnel, le SoloTrek ne sera pas sur le marché de sitôt. Une fois efficiente, la machine à voler servira vraisemblablement, en premier lieu, les intérêts de l'armée, de la police, et des secours. Sera-t-elle accessible un jour au grand public ? "Tous les marchés seront pris en compte, une fois que SoloTrek aura été dûment testé", explique Michelle Garrett, porte-parole de Millenium Jet, qui n'exclut pas une version civile de l'appareil. Son prix, qui variera en fonction des déclinaisons du modèle, devrait alors atteindre celui d'une "voiture de sport haut de gamme". Quant à savoir quel genre de permis sera nécessaire pour piloter ce type d'appareil, il est encore trop tôt pour le dire.

Transfert : http://www.transfert.net/breves/b0514.htm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top