|
|
|
|
|
NUMERO 67 |
|
|
|
|
|
|
|
Edition du 15 Octobre 1999
|
|
|
|
|
Edito
L'Homme a-t-il encore un avenir ?}
Une réaction en chaîne, qui aurait pu avoir des conséquences très graves, s'est déclenchée parce qu'un manipulateur a versé quelque seize kilogrammes de substance radioactive là où il n'aurait dû en mettre que deux. Une sonde s'est écrasée sur Mars parce qu'un technicien a oublié, lors de la programmation, de convertir des pieds en mètres. Des dizaines de personnes sont mortes dans un accident de chemin de fer parce que le conducteur du train, qui lui aussi est décédé, n'a pas respecté les feux de signalisation. Quel est le trait commun de ces trois événements graves qui viennent de marquer ces trois dernières semaines ? Ils ont tous trois été provoqués par une erreur humaine... Dans un même temps, des dizaines de centrales nucléaires, des centaines de satellites et des milliers de trains et d'avions ont respecté de façon " nominale " leurs programmes comme aiment le dire les spécialistes, c'est-à-dire sans l'ombre de la moindre erreur. Qu'ont en commun ces systèmes pour leur permettre d'affronter à chaque instant avec efficacité et fiabilité des situations complexes ? Ils sont tous gérés par des robots... Avant 2020, l'intelligence artificielle va prendre une telle importance dans l'environnement de chacun d'entre nous, que ce soit à la maison, au travail ou dans notre voiture, que certains observateurs se posent ouvertement la question de l'avenir en se demandant si l'homme ne va pas devenir obsolète. En inventant le premier outil, ce qui l'a profondément différencié de l'animal, l'Homme a accepté de déléguer à un objet une partie de sa force physique, de son adresse. Il en arrive maintenant à déléguer à la machine une large part de sa mémoire et de plus en plus une large capacité de décision. Certains esprits bien éclairés nous disent encore vertueusement : " mais ne craignez rien, ce ne sont que des machines, l'Homme pourra toujours les arrêter quand il le voudra... ". Or, depuis quelques temps, des scientifiques particulièrement compétents commencent à se poser la question : " Et si les robots avaient la possibilité d'accéder à la conscience ? " Ne sommes-nous pas déjà à un niveau très élaboré quand nous voyons par exemple des robots placés à plusieurs niveaux du process de décision, que ce soit pour piloter un avion ou une centrale nucléaire, refuser d'exécuter l'ordre du pilote " en chair et en os " de ces outils si cet ordre met en péril la vie d'êtres humains ou l'intégrité du système piloté ? Certes, en dernier recours, le pilote peut toujours déconnecter les robots et imposer sa décision. Mais cette faculté extrême sera-t-elle offerte à tous demain ? Dans quelques années, quand nos automobiles, par exemple, seront gérées par des automates, accepteriez-vous qu'un homme ivre puisse déconnecter son robot de surveillance parce que celui-ci vient de lui interdire de prendre le volant et partir quand même ? Toute personne sensée, pensant aux 10.000 êtres humains qui, chaque année, trouvent la mort sur les routes de France, répondrait : " Ah non, dans ce cas-là, il faut que ce soit la machine qui puisse avoir le dernier mot... " Et bien, nous pourrions déjà citer, dès aujourd'hui, des centaines de situations où l'Homme préfère faire confiance à la machine plutôt qu'à son instinct ou ses sens. Et demain, c'est dans des milliers de situations, dans tous les lieux et à de nombreux instants de notre vie que nous déléguerons une grande partie de nos décisions aux robots. Ainsi, poursuivant la longue évolution humaine (à l'échelle de la vie), nous sommes dans un processus, semblant inexorable, qui nous incite à confier de plus en plus de responsabilités à nos outils. Faut-il craindre cette évolution ? Certes, pas tant que celle-ci aura comme finalité d'améliorer la condition humaine, que ce soit en lui évitant des travaux physiques dangereux, répétitifs, abrutissants ou en lui améliorant sa santé, sa qualité de vie, sa sécurité, son efficacité, etc... Mais là où il nous faut être vigilants, c'est sur la capacité que sont en train d'acquérir toutes nos machines, de la plus petite à la plus grosse, de la plus simple à la plus complexe, de s'interconnecter entre elles en utilisant un langage unique. Ce qui leur permet de toutes se comprendre... ce que n'a pas encore su faire l'homme depuis qu'il est sur terre. Si nous ne prêtions pas garde à ce phénomène fondamental, l' " intelligence " collective de la machine pourrait dorénavant progresser plus rapidement que l'intelligence collective de l'Humanité. Si les gouvernements du Monde ne savaient pas prendre très rapidement maintenant les sauvegardes qui s'imposent pour faire face à ces grands groupes multinationaux en croissance exponentielle, qui ne sont que la forme organisée (dans le sens biologique du terme) des millions de machines qui, déjà, travaillent ensemble, alors dans quelques courtes décennies nos enfants pourraient entendre des machines qui leur diraient : " Avons-nous encore besoin des Hommes ? " René Trégouët Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Comment s'assurer qu'un mail ne sera lu que par les seules personnes autorisées, et personne d'autre ? Une startup de la Silicon Valley, la société Disappearing a trouvé la solution en inventant le mail auto-destructeur ! Digne de la célèbre série "Mission Impossible" la technologie développée par cette société permet non seulement de contrôler les destinataires du message, mais aussi sa durée de vie. Passé le délai voulu, le texte en devient totalement illisible, quel que soit le support sur lequel se trouve le message, ou quelle que soit la forme qu'il ait pris entre temps (retourné, transmis, compacté, stocké sur bande...) La solution de Disappearing, qui s'adresse aux professionnels, s'exécute sur les machines serveurs classiques, et s'intercale avec les solutions de sécurité existantes. La société n'a pas besoin de changer son infrastructure logicielle déjà installée : il n'y a qu'un petit programme à rajouter aux clients messagerie les plus usuels. Le principe réside sur un cryptage à clé et une authentification au moment de l'envoi. Au moment de l'ouverture, chaque lecteur doit entrer sa clé pour pouvoir lire le message, faute de quoi il restera illisible. Enfin, au moment choisi par l'expéditeur pour la péremption de sa clé, tous les messages correspondants deviendront illisibles, où qu'ils soient. brève rédigée par @RT Flash
|
|
|
|
|
|
|
|
L'équipementier français a dévoilé lors du salon de Genève Télécom 99 une technologie de transmission sur fil de cuivre pouvant atteindre des débits 10 fois plus importants que le format ADSL. Révélée d'abord par nos confrères britanniques d'IT Week, cette technologie a été présentée dès le 9 octobre à Genève .Le Very-High-Speed Digital Subscriber Line (VDSL) pourra, en théorie, envoyer un signal numérique sur le réseau téléphonique (câbles en cuivre) à des débits de 58 Mégabits par seconde (Mbps). Cette valeur n'est toutefois valable que dans un seul sens, c'est à dire que lors d'une connexion les débits seront partagés : 52 Mbps en voie descendante (réception pour l'abonné) et 6 en voie montante. Un signal VDSL peut aussi être symétrique, une capacité recherchée pour les applications vidéo où la simultanéité est primordiale (26 /26 Mbps). Passons maintenant à la pratique : le fil de cuivre sur lequel on envoie un signal à haute fréquence (30 MHz) est source de déperditions. Plus le trajet est long entre la prise finale (chez l'internaute) et le commutateur ADSL, plus on perd en bande passante. Selon les chiffres fournis par la société, sur 300 m de cuivre la perte est négligeable, sur 1 km elle se monte à 50 % (26 / 3,2 Mbps), et sur 1,5 km, elle atteint les trois-quart du débit initial(13 / 3,2 Mbps). ZDNet : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=11066
|
|
|
|
|
|
|
|
Il y a une vie avant et une vie après Internet. C'est en gros ce que démontre l'étude réalisée par un cabinet américain Greenfield (basé à Westport, Connecticut) et dévoilée à New York hier pendant Internet World, le plus grand salon mondial sur l'industrie en ligne. Sur les 4 300 personnes interrogées pour l'enquête, 67 % affirment qu'Internet leur a "ouvert le monde". En fait, les familles américaines qui sont aujourd'hui connectées considèrent que l'arrivée du réseau a littéralement changé tous les aspects de leur vie. Ils ne regardent plus la télévision de la même façon ou passent désormais davantage de temps à écrire à des amis ou parents. Et un tiers d'entre eux prédisent qu'ils vont utiliser Internet encore plus l'année prochaine... Les données sont encore plus précises : 71 % des personnes interrogées disent se connecter systématiquement dès qu'ils rentrent chez eux. Et pour s'informer, ils comptent sur le Net, au moins autant que sur les journaux ou la radio. Pour mieux mesurer l'impact d'Internet sur la structure familiale, l'étude met en scène une famille imaginaire. Le père, Greg Greenfield, 46 ans, se connecte tous les soirs depuis trois ans. S'il utilise le Web pour son information, il y voit aussi un outil efficace pour acheter des éléments pour son hobby préféré : les trains électriques. Et comme 84 % des gens, il lui arrive aussi de jouer en ligne... Sa femme, Georgette Greenfield, 45 ans, est institutrice et a décidé, comme 19 % des internautes, que le réseau était plus important pour elle que la télé. Et comme 81 % des femmes citées par l'étude, elle utilise beaucoup le courrier électronique et pense qu'Internet lui fait gagner du temps (89 % des gens). Enfin, Gerry, leur rejeton de 17 ans, passe 20 heures par semaine en ligne sous la surveillance de ses parents, et beaucoup plus sans qu'ils s'en rendent compte. Comme 25 % des adolescents, il est autorisé par ses parents à acheter en ligne et il se fournit principalement en CD. Au moins une fois par semaine, il se connecte pour des recherches sur un devoir scolaire. Et ce n'est qu'un début... Les familles françaises seront-elles autant touchées par la révolution Internet ? Compte tenu du prix toujours prohibitif des communications, on peut parier sur un impact un peu moins fort. Mais qui sait ? Transfert : http://www.transfert.net/home.htm http://www.greenfieldcentral.com
|
|
|
|
|
|
|
|
Imaginez un moteur de recherche suffisamment intelligent pour répondre par une phrase structurée aux questions qu'on lui pose, au lieu de renvoyer bêtement une liste de sites, à la pertinence toujours approximative. KnowAll tente la prouesse de répondre à de telles questions. Si on tape "diamètre de Jupiter", il lance selon l'éditeur la recherche puis répond : "Jupiter fait 148800 km de diamètre" !Kevin Kirchman, le chercheur épistémologiste à l'origine du projet, voulait un moteur qui fournisse une réponse effective, une vraie, directement utilisable. Il lui a donc fallu s'éloigner de la prétendue intelligence artificielle, pour revenir vers l'intelligence organique, fondée sur les concepts et sur un dictionnaire de 90000 termes. Le procédé de recherche, déposé sous le nom Natural Language Reasoning, consiste à reformuler les questions, par analyse contextuelle, en sorte qu'une machine puisse raisonner comme un humain. Alors que les autres moteurs ne font que rechercher un mot dans une page, KnowAll va rechercher des concepts. Les résultats des recherches sont sauvegardés, afin de construire des bases de données thématiques, consultables par la suite, en plus des 600 moteurs de recherches que KnowAll interroge pour élaborer ses réponses. L'éditeur, le californien Worldfree, affirme qu'avec son moteur, il n'y aura plus besoin de fouiller le Web : la réponse sera immédiate, faisant ainsi économiser, selon lui, 90 % du temps passé en recherche. Disponible en téléchargement, pour Windows 98 et NT, KnowAll coûte 150 dollars (920 francs). Network news : http://www.vnunet.fr/NN/index.htm http://www.worldfree.net/
|
|
|
|
|
IBM déclare avoir mis au point de nouveaux alliages pour la fabrication des disques durs. Résultat : une capacité en densité de 35,3 Go par pouce carré contre 7 Go sur les modèles actuels. Selon IBM, une telle densité permettra de stocker sur un disque dur de taille classique deux films longs métrages, 77 heures de musique, ou 2 millions de feuilles papier entièrement écrites, recto verso. OI Informatique : http://www.01-informatique.com/actus/1/4564.html?Indice=1&
|
|
|
|
|
Si les lecteurs de superdisquettes tels que les Zip 100 et 250 ou les LS-120 constituent d'excellents moyens de sauvegarder ou d'échanger des données, on a parfois besoin de plus de 250 Mo de capacité et d'un taux de transfert plus élevé - pour le montage vidéo, par exemple. Philips va lancer le Gimo, un lecteur magnéto-optique capable d'enregistrer sur des cartouches de 1,3 Go d'un format de 3,5 pouces, avec un taux de transfert de 5,92 Mo à la seconde. Compatible avec les cartouches magnéto-optiques de 128, 230 et 540 Mo, le Gimo est vendu 3 350 F TTC (soit 510 euros). ZDNet : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=11084
|
|
|
|
|
|
|
|
Cibox lancera la semaine prochaine un PC gratuit. Seule condition : s'engager pendant 3 ans à consommer au minimum 10 heures par mois de connexion Internet , au tarif standard de France Télécom, à 0,28F la minute. Au total, cela revient à à 168 francs par mois ou 6084 francs sur 3 ans. Si le concept de PC gratuit est désormais courant aux Etats-Unis et en Grande-Bretagne, c'est la première fois que l'expérience sera tentée dans l'Hexagone. L'accès Internet sera fourni par Netclic, la filiale de Cibox spécialisée dans ce type de service, et l'opérateur télécom sélectionné devrait être UUNet. Toujours selon les journalistes de Micro Hebdo, le PC de Cibox constitue clairement une bonne affaire pour les consommateurs. Il est en effet doté d'un Céléron 400 Mhz, de 32 Mo de mémoire, d'un disque dur de 4 Go, d'un modem 56 Kbps, d'un lecteur de CD-Rom et d'un pack de 8 logiciels. Les premières livraisons devraient débuter début novembre dans toutes les grandes surfaces. OI Informatique : http://www.01-informatique.com/01/index.html
|
|
|
|
|
|
|
|
L'ordinateur réseau tant annoncé par certains apôtres américains est en train de voir le jour en France. La Linbox Net Station, fabriquée par Linbox, est un pur ordinateur réseau. Niveau performance, elle a toutes les qualités d'un ordinateur de bureau classique : dans sa configuration de base, elle renferme un AMD K6-II cadencé à 400 MHz, doté de 64 Mo de mémoire vive, d'une carte graphique ATI RAGE Pro 8 Mo, et d'une carte son Soundblaster PCI 128. Mais, à l'image d'un véritable ordinateur de réseau, elle est totalement dépourvue de lecteurs : ni disquettes, ni CD-Rom, ni même de disque dur (de quoi se demander pourquoi elle est livrée avec une distribution Linux...). La Linbox Net Station tirera toutes ses ressources du Linbox Net Server, par l'intermédiaire d'une carte Ethernet à 100 Mbits. L'originalité du LNA (pour Linbox Network Architecture) est de s'appuyer sur un système Linux, qui tourne sur le serveur. La configuration de départ se fait sur le serveur ; ensuite, il ne reste plus qu'à brancher une Net Station, et à l'allumer immédiatement : elle est prête en cinq minutes. En fait, quand le client appelle l'application dont il a besoin, les exécutables arrivent à haut débit en mémoire vive du client directement à travers la carte Ethernet 100 Mbits. Et, pour peu que l'application est déjà été appelée par un autre poste, sa présence dans le cache du serveur rend sa vitesse de chargement vers le client aussi rapide qu'en provenance d'un disque dur. "Comme rien n'est sauvegardé en local, la panne d'un poste n'est jamais préjudiciable au travail de l'entreprise : il suffit juste d'en brancher un autre", explique Stéphane Fermigier, directeur et fondateur de Linbox. En outre, poursuit-il, "dans un réseau classique, il faut toujours administrer chaque poste client individuellement, d'où un coût de maintenance très élevé. Ici, dans l'architecture LNA, les postes clients ne contiennent aucune information, et leur matériel est basique : le TCO est jusqu'à 75% moins cher !" Sans compter que l'architecture LNA peut supporter jusqu'à trois systèmes d'exploitation différents, ce qui fait dire avec humour à son inventeur que la Net Station est 300% compatible. En passant par les émulateurs VMware, ou un émulateur MacOS dédié, Linux sait parfaitement faire tourner des applications Windows ou Mac : idéal pour la consultation de CD-Rom multimédia, par exemple. Et, grâce à la magie et la puissance de ces émulateurs (qui fournissent une émulation matérielle et non pas logicielle, à la différence du projet Wine), il est même possible de faire tourner plusieurs OS simultanément sur le même client ! Avec un choix délibéré du logiciel libre et du matériel standard, la Linbox Net Station, pourrait bien être la réponse, européenne qui plus est, aux prédictions de Larry Ellison le Pdg d'Oracle. Network News : http://www.vnunet.fr/NN/pgs/actu_infos_article.htm?date=1999-10-12&id=1
|
|
|
|
|
|
|
|
Les deux leaders mondiaux du marché des organiseurs électroniques, le britannique Psion et l'américain 3Com, sont tombés d'accord pour rendre compatibles leurs logiciels. Au-delà des applications pour organiseurs, cet échange de technologie ouvre la voie à un système d'exploitation (OS) dominant pour tous les appareils permettant des connections internet " sans fil ", et notamment les prochains téléphones portables multimédias. Microsoft, qui cherche a imposer son propre mini 0S, le Windows CE, apparaît comme le grand perdant de cette alliance. Epoc, l'OS défendu par Psion a déjà reçu le soutien des plus grands fabricants de mobiles. Nokia, Motorala, Ericsson et Matsushita sont en effet actionnaires de la joint venture chargée de développer Epoc. 3Com, de son côté, a conçu un OS pour le Palm, l'organiseur le plus vendu au monde avec 5 millions d'exemplaires. Cette part de marché a permis d'attirer à lui une foultitude d'applications qui manquent cruellement à Epoc. L'alliance permettra en fait aux développeurs d'inventer des programmes ou des services Internet tournant indifféremment sous les deux systèmes Epoc et PalmOS. Nokia, le premier producteur mondial de mobile, sera le premier à lancer des téléphones portables utilisant indifféremment des logiciels de Symbian ou de 3Com pour se connecter à l'Internet. Expansion:13/10:1999 : http://www.lexpansion.com
|
|
|
|
|
La semaine dernière, dans la rubrique informatique de notre lettre @RT Flash#66 nous avons publié un article intitulé " Linux, le cauchemar de Bill Gates" dans lequel il était indiqué que le logo de Linux était un pingouin. Il s'agit d'une erreur de notre part et nous confirmons à tous nos lecteurs que le logo de Linux est bien un manchot. Merci de nous pardonner cette confusion ornithologique. René Trégouët Directeur de la publication
|
|
|
|
|
|
|
|
Il fut un temps où l'interactivité, à la télévision, consistait à faire bouger un personnage de jeux vidéo à l'aide des touches du téléphone ! Aujourd'hui, ce même téléspectateur peut regarder un Grand Prix de formule 1 en choisissant son angle de prise de vues, consulter à tout moment la météo de sa région, commander un film ou régler un achat avec sa carte bancaire simplement muni d'un décodeur. Demain, avec la même télécommande, il pourra surfer sur Internet, envoyer des courriers électroniques ou consulter son compte en banque. Seule condition à remplir pour bénéficier de tous ces services dans l'Hexagone : être abonné soit à CanalSatellite, soit à TPS (Télévision par satellite), les deux bouquets satellite disponibles en France. Depuis que la télévision s'est convertie au numérique, ce sont en effet ces ensembles de chaînes généralistes et thématiques diffusées par satellite qui exploitent le plus le potentiel interactif offert par cette technologie. La concurrence entre TPS (720 000 abonnés au premier trimestre) et CanalSatellite (1,26 million d'abonnés) permet même aujourd'hui à la France d'être le pays le plus à la pointe dans ce domaine. Selon le cabinet d'études américain Forrester Research, ce sont 25 % des foyers français qui utilisent actuellement la télévision interactive. Ils ne sont que 12,2 % aux Etats-Unis." En trois ans, les services interactifs ont rencontré le même public que la télévision tout court, reconnaît Alain Staron, directeur de TPS Services, la division du bouquet chargée de mettre en oeuvre les programmes interactifs. C'est une leçon importante, car cela veut dire que les téléspectateurs peuvent être autre chose que des "patates de canapé" Le Monde : [http://www.lemonde.fr/article/0,2320,seq-2031-26227-QUO,00.html">des téléspectateurs passifs]. "Grand succès de l'interactivité made in France, la météo. Sur TPS, la chaîne Météo Express est consultée par 56 % des abonnés, et, sur CanalSatellite, 70 % des abonnés déclarent utiliser au moins une fois par semaine ce type de service. Le cinéma et le sport complètent le tiercé de tête des choix du téléspectateur en matière d'interactivité. Le public n'est pas le seul à plébisciter la télévision intelligente. Industriels du secteur informatique et publicitaires se lancent sans compter dans l'aventure. Selon Forrester Research, le chiffre d'affaires global de la télévision interactive pourrait atteindre les 20 milliards de dollars à l'horizon 2004, contre 674 millions de dollars (630 millions d'euros, 4,1 milliards de francs) en 1999. Cet avenir a déjà un nom : la " convergence ", mariage du téléviseur, de l'ordinateur et d'Internet. En France, sous l'impulsion d'acteurs comme Canal+ par l'intermédiaire de sa filiale CanalSatellite, cette convergence est en train de prendre forme. Reste que ce mariage entre deux objets si différents - l'ordinateur et la télévision - laisse sceptique quant à ses applications concrètes. " Il y a divergence entre la télévision et l'ordinateur, explique ainsi Alain Staron. Ils n'ont pas les mêmes usages, et les gens n'utilisent pas ces deux objets au même moment de la journée. " Le Monde : [http://www.lemonde.fr/article/0,2320,seq-2031-26227-QUO,00.html
|
|
|
|
|
|
|
|
Le journal qu'on lira tous les matins sur les mêmes pages de film plastifié et souple, est peut-être pour demain. En téléchargeant à chaque fois de nouveaux contenus, ce pourrait être l'avènement du papier réutilisable. Le partenariat que viennent de signer le géant des équipements de communications Lucent et le consortium E-Ink va certainement donner un coup de pouce aux recherches sur l'encre électronique. Le consortium E-Ink, qui s'est attelé à la recherche puis à la commercialisation de l'encre électronique, mais aussi de son support, comptait déjà parmi ses actionnaires le fondeur Motorola. Dans le cadre de ce nouvel accord, E-Ink devrait fournir la technologie d'affichage, tandis que Lucent fournira la technologie d'encre. E-Ink avait déjà testé, sur un marché très expérimental, des écrans d'affichage, en mai dernier. Ce dernier partenariat devrait porter ses fruits d'ici six mois environ, avec un nouvel affichage, utilisant la technologie de Lucent. Spécialisé dans les équipements de transmission haut de gamme, ce dernier possède aussi ses propres laboratoires de recherche, les fameux Bell Labs. Ceux-ci travaillent depuis plusieurs années sur les transistors dits flexibles, qui pourraient s'imprimer par simple transfert sur une surface spéciale. Il y a deux ans, les Bell Labs avaient déjà réussi le premier transfert au monde d'une fine couche de transistors en plastique sur un écran en soie, de la même façon qu'un dessin sur un t-shirt. Cette encre est constituée de milliers de capsules remplies d'encre noire et blanche, qui à la particularité de changer de teinte au passage du courant. Le support d'affichage de ces capsules est beaucoup plus souple que celui utilisé pour les cristaux liquides, et, surtout, les matériaux de fabrication coûtent beaucoup moins cher. De plus, ces capsules n'ont pas besoin d'être alimentées en permanence pour conserver leur affichage : une fois que l'affichage a pris forme, on peut débrancher les batteries, et transporter tranquillement son e-journal, voire le rouler dans son sac ! Enfin, les possibilités d'impression de cette encre sont telles que les deux firmes envisagent déjà un nouveau marché : celui, gigantesque, de la publicité, du marketing et de la mode. Yahoo:13:10:1999 : http://fr.news.yahoo.com/991013/32/6pke.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
En un raccourci saisissant, on pourrait affirmer que le lauréat du prix Nobel de chimie 1999 a été récompensé pour avoir inventé l'appareil photo le plus rapide du monde. Un appareil photo qui serait capable de saisir au vol des molécules qui explosent, des atomes en train de s'unir ou d'échanger des électrons. Un rêve de chimiste que l'Egypto-Américain Ahmed Zewail a rendu possible. L'exploit est de taille quand on sait que ces échanges furtifs ne durent que dix à cent femtosecondes (une femtoseconde représentant un millionième de milliardième de seconde !). Les chimistes et les biologistes savent que, quand ils observent une réaction, même avec les instruments les plus sophistiqués, l'essentiel leur échappe : entre le mélange initial et le produit final, une succession d'événements intermédiaires, indétectés, se sont produits au niveau des atomes. " Ces derniers se dissocient, changent de place au sein des molécules qui, elles-mêmes, peuvent se tordre, établir ou détruire des réactions chimiques. Des travaux théoriques menés dans les années 30 avaient permis d'évaluer la vitesse de ces réactions entre molécules individuelles. En 1967, l'Allemand Manfred Eigen et les Britanniques Ronald Norrish et George Porter avaient déjà reçu le prix Nobel de chimie pour des expérimentations ayant permis d'observer des phénomènes d'une durée d'un dix milliardième de seconde. Mais l'accès aux dissociations atomiques et moléculaires exigeait des " prises de vue " mille fois plus rapides. Pour y parvenir, Ahmed Zewail imagina - à la fin des années 80 - d'utiliser le laser femtoseconde, équivalent laser du stroboscope des éclairages de boîte de nuit, en beaucoup plus rapide. L'idée de génie de Zewail fut d'utiliser un jet moléculaire dans une chambre à vide. Une première impulsion laser déclenche la réaction, une seconde la " photographie ". Mais cette " visualisation " n'est qu'indirecte : la position des atomes est calculée à partir des informations tirées du spectre, de l'" empreinte digitale " du rayon sondeur après qu'il a frappé les molécules. Ce domaine de la femtochimie et de la femtobiologie est donc en plein essor. " En biologie notamment, l'enjeu est considérable, sur le plan fondamental, bien sûr : pour comprendre le fonctionnement des cellules vivantes ; mais aussi sur celui des applications pharmaceutiques et notamment la fabrication des inhibiteurs. " Ces médicaments nouveaux servent de leurre et bloquent les récepteurs d'enzymes dans la cellule. Deux d'entre eux ont déjà été " produits de manière rationnelle ", c'est-à-dire " dessinés " sur ordinateur pour ressembler à l'enzyme qu'ils imitent. L'un est aujourd'hui un médicament majeur contre contre le sida. Ces recherches qui se situent aux confins de la chimie et de la physique sont un parfait exemple de la fécondité de l'approche pluridisciplinaire en sciences. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2031-26394-QUO,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
A en croire Intel, c'est un bond technologique qui sera inauguré le 25 octobre. Ce jour-là, le fondeur lancera un nouveau processeur Pentium III à 700 MHz qui exploite pour la première fois la technologie de gravure Coppermine. Utilisant des connexions au cuivre d'une épaisseur de 0,18 micron (contre 0,25 micro actuellement), Coppermine renverra aux oubliettes l'architecture Katmai des Pentium III actuels. Lors d'une présentation cette semaine à l'occasion du Forum des développeurs Intel, le fondeur expliquait qu'avec Coppermine les calculs sur les nombres entiers seraient de 12% plus rapides. Mieux, les calculs en virgule flottante -très sollicités durant les séquences d'animation 3D-, progressent de 20%. La mémoire cache intégrée dans le processeur ("on-die") voit le nombre de transistors quadrupler, pour atteindre 28 millions de composants. Avec une taille réduite, la mémoire cache de niveau 2 atteint 256 Ko. A peine dévoilé, le premier représentant de la lignée Coppermine suscite beaucoup d'espoirs puisqu'il préparera l'arrivée d'un processeur à 1 Ghz, voire davantage. Intel ne se risque pas à fixer de rendez-vous précis pour le dépassement de ce mur symbolique. Toutefois, pour donner du poids à ses arguments, le fondeur assure que la finesse de gravure à 0,18 micron permettra de minimiser les dégagements de chaleur. Inévitables lors d'une forte montée en fréquence, ils imposent aujourd'hui de s'équiper avec des équipements de refroidissement encombrants. Network news : http://www.vnunet.fr/NN/index.htm
|
|
|
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Notre système solaire compte une dixième planète, mille fois plus éloignée du Soleil que Pluton. Cette nouvelle planète n'a pas encore été observée directement, mais sa présence est quasi-certaine car elle seule peut expliquer certaines anomalies dans l'orbite de comètes selon John Murray, un spécialiste des comètes à longue période. nuage d'Oort. Ce nuage contient des millions de comètes. c'est en étudiant en détail la trajectoire de 13 comètes, situées dans le nuage d'Oort, une région lointaine du soleil, que John Murray en a conclu à l'existence d'une planète située à 32 000 unités astronomiques (la distance Terre-Soleil), soit une demie année-lumière. Pluton, par comparaison, n'est qu'à 29 unités astronomiques du Soleil. Il s'agirait d'une planète géante, plusieurs fois plus grosse que Jupiter, qui compléterait une orbite du Soleil en six millions d'années environ, contre 248 ans pour Pluton. Cette mystérieuse planète tournerait en sens inverse des autres, ce qui donne à penser qu'il s'agit d'une planète errante capturée il y a longtemps par l'attraction du Soleil. Brève rédigée par @RT Flash BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_467000/467572.stm
|
|
|
|
|
|
|
|
Le Jet Propulsion Laboratory (JPL) de la NASA a émis un appel d'offre portant sur la fourniture de deux petites fusées qui devront décoller de la planète Mars en 2004 et 2006. Ces lanceurs, baptises Mars Ascent Vehicles (MAV), font partie du programme Mars Sample Return (MSR) mené conjointement par la NASA et le CNES. Leurs spécifications font état d'une conception simple de fusée a deux étages, de 1,5 mètres de hauteur, utilisant du carburant solide. Selon le directeur des programmes d'exploration du système solaire a la NASA Carl Pilcher, la conception des MAV constitue pourtant le plus important défi technique de l'ensemble du programme MSR. La difficulte réside notamment dans la nécessite de tester sur Terre une fusée conçue pour décoller d'une planète qui présente une attraction gravitationnelle égale au tiers de l'attraction terrestre, ainsi qu'une atmosphère beaucoup plus fine. Le programme Mars Sample Return prévoit l'atterrissage en 2003 puis 2005 de deux modules identiques qui délivreront chacun un véhicule et une fusée autonomes. Les véhicules seront charges de la collecte de 500 grammes de sol martien, qu'ils placeront dans des conteneurs. Chaque charge utile de quatre kilogrammes sera ensuite mise en orbite basse de Mars grâce a un MAV. Une sonde les y récupérera en 2008, pour les amener jusqu'à atterrissage dans le désert de l'Utah. Selon SpaceNews, les échantillons seraient alors achemines vers un centre de quarantaine puis distribues a la communauté scientifique. Etats-Unis Espace : http://www.france-science.org/usa-espace
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe de chirurgiens de London (Ontario) a annoncé mercredi qu'elle avait réussi une opération du coeur sans ouverture de la cage thoracique d'un patient, à l'aide d'un robot introduit par endoscopie. Le Dr Douglas Boyd a expliqué qu'il avait réalisé l'opération -d'une durée de six heures- le 24 septembre sur son patient, un fermier de 60 ans. Au lieu d'être penché au-dessus du malade, le chirurgien était assis devant un ordinateur à partir duquel il commandait le robot. "Je ne me suis jamais senti aussi bien", a indiqué le patient, John Penner, qui a pu quitter l'hôpital quatre jours après l'opération. Le directeur de l'hôpital London Health Sciences Centre, Tony Dagnone, a estimé que ce type d'opération procurait non seulement moins de douleurs et de traumatismes au patient mais qu'il permettrait aussi d'économiser beaucoup d'argent. Les risques de complications sont plus limités et le patient peut n'avoir à rester qu'une seule journée à l'hôpital, a indiqué M. Boyd, soulignant que la technique pourrait "révolutionner" la chirurgie. La technologie utilisée permet au chirurgien de commander à partir de l'ordinateur des manettes ressemblant à des instruments chirurgicaux qui dirigent le robot. Une caméra activée par la voix donne aussi des ordres de "micro-mouvements" au robot. AFP : http://www.actualinfo.com/fr/sciences/depeche
|
|
|
|
|
|
|
|
Le système immunitaire, véritable " garde du corps " de l'organisme, intervient face à toute agression. Il est en effet capable de distinguer les cellules exprimant des molécules " étrangères ", les antigènes. L'activation des lymphocytes T cytotoxiques* permet alors d'éliminer ces cellules pour protéger l'organisme. Dans les tumeurs par exemple, les lymphocytes T cytotoxiques vont tuer de manière spécifique les cellules cancéreuses, en reconnaissant les molécules HLA* associées à des fragments d'antigènes tumoraux. Cependant, toutes seules, les cellules tumorales ne suffisent pas à déclencher la réponse immunitaire. Pour initier cette réponse, il faut l'intervention d'un autre type cellulaire, les cellules dendritiques dérivées de la moelle osseuse et présentes dans tous les tissus. Ces cellules se révèlent de véritables " sentinelles " veillant à la défense de l'organisme. Premières à intervenir dans la réaction immunitaire, elles sont extrêmement efficaces pour déclencher l'activation des lymphocytes T. On sait que, pour mettre en route la " machine " immunitaire, les cellules dendritiques doivent présenter les antigènes des cellules tumorales sous forme " fragmentée " aux lymphocytes T. Pour ce faire, leur premier travail est de " manger " les antigènes. Les chercheurs de l'Institut Curie viennent de montrer qu'ensuite, grâce à la mise en oeuvre d'une voie originale et unique de transport intracellulaire, les antigènes " avalés " sont transférés vers le cytosol* des cellules dendritiques pour y être décomposés. Puis, ils sont associés aux molécules HLA de ces cellules " présentatrices ". Ainsi, le complexe moléculaire formé (fragments d'antigènes-HLA) peut être reconnu par les lymphocytes T et la réponse immunitaire peut alors s'enclencher. C'est ce phénomène de " cross priming " ou de " cross présentation ", resté longtemps mal compris, qui vient enfin d'être élucidé. Ces travaux permettent donc de mieux comprendre les mécanismes intracellulaires qui, en cas de cancer, aboutissent à la présentation des antigènes et donc à l'initiation d'une réponse immunitaire. A terme, la compréhension moléculaire de cette étape devrait permettre de la manipuler et ainsi de moduler la réponse immunitaire, en la renforçant ou en l'atténuant. Ceci pourrait à terme aboutir à des applications cliniques, notamment en immunothérapie anti-tumorale. Alphagalileo/7/10/99 : http://www.alphagalileo.org/?accept_language=fr
|
|
|
|
|
|
|
|
Une équipe médicale de l'Institut Propara de Montpellier, dirigée par le professeur Pierre Rabischong, vient de transplanter une puce électronique dans l'abdomen d'un paraplégique qui devrait retrouver l'usage de ses membres. "L'implant électronique, placé dans l'abdomen, est utilisé comme un procédé d'électrostimulation nerveuse et musculaire. Il permet aux paraplégiques de retrouver la fonction de marcher interrompue après lésion de la moelle épinière", affirme le professeur Rabsichong, cité par Midi Libre. La puce électronique est reliée à des électrodes placées sur les muscles et les nerfs, contractés artificiellement après impulsion électrique, indique encore le quotidien. La fonction propulsion de la marche est ainsi restaurée, mais la stabilisation dépend encore de béquilles ou d'un déambulateur équipé d'un interrupteur", souligne le professeur Rabischong. La première opération de l'Institut Propara (Centre de traitement et de réadaptation pour paraplégiques et tétraplégiques) a été réalisée le 28 septembre. Le patient est un homme de 38 ans, paraplégique depuis neuf ans à la suite d'un accident de voiture. Selon le professeur Rabischong, "le patient fera ses premiers pas dans quelques jours après une période de tests". Six autres paraplégiques devraient être opérés avant la fin de l'année, précise Midi Libre. Le professeur Rabischong souligne toutefois que "tous les sujets ne se prêtent pas à ce type d'opération" et qu'il s'agit là de la "première expérience d'électrostimulation implantée sur des membres inférieurs". Il rappelle que l'intervention, menée à Montpellier, est "la conclusion de 25 ans de recherches" et l'aboutissement d'une collaboration européenne engagée voilà 10 ans sur le projet SUAW (Stand up and walk), "Lève toi et marche". AFP/10/10:1999 : http://www.actualinfo.com/fr/sciences/depeche.cfm?depeche_Index=16971&cat=14&f=0...
|
|
|
|
|
|
|
|
Des scientifiques canadiens ont découvert que la bactérie E.coli, présente dans la viande mal cuite et connue pour provoquer de fortes diarrhées, pouvait détruire des cellules cancéreuses. Lors de tests en laboratoire pratiqués sur des échantillons de sang humain, l'équipe de chercheurs de Toronto et d'Edmonton (Alberta), menée par Jean Gariépy de l'Institut du cancer de l'Ontario, a montré que la toxine produite par la bactérie, appelée communément "bactérie du hamburger", pouvait pénétrer certaines cellules cancéreuses et les inciter à s'auto-détruire. Les scientifiques ont utilisé cette toxine bactériologique pour purger les cellules cancéreuses de la moelle osseuse de patients souffrant de cancer du sein, leucémie, lymphome autre que la maladie de Hodgkins ou de tumeur de la moelle osseuse, le myélome. Selon eux, la toxine ne semble pas nuire aux cellules saines de la moelle. D'après les chercheurs, la moelle osseuse extraite du corps d'un patient pourrait ainsi être purgée à l'aide de la bactérie E.coli puis réimplantée, sans risque de réintroduire la maladie chez le patient. brève rédigée par @RT Flash Washington Post : http://www.washingtonpost.com/wp-srv/health/front.htm
|
|
|
|
|
|
|
|
On ne voit pas qu'avec ses yeux. Une partie considérable du cerveau traite les informations visuelles. Elles sont disséquées, analysées, modifiées, interprétées, et finalement reconstruites pour enfin prendre sens. Comment ? Au XVIIIe siècle, Buffon soulevait déjà cette question : comment se fait-il que l'enfant ne voit pas double, alors qu'il reçoit deux images du monde au travers de ses deux yeux ? De la même façon, la découverte des propriétés optiques du cristallin, lentille convexe qui inverse les images projetées sur notre rétine a conduit nombre de savants à s'étonner que le monde que l'on perçoit soit bien à l'endroit ! La solution de ces problèmes était à chercher dans le cerveau. L'interprétation des données visuelles est-elle un processus inné, ou bien résulterait-elle de l'expérience acquise depuis l'enfance ? A la fin du XIXe siècle, G.M. Stratton, psychologue américain, et Hermann von Helmoltz, physiologiste allemand, se sont interrogés sur ce qui se passerait si l'on inversait les informations lumineuses en avant de l'oeil, de sorte que le cerveau reçoive une image " redressée ". Ils furent les premiers à expérimenter sur eux-mêmes des lunettes spéciales qui renversaient les images verticalement. L'inconfort initial lié à cette situation inhabituelle était tel qu'il ne leur était plus possible de se tenir debout sans fermer les yeux. Mais le cerveau réagit très rapidement au défi qui lui fut ainsi proposé, et de légers progrès furent amorcés au bout de quelques minutes. Les chercheurs ont alors essayé de prolonger le port de ces dispositifs optiques, et observé qu'ils pouvaient s'adapter progressivement pour retrouver une situation quasi normale. Ils devaient alors réapprendre des actions aussi simples que saisir une pomme ou verser de l'eau dans un verre. Pour raccourcir la durée des expérimentations, de nombreux psychologues ont ensuite choisi des lunettes moins perturbantes qui décalaient simplement le champ visuel vers la droite ou vers la gauche. Avec de telles lunettes, dont les verres sont en forme de prismes, la perception semble entièrement normale..., tant que l'on ne cherche pas à agir. Une surprise nous attend en effet dès que l'on cherche à atteindre un objet avec la main. L'image rétinienne, que le cerveau a appris à utiliser pour diriger la main, est déviée par les prismes, et ne permet donc plus de saisir l'objet. La prise en compte des erreurs permet au sujet d'améliorer progressivement sa performance. En répétant des mouvements de pointage vers une cible visuelle, un individu va ainsi développer une " adaptation prismatique ", qui lui permettra de se comporter finalement de la même façon qu'avant de porter les lunettes. Lorsqu'il retire les prismes, le sujet a la surprise de réaliser une erreur en miroir de celle qu'il faisait initialement ! Cette observation montre que le cerveau du sujet a modifié son fonctionnement pour compenser la déviation du champ visuel. Il a ainsi appris à diriger les mouvements en suivant une nouvelle règle de traduction des informations visuelles en commandes musculaires. Le sujet devra alors à nouveau réaliser plusieurs mouvements pour se désadapter et se retrouver dans le même état qu'avant l'expérience. Une expérience qui démontre l'extraordinaire platicité du cerveau humain. Recherche : http://www.larecherche.fr/VIEW/324/03240311.html
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Selon la deuxième édition du Tableau de bord de l'Innovation présenté par le Ministère de l'économie et des Finances, ce secteur représente plus de 20% de la croissance de l'économie française. Ce tableau de bord, qui donne tous les six mois un bilan du développement de l'innovation technologique en France depuis 1997, retient dix-huit indicateurs, qui montrent tous une accélération de la pénétration de l'innovation. En particulier, l'indice de chiffre d'affaires des secteurs technologiquement innovants a progressé de 9% au premier semestre (voir à titre d'exemple dans notre rubrique Finances la création par Carlyle d'un fonds de capital risque consacré à Internet). Et depuis 1997, le nombre d'internautes en France a été multiplié par cinq pour atteindre au premier semestre entre 5 et 6 millions de personnes. A ce rythme, la France devrait compter 10 millions d'internautes avant la fin de l'an 2000. Ministère de l' Economie et des Finances/12/10:1999 http://www.finances.gouv.fr/presse/communiques/ http://www.industrie.gouv.fr/observat/innov/f2o_bord.htm
|
|
|
|
|
|
|
|
Les données statistiques préliminaires sur les morts et les naissances en 1998, recensées par les CDC, sont encourageantes, avec un taux de mortalité qui n'a jamais été si bas et des baisses sensibles en ce qui concerne le SIDA et les homicides. Le taux de mortalité par SIDA a diminué l'an dernier de 21%, pour atteindre 4,6 décès pour 100 000, le taux le plus bas depuis 1987. Et l'infection à VIH, qui était la 8e cause de décès en 1996, ne figure plus parmi les 15 maladies les plus mortelles aux Etats-Unis, sauf pour les 25-44 ans, chez lesquels elle est la 5e cause de décès. Chez les Noirs américains de 25-44 ans, elle reste la première cause de mortalité, et la troisième chez les femmes afro-américaines du même âge. La diminution du taux d'homicides est également impressionnante, 14 %, avec une baisse continue depuis cinq ans. Mais l'homicide reste la première cause de mort chez les jeunes hommes noirs de 15 à 24 ans. On note également une baisse des morts liées à l'athérosclérose (de 10 %), à l'alcool ou à la consommation de drogues. Le suicide, 8e cause de mort, diminue de 6 %. Les maladies cardiaques et les cancers restent les premières causes de décès, mais ceux-ci sont aussi en baisse, respectivement de 3 et 2 %. Et l'espérance de vie en 1998 a atteint le record de 76,7 ans. Autre motif de satisfaction, d'autant qu'il s'agit d'une priorité nationale : la baisse de 5 % du taux de maternités adolescentes, pour atteindre 30,4 pour 1 000 chez les 15-17 ans. Mais d'autres chiffres sont moins encourageants. On note ainsi une stagnation du taux de mortalité infantile (7,2 pour 1 000 naissances vivantes, comme en 1997), qui ne s'est donc pas amélioré pour la première fois depuis près de quatre décennies. Autant d'éléments qui font dire à la secrétaire à la Santé, Donna Shalala : " Le rapport confirme les nombreuses évolutions positives aujourd'hui en Amérique. (...) Mais il est important que nous continuions à travailler ensemble pour faire progresser la prévention des maladies. Cela est particulièrement vrai pour les communautés de personnes de couleur, qui souffrent encore de façon disproportionnée de mortalité infantile et de SIDA. " Quotimed/11:10:1999 : http://www.quotimed.com/
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|