RTFlash

RTFLASH Recherche & Technologie
NUMERO 57
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 09 Juillet 1999
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une loi américaine limite les poursuites judiciaires liées au bug de l'an 2000.
L'ordinateur gratuit, porte d'accès à l'internet ?
Internet à haut débit : le grand public devra attendre
Vers une normalisation des transferts de données à haut débit
ADSL : le Conseil de la concurrence freine France Télécom
Les hauts débits sur Internet plébiscités pour la télévision on line
IBM relie assistants numériques et intranets
Sondage : les Français délaissent la télé pour le Web
France Telecom annonce un forfait internet 20h/mois pour 100 FF
Découvrez comment vous êtes pisté sur l'internet
Personal Area Network : une technologie révolutionnaire signée IBM
Multimédia : un PC à moins de 1000 francs !
Linux est encore loin d'être polyvalent
Révélations sur Neptune, successeur de Windows
Rapport de la CNIL : haro sur les réseaux
Quand le numérique devient personnel
Microsoft se rallie à la technologie G2 de Real Networks
Avenir
Des hologrammes grandeur nature
Matière
Des cartes à puce sans contact en l'an 2000
Vivant
Gènes humains : la France veut combler son retard dans les sciences du vivant
Recherche
Conduire au radar
Les successeurs de l'homme
Edito
La pile à combustible va permettre une révolution énergétique au XXIème siècle



Trois révolutions techno-industrielles majeures vont profondément transformer le Monde du XXIème siècle : la première est liée à l'explosion des technologies de l'information, la deuxième concerne la maîtrise du vivant et les biotechnologies et la dernière, non moins importante, touche au domaine de l'énergie. Inventée il y a 160 ans par William Grove, avocat anglais, passionné de physique, la pile à combustible, même si elle reste méconnue du grand public est enfin en train de sortir des laboratoires et devrait devenir l'une des principales sources d'énergie au cours des prochaines décennies. La pile à combustible produit du courant comme une pile électrique classique grâce à deux électrodes qui réalisent des réactions chimiques d'oxydo-réduction produisant un courant électrique. La différence, c'est que dans la pile à combustible, les réactifs ne sont pas stockés une fois pour toute à l'intérieur. Il suffit de remplir le réservoir de la pile et de l'alimenter en air (comburant) pour obtenir du courant électrique. La chaleur dégagée par les réactions peut en outre être utilisée pour le chauffage selon le principe de la cogénération. La pile à combustible peut donc se recharger presque indéfiniment. Autre avantage considérable, la majorité des piles consomment de l'hydrogène, non seulement abondant dans la nature, sous forme d'eau, mais également non polluant lors de sa combustion. Mais si la pile à combustible repose à présent sur des technologies bien maîtrisées, les problèmes de stockage et de transport de l'hydrogène sous forme liquide ne sont pas encore résolus. Les principaux industriels impliqués dans cette technologie ont donc choisi une voie indirecte : les piles sont alors alimentées soit en gaz naturel (réseau gaz de ville), soit en méthanol, qu'un "reformeur" transforme sur place en hydrogène. Quatre technologies, qui mettent en jeu des électrolytes aux propriétés différentes, sont privilégiées dans les laboratoires. La plus avancée est la pile à acide phosphorique pour la cogénération dans les logements. 180 piles de ce type sont opérationnelles dans le monde, 100 sont installées au Japon (Fuji Electric), 60 aux Etats-Unis, 20 en Europe. La majeure partie des piles européennes fonctionnent en Allemagne. Jusqu'à maintenant, la France était restée en retrait sur ce marché. Cet été, elle se lance dans l'installation d'une pile Onsi de 200 kilowatts fonctionnant au gaz naturel. Cette pile de 18 tonnes sera raccordée au réseau de gaz de ville ainsi qu'au réseau électrique et de chaleur déjà existants. Elle fournira de la chaleur jusqu'à 80 degrés C à 200 logements et du courant triphasé 400 volts en basse tension. Mais la pile à combustible va également bouleverser le secteur automobile. Dès 2004 en effet, les grands constructeurs proposeront des véhicules utilisant des piles à combustible alimentées au méthanol. Enfin, des recherches actives se poursuivent, notamment dans les laboratoires américains de Los Alamos, pour mettre au point des micro-piles à combustible qui permettront demain à nos téléphones et ordinateurs portables d'avoir une autonomie de plusieurs semaines en veille. A plus long terme, on peut aller encore plus loin et certains chercheurs imaginent qu'en 2020 il suffira de brancher la pile de sa voiture sur le réseau de la maison en rentrant chez soi pour s'éclairer et se chauffer ! On le voit, cette invention vieille d'un siècle et demi a encore un bel avenir devant elle.

René Trégouët

Sénateur du Rhône


TIC
Information et Communication
Une loi américaine limite les poursuites judiciaires liées au bug de l'an 2000.
Samedi, 10/07/1999 - 00:00

Techweb/1/07/99 : http://www.techweb.com/wire/story/TWB19990701S0001

La loi adoptée par le Congrès jeudi 1er juillet réduit la responsabilité des fabricants informatiques, qui ne sont pas tenus d'éliminer les bugs. Elle prévoit seulement que, si une entreprise ne répare pas dans les 90 jours qui suivent la plainte d'un client, celui-ci peut intenter un procès, mais le montant des dommages et intérêts sera limité. La loi stipule aussi que les recours collectifs en justice seront présentés, non devant les tribunaux des États, mais devant ceux du système fédéral, un système plus lent où la charge de la preuve est plus lourde. Les consommateurs accusent la Maison Blanche et le Congrès de créer un précédent susceptible d'effacer toute responsabilité des fabricants à l'avenir. Il est vrai qu'il y a encore peu de temps le Président Clinton se prononçait pour la protection des consommateurs. Le gouvernement fédéral estime que l'élimination du bug lui coûtera 5,4 milliards de dollars (près de 35 milliards de francs).

brève @RT flash

L'ordinateur gratuit, porte d'accès à l'internet ?
Samedi, 10/07/1999 - 00:00

News Com/30/06/99 : http://www.news.com/News/Item/0,4,38627,00.html?st.ne.fd.gif.f

En signant un contrat de trois ans avec America On Line (AOL), Prodigy ou Microsoft MSN, associés à trois distributeurs informatiques, Circuit City, Best Buy et Staples, un internaute peut bénéficier d'une remise de 400 dollars sur tout achat de micro-ordinateur. Cette offre revient à offrir un PC bas de gamme aux clients loyaux (compte tenu du fait qu'un constructeur comme eMachines propose aujourd'hui des ordinateurs pour 399 dollars). AOL, qui s'est dernièrement associé à cette entreprise américano-coréenne, va se lancer dans une opération semblable avec Microworkz, un constructeur de Seattle dont le produit, iToaster (une sorte de Minitel pour l'internet), ne coûte que 199 dollars. Pour la presse américaine, ces initiatives relèvent davantage du bon business que de la philanthropie, compte tenu des investissements consentis par les fournisseurs de contenus pour fidéliser leurs clients. En outre, cette politique devrait consolider la place de ces fournisseurs d'accès à l'internet face à leurs concurrents du câble, qui misent sur l'internet à haut débit. La presse souligne le glissement progressif de l'industrie informatique vers les services multimedia en réseaux qui présentent une très forte valeur ajoutée.

brève @RT Flash

Internet à haut débit : le grand public devra attendre
Samedi, 10/07/1999 - 00:00

Avec l'Internet 2 américain ou Renater 2 en France, les chercheurs vont découvrir un réseau ultrarapide. Mais combien de temps encore l'internaute de base devra-t-il ramer? "Le grand public devra attendre cinq ou dix ans avant de bénéficier de tels débits", estime Lawrence Rowe, le patron du Media Lab de l'université de Berkeley. Ce délai dépend de deux facteurs principaux. La taille des tuyaux qui composent l'Internet, tout d'abord. Gérés par les opérateurs de télécoms, ces "tunnels à données", souvent en fibre optique, supportent des débits croissants qui atteignent aujourd'hui plusieurs gigabits par seconde (1). Reste pour les opérateurs à en déployer assez et à trouver un intérêt économique à les ouvrir au grand public. Deuxième écueil: le "dernier kilomètre", le parcours emprunté par les données entre le fournisseur d'accès à l'Internet et le domicile. Aujourd'hui, la majorité des internautes se connecte à son provider par un modem, et les données transitent par les lignes téléphoniques. Qui plafonnent à 56 kilobits par seconde. Un goulet d'étranglement auquel échappent les chercheurs (et certaines entreprises), qui disposent de lignes spécialisées autorisant des débits élevés. Pour lever cet obstacle, trois technologies existent, mais tardent à se diffuser. Le câble utilisé pour acheminer la télé peut servir d'accès rapide à l'Internet. Et une technologie appelée ADSL (Asynchronous Digital Subscriber Line) permet d'atteindre jusqu'à 6 mégabits par seconde sur les lignes téléphoniques classiques, un débit plus de 100 fois supérieur à celui d'aujourd'hui. Enfin, le satellite peut arroser de données l'ordinateur de l'internaute, grâce à une parabole. Si plusieurs villes en France bénéficient déjà d'offres d'accès au Net par le câble (proposées par la Lyonnaise ou France Télécom), les débuts sont chaotiques, des abonnés se plaignent d'un service erratique. Côté ADSL, France Télécom mène des expériences auprès de deux mille clients, et compte lancer à terme une offre, réservée aux grandes villes. Et la même entreprise teste des accès satellitaires à Beauvais, Compiègne, Quimper et Vannes.

Vers une normalisation des transferts de données à haut débit
Samedi, 10/07/1999 - 00:00

L'Union internationale des télécommunications (UIT) de Genève a publié le 5 juillet ses recommandations sur une norme globale de transmission de données au format ADSL. L'Asymmetric Digital Subscriber Line est une technologie qui permet de transférer des données à haut débit (de 1 à 7 Mb/s) à partir d'une prise de téléphone classique. Après l'approbation de la norme en comité technique en octobre dernier, l'UIT a dévoilé l'ensemble des spécifications requises pour que tous les fabricants adoptent le même standard dans leurs produits de connexion. L'ADSL offre une connexion numérique de bout en bout en évitant de convertir le signal en mode analogique, comme le font les modems classiques. Parmi les différentes variantes de la famille ADSL, l'UIT a avalisé la norme d'une version "légère" du dispositif, qui permet d'obtenir des débits asymétriques de 1,5 Mb/s en réception (vers l'utilisateur) et de 512 Kb/s en émission, et cela sans nécessiter la présence chez l'abonné d'un filtre répartiteur voix/données. La présence de ce filtre - nécessaire pour la mise en place d'un réseau ADSL classique - permettra d'atteindre de très hauts débits, allant jusqu'à 7 Mb/s dans un seul sens. Cette version allégée correspond à la technologie G.Lite développée par la société américaine Aware Inc., spécialiste des technologies DSL, qui a déjà signé avec Lucent Technology et Siemens pour commercialiser des modems compatibles 56K et G.Lite dans les mois à venir. Le modèle G.Lite sera beaucoup plus économique pour les fournisseurs d'accès : la pose du filtre répartiteur chez l'abonné nécessitait le déplacement d'un technicien.

ADSL : le Conseil de la concurrence freine France Télécom
Samedi, 10/07/1999 - 00:00

A la suite d'une plainte déposée par Grolier Interactive Europe, le Conseil de la Concurrence a "enjoint" France Télécom Interactive de suspendre pendant quinze semaines son offre ADSL Wanadoo Netissimo. L'opérateur doit donc renoncer à "toute offre de commercialisation de toute offre d'accès rapide à Internet par la technique ADSL". Cette suspension sera interrompue si un concurrent propose sa propre offre avant ce terme. France Télécom expérimente depuis plusieurs mois cette nouvelle technologie et projetait de lancer avant les autres fournisseurs d'accès une offre commerciale via Wanadoo. Il doit maintenant communiquer "à tous les fournisseurs d'accès qui lui en feraient la demande les informations qui leur seront nécessaires à la mise en place de leur offre d'accès à Internet par ADSL." Des tests chez les concurrents de Wanadoo devraient donc démarrer dans les jours à venir.

L'Expansion : http://www.18h.com/techno.asp

Les hauts débits sur Internet plébiscités pour la télévision on line
Samedi, 10/07/1999 - 00:00

Intervenant récemment lors d'une conférence sur le thème des hauts débits, plusieurs responsables de Microsoft, de Road Runner, d'Intel et de Nortel, notamment, ont tous affirmé la certitude que l'Internet à grande vitesse serait bientôt une réalité, au moins aux Etats-Unis. Il y aurait déjà plus d'un million d'abonnés à des services rapides (ADSL, satellite ou câble), la plupart s'abonnant à de tels services surtout pour accéder à des services de vidéo, interactifs ou non. De fait, l'avenir du medium en tant qu'alternative à la télévision est de plus en plus souvent affirmé par les responsables concernés, qui prédisent l'émergence prochaine de stations de télévision sur le web, identiques aux stations de radio qui existent déjà. Bien entendu, pour en profiter vraiment, il faudra disposer de connexions rapides.

Les Echos : http://www.lesechos.fr/silval/

IBM relie assistants numériques et intranets
Samedi, 10/07/1999 - 00:00

IBM développe de nouveaux outils permettant aux travailleurs nomades de se connecter à leurs réseaux d'entreprise à l'aide d'assistants numériques. Il va ainsi sortir une version allégée de son logiciel de messagerie d'entreprise MQSeries. IBM comme Oracle, Microsoft ou Sybase intensifie ses efforts dans ce domaine de l'interraction entre appareils mobiles et mini-bases de données. Cela provient notamment du développement du travail à distance et de l'utilisation de plus en plus importante d'Internet en tant qu'outil de travail. IBM a ainsi développé une base de données mobile (DB2 Everywhere) dans le but de pouvoir relier des assistants numériques (PDA) avec des serveurs d'entreprise, Microsoft Exchange et Lotus Notes. Les utilisateurs de PDA peuvent ainsi consulter, reproduire et synchroniser des données avec celles de l'entreprise. Quand à MQSeries, dans sa nouvelle version, il s'agit de l'application chargée sur l'assistant numérique. Elle sera disponible dans deux tailles: une version de 50k et une autre de 200k. La plus importante permettant de stocker et de mettre en attente les messages lorsque l'utilisateur n'est pas connecté avec une fonction de renvoi automatique lors de la reconnexion.

Lettre de l'internet/5/07/99 : http://www.lalettre.com/news/juillet/020799_1.html

Sondage : les Français délaissent la télé pour le Web
Samedi, 10/07/1999 - 00:00

La télévision est le média classique qui souffre le plus de la pénétration croissante de l'Internet au sein des ménages français, révèle l'étude Internet Track publiée le 29 juin. Réalisée en partenariat par Dell, Intel et Ziff-Davis(maison mère de ZDNet), cette étude européenne en est à sa troisième édition, après deux premières vagues en mars et septembre 1998.Entre la deuxième et la troisième vague de l'étude, les visites sur le Web ont bien sûr augmenté : +12 % en France, +15 % en Allemagne et +16 % chez les Britanniques. En extrapolant à la population globale, on parvient à fixer à 5,4 millions le nombre de Français de plus de 18 ans ayant parcouru le Web au moins une fois (9,8 millions d'Allemands et 7,3 millions de Britanniques). Du côté de l'influence de l'Internet sur les autres médias, la presse informatique et la radio sont les seuls dont la consommation a augmenté : 15 % des sondés français disent acheter plus de magazines informatiques, 6 % le contraire ; pour la radio 8 % l'écoutent plus souvent, 5 %la délaissent peu ou prou. En revanche 20 % disent moins regarder la télé, 5 % seulement disent le contraire.

ZDNet/30/06/99 : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=9907

France Telecom annonce un forfait internet 20h/mois pour 100 FF
Samedi, 10/07/1999 - 00:00

Le PDG de France Telecom Michel Bon a annoncé que l'opérateur public offrirait à partir du 1er août un forfait d'accès internet de 20 heures par mois pour 100 F, dans une interview publiée mercredi par le Parisien. Selon le patron de France Telecom, cette offre s'adressera aux "internautes confirmés". Michel Bon a également confirmé l'annonce par France Télécom, d'une baisse de 20% (de 3 F à 2,38 F) du prix des appels d'un poste fixe vers son service mobile Itinéris à compter de jeudi 1er juillet et laissé entendre que d'autres baisses étaient envisageables dans ce secteur. "A plus long terme, le tarif +fixe vers mobile+ pourrait avoisiner 1F", a-t-il déclaré.

AFP/30/06/99 : http://www.yahoo.fr/actualite/19990629/multimedia/

Découvrez comment vous êtes pisté sur l'internet
Samedi, 10/07/1999 - 00:00

Que vous alliez sur Internet dans le cadre de vos activités professionnelles ou depuis votre domicile, confortablement installé dans votre fauteuil, vos déplacements dans le monde d'Internet, si vaste et si riche, vous donnent sans doute une impression de liberté. Et le fait est que vous êtes libre d'aller n'importe où sur le réseau avec le sentiment de naviguer dans un parfait anonymat. L'absence d'intermédiaire visible peut renforcer ce sentiment d'absence de surveillance. La méconnaissance du fonctionnement des réseaux peut se trouver à l'origine de cette conviction - fausse - que les connexions ne laissent pas de traces. Le préjugé très répandu qu'Internet est complexe peut donner l'assurance, hâtive, que si traces il y a, les moyens de les exploiter sont disproportionnés au regard de l'intérêt qu'on aurait à le faire. La réalité est autre. Non, l'anonymat n'est pas la règle sur Internet et l'absence de traces l'est encore moins. Oui, il est possible d'être sinon espionné, du moins surveillé, peut-être pas étroitement, mais suffisamment pour qu'un marché des outils de surveillance existe et que cette surveillance puisse être le fait d'acteurs de nature très diverses...Attention, il ne s'agit pas d'affirmer que si l'anonymat n'est pas la règle, la surveillance le serait. Restons dans la réalité. Et si nous cessions un instant de qualifier Internet de "virtuel" et autre "cyber", pour le considérer sous son angle bien réel, informatique et technique, nous constaterions qu'en matière d'anonymat, Internet fonctionne exactement comme tout autre lieu du monde : l'anonymat demande des efforts, il est rarement absolu et garanti. La surveillance nécessite également des moyens, parfois importants; elle n'est pas inéluctable, mais elle est toujours possible. Sur cette question aux contours plutôt flous pour la plupart des personnes, le meilleur moyen d'être clair consiste à montrer directement aux personnes connectées au site de la CNIL ce qu'il est possible de collecter comme traces de leur passage.

CNIL : http://www.cnil.fr/

Personal Area Network : une technologie révolutionnaire signée IBM
Samedi, 10/07/1999 - 00:00

Les scientifiques du centre de recherche Almaden d'IBM basé à San-Jose en Californie travaillent à l'amélioration de la technologie PAN (Personal Area Network). Celle ci repose sur l'utilisation de la conductivité naturelle du corps humain afin de transmettre des données. En utilisant un appareil de transmission de la taille d'un jeu de cartes, les chercheurs sont déjà capables de transmettre une carte de visite électronique au moyen d'une simple poignée de main. Ce prototype permet ainsi l'échange de données entre deux personnes par un simple contact physique. Cette technologie utilise la conductivité due à la salinité naturelle du corps humain. La vitesse de transmission est équivalente à un modem à 2400 bauds même si théoriquement il est possible d'atteindre 400 000 bits par seconde avec cette méthode. Les applications envisagées pour cette technologie sont principalement au nombre de trois. L'échange de données simples comme la transmission de la carte de visite grâce à une simple poignée de mains. L'échange d'informations avec des appareils portables de type téléphone mobile ou assistant numérique. Enfin l'automatisation et la sécurisation des transactions commerciales. Par exemple des équipes médicales pourraient obtenir des informations sur un blessé incapable de communiquer simplement en le touchant. Ou un téléphone public équipé de capteurs PAN pourrait identifier automatiquement une personne, le dispensant d'avoir à insérer une carte téléphonique. D'ou une réduction importante de la fraude et la garantie de rendre plus facile tout ca. Les champs d'application ouverts par cette technologie sont immenses et de nouvelles utilisations au Personal Area Network restent à inventer. Pour l'instant cette technologie dont la démonstration a eu lieu par IBM au dernier Comdex en est encore à la phase de recherche. Elle devra être affinée avant de pouvoir être appliquée à de futurs produits et services.

Lettre de l'internet : http://www.lalettre.com/news/juillet/010799_2.html

Multimédia : un PC à moins de 1000 francs !
Samedi, 10/07/1999 - 00:00

La guerre des prix sur les ordinateurs connaît un nouvel épisode. Après les PC à 2000 francs vendus avec un abonnement obligatoire à un fournisseur d'accès pendant deux ans, Infonie et Daewoo vont lancer à la rentrée un ordinateur à ...990 francs. Un prix défiant toute concurrence, pour le moment, et qui place l'offre du constructeur Coréen et du fournisseur d'accès français en tête du palmarès des offres les moins chères du monde. Il y a quelque jours, aux Etats-Unis, la firme Microworkz avait elle annoncé, un ordinateur à 199 dollars soit environ 1250 francs. Le record est donc battu. Pour ce prix, les clients auront le droit d'acquérir un PC multimédia équipé d'un processeur Céléron, la puce grand public d'Intel, et doté d'un écran 15 pouces. Vendue en grande surface, cette offre s'accompagne, on s'en doute, d'une contrepartie financière. Les futurs acheteurs devront en effet s'abonner à Infonie pendant deux ans et pour une somme de 149 francs par mois. Un prix défiant lui aussi toute concurrence quand sait que le marché français compte pas loin d'une dizaine d'offres d'Internet gratuits et que les fournisseurs payants proposent des tarifs à partir de 60 francs mensuels. A quand l'ordinateur pour un franc symbolique ?

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2039-13906-MIA,00.html

Linux est encore loin d'être polyvalent
Samedi, 10/07/1999 - 00:00

On estime actuellement à 15 millions d'ordinateurs le parc informatique équipé du système d'exploitation Linux, contre seulement 125000 machines en mai 1994. Malgré cette explosion spectaculaire, les développeurs qui travaillent sur le système ont tenu à signaler que Linux n'est pas encore capable de s'intégrer à tous les environnements parce qu'il souffre encore de grosses lacunes. Selon John Hall, directeur général de Linux International, qui s'exprimait lors de l'Open Source Forum cette semaine à Austin (Texas), l'architecture Linux n'est pas en mesure de fonctionner correctement au delà de quatre processeurs et bien qu'il soit stable, l'Unix libre ne peut pas encore garantir des services à haute disponibilité. Autre faiblesse, les utilisateurs ne peuvent pas ajouter de nouveaux processeurs à une architecture de serveurs en grappe (clusters) lorsque le système d'exploitation est en marche. Stuart Green, responsable de la société Tiger Testing, a pour sa part indiqué que l'OS ne devrait pas être déployé pour des applications critiques car il ne peut pas assumer une trop forte montée en charge, comme le font d'autres Unix tel Solaris de Sun. En outre, selon lui, les entreprises ou les organisations qui n'aiment pas le changement ou disposent de compétences limitées devraient éviter Linux qui reste difficile d'accès sur le plan technique. Derrière tous ces défauts de jeunesse se cachent bien sûr de nombreuses qualités. Concernant les niveaux de sécurité, les différentes distributions du système n'ont pas encore reçu le label C2 du gouvernement américain mais le fait que de nombreux fournisseurs de services Internet l'utilisent pour leurs sites Web laisse à penser que l'Unix libre est très sûr de ce point de vue. Pour David Sims, responsable technique IT chez Schlumberger, Linux est tout à fait adapté pour les serveurs Internet, les serveurs de fichiers ou d'impression. Selon lui, "les atouts de Linux sont ses capacités à travailler en réseau. Le fait qu'il puisse s'insérer dans la plupart des environnements et puisse être administré à distance, de telle manière que les utilisateurs peuvent centraliser leur administration est un point clé déterminant".

Network news : http://www.vnunet.fr/NN/index.htm

Révélations sur Neptune, successeur de Windows
Samedi, 10/07/1999 - 00:00

Le nom de code du programme de rajeunissement s'appelle donc Neptune, attendu pour prendre le relais de Millenium, la version "fin de siècle" de Windows qui devrait sortir cet été. Si Millenium sera toujours basé sur le kernel "9X" de Windows (celui des versions 95 et 98), Neptune sera fabriqué à partir du kernel de Windows NT, le système d'exploitation professionnel connu en ce moment sous le terme de Windows 2000. " Bye bye to DOS ", ironisent nos confrères : l'abandon du kernel 9X signifie tout simplement la fin de l'ère DOS, l'ancêtre du système d'exploitation le plus vendu au monde. À présent, la famille Windows se décompose donc en deux entités : Consumer Windows (application bureau), comprenant Neptune et Millenium ; et Business Windows (version réseau), prenant la suite de NT et Windows 2000. D'après des documents internes de Microsoft disséqués par la newsletter SmartResseler et par PC Week, Neptune est attendu en version bêta pour l'été 2000 et en version commerciale au printemps 2001. L'originalité du programme est d'unifier les efforts des deux nouvelles divisions de Microsoft créées récemment, la division grand-public (Consumer Windows) et la division professionnelle (Business and Entreprise). Le kernel étant identique, Microsoft va donc pouvoir réaliser d'importantes économies d'échelles (notamment sur l'interface utilisateur) et, en outre, assurer une meilleure convivialité des deux OS dans les entreprises. " Conséquence, note ZDNN : les nouvelles interfaces conviviales de Neptune devraient se retrouver dans les futures versions de Business Windows. " Parmi les nouvelles fonctions de Neptune : module WinTone, qui permettra (à l'image du SelfTone de Sun Microsystems) d'autoriser la mise à jour ou la maintenance à distance des logiciels ; fonctions Plug and Play universelles, de manière à configurer automatiquement le PC pour ses options de connectivité réseau.

ZDNet/5/07/99 : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=9997

Rapport de la CNIL : haro sur les réseaux
Samedi, 10/07/1999 - 00:00

La Commission nationale de l'informatique et des libertés (CNIL) est préoccupée par le développement des réseaux internationaux et des systèmes d'interconnexions informatiques. " Les fichiers les plus importants ne sont plus aujourd'hui ceux de l'Etat ou des administrations. A l'heure des mégabases de données et d'internet, un marché de l'information nominative est né qui suscite de nouvelles inquiétudes ", a expliqué Michel Gentot, président de la CNIL. Le rapport de 400 pages, rendu public hier, souligne par exemple que 82 % des sites internet déclarés à la CNIL diffusent des données personnelles, relatives à leurs membres ou à des personnes extérieures. La commission a également analysé les conséquences du commerce électronique : 25 % des sites déclarés prennent des commandes avec paiement électronique en ligne, et 20 % de ces transactions sont dépourvues de système de sécurisation des données. Une nouvelle loi est actuellement à l'étude, sur la base d'une directive européenne d'octobre 1995. Elle pourrait être présentée au parlement courant 2000. Michel Gentot a souligné la transformation de la problématique des atteintes à la vie privée. " La constitution d'un fichier résultait jadis d'une volonté. Aujourd'hui, nous pouvons être fichés par le seul fait de la technologie ", a précisé le président, évoquant les traces informatiques qui constituent autant de "gisements de données".

Le Progrès : http://www.leprogres.fr/infodujour/France_Monde

Quand le numérique devient personnel
Samedi, 10/07/1999 - 00:00

La fouille d'un homme de la rue, en cette fin de XXe siècle, révèle un attirail impressionnant : téléphone mobile, agenda électronique, baladeur numérique, ordinateur portable... Sans parler de la multitude de cartes à puce qui gonflent son portefeuille. Points communs à tous ces appareils : une miniaturisation qui les rend transportables et une technologie numérique qui permet de les personnaliser. Gadgets superflus et nuisibles pour ceux qui ne les utilisent pas encore, ces produits industriels entrent dans la famille florissante des objets dits personnels. Sous ce qualificatif à la mode, deux caractéristiques : la portabilité et l'individualisation. De façon prémonitoire, le premier objet qualifié de " personnel " a été l'ordinateur. Un titre partiellement usurpé. A l'origine, les PC (personal computers) différaient peu les uns des autres, tant par leur aspect que par leurs fonctions. Personnels, ils l'étaient surtout par rapport à leurs prédécesseurs, les terminaux dits stupides car incapables de fonctionner de façon autonome. Actuellement, les ordinateurs se distinguent par leur contenu, c'est-à-dire les différents logiciels (bureautique, jeux, éducation, Internet...) dont ils sont équipés et les données personnelles de l'utilisateur qu'ils conservent dans une mémoire de plus en plus éléphantesque. Les modèles portables accentuent encore le potentiel d'appropriation de l'objet. Néanmoins et paradoxalement, l'informatique elle-même, de par sa nature abstraite, n'est pas la mieux placée pour illustrer pleinement le degré de personnalisation qu'offre le numérique. Sans atteindre ce degré d'individualisation, les technologies de traitement numérique du son et de la vidéo ouvrent des perspectives de même nature. Ainsi, le MP3, logiciel de compression de la musique, permet de créer des CD audio contenant plus de dix heures de morceaux de musique choisie. Avec le livre électronique, la rupture s'annonce encore plus flagrante. L'inventeur de l'encre électronique, Joseph Jacobsen, professeur au Massachusetts Institute of Technology (MIT), estime que, d'ici environ cinq ans, apparaîtra ce qu'il qualifie de " livre unique " ou de " dernier livre ". Il s'agit d'un ouvrage de plusieurs centaines de pages, de taille et de poids identiques à ceux de son homologue en papier ordinaire, pouvant contenir la totalité des livres d'une vie. Avec les annotations du lecteur et, même, ses écrits. Sans parler des images et, à terme, de vidéo intégrée aux textes... Une bibliothèque entière concentrée dans un seul ouvrage transportable à loisir. Avant d'en arriver là, Joseph Jacobsen imagine des livres composés en fonction des demandes du lecteur et rassemblant, par exemple, l'ensemble des textes concernant l'un de ses centres d'intérêt. Là encore point la notion de livre personnel.

Le Monde/1/07/99 : http://www.lemonde.fr/article/0,2320,seq-2031-13887-QUO,00.html

Microsoft se rallie à la technologie G2 de Real Networks
Samedi, 10/07/1999 - 00:00

Real Networks peut être fier. Le géant mondial du logiciel lui a demandé d'adapter son lecteur multimédia en temps réel, le G2, pour son service WebTV, qui permet d'accéder à Internet depuis un poste de télévision. Les abonnés de Web TV se seraient en effet plaint de ne pouvoir lire les fichiers audio et vidéos au format G2. De façon encore plus significative, l'accord signé avec Microsoft prévoit en outre que Real Networks rende le G2 compatible avec tout appareil fonctionnant sous le système d'exploitation Windows CE. L'adoption du G2 n'est pas anodine pour Microsoft qui propose une plate-forme de lecture multimédia concurrente, le Windows Media Player. Les relations avec Real Networks s'étaient d'ailleurs tendues. WebTV, qui pouvait lire les premières versions des formats Real Audio, n'avait pas procédé à la mise à jour vers le G2 en raison des limites de la mémoire du décodeur WebTV. Et Real Networks s'était plaint auprès du gouvernement des pratiques commerciales de Microsoft.

L'Expansion/5/07/99 : http://www.lexpansion.com/site/courant/html/actualites/multimedia/index.html

TechnoSphere : http://www.technosphere.tm.fr/push

^ Haut
Avenir
Nanotechnologies et Robotique
Des hologrammes grandeur nature
Samedi, 10/07/1999 - 00:00

Bonne nouvelle pour les fans de Star Trek : la science des hologrammes a connu de tels progrès qu'il est désormais possible de visualiser des objets en 3D en couleurs et tailles réelles. > Les hologrammes vont envahir notre vie. C'est le quotidien canadien The Globe and Mail qui l'annonce. Ces dernières années, les progrès techniques permettent d'envisager la production d'hologrammes de haute qualité pour la grande consommation. L'invention récente des lasers bleus et verts a permis de créer des hologrammes représentant les objets avec leurs couleurs réelles. De plus, alors que les premières images en 3D, toutes petites, n'étaient visibles que sous un mince angle de vue, elles sont désormais visibles en grand angle et grand format. Ford a présenté, en mars dernier, son concept de voiture futuriste en hologramme. Et ce, alors qu'aucun prototype de ce véhicule n'avait été construit. Grâce aux derniers logiciels 3D, l'intérieur et l'extérieur de la voiture (seulement réduits de moitié) ont pu être modélisés et leurs hologrammes créés. Cette possibilité est une révolution pour l'holographie. Tous ces nouveaux procédés ont permis au livre The Holographic Night Sky de voir le jour. Disponible au Canada dès le mois prochain, cet ouvrage pour enfants contient des autocollants holographiques. Sous le faisceau d'une lampe dotée d'un filtre rouge, chaque sticker révèle un diagramme réaliste d'une partie du ciel, une image polychrome des constellations qui s'y trouvent, ainsi que le paysage terrestre en dessous. Ces hologrammes ont l'éclat et la profondeur d'un vrai ciel nocturne ! Ce livre magique n'est qu'un avant-goût des innombrables applications que les hologrammes vont permettre. Mannequins en 3D dans les magasins, conversation en face-à-face virtuel entre deux personnes habitant de chaque côté du globe. La science de la lumière va faire entrer la science-fiction dans notre quotidien !

Transfert/2/07/99 : http://www.transfert.net/mag/reportag/revweb/pages/mfweb018.htm

^ Haut
Matière
Matière et Energie
Des cartes à puce sans contact en l'an 2000
Samedi, 10/07/1999 - 00:00

Roland Moreno, l'inventeur de la carte à puce, s'allie avec NEC. Sa société Innovatron et le géant électronique japonais vont développer ensemble un nouveau microprocesseur destiné aux cartes à puces "sans contact". Celles-ci n'ont pas besoin d'être introduites dans un lecteur, les échanges d'information se faisant à distance par induction à haute fréquence. Les détails financiers de l'accord n'ont pas été rendus publics. Les deux partenaires espèrent pouvoir faire une première annonce produit au début de l'an 2000. " Ce partenariat stratégique est un nouveau pas significatif dans nos efforts constants pour diffuser sous licence la technologie d'Innovatron en matière de cartes à puce sans contact", a souligné Roland Moreno. Il doit permettre d'ouvrir à la petite société française "des marchés qui lui seraient autrement inaccessibles". La carte à mémoire "sans contact" d'Innovatron a été développée en partenariat avec la RATP. Elle trouve en effet un débouché évident en matière de paiement dans les transports publics. Déjà utilisée à Nice, elle est en cours de déploiement à Paris. Ses autres applications possibles vont, comme pour la carte traditionnelle, du contrôle d'accès (d'immeubles, de parkings...) à diverses opérations de porte-monnaie électronique. Après le boom du téléphone sans fil, verra-t-on celui du badge "sans contact" ?

L'Expansion 5/07/99 : http://www.18h.com/




^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Gènes humains : la France veut combler son retard dans les sciences du vivant
Samedi, 10/07/1999 - 00:00

L'Académie des sciences a publié, mercredi 7 juillet, le rapport " Développement et applications de la génomique, l'après-génome ", réalisé à la demande de Claude Allègre, ministre de l'éducation nationale, de la recherche et de la technologie. Ce document, coordonné par François Gros, secrétaire perpétuel de l'Académie des sciences, est le premier de toute une série de rapports sur les sciences et techniques, qui renoue avec une tradition abandonnée depuis que Napoléon Bonaparte avait chargé Cuvier d'un tel travail. Il trace très clairement un état des lieux technique de la génomique en France et des perspectives de cette nouvelle discipline dans des domaines aussi divers que la médecine humaine, la pharmacie, la science vétérinaire, les progrès de l'élevage et de l'agriculture, mais aussi dans l'étude des migrations humaines, de l'évolution des espèces et de leur classification. L'Académie recommande de " compléter et développer les investissements et les implantations industrielles françaises et étrangères à la Génopole d'Evry, d'encourager les recherches au Génoscope ", mais aussi de " développer au plus vite d'autres génopoles en régions et de les coordonner par un réseau national ". La génomique est l'étude exhaustive et multidisciplinaire des génomes, tant en ce qui concerne le nombre et la disposition précise des gènes sur les chromosomes, que leur séquence et leur fonction. Elle fait appel à une technologie industrielle robotisée et informatisée qui seule permet d'appréhender ces énormes objets biologiques, constitués de la succession et de l'enchevêtrement de milliards de nucléotides, ne différant entre eux que par la base, laquelle constitue une partie de la molécule d'acide désoxyribonucléique (ADN).Le projet de déchiffrage de l'intégralité du génome humain a été lancé dans le début des années 1990, lorsque les progrès convergents dans les techniques de la biologie moléculaire du gène, du génie génétique, de l'information, de la robotique et de la physico-chimie ont permis à quelques visionnaires d'envisager que cela serait possible. La France s'est vu confier le décryptage total du chromosome 14 (le génome humain est réparti entre 24 chromosomes), en cours au Génoscope dirigé par Jean Weissenbach, à Evry (Essonne). Le rapport de l'Académie des Sciences pointe aussi le retard pris ces dernières années par la recherche en France, malgré un très beau départ, et sur les difficultés de l'" après-génome ", liées à l'exploitation des résultats de la simple séquence de l'ADN. On compare volontiers ces données à un gisement minier : il faut, pour les exploiter, des outils, soit à inventer, soit anciens, mais alors le plus souvent trop rares. Le développement de ces outils est primordial si la France veut rester dans la course. Et c'est là que le constat est angoissant pour la recherche française. Si les bio-informaticiens ne sont pas suffisamment nombreux en France, " les séquences que nous produisons à grands frais seront analysées, interprétées et exploitées par d'autres, principalement les Etats-Unis " met en garde Jean-Michel Claverie, un des co-auteurs du rapport, qui dirige une unité de recherche au CNRS, spécialisée dans l'information génétique et structurale. Les mêmes problèmes sont décrits dans le rapport de l'Académie concernant les techniques de chimie, en particulier combinatoire, et de biologie structurale, qui devraient être considérablement développées pour la mise au point de médicaments s'appuyant sur les données issues du séquençage des génomes. Quelques très bons laboratoires s'y emploient, mais leurs capacités ne sont pas à l'heure actuelle à l'échelle requise pour la génomique. Le document rappelle aussi l'absence de toute industrie française de " puces à ADN ", ces supports qui permettent de mettre en évidence l'expression de centaines ou de milliers de gènes. La maîtrise de cette technologie est une nécessité pour la découverte de nouvelles cibles thérapeutiques, pour l'identification bactérienne, et pour de nombreux tests diagnostics. Ce domaine est totalement dominé par des sociétés américaines. Cela dit, c'est un domaine de recherche dans lequel sont impliqués quelques très bons laboratoires français qui, s'ils étaient soutenus, pourraient doter la France de méthodes d'analyse originales. " La connaissance de la séquence du génome ne saurait se suffire à elle-même. Le rapport l'a bien souligné ; elle va devoir impérativement requérir une `nouvelle physiologie', et de nouveaux outils associés, de façon que l'accumulation impressionnante d'informations puisse se traduire en connaissances organisées, et par là utiles ", conclut François Gros.

Le Monde http://www.lemonde.fr/article/0,2320,seq-2031-14737-QUO,00.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Conduire au radar
Samedi, 10/07/1999 - 00:00

C'est une petite boîte noire de la taille d'un paquet de cigarettes. Facile à installer dans n'importe quel véhicule, cette boîte contient un système radar ultra-perfectionné. Il suffit d'installer de petits capteurs dotés de puces électroniques dans les feux arrière ou dans les flancs du véhicule pour que le système soit effectif. Ameriguard est conçu pour alerter les automobilistes lors d'un dépassement ou d'une manoeuvre de parking. Équipé d'une alarme, il se veut l'"instrument anti-angle mort". Ameriguard fonctionne même à grande vitesse et par tous les temps : qu'il neige, qu'il pleuve, ou qu'il fasse du brouillard, le radar se déclenchera. Il est prévu pour détecter (à 4 mètres) les camions, les voitures et les deux-roues mais aussi les animaux et les gens (ouf !), tout comme les plots en béton, bornes à incendies et autres briseurs de pare-chocs. Testé durant quatre mois et sur près de 5000 véhicules, Ameriguard affiche fièrement une fiabilité de 100% : aucune auto ainsi équipée n'a eu d'accident dû à un choc arrière. L'histoire ne dit pas si les automobilistes concernés, totalement absorbés par le bip bip de leur super radar, se sont plantés par l'avant... L'objet en question devrait être commercialisé à la rentrée. Son prix n'a pas encore été fixé.

Transférables : http://www.transfert.net/mag/reportag/mail/pages/mfmel125.htm

Les successeurs de l'homme
Samedi, 10/07/1999 - 00:00

Avec les progrès en matière d'intelligence artificielle (IA), des machines aussi intelligentes que l'être humain verront-elles le jour? Se dirige-t-on vers une fusion de l'homme avec la machine? Daniel Crevier (1), spécialiste d'IA à l'Université du Québec, se penche sur le futur de leurs relations. Peut-être (les machines) ne feront-elles simplement que nous décharger des tâches fastidieuses, déployer notre intelligence et amener paix et prospérité partout dans le monde, écrit-il (1).Mais à l'inverse, s'interroge le chercheur, comment savoir si ces machines, une fois qu'elles superviseront nos vies par économie interposée, agiront au mieux de nos intérêts? Et si cela se produit, comment être sûr que les descendants des actuelles armes intelligentes ne prendront pas par la force le contrôle de la planète? Pour tente d'y voir plus clair, Daniel Crevier relève plusieurs cas de figure. Aux Etats-Unis, un des premiers domaines de recherche en IA concerne les opérations militaires. Or, une machine intelligente devrait être amenée à gérer l'équivalent des sentiments humains. Y compris la frustration ou la paranoïa... ce qui pourrait entraîner des défaillances du système. De même, partant du principe que nous sommes répertoriés dans des banques de données multiples, l'utilisation de l'IA par des administrations induirait un contrôle dictatorial sur la vie des citoyens. Malgré les menaces que font peser sur l'emploi ces substituts travailleront 24 heures sur 24, sans jamais faire la grève ou se faire porter pâles, Daniel Crevier nous conseille de rester positifs. Car l'influence de l'IA sur notre culture pourrait être comparable à celle de l'écriture: un "amplificateur universel de l'intelligence". L'écriture ne s'est pas substituée à l'oral, mais a accru sa puissance. Pour conclure, l'auteur rejoint la solution de l'un de ses confrères, Hans Moravec, pour assurer l'équilibre humain - robot: Si vous ne pouvez les battre, rejoignez-les. A partir d'un processus de "téléchargement", ce dernier entrevoit la possibilité de transférer le cerveau humain dans un circuit électronique et, par là-même, d'accéder à... l'immortalité. Une thèse partagée par Michio Kaku (2), professeur de physique théorique au City College de New York et qui prévoit, d'ici à 2020, l'irruption de robots industriels très sophistiqués, préprogammés ou télécommandés. Ils tondront la pelouse ou mitonneront de petits plats. Puis, de 2020 à 2050, des automates intelligents arpenteront la Terre et peupleront Internet. Il s'agira cette fois de robots doués de sens commun, capables d'apprendre, de se déplacer et d'interagir avec les humains. Avant d'atteindre le stade de la conscience. Dès 2050, les robots pourraient disposer de ses prémices et atteindre un niveau de conscience quasi humain dans deux siècles. Dans "Le successeur de pierre", un "roman d'extrapolation" (3), Jean-Michel Truong laisse également entrevoir un monde où l'homme léguera la terre à des êtres de chair et de silicium. L'état d'humain ne constituant à cet égard qu'une étape obligée. Des lectures d'été qui relativiseront notre place sur terre...

Le Soir/5/07/99 : http://www.lesoir.com/

(1) Daniel Crevier, "A la recherche de l'intelligence artificielle", Champs Flammarion, 1999, -

_ (2) Michio Kaku, "Visions", Albin Michel, 1999,

_ (3) Jean-Michel Truong, "Le successeur de pierre", Ed. Denoël, 1999

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top