|
|
|
|
|
NUMERO 57 |
|
|
|
|
|
|
|
Edition du 09 Juillet 1999
|
|
|
|
|
Edito
La pile à combustible va permettre une révolution énergétique au XXIème siècle
Trois révolutions techno-industrielles majeures vont profondément transformer le Monde du XXIème siècle : la première est liée à l'explosion des technologies de l'information, la deuxième concerne la maîtrise du vivant et les biotechnologies et la dernière, non moins importante, touche au domaine de l'énergie. Inventée il y a 160 ans par William Grove, avocat anglais, passionné de physique, la pile à combustible, même si elle reste méconnue du grand public est enfin en train de sortir des laboratoires et devrait devenir l'une des principales sources d'énergie au cours des prochaines décennies. La pile à combustible produit du courant comme une pile électrique classique grâce à deux électrodes qui réalisent des réactions chimiques d'oxydo-réduction produisant un courant électrique. La différence, c'est que dans la pile à combustible, les réactifs ne sont pas stockés une fois pour toute à l'intérieur. Il suffit de remplir le réservoir de la pile et de l'alimenter en air (comburant) pour obtenir du courant électrique. La chaleur dégagée par les réactions peut en outre être utilisée pour le chauffage selon le principe de la cogénération. La pile à combustible peut donc se recharger presque indéfiniment. Autre avantage considérable, la majorité des piles consomment de l'hydrogène, non seulement abondant dans la nature, sous forme d'eau, mais également non polluant lors de sa combustion. Mais si la pile à combustible repose à présent sur des technologies bien maîtrisées, les problèmes de stockage et de transport de l'hydrogène sous forme liquide ne sont pas encore résolus. Les principaux industriels impliqués dans cette technologie ont donc choisi une voie indirecte : les piles sont alors alimentées soit en gaz naturel (réseau gaz de ville), soit en méthanol, qu'un "reformeur" transforme sur place en hydrogène. Quatre technologies, qui mettent en jeu des électrolytes aux propriétés différentes, sont privilégiées dans les laboratoires. La plus avancée est la pile à acide phosphorique pour la cogénération dans les logements. 180 piles de ce type sont opérationnelles dans le monde, 100 sont installées au Japon (Fuji Electric), 60 aux Etats-Unis, 20 en Europe. La majeure partie des piles européennes fonctionnent en Allemagne. Jusqu'à maintenant, la France était restée en retrait sur ce marché. Cet été, elle se lance dans l'installation d'une pile Onsi de 200 kilowatts fonctionnant au gaz naturel. Cette pile de 18 tonnes sera raccordée au réseau de gaz de ville ainsi qu'au réseau électrique et de chaleur déjà existants. Elle fournira de la chaleur jusqu'à 80 degrés C à 200 logements et du courant triphasé 400 volts en basse tension. Mais la pile à combustible va également bouleverser le secteur automobile. Dès 2004 en effet, les grands constructeurs proposeront des véhicules utilisant des piles à combustible alimentées au méthanol. Enfin, des recherches actives se poursuivent, notamment dans les laboratoires américains de Los Alamos, pour mettre au point des micro-piles à combustible qui permettront demain à nos téléphones et ordinateurs portables d'avoir une autonomie de plusieurs semaines en veille. A plus long terme, on peut aller encore plus loin et certains chercheurs imaginent qu'en 2020 il suffira de brancher la pile de sa voiture sur le réseau de la maison en rentrant chez soi pour s'éclairer et se chauffer ! On le voit, cette invention vieille d'un siècle et demi a encore un bel avenir devant elle. René Trégouët Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
News Com/30/06/99 : http://www.news.com/News/Item/0,4,38627,00.html?st.ne.fd.gif.f En signant un contrat de trois ans avec America On Line (AOL), Prodigy ou Microsoft MSN, associés à trois distributeurs informatiques, Circuit City, Best Buy et Staples, un internaute peut bénéficier d'une remise de 400 dollars sur tout achat de micro-ordinateur. Cette offre revient à offrir un PC bas de gamme aux clients loyaux (compte tenu du fait qu'un constructeur comme eMachines propose aujourd'hui des ordinateurs pour 399 dollars). AOL, qui s'est dernièrement associé à cette entreprise américano-coréenne, va se lancer dans une opération semblable avec Microworkz, un constructeur de Seattle dont le produit, iToaster (une sorte de Minitel pour l'internet), ne coûte que 199 dollars. Pour la presse américaine, ces initiatives relèvent davantage du bon business que de la philanthropie, compte tenu des investissements consentis par les fournisseurs de contenus pour fidéliser leurs clients. En outre, cette politique devrait consolider la place de ces fournisseurs d'accès à l'internet face à leurs concurrents du câble, qui misent sur l'internet à haut débit. La presse souligne le glissement progressif de l'industrie informatique vers les services multimedia en réseaux qui présentent une très forte valeur ajoutée. brève @RT Flash
|
|
|
|
|
|
|
|
Avec l'Internet 2 américain ou Renater 2 en France, les chercheurs vont découvrir un réseau ultrarapide. Mais combien de temps encore l'internaute de base devra-t-il ramer? "Le grand public devra attendre cinq ou dix ans avant de bénéficier de tels débits", estime Lawrence Rowe, le patron du Media Lab de l'université de Berkeley. Ce délai dépend de deux facteurs principaux. La taille des tuyaux qui composent l'Internet, tout d'abord. Gérés par les opérateurs de télécoms, ces "tunnels à données", souvent en fibre optique, supportent des débits croissants qui atteignent aujourd'hui plusieurs gigabits par seconde (1). Reste pour les opérateurs à en déployer assez et à trouver un intérêt économique à les ouvrir au grand public. Deuxième écueil: le "dernier kilomètre", le parcours emprunté par les données entre le fournisseur d'accès à l'Internet et le domicile. Aujourd'hui, la majorité des internautes se connecte à son provider par un modem, et les données transitent par les lignes téléphoniques. Qui plafonnent à 56 kilobits par seconde. Un goulet d'étranglement auquel échappent les chercheurs (et certaines entreprises), qui disposent de lignes spécialisées autorisant des débits élevés. Pour lever cet obstacle, trois technologies existent, mais tardent à se diffuser. Le câble utilisé pour acheminer la télé peut servir d'accès rapide à l'Internet. Et une technologie appelée ADSL (Asynchronous Digital Subscriber Line) permet d'atteindre jusqu'à 6 mégabits par seconde sur les lignes téléphoniques classiques, un débit plus de 100 fois supérieur à celui d'aujourd'hui. Enfin, le satellite peut arroser de données l'ordinateur de l'internaute, grâce à une parabole. Si plusieurs villes en France bénéficient déjà d'offres d'accès au Net par le câble (proposées par la Lyonnaise ou France Télécom), les débuts sont chaotiques, des abonnés se plaignent d'un service erratique. Côté ADSL, France Télécom mène des expériences auprès de deux mille clients, et compte lancer à terme une offre, réservée aux grandes villes. Et la même entreprise teste des accès satellitaires à Beauvais, Compiègne, Quimper et Vannes.
|
|
|
|
|
A la suite d'une plainte déposée par Grolier Interactive Europe, le Conseil de la Concurrence a "enjoint" France Télécom Interactive de suspendre pendant quinze semaines son offre ADSL Wanadoo Netissimo. L'opérateur doit donc renoncer à "toute offre de commercialisation de toute offre d'accès rapide à Internet par la technique ADSL". Cette suspension sera interrompue si un concurrent propose sa propre offre avant ce terme. France Télécom expérimente depuis plusieurs mois cette nouvelle technologie et projetait de lancer avant les autres fournisseurs d'accès une offre commerciale via Wanadoo. Il doit maintenant communiquer "à tous les fournisseurs d'accès qui lui en feraient la demande les informations qui leur seront nécessaires à la mise en place de leur offre d'accès à Internet par ADSL." Des tests chez les concurrents de Wanadoo devraient donc démarrer dans les jours à venir. L'Expansion : http://www.18h.com/techno.asp
|
|
|
|
|
Intervenant récemment lors d'une conférence sur le thème des hauts débits, plusieurs responsables de Microsoft, de Road Runner, d'Intel et de Nortel, notamment, ont tous affirmé la certitude que l'Internet à grande vitesse serait bientôt une réalité, au moins aux Etats-Unis. Il y aurait déjà plus d'un million d'abonnés à des services rapides (ADSL, satellite ou câble), la plupart s'abonnant à de tels services surtout pour accéder à des services de vidéo, interactifs ou non. De fait, l'avenir du medium en tant qu'alternative à la télévision est de plus en plus souvent affirmé par les responsables concernés, qui prédisent l'émergence prochaine de stations de télévision sur le web, identiques aux stations de radio qui existent déjà. Bien entendu, pour en profiter vraiment, il faudra disposer de connexions rapides. Les Echos : http://www.lesechos.fr/silval/
|
|
|
|
|
|
|
|
La télévision est le média classique qui souffre le plus de la pénétration croissante de l'Internet au sein des ménages français, révèle l'étude Internet Track publiée le 29 juin. Réalisée en partenariat par Dell, Intel et Ziff-Davis(maison mère de ZDNet), cette étude européenne en est à sa troisième édition, après deux premières vagues en mars et septembre 1998.Entre la deuxième et la troisième vague de l'étude, les visites sur le Web ont bien sûr augmenté : +12 % en France, +15 % en Allemagne et +16 % chez les Britanniques. En extrapolant à la population globale, on parvient à fixer à 5,4 millions le nombre de Français de plus de 18 ans ayant parcouru le Web au moins une fois (9,8 millions d'Allemands et 7,3 millions de Britanniques). Du côté de l'influence de l'Internet sur les autres médias, la presse informatique et la radio sont les seuls dont la consommation a augmenté : 15 % des sondés français disent acheter plus de magazines informatiques, 6 % le contraire ; pour la radio 8 % l'écoutent plus souvent, 5 %la délaissent peu ou prou. En revanche 20 % disent moins regarder la télé, 5 % seulement disent le contraire. ZDNet/30/06/99 : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=9907
|
|
|
|
|
Le PDG de France Telecom Michel Bon a annoncé que l'opérateur public offrirait à partir du 1er août un forfait d'accès internet de 20 heures par mois pour 100 F, dans une interview publiée mercredi par le Parisien. Selon le patron de France Telecom, cette offre s'adressera aux "internautes confirmés". Michel Bon a également confirmé l'annonce par France Télécom, d'une baisse de 20% (de 3 F à 2,38 F) du prix des appels d'un poste fixe vers son service mobile Itinéris à compter de jeudi 1er juillet et laissé entendre que d'autres baisses étaient envisageables dans ce secteur. "A plus long terme, le tarif +fixe vers mobile+ pourrait avoisiner 1F", a-t-il déclaré. AFP/30/06/99 : http://www.yahoo.fr/actualite/19990629/multimedia/
|
|
|
|
|
|
|
|
Que vous alliez sur Internet dans le cadre de vos activités professionnelles ou depuis votre domicile, confortablement installé dans votre fauteuil, vos déplacements dans le monde d'Internet, si vaste et si riche, vous donnent sans doute une impression de liberté. Et le fait est que vous êtes libre d'aller n'importe où sur le réseau avec le sentiment de naviguer dans un parfait anonymat. L'absence d'intermédiaire visible peut renforcer ce sentiment d'absence de surveillance. La méconnaissance du fonctionnement des réseaux peut se trouver à l'origine de cette conviction - fausse - que les connexions ne laissent pas de traces. Le préjugé très répandu qu'Internet est complexe peut donner l'assurance, hâtive, que si traces il y a, les moyens de les exploiter sont disproportionnés au regard de l'intérêt qu'on aurait à le faire. La réalité est autre. Non, l'anonymat n'est pas la règle sur Internet et l'absence de traces l'est encore moins. Oui, il est possible d'être sinon espionné, du moins surveillé, peut-être pas étroitement, mais suffisamment pour qu'un marché des outils de surveillance existe et que cette surveillance puisse être le fait d'acteurs de nature très diverses...Attention, il ne s'agit pas d'affirmer que si l'anonymat n'est pas la règle, la surveillance le serait. Restons dans la réalité. Et si nous cessions un instant de qualifier Internet de "virtuel" et autre "cyber", pour le considérer sous son angle bien réel, informatique et technique, nous constaterions qu'en matière d'anonymat, Internet fonctionne exactement comme tout autre lieu du monde : l'anonymat demande des efforts, il est rarement absolu et garanti. La surveillance nécessite également des moyens, parfois importants; elle n'est pas inéluctable, mais elle est toujours possible. Sur cette question aux contours plutôt flous pour la plupart des personnes, le meilleur moyen d'être clair consiste à montrer directement aux personnes connectées au site de la CNIL ce qu'il est possible de collecter comme traces de leur passage. CNIL : http://www.cnil.fr/
|
|
|
|
|
|
|
|
La guerre des prix sur les ordinateurs connaît un nouvel épisode. Après les PC à 2000 francs vendus avec un abonnement obligatoire à un fournisseur d'accès pendant deux ans, Infonie et Daewoo vont lancer à la rentrée un ordinateur à ...990 francs. Un prix défiant toute concurrence, pour le moment, et qui place l'offre du constructeur Coréen et du fournisseur d'accès français en tête du palmarès des offres les moins chères du monde. Il y a quelque jours, aux Etats-Unis, la firme Microworkz avait elle annoncé, un ordinateur à 199 dollars soit environ 1250 francs. Le record est donc battu. Pour ce prix, les clients auront le droit d'acquérir un PC multimédia équipé d'un processeur Céléron, la puce grand public d'Intel, et doté d'un écran 15 pouces. Vendue en grande surface, cette offre s'accompagne, on s'en doute, d'une contrepartie financière. Les futurs acheteurs devront en effet s'abonner à Infonie pendant deux ans et pour une somme de 149 francs par mois. Un prix défiant lui aussi toute concurrence quand sait que le marché français compte pas loin d'une dizaine d'offres d'Internet gratuits et que les fournisseurs payants proposent des tarifs à partir de 60 francs mensuels. A quand l'ordinateur pour un franc symbolique ? Le Monde : http://www.lemonde.fr/article/0,2320,seq-2039-13906-MIA,00.html
|
|
|
|
|
|
|
|
On estime actuellement à 15 millions d'ordinateurs le parc informatique équipé du système d'exploitation Linux, contre seulement 125000 machines en mai 1994. Malgré cette explosion spectaculaire, les développeurs qui travaillent sur le système ont tenu à signaler que Linux n'est pas encore capable de s'intégrer à tous les environnements parce qu'il souffre encore de grosses lacunes. Selon John Hall, directeur général de Linux International, qui s'exprimait lors de l'Open Source Forum cette semaine à Austin (Texas), l'architecture Linux n'est pas en mesure de fonctionner correctement au delà de quatre processeurs et bien qu'il soit stable, l'Unix libre ne peut pas encore garantir des services à haute disponibilité. Autre faiblesse, les utilisateurs ne peuvent pas ajouter de nouveaux processeurs à une architecture de serveurs en grappe (clusters) lorsque le système d'exploitation est en marche. Stuart Green, responsable de la société Tiger Testing, a pour sa part indiqué que l'OS ne devrait pas être déployé pour des applications critiques car il ne peut pas assumer une trop forte montée en charge, comme le font d'autres Unix tel Solaris de Sun. En outre, selon lui, les entreprises ou les organisations qui n'aiment pas le changement ou disposent de compétences limitées devraient éviter Linux qui reste difficile d'accès sur le plan technique. Derrière tous ces défauts de jeunesse se cachent bien sûr de nombreuses qualités. Concernant les niveaux de sécurité, les différentes distributions du système n'ont pas encore reçu le label C2 du gouvernement américain mais le fait que de nombreux fournisseurs de services Internet l'utilisent pour leurs sites Web laisse à penser que l'Unix libre est très sûr de ce point de vue. Pour David Sims, responsable technique IT chez Schlumberger, Linux est tout à fait adapté pour les serveurs Internet, les serveurs de fichiers ou d'impression. Selon lui, "les atouts de Linux sont ses capacités à travailler en réseau. Le fait qu'il puisse s'insérer dans la plupart des environnements et puisse être administré à distance, de telle manière que les utilisateurs peuvent centraliser leur administration est un point clé déterminant". Network news : http://www.vnunet.fr/NN/index.htm
|
|
|
|
|
|
|
|
Le nom de code du programme de rajeunissement s'appelle donc Neptune, attendu pour prendre le relais de Millenium, la version "fin de siècle" de Windows qui devrait sortir cet été. Si Millenium sera toujours basé sur le kernel "9X" de Windows (celui des versions 95 et 98), Neptune sera fabriqué à partir du kernel de Windows NT, le système d'exploitation professionnel connu en ce moment sous le terme de Windows 2000. " Bye bye to DOS ", ironisent nos confrères : l'abandon du kernel 9X signifie tout simplement la fin de l'ère DOS, l'ancêtre du système d'exploitation le plus vendu au monde. À présent, la famille Windows se décompose donc en deux entités : Consumer Windows (application bureau), comprenant Neptune et Millenium ; et Business Windows (version réseau), prenant la suite de NT et Windows 2000. D'après des documents internes de Microsoft disséqués par la newsletter SmartResseler et par PC Week, Neptune est attendu en version bêta pour l'été 2000 et en version commerciale au printemps 2001. L'originalité du programme est d'unifier les efforts des deux nouvelles divisions de Microsoft créées récemment, la division grand-public (Consumer Windows) et la division professionnelle (Business and Entreprise). Le kernel étant identique, Microsoft va donc pouvoir réaliser d'importantes économies d'échelles (notamment sur l'interface utilisateur) et, en outre, assurer une meilleure convivialité des deux OS dans les entreprises. " Conséquence, note ZDNN : les nouvelles interfaces conviviales de Neptune devraient se retrouver dans les futures versions de Business Windows. " Parmi les nouvelles fonctions de Neptune : module WinTone, qui permettra (à l'image du SelfTone de Sun Microsystems) d'autoriser la mise à jour ou la maintenance à distance des logiciels ; fonctions Plug and Play universelles, de manière à configurer automatiquement le PC pour ses options de connectivité réseau. ZDNet/5/07/99 : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=9997
|
|
|
|
|
|
|
|
La Commission nationale de l'informatique et des libertés (CNIL) est préoccupée par le développement des réseaux internationaux et des systèmes d'interconnexions informatiques. " Les fichiers les plus importants ne sont plus aujourd'hui ceux de l'Etat ou des administrations. A l'heure des mégabases de données et d'internet, un marché de l'information nominative est né qui suscite de nouvelles inquiétudes ", a expliqué Michel Gentot, président de la CNIL. Le rapport de 400 pages, rendu public hier, souligne par exemple que 82 % des sites internet déclarés à la CNIL diffusent des données personnelles, relatives à leurs membres ou à des personnes extérieures. La commission a également analysé les conséquences du commerce électronique : 25 % des sites déclarés prennent des commandes avec paiement électronique en ligne, et 20 % de ces transactions sont dépourvues de système de sécurisation des données. Une nouvelle loi est actuellement à l'étude, sur la base d'une directive européenne d'octobre 1995. Elle pourrait être présentée au parlement courant 2000. Michel Gentot a souligné la transformation de la problématique des atteintes à la vie privée. " La constitution d'un fichier résultait jadis d'une volonté. Aujourd'hui, nous pouvons être fichés par le seul fait de la technologie ", a précisé le président, évoquant les traces informatiques qui constituent autant de "gisements de données". Le Progrès : http://www.leprogres.fr/infodujour/France_Monde
|
|
|
|
|
|
|
|
La fouille d'un homme de la rue, en cette fin de XXe siècle, révèle un attirail impressionnant : téléphone mobile, agenda électronique, baladeur numérique, ordinateur portable... Sans parler de la multitude de cartes à puce qui gonflent son portefeuille. Points communs à tous ces appareils : une miniaturisation qui les rend transportables et une technologie numérique qui permet de les personnaliser. Gadgets superflus et nuisibles pour ceux qui ne les utilisent pas encore, ces produits industriels entrent dans la famille florissante des objets dits personnels. Sous ce qualificatif à la mode, deux caractéristiques : la portabilité et l'individualisation. De façon prémonitoire, le premier objet qualifié de " personnel " a été l'ordinateur. Un titre partiellement usurpé. A l'origine, les PC (personal computers) différaient peu les uns des autres, tant par leur aspect que par leurs fonctions. Personnels, ils l'étaient surtout par rapport à leurs prédécesseurs, les terminaux dits stupides car incapables de fonctionner de façon autonome. Actuellement, les ordinateurs se distinguent par leur contenu, c'est-à-dire les différents logiciels (bureautique, jeux, éducation, Internet...) dont ils sont équipés et les données personnelles de l'utilisateur qu'ils conservent dans une mémoire de plus en plus éléphantesque. Les modèles portables accentuent encore le potentiel d'appropriation de l'objet. Néanmoins et paradoxalement, l'informatique elle-même, de par sa nature abstraite, n'est pas la mieux placée pour illustrer pleinement le degré de personnalisation qu'offre le numérique. Sans atteindre ce degré d'individualisation, les technologies de traitement numérique du son et de la vidéo ouvrent des perspectives de même nature. Ainsi, le MP3, logiciel de compression de la musique, permet de créer des CD audio contenant plus de dix heures de morceaux de musique choisie. Avec le livre électronique, la rupture s'annonce encore plus flagrante. L'inventeur de l'encre électronique, Joseph Jacobsen, professeur au Massachusetts Institute of Technology (MIT), estime que, d'ici environ cinq ans, apparaîtra ce qu'il qualifie de " livre unique " ou de " dernier livre ". Il s'agit d'un ouvrage de plusieurs centaines de pages, de taille et de poids identiques à ceux de son homologue en papier ordinaire, pouvant contenir la totalité des livres d'une vie. Avec les annotations du lecteur et, même, ses écrits. Sans parler des images et, à terme, de vidéo intégrée aux textes... Une bibliothèque entière concentrée dans un seul ouvrage transportable à loisir. Avant d'en arriver là, Joseph Jacobsen imagine des livres composés en fonction des demandes du lecteur et rassemblant, par exemple, l'ensemble des textes concernant l'un de ses centres d'intérêt. Là encore point la notion de livre personnel. Le Monde/1/07/99 : http://www.lemonde.fr/article/0,2320,seq-2031-13887-QUO,00.html
|
|
|
|
|
|
|
|
Real Networks peut être fier. Le géant mondial du logiciel lui a demandé d'adapter son lecteur multimédia en temps réel, le G2, pour son service WebTV, qui permet d'accéder à Internet depuis un poste de télévision. Les abonnés de Web TV se seraient en effet plaint de ne pouvoir lire les fichiers audio et vidéos au format G2. De façon encore plus significative, l'accord signé avec Microsoft prévoit en outre que Real Networks rende le G2 compatible avec tout appareil fonctionnant sous le système d'exploitation Windows CE. L'adoption du G2 n'est pas anodine pour Microsoft qui propose une plate-forme de lecture multimédia concurrente, le Windows Media Player. Les relations avec Real Networks s'étaient d'ailleurs tendues. WebTV, qui pouvait lire les premières versions des formats Real Audio, n'avait pas procédé à la mise à jour vers le G2 en raison des limites de la mémoire du décodeur WebTV. Et Real Networks s'était plaint auprès du gouvernement des pratiques commerciales de Microsoft. L'Expansion/5/07/99 : http://www.lexpansion.com/site/courant/html/actualites/multimedia/index.html TechnoSphere : http://www.technosphere.tm.fr/push
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Bonne nouvelle pour les fans de Star Trek : la science des hologrammes a connu de tels progrès qu'il est désormais possible de visualiser des objets en 3D en couleurs et tailles réelles. > Les hologrammes vont envahir notre vie. C'est le quotidien canadien The Globe and Mail qui l'annonce. Ces dernières années, les progrès techniques permettent d'envisager la production d'hologrammes de haute qualité pour la grande consommation. L'invention récente des lasers bleus et verts a permis de créer des hologrammes représentant les objets avec leurs couleurs réelles. De plus, alors que les premières images en 3D, toutes petites, n'étaient visibles que sous un mince angle de vue, elles sont désormais visibles en grand angle et grand format. Ford a présenté, en mars dernier, son concept de voiture futuriste en hologramme. Et ce, alors qu'aucun prototype de ce véhicule n'avait été construit. Grâce aux derniers logiciels 3D, l'intérieur et l'extérieur de la voiture (seulement réduits de moitié) ont pu être modélisés et leurs hologrammes créés. Cette possibilité est une révolution pour l'holographie. Tous ces nouveaux procédés ont permis au livre The Holographic Night Sky de voir le jour. Disponible au Canada dès le mois prochain, cet ouvrage pour enfants contient des autocollants holographiques. Sous le faisceau d'une lampe dotée d'un filtre rouge, chaque sticker révèle un diagramme réaliste d'une partie du ciel, une image polychrome des constellations qui s'y trouvent, ainsi que le paysage terrestre en dessous. Ces hologrammes ont l'éclat et la profondeur d'un vrai ciel nocturne ! Ce livre magique n'est qu'un avant-goût des innombrables applications que les hologrammes vont permettre. Mannequins en 3D dans les magasins, conversation en face-à-face virtuel entre deux personnes habitant de chaque côté du globe. La science de la lumière va faire entrer la science-fiction dans notre quotidien ! Transfert/2/07/99 : http://www.transfert.net/mag/reportag/revweb/pages/mfweb018.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
L'Académie des sciences a publié, mercredi 7 juillet, le rapport " Développement et applications de la génomique, l'après-génome ", réalisé à la demande de Claude Allègre, ministre de l'éducation nationale, de la recherche et de la technologie. Ce document, coordonné par François Gros, secrétaire perpétuel de l'Académie des sciences, est le premier de toute une série de rapports sur les sciences et techniques, qui renoue avec une tradition abandonnée depuis que Napoléon Bonaparte avait chargé Cuvier d'un tel travail. Il trace très clairement un état des lieux technique de la génomique en France et des perspectives de cette nouvelle discipline dans des domaines aussi divers que la médecine humaine, la pharmacie, la science vétérinaire, les progrès de l'élevage et de l'agriculture, mais aussi dans l'étude des migrations humaines, de l'évolution des espèces et de leur classification. L'Académie recommande de " compléter et développer les investissements et les implantations industrielles françaises et étrangères à la Génopole d'Evry, d'encourager les recherches au Génoscope ", mais aussi de " développer au plus vite d'autres génopoles en régions et de les coordonner par un réseau national ". La génomique est l'étude exhaustive et multidisciplinaire des génomes, tant en ce qui concerne le nombre et la disposition précise des gènes sur les chromosomes, que leur séquence et leur fonction. Elle fait appel à une technologie industrielle robotisée et informatisée qui seule permet d'appréhender ces énormes objets biologiques, constitués de la succession et de l'enchevêtrement de milliards de nucléotides, ne différant entre eux que par la base, laquelle constitue une partie de la molécule d'acide désoxyribonucléique (ADN).Le projet de déchiffrage de l'intégralité du génome humain a été lancé dans le début des années 1990, lorsque les progrès convergents dans les techniques de la biologie moléculaire du gène, du génie génétique, de l'information, de la robotique et de la physico-chimie ont permis à quelques visionnaires d'envisager que cela serait possible. La France s'est vu confier le décryptage total du chromosome 14 (le génome humain est réparti entre 24 chromosomes), en cours au Génoscope dirigé par Jean Weissenbach, à Evry (Essonne). Le rapport de l'Académie des Sciences pointe aussi le retard pris ces dernières années par la recherche en France, malgré un très beau départ, et sur les difficultés de l'" après-génome ", liées à l'exploitation des résultats de la simple séquence de l'ADN. On compare volontiers ces données à un gisement minier : il faut, pour les exploiter, des outils, soit à inventer, soit anciens, mais alors le plus souvent trop rares. Le développement de ces outils est primordial si la France veut rester dans la course. Et c'est là que le constat est angoissant pour la recherche française. Si les bio-informaticiens ne sont pas suffisamment nombreux en France, " les séquences que nous produisons à grands frais seront analysées, interprétées et exploitées par d'autres, principalement les Etats-Unis " met en garde Jean-Michel Claverie, un des co-auteurs du rapport, qui dirige une unité de recherche au CNRS, spécialisée dans l'information génétique et structurale. Les mêmes problèmes sont décrits dans le rapport de l'Académie concernant les techniques de chimie, en particulier combinatoire, et de biologie structurale, qui devraient être considérablement développées pour la mise au point de médicaments s'appuyant sur les données issues du séquençage des génomes. Quelques très bons laboratoires s'y emploient, mais leurs capacités ne sont pas à l'heure actuelle à l'échelle requise pour la génomique. Le document rappelle aussi l'absence de toute industrie française de " puces à ADN ", ces supports qui permettent de mettre en évidence l'expression de centaines ou de milliers de gènes. La maîtrise de cette technologie est une nécessité pour la découverte de nouvelles cibles thérapeutiques, pour l'identification bactérienne, et pour de nombreux tests diagnostics. Ce domaine est totalement dominé par des sociétés américaines. Cela dit, c'est un domaine de recherche dans lequel sont impliqués quelques très bons laboratoires français qui, s'ils étaient soutenus, pourraient doter la France de méthodes d'analyse originales. " La connaissance de la séquence du génome ne saurait se suffire à elle-même. Le rapport l'a bien souligné ; elle va devoir impérativement requérir une `nouvelle physiologie', et de nouveaux outils associés, de façon que l'accumulation impressionnante d'informations puisse se traduire en connaissances organisées, et par là utiles ", conclut François Gros. Le Monde http://www.lemonde.fr/article/0,2320,seq-2031-14737-QUO,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
C'est une petite boîte noire de la taille d'un paquet de cigarettes. Facile à installer dans n'importe quel véhicule, cette boîte contient un système radar ultra-perfectionné. Il suffit d'installer de petits capteurs dotés de puces électroniques dans les feux arrière ou dans les flancs du véhicule pour que le système soit effectif. Ameriguard est conçu pour alerter les automobilistes lors d'un dépassement ou d'une manoeuvre de parking. Équipé d'une alarme, il se veut l'"instrument anti-angle mort". Ameriguard fonctionne même à grande vitesse et par tous les temps : qu'il neige, qu'il pleuve, ou qu'il fasse du brouillard, le radar se déclenchera. Il est prévu pour détecter (à 4 mètres) les camions, les voitures et les deux-roues mais aussi les animaux et les gens (ouf !), tout comme les plots en béton, bornes à incendies et autres briseurs de pare-chocs. Testé durant quatre mois et sur près de 5000 véhicules, Ameriguard affiche fièrement une fiabilité de 100% : aucune auto ainsi équipée n'a eu d'accident dû à un choc arrière. L'histoire ne dit pas si les automobilistes concernés, totalement absorbés par le bip bip de leur super radar, se sont plantés par l'avant... L'objet en question devrait être commercialisé à la rentrée. Son prix n'a pas encore été fixé. Transférables : http://www.transfert.net/mag/reportag/mail/pages/mfmel125.htm
|
|
|
|
|
|
|
|
Avec les progrès en matière d'intelligence artificielle (IA), des machines aussi intelligentes que l'être humain verront-elles le jour? Se dirige-t-on vers une fusion de l'homme avec la machine? Daniel Crevier (1), spécialiste d'IA à l'Université du Québec, se penche sur le futur de leurs relations. Peut-être (les machines) ne feront-elles simplement que nous décharger des tâches fastidieuses, déployer notre intelligence et amener paix et prospérité partout dans le monde, écrit-il (1).Mais à l'inverse, s'interroge le chercheur, comment savoir si ces machines, une fois qu'elles superviseront nos vies par économie interposée, agiront au mieux de nos intérêts? Et si cela se produit, comment être sûr que les descendants des actuelles armes intelligentes ne prendront pas par la force le contrôle de la planète? Pour tente d'y voir plus clair, Daniel Crevier relève plusieurs cas de figure. Aux Etats-Unis, un des premiers domaines de recherche en IA concerne les opérations militaires. Or, une machine intelligente devrait être amenée à gérer l'équivalent des sentiments humains. Y compris la frustration ou la paranoïa... ce qui pourrait entraîner des défaillances du système. De même, partant du principe que nous sommes répertoriés dans des banques de données multiples, l'utilisation de l'IA par des administrations induirait un contrôle dictatorial sur la vie des citoyens. Malgré les menaces que font peser sur l'emploi ces substituts travailleront 24 heures sur 24, sans jamais faire la grève ou se faire porter pâles, Daniel Crevier nous conseille de rester positifs. Car l'influence de l'IA sur notre culture pourrait être comparable à celle de l'écriture: un "amplificateur universel de l'intelligence". L'écriture ne s'est pas substituée à l'oral, mais a accru sa puissance. Pour conclure, l'auteur rejoint la solution de l'un de ses confrères, Hans Moravec, pour assurer l'équilibre humain - robot: Si vous ne pouvez les battre, rejoignez-les. A partir d'un processus de "téléchargement", ce dernier entrevoit la possibilité de transférer le cerveau humain dans un circuit électronique et, par là-même, d'accéder à... l'immortalité. Une thèse partagée par Michio Kaku (2), professeur de physique théorique au City College de New York et qui prévoit, d'ici à 2020, l'irruption de robots industriels très sophistiqués, préprogammés ou télécommandés. Ils tondront la pelouse ou mitonneront de petits plats. Puis, de 2020 à 2050, des automates intelligents arpenteront la Terre et peupleront Internet. Il s'agira cette fois de robots doués de sens commun, capables d'apprendre, de se déplacer et d'interagir avec les humains. Avant d'atteindre le stade de la conscience. Dès 2050, les robots pourraient disposer de ses prémices et atteindre un niveau de conscience quasi humain dans deux siècles. Dans "Le successeur de pierre", un "roman d'extrapolation" (3), Jean-Michel Truong laisse également entrevoir un monde où l'homme léguera la terre à des êtres de chair et de silicium. L'état d'humain ne constituant à cet égard qu'une étape obligée. Des lectures d'été qui relativiseront notre place sur terre... Le Soir/5/07/99 : http://www.lesoir.com/ (1) Daniel Crevier, "A la recherche de l'intelligence artificielle", Champs Flammarion, 1999, - _ (2) Michio Kaku, "Visions", Albin Michel, 1999, _ (3) Jean-Michel Truong, "Le successeur de pierre", Ed. Denoël, 1999
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|