RTFlash

RTFLASH Recherche & Technologie
NUMERO 135
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Février 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
eRoom : un bureau virtuel sur le Net
Quand l'internet révolutionne le monde rural
Le "peer-to-peer", nouvelle révolution sur l'internet
La fibre optique est-elle l'avenir du haut débit ?
Et si on réinventait l'interactivité
Pendant que l'Union européenne veut l'internet pour tous les USA basculent dans la société de l'information
Comment transformer votre appareil photo 35 mm en appareil numérique
Avenir
Nanotechnologies : les bâtisseurs atomiques
Matière
Toshiba aplatit les batteries
Espace
Pour voyager dans l'espace, prenez l'ascenseur
Terre
Changement du Climat : menaces pour l'eau, l'agriculture et la santé publique
Des ballons contre les avalanches
Vivant
L'espérance de vie va-t-elle continuer à croître ?
Les cellules-souches des cordons ombilicaux pourraient réparer les dommages des attaques cérébrales
Accident vasculaire cérébral : traitement par le froid ?
Le cerveau se reprogramme après un accident vasculaire cérébral
Une avancée majeurs dans le traitement de la leucémie
Un espoir pour les insuffisances cardiaques
Protéger son coeur en mangeant des pommes ?
Vers une thérapie génique contre la cécité
La carte du génome humain : de la génomique à la protéomique
Recherche
En route pour la voiture du futur
Hybrides, mais pas trop
Un avion civil supersonique en 2020
Edito
Édito Immigration sauvage : demain il sera trop tard



L'échouage sur les côtes françaises du navire transportant plus de 900 personnes qui voulaient fuir leur pays nous oblige à regarder la situation en face. L'attrait de l'Europe occidentale pour des peuples qui souffrent devient si fort que beaucoup sont prêts à tout perdre, y compris la vie, pour gagner un tel paradis. A une époque où l'information et les images parcourent notre planète à la vitesse de la Lumière, le fossé entre nos démocraties avancées et les peuples opprimés se creuse à une telle vitesse qu'il devient urgent d'ouvrir un débat dont dépendra, cela ne fait aucun doute, le destin de nos vieilles nations. Nous, Français, nous n'avons pas toujours conscience que nous habitons le plus beau pays du Monde. De plus, géographiquement, la France avec ses 560.000 km² est de loin le plus grand pays d'Europe. C'est un Eden couvert de terres arables particulièrement productives, de vertes prairies et disposant de ressources inépuisables en eau, le bien le plus précieux de demain. Nous avions su résister depuis des millénaires à l'aventure ouverte par l'épopée de Babylone qui voudrait que l'Histoire de l'Homme se confonde avec l'exode rural pour nourrir une urbanisation de plus en plus puissante. Ce n'est qu'en 1928, c'est-à-dire il y a moins de ¾ de siècle que la population des villes de France a dépassé les 50 % de la population française. Sept décennies plus tard, c'est-à-dire dans un temps plus court que la vie d'un homme, ce mouvement d'urbanisation s'est accéléré d'une façon stupéfiante puisque les trois quarts des français vivent aujourd'hui sur moins de 20 % du territoire. Nous paierons très cher cette migration accélérée et incontrôlée. Nous avons ainsi une grande partie de la population de France qui n'a plus de racines. Cela donne à d'immenses cités sans âme une grande fragilité sociale et culturelle dont l'insécurité qui se développe actuellement dans les banlieues n'est qu'un des aspects. Mais cet exode rural aura aussi d'autres conséquences dont nous n'avons pas encore pris conscience. Alors que l'ensemble de la France est un jardin béni des dieux, réalisons-nous que dans certaines régions, pourtant si belles, il n'y a même plus un habitant au km² ? Avons-nous l'esprit si embué par nos égoïsmes pour ne pas prendre conscience que cet abandon de régions si fertiles et si hospitalières va inexorablement attirer l'attention des peuples les plus pauvres et les plus brimés du Monde et qu'un jour ils exigeront, au travers des organisations mondiales, qu'ils puissent acquérir et venir s'installer dans ces territoires que nous avons abandonnés ? Que pourrions-nous faire si un jour, peut-être pas si lointain, ce ne sont pas un ou deux navires mais des centaines qui venaient déposer sur nos côtes des centaines de milliers de pauvres ères venant des pays les plus déshérités ? Il serait irréaliste de croire que nous pourrions arrêter ces êtres humains aux poitrines nues avec des fusils ou des canons. L'opinion mondiale nous jetant aux yeux notre gestion calamiteuse du trésor exceptionnel qui nous a été légué par la Nature nous obligerait à les accueillir. Il faut que sans retard nous prenions conscience des conséquences qui seront générées par cet aménagement aberrant de notre territoire. Notre nation pourtant habituée depuis des siècles à une assimilation, unique en Europe, d'immigrés venant de tous les horizons, ne pourrait pas résister à une invasion si massive. Notre démocratie si fragile, bien qu'elle puisse s'honorer d'avoir su donner naissance aux Droits de l'Homme, s'écroulerait. Aussi, sans tarder, il nous faut inverser un mouvement plus que séculaire qui voudrait que notre avenir se trouve dans des agglomérations de plus en plus grandes. Les nouvelles technologies, les nouveaux métiers dont les matières premières sont les idées, l'intelligence, le savoir et non plus l'acier ou le plastique, nous offrent une chance historique de réussir cette inversion. Au même titre que les aménageurs du XIXe et du XXe siècles ont pensé que l'avenir de la France passait par la construction des réseaux de chemin de fer, de routes, d'électricité, il faut cesser nos luttes picrocholines pour trouver la volonté, dans une même unanimité, de construire les réseaux de télécommunications utilisant toutes les techniques porteuses d'avenir (fibres optiques, boucle locale radio, UMTS, etc...) afin que ces métiers du futur puissent être exonérés quel que soit l'endroit où nous résidons dans notre belle France. Ce ne sont pas les seules lois du marché qui doivent décider de l'avenir de la France mais une ferme volonté politique qui doit se donner les moyens de changer le destin de nos enfants. Ce n'est qu'avec cette volonté que nous verrons tous les villages de France revivre et constater enfin que la matière grise et l'intelligence de notre Pays pourra s'étendre sur le vert paradisiaque de l'ensemble de notre territoire. Prenons conscience que le Destin nous a confié une mission spécifique. Ne laissons pas en friche cet Eden car la colère des pays qui n'ont pas notre chance pourrait être terrible. Il faut par ailleurs que tous les pays nantis du Monde, que ce soit l'Europe Occidentale, les Etats-Unis ou le Japon, sortent de leurs égoïsmes et s'associent pour apporter aux autres peuples et en particulier les plus pauvres les moyens d'entrer avec espérance dans l'avenir. C'est pourquoi, comme je l'ai déjà proposé à plusieurs reprises dans ces colonnes, dorénavant, à chaque fois que nous lancerons des satellites de télécommunications, et il y en aura plusieurs centaines dans les dix ans à venir, il faudra qu'une partie des équipements de ces satellites soit mise gratuitement à la disposition des pays les plus pauvres pour que leurs habitants puissent accéder, sans bourse déliée, à la toile mondiale et au réseau universel de télécommunications. Il suffirait pour cela de construire au sol, dans ces pays, des équipements spécifiques peu onéreux par rapport aux enjeux. Ce n'est qu'avec des gestes forts de cette nature et aussi en leur permettant d'acquérir des savoirs que nous pourrons rendre l'espoir à ces peuples désespérés et que nous pourrons endiguer un vaste mouvement mondial d'immigration clandestine vers les pays nantis. N'attendons plus. Demain il sera trop tard. Les puissants projecteurs qui éclairent nos pays riches deviennent trop éblouissants pour des peuples qui vivent dans le noir. Si nous ne savions pas apporter à chacun la lumière qui pourrait enfin leur éclairer le chemin de l'avenir, il faut que nous ayons conscience, même si un grand nombre parmi eux devaient s'y brûler les ailes, que tels des papillons, ils seraient de plus en plus nombreux à vouloir partager cette clarté qui éclaire nos vies. La façon dont notre Pays, en moins de 3 jours, a dû, cette semaine, traiter le cas des 900 « boat-people » kurdes, montre bien que nous n'aurions pas la capacité de résister à de telles exigences massives.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
eRoom : un bureau virtuel sur le Net
Samedi, 24/02/2001 - 00:00

Travailler à plusieurs en utilisant des outils informatiques et un réseau n'est pas un concept nouveau. Le télé-travail est une réalité depuis longtemps et plusieurs millions de salariés, aux Etats-Unis, le pratiquent quotidiennement. Pourtant, de nouvelles technologies sont en train d'apparaître qui tirent le meilleur parti des possibilités offertes par Internet, un réseau devenu plus fiable et plus sûr - lorsqu'il est utilisé dans un contexte d'entreprises. C'est ainsi qu'une société comme eRoom, sur la côte Est des Etats-Unis, a déjà convaincu près d'un demi-millier d'entreprises d'utiliser ses services. eRoom propose à ses clients un concept d'espace de travail virtuel où peuvent se réunir des petits groupes de personnes éloignées de plusieurs milliers de kilomètres. Si ce concept n'est pas non plus vraiment nouveau, Internet permet d'offrir des outils logiciels particulièrement économiques. Chaque entreprise n'a en effet besoin que d'un serveur Internet doté de ses outils logiciels, proposé 10.000 dollars environ, auxquels s'ajoute un coût de 200 dollars par utilisateur (qui couvre le support technique, la maintenance et la mise à jour des services). Dès lors, chaque participant peut accéder à un calendrier commun aux autres membres du groupe de travail, partager les mêmes documents ou encore tenir des réunions virtuelles. Le tout au format Internet, ce qui permet d'établir des liens avec les autres applications web de l'entreprise. Plusieurs grands industriels de la high tech, comme Hewlett-Packard ou Compaq utilisent déjà les services de eRoom, mais ce ne sont pas les seuls. Ford, participant à la construction de la place de marché Covisint, utilise la technologie pour construire ce projet de façon virtuelle avec les autres constructeurs automobiles qui y participeront. A terme, leur ambition est d'élargir cet espace de travail aux milliers d'équipementiers également membres de Covisint. Pour sa part, EDS, première société de services informatiques au monde, vient de conclure un accord avec la firme américaine pour permettre à ...120.000 de ses salariés de tenir virtuellement sur toute la planète des réunions de travail qui économiseront le temps et la fatigue de consultants habitués à trop voyager. A l'heure du "tout réseau", les entreprises qui ne souhaitent pas héberger elles-mêmes le serveur eRoom peuvent s'affranchir de cette dernière contrainte. La firme propose un accès sécurisé à eRoom.net, qui propose les mêmes services en ligne.

Les Echos : http://hightech.lesechos.fr/

Quand l'internet révolutionne le monde rural
Samedi, 24/02/2001 - 00:00

Petite commune agricole de 380 habitants, perchée à 800 mètres dans la montagne du Vivarais à l'écart des principales routes de communication, Gluiras a longtemps vécu dans un splendide isolement. Aujourd'hui, elle est devenue une commune pilote dans l'utilisation de la carte citoyenne électronique, une carte à puce hautement sécurisée (seul son titulaire en connaît le code) et peu coûteuse, qui permet de signer un document officiel à distance par l'intermédiaire du courrier électronique. cette démarche est rendue possible grâce à la loi du 13 mars 2000, qui stipule qu'un document électronique a autant de valeur qu'un document papier à partir du moment où sa signature est certaine. "Toutes les délibérations, tous les décrets émanant de la mairie, doivent être envoyés à la préfecture qui effectue un contrôle de légalité. Cela signifie qu'il faut faire un tirage papier, mettre la délibération dans une enveloppe, l'envoyer à la préfecture, qui ouvre l'enveloppe, met un tampon et la renvoie", énumère Alain Risson. Avec les téléprocédures, permises par la carte citoyenne, il suffit d'entrer la carte dans un lecteur et de taper son code avant d'envoyer le document, ainsi dûment signé, par courrier électronique. "Ma croisade, c'est de faire passer les mairies d'une informatique de gestion à une informatique de communication", pour éviter les courriers inutiles et l'accumulation de dossiers, explique Alain Risson. C'est ainsi que le "cybermaire" porte la bonne parole dans tout l'Hexagone pour le compte de l'Association des maires de France (AMF). Des habitants de Gluiras ont déjà reçu des cartes citoyennes, qu'ils peuvent utiliser, par exemple, pour demander un extrait d'acte de naissance ou faire une demande d'écobuage. C'est aussi le moyen de communiquer avec les nombreux propriétaires de résidences secondaires, qui ne viennent à Gluiras que pour les vacances, et dont beaucoup sont étrangers. "Le but est de donner une carte citoyenne électronique à tous les habitants, à commencer par ceux qui vont l'utiliser, c'est-à-dire les internautes", explique Alain Risson. "Ceux qui ne veulent pas ou ne peuvent pas se servir d'Internet peuvent venir à la mairie faire leur demande, introduire leur carte dans le lecteur et taper leur code. Gluiras est aujourd'hui en avance - elle est la seule commune au monde avec Santa Monica, en Californie, où le cadastre est consultable sur Internet. "Les technologies de l'information et de la communication sont une chance pour le monde rural. C'est la raison pour laquelle je me bats pour un aménagement inégalitaire du territoire", afin que les communes les plus reculées bénéficient du haut débit, plaide Alain Risson. Une condition sine qua non, selon lui, pour que les entreprises à forte valeur ajoutée acceptent de s'y installer.

Le "peer-to-peer", nouvelle révolution sur l'internet
Samedi, 24/02/2001 - 00:00

La technologie "peer-to-peer", dite P2P (d'égal à égal), annonce une nouvelle évolution de l'informatique, après l'ère des grands systèmes et celle des micro-ordinateurs. Cette nouvelle conception de l'informatique en réseau permet aux internautes d'échanger des données numériques, qu'il s'agisse de logiciels ou de documents, sans passer par un serveur ou une instance centrale. Paradoxe, l'expression a été mise à la mode par la polémique autour du service Napster, créé par Shawn Fanning, qui utilise en fait un serveur central répertoriant les fichiers disponibles sur les ordinateurs de ses adeptes. Il diffère en cela des projets véritablement P2P, tels ceux de Groove, Nextpage, Jabber, Intel Corp., Sun Microsystems Inc. ou Aimster. Intel utilise ainsi les milliers d'ordinateurs de ses employés pendant la nuit pour résoudre des calculs complexes, d'habitude réservés aux supercalculateurs, grâce aux techniques du "peer computing" qui divisent les problèmes en une multitude d'opérations abordables par des systèmes moins puissants. Les résultats sont ensuite compilés par un serveur. "Nous pensons qu'Intel bénéficiera des moyens nouveaux et intéressants que les gens trouveront pour utiliser leur ordinateur", explique Bob Knighten, doté du titre officiel d'évangéliste Peer-to-Peer chez Intel. Il cite par exemple le projet SETI@Home, dans lequel des internautes du monde entier donnent une petite partie de leurs "temps processeur", c'est-à-dire des ressources de calcul de leur ordinateur, pour aider à la recherche de la vie extra- terrestre. La société Aimster, créée par Johnny Deep, a quant à elle conçu un logiciel du même nom qui fonctionne comme une messagerie instantanée avec des fonctions de partage et de téléchargement de fichiers, mais seulement entre membres sélectionnés par l'utilisateur, et non avec n'importe quel internaute. Ce logiciel intéresse d'autant plus les fournisseurs d'accès à l'internet qu'il est totalement indépendant des autres outils de messagerie instantanée qui se partagent aujourd'hui le marché, ceux d'America Online, de Microsoft MSN et de Yahoo! Plusieurs observateurs estiment toutefois que le véritable avenir du "peer-to-peer" réside non pas dans son utilisation par le grand public, mais par les entreprises qui y trouvent un moyen de travailler mieux et plus vite. "C'est aussi important que le commerce électronique il y a trois ans", estime Robert Batchelder, analyste au Gartner Group. "Comme pour le web, tout le battage s'est fait sur le B2C ('business-to-consumer'). Mais ce n'est pas ce qui a marché. La même chose se produit sur le P2P." Les sociétés P2P qui prospéreront seront celles qui s'adressent aux entreprises, et non aux étudiants, prévoit également Bill Burnham, directeur général de Softbank Venture Capital, la branche de capital-risque de la société d'investissement japonaise Softbank Corp. Dans les technologies P2P, l'internet remplace le serveur auquel les terminaux envoient leurs informations et permet la circulation instantanée et infinie de tous types d'informations entre des ordinateurs qui deviennent des sources de données sans dépendre d'un serveur. Elles annoncent donc un avenir florissant pour les fournisseurs de bande passante, les constructeurs d'infrastructures de télécommunications, les fabricants d'ordinateurs personnels et les concepteurs de logiciels de sécurité. Une les applications les plus remarquables du P2P, qui mobilise les investisseurs et toute la communauté high-tech, est le travail collaboratif, avec le projet Groove . Le projet Groove a fait l'objet de développements secrets pendant trois ans avant d'être révélé en octobre dernier. Une version finale est prévue pour le courant du premier trimestre 2001. La société Groove Networks vend des outils permettant à toutes les professions de travailler sur un projet ensemble et au même moment. Chacun voit la même information, peut apporter des modifications et visualiser celles opérées par d'autres tout en envoyant des messages.

Reuters : http://fr.news.yahoo.com/010215/2/ww4j.html

La fibre optique est-elle l'avenir du haut débit ?
Samedi, 24/02/2001 - 00:00

Au Japon, Usen Broadband Networks compte reléguer l'ADSL au placard. Son nouveau service Fiber To The Home (FTTH) basé sur de la fibre optique, comme le câble, va offrir très prochainement aux habitants de Tokyo un débit de 100 mégabits par seconde (Mbps). On en sait désormais un peu plus sur cette offre annoncée récemment par Usen. Cette vitesse incroyable pourrait être atteinte dans les deux sens, aussi bien en trafic descendant que remontant. Mais elle n'est pas garantie par Usen : ce maximum théorique dépend de nombreux facteurs, comme l'encombrement du réseau ou le débit de certains serveurs. Ce qui n'empêche pas Tsutomu Goto, le directeur de la division recherche et développement de Usen, de voir encore plus loin, du côté du très haut débit : « Quand le nouveau service sera lancé, nous fournirons des débits de 100 Mbps. Mais dans un an ou deux, quand les supports Ethernet seront moins coûteux, un débit de 1 gigabit par seconde sera très envisageable. » On pensait se consoler en imaginant un abonnement à un prix exorbitant. Même pas. Le tarif devrait tourner autour des 300 francs, auxquels il faudra ajouter 50 francs de location de modem. Mais passé le moment d'ébahissement devant les prouesses nippones, se pose la question de l'utilité d'un tel débit. Usen Broadband Networks annonce du téléchargement de film et de musique, du streaming, ou du jeu en ligne. Tout ce contenu sera rassemblé au sein du futur portail de Usen : Broad Gate 01. Pour fournir ce contenu, qui sera payant, la firme japonaise a noué des partenariats avec Columbia, Sony Music, Microsoft ou encore Yahoo! Japon. Fiber To The Home sera disponible dans un premier temps dans certains quartiers de Tokyo, puis sera progressivement étendu aux villes de plus de 300 000 habitants et aux préfectures régionales. Usen Braodband Networks offrira également un service aux PME, avec le même débit que pour les particuliers, mais avec la possibilité contractuelle de partager l'accès au réseau avec un maximum de 10 ordinateurs. Ce service devrait être facturé 600 francs mensuels. Á titre de comparaison, ces tarifs sont sensiblement similaires aux prix pratiqués par le câblo-opérateur français Noos, pour un débit de 512 kbps du réseau vers le particulier. Face à la performance du câblo-opérateur japonais, le porte-parole de Noos précise qu'un tel débit n'est pas à l'ordre du jour. Mais qu'un investissement de 1,2 milliard de francs devrait prochainement permettre de densifier la couverture câble sur Paris. Les travaux ont débuté en février et devraient durer jusqu'en 2002. De quoi proposer un débit de l'ordre de 2 ou 3 Mbps... Il n'y a pas qu'en téléphonie mobile que le fossé numérique se creuse entre le Japon et l'Europe.

Transfert :

http://transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=4156

Et si on réinventait l'interactivité
Samedi, 24/02/2001 - 00:00

Suzanne Cross, 49 ans, conseiller juridique à La Nouvelle-Orléans et passionnée d'histoire, écrit beaucoup pour un site Internet, The VinesNetwork, qui se présente comme une “encyclopédie sur tout, rédigée par tout un chacun”. Depuis sa première contribution, en août dernier, elle a fourni à The Vines environ 40 000 mots sur la Rome antique. Suzanne Cross n'ignore pas que ses travaux sont appréciés par les autres membres du site. En fait, elle sait même très exactement ce qu'ils en pensent, grâce aux notes qu'ils lui décernent. Chaque contribution est évaluée sur une échelle de 1 à 10. The Vines et les autres serveurs destinés aux auteurs ne fonctionnent pas comme les publications traditionnelles, dans lesquelles des dizaines de rédacteurs en chef décident de ce qui sera publié. Ici, tout ce qui est soumis est publié, et c'est l'appréciation des membres qui déterminera quels articles demeureront sur le site. “Il est très difficile de trouver de très mauvais articles sur The Vines”, explique Eden Muir, cofondateur du site. “Il est conçu pour éliminer les mauvais papiers.”The Vines est un exemple de ces nouveaux sites qui “s'autorégulent”. Ils apportent la preuve qu'avec quelques lignes de code bien écrites et une planification soigneuse un site peut, à partir d'un ensemble anarchique de liens ou d'articles, constituer un ensemble complexe et évolutif. Les articles proposés à The Vines sont lus et évalués par ses membres. Le logiciel fait le reste : les articles les mieux notés sont placés en tête de leur catégorie. Et les royalties sont fonction de la popularité de l'article. Une autre forme de site évolutif consiste à évaluer non pas les articles eux-mêmes, mais les commentaires des membres à leur sujet. Ce système, utilisé par Slashdot, qui a trois ans d'existence et est destiné aux mordus de l'informatique, a servi de modèle à Plastic.com. Chez Slashdot, l'intervention humaine est réduite à son minimum, même si les visiteurs ont l'impression inverse. Les articles qui y sont publiés sont suivis de dizaines, voire de centaines, de commentaires provenant des 305 000 utilisateurs du site. Lorsque vous devenez un habitué de Slashdot, le système vous attribue périodiquement le statut de “modérateur”, une fonction temporaire qui confère le droit de noter les commentaires d'autres membres, sur une échelle de 0 à 5. Lorsqu'ils naviguent sur le site, les utilisateurs ont recours à un filtre de qualité. Ainsi, en réglant le filtre sur le chiffre 3, le visiteur n'aura accès à aucun des commentaires ayant obtenu une note inférieure. En outre, les membres obtenant de bonnes notes jouissent de certains privilèges : leurs articles bénéficient d'un bonus, et eux-mêmes ont plus de chance d'être choisis comme modérateurs à l'avenir. Un exemple encore plus parlant d'autorégulation est celui d'Everything2, créé il y a un an par l'un des fondateurs de Slashdot, Nathan Oostendorp. Contrairement à Slashdot et à Plastic.com, qui reposent dans une large mesure sur des articles trouvés sur le Net, Everything2 ressemble davantage aux sites d'auteurs comme The Vines, car tous ses liens renvoient à d'autres endroits du site. Mais il fonctionne de manière beaucoup plus autonome. Son logiciel contrôle des modèles de trafic en fonction desquels il se modifie, affectant une valeur plus élevée aux liens les plus populaires. Par ailleurs, les utilisateurs peuvent accumuler des “points d'expérience” et exprimer leur opinion sur les articles des autres. “C'est une masse d'informations, à laquelle chacun peut ajouter celle qu'il désire, par exemple son film ou son metteur en scène préféré ou n'importe quelle autre opinion, affirme M. Anuff. Et les seules choses avec lesquelles on peut établir des liens, ce sont les idées d'autres personnes, au sein de cette même masse.” Au premier abord, Everything2 a tout d'un fouillis chaotique au discours désordonné. Mais, à y regarder de plus près, on s'aperçoit que les conversations forment une trame serrée et portent sur des sujets aussi variés que les langues de l'Inde, MTV et le traitement des mélanomes. Il est probable que le nombre des sites Internet dotés de mécanismes de filtrage, d'évaluation automatique et d'autorégulation continuera à augmenter. “C'est un tournant fondamental dans l'évolution de la Toile”, estime M. Johnson, d'Automatic Media. “Sur le Net, la première génération fonctionnait sur le principe de] l'interaction individuelle. Aujourd'hui, après une période de folie, on revient au point de départ et à la notion d'interactivité.” Mais, cette fois, ajoute-t-il, il s'agit d'une interactivité collective.

Courrier International :

[http://www.courrierinternational.com/mag/INTmedia.htm

The VinesNetwork : http://www.thevines.com/

Slashdot : http://slashdot.org/

Everything2 : http://everything2.com/

Pendant que l'Union européenne veut l'internet pour tous les USA basculent dans la société de l'information
Samedi, 24/02/2001 - 00:00

Les ministres des Télécommunications de l'Union européenne ont conclu le 17-02-2001 leur réunion de trois jours en souhaitant l'ouverture des accès Internet à une plus grande partie de la population européenne. ''Aujourd'hui 28% des Européens ont un accès à Internet'', a constaté le commissaire européen aux technologies informatiques, Erkki Liikanen. ''Nous essayons d'accroître cette (proportion) pour atteindre 43%.'' Les ministres de l'Emploi et des Télécommunications de l'UE, qui s'étaient réunis à Luleaa, à 900 kilomètres au nord de Stockholm, se sont donné quatre ans pour atteindre cet objectif. Le taux de pénétration d'Internet dans les foyers a déjà dépassé les 50% au Danmark, aux Pays-Bas et en Suède, selon un rapport de l'UE publié en novembre. Le ministre suédois de l'Industrie, de l'Emploi et des Télécommunications, Bjoern Rosengren, a indiqué au cours d'une conférence de presse qu'il était désormais temps de définir les rôles du gouvernement et des marchés dans l'expansion d'Internet. Les ministres n'ont pas donné d'estimation précise des coups d'installation d'un Internet à prix raisonnable pour les citoyens européens. Dans le même temps un étude de l'institut de recherche Pew Internet and American Life Project nous révélait que plus de la moitié des adultes américains, soit environ 104 millions de personnes, avait désormais accès à l'internet. La population des adultes internautes s'est élargie de 16 millions de personnes au second semestre 2000, grâce à la présence croissante en ligne des femmes, des minorités (noirs et latino-américains) et des familles à revenus modestes, relève l'institut, basé à Washington. Au total, 56 % des adultes américains, soit exactement le double, en pourcentage, qu'en Europe, avaient accès à l'internet à la fin 2000, contre 48 % à la mi-2000, que ce soit depuis chez eux, sur leur lieu de travail ou dans les lieux publics (bibliothèques, cybercafés...) Les 12-17 ans sont beaucoup plus branchés, 75 % d'entre eux surfant sur la Toile. Parmi les plus jeunes (moins de 12 ans), cette proportion se réduit à 29 %. Au total, 45 % des moins de 18 ans, soit 30 millions d'enfants et adolescents américains, ont accès à l'internet. "La fracture numérique reste néanmoins très visible selon l'âge et les revenus, souligne l'institut. Seuls 38 % des Américains les plus pauvres (dont le revenu annuel est inférieur à 30.000 dollars) ont ainsi accès à l'internet, contre 75 % chez les plus riches (revenus supérieurs à 75.000 dollars). De façon encore plus criante, seuls 15 % des plus de 65 ans surfent sur l'internet, contre 75% chez les 18-29 ans.

AP : http://fr.news.yahoo.com/010218/5/x9bd.html

Comment transformer votre appareil photo 35 mm en appareil numérique
Samedi, 24/02/2001 - 00:00

Cela ressemble à une pellicule photo 35 mm, mais c'est bien plus que ça : la cartouche, présentée par la firme américaine Silicon Film Technologies, permet de transformer certains boîtiers argentiques (Canon et Nikon pour le moment) en appareil photo numérique. Le kit EFS-1 se compose de trois éléments : (e)film, (e)port et enfin (e)box. L'(e)film est une cartouche au format 35 mm qui vient simplement prendre la place d'un film dans l'appareil. Cette seule manipulation suffit à transformer le boîtier en appareil numérique capable de prendre jusqu'à 24 photos. La cartouche intègre un capteur de type CMOS de sensibilité équivalente à un film 100 asa, pour une résolution maximale de 1 280 x 1 024 pixels. Ce produit ne devrait pas inquiéter le monde de la photo numérique professionnelle, mais il donne facilement accès à la photo numérique à partir d'appareils traditionnels et des objectifs qui y sont associés. Une fois la prise de vue effectuée, l'utilisateur pourra décharger la mémoire de la cartouche sur un ordinateur portable équipé d'une baie d'extension PC-Card en utilisant l'adaptateur (e)port. Le boîtier (e)box permet même de se dispenser de l'encombrant ordinateur : ce boîtier est équipé d'une mémoire de type Compact Flash dédiée au stockage des photos issues de l'(e)film, que l'on pourra ensuite transférer sur l'ordinateur. Pour rappel, les mémoires Compact Flash permettent de stocker jusqu'à 1 gigaoctet de données si on utilise le mini-disque dur disponible à cette norme. L'ensemble (e)film + (e)port + (e)box sera disponible sous peu sur le site du constructeur, pour 699 dollars (environ 5 000 francs).

Transfert :

http://transfert.net/fr/gadget/article.cfm?idx_rub=88&idx_art=4201

^ Haut
Avenir
Nanotechnologies et Robotique
Nanotechnologies : les bâtisseurs atomiques
Samedi, 24/02/2001 - 00:00

«Si vous essayez de prédire ce qui se passera dans 30 ans et que ça ressemble à de la science-fiction, ça pourrait être faux. Mais si ça ne ressemble pas à de la science-fiction, c'est certainement faux», a déjà dit la présidente du Foresight Institute, Christine Peterson. Les scientifiques ont l'habitude de voir grand, même dans l'infiniment petit. Si la miniaturisation a déjà étonné en donnant naissance, par exemple, à des ordinateurs toujours plus petits et plus puissants, il semble que l'on n'ait encore rien vu. La nanotechnologie commence à peine à opérer sa révolution...Commençons par le commencement, disent les nanotechnologues. Au départ, il y a l'atome. Un ordinateur, un gratte-ciel, un hamburger, tout est d'abord un assemblage d'atomes. Si l'on arrivait à placer les atomes un par un, on pourrait arriver à créer des objets «mini-minuscules», comme des nanocaméras pour filmer des cellules. Ou des matériaux sans défaut. Ou n'importe quel objet, sans perte, puisqu'on utilise seulement les atomes dont on a besoin. Utopie? À peine. Même si la nanotechnologie suscite pour le moment plus de rêves qu'elle ne comporte de réalités, les scientifiques sont convaincus d'avoir en main tous les ingrédients du succès. Ne manque que la recette. Au pays du nanomètre, le millimètre est un géant. Un millimètre égale 1000 micromètres, soit 1 000 000 de nanomètres. Le nanomètre mesure quatre atomes de long. L'épaisseur d'une feuille de papier, par exemple, mesure environ 100 000 nanomètres. La nanotechnologie se consacre généralement sur des structures d'au plus 100 nanomètres. La nanotechnologie pourrait être une révolution du même type que l'a été la microélectronique. Au moment où les premiers transistors ont donné naissance aux ordinateurs, les experts jubilaient. «À la fin du siècle, on arrivera à faire 5000 opérations par seconde avec un appareil de 3000 livres qui consommera des kilowatts», avait déclaré un comité américain, qui avait également estimé que le pays aurait besoin, au plus, d'une dizaine d'ordinateurs. C'était avant la microélectronique. Les puces sont aujourd'hui de plus en plus gourmandes d'informations, elles absorbent maintenant des systèmes entiers. Le scientifique Gordon Moore a d'ailleurs énoncé une loi pour expliquer le phénomène: le nombre de transistors par puce double tous les 18 mois. Mais il y a une limite jusqu'où la microélectronique peut aller, croit le chercheur Mohamed Chaker, de l'Institut national de recherche scientifique (INRS-Énergie et matériaux). La microélectronique, comme tous les procédés actuels d'assemblage, est du type top-down: créer à partir de matériaux qu'on taille et qu'on réduit pour donner un objet. La nanotechnologie utilise la technique inverse, le bottom-up: en assemblant un atome à la fois, on crée un objet. L'assemblage d'atomes est pour l'instant un travail de moine. Les chercheurs arrivent à voir leur travail grâce aux microscopes ultraprécis à effet tunnel et à force atomique. Mais le concept a été imaginé bien avant que les appareils ne permettent d'y travailler. En 1959, le Prix Nobel Richard Freynman rappelait que les lois de la physique autorisent a priori la manipulation et le positionnement contrôlé des atomes et des molécules. Dans ce cas, s'est-il demandé, pourquoi ne pourrait-on pas écrire les 24 volumes de l'Encyclopédie Britannica sur une tête d'épingle ? Depuis Freynman, d'autres chercheurs ont pu prouver qu'il était possible de créer dans l'infiniment petit. En plaçant un par un les atomes, les chercheurs ont réussi, en 1990, à écrire le nom de leur employeur, IBM, sur une plaque de nickel. En 1997, des chercheurs de l'Université Cornell ont sculpté une guitare de 10 000 nanomètres de long, soit le dixième de l'épaisseur d'un cheveu. Le défi est de trouver la façon d'agencer les atomes selon les lois de la nature. La nature maîtrise très bien l'art d'agencer les atomes pour créer de formidables structures, que ce soit un métal, un liquide, un gaz. «Le vrai défi est de comprendre comment se font les choses dans la nature, ce qu'on appelle la nanoscience. En appliquant ces lois de la nature, on pourrait orienter les atomes pour qu'ils fassent des silos, des trous, des étages.» Les nanotechnologues voient grand dans l'infiniment petit. Dans les laboratoires du monde, les chercheurs se penchent sur les propriétés des nanomatériaux, dont les possibilités seraient extraordinaires. Par exemple, explique Mohamed Chaker, des particules longues de quelques nanomètres qui auraient la propriété d'absorber de l'hydrogène. «Imaginez que vous avez des milliards de ces nanoparticules que vous mettez dans un pot. Elles auront la capacité d'absorber énormément plus d'hydrogène qu'un matériau solide dont la surface serait plus petite que ces milliards de nanoparticules. Vous venez alors de construire un réservoir d'hydrogène extrêmement puissant, et ça pourrait servir pour de nouveaux moteurs qui fonctionneraient à l'hydrogène, une énergie propre.» Mohamed Chaker ne fabule pas, jure-t-il. «On ne verra pas ça dans vingt ans. On parle de quelques années !»

Le Devoir : http://www.ledevoir.com/pla/2001a/nano190201.html

^ Haut
Matière
Matière et Energie
Toshiba aplatit les batteries
Samedi, 24/02/2001 - 00:00

Le fabricant japonais de matériel électronique Toshiba a mis au point des batteries cinq fois plus plates que les modèles actuels, à destination des ordinateurs portables ou des téléphones mobiles. La filiale américaine Toshiba America Electronic Components (TAEC) a combiné les deux technologies les plus prometteuses en la matière : lithium-ion et lithium-polymère. Les batteries lithium-ion sont aujourd'hui les plus répandues, des ordinateurs portables aux téléphones mobiles, en passant par les PDA. Elles offrent une densité d'énergie importante mais un certain encombrement face aux batteries polymère.Ces dernières ressemblent à un simple film plastique et présentent l'avantage physique d'être souple. Ces batteries peuvent épouser n'importe quelle forme et sont ultra-fines. En revanche, elles offrent une densité d'énergie inférieure aux modèles Lithium-ion et sont surtout plus chères à fabriquer. Toshiba a tenté de réunir les deux univers en proposant des batteries combinant les deux technologies. Baptisées ALB (Advanced Lithium Batteries), les nouveaux accus ne dépassent pas le millimètre d'épaisseur, contre près de 5 mm en moyenne pour des batteries classiques. De plus ils ne souffrent pas du défaut assez répandu de “mémorisation” : la batterie mémorise la quantité d'énergie stockée lors d'une première recharge et la prend comme référence, alors que sa capacité totale est en fait supérieure. D'où par exemple la nécessité de charger puis décharger en totalité son téléphone portable lors de la première utilisation. Revers de médaille, ces batteries ALB coûteront 20 % plus cher. Les nouvelles batteries sont en cours de production et disponibles pour les constructeurs.

Nouvel Obs :

http://quotidien.nouvelobs.com/multimedia/20010220.ZDN8325.html?0803

^ Haut
Espace
Espace et Cosmologie
Pour voyager dans l'espace, prenez l'ascenseur
Samedi, 24/02/2001 - 00:00

Quel étage ? GEO, l'orbite géostationnaire de la terre. D'après les recherches faites par la NASA, le deuxième millénaire sera celui du voyage dans l'espace...en ascenseur. Un article de David Smitherman, chercheur au centre Marshall pour le vol spatial, décrit cet ascenseur pour les étoiles qu' Arthur C Clarke avait déjà imaginé et décrit en détail il y a plus de 20 ans dans son roman "Les fontaines du paradis". "Ce n'est plus de la science fiction", explique-t-il, "Nous pourrions tout à fait réaliser cela". Concrètement, l'installation repose sur une tour de 50 kilomètres de haut installée sur terre et reliée par des câbles à plusieurs plate-formes, dont la dernière s'élève à 35.786 kilomètres d'altitude, l'orbite géostationnaire de la terre. Les câbles, réalisés en nanofibres de carbone cent fois plus résistantes que le meilleur acier, seraient reliés à un contrepoids, qui pourrait être un astéroïde. Les ascenseurs seraient en réalité des véhicules électromagnétiques destinés au transport de voyageurs ou utiles au fret spatial. D'après les estimations des chercheurs, le coût en énergie pour un tel voyage serait de 17.700 dollars (environ 134.000 francs) pour une charge de 12.000 kgs. Pour un voyageur avec des bagages, le calcul sur la base de 150 kg revient à près de 1700 francs... Une bagatelle pour s'envoyer en l'air avec la NASA !

Besok : http://www.besok.com/index_actu.htm#

NASA : http://flightprojects.msfc.nasa.gov/fd02_elev.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Changement du Climat : menaces pour l'eau, l'agriculture et la santé publique
Samedi, 24/02/2001 - 00:00

Le changement climatique augmentera à la fois les inondations et les pénuries d'eau, diminuera les rendements agricoles et aggravera la situation sanitaire au 21ème siècle, selon l'IPCC, un groupe de scientifiques chargés par l'ONU d'étudier le réchauffement planétaire. Après une réunion la semaine dernière à Genève en présence de délégués d'une centaine de gouvernements, l'IPCC (Groupe intergouvernemental sur l'évolution du climat) publie lundi un nouveau rapport intitulé "Changement climatique 2001: impacts, adaptation et vulnérabilité". Même si "la majeure partie de la population mondiale sera du côté des perdants", les pays en développement seront les plus vulnérables, a averti James McCarthy, un des dirigeants du groupe de travail. "Ces changements climatiques devraient toucher de façon disproportionnée les pauvres, disposant de moins de capacités pour s'adapter". "Nous nous rendons plus vulnérables que nous devrions l'être aujourd'hui, du fait des politiques du prix de l'eau et des subventions agricoles", a estimé le directeur de l'IPCC, Robert Watson, au cours d'une conférence de presse. "D'un point de vue strictement économique, nous devrions tarifer l'eau de manière à encourager sa préservation et son utilisation efficace", a-t-il ajouté, tout en soulignant que l'IPCC ne faisait pourtant "pas de recommandation" sur la tarification de l'eau. Selon le rapport, une augmentation de la fréquence et/ou de l'intensité des "événements extrêmes" sera enregistrée. Des "précipitations intenses" se produiront "très vraisemblablement" plus souvent, y compris dans les pays développés, augmentant inondations, glissements de terrain et avalanches. Des vagues de chaleur frapperont "très vraisemblablement" partout. Les sécheresses affecteront le débit des fleuves, les ressources et la qualité de l'eau. Les pays du Sud connaîtront "probablement" des cyclones tropicaux plus intenses et une recrudescence de sécheresses et d'inondations. Selon M. McCarthy, "il y a des raisons de penser que les effets négatifs subis par plusieurs régions en raison du phénomène El Nino vont devenir progressivement plus graves". La hausse du niveau de la mer menacera particulièrement les deltas et les petits états insulaires. Des dizaines de millions d'habitants pourraient être menacés. Dans les pays riches, les effets économiques négatifs seront compensés par des effets positifs pour les pays du Nord, à condition que la hausse des températures soit limitée. Au plan sanitaire, les maladies tropicales (malaria, choléra) étendront leur aire géographique et dans les pays du Nord, la mortalité due à la chaleur, à l'humidité et à la pollution progressera. Les chercheurs de l'IPCC s'appuient sur le rapport de leurs collègues d'un autre groupe de travail, publié le 22 janvier à Shanghaï (Chine), chiffrant la hausse moyenne au 21ème siècle du thermomètre entre 1,4 et 5,8C et du niveau de la mer entre 9 et 88 cm. Plus catégoriques que dans leur précédent rapport de 1995, les chercheurs jugent que les hausses de températures du 20ème siècle "ont déjà affecté dans de nombreuses parties du monde divers systèmes physiques et biologiques": recul des glaciers, modifications du comportement des animaux, floraison plus précoce de certains arbres... Le réchauffement climatique pourrait également provoquer des changements à grande échelle, par exemple en entraînant "un ralentissement significatif" du Gulf Stream et "en diminuant fortement" les banquises du Groenland et de l'Antarctique occidental. Le premier phénomène transformerait l'Europe de l'ouest en zone glaciale et le second ferait monter le niveau de la mer "jusqu'à 3 m en 1.000 ans".

La Recherche : http://www.larecherche.fr/afp/010219132752.97iswfif.html

IPCC : http://www.ipcc.ch/pub/spm19-02.pdf

Des ballons contre les avalanches
Samedi, 24/02/2001 - 00:00

Un dispositif, actionnable à distance, permet de déclencher préventivement les avalanches : en éclatant, des ballons gonflables en latex de plus de 2 mètres de diamètre ébranlent la couche de neige superficielle et font partir la coulée neigeuse. Installé dans les zones à risque, ce système est constitué d'un mât qui porte, de 2 à 4 mètres au-dessus du manteau neigeux, un réservoir de 9 à 26 ballons pliés dans leurs cartouches. Il comporte aussi un dispositif qui assure le mélange explosif d'air et d'hydrogène au moment voulu. L'hydrogène est amené sous pression, depuis la vallée, dans des canalisations enfouies ; l'ensemble est télécommandé depuis la station. Conçu et breveté par le CEA et le Cemagref, le système Avalhex permet d'ajuster la puissance de tir aux conditions de neige. Il est plus sûr - il évite l'intervention de pisteurs - et plus efficace que les dispositifs antérieurs, grâce à la production d'une onde de choc qui diffuse sur 360 degrés. Une vingtaine d'appareils sont en service dans des stations des Alpes - à Chamonix, Bonneval-sur-Arc et Serre-Chevalier. Le système a été développé par une PME toulousaine... qui travaillait à 98 % pour la défense il y a cinq ans et qui, face à la chute des commandes de l'armée, témoigne d'une belle reconversion.

Le Point : http://www.lepoint.fr/data/PNT1483/8307001P.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'espérance de vie va-t-elle continuer à croître ?
Samedi, 24/02/2001 - 00:00

L'immortalité n'est pas pour demain! Selon une poignée de scientifiques américains, l'espérance de vie qui avait spectaculairement augmenté au cours du siècle dernier ne devrait pratiquement plus dépasser les 85 ans promis aux enfants nés au début du XXIème siècle. «Les prévisions selon lesquelles l'homme pourra dorénavant vivre au moins centenaire ne sont par réalistes et ne correspondent pas au calcul du taux de mortalité», a ainsi déclaré le chercheur S. Jay Olshansky de l'Université de l'Illinois à Chicago, lors du congrès de l'Association américaine pour la promotion de la science (AAAS) qui a pris fin dimanche à San Francisco. «Nous savons que chez nous, beaucoup de gens vont vivre 85 ans et plus, mais tous les gens vivant aujourd'hui seront morts depuis longtemps lorsqu'on pourra espérer vivre 120, voire 150 ans, ce qui est loin d'être sûr», a-t-il ajouté. Selon lui, il n'existe aucune «potion magique, anti-oxydant, hormone, produit du génie génétique ou des biotechnologies, actuellement disponible, qui permette d'espérer vivre 120» ou plus comme l'ont déclaré certains. Leonard Hayflick, spécialiste du vieillissement de l'Université de Californie à San Francisco, s'est rallié à ce point de vue, qualifiant ces déclarations de «scandaleuses». «Une super-longévité est tout simplement impossible», a-t-il estimé. «Même si le cancer, les maladies cardiovasculaires et les accidents vasculaires cérébraux étaient éliminés, l'augmentation de l'espérance de vie n'excéderait pas quinze ans. Une fois ces maladies combattues, la vraie cause de notre mort apparaîtrait: le processus de vieillissement cellulaire». Le vieillissement, explique t-il, reflète la perte de certaines molécules, perte qui aboutit à rendre les gens «de plus en plus vulnérables aux maladies». Ce processus ne fait pas l'objet de nombreuses recherches, la plupart d'entre elles étant concentrées sur les maladies liées à l'âge, notamment les maladies cardio-vasculaires, les accidents vasculaires cérébraux, le cancer et la maladie d'Alzheimer. Mère Nature a programmé les êtres humains pour qu'ils atteignent leur potentiel maximal à l'âge de 20 ans, de manière à assurer la reproduction et la survie de l'espèce, a ajouté Leonard Hayflick. Après celà, les humains «continuent à avancer pendant quelque quatre à cinq décennies supplémentaires» et c'est la longueur de ce parcours qui est déterminante pour la longévité. Un avis que ne partage pas Kaare Christensen de l'Université du Danemark, selon lequel l'avenir ne sera pas aussi triste que le prédisent Olshansky et Hayflick. «Les études menées en Suède, un pays où chaque citoyen est intégré au système de santé publique depuis deux siècles, soulignent que la limite supérieure de l'âge des plus vieux continue à augmenter. En France, la doyenne de l'humanité Jeanne Calment est morte en 1997 à 122 ans passés. Mais pour beaucoup, la longévité d'un individu ne reflète en rien l'espérance de vie d'une population toute entière. Une Américaine née en 1900 avait une espérance de vie de 48,9 ans, En 1995, elle approchait 79 ans. Cette limite progresse bien puisque le taux de mortalité a chuté de 1,5 % en France, de 1,2% au Japon, de 0,4% aux Etats-Unis, a déclaré Olshnasky. Mais si l'on effectue des projections de ces tendances, on aboutit à une espérance de vie de 85 ans en 2033 en France et en 2035 au Japon. Espérance de vie que les Américains n'atteindront qu'en 2182, selon le chercheur de Chicago.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20010219.FAP3922.html?0007

Les cellules-souches des cordons ombilicaux pourraient réparer les dommages des attaques cérébrales
Samedi, 24/02/2001 - 00:00

Des chercheurs américains scientifiques de l'université de Floride ont montré que les cellules-souches présentes dans le sang des cordons ombilicaux pourrait être employées pour réparer les dommages du cerveau provoqués par les attaques cérébrales. Ces recherches ont été annoncées à l'occasion de la réunion annuelle de l'association américaine pour l'avancement de la Science (AAAS). Le Professeur Paul Sanberg, de l'université de Floride du sud, a utilisé des cellules-souches provenant du sang des cordons ombilicaux. Il les a ensuite transformées en laboratoire, à l'aide d'agents chimiques, en cellules neuronales puis les a injectées dans les veines de rats ayant subis des attaques cérébrales. Ces cellules, après avoir atteint les lésions du cerveau ont spectaculairement amélioré l'état des animaux. le Professeur Sanberg précise que les rats traités ont montré au bout de deux semaines une amélioration de leur état de plus de 50% supérieure à celle des animaux témoins. "Non seulement les cellules injectées se sont bien substituées à celles endommagées par l'attaque cérébrale mais elles ont également semblé amplifier les propres processus de réparation du cerveau des rongeurs" souligne le Professeur Sanberg . Celui-ci a par ailleurs mis l'accent sur l'avantage que représente l'utilisation de l'injection intraveineuse plutôt que le procédé neurologique bien plus délicat de l'injection directe dans les lésions cérébrales. Déjà utilisées dans le traitement des leucémies et des anémies rares, les cellules contenues dans les cordons ombilicaux semblent donc promises à un avenir thérapeutique prometteur en ce qui concerne les traitements contre les dommages et lésions du cerveau. Il faut en outre souligner que l'utilisation de ces cellules non embryonnaires ne posent pas de problèmes éthiques. Le Professeur Sanberg a enfin précisé qu'il espérait passer aux essais cliniques sur l'homme d'ici deux ans.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/in_depth/sci_tech/2001/san_francisco/newsid_117...

Accident vasculaire cérébral : traitement par le froid ?
Samedi, 24/02/2001 - 00:00

Devant un accident vasculaire cérébral, le traitement vise plusieurs objectifs, le principal étant de limiter l'extension de la lésion cérébrale et de favoriser une récupération avec le moins de séquelles neurologiques. Le froid semble être un allié de poids pour atteindre ce but. De nombreuses études ont déjà envisagé l'hypothermie comme moyen thérapeutique dans la prise en charge des accidents vasculaires cérébraux. Le principe de l'hypothermie est simple : il s'agit de baisser la température corporelle du patient , ce qui limite la destruction des cellules qui sont situées aux alentours de la lésion. Les études démontrent que le recours à l'hypothermie permet d'obtenir des résultats plus que satisfaisants : dans une étude menée aux Etats-Unis, 10 patients présentant un AVC ont été placés en hypothermie : la moitié d'entre eux a récupéré presque entièrement, sans séquelles neurologiques. Un groupe témoin de 9 patients a été constitué : un seul de ces patients a présenté une récupération satisfaisante de ses capacités. Si le principe de l'hypothermie est séduisant et les premiers résultats des études menées semblent prometteurs, la difficulté reste dans la technique d'application. En effet, comment abaisser la tempérture corporelle du patient ? Il n'y a pas de consensus à ce sujet. Les américains ont utilisé un protocole qui semble lourd : ils ont baissé la température cutanée du patient de 9 degrés pendant 48 heures. Pour cela, il faut que le patient soit inconscient, parfaitement immobile et qu'il soit mis sous respirateur artificiel. Une méthode plus facile et plus rapide consiste à refroidir le patient de l'intérieur, grâce à l'utilisation de cathéters réfrigérants introduits dans la veine cave. L'hypothermie semble être un moyen thérapeutique très prometteur dans la prise en charge des AVC. Les données actuellement disponibles sont insuffisantes : des études complémentaires sont nécessaires et de nombreux projets sont en cours.

Csanté : http://www.csante.com/

Le cerveau se reprogramme après un accident vasculaire cérébral
Samedi, 24/02/2001 - 00:00

Le cerveau peut récupérer une fonction cognitive manquante, suite à une lésion survenant après un accident vasculaire cérébral (AVC), en mettant à contribution une autre région du cerveau. Ces résultats ont été présentés au congrès annuel de lAmerican Association for the Advancement of Science à San Francisco. L'IRM fonctionnelle révèle la plasticité naturelle du cerveau. En effet, cet organe complexe s'adapte à une lésion en redistribuant sa charge cognitive au travers d'un réseau neural établi et en recrutant les régions corticales locales pour remplacer les fonctions cognitives perdues telles que la compréhension de la parole ou du langage. Par le biais de l'IRM fonctionnelle, le Dr K. Thulborn de l'University of Illnois at Chicago a identifié un processus de récupération de fonctions cognitives chez des patients ayant perdu la capacité du langage après un AVC. En effet, chez un patient souffrant d'une lésion dans l'aire de Wernicke (une région du cortex gauche contrôlant la compréhension du langage), l'IRM fonctionnelle a montré que le cerveau a récupéré la fonction en affectant la compréhension de la parole à une région située du coté opposé. Au cours du temps, tandis que l'aire de Wernicke restait endommagée, la région adjacente s'est chargée de cette tache cognitive. Selon Thulborn, la capacité du cerveau à maintenir une tache cognitive en recrutant des zones du cortex non endommagées peut suggérer que le rétablissement fonctionnel peut se produire même après un AVC important. Un facteur clé dans le temps de rétablissement est de savoir si la matière blanche a été endommagée. Cette matière est constituée de neurones reliant les différentes régions du cortex. Si cette matière blanche est endommagée, des connections vitales nécessaires à l'affectation des fonctions dans une autre région seront perdues. Ceci peut refléter la diminution de la capacité du cerveau à redistribuer la charge cognitive quand la connectivité par le biais de la matière blanche est perturbée.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=1982

Une avancée majeurs dans le traitement de la leucémie
Samedi, 24/02/2001 - 00:00

Pour la première fois au monde, des chercheurs britanniques ont obtenu des lymphocytes TK capables d'éliminer sélectivement les cellules cancéreuses de la leucémie, grâce a l'identification d'un gène (WT-1) surexprime dans ces cellules. La beauté de la méthode tient aussi au fait que les lymphocytes ainsi " conditionnés " n'ont pas a provenir du patient, puisque son système immunitaire affaibli tolère des cellules étrangères, et pourraient donc être disponibles immédiatement à l'hôpital. Ces travaux, menés par l'équipe du Professeur Hans Stauss, immunologiste à l'Imperial College, pourraient être appliqués également a certaines tumeurs solides (poumon, sein) quand le gène WT-1 y est surexprime. Grâce au soutien de la Leukemia Research Fund Charity, le Pr. Stauss se prépare, avec une équipe du Hammersmith Hospital de Londres dirigée par le Pr. Robert Winston, à passer aux essais cliniques de phase I sur une dizaine de patients atteints de leucémie.

BE Royaume Uni : http://www.adit.fr

Un espoir pour les insuffisances cardiaques
Samedi, 24/02/2001 - 00:00

Une nouvelle classe de molécules, ayant la capacité de détendre les vaisseaux sanguins, pourrait potentiellement améliorer le flux sanguin chez les personnes ayant une insuffisance cardiaque. Ces résultats proviennent de deux études préliminaires menées par des chercheurs américains sur ces molécules appartenant aux antagonistes des récepteurs aux endothélines. L'endothéline-1 (ET-1) est produite par les vaisseaux sanguins et se retrouve en excès chez les malades. Liée à son récepteur, elle entraîne une vasoconstriction forçant le coeur à travailler plus dur pour pomper le sang. La première étude a été menée sur 61 patients ayant reçu, soit un placebo soit un antagoniste de ET-1, appelé tezosentan, en perfusion de six heures. Les patients traités voient leur indice cardiaque, correspondant à la mesure du flux sanguin, augmenter de 24,4 % à 49,9%, selon la quantité prise. Plus cette dernière est élevée plus l'indice augmente. Dans une seconde étude, les chercheurs ont évalué les effets d'une molécule à action lente, prise par voie orale. Le flux sanguin des patients ayant pris quotidiennement cette molécule a augmenté significativement par rapport aux patients ayant pris un placebo. Il est encore trop tôt pour savoir si l'amélioration du flux sanguin aura des répercussions significatives sur les symptômes observés chez les malades. Si c'est le cas, l'utilisation de ces molécules pourrait entre autres retarder le moment d'une transplantation.

Infosciences :

http://www.infoscience.fr/breves/breves.php3?niv=1&Ref=1114

Protéger son coeur en mangeant des pommes ?
Samedi, 24/02/2001 - 00:00

Des chercheurs de lUniversity of California Davis School of Medicine ont montré qu'une consommation modérée et quotidienne de jus de pomme ou de pommes diminue les effets des facteurs de risque coronarien. Les résultats de leur étude sont parus dans Journal of Medicinal Food. Selon le Dr D. Hyson, principal auteur de cet article, « des études avaient déjà montré que la consommation de fruits et légumes est associée à une diminution du risque coronarien. Mais c'est la première étude clinique à montrer les bénéfices potentiels de composés actifs contenus dans les pommes et le jus de pomme ». L'étude montre que certains composés contenus dans les pommes ou le jus de pomme agiraient de la même manière que le vin rouge et le thé le font pour ralentir un processus conduisant aux maladies cardiovasculaires. Ces constituants agiraient comme des antioxydants en retardant l'oxydation du LDL cholestérol. Quand ce dernier s'oxyde, il y a accumulation de plaques sur la paroi des artères coronaires, phénomène conduisant à l'athérosclérose. Le Dr D. Hyson et ses collaborateurs avaient précédemment montré in vitro que les pommes et le jus de pomme contenaient des antioxydants potentiels. Ils ont alors conduit une étude chez l'homme afin de déterminer si ces composés protégeaient réellement le système cardiovasculaire en ralentissant le processus d'oxydation des LDL. Un total de 25 adultes en bonne santé ont consommé par jour soit environ 350 ml de jus de pomme, soit 2 pommes et ce pendant 6 semaines. Au bout des 6 semaines, les participants qui avaient mangé des pommes ont alors consommé du jus de pomme et vice versa, et ce pendant 6 autres semaines supplémentaires. Il n'y avait pas de différence significative entre les individus concernant l'apport calorique ou la consommation de graisse, de cholestérol, de glucide. Les auteurs ont mesuré le temps de latence de l'oxydation des LDL avant l'étude et aux semaines 6 et 12. Plus ce temps de latence est long, plus le risque coronarien est réduit. L'étude montre qu'après 6 semaines, il y a une augmentation de 20 % du temps de latence chez ceux qui ont consommé du jus de pomme. La consommation de pommes a également des effets bénéfiques avec une diminution des marqueurs d'oxydation. Le Dr Hyson ajoute qu'«une consommation modérée de jus de pomme ou de pommes a un effet potentiel sur la réduction du risque coronarien et ce, sur une courte période temps. De petits changements alimentaires pourraient avoir un rôle important sur lasantécardiovasculaire».

Caducée : http://www.caducee.net/

Vers une thérapie génique contre la cécité
Samedi, 24/02/2001 - 00:00

Une protéine de l'oeil qui bloque la croissance de vaisseaux sanguins en excès va être développée comme candidat possible pour une thérapie génique. Ce traitement pourrait prévenir la cécité chez les patients souffrant de dégénérescence maculaire ou de réthinopathie liée au diabète. Ces travaux sont réalisés sur des modèles animaux par l'équipe de Noël Bouck, professeur de microbiologie et d'immunologie à la Northwestern University (Illinois, États-Unis). Les chercheurs ont montré que la protéine PEDF (pigment epithelium-derived factor) inhibe en effet l'angiogénèse. Depuis cette révélation, la société GenVec (entreprise du Maryland, spécialiste de l'angiogénèse) a obtenu la licence exclusive d'exploitation de cette protéine pour toutes les applications de thérapie génique oculaire. Ces travaux sont publiés dans le numéro du 23 janvier des "Proceedings of the National Acadamy of Science ». A noter que, selon les chercheurs américains, cette protéine présente également un potentiel thérapeutique pour le traitement de cancers.

Industries&Tethniques : http://www.industries-techniques.com/

La carte du génome humain : de la génomique à la protéomique
Samedi, 24/02/2001 - 00:00

La carte du génome humain? Ce n'est encore qu'une carte. Une carte précieuse certes mais à partir de laquelle il reste beaucoup à faire. « Ce n'est que le début de la génomique, dit Craig Ventor, et il faudra au moins une centaine d'années pour réellement interpréter le génome humain, si jamais nous réussissons à le faire ». Les vedettes de la semaine en génétique ne se cachent pas pour admettre ne pas savoir à quoi servent plus de la moitié des 30 000 gènes humains. Mais ce n'est rien. Le vrai défi relève maintenant de la protéomique qui se chargera de comprendre l'assemblage des protéines de l'ADN. Mise à part les 30 000 gènes humains, 75% de notre héritage génétique est constitué de « junk DNA », qui pourrait prendre une importance beaucoup plus significative que leur nom l'indique. Pour y arriver, il faudra cependant attendre l'arrivée d'ordinateurs plus performants. « Il nous faut maintenant des ordinateurs vraiment plus puissants que ceux que nous connaissons pour décoder parfaitement l'ADN », continue le président de la compagnie Celera. « Sans quoi nous n'atteindrons jamais la compréhension des génomes, même pas celui de la mouche à fruit ».

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N2216.asp

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
En route pour la voiture du futur
Samedi, 24/02/2001 - 00:00

Un système qui interdirait aux conducteurs de répondre quand la situation n'est pas appropriée. Voilà l'idée des chercheurs de l'Institut de recherche pour les transports de l'université du Michigan (UMTRI), Etats-Unis. Ils encouragent en effet à développer un système intégré au véhicule de "workload managers" qui estimerait la capacité du conducteur à répondre à des sollicitations extérieures. Les voitures d'aujourd'hui sont maintenant équipées de téléphones portables, systèmes de navigation, accès à Internet qui offrent aux conducteurs plus d'informations que jamais. Toutes ces technologies rendent les voitures plus fonctionnelles et la conduite plus commode mais "présentent plus de distractions qu'une utilité réelle." estime Paul Green du UMTRI. C'est ici précisément que pourraient intervenir les "workload managers" en filtrant les informations. Par exemple, les coups de téléphone pourraient être automatiquement renvoyés sur une boîte vocale lorsque le trafic est trop intense mais autoriserait de répondre sur une route droite sans circulation. Le concept paraît un peu futuriste mais déjà de nombreux équipements pouvant informer les "workload managers" se trouvent dans les voitures de luxe comme les systèmes de navigation ou les capteurs informant de la circulation. "Mais de nombreuses années de recherche seront encore nécessaires" déplore P.Green.

Infosciences :

http://www.infoscience.fr/breves/breves.php3?niv=1&Ref=1106

Hybrides, mais pas trop
Samedi, 24/02/2001 - 00:00

Les grands constructeurs automobiles de Detroit travaillent au developpement de motorisations hybrides, cherchant a trouver le meilleur compromis a adopter pour les voitures de demain. Les moteurs dits "hydride complet" utilisent de l'énergie électrique a basse vitesse et font appel a l'essence a des vitesses plus élevées. Ce type de véhicules permet de réaliser une économie d'énergie pouvant aller jusqu'a 60 %. Le problème est que leur coût de fabrication reste trop élevée. Un autre type de moteur hybride, utilisant le 42 volts, pourrait entraîner une éeconomie d'énergie de 10 a 20%. En outre, cette option n'exige aucun changement dans la conception générale du véehicule. Autre avantage : il n'est absolument pas nécessaire de le recharger pendant la nuit, l'apport d'électricité étant généré en partie par le freinage qui récupère ainsi un tiers de l'énergie produite. D'ores et déjà, Ford, GM et DaimlerChrysler se sont engagées dans cette course a la voiture propre, en particulier pour réduire la consommation des S.U.V. (Sports Utility Vehicle), des véhicules particulièrement gourmands en carburant.

ST Presse : http://www.adit.fr

Un avion civil supersonique en 2020
Samedi, 24/02/2001 - 00:00

Le National Aerospace Laboratory (NAL), dépendant du ministère de l'éducation, de la science et de la technologie, a dévoile le 9 février 2001 un prototype d'avion civil, capable de voler a plus de Mach 2. Ce prototype est a l'échelle 1:10, et mesure 11,5 m de long, 4,72 m d'envergure, et 1,25 m de haut. Le poids est d'environ 2 tonnes. Le laboratoire compte commencer des essais de vol a voile en Australie en mars 2002. Une fusée devrait être utilisée pour lancer le prototype a 18 km d'altitude. Des moteurs devraient être adaptes pour d'autres essais en 2004-2005. L'avion définitif devrait être capable de transporter 300 passagers (soit 3 fois plus qu'un Concorde). Le rayon d'action devrait être de 11000 km (2 fois plus qu'un Concorde). Il devrait consommer moins qu'un gros avion classique, et émettre 25 % d'oxydes d'azote de moins que le Concorde. Sa commercialisation est actuellement prévue pour 2020 environ.

BE Japon : http://www.adit.fr

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top