RTFlash

RTFLASH Recherche & Technologie
NUMERO 231
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Février 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les inégalités entre services publics et PME face au haut-débit
Haut débit: six groupes français vont collaborer dans les services interactifs
La Commission invite l'Europe à se convertir à l'accès à large bande
Un standard pour améliorer la fiabilité des services Web ?
Chelles se connecte sur le courant électrique
Toute la grâce d'un être humain dans un polymère
36 % des foyers français équipés d'un ordinateur
K-bot, un robot très expressif
Intel se lance dans la puce haut débit pour téléphonie mobile
Matière
Un nouveau système électronique pour repérer une présence humaine
La M-RAM, la mémoire vive de demain
Un nouveau type de pile à combustible au diméthyléther
Terre
Réchauffement climatique : chacun doit agir
Aux Etats Unis le changement climatique a accru les rendements de maïs et de soja
Réchauffement climatique : 10 degrés de plus en 2100 !
Vivant
Un nouveau traitement du cancer du sein à un stade avancé
Un pacemaker prolonge la vie
Cancer du colon et régime alimentaire : le lien est une fois de plus confirmé
Un régime riche en fruits et légumes pourrait prévenir la maladie d' Alzheimer
Création d'un implant qui fabrique des os et du cartilage
Homme
Les hommes et guerre: armes du 21e siècle pour cerveaux préhistoriques
Recherche
Les Etats Unis accentuent leur effort de recherche pour maintenir leur suprématie technologique
Edito
Entre l'Ordinateur familial et le Téléviseur le combat va être sanglant : les hostilités sont ouvertes



Il y a quelques semaines, une étude de Harris Interactive commandée par Microsoft et Dell a sérieusement secoué le secteur des constructeurs d'ordinateurs personnels. Cette étude a en effet confirmé la stratégie retenue par... Apple depuis l'année 2000 ! L'étude souligne que l'ordinateur est en passe de devenir le centre d'un "mode de vie numérique", tel que l'envisage le constructeur californien. Il reste en tout cas en première place des appareils électroniques plébiscités. Près de 50 % des personnes interrogées, quelle que soit la tranche d'âge à laquelle elles appartiennent, considèrent en effet l'ordinateur comme la pièce la plus importante des objets numériques qu'elles détiennent, celle qu'elles préfèrent, téléphones portables et lecteurs de CD ou de DVD compris. L'étude, réalisée en Amérique du Nord et en Europe auprès de 1 500 personnes équipées d'un ordinateur et d'un autre appareil électronique montre, d'autre part, la place de plus en plus importante occupée par l'ordinateur dans la vie courante. "Nous observons un changement de style de vie. Celui-ci évolue d'une utilisation quasi-exclusive de la télévision, à un pourcentage supérieur de gens passant du temps devant leur ordinateur", a indiqué Mark Oldani, le directeur marketing de Dell. Cette étude ne va pas manquer d'alimenter la réflexion stratégique de Microsoft et Dell, les commanditaires de cette étude, mais aussi de tous les grands constructeurs informatiques. Du côté de Microsoft, on mise sur la version du système d'exploitation XP Media Center Edition (qui ne fonctionne que sur certains ordinateurs spécialement conçus pour elle) pour intégrer le multimédia et gérer les flux numériques. Media Center Edition permet notamment d'enregistrer des émissions télévisuelles, de lire des films enregistrés, des chansons et des diaporamas sur le PC. Pour sa part, Apple parie sur ses différents logiciels Apple iLife, disponibles sur les diverses plates-formes Macintosh ; ils permettent de monter des séquences vidéo, graver des Cd-Roms et des DVD vierges, et bien sûr d'écouter de la musique et de regarder des photos. L'étude de Harris Interactive conforte donc les choix stratégiques d'Apple. Son directeur du marketing mondial a eu l'occasion de le rappeler au dernier Comdex, au cours d'une présentation des technologies de sa société. Après avoir présenté la maison comme le centre du mode de vie numérique, Phil Schiller a ainsi expliqué qu'Apple avait initié le lancement d'applications spécifiquement dédiées au nouveau mode de vie, les iApps. Et de décrire les fonctions d'iMovie, iTunes, iPhoto ou iSync . "Il ne s'agit pas du futur (...) C'est aujourd'hui. C'est ce que des millions d'utilisateurs de Mac font aujourd'hui. L'ordinateur personnel a déjà gagné sa place de gestionnaire de vos contacts ou de vos photos", a-t-il ainsi déclaré. Apple continue donc de développer avec succès sa stratégie de concentration et de partage de la valeur entre ordinateurs et nouveaux périphériques numériques comme l'appareil photo, le baladeur MP3 façon iPod ou l'assistant personnel. Dans le monde du PC, les plus grands constructeurs informatiques mondiaux semblent à présent également convaincus que le mariage tant annoncé de l'ordinateur et du téléviseur et de la chaîne hi fi répond aux nouvelles attentes du consommateur. C'est ainsi que la plupart des fabricants d'ordinateurs viennent de présenter au salon Consumer Electronics Show (CES) à Las Vegas des produits destinés à relier le PC à la télévision dans le séjour, voire à toute la maison. Tous ces appareils, prévus ces prochains mois, se fondent sur l'idée que les consommateurs possèdent sur le disque dur de leur ordinateur de grandes quantités de chansons, de photos et de séquences vidéo qu'ils ont envie de voir et d'entendre sur leur téléviseur. Hewlett-Packard a présenté sa gamme Digital Media Receiver 5000, en version avec ou sans fil, pour visionner des photos sur un téléviseur et écouter de la musique sur une chaîne hi-fi, le tout dirigé par télécommande. Pioneer pour sa part a exposé un serveur de médias numériques destiné à stocker à la fois de la musique, des photos et de la vidéo, ainsi qu'un autre serveur pour recevoir ce contenu par un réseau domestique. De leur côté, le sud-coréen Samsung a présenté un prototype de serveur vidéo numérique et DVD, et le japonais Matsushita Electric Industrial, sous sa marque grand public Panasonic, une solution de diffusion sans fil de télévision haute définition. Enfin, Packard Bell vient de commercialiser en France sa "Video Dream Machine", qui se veut plus qu'un PC et aspire à être une véritable station video personnelle qui permet, à partir des séquences d'un caméscope numérique, de créer et de lire ses propres DVD. Cette nouvelle tendance vient encore d'être confirmée par le cabinet d'études Forrester Research pour qui l'avenir de l'informatique familiale et personnelle sera le «pleasure PC» (littéralement "ordinateur pour le plaisir"), axé sur les loisirs des utilisateurs. Forrester Research estime que la prochaine dynamique qui poussera les particuliers à renouveler leur équipement informatique ne viendra pas de l'industrie elle-même, mais «d'éléments externes tels que le développement d'appareils numériques, la création et l'utilisation de contenus numériques et le désir des consommateurs de partager ce contenu avec d'autres personnes.» Pour exploiter à fond cette nouvelle attente des utilisateurs, les constructeurs sont en train de modifier le concept même d'ordinateur personnel. Le temps des machines austères, complexes d'utilisation et conçues par et pour des ingénieurs fascinés par la technique est révolu. Il suffit pour s'en convaincre de voir des derniers modèles de Sony, d'Apple, mais aussi de Packard Bell ou HP, qui mettent le design de leur produit au centre de leurs préoccupations. «Le "pleasure PC" doit être aussi facile d'utilisation qu'un lecteur de CD pour pouvoir convaincre le grand public». Les constructeurs doivent créer des produits qui s'adaptent à différents styles de vie, en les dotant en particulier d'unités centrales d'une taille équivalente à celle d'une chaîne de salon, d'écrans élégants, de claviers et de souris sans fil. On peut enfin parier sans trop de risque que, d'ici la fin 2003, la plupart des nouveaux modèles de PC permettront enfin de recevoir directement la télévision câblée et hertzienne et d'enregistrer sur le disque dur ses émissions et films favoris. Ces fonctions combinées au graveur de DVD, appelé à remplacer rapidement le graveur de CD-ROM, permettront de se constituer facilement une vidéothèque personnalisée par thèmes et centres d'intérêt, de la même manière qu'il est déjà possible de télécharger des fichiers musicaux au format MP3 et de les graver sous forme de compilations personnalisées. Mais une autre synergie pourrait encore accélérer la montée en puissance de ces nouveaux PC conçus comme des plates-formes de loisirs multimédia : la télévision sur ADSL comme sur le Câble. En France, TF1 expérimente depuis décembre 2002 cette technologie auprès de 200 foyers. TF1 est parvenue à mettre en place une qualité DVD, sans utiliser toute la bande passante, grâce à des techniques de compression qui lui permettent de n'occuper que 3 Mbit/s là où il en faut encore 6 actuellement. Cette utilisation minimale de la bande passante devrait permettre à la chaîne d'adjoindre des services complémentaires et de proposer à terme à ses abonnés des programmes hautement interactifs. Mais si la télévision sur ADSL se développe, on imagine sans peine, dans une telle perspective, que les nouveaux PC multimédia qui peuvent recevoir et enregistrer les émissions de TV, deviendront pour longtemps les outils irremplaçables d'interconnexion, de gestion et de fédération des nombreux terminaux et flux numériques présents dans chaque foyer. Il semble donc bien que le bon vieux PC, dont beaucoup prévoyaient avec assurance il y a encore 5 ans la mort rapide, ait retrouvé un nouveau souffle et une nouvelle jeunesse en profitant paradoxalement de la multiplicité des appareils, terminaux et systèmes numériques en tout genre qui devaient entraîner sa perte, mais aussi de l'arrivée de la télévision interactive et de la vidéo à la demande, via le câble et l'ADSL. Les Pouvoirs Publics devraient être très attentifs aux hostilités qui s'ouvrent. Si, comme cela est prévisible le Téléviseur se soumet à l'Ordinateur, le premier n'ayant que l'image là où le second s'appuie sur l'intelligence et la mémoire, tous les réseaux de distribution (hertziens et même satellitaires) exclusivement réservés à la Télévision vont rapidement devenir obsolètes. Comme nous l'affirmons dans cette Lettre depuis de nombreux mois, cela serait une grave erreur de croire, encore, que la Télévision Numérique Terrestre (TNT) par voie hertzienne peut encore avoir de l'avenir. Ainsi va l'histoire de la technologie, toujours foisonnante, imprévisible et pleine de rebondissements. Décidément, l'avenir n'est jamais écrit !

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Les inégalités entre services publics et PME face au haut-débit
Samedi, 22/02/2003 - 00:00

La fracture numérique entre villes et campagne alimente les chroniques depuis longtemps. Elle s'est cristallisée sur la question des zones d'ombre ADSL et mobiles... Une seconde fracture, plus rampante, est sans doute aussi plus pernicieuse : celle entre collectivités locales et PME. Elle fait apparaître les exclus du haut débit là où l'on s'y attendait le moins : à la périphérie, même proche, des agglomérations pourtant câblées en fibre optique. Aujourd'hui, dans beaucoup de villes, les bibliothèques de quartier, les piscines et les écoles maternelles ont, en effet, plus de chances d'être raccordées à une boucle métropolitaine que les PME des ZAC périurbaines ! Les municipalités satisfont peut-être à leurs obligations de modernité, mais leurs forces économiques restent dangereusement à l'écart. Comment en est-on arrivé là ? Il est sûr, désormais, que les opérateurs télécoms alternatifs seront moins nombreux que prévu. Et ceux qui subsistent n'ont guère les moyens financiers d'accélérer leur capillarité. Personne, pas même France Télécom, ne veut assurer une couverture haut débit nationale à fonds perdus. Seules les zones d'affaires des grandes métropoles (Paris, Lyon, Toulouse, Strasbourg, etc.) sont aujourd'hui multiopérateurs. Partout ailleurs, il faut se contenter des offres standards de l'opérateur historique, et donc de ses tarifs. Ayant les droits de passage nécessaires, certaines villes telles que Besançon, Nancy et Reims ont eu le souci de corriger ces lacunes. Elles ont interconnecté leurs bâtiments au moyen d'une boucle optique indépendante, avec, à la clé, d'importantes économies, notamment sur la téléphonie intersites. D'autres entités publiques, tels les CHU, les rectorats, les universités (voire l'armée, comme à Besançon), se sont rapidement associées à ce type d'initiative. Des réseaux municipaux sont ainsi devenus multiGFU (groupes fermés d'utilisateurs). Celui de Castres-Mazamet (81) accueille même le GFU des Laboratoires Fabre. Ces réseaux sont généralement mis à la disposition des opérateurs. Cegetel est ainsi l'un des clients de la boucle Castres-Mazamet. Mais, force est de reconnaître que proposer des infrastructures passives mutualisables ne suffit pas, dans de nombreux cas, à attirer les opérateurs sur son territoire. Les investissements d'appoint, et surtout les frais commerciaux, peuvent rester rédhibitoires. Résultat : même là où existent des embryons de réseaux de collecte, les opérateurs ne sont pas présents. Et le serpent finit par se mordre la queue : comme les grandes collectivités territoriales tendent vers l'auto-suffisance en matière de communications intersites, elles contribuent à assécher le marché. La demande locale s'anémie, et les opérateurs sont encore plus frileux. Comment sortir de ce cercle vicieux ? Paradoxalement, la solution la plus largement invoquée serait de renforcer encore les prérogatives des collectivités, jusqu'à les faire accéder au rôle d'opérateur. Cette solution a été réclamée (haut et fort) en novembre dernier, lors du congrès Multimédiaville de Bordeaux, par l'Association des maires de grandes villes de France et par l'Association des villes pour le câble et le multimédia (Avicam), rejointes peu après par l'Assemblée des départements de France et par l'Association des maires de France. Impossible donc au Comité interministériel pour l'aménagement du territoire (CIADT), qui s'est réuni le 13 décembre, de se dérober. Le Premier ministre a alors promis de faire au mieux. « Nous demandons à faire tout ce qui est possible, sans nécessairement tout faire , explique Patrick Vuitton, délégué général de l'Avicam. La loi doit ouvrir les possibilités, sans créer de nouvelles barrières à l'entrée. Nous voulons juste de la souplesse. » En d'autres termes, il faudrait, pour le moins, réécrire l'article L. 1511-6 du Code général des collectivités territoriales, déjà modifié deux fois. En premier lieu, parce que, technologiquement, il n'est pas neutre. Il pousse, en effet, les collectivités à déployer des boucles optiques passives, alors que l'hertzien est mieux adapté pour les dessertes rurales. Mais les structures de coûts seraient alors inversées : contrairement à l'optique, le hertzien est peu coûteux en éléments passifs (pylônes), mais cher en équipements actifs. En cas de besoin, les collectivités devraient donc également pouvoir financer et déployer des équipements actifs, mutualisables par les opérateurs de services. Au minimum, elles devraient avoir la possibilité de devenir opérateurs d'opérateurs, et exploiter des équipements actifs (fournir la connectivité internet sur le câble, affecter des longueurs d'onde sur les boucles optiques, et assurer les couvertures Wireless-DSL ou Wi-Fi). « Nous avons, finalement, besoin d'être opérateurs sur tous les services qui ne seraient pas rendus , insiste Marc Gauché, directeur d'e-Tera, la SEM (société d'économie mixte) du département du Tarn. Opérateur de collecte locale, quand ce n'est pas assuré ; et opérateur de services, dans les zones où les coûts de gestion de clientèle sont trop élevés pour les opérateurs existants. »

OiNet : www.01net.com/article/201260.html

Haut débit: six groupes français vont collaborer dans les services interactifs
Samedi, 22/02/2003 - 00:00

Alcatel, France Télécom, Sagem, TF1, Thalès et Thomson vont collaborer pour créer "un environnement favorable" à l'essor des services audiovisuels interactifs à haut débit, a annoncé vendredi le ministère de l'Economie dans un communiqué. Ils se sont engagés en particulier à lancer "rapidement" des équipements (modems internet haut débit DSL, décodeurs) "à bas coût et en grand volume", précise le ministère. Ils promettent aussi de "veiller à la protection des droits de propriété intellectuelle sur les contenus diffusés en mettant en place si nécessaire des solutions logicielles appropriées", ajoute-t-il. Cette initiative a été prise vendredi lors d'une rencontre entre les PDG des six groupes, le ministre de l'Economie, Francis Mer, et la ministre déléguée à l'Industrie, Nicole Fontaine. Le gouvernement a rappelé son objectif de connecter 10 millions d'abonnés à l'internet haut débit d'ici 2007. La France comptait 1,7 million d'abonnés au haut débit par l'internet ou le câble fin 2002, selon l'Association des fournisseurs d'accès à internet (AFA).

AFP : http://fr.news.yahoo.com/030214/1/31t5x.html

La Commission invite l'Europe à se convertir à l'accès à large bande
Samedi, 22/02/2003 - 00:00

L'Union européenne doit accélérer la conversion vers les services à large bande et les communications mobiles de la troisième génération, selon une nouvelle communication de Commission européenne sur l'état du secteur des communications électroniques. Le rapport constate que les services à large bande et les communications mobiles de la troisième génération ("3G") sont les principaux moteurs de ce secteur. Vu les avantages qu'ils offrent sur le plan économique et social, il est plus urgent que jamais d'améliorer la disponibilité et de renforcer l'utilisation de ces technologies. «Aujourd'hui, a déclaré Erkki Liikanen, commissaire européen chargé des Entreprises et de la Société de l'information, la Commission a invité tous les États membres à se consacrer à une stratégie globale en matière d'accès à large bande d'ici à la fin de 2003. En outre, toutes les administrations publiques devraient être connectées à l'accès large bande d'ici 2005. Et nous devrions avoir pour objectif ultime que la moitié des connexions internet en Europe soient des connexions à large bande en 2005. Pour y parvenir, les États membres doivent mettre en oeuvre pour cet été le nouveau cadre réglementaire des communications électroniques afin d'assurer un environnement stable et prévisible pour les investissements. Des contenus et des applications à la fois nouveaux et attrayants, tels les services d'administration en ligne, devraient stimuler l'investissement dans de nouveaux réseaux. En mettant l'accent sur la recherche, nous devrions assurer la capacité innovatrice à long terme du secteur.» Cette communication répond à la demande, adressée à la Commission par le Conseil Télécommunications du 5 décembre 2002, de rendre compte de l'état du secteur et de formuler les éventuelles propositions nécessaires en temps voulu, avant le Conseil européen du printemps prévu pour le 21 mars 2003. Le secteur des communications électroniques revêt une importance fondamentale pour la parfaite mise en place de l'économie fondée sur la connaissance. Une productivité accrue menant à croissance plus forte, accompagnée d'une amélioration et d'une augmentation des emplois ainsi qu'un renforcement de la cohésion sociale, c'est l'un des objectifs de la stratégie de Lisbonne destinée à transformer les performances de l'Union européenne dans le domaine économique, social et environnemental pour la fin de la décennie. Dans cette communication, le Commission souligne que la société de la connaissance reposera sur des connexions sûres à grande vitesse et à plates-formes multiples (large bande). En jeu: les possibilités de fournir de nouvelles options qui sont importantes pour la qualité des services fournis et les avantages sur le plan économique et social. Les communications électroniques ont besoin d'une infrastructure européenne d'envergure mondiale et pour que cette dernière soit largement disponible, la communication rappelle aux États membres qu'il faut achever la réalisation des actions déjà prévues, en les complétant au besoin, et présente les actions en cours au niveau de l'UE. Communication de la Commission européenne :

http://europa.eu.int/information_society/eeurope/news_library/index_en.htm Union européenne :

http://europa.eu.int/information_society/eeurope/news_library/documents/acte_sec...

Un standard pour améliorer la fiabilité des services Web ?
Samedi, 22/02/2003 - 00:00

Les premiers standards des services Web - SOAP, WSDL, UDDI - seront-ils bientôt rejoints par un quatrième, WS-Reliability ? Cela semble bien parti depuis que ses promoteurs (Sun, Commerce One, Sonic Software, Fujitsu, Oracle, Nec, Hitachi, Iona, SeeBeyond, WRQ, WebMethods et SAP) l'ont soumis pour approbation à l'OASIS (Organization for the advancement of structured information standard), consortium international à but non lucratif impliqué dans le développement de spécifications d'interopérabilité dédiées au commerce électronique. Présenté en janvier, WS-Reliability vise à améliorer la fiabilité des services Web. Plus précisément, il permet d'intégrer dans les messages SOAP des mécanismes d'envoi d'accusés de réception et de réémission en cas d'incident, et ce afin de s'assurer qu'un message SOAP véhiculé via HTPP arrive à destination. Une spécification très attendue, donc. A noter que WS-Reliability a un concurrent : il s'agit de HTTPR, une initiative signée IBM. La principale différence avec WS-Reliability est que HTTPR se présente comme une extension de HTTP alors que WS-Reliability se glisse dans les en-têtes des messages SOAP. On ne peut que souhaiter qu'IBM abandonne HTTPR et participe, de même que Microsoft, au comité technique mis en place par l'OASIS, lequel prévoit de finaliser ses travaux en septembre ou octobre. Car l'interopérabilité des services Web ne sera réalisée qu'à la condition que les éditeurs, et en premier lieu les plus grands, se réfèrent bien à une panoplie commune de standards. WS-Reliability dûment ratifié, le W3C et l'OASIS auront encore du pain sur la planche. Il leur faudra s'attaquer à l'orchestration des services Web, c'est-à-dire leur chaînage dans le cadre d'un processus, et à leur sécurisation. Pour ce qui est de l'orchestration, il faut que les organismes en question se dépêchent puisque certains éditeurs s'apprêtent dès à présent à intégrer un des candidats à la standardisation, BPEL4WS, une spécification élaborée conjointement par IBM, Microsoft et BEA. Compte tenu du poids de ces acteurs, BPEL4WS pourrait bien s'imposer comme un standard de fait et damer le pion aux propositions concurrentes, celle de Sun (connue sous l'acronyme WSCI) et celle de HP (WSCL). Deux propositions qui ont été soumises au groupe de travail mis en place récemment par le W3C sur ce thème alors que BPEL4WS ne l'a pas encore été. Mais compte tenu des enjeux que revêtent les services Web, IBM et Microsoft ont-ils le loisir de se conformer au processus normal de la standardisation ? En effet, selon une représentante du W3C, il faudra compter entre 18 et 24 mois pour élaborer un standard pour l'orchestration des Web Services. Un délai qui semble peu compatible avec les exigences de l'industrie informatique.

VUNet : http://www.vnunet.fr

Chelles se connecte sur le courant électrique
Samedi, 22/02/2003 - 00:00

La mairie de Chelles a franchi le pas. Elle est en effet l'une des premières administrations à tester les courants porteurs en ligne (CPL), une technologie prometteuse exploitant le réseau électrique pour transporter les flux informatiques. « Nous avons eu l'opportunité d'expérimenter cette technologie grâce à un financement du Sigeif (Syndicat intercommunal pour le gaz et l'électricité en Île-de-France). Nous avons innové, dans un premier temps, sans débourser un centime », explique René-Yves Labranche, directeur des nouvelles technologies à la mairie de Chelles. Une opportunité qui tombait à pic pour la mairie qui étudiait la mise en réseau du parc informatique de l'école municipale Delambre. Un parc d'ailleurs assez ancien, avec une quinzaine de PC (processeurs 486 jusqu'à Pentium 100 MHz), équipés pour la plupart du système d'exploitation Windows 95 et du navigateur Internet Explorer 3, à l'exception de trois micro-ordinateurs fonctionnant avec Windows 98. La société suisse Ascom, l'une des pionnières en matière de CPL, est chargée alors de la mise en place de l'infrastructure. Le réseau CPL est constitué d'un ou plusieurs boîtiers idoines positionnés de façon à servir de passerelle entre le réseau électrique et le réseau informatique. Grâce à ces boîtiers, chaque prise électrique devient également une prise réseau. Des modems individuels sont ensuite raccordés aux ordinateurs qui accèdent ainsi instantanément au réseau local ou à Internet. En quatre jours, l'installation est bouclée. Tout fonctionne parfaitement, même sur des ordinateurs obsolètes, malgré quelques défauts de jeunesse. « Au départ, certaines salles ne pouvaient être connectées au réseau, sans doute à cause de parasites. Heureusement, le problème a été vite résolu grâce à une configuration plus fine des modems et des fréquences porteuses utilisées. Un réseau CPL se révèle être une solution de qualité pour un réseau de petite taille, d'une vingtaine de machines par exemple », affirme René-Yves Labranche. D'autant que les débits sont satisfaisants : « Ils atteignent entre 4 et 6 Mbit/s, soit l'équivalent de ce qui est observé dans un réseau Wi-Fi », souligne ce dernier. S'il permet de relayer sans dégradation, dans tout le bâtiment, un accès Internet à haut débit, la bande passante doit cependant être partagée par toutes les machines. « La connexion Internet disponible (RNIS 64K) à partir du routeur n'est pas suffisante si les quatorze ordinateurs sont connectés à Internet simultanément. Au-delà de cinq machines, il y a goulet d'étranglement. Il faudrait que l'école souscrive au minimum à une ligne ADSL de base, qui ne serait pas tellement plus coûteuse que la connexion RNIS », souligne René-Yves Labranche. A ce sujet, la mairie prévoit d'interconnecter l'école à la dorsale de ses bâtiments (1 GHz) disposant d'accès Turbo ADSL. Ce projet vise à mixer la fibre optique, le canon laser et le Wi-Fi, mais nécessite une réponse favorable de l'ART. Les réseaux CPL ont un atout supplémentaire : ils sont compatibles avec n'importe quel type de réseau existant et n'entraînent aucune perturbation dans la configuration du réseau utilisé. « Plus qu'un avantage technologique, les CPL nous ont surtout rendu service au niveau de l'organisation. Aucun travail de câblage ou autre n'a été nécessaire », constate notre interlocuteur. Le réseau CPL respecte même les paramètres de sécurisation du LAN. « En cas d'évolution ou de changement dans les choix technologiques, le réseau CPL s'adapte sans intervention supplémentaire et reste très évolutif : des modems peuvent être ajoutés au réseau en fonction des besoins, sans remettre en cause l'installation », ajoute René-Yves Labranche. Utilisant le réseau électrique pré-existant, le coût global d'un réseau CPL reste trois à quatre fois inférieur à celui d'un réseau câblé ethernet, car cela ne coûte rien de connecter deux bureaux ou deux salles de classe. Mais, si l'infrastructure d'un réseau CPL est économique, attention toutefois au prix des équipements, qui reste encore élevé. Sur ce point, les constructeurs semblent confiants et assurent une baisse prochaine, à mesure que la technologie se démocratisera. « Il faut compter près de 150 euros ht par modem et 1500 euros ht pour l'équipement maître installé sur le compteur électrique. Il est certain que le Wi-Fi est plus économique, mais comporte bien plus de contraintes : murs, plafonds et planchers sont des obstacles à la diffusion des ondes hertziennes. C'est pourquoi, les deux sont complémentaires », juge le responsable informatique de la mairie. À l'école Delambre, le réseau CPL cohabite avec un réseau de PC sans fil exploitant quatre Pentium de dernière génération installés en 2001. « En fait, en combinant les deux, on s'offre une mobilité inégalée. Nous pouvons modeler un réseau dans n'importe quelle salle. Nous pensons mixer toutes les technologies disponibles, selon les besoins », envisage-t-il.

OINet : http://www.01net.com/article/201898.html

Toute la grâce d'un être humain dans un polymère
Samedi, 22/02/2003 - 00:00

A l'Institut de recherche sur les muscles artificiels de l'université du Nouveau-Mexique, il y a de l'électricité dans l'air. Lorsque le directeur du laboratoire, Mohsen Shahinpoor, applique un courant électrique à une main artificielle faite d'un composite polymère-métal, les doigts se replient pour former un poing. En fouinant dans le labo, on trouve des poissons-robots qui nagent, des ailes qui battent, des bras qui se lèvent - tous mus par des polymères "électroactifs". On a déjà vu des robots, mais ceux-ci ont quelque chose de plus : ils font vivants. Depuis le début des années 90, les chercheurs et les ingénieurs spécialisés dans les matériaux mettent au point des polymères servant à fabriquer capteurs, actionneurs dispositifs de commande] et muscles artificiels. L'application d'un courant électrique modifie la composition ou la structure moléculaire du polymère, si bien qu'il se dilate, se contracte ou se plie. Le mouvement est plus fluide et plus naturel que celui généré par des dispositifs mécaniques. A l'instar des muscles, les polymères sont souples et leurs mouvements ne sont pas entravés par la rigidité d'un appareillage mécanique. Les chercheurs estiment que, grâce à ces ressemblances avec le mouvement naturel, les polymères électroactifs pourraient révolutionner la robotique et les dispositifs biomécaniques. A l'université du Nouveau-Mexique, Mohsen Shahinpoor a fait la démonstration de muscles artificiels fins et résistants capables de soulever plusieurs fois leur propre poids. Mohsen Shahinpoor utilise ces matériaux pour mettre au point des appareillages implantables, tels une pompe compressant le coeur à la manière d'un stimulateur cardiaque ou un petit mécanisme qui corrige la vision en pinçant légèrement le globe oculaire. Cela étant, avant la mise sur le marché, il reste à vérifier que les matériaux sont compatibles avec le tissu humain et que leurs fonctions peuvent être précisément contrôlées. Pour fabriquer des prothèses et des robots plus naturels, les chercheurs vont devoir concevoir des matériaux plus intelligents, plus interactifs. D'ici dix ans, ils espèrent mettre au point des membres artificiels qui assureront un feed-back (une rétroaction) à l'utilisateur, des robots gracieux mus par des polymères et même des combinaisons démultipliant la force et l'endurance des soldats et des sauveteurs.

Courrier International : [http://www.courrierinternational.com/

36 % des foyers français équipés d'un ordinateur
Samedi, 22/02/2003 - 00:00

En 2002, 35,9 % des foyers français étaient équipés d'un micro-ordinateur, selon l'enquête annuelle GfK/SVM. Une progression de trois points par rapport à 2001 mais qui laisse encore la France en retrait par rapport à la moyenne européenne de 41 %. Pour 35 % des foyers français, l'ordinateur permet de jouer, de regarder des DVD ou écouter des CD (20 %), pratiquer ses hobbies (25,6 % essentiellement tournés vers le travail de l'image). L'ordinateur sert aussi à travailler. Il facilite les études (22,4 %), permet de finir le travail commencé au bureau (18,2 %) et simplifie la comptabilité domestique (35,3 %). Enfin, les enfants restent les grands promoteurs des nouvelles technologies auprès des adultes : 60 % des foyers équipés en informatique ont des enfants. Sur les 8,8 millions de foyers français où l'on trouve une "machine multimédia", seuls deux tiers disposent d'un accès à Internet. Ces derniers passent en moyenne 12 h 30 min par semaine devant leur écran (contre 7 h 42 min pour les "équipés non connectés"), essentiellement pour écrire des e-mails (91 %) mais aussi pour gérer leurs comptes (43,5 %), exécuter un travail graphique (29,7 %), consulter des CD et DVD (23 %) et télécharger des fichiers (15,7 %). Les 5,8 millions de foyers connectés cachent cependant une tendance inquiétante : pour la première fois, la progression du nombre de connectés ralentit. C'est d'autant plus inquiétant que 52 % des "équipés non connectés" n'ont pas l'intention de se raccorder au Web. Peut-être parce que, pour 55 % d'entre eux, ils surfent déjà au bureau... D'autant qu'un Français sur deux n'a encore jamais vu une page Web. Aussi importante que soit cette proportion, elle tend à se réduire puisqu'ils étaient 70 % à ne rien connaître du Réseau il y a deux ans. La multiplication des points d'accès public et surtout "l'internetisation" des entreprises y sont pour beaucoup. Quant aux non-équipés, ils sont 35 % à assumer ce choix, un chiffre constant d'année en année. Pour 36 % d'entre eux, le rejet de l'ordinateur est avant tout financier tandis que 42 % déclarent vouloir s'équiper... quand ils en auront vraiment besoin.

VUNet :

http://www.vnunet.fr/actu/article.htm?id=0&numero=10590&date=2003-01-22

K-bot, un robot très expressif
Samedi, 22/02/2003 - 00:00

Au cours des rencontres annuelles de l'AAAS (Association pour le Développement de la Science) à Denver, Dave Hanson a présenté un étrange visage de mannequin, grandeur nature, aux traits androgynes. Le cou est prolongé de tiges métalliques fixées à un petit tabouret de bois. Vu de dos, le crâne, ouvert, déborde de petits boîtiers de plastique noir, de la taille de boîtes d'allumettes, reliés à des câbles électriques, eux-mêmes connectés à un circuit électronique. K-bot est sans doute le robot le plus perfectionné du monde, en termes d'expression et d'interaction sociale. Sa peau, a une texture proche du derme humain et est fabriquée à partir d'un cocktail de polymères dont la formule reste secrète. La légèreté de la peau permet aux 24 petits moteurs de remuer l'enveloppe en dépensant très peu d'énergie. C'est ainsi que K-bot, relié à un simple ordinateur portable, peut reproduire 24 expressions, avec ses 24 muscles artificiels. Ses yeux dissimulent deux caméras qui lui permettent de reconnaître des expressions sur les visages humains et de les imiter. Ce robot est un animal social. Fait étonnant, il n'est constitué que de composants bon marché, en vente dans le commerce, hormis la peau. «Il y en a pour 400 dollars», assure Dave. Son souhait est de pouvoir multiplier les K-bots et d'en envoyer dans des laboratoires du monde entier, qui, chacun selon ses compétences, amélioreraient la machine. Un peu comme les programmes informatiques dits ouverts, dont Linux est le plus connu. Dave Hanson a présenté K-bot à Denver dans le cadre d'un symposium consacré aux robots biomimétiques, dont la conception s'inspire de la nature. Son confrère Yoseph Bar-Cohen travaille sur les étonnantes propriétés des polymères.«Il y a des polymères extraordinaires, s'enthousiasme-t-il. Certains changent de forment selon la température, la pression ou lorsqu'ils sont traversés par un courant électrique.» Et Yoseph de montrer sur son écran des lamelles de plastique, montées comme les doigts d'une main, se plier et se déplier sous l'action d'une impulsion électrique. Aucun câble ne traverse ces doigts artificiels qui se meuvent avec la souplesse du vivant. Plus extraordinaire, un polymère se transforme instantanément de solide en liquide, lorsqu'il est atteint par le courant électrique. Subitement, la petite boule plastique disparaît, métamorphosée en fines gouttelettes tombées au sol. Yoseph pense que cette propriété, lorsqu'elle sera pleinement contrôlée, contribuera à procurer des sensations physiques très diverses à des humains explorant des mondes virtuels aux moyens de lunettes 3 D. Leurs mains pourront être en contact avec de tels polymères qui se transformeront au gré des situations rencontrées dans le scénario en image de synthèse. K-bot pourrait avoir de multiples applications. Il pourrait bien sur permettre de donner à certaines catégories de robots une véritable capacité d'expression des émotions et des sentiments. Mais d'autres applications médicales et psychiatriques sont envisagées, notamment dans le traitement de l'autisme.

BBC :

http://news.bbc.co.uk/2/hi/in_depth/sci_tech/2003/denver_2003/2769741.stm

Intel se lance dans la puce haut débit pour téléphonie mobile
Samedi, 22/02/2003 - 00:00

Intel a dévoilé un microprocesseur destiné à une nouvelle génération de téléphones mobiles permettant des transferts de données à haut débit, sa première initiative d'envergure dans le domaine de la téléphonie mobile. Le premier fabricant mondial de puces a lancé la PXA800F, qui pourrait être intégrée à certains modèles de téléphones plus tard dans l'année et être fabriquée en masse au premier semestre 2004. Intel, qui entend ainsi concurrencer des fabricants déjà bien implantés sur ce marché comme Texas Instruments et Analog Devices, a reçu des commandes de fabricants asiatiques de taille moyenne, mais doit encore conquérir les leaders du secteur comme Nokia. Les taïwanais MiTAC et Wistron, le coréen Maxon et les chinois Ningbo Bird et Legend ont adopté la puce d'Intel, qui discute de son intégration dans leurs prochains modèles avec Nokia, Motorola, Samsung, Siemens et Sony Ericsson. La nouvelle puce est considérée comme innovante car elle combine un processeur central, le fonctionnement d'applications et une mémoire flash sur une même puce, ce qui permet non seulement de standardiser ces trois fonctions essentielles mais aussi d'économiser la batterie du mobile. Texas Instruments prévoit de lancer une puce intégrée comparable à celle d'Intel mais a précisé qu'elle ne serait pas disponible avant l'an prochain. Des analystes estiment que l'entrée d'Intel sur le marché des puces pour téléphones mobiles reflète l'importance croissante de ces derniers dans le monde informatique avec l'apparition d'une convergence entre ordinateurs et téléphones mobiles. Comme Intel, Microsoft a mis au point un système d'exploitation pour la prochaine génération de téléphones mobiles et a précisé qu'il le considérait comme un domaine commercial clé à l'avenir.

Reuters : http://fr.news.yahoo.com/030213/85/31rbm.html

^ Haut
Matière
Matière et Energie
Un nouveau système électronique pour repérer une présence humaine
Samedi, 22/02/2003 - 00:00

Le peloton de gendarmerie de haute montagne de Chamonix (Haute-Savoie) vient de se voir doté d'un nouvel appareil destiné à la recherche de victimes d'avalanches ou de chutes dans des crevasses. Baptisé le "Lifeguard", il permet de détecter le champ magnétique non uniforme émis par les battements d'un coeur, en théorie jusqu'à 500m de distance. Un filtre lui permet d'éliminer de la réception les champs magnétiques des animaux. "Si cet appareil donne satisfaction, ce sera révolutionnaire", souligne le commandant Nicolas Bonneville, responsable de l'unité. Mais pour l'instant, il préfère rester très prudent sur les capacités du "Lifeguard", en cours d'évaluation au sein de la gendarmerie. Ce n'est qu'a l'issue de la saison hivernale, fin avril, que les membres de la plus célèbre unité de secours en montagne française pourront se prononcer sur son efficacité et son utilité réelles. A la différence des deux autres systèmes de localisation -l'ARVA (un émetteur-récepteur porté en permanence en position émission) ou le RECCO (une pastille électronique réfléchissante)- dont les portées ne dépassent pas 60m dans les meilleures conditions, les victimes sont repérées avec cet appareil uniquement par le champ magnétique cardiaque et non par un équipement qu'il faut emporter avec soi. Quelques limites apparaissent déjà dans l'utilisation du système fabriqué par la société américaine DKL: il ne détecte que les personnes vivantes et ne peut être mis en oeuvre qu'en dehors de toute présence humaine qui parasiterait le secteur de recherches. Ce point limite les possibilités d'emploi, d'autant que l'on sait que les chances de survie sous la neige sont de 92 % dans les 15 premières minutes mais seulement de 25% au bout de 45 minutes. Autre inconvénient, le "Lifeguard" se présentant comme un gros pistolet muni d'un large vumètre, ne permet pas d'évaluer les distances. Il indique seulement une direction. Plusieurs secouristes de Chamonix sont en cours de formation pour utiliser le "Lifeguard" d'une valeur de 14.000 euros pièce. Cet appareil, s'il fait ses preuves, n'intéressera pas seulement les unités de secours en montagne. Outre la détection de personnes ensevelies dans la neige ou sous la glace, il trouve aussi des applications dans la recherche d'enfants disparus en forêt, par exemple, mais aussi dans la traque d'individus tant en milieu naturel qu'en milieu urbain, dans des sous-sols notamment. Ses capacités, encore théoriques pour la gendarmerie, lui permettraient de détecter une présence humaine à travers le béton ou les métaux (jusqu'à 30 centimètres de plomb). Ce système avait d'ailleurs été utilisé après les attentats du 11 septembre 2001 pour rechercher des survivants dans les décombres du World Trade Center à New York.

AP : http://fr.news.yahoo.com/030216/5/31wfg.html

La M-RAM, la mémoire vive de demain
Samedi, 22/02/2003 - 00:00

Imaginez un ordinateur qui n'aurait jamais besoin d'être éteint, mais qui se mettrait simplement en veille, une veille un peu particulière puisque ne consommant aucune énergie. C'est ce qui devrait bientôt être possible grâce à la M-RAM (Magnetic Random Access Memory). Jusqu'à présent les mémoires vives (SDRAM, DDRAM...) utilisées dans les ordinateurs ou les appareils numériques stockaient les informations sous forme d'une charge électrique. Et inévitablement, les infos étaient effacées dès lors que la mémoire vive n'était plus alimentée en courant. D'autres types de mémoire comblent cette lacune, mais au prix d'autres contraintes. La plus connue est peut-être la mémoire Flash, couramment utilisée dans les appareils photos numériques pour stocker les clichés. Mais pour écrire des informations sur ces mémoires, une quantité d'énergie relativement importante est nécessaire. Sans compter que cette écriture se fait de façon beaucoup trop lente pour espérer concurrencer les mémoires de type RAM. La technologie M-RAM, dont le principe a été proposé par les laboratoires d'IBM, devrait permettre de concilier les avantages des unes et des autres. C'est en France, au CNRS, qu'un pas important vient d'être franchi dans cette direction. Les équipes de recherche de Claude Chappert (Institut d'Electronique Fondamentale, Orsay) et Jacques Miltat (Laboratoire de Physiques des Solides, Orsay) sont parvenues à faire fonctionner une mémoire de ce type plus vite qu'une mémoire vive. « Sur le papier, la M-RAM a le potentiel pour doubler tous les autres types de mémoire » explique Claude Chappert, Directeur de Recherche au département STIC (Sciences et Technologies de l'Information et de la Communication) du CNRS. La taille des premiers prototypes de M-RAM présentés est encore modeste : 4 Mo (Motorola, 2002), mais elle devrait rapidement rattraper les mémoires RAM classiques. Concrètement, la M-RAM est une mémoire non volatile, ce qui permettrait à un ordinateur de se mettre en veille totale, c'est-à-dire que toute activité consommant de l'électricité s'arrêterait (processeur, ventilateur, disque dur...), et pourrait reprendre en un instant au point précis où elle s'était arrêtée. Sur l'écran les mêmes fenêtres, les mêmes logiciels seraient ouverts. Tous cela étant possible grâce à la faculté de la M-RAM de conserver ses infos sans alimentation, au même titre que les autres types d'enregistrement magnétique. Les applications de la M-RAM ne s'arrêtent pas là, puisqu'elle pourrait aussi chasser sur les terres des mémoires de type Flash (souvent utilisées dans les appareils photos numériques), qui constituent un goulot d'étranglement du fait de leur vitesse d'écriture relativement faible. Elle nécessiterait des sources d'énergie plus modestes puisque l'écriture d'informations nécessite des décharges moins importantes que la mémoire Flash. Enfin, autre application de la M-RAM, mais qui concerne un secteur bien particulier : l'espace. Contrairement aux mémoires de type RAM, la M-RAM, du fait de son fonctionnement basé sur le magnétisme, n'est pas sensible aux rayonnements. La M-RAM est donc candidate à l'exploration spatiale...

CNRS :

http://www.cnrs.fr/cw/fr/pres/dyncom/communique.php?article=129

Un nouveau type de pile à combustible au diméthyléther
Samedi, 22/02/2003 - 00:00

Le METI et Osaka Gaz vont développer en commun un nouveau type de pile à combustible, de taille réduite et à haut rendement. Son combustible est le DME produit à partir de gaz naturel. Ce nouveau type de pile à combustible permet un fonctionnement facile, puisque le système extrait, même à température ambiante, l'hydrogène du DME (liquéfaction au-delà d'une pression de 6 atm). Le METI considère que cette technique présente un avantage déterminant, avec entre autres, le fait qu'elle n'émette pas de SOx. Le METI collabore avec Osaka Gaz, car ce dernier a réussi à développer une technique permettant d'extraire de façon fiable de l'hydrogène à partir du DME. Il subventionne par ailleurs Osaka Gaz par le biais de la Japan National Oil Corporation pour la conception du système et l'étude de marché. Le projet vise à développer des piles à combustible au DME avant la fin 2004 et la commercialisation d'une pile à combustible stationnaire domestique de ce type courant 2005. Afin d'obtenir une puissance de l'ordre de 1 kW nécessaire à l'usage domestique, une pile à combustible de type conventionnel doit être de la taille d'un réfrigérateur. Or, la taille du modèle envisagé est inférieure de moitié. De plus, son rendement thermique est supérieur de 30% au type conventionnel. Le METI envisage également son utilisation dans les véhicules. La pile à combustible, prochainement mise en service par la plupart des fabricants d'automobiles, est un système d'alimentation directe en hydrogène. Dans la mesure où il est difficile de stocker une grande quantité d'hydrogène dans un réservoir, l'autonomie des véhicules sera d'autant plus limitée. En revanche, le DME permet de stocker un volume plus de trois fois supérieur à l'équivalent hydrogène dans un même réservoir. A terme, le projet vise à embarquer dans un véhicule un système muni d'une bouteille remplie de DME, afin d'alimenter la pile à combustible à hydrogène pendant la conduite.

ADIT :

http://www.adit.fr/adit_edition/index.php?page=frame/accueil.php

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Réchauffement climatique : chacun doit agir
Samedi, 22/02/2003 - 00:00

Le réchauffement climatique est bien réel : les températures se sont élevées de 0,7°C depuis la fin du 19e siècle. « Les quelque 10 000 experts du Groupe intergouvernemental sur l'évolution du climat (GIEC) prédisent dans leur dernier rapport, publié en 2001, que l'effet de serre occasionnera une augmentation des températures de 2 à 6°C au cours du siècle à venir », a rappelé Claude Villeneuve, biologiste et professeur à l'Université du Québec. « Cette élévation des température aura des conséquences désastreuses. Elle conduira à une élévation du niveau des océans et à l'intensification des phénomènes extrêmes, tels les ouragans, cyclones, tornades et autres inondations », a insisté Robert Kandel, chercheur en physique du climat au Centre national pour la recherche scientifique (CNRS), en France. « Les gens qui ne comprennent pas que le climat se réchauffe sont soit très mal informés, soit travaillent pour une compagnie pétrolière quelconque », a déclaré Pascal Yiacouvakis, météorologue à Radio- Canada. Selon lui, le phénomène est visible depuis quelques années au Québec où les étés sont caniculaires et les hivers plus cléments et moins enneigés. « Les espèces animales migrent de plus en plus loin », a dénoncé Claude Villeneuve, qui a constaté une augmentation de six kilomètres supplémentaires par décennie. « Le cerf de Virginie se rend même jusqu'au Lac St-Jean où sa population augmente d'année en année. Le problème c'est qu'il transmet ses parasites au caribou qui n'y résiste pas et meurt », a-t-il déploré. Claude Villeneuve a précisé que le protocole de Kyoto à lui seul ne réglera pas le problème. Il invite les gens à agir : «C'est un ensemble de gestes insignifiants qui ont créé le problème et c'est un ensemble de gestes insignifiants qui le régleront ». A l'origine de ce réchauffement climatique, les gaz à effet de serre (GES), comme le dioxyde de carbone et le méthane. Ces gaz contenus dans l'atmosphère agissent comme les vitres d'une serre. Ils empêchent une partie de l'énergie solaire reçue par la Terre de repartir dans l'espace. Ce phénomène engendre un réchauffement. Avec l'ère industrielle, les émissions de ces gaz ont augmenté, accroissant leur concentration dans l'atmosphère. Il y a aujourd'hui 40% de plus de GES dans l'atmosphère qu'avant l'ère industrielle.

Cybersciences : http://www.cybersciences.com/

Aux Etats Unis le changement climatique a accru les rendements de maïs et de soja
Samedi, 22/02/2003 - 00:00

Le changement climatique, qu'il se traduise par une hausse ou une baisse des températures, a déjà une incidence marquée sur les rendements agricoles. C'est la conclusion d'une étude originale conduite par deux jeunes chercheurs américains de l'université de Stanford. En analysant les quantités de maïs et de soja récoltées de 1982 à 1998 dans deux régions du Middle West, ils ont découvert qu'une partie de l'augmentation des rendements n'est pas due à des facteurs agronomiques mais au changement climatique, et cela dans des proportions très conséquentes. David Lobell et Gregory Asner estiment, en effet, que près de 20% de cette augmentation serait directement liée à l'accroissement de température durant cette période. Un chiffre pour le moins impressionnant. Cette observation a de quoi surprendre car on attribue généralement l'amélioration des rendements à des progrès technologiques (performance des fertilisants, efficacité des pesticides, amélioration génétique, etc.). En fait, on n'avait pas encore songé à prendre en compte les changements climatiques, reconnaît Nadine Brisson, de l'Unité climat, sol et environnement (Inra, Avignon). L'augmentation des rendements de ces deux plantes est-elle seulement attribuable à la température ? Sur ce point, Nadine Brisson se montre sceptique. Le réchauffement n'est pas forcément synonyme d'augmentation de rendement car il a tendance à raccourcir le cycle de végétation. «L'augmentation de CO2 doit aussi faire partie des explications. Or, les chercheurs américains n'en parlent pas», regrette-t-elle. Plusieurs scientifiques invités à commenter cette étude parue dans la revue Science (1) mettent l'accent sur le fait qu'elle révèle la vulnérabilité de l'agriculture face au changement climatique. «Ça nous ouvre les yeux sur ce qui nous attend», estime ainsi un spécialiste de la météo agricole dans l'université de l'Etat d'Iowa. Reste à mener ce type de recherche dans d'autres parties du monde. Une chose qui serait possible en France grâce aux statistiques agricoles départementales mais qui n'a pas encore été programmée.

Figaro : http://www.lefigaro.fr/sciences/20030214.FIG0021.html

Science :

http://www.sciencemag.org/cgi/content/full/299/5609/1032?etoc

Réchauffement climatique : 10 degrés de plus en 2100 !
Samedi, 22/02/2003 - 00:00

Une forte hausse des températures mondiales, pouvant atteindre 10 degrés Celsius d'ici la fin du siècle, est prévue si les émissions de gaz à effet de serre ne sont pas réduites, a expliqué dimanche un chercheur lors d'une réunion scientifique à Denver (Colorado)."Le réchauffement le plus important se produira sans l'hémisphère nord, dont l'effet est le plus fort sur la neige et la glace à haute latitude", a expliqué Warren Washington, chercheur du Centre national de recherche atmosphérique (NCAR) américain, qui a réalisé une projection informatique sur la base du rythme actuel de hausse des émissions de gaz à effet de serre. "Dans les régions polaires, le réchauffement serait de l'ordre de 8 à plus de 10 degrés en hiver", a précisé ce scientifique qui a utilisé plusieurs ordinateurs dont celui du NCAR pour modéliser le réchauffement. "Avec des projections jusqu'en l'an 2100, nous pouvons montrer ce qui se produira si nous continuons sans rien changer, si nous ne réduisons pas les émissions de gaz à effet de serre", a encore expliqué M. Washington, qui présentait ses travaux lors de la réunion annuelle de l'Association américaine pour les progrès de la science (AAAS). Un tel réchauffement climatique provoquerait une fonte des glaces dans les régions polaires et une forte montée des eaux qui menaceraient à leur tour les zones côtières autour du globe, et pourrait engloutir ou fortement réduire la taille de certains pays, selon de précédentes études. Le protocole de Kyoto a été adopté en 1997 pour tenter de ramener les émissions de gaz à effet de serre, à l'origine du réchauffement de la planète, à leurs niveaux de 1990 d'ici l'an 2012. Mais les Etats-Unis, le plus gros pollueur du globe, ont rejeté le traité, en estimant que sa mise en oeuvre, contraignante pour les industriels, serait néfaste pour l'économie. En outre, les Américains estiment que l'accord n'est pas juste puisque les pays en développement ne sont pas astreints à respecter ses objectifs.

AAAS : http://www.aaas.org/news/releases/2003/0216tempIntro.shtml

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un nouveau traitement du cancer du sein à un stade avancé
Samedi, 22/02/2003 - 00:00

Une nouvelle stratégie thérapeutique associant deux molécules permet d'alléger le traitement des patientes souffrant d'un cancer du sein à un stade avancé et prolonge leur vie d'environ six mois, a annoncé mercredi à la presse le centre anti-cancéreux de Nantes. L'association du taxotère et de la capécitabine, autorisée en Europe et aux Etats-Unis depuis la fin 2002, va devenir "un nouveau standard dans la prise en charge des patientes au stade métastatique", a déclaré le professeur Pierre Fumoleau, directeur-adjoint du centre René-Gauducheau, implanté à Saint-Herblain (Loire-Atlantique).

Le nouveau traitement, à renouveler toutes les trois semaines, est administré sous la forme de deux comprimés par jour pendant quatorze jours. Il se substitue à la cure classique, qui consiste en une perfusion permanente de quatorze jours. La thérapie, selon le Pr Fumoleau, allonge d'environ six mois la durée de vie des patientes pour lesquelles la chimiothérapie à base d'anthracycline aurait échoué. L'efficacité de l'association sur des stades précoces de cancer du sein est actuellement testée. L'évaluation devrait aboutir d'ici à cinq ans. Selon le ministère de la santé, 300.000 personnes vivent en France avec un cancer du sein, responsable de près de 10.800 décès par an.

AFP : http://fr.news.yahoo.com/030212/202/31obm.html

Un pacemaker prolonge la vie
Samedi, 22/02/2003 - 00:00

Aux Etats-Unis, environ un tiers des cinq millions de personnes souffrant de défaillances cardiaques connaît également des troubles associés à la synchronisation des deux côtés du coeur. Des études avaient déjà démontré que les pacemakers conçus pour la resynchronisation cardiaque par stimulation bi-ventriculaire de ces personnes amélioraient leur qualité de vie et leurs capacités lors d'exercices physiques, mais toute une série de travaux menés, entre autres par les cardiologues de John Hopkins Hospital et de l'Ohio State University, indiquent en outre que ce type de pacemaker prolonge la vie de façon statistiquement significative. Les chercheurs ont collecté les données fournies par quatre études portant sur un total de 1 634 patients qui démontrent que le taux de mortalité dû à une défaillance coronarienne est réduit de 51% chez les personnes possédant un pacemaker à resynchronisation et qui suit, parallèlement, des traitements médicamenteux (bêta-bloquants, inhibiteurs ACE). Ce type de pacemaker réduit aussi de 29 % le temps d'hospitalisation due aux complications associées à la défaillance coronarienne. A l'heure actuelle, seulement 2% des patients disposent de ces pacemakers et l'American Heart Association préconise une modification importante de ses recommandations suite à ces études, dont les résultats sont publiés dans le Journal of the American Medical Association.

WSJ 11/02/03 :

http://online.wsj.com/article/0,,SB1044997748612722543,00.html?mod=health_hs_med...

Cancer du colon et régime alimentaire : le lien est une fois de plus confirmé
Samedi, 22/02/2003 - 00:00

De nouveaux résultats confirment l'association entre le régime alimentaire occidental et le risque de cancer du colon chez les femmes, montre une étude parue dans les Archives of Internal Medicine.Selon les auteurs de cette publication, le lien entre les habitudes alimentaires et le cancer colorectal n'est pas complètement constant d'une étude à l'autre. Une équipe menée par Teresa Fung (Harvard School of Public Health, Boston) a examiné cette relation au travers des données 76 402 femmes américaines entrées dans la « Nurses' Health Study ». Deux profils alimentaires ont été identifiés : « prudent » ou « occidental ». Le profil prudent était caractérisé par une quantité plus importante de fruits, légumes, poissons. Les viandes rouges, sucreries, desserts et frites étaient plus fréquents dans le profil « occidental ».En examinant les évènements survenus au cours des 12 ans de suivi, les auteurs ont identifié 445 cas de cancer du colon et 101 cas de cancer rectal. Le risque de cancer du colon était augmenté d'environ 50 % chez les femmes qui adoptait le profil alimentaire occidental le plus marqué, comparé au profil occidental le moins marqué.

Archives of Internal Medicine :

http://archinte.ama-assn.org/issues/current/abs/ioi20062.html

Un régime riche en fruits et légumes pourrait prévenir la maladie d' Alzheimer
Samedi, 22/02/2003 - 00:00

Selon une étude américaine publiée par la revue "Neurology" un régime alimentaire pauvre en graisses saturées et riche en fruits et légumes, pourrait avoir un effet préventif contre la maladie d' Alzheimer. Cette étude menée par le !Centre médical St Luc de Chicago a porté sur 815 personnes âgées qui ont été suivies pendant 4 ans. Au début de l'étude, 90 personnes étaient atteintes de la maladie d' Alzheimer, contre 131 personnes à la fin de l'étude. Selon cette étude, les personnes qui consommaient beaucoup de graisses saturées et peu de fruits et légumes avaient 2,3 fois plus de risques de développer un Alzheimer.que celles qui avaient au contraire un régime alimentaire pauvre en graisses saturées et riche en fruits et légumes. Le Dr Martha Clare qui a dirigé ces recherches souligne que d'autres études complémentaires seront nécessaires pour mieux comprendre les liens complexes entre alimentation et risques d'Alzheimer. Elle pense que cet effet protecteur pourrait venir du fait qu'un régime pauvre en graisses saturées fait baisser le taux de LDL, le "mauvais" cholestérol. Or il s'avère qu'il existe un lien entre le taux de LDL et la formation de plaques amyloïde provoquée par la maladie d' Alzheimer.

BBC : http://news.bbc.co.uk/2/hi/health/2772499.stm

Création d'un implant qui fabrique des os et du cartilage
Samedi, 22/02/2003 - 00:00

Les chercheurs de la société Fraunhofer pour les techniques de production et l'automatisation basée à Stuttgart ont développé un implant médical qui stimule la production de tissus cellulaires par le corps, et qui devrait permettre un traitement efficace des lésions du cartilage et des os. L'implant, résultat d'une coopération avec la clinique universitaire de Rostock, est constitué de polyglycolide et de polyactide. Il fixe des cellules souches du patient, qui pourront se transformer en cellules de cartilage et permettront la génération de nouveaux tissus. Rendu malléable, l'implant pourra être introduit dans le corps à l'aide d'une buse. Le tissu obtenu par cette méthode reproduit la structure tridimensionnelle exacte des tissus cibles.

ADIT :

http://www.adit.fr/adit_edition/index.php?page=frame/accueil.php

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Les hommes et guerre: armes du 21e siècle pour cerveaux préhistoriques
Samedi, 22/02/2003 - 00:00

Les guerres actuelles sont conduites avec des armes de haute technologie mais ceux qui déclenchent les hostilités et mènent les combats fonctionnent avec des cerveaux qui ont peu évolué depuis la préhistoire, ont expliqué des chercheurs réunis à Denver (Colorado, ouest)."Nous avons peut-être la technologie nucléaire, mais nous avons encore des cerveaux datant de l'âge de pierre, nos systèmes sociaux et politiques sont lents à s'adapter, comparés au rythme des progrès technologiques", a expliqué l'anthropologue Paul Roscoe, de l'Université du Maine, lors de la réunion annuelle de l'Association américaine pour les progrès de la science (AAAS). Cerveaux préhistoriques et armes nucléaires sont "une combinaison souvent mortelle dont les dirigeants politiques feraient bien de se souvenir alors que les Etats-Unis et leurs alliés se préparent à attaquer l'Irak et qu'Américains et Nord-coréens sont en conflit sur l'arme nucléaire", a estimé ce chercheur. Les hommes sont les seuls animaux qui vont rechercher la confrontation avec leurs ennemis et sont prêts à les tuer pour des actions passées, a encore souligné l'anthropologue qui explique le phénomène par le développement du néocortex, une partie du cerveau qui a permis à l'homme de développer ses outils et son langage, mais qui a aussi des aspects négatifs. "Les humains ont développé une capacité à modéliser l'action avant qu'elle n'arrive, ils peuvent donc planifier la violence collective, ce qui explique pourquoi nous avons des guerres", a expliqué le professeur Roscoe. Le néocortex permet également aux soldats de manipuler leurs émotions au moment du combat, en se remémorant des actes de violence perpétrés par leurs ennemis, selon plusieurs chercheurs. Le Dr Stephen Beckerman note que "l'impulsion de vengeance est loin d'être réservée aux humains. Quand on examine la vengeance sanglante parmi les hommes, ce comportement n'est pas très différent de celui déjà observé chez les primates", selon cet anthropologue de l'Université de Pennsylvanie. L'anthropologue Lawrence Keely, de l'Université de l'Illinois, note pour sa part que la fréquence des guerres augmente quand la situation économique est difficile. Il estime que l'acte de guerre est probablement aussi ancien que l'humanité elle-même. Pour le Dr Beckerman, c'est la vengeance qui est la cause numéro un des guerres au sein des sociétés tribales, tant au niveau individuel que pour le groupe. Mais, parallèle intéressant avec la situation actuelle face à l'Irak, il souligne que l'acte de guerre "est souvent explicitement lié à la dissuasion d'une agression future". "L'ethnographie fournit des exemples de vengeance préventive motivée par la peur d'une attaque plus puissante", estime-t-il encore. La riposte sanglante n'est pas toujours immédiate, a rappelé cet anthropologue en citant l'exemple de l'ex-Yougoslavie où "certains dirigeants ont motivé leurs troupes en évoquant la défaite face aux musulmans survenue 900 ans avant leur naissance.La vengeance a la mémoire longue". Ce dernier établit cependant une différence fondamentale entre les guerres modernes et les guerres tribales : "La ligne de partage dans l'histoire humaine est survenue quand la décision de partir en guerre a commencé à être prise par des personnes qui ne combattent pas eux-même dans cette guerre". Mais, s'inquiète l'anthropologue Paul Roscoe, "les hommes ont dévié de leur chemin d'évolution normal consistant à de battre puis à faire marche arrière, car leurs capacités techniques à se faire du mal ont dépassé leurs capacités sociales et culturelles à modérer leurs comportements irrationnels". Et de résumer : "Dans un échange thermonucléaire de grande ampleur, la riposte pourrait en théorie supprimer toute l'espèce".

AFP : http://fr.news.yahoo.com/030214/202/31tvi.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les Etats Unis accentuent leur effort de recherche pour maintenir leur suprématie technologique
Samedi, 22/02/2003 - 00:00

En 2002, les Etats-Unis ont investi 2,8% de leur PIB, soit 290 milliards de dollars en Recherche et Développement, l'Europe des quinze 1,8 % et le Japon 3%. La France se situe à 2,2 % avec 26 milliards de dollars. Cet effort de R&D colossal explique en grande partie la position dominante qu'occupe les Etats-Unis dans les secteurs de pointe tels que les biotechnologies ou les technologies de l'information. L'industrie constitue un acteur essentiel de ce leadership puisqu'elle finance plus des deux tiers de l'effort national de R&D et réalise plus des trois quarts des dépenses de recherche. Mais il est important de souligner que les Etats Unis ont parallèlement augmenté de 8% leur effort en faveur de la recherche fondamentale qui représentera à elle seule 25,5 milliards de dollars en 2003, un montant équivalent à l'effort global de recherche de la France ! Alors que le Congres n'a pas terminé l'adoption du budget fédéral pour l'année fiscale 2003, le Président Bush a publie le 3 février dernier son projet détaille de budget pour 2004. La part réservée a l'ensemble de la recherche et développement sur le plan fédéral atteint le montant record de 122,7 milliards de dollars, en hausse de 6,7% par rapport a 2003. Cette augmentation bénéficie principalement aux programmes de développement du Department of Defense et aux programmes de recherche du nouveau Department of Homeland Security. Le programme inter-agences "Networking and Information Technology R&D" (NITRD) continue a figurer parmi les priorités du gouvernement fédéral en matière de R&D, avec les nanotechnologies et le changement climatique. Avec 2179 millions de dollars, le budget consacre en 2004 au programme NITRD progresserait de 6% par rapport a 2003. Le principal bénéficiaire de cette augmentation est le Department of Health and Human Services avec une contribution de 441 millions de dollars (+18%), qui reflète l'importance accordée aux programmes de bioinformatique. Avec une contribution de 724 millions de dollars (+7 %), la National Science Foundation (NSF) reste le leader du programme NITRD. En 2004, ce programme continuera a concentrer ses efforts sur la sécurité des réseaux, la fiabilité des logiciels et des systèmes, les technologies de capteurs et la miniaturisation des architectures pour le calcul a haute performance. Le projet de budget fédéral 2004 sera examiné par le Congres a partir de l'été prochain. Budget de la recherche :

http://www.ostp.gov/html/budget/2004/2004.html

AAAS : http://www.aaas.org/spp/rd/

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top