RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 255
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Septembre 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un développement numérique à deux vitesses
Microsoft lance le premier service musical à la carte en Europe
Un habit robotisé pour les personnes âgées et les handicapés
Un gant qui traduit la langue des signes
Imprimer des objets en 3D à domicile
Microsoft annonce la date de sortie et les prix du nouvel Office
Brevetabilité des logiciels : le gouvernement précise sa position
Sony veut combiner jeux vidéo et internet
Espace
Un nouveau télescope spatial pour mieux comprendre les mystères de l'Univers
Terre
La France a connu l'été le plus chaud depuis 50 ans, selon Météo France
Pour les Etats Unis, le dioxyde de carbone n'est pas polluant !
La glace de l'Arctique aura complètement fondu dans un siècle
Vivant
Un remède traditionnel chinois anti-paludéen révèle ses secrets
Nouvel angle d'attaque contre le cancer
L'aspirine, nouvelle arme contre le cancer ?
Vers un vaccin contre la leucémie
Une protéine protectrice naturelle contre Alzheimer ?
La condition physique des femmes s'est dégradée depuis 50 ans
Des éponges de mer pourraient révolutionner les transmissions optiques
Homme
Les Islandais et les Françaises vivent le plus longtemps en Europe
Edito
Notre été caniculaire semble bien confirmer le réchauffement inquiétant du climat



La canicule qui a affecté l'Europe au cours de cet été 2003 a été exceptionnelle par son intensité, sa durée et son étendue géographique et pourrait bien annoncer un changement climatique majeur dont les conséquences seront considérables pour notre continent. Ce type de canicule va devenir plus fréquente dans quelques dizaines d'années tout comme les inondations catastrophiques et autres phénomènes extrêmes, selon des experts internationaux."Ce type d'été deviendra beaucoup plus fréquent dans 50 ou 100 ans", prédit Martin Beniston, professeur de climatologie à l'Université suisse de Fribourg. A l'échelle de la planète, 2003 pourrait être la troisième année la plus chaude depuis 150 ans après 1998 et 2002, si les études déjà faites pour les cinq premiers mois de l'année se confirment, relève Jean Jouzel, membre du bureau de l'IPCC, un groupe de 3.000 scientifiques de l'ONU sur le climat. "Les dix années les plus chaudes du 20e siècle ont toutes été enregistrées dans les 10-15 dernières années" du siècle, selon M. Beniston. "Si l'on en croit les modèles, le réchauffement va s'accélérer et ce qu'on a vu au 20e siècle est un début timide par rapport à ce qui nous attend". Cette opinion est partagée par Jacques Manach, Directeur Adjoint du service "prévisions" de Météo-France. Pour celui-ci, "la canicule que l'on vient de connaître est un événement climatique majeur".

Dans son dernier rapport (2001), l'IPCC chiffre à 0,6 degré Celsius la hausse moyenne de température intervenue à l'échelle du globe au 20e siècle, dont "une grande part" a de "fortes chances" d'être liée au rejet de CO2 et autres gaz à effet de serre. Il prédit une nouvelle hausse de 1,4 à 5,8 degrés entre 1990 et 2100. Une hausse de 3-4 degrés en moyenne mondiale, "des pics compris entre 35 degrés et 45 degrés ne seront pas exceptionnels dans le dernier tiers du 21ème siècle", estime M. Beniston en citant une simulation pour une région allant de la Lorraine à l'Autriche et incluant l'Alsace, la Bavière et la Suisse. Appliqué à une échelle plus grande, le scénario prévoit une remontée de 400 à 500 km vers le nord des zones climatiques européennes et une "augmentation des jours caniculaires pratiquement jusqu'en Finlande". Le climat de la Suisse "ressemblerait alors à celui de la Provence, celui du sud de la France s'apparenterait à celui de Séville et du sud de l'Espagne", note M. Beniston. Pis, les retournements brutaux de la météo 2002 et 2003, inondations catastrophiques dans un cas, nombre record de jours de canicule dans l'autre, deviendraient monnaie courante, explique-t-il. M. Beniston note cependant que les températures extrêmes relevées au cours des dernières semaines pourraient n'avoir que peu d'impact sur les températures moyennes de l'année ou de la décennie en Europe. "Cela ne contredit pas la théorie sur les changements climatiques, mais cela n'en constitue pas une preuve", a-t-il déclaré. L'an dernier, la vague de chaleur en juin avait été suivie de températures beaucoup plus fraîches qui avaient fait baisser la moyenne de l'été, a-t-il relevé. "Cela pourrait changer au cours des 30 à 50 prochaines années quand le réchauffement deviendra réellement sérieux comparé avec ce que nous avons vécu au XXe siècle", a-t-il toutefois ajouté. Selon lui, "les vagues de chaleur dans certains pays européens pourraient être alors en moyenne de six à huit degrés au-dessus de ce que nous connaissons actuellement". "Ce que nous vivons depuis deux ans pourrait bien être la norme dans les 50 ou cent prochaines années", a observé l'expert en rappelant que les changements climatiques doivent s'accélérer dans les 30 prochaines années. Le problème principal auquel sont confrontés scientifiques et politiques, c'est la durée de vie du CO2 (gaz carbonique). Même si toutes les voitures et tous les avions s'arrêtaient demain, la concentration de CO2 dans l'atmosphère continuerait d'augmenter pendant des dizaines d'années et avec elle la hausse probable du thermomètre. Une hausse limitée à 2 degrés d'ici 2100 de la température moyenne mondiale est fondée sur une concentration de CO2 de 500 parties par million à cette échéance, contre 370 ppm aujourd'hui, et des émissions mondiales de gaz à effet de serre réduites à cinq milliards de tonnes avant la fin du siècle, relève M. Jouzel. Un effort gigantesque pour les pays industriels, qui doivent changer de mode de vie, et pour les pays pauvres, qui doivent se développer sans polluer davantage la planète. Faute de quoi les émissions mondiales s'envoleront vers 20 milliards de tonnes, contre quelque 7 milliards aujourd'hui, et les cataclysmes deviendront incontrôlables. En France, des records de chaleur absolus, depuis la mise en place des stations de mesure de Météo-France après la fin de la Seconde guerre mondiale, ont été battus le 4 août dans plusieurs villes du sud-ouest, dont Toulouse, Bordeaux, Limoges et Montauban, a-t-on appris auprès de Météo-France. Dans la Ville rose, la température, relevée sous abri, est montée jusqu'à 40,7 degrés, dépassant l'ancien record fixé à 40,2. Le mercure a atteint à Bordeaux 40,2 contre 38,8 pour le précédent record, et 36,9 à Limoges (35,4). Les températures les plus élevées ont été enregistrées à Orange où il a fait 42,8 et Montauban (Tarn-et-Garonne) où il a fait 41,8 degrés. La Grande-Bretagne a enregistré le 10 août un record historique de température avec 37,9°C , bien au-delà des 37,1°C relevés en 1990 à Cheltenham (centre de l'Angleterre), selon le centre de météorologie nationale. C'est la première fois que la Grande-Bretagne franchit la barre symbolique des 100 degrés Fahrenheit, qui correspondent à 37,8 degrés Celsius. En Allemagne, où des records absolus de chaleur ont été enregistrés le 8 août avec 40,8°C de jour et 26,7°C dans la nuit précédente, l'agriculture souffre de la sécheresse. Les récoltes céréalières devraient baisser en moyenne de 10 % à 15 % par rapport à 2002, avec "80 % de pertes" par endroits, selon la Fédération allemande des agriculteurs. En France, les conséquences de cette canicule pour notre agriculture et notre élevage sont très importantes et l'on estime que l'ensemble des dommages agricoles pourrait se monter à plus de 2 milliards d'euros. Mais les conséquences de la canicule ne se limitent pas à l'agriculture et à l'environnement et ces chaleurs extrêmes constituent également un nouveau et grave problème de santé publique. Nous savons à présent que cette canicule a entraîné plus de 10000 décès dans notre pays qui n'était pas suffisamment préparé à affronter une telle situation climatique, il est vrai sans précédent en France. Comme l'a souhaité le Président de la République, notre collectivité nationale et les pouvoirs publics vont devoir tirer toutes les leçons de cette canicule sur le plan social, médical et sanitaire afin de mettre en place un ensemble de moyens et de mesures préventives susceptibles de mieux protéger les personnes âgées, malades ou fragiles quand de telles chaleurs se reproduiront. En Suisse, depuis deux mois, des températures souvent largement supérieures à 30 degrés ont provoqué comme ailleurs en Europe une grave sécheresse dans les vallées. Mais dans les montagnes, elles ont des conséquences encore plus dramatiques, faisant fondre la glace qui d'habitude maintient les rochers en place, en pleine haute saison pour l'escalade. Cette fonte des glaces jusqu'à 4.000 m d'altitude est "une situation réellement exceptionnelle", relève le glaciologue Martin Funk, professeur à l'Ecole polytechnique fédérale de Zurich (EPFZ). D'après cet expert, on peut s'attendre à des phénomènes jusqu'alors méconnus, comme la création de poches d'eau à l'intérieur d'un glacier qui se videraient subitement, avec des conséquences catastrophiques. Expert auprès du Groupe intergouvernemental de l'ONU sur l'évolution du climat (IPCC) et directeur du département de géographie à l'université de Fribourg (Suisse), Martin Beniston avait averti, l'hiver dernier, que la fonte des neiges éternelles sur les Alpes serait un signe de l'accélération des changements climatiques. Si la fonte partielle des calottes glacières pendant l'été est normale, elle atteint cette année des proportions inédites. "La plupart des glaciers alpins sont actuellement dans une phase de recul très importante et c'est le cas depuis dix ou quinze ans", souligne M. Beniston. Du jamais vu au cours des 500 dernières années. Cette accélération du réchauffement climatique vient également d'être confirmée par un rapport publié le 13 août pat l'Institut norvégien Nansen. Selon ce rapport, la calotte glacière au Pôle Nord a diminué de plus de 3 % par décennie depuis 1978 sous l'effet du réchauffement de l'atmosphère (voir article dans notre rubrique environnement). Si cette tendance se poursuit, il n'y aura plus de glace au pôle Nord d'ici la fin de ce siècle ! Cette mutation climatique est d'autant plus alarmante que, comme le souligne avec force Jean Jouzel, membre du bureau de l'IPCC, "Le climat est une machine à retardement infernale. Même si l'on parvient à stabiliser l'effet de serre au XXIe siècle, l'inertie est telle que l'élévation du niveau de la mer se poursuivra pendant longtemps. Le gaz carbonique met plusieurs siècles à disparaître de l'atmosphère." A toute chose malheur est bon. Cette canicule exceptionnelle par sa durée, son intensité et son étendue géographique sur l'ensemble de notre continent aura eu le mérite de dévoiler de manière brutale ce qui nous attend au cours de ces prochaines décennies si nous ne prenons pas, au niveau planétaire, des mesures radicales en matière énergétique, allant bien plus loin que celles prévues par le protocole de Kyoto. Pour ceux qui en doutaient encore, et comme l'a souligné avec force Jacques Chirac à Johannesburg, "La maison brûle" et il s'agit à présent de cesser de tergiverser et d'éteindre l'incendie. Face à cette situation, les pays développés vont devoir relever un immense défi en modifiant de manière profonde et globale leurs modes de production et de consommation d'énergie ce qui suppose une réorganisation de l'ensemble de nos économies. Cette mutation historique de civilisation, quels que soient son coût et sa complexité, est à présent inévitable si nous voulons que notre planète reste vivable pour les générations futures.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Un développement numérique à deux vitesses
Samedi, 06/09/2003 - 00:00

Les inquiétudes suscitées par l'écart technologique grandissant entre les pays riches et les pays pauvres - souvent appelé “fracture numérique” - attirent de plus en plus l'attention des gouvernements et des entreprises technologiques. Les pouvoirs publics reconnaissent que les programmes de développement ignorant les inégalités technologiques sont voués à l'échec, car l'accès aux télécommunications et à Internet est un aspect essentiel de l'économie mondiale. Les entreprises y voient, quant à elles, de bonnes possibilités d'expansion ainsi que de nouveaux marchés pour vendre leurs produits et leurs services dans les économies émergentes. Lors d'une mission en Inde mandatée par l'ONU, j'ai pu observer les problèmes les plus évidents posés par cette fracture numérique. Cette mission, dont l'objectif était de développer le cadre juridique d'Internet et du commerce électronique, comprenait des séances de formation à Bombay, le centre financier de l'Inde, et à Bangalore, son pôle technologique. En discutant avec des avocats, des étudiants en droit, des hommes d'affaires et des représentants du gouvernement, j'ai vu tomber un certain nombre de mes préjugés. J'ai pu constater, en observant le secteur indien de la haute technologie, à quel point le commerce des technologies s'était mondialisé et à quel point les entreprises qui se contentaient d'assurer une présence locale risquaient de faire face quelques années plus tard à une rude concurrence. L'impact de la mondialisation m'a semblé particulièrement flagrant lors de ma première journée dans cette ville, à l'occasion d'une séance de formation d'avocats et d'ingénieurs indiens. Peu de temps après la première pause, plusieurs personnes sont sorties précipitamment et sont revenues plus tard dans la journée. Lorsque je les ai interrogées sur la raison de ce départ, elles m'ont expliqué que, à cause du décalage horaire, le matin en Inde correspondait à la fin de la journée de travail en Amérique du Nord. Et leurs correspondants américains avaient pris l'habitude d'envoyer en fin de journée la liste des bogues et autres problèmes à résoudre. La leçon n'était pas difficile à comprendre : pendant que les Américains dorment, les programmeurs indiens travaillent. Le soleil ne doit jamais se coucher pour les entreprises technologiques qui veulent rester compétitives. L'analyse du cadre juridique pour le commerce électronique en Inde a constitué un bon indicateur de la portée du droit du commerce électronique mondial. La législation canadienne sur le commerce électronique présente de nombreuses similitudes avec la loi indienne sur les technologies de l'information. La raison en est simple : toutes les deux ont été élaborées à partir de la loi type des Nations unies qui fait autorité en matière de législation internationale sur le commerce électronique. Les avantages de ce cadre juridique commun sont évidents : les entreprises du secteur peuvent de plus en plus s'appuyer sur un ensemble cohérent de dispositions et de principes juridiques pour la rédaction de contrats. L'attitude des Indiens face au droit de la propriété intellectuelle a sans doute été pour moi la révélation la plus intéressante de ce voyage. Alors qu'on imagine que le piratage est un phénomène très courant dans les pays en voie de développement, j'ai appris au cours de mes conversations avec des étudiants en droit et des législateurs qu'en Inde le droit de la propriété intellectuelle était scrupuleusement respecté. Les représentants du gouvernement se sont efforcés d'attirer l'attention sur la politique de tolérance zéro appliquée à l'égard du piratage informatique, tandis que les étudiants ont aussi indiqué qu'ils respectaient les lois relatives au copyright. Cependant, et c'est très intéressant, ce respect de la loi n'a pas pour autant conduit les étudiants à acheter des logiciels. Beaucoup d'entre eux ont préféré se tourner vers les logiciels de type Linux, qui peuvent être utilisés gratuitement par les utilisateurs en bout de chaîne. Les étudiants ont fait remarquer que, si les universités bénéficiaient de réductions pour les logiciels, les prix restaient inaccessibles pour la majorité des utilisateurs des pays en voie de développement. Leur décision de se conformer aux programmes de lutte contre le piratage ne les conduit donc pas à acheter des logiciels, mais plutôt à privilégier des solutions alternatives. Pour finir, j'ai également compris le danger que représentait un commerce en ligne mondial doté d'une même stratégie commerciale lors d'une discussion avec le dirigeant d'un grand site indien de commerce en ligne. Ce site, qui sert des centaines de clients par jour, a étudié les réussites et les échecs du marché nord-américain mais a finalement constaté que leur entreprise évoluait dans un contexte commercial différent. Les supermarchés en ligne par exemple, sont devenus une activité essentielle de l'entreprise du fait des différences dans le marché de la livraison. Contrairement à l'Amérique du Nord et à l'Europe, où le prix de la livraison varie en fonction des distances, de nombreuses entreprises indiennes de livraison facturent un prix identique quel que soit le lieu de destination du produit. L'entreprise peut ainsi desservir l'ensemble du marché indien à partir d'un nombre limité de centres de distribution. Les législateurs et les entreprises technologiques attendent beaucoup du potentiel à long terme des énormes marchés que représentent l'Inde et la Chine, mais ils feraient bien de s'y rendre d'abord. Ils remettraient ainsi en question certaines de leurs idées reçues sur le droit, les stratégies à adopter et le marché des hautes technologies.

Courrier International : http://www.courrierinternational.com/

Microsoft lance le premier service musical à la carte en Europe
Samedi, 06/09/2003 - 00:00

Microsoft a annoncé le 14 août avoir signé un accord avec le plus important distributeur de musique en ligne européen, le britannique OD2, pour proposer le premier service de vente de musique en ligne à la carte en Europe. Cette alliance intervient une semaine après les nouvelles demandes de la Commission européenne, qui exige que Microsoft cesse de profiter de ce qu'elle estime être un abus de position dominante sur le marché des systèmes d'exploitation pour imposer son lecteur de fichiers multimédia, MediaPlayer, au détriment de ses concurrents. La Commission demande que ce logiciel, qui permet de regarder des films et d'écouter de la musique, soit dorénavant séparé de Windows. Les utilisateurs de MediaPlayer 9 peuvent dès à présent télécharger de la musique au prix de 0,99 euro le morceau dans un catalogue de plus de 200.000 titres, ce qui représente, selon Microsoft, une réduction de 25 % par rapport à la plupart des services à abonnement. C'est la première fois que les internautes européens pourront télécharger de la musique pour moins d'un euro le morceau, et sans avoir à s'abonner à un service. Le nouveau système s'annonce comme un concurrent sérieux pour le iTunes d'Apple, qui n'est pas encore disponible en Europe. Microsoft collabore depuis longtemps avec OD2, seul distributeur européen à avoir signé des accords avec les cinq plus grandes maisons de disques: Sony Music, BMG, Warner Music, Universal Music et EMI. OD2 a également signé des accords avec une douzaine de distributeurs et de fournisseurs de service internet eu Europe comme HMV, Tiscali ou MSN, filiale de Microsoft. Pour l'instant, seuls MSN et Tiscali proposent le service de téléchargement à la carte. Les utilisateurs de MediaPlayer 9 ont désormais accès au service simplement en cliquant sur un lien. Le service est disponible en français, anglais et allemand mais les versions italienne et espagnole devraient être lancées dans les prochains mois. D'autres distributeurs devraient s'allier avec OD2, a annoncé son directeur général, Charles Grimsdale. OD2 compte sur le prix et la possibilité de télécharger sans avoir à s'abonner pour séduire les internautes. "Nous avons analysé les résultats du service iTunes d'Apple, qui distribue environ 500.000 morceaux par semaine, et nous avons estimé que ces chiffres n'étaient pas hors de notre portée sur l'ensemble de l'Europe", a expliqué Grimsdale. Jusqu'à présent les services à abonnement n'ont pas réussi à détrôner les systèmes d'échange de fichiers comme Kazaa et iMesh. C'est seulement depuis qu'Apple a lancé iTunes, qui propose le titre à 99 cents, que les internautes ont commencé à payer pour écouter de la musique. Jusqu'à aujourd'hui aucun service semblable n'existait en Europe. "Le manque de prix d'appel cohérent était le principal problème en Europe", explique Mark Mulligan, analyste chez Jupiter Research. "99 centimes (d'euros) est un prix comme un autre pour commencer", a-t-il ajouté. Selon Mulligan, le prix devrait baisser en Europe à mesure que des concurrents entrent sur le marché, à commencer par iTunes. Erin Cullen, responsable produit au sein de la division médias numériques de Microsoft, a expliqué que la nouvelle alliance avec OD2 ne devait pas être interprétée comme une tentative d'écarter certains concurrents du marché européen. Grimsdale estime néanmoins qu'iTunes est un concurrent potentiel et que les deux entreprises ne collaboreront pas si Apple décide de lancer iTunes en Europe d'ici à l'an prochain, comme l'attendent certains observateurs.

Reuters : http://fr.news.yahoo.com/030814/85/3cmy4.html

Un habit robotisé pour les personnes âgées et les handicapés
Samedi, 06/09/2003 - 00:00

Des sociétés japonaises se préparent à commercialiser un habit robotisé aidant les personnes âgées et les handicapés à marcher, monter les escaliers et se reposer même sans fauteuil où s'asseoir.La maison de commerce Mitsui and Co. et une trentaine d'autres sociétés de Tokyo veulent créer une entreprise commune l'an prochain pour vendre le costume motorisé mis au point par Yoshiyuki Sankai, professeur et ingénieur à l'Université de Tsukuba. "Il ne s'agit ni d'un robot pour une usine ni d'un robot destiné à la simple distraction. Le costume apporte une aide pratique aux gens dans leur vie", a dit M. Sankai. Le costume-robot, baptisé HAL-3 (Hybrid Assistive Leg), est composé d'un sac à dos contenant un ordinateur et des piles qui activent des articulations motorisées aux genoux et aux hanches. Il imprime un mouvement aux jambes sur la base des faibles signaux électriques envoyés par l'utilisateur à ses muscles, a expliqué son inventeur. Grâce au robot, une personne peut marcher à une vitesse de 4km/h sans pratiquement d'effort physique et sans les mouvements heurtés caractéristiques des robots ordinaires. La future société de commercialisation veut dans un premier temps vendre ou louer une dizaine de prototypes l'an prochain, notamment à des maisons de retraite et à des hôpitaux. A moyen terme, l'objectif est de vendre une centaine de robots par an au prix d'un million de yens (8.440 dollars). Le Pr Sankai a ajouté que le robot répondait au vieillissement rapide de la société japonaise et à l'augmentation des gens souffrant de handicaps dus à l'âge. Selon le dernier rapport gouvernemental sur la population, la proportion des Japonais âgés de 65 ans ou plus a atteint un record de 18,82% du total. Avant même son arrivée sur le marché, des améliorations du costume robotisé sont déjà à l'étude. Le poids du système doit être prochainement abaissé à 10 kg au lieu de 17 actuellement et la taille de certaines parties au niveau des articulations doit être réduite de moitié. "Nous avons également commencé à mettre au point une version pour les bras", a précisé M. Sankai. "A terme, nous avons pour objectif de fabriquer un habit suffisamment mince pour qu'il soit porté comme un sous-vêtement et permettant aux utilisateurs de courir et bouger leurs bras librement", a-t-il ajouté. Le Japon a été à l'avant-garde de la robotique pour son industrie en rapide expansion et a, plus récemment, commencé à développer des robots pour les loisirs. De grandes sociétés comme Sony et Honda ont produit des machines parlant, marchant ou aboyant comme des humanoides ou des chiens.

AFP : http://fr.news.yahoo.com/030821/202/3cyf8.html

Un gant qui traduit la langue des signes
Samedi, 06/09/2003 - 00:00

Ce serait un lien entre les sourds et le monde des entendants. Un chercheur mexicain travaille à la mise au point d'un gant électronique capable de traduire des gestes de la langue des signes américaine (ASL) en mots parlés ou écrits. L'"AcceleGlove" peut traduire des mouvements rapides de la main utilisés pour former les lettres de l'alphabet de l'ASL et certains mots et expressions de cette langue des signes. Ce n'est pas le seul appareil expérimental du genre, l'armée américaine étudiant une technologie similaire pour aider les soldats à progresser en silence sur un théâtre d'opération. Mais son inventeur, José-Luis Hernandez-Rebollar, un spécialiste de l'ingénierie électronique de l'Université George Washington, souligne que son projet va plus loin. L'AcceleGlove est un petit ordinateur portable équipé de circuits électroniques minuscules. Il est doté de capteurs qui détectent les mouvements du bras et des doigts et ces informations peuvent ensuite être converties en mots prononcés par une voix électronique via un haut-parleur ou en texte sur un écran d'ordinateur. Le système pourrait être utile aux parents sourds ayant des enfants entendants et vice-versa, souligne Corinne Vinopol, qui dirige l'Institut pour les handicaps, la recherche et la formation, un laboratoire du Maryland où Hernandez-Rebollar a fait une grande partie de ses recherches. Hernandez-Rebollar a fait une démonstration de son invention lors d'une récente interview. Il portait son gant à la main droite et un petit équipement électronique harnaché sur son bras. Un logiciel convertissait les signes de la main en sons à l'aide d'un petit haut-parleur, le tout en une fraction de seconde. Après que le chercheur a tapé une commande sur un ordinateur portable posé devant lui, le haut-parleur a prononcé les mots "aliment", "boisson", "restaurant" et "père". L'ASL englobe des centaines de gestes qui représentent des mots ou des phrases, mais pour les réaliser il faut souvent utiliser les deux mains. Pour l'instant, le gant ne peut produire que moins de 200 mots qui peuvent être formulés avec une seule main, et quelques expressions comme "Qu'est-ce qui se passe?" et "je vais t'aider". Le gant peut aussi produire les 26 lettres de l'alphabet ASL et épeler ainsi n'importe quel mot, mais c'est un processus lent. Il souligne que le gant pourrait avoir des applications militaires. Il pourrait ainsi être relié à des équipements sans fil existants et être utilisé par un commando pour envoyer des signaux de la main depuis l'extérieur d'un bâtiment à des soldats cachés à l'intérieur. Ces derniers recevraient discrètement les signaux sous forme de vibrations codées ou de messages écrits sur un écran. L'Agence des programmes de recherche avancée de la Défense (DARPA) et d'autres agences américaines ont passé des contrats pour la mise au point d'un tel système.

AP : http://fr.news.yahoo.com/030804/5/3bykz.html

Imprimer des objets en 3D à domicile
Samedi, 06/09/2003 - 00:00

Plusieurs entreprises développent des imprimantes en trois dimensions a bas coût pour approcher le secteur des particuliers. Ces machines procèdent en ajoutant des couches successives d'un matériau pulverulent l'une sur l'autre, pour obtenir un modèle réel d'une image numérique. Ainsi, avec plusieurs centaines ou milliers de couches, les imprimantes de Z Corporation peuvent créer des prototypes avec une grande variété de textures et de couleurs, allant jusqu'a des complexités de composants automobiles. Cette société, basée a Boston dans l'état du Massachusetts, utilise une technologie inventée au MIT. Une tête d'impression d'imprimante a jet d'encre, selon un design repris a Hewlett-Packard, modèle une poudre préalablement dispersée et répète le processus pour chaque couche en insérant de la colle. Pour cette poudre, Z corporation utilise du plâtre ou de la céramique pour des modèles plus durables. Aujourd'hui, des grands groupes comme Sony, Adidas et BMW utilisent ces techniques d'impression 3D pour créer des prototypes plus rapides et plus économiques a élaborer que par des méthodes traditionnelles. Selon Andy DeHart de Z Corporation, il s'agit d'une technologie abordable, puisque leur premier modèle se vend a 30 000 dollars. Ceci pourrait trouver sa place dans des magasins d'impression au même titre que des photocopieuses normales.

Z Corporation : http://www.zcorp.com

Microsoft annonce la date de sortie et les prix du nouvel Office
Samedi, 06/09/2003 - 00:00

Le numéro un mondial des logiciels Microsoft a annoncé le 19 août la date de sortie de la dernière version de sa suite bureautique Office, fixée au 21 octobre, alors qu'elle était attendue pour l'été. Les nouvelles versions des logiciels de traitement de texte Word, de présentations PowerPoint, du tableur Excel, de client de courrier numérique et d'agenda Outlook seront préinstallées sur les ordinateurs de certains constructeurs dès la fin de septembre. La suite bureautique Office occupe le premier rang mondial sur ce segment et a généré environ neuf milliards de dollars de chiffre d'affaires durant le dernier exercice de Microsoft au 30 juin. L'éditeur affirme avoir développé "les produits Office les plus innovants et les plus stables à ce jour". Parmi les nouvelles fonctions présentes dans la nouvelle version d'Office figure un outil de lutte contre le "spam", le courrier électronique publicitaire non sollicité. Autre nouvelle fonction, le Research Task Pane permet de rechercher des informations à travers des bases de données extérieures, sur l'internet et le disque dur de leur ordinateur. La dernière version d'Office comprendra de nouvelles applications, dont InfoPath pour créer des formulaires XML qui facilitent l'échange et le partage de données sur l'internet, et OneNote qui permet aux utilisateurs de Tablet PC de passer par la reconnaissance de caractères manuscrits. La suite bureautique comprendra le logiciel de bases de données Access et deux autres applications nouvellement intégrées: Project pour la gestion de projets de groupe et Visio pour la création d'organigrammes et de diagrammes. De nombreuses nouvelles fonctions d'Office nécessitent des mises à jour des logiciels serveurs qui gèrent les réseaux informatiques. Microsoft devra convaincre les entreprises d'investir dans la nouvelle version de sa suite qui subit la concurrence de logiciels libres de droits comme OpenOffice ou StarOffice. L'éditeur a présenté les différentes versions de son logiciel: Office Standard Edition coûtera 399 dollars, Office Professional Edition 499 dollars et Office Small Business Edition (PME) 449 dollars. Les versions spécifiques pour les étudiants et enseignants coûteront 149 dollars. Les mises à jour pour les possesseurs d'une version antérieure coûtent de 50 à 70 dollars de moins qu'une nouvelle version et chaque logiciel de la suite peut être acheté séparément, a précisé Microsoft.

Reuters : http://fr.news.yahoo.com/030819/85/3cvpe.html

Brevetabilité des logiciels : le gouvernement précise sa position
Samedi, 06/09/2003 - 00:00

Dans sa réponse à la question de Monsieur Trégouët du 29/05/2003, le gouvernement a précisé sa position sur la question récurrente de la brevetabilité des logiciels. Question écrite Nº 07725 du 29/05/2003 page 1732 avec réponse posée par TRÉGOUËT (René) du groupe UMP .

M. René Trégouët attire l'attention de Mme la ministre déléguée à la recherche et aux nouvelles technologies sur les termes d'un article paru sur l'édition en ligne du journal Zdnet de mai dernier (consultable à l'adresse suivante : http ://www.news.zdnet.fr) et intitulé " Des scientifiques protestent contre la directive de Bruxelles sur les brevets logiciels ". On y apprend que des scientifiques européens émérites font circuler une pétition auprès des parlementaires européens pour faire obstacle à la brevetabilité des algorithmes et des idées logicielles, projet initié par la commission européenne afin de créer un régime de brevets unifié dans toute l'Union européenne. La directive proposée aurait pour conséquence de transférer à la Cour européenne de justice le soin de trancher les litiges relatifs aux brevets (compétence nationale actuellement). Les scientifiques précités demandent que soit rendu impossible de façon claire tout brevetage des idées sous-jacentes des logiciels (ou algorithmes), des méthodes de traitement de l'information et des interfaces logicielles entre êtres humains et ordinateurs. Le risque évoqué par ces scientifiques est celui de la mise en place d'un système similaire à celui qui est en vigueur aux Etats-Unis, où les grandes entreprises disposant de milliers de brevets sur des logiciels peuvent obliger leurs concurrents plus modestes à payer des licences de propriété intellectuelle. Quelle est la position officielle de la France concernant ce projet de directive européenne ?

Ministère de réponse: Recherche - Publiée dans le JO Sénat du 31/07/2003 page 2482. Les dispositions législatives françaises actuelles prévoient que les programmes d'ordinateurs, en tant que tels, sont exclus du domaine de la brevetabilité, alors que les logiciels, en tant que créations de l'esprit, sont protégeables par le droit d'auteur (art. L. 611-10.2 et L. 112-2 du code de la propriété intellectuelle). L'article 52.2 de la convention sur le brevet européen dispose de la même façon que les programmes d'ordinateurs, en tant que tels, ne sont pas brevetables. Néanmoins, depuis de nombreuses années, l'Office européen des brevets délivre des brevets protégeant des logiciels, dès lors que ces derniers présentent un caractère technique ou apportent une contribution technique ; l'Office américain des brevets ne prend pas en compte ce caractère technique, allant jusqu'à breveter des méthodes d'affaires (" business methods "). L'objectif du projet de directive européenne est d'assurer une sécurité juridique en fixant la frontière entre les logiciels brevetables et ceux qui ne le sont pas : pour être brevetable, le logiciel considéré devra apporter une contribution technique ; cet apport technique est essentiel. C'est d'ailleurs ce que souligne le rapport présenté par la Commission juridique et du marché intérieur du Parlement européen : " il est important d'établir une distinction entre les inventions techniques, qui appartiennent au monde physique et sont brevetables, et les programmes d'ordinateurs en tant que tels, qui sont protégés par le droit d'auteur, comme les mathématiques, les idées, les informations... ". Les autorités françaises n'envisagent une brevetabilité des logiciels que dans un cadre très strict, avec des conditions très précises quant au caractère technique que devra présenter un logiciel, outre les autres critères de brevetabilité, pour être brevetable. En particulier, les autorités françaises sont opposées à la brevetabilité de méthodes purement intellectuelles ou commerciales. Sur ce dernier point, il est important de mentionner le cas d'une demande de brevet français, qui avait été rejetée par l'INPI, au motif que le logiciel visait une transaction commerciale, non brevetable, rejet qui fut confirmé par une décision de la cour d'appel de Paris en date du 10 janvier 2003. Les autorités françaises veilleront en particulier à la stricte application des conditions susmentionnées.

Sénat : http://www.senat.fr/senat/quesdom.html

Sony veut combiner jeux vidéo et internet
Samedi, 06/09/2003 - 00:00

Le groupe électronique japonais Sony en difficulté va lancer prochainement de nouvelles consoles combinant jeux vidéo et accès à l'internet pour lutter contre la désaffection des consommateurs japonais à l'égard de produits phares comme sa célèbre PlayStation. Longtemps considéré comme l'un des symboles de la réussite et de l'innovation du Japon de l'après-guerre, Sony a accusé entre avril et juin 2003 un recul de plus de 30 % de son bénéfice opérationnel dans le secteur des jeux. La filiale jeux du groupe, Sony Computer Entertainment Inc. (SCEI), a enregistré de son coté une chute de 42% de ses ventes de console PlayStation2 dans le monde au cours du trimestre achevé fin juin. Sony place ses espoirs dans le PSX -- un enregisteur de vidéo disques DVD compatible avec la Playstation2 et l'internet-- et le PSP -- un modèle de poche, a déclaré M. Kutaragi. Le PSX, qui doit être lancé sur le marché japonais avant la fin de l'année, permet d'enregistrer et de visionner des DVD ainsi que de jouer à la PlayStation. On peut également surfer et communiquer sur le net et même relier l'appareil à des téléviseurs, classiques ou à écrans plats. "En offrant une machine sophistiquée à un prix qui surprendra le marché, nous allons accélérer la mutation du secteur vers des appareils ménagers reliés à l'internet", a dit M. Kutaragi. Le Pdg de SCEI n'a pas dévoilé le prix du PSX mais des analystes ont estimé qu'il serait un succès commercial autour de 70.000 yens (580 dollars) face à des produits concurrents, mais sans les fonctions jeux, valant de 60.000 à 80. 000 yens. Les ingénieurs de Sony cherchent également à introduire des fonctions en ligne sur le portable PSP, un produit crucial pour l'entreprise afin de rattraper son retard sur le grand concurrent japonais Nintendo, qui domine actuellement le marché mondial des jeux portables avec la console GameBoy. "Nous voulons faire du PSP le 'Walkman' du 21è siècle", a déclaré M. Kutaragi, évoquant le succès du lecteur de cassettes portables qui a fait les beaux jours de Sony il y a quelques dizaines d'années. L'accès à l'internet vise à répondre à une baisse de la demande au Japon dans le domaine des jeux classiques, ce qui a amené les fabricants de programmes à chercher une nouvelle source de revenus dans le secteur en ligne.

AFP : http://fr.news.yahoo.com/030805/1/3bzjx.html

^ Haut
Espace
Espace et Cosmologie
Un nouveau télescope spatial pour mieux comprendre les mystères de l'Univers
Samedi, 06/09/2003 - 00:00

La Nasa dispose depuis le 29 août d'un nouveau télescope spatial à sa gamme d'observatoires déjà en orbite, dont la technologie infrarouge permettra de détecter des objets trop froids, éloignés ou noyés dans la poussière, pour être détectés par les télescopes actuels. Le Space Infrared Telescope Facility (SIRTF) a été mis en orbite avec succès le 29 août dernier. Avec le SIRTF, la communauté scientifique se dote d'un extraordinaire outil d'observation et de recherche cosmologique. La mission SIRTF, d'un coût de 1,2 milliard de dollars, doit apporter un complément à la gamme des télescopes spatiaux américains qui compte déjà Hubble, l'observatoire à rayons gamma Compton et le télescope à rayons X Chandra. Ce nouveau télescope est qualifié par la Nasa de "cousin à infrarouge de Hubble". Les chercheurs utiliseront l'équipement pour l'étude de planètes et de fragments stellaires entourant certaines étoiles, dans l'espoir de découvrir une planète ressemblant à la Terre, où la vie aurait pu se développer. "Avec cette mission, nous verrons l'univers comme il était il y a des milliards d'années, ce qui nous aidera à déterminer la façon et le moment dont les premiers objets se sont formés, ainsi que leur composition", a expliqué Anne Kinney, directrice de la division d'astrophysique de la Nasa à Washington. Les capteurs infrarouges du SIRTF lui permettront de percer plus profondément les confins du cosmos, et donc de remonter davantage dans le temps que les télescopes actuellement en service. "En étudiant la structure et la composition des cercles poussiéreux de planètes en formation autour d'étoiles, la mission aidera à la recherche de planètes similaires à la Terre qui pourraient abriter la vie", a estimé Ed Weiler, administrateur adjoint de la Nasa pour la science spatiale à Washington. Cela fait de ce télescope "la pierre angulaire du programme de la Nasa sur les origines, qui visent à répondre aux questions 'd'où venons-nous ? et 'sommes-nous seuls ?'", a-t-il ajouté. Le télescope est doté d'un miroir de 85 centimètres et de trois instruments à refroidissement à l'hélium liquide : une caméra pour l'étude de l'infrarouge proche et moyen, un spectrographe permettant d'analyser l'ensemble des rayonnements infrarouges et un photomètre pour la collecte d'informations sur la gamme d'infrarouges lointains. Le responsable scientifique du projet espère retirer de ces observations "une meilleure connaissance de l'univers". Michael Werner, du Jet Propulsion Laboratory de la Nasa à Pasadena (Californie) cite en exemple "les molécules organiques riches en carbone présentes dans l'espace intersidéral, dont la compréhension pourrait illuminer le processus par lequel la vie s'est formée". Durant cette mission devant durer deux ans et demi à cinq ans selon les performances des équipements, le télescope doit aussi permettre l'étude des naines brunes, sortes d'"étoiles ratées" considérées par certains chercheurs comme la clé de la fameuse "matière noire" elle-même tenue comme l'élément principal de l'Univers. Des observations infrarouges seront également menées sur les planètes du système solaire, les astéroïdes et les comètes, a précisé la Nasa.

NASA : http://www1.nasa.gov/news/launches/sirtf_launch.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La France a connu l'été le plus chaud depuis 50 ans, selon Météo France
Samedi, 06/09/2003 - 00:00

Après un mois d'août marqué par une canicule "exceptionnelle" par sa durée, Météo France a confirmé mardi que l'été 2003 a été le plus chaud que l'on ait connu ces cinquante dernières années tant pour les températures minimales que maximales. A Paris, c'est même du jamais vu depuis 1873. Il a été significativement plus chaud pour les températures maximales (+2 degrés Celsius) que les trois derniers étés les plus chauds (1976, 1983 et 1994). Mais, surtout, il est plus chaud pour les températures minimales de 3,5 degrés que la moyenne 1950-1980 et de 1,4 degré que 1994, le deuxième été le plus chaud. De plus, Météo France note "une augmentation linéaire sur les dix dernières années de la température minimale et dans une moindre mesure de la température maximale. Ce plus fort impact sur les températures minimales est cohérent avec la compréhension scientifique que l'on a du changement climatique". Cette canicule a été exceptionnelle par sa durée (près de deux semaines) et son intensité. Les records absolus de température maximale ont été battus au cours des douze premiers jours d'août 2003 sur plus de 70 stations météorologiques (sur un ensemble de 180 stations, représentatif des villes françaises). Depuis le 4 août, des températures supérieures à 35 degrés ont été observées dans les deux tiers des 180 stations météorologiques, réparties sur l'ensemble des régions françaises. Des températures supérieures à 40 degrés ont été observées dans 15% des stations, y compris en Bretagne, ce qui n'était encore jamais arrivé depuis le début des mesures de température en 1873. On peut citer certains records absolus de chaleur comme Orange (42,6), Cazaux (42), Carcassonne (41,9) ou Auxerre (41,1). De plus, dans les stations du réseau secondaire (automatiques ou bénévoles), les 43 degrés ont localement été dépassés (43,1 à Décize dans la Nièvre, 43,5 à Villefranche de Lauraguais dans l'Aude). Par ailleurs, les nuits ont été particulièrement chaudes, notamment à l'abord des grandes villes: Paris-Montsouris a connu les 11 et 12 août avec 25,5 de température minimale les deux nuits les plus chaudes de son histoire. Revenant sur la chronologie de cette canicule, Météo France remarque sur le territoire la montée progressive des températures maximales entre le 1er et le 5 août d'une valeur proche des normales (24,8 degrés) jusqu'à une valeur de 37 degrés, ces températures se maintenant entre 36 et 37 degrés jusqu'au 13 août. A Paris, la séquence de jours consécutifs où la température maximale a dépassé les 35 degrés a été de neuf jours (4-12 août). Il faut remonter à 1911 pour avoir une séquence de cinq jours consécutifs en août. La capitale a ainsi connu une moyenne de 30,8 degrés lors de cette période avec une moyenne minimale de 23,4 degrés et une moyenne maximale de 38,1 degrés. De plus, on a battu les 11 et 12 août le record absolu de température minimale avec 25,5 degrés, dépassant les 24 degrés de juillet 1976. En conclusion, Météo France note que cette période de canicule à Paris "dépasse de très loin tout ce qui a été connu depuis 1873 par son intensité et sa longueur tant au niveau des températures minimales, maximales que moyennes. Le seul record qui n'a pas été battu est celui du maximum absolu. Pour expliquer cette canicule, Météo France souligne qu'il ne s'agit pas comme on pourrait le croire d'une masse d'air chaud venue du bassin méditerranéen, mais de hautes pressions qui sont restées bloquées sur le continent ouest-européen avec des vents faibles ou nuls.

AP : fr.news.yahoo.com/030902/202/3dlua.html

La couche d'Ozone va mieux
Samedi, 06/09/2003 - 00:00

Pour l'ozone du haut, cela commence à être moins pire. C'est le message d'un article à paraître dans Geophysical Research Letters . Une équipe américaine y révèle les premiers signes, timides mais clairs, de l'effet positif des accords de Montréal (1987) organisant l'arrêt de la production des molécules «tueuses d'ozone» enregistrés dans la couche supérieure de la stratosphère, entre 35 et 40 kilomètres d'altitude. L'affaire de l'ozone stratosphérique a démarré dans les années 80. A la suite de calculs compliqués, trois géochimistes, Mario Molina, Sherwood Rowland et Paul Crutzen, avaient prédit que l'utilisation de composés chlorés (les CFC, chlorofluorocarbones) dans les réfrigérateurs ou comme gaz propulseur de mousse à raser finirait mal. Très stables, ils allaient s'élever jusque dans la stratosphère, entre 20 et 45 kilomètres d'altitude. Puis se décomposer sous l'effet des rayons ultraviolets du Soleil, et enfin participer à une succession de réactions chimiques conduisant à la destruction des molécules d'ozone, formées de trois atomes d'oxygène. Une prédiction vérifiée par la suite grâce aux satellites, en particulier par son effet le plus spectaculaire : le fameux «trou de la couche d'ozone». Plus précisément, une diminution drastique de la teneur de la stratosphère en ozone au-dessus de l'Antarctique à chaque été austral. Les trois compères ont reçu le Nobel de chimie en 1995 pour leur démonstration. Ardue et d'intérêt académique certain, elle a débouché sur une problématique environnementale célèbre. Car l'ozone stratosphérique, c'est le «bon» ozone. A cette altitude, c'est un véritable bouclier pour la vie terrestre. Captant les UV les plus agressifs du Soleil, il protège les organismes vivants de ce rayonnement capable de casser les molécules d'ADN de la peau, provoquant des cancers cutanés. Dans l'histoire de la Terre, il a fallu attendre que l'atmosphère soit suffisamment chargée en oxygène, produit par le phytoplancton, et que cette couche protectrice se forme pour que la vie sorte des océans et colonise les continents. Après des négociations favorisées par l'existence de gaz de substitution déjà concoctés par les industriels des pays riches, l'accord de Montréal engageait un processus de réduction, puis d'abandon de la production des CFC. Lesquels souffrent d'un autre défaut, ce sont de très efficaces gaz à effet de serre. Mais les scientifiques avaient averti : il faudrait attendre plusieurs décennies avant que la teneur en ozone stratosphérique retrouve ses niveaux d'avant la pollution. Tout au long des années 90, la destruction de l'ozone stratosphérique persistait, à un rythme variant avec la météo (elle s'accélère lorsque les nuages d'altitude frisent les -80° C) et les émissions naturelles (les éruptions volcaniques en particulier) de tueurs d'ozone. D'où l'attention portée par l'équipe de Michael Newchurch de l'université d'Alabama (Huntsville, USA) à la partie supérieure de la stratosphère, entre 35 et 45 km. Si elle n'abrite que 20 % de l'ozone stratosphérique, son évolution y est moins sensible à d'autres facteurs que les composés chlorés. En outre, les satellites de la Nasa (2) utilisés pour l'observer permettent de mesurer les teneurs en ozone et celles en composés chlorés entre 1979 et 2003. L'analyse des chercheurs montre la diminution simultanée des teneurs en «tueurs d'ozone» et du rythme de destruction de l'ozone à partir de 1997, une fois éliminées les variations dues aux saisons ou au Soleil. Un signal clair, mais encore faible. «Attention, précise Michael Newchurch, nous ne gagnons pas d'ozone, nous sommes juste en train d'en perdre moins vite.» Si le problème posé par la destruction de l'ozone n'est pas réglé, cette découverte est un encouragement à poursuivre les efforts engagés.

Libération : http://www.liberation.fr/page.php?Article=128309

Pour les Etats Unis, le dioxyde de carbone n'est pas polluant !
Samedi, 06/09/2003 - 00:00

L'Agence de protection de l'environnement américaine (EPA), chargée de la lutte contre la pollution, n'a pas à s'occuper des émissions impliquées dans le réchauffement climatique global puisque dioxyde de carbone et autres gaz à effet de serre ne sont pas des polluants. Telle est la conclusion à laquelle vient d'arriver l'Administration Bush. Ce "coup dur" pour les écologistes fait suite à l'annonce par l'EPA d'un changement de réglementation permettant la modernisation des vieilles centrales électriques et de certaines usines grandes pourvoyeuses en CO2, sans obligation d'installer de nouveaux systèmes anti-pollution. Officiellement, cette réglementation n'entame en rien l'autorité de chaque Etat à limiter les concentrations de gaz à effet de serre. Mais la situation pourrait devenir délicate à gérer et la Californie, très avancée dans ce domaine, risque de rencontrer des difficultés dans l'application de ses lois sur la protection de l'air à l'horizon 2009. De leur côté, les écologistes préparent la riposte. Ils estiment disposer de suffisamment d'arguments scientifiques pour montrer que le CO2 est bien un polluant. Et par-dessus tout, ils rappellent que le Clean Air Act oblige l'EPA à réguler l'émission des substances nocives pour la santé et le bien-être de la population, ce qui inclut les gaz influençant le climat.

http://online.wsj.com/article/0,,SB106208090845170100,00.html?mod=alth%255Fhome%...

La glace de l'Arctique aura complètement fondu dans un siècle
Samedi, 06/09/2003 - 00:00

La glace de l'Arctique aura complètement fondu d'ici environ cent ans sous l'effet du réchauffement de l'atmosphère lié aux émissions de dioxyde de carbone (CO2), révèle une enquête internationale dont les résultats ont été publiés mercredi 13 août. " Depuis 1978, la calotte glaciaire a diminué de près de 3 % ou 4 % par décennie. A la fin du siècle, il n'y aura plus de glace au pôle Nord l'été ", a déclaré Ola Johannessen, professeur de l'institut de recherche Nansen (NERSC) à Bergen (Norvège), coauteur du rapport " Changements climatiques de l'Arctique ". " Si les émissions de CO 2 continuent de s'accélérer, cela se produira peut-être avant mais si on les réduit, cela retardera le processus ", a-t-il ajouté. Les observations par satellite citées par l'enquête montrent que la calotte glaciaire de l'Arctique a rétréci de 1 million de km 2 au cours des vingt dernières années pour n'être plus que de 6 millions de km 2 l'été. Selon M. Johannessen, la fonte totale de la calotte glaciaire entraînera une arrivée d'eau froide qui réduira fortement les flux marins tels que le Gulf Stream, avec de nombreuses conséquences sur le climat et sur l'écosystème. " Contrairement à une idée répandue, la fonte des glaces n'entraînera pas une montée du niveau des océans ", assure-t-il toutefois. " Car, en fondant la glace qui se trouve déjà dans l'eau, vous n'ajoutez aucune masse. Seuls les précipitations, le débit des rivières et la fonte des glaciers peuvent faire monter les eaux ", explique-t-il. La disparition de la calotte glaciaire aura cependant des retombées positives sur le transport, car elle débouchera sur l'ouverture d'une nouvelle route maritime au nord de la Russie qui permettra d'économiser 10 jours entre l'Europe et le Japon. La fonte des glaces aura également un impact sur la pêche et sur les hydrocarbures, la surface des eaux exploitables s'en trouvant considérablement grandie. " L'Océan joue un rôle majeur pour l'absorption du CO 2. Sur les 7 gigatonnes de CO que nous émettons aujourd'hui, l'Océan en absorbe 2,5 tonnes tout à fait naturellement. Plus l'Océan sera grand donc, plus il absorbera de CO 2 ", souligne M. Johannessen. La canicule qui affecte l'ensemble de l'Europe concerne également les zones comprises au-delà du cercle arctique. La Norvège connaît ainsi des records de chaleur sur ses rivages septentrionaux. Dans la nuit de mardi à mercredi, le " soleil de minuit " a permis d'enregistrer une température de 11 °C sur l'archipel de Spitzberg.

Reuters : http://fr.news.yahoo.com/030814/85/3cmp3.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un remède traditionnel chinois anti-paludéen révèle ses secrets
Samedi, 06/09/2003 - 00:00

Des scientifiques anglais sont parvenus à percer à jour les secrets d'un vieux remède chinois, particulièrement efficace dans la lutte contre le paludisme et qui pourrait constituer une arme efficace pour vaincre les résistances apparues dans le traitement de cette maladie.Les scientifiques se penchent en effet avec intérêt depuis des années sur les vertus de l'artemisine, un composant de Artemisia annua (qing hao), une herbe traditionnelle chinoise. L'artemisine est considérée comme un puissant anti-paludéen, alors que les résistances aux traitements classiques comme la chloroquine se développent de plus en plus, notamment en Afrique. Sanjeev Krishna, de la Faculté de médecine de l'hôpital Saint-George, à Londres, et ses collègues ont découvert le mécanisme qui permet à ce traitement traditionnel de faire face à un fléau qui fait près d'un million de morts par an dans le monde. L'histoire de ce traitement qui remonte à la nuit des temps commence en 340 (après JC), lorsqu'un scribe taoïste rédige un "Manuel de traitements d'urgence", donnant notamment la recette d'une infusion pour combattre la fièvre, à base d'artémise, une plante aromatique. Quelque douze siècles plus tard, un sage du nom de Li Shizen comprend que ce remède peut être utilisé contre les symptômes du paludisme et l'inclut dans un recueil qui fera date dans l'histoire de la médecine chinoise. Ce n'est qu'en 1972 que des scientifiques chinois commencent à s'intéresser à ce remède traditionnel. Ils en extraient le composant actif et le baptisent artemisine. Restait à comprendre le fonctionnement de ce composant. Jusqu'à présent, on pensait que lorsque cette substance entre en contact avec le parasite du paludisme, elle libère des radicaux libres qui vont à leur tour attaquer et briser la membrane cellulaire du parasite. Mais, selon les chercheurs britanniques, le mécanisme impliqué serait très différent et trés sophistiqué. L'artemisine agit en fait en bloquant l'action d'une enzyme (PfATP6) essentielle pour pomper le calcium de et vers les cellules du parasite. Toutes les cellules complexes ont besoin de ces pompes pour leur moteur moléculaire. L'équipe de Sanjeev Krishna a d'abord infecté des oeufs de grenouille qu'ils ont exposés ensuite parallèlement à l'artemisine, puis à une substance conventionnelle. Leur conclusion est que l'enzyme PfATP6 n'agit que sur le parasite du paludisme en bloquant sa pompe à calcium. Cette découverte, si elle est confirmée par des preuves biochimiques au-delà de la simple observation scientifique, ouvrirait de nouvelles pistes pour la lutte contre le paludisme, moins sensibles aux mutations du parasite qui sont à l'origine des résistances apparues dans de nombreuses régions.

BBC : http://news.bbc.co.uk/1/hi/health/3168519.stm

Nouvel angle d'attaque contre le cancer
Samedi, 06/09/2003 - 00:00

Le Dr Jean-Philippe Gratton, un chercheur de l'Institut de recherches cliniques de Montréal, a eu l'idée à première vue surprenante d'utiliser une molécule aux propriétés anti-inflammatoires, le cavtratin, pour traiter le cancer. Le cavtratin n'a pas complètement stoppé le développement des tumeurs chez les souris auxquelles il l'a administré, mais il en a ralentit la progression de 50%. Les tumeurs cancéreuses et les tissus en proie à l'inflammation ont en effet une caractéristique en commun : la perméabilité des vaisseaux sanguins qui les irriguent. On savait déjà que les vaisseaux sanguins des tumeurs sont 3 à 5 fois plus perméables que les tissus sains, laissant ainsi s'échapper de grosses molécules. Ces grosses molécules, surtout des protéines, aident probablement la tumeur à grossir en lui fournissant un support pour s'étendre. Les tissus sains, sans être totalement étanches pour permettre certains échanges moléculaires essentiels, sont tout de même beaucoup plus imperméables. L'expérience menée par le Dr Gratton et l'équipe de l'Université Yale prouve que la perméabilité des vaisseaux a un lien avec la croissance des tumeurs. C'est en effet en rendant aux vaisseaux sanguins leur imperméabilité que le cavtratin agit. Plus spécifiquement, il stoppe la synthèse de l'oxyde nitrique (NO) dans la tumeur, une substance nécessaire dans la cascade d'événements moléculaires rendant les vaisseaux perméables. Les résultats de ces travaux, publiés dans l'édition courante de Cancer Cell, ouvrent la voie à un nouvel angle d'attaque très peu étudié jusqu'à maintenant dans la lutte contre le cancer.

Cybersciences :

http://www.cybersciences.com/Cyber/3.0/N3266.asp

L'aspirine, nouvelle arme contre le cancer ?
Samedi, 06/09/2003 - 00:00

L'aspirine serait-elle une nouvelle arme contre certaines certaines formes rares de cancer? C'est ce que pensent des chercheurs néerlandais qui projettent de tester le plus célèbre des antalgiques après avoir observé sa capacité à détruire certaines cellules cancéreuses. Cette recherche menée par l'Institut nééerlandais du cancer d'Amsterdam, dont les détails sont publiés jeudi dans la revue scientifique "Nature", clot une série d'études destinées à mettre en évidence les propriétés anticancéreuses de l'aspirine et d'autres anti-inflammatoires. Toutefois, pour bon nombre de chercheurs qui ne participent pas à ces expériences, la recherche sur l'aspirine n'en est qu'à ses débuts. Selon eux, de nombreuses facettes de cet effet potentiellement anticancéreux doivent encore être explorées, notamment le dosage nécessaire et les effets secondaires. Pour le grand public, "il n'y a aucune raison de commencer un traitement à l'aspirine ou d'augmenter la dose, uniquement à partir des résultats de cette étude", estime pour sa part le biochimiste Keith Wilkinson, de l'Université Emory, qui a analysé ces travaux pour le compte du journal scientifique. Les scientifiques néerlandais ont ciblé le cylindromatosis, une anomalie génétique qui favorise la croissance de tumeurs bénignes dans les follicules pileux du cuir chevelu et dans les cellules des glandes sudoripares. Sans la présence du gène suppresseur de tumeur classique, le CYLD, il manque aux cellules l'instruction biochimique leur intimant l'ordre de mourir quand elles sont vieilles ou endommagées. A la place, elles se développent de façon anarchique, devenant potentiellement cancéreuses. Pour tester les effets de l'aspirine sur ce phénomène, les chercheurs ont mis en culture des cellules humaines et désactivé leur gène CYLD, de manière à simuler la maladie. Puis, ils ont ajouté aux cultures cellulaires différents agents anti-inflammatoires, notamment du salicyate de sodium, une forme d'aspirine. Selon leurs observations, les agents semblent avoir stimulé les mêmes circuits que les protéines habituellement codées par le gène CYLD. La mort cellulaire naturelle et la suppression des tumeurs ont pu être rétablies. "En rétablissant la connexion entre ce gène et la mort cellulaire, il nous est apparu clairement quelle était la cause de la maladie", explique Rene Bernards, premier auteur de l'étude publiée dans "Nature". Toutefois, "on ne sait pas si l'anomalie de CYLD est responsable d'autres cancers", ajoute-t-il. "Si c'était le cas, l'aspirine pourrait aussi être utile dans ces autres formes."

AP : http://fr.news.yahoo.com/030813/5/3cjzk.html

Vers un vaccin contre la leucémie
Samedi, 06/09/2003 - 00:00

Un vaccin contre le myélome multiple est actuellement en cours de développement au sein de la clinique universitaire de Heidelberg. Il devrait éviter aux patients des thérapies contraignantes et aux effets secondaires lourds comme la chimiothérapie, les rayons ou la transplantation de cellules souches. Le vaccin stimule les lymphocytes tueurs par le biais d'une protéine, gp96. Dans un première phase du projet, les chercheurs s'attachent a faire se développer en culture cellulaire des lymphocytes tueurs actifs contre les cellules de myélome, a l'aide du vaccin. Le principe de ce vaccin est simple, il utilise des protéines immunogènes présentes dans la cellule cancéreuse pour provoquer une réponse immunitaire. Ces protéines immunogènes induisent la production de cellules sanguines capables de détruire les cellules malignes. Il s'agit ici de protéines de choc thermique, que l'on trouve dans le milieu interne des cellules du myélome. Le choix des chercheurs s'est porte sur la protéine gp96. Pour pouvoir l'isoler des cellules malignes, ils ont synthétise a l'aide du génie génétique un anticorps anti gp96. La stratégie thérapeutique consiste a isoler la protéine gp96 a partir des cellules de myélome prélevées dans la moelle osseuse du patient, puis de la lui réinjecter. Les tests cliniques devraient débuter dans un délai de deux a trois ans. Dans cet intervalle, les scientifiques espèrent renforcer l'effet du vaccin en associant la protéine gp96 a des cellules dendritiques prélevées chez le patient.

BE Allemagne : http://www.be.adit.fr

Une protéine protectrice naturelle contre Alzheimer ?
Samedi, 06/09/2003 - 00:00

Certains troubles neurodégénératifs pourraient être évités grâce à une protéine naturelle, révèlent de nouveaux résultats expérimentaux. Dans la revue Nature, des chercheurs américains rapportent que l'inactivation du gène Pin1 chez des souris conduit à l'apparition de signes caractéristiques des maladies neurodégénératives. Kun Ping Lu (Harvard Medical School) et ses collaborateurs ont analysé le comportement et le cerveau de souris chez lesquelles Pin1 était inactivé. En vieillissant, ces souris ont présenté des problèmes de coordination et d'équilibre. Des enchevêtrements protéiques anormaux ont été observés dans le cerveau, ainsi que la mort de neurones. Les patients atteints de maladie d'Alzheimer présentent par exemple des caractéristiques proches. D'une façon plus générale, Pin1 se révèle donc un outil prometteur pour l'étude de l'ensemble des maladies neurodégénératives.

Nature : http://www.nature.com/nsu/030728/030728-6.html

La condition physique des femmes s'est dégradée depuis 50 ans
Samedi, 06/09/2003 - 00:00

Les femmes étaient en bien meilleure forme physique il y a 50 ans parce qu'elles faisaient davantage de travaux ménagers, affirme une étude publiée en Grande-Bretagne par le magazine féminin Prima. Les rudes tâches ménagères qui étaient alors le lot quotidien de la plupart des femmes étaient bien plus efficaces pour perdre du poids que les méthodes modernes de régime ou les séances au club de gym, selon cette étude. Les femmes des années 50 passaient en moyenne trois heures par jour à s'occuper de l'entretien de la maison et marchaient jusqu'à une heure pour faire leurs courses, brûlant plus de deux fois plus de calories qu'une femme moderne. L'étude comparant le mode de vie des femmes de 1953 et d'aujourd'hui a montré que la femme moderne consomme davantage de calories et en brûle moins. En 1953, une femme dépensait en moyenne 1.512 calories par jour par ses activités physiques, contre 556 aujourd'hui. A l'opposé, la femme moderne consomme 2.178 calories par jour, contre 1.818 à l'époque. Cette différence s'explique en partie par le fait que les tâches ménagères comme la lessive ou la cuisine étaient plus difficiles dans les années 50 sans l'aide de l'électroménager moderne, expliquent les auteurs de l'étude. Les repas, de leur côté, étaient plus équilibrés il y a un demi-siècle, avec notamment plus de légumes et moins d'aliments sucrés ou gras. Pour autant, sept femmes modernes sur dix estiment qu'elles prennent mieux soin de leur forme physique que leurs mères ou grand-mères, notamment en suivant des régimes amincissants ou en fréquentant des clubs de sport. "L'obésité s'est envolée ces 50 dernières années", a commenté la rédactrice en chef de Prima, Marie Fahey. "Ceci indique que la technologie moderne a diminué notre activité de deux tiers" par rapport à cette époque, selon elle.

BBC : http://news.bbc.co.uk/1/hi/health/3125181.stm

Des éponges de mer pourraient révolutionner les transmissions optiques
Samedi, 06/09/2003 - 00:00

Décidemment la nature reste un modèle insurpassable en matière d'efficacité et d'ingéniosité technologique. Des scientifiques américains affirment avoir transmis un flux lumineux à travers les filaments d'une éponge aux propriétés supérieures à celles des fibres optiques actuelles. Une découverte susceptible de révolutionner la transmission de données sur les réseaux, assurent ses auteurs. «Nous croyons que cette nouvelle fibre met en avant un procédé d'inspiration biologique, qui peut améliorer les matériaux utilisés dans les réseaux optiques», explique Joanna Aizenberg - la scientifique qui a mené l'équipe de recherches au sein des laboratoires Bell Labs de l'équipementier américain Lucent Technologies. «Mère nature possède une étonnante capacité de perfectionner certains matériaux», poursuit-elle. «Plus nous étudions les organismes biologiques et plus nous réalisons combien nous pouvons apprendre d'eux». Joanna Aizenberg souligne les propriétés étonnantes des filaments ultrafins qui composent le corps de l'éponge et répondent au nom latin d'Euplectella aspergillum (surnommée en anglais "Venus flower basket"), qui vit dans les profondeurs de la mer des Caraïbes. Le premier avantage des fibres biologiques de cette éponge est son extrême flexibilité. Tordues dans tous les sens elles ne cassent pas, contrairement aux fibres optiques actuelles, explique l'équipe de recherche de Bell Labs. Second atout: le mode de fabrication des fibres. L'Euplectella aspergillum produit ses fibres par dépôts de sodium, le tout réalisé bien entendu à la température de l'eau de mer. Or «les fibres optiques actuelles sont produites à très haute température via des équipements très chers», indique Joanna Aizenberg. Des scientifiques américains affirment avoir transmis un flux lumineux à travers les filaments d'une éponge aux propriétés supérieures à celles des fibres optiques actuelles. Une découverte susceptible de révolutionner la transmission de données sur les réseaux.

Bell Labs : http://www.lucent.com/press/0803/030821.bla.html

BBC : http://news.bbc.co.uk/1/hi/sci/tech/3168353.stm

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Les Islandais et les Françaises vivent le plus longtemps en Europe
Samedi, 06/09/2003 - 00:00

Les hommes en Islande et les femmes en France ont la plus longue espérance de vie en Europe occidentale, selon des chiffres publiés vendredi par l'Office fédéral allemand des statistiques, Destatis. D'après les statistiques de mortalité 1999/2001, l'espérance de vie des Islandais s'établit à 78 ans et celle des Françaises à 83 ans, constituant les valeurs les plus élevées dans chacun des deux sexes en Europe occidentale, a précisé à l'AFP un responsable de l'Office. L'espérance de vie moyenne dans l'Union européenne est de 75,3 ans pour les hommes et de 81,4 ans pour les femmes, selon les dernières statistiques disponibles, en 2000, a-t-il ajouté. L'Allemagne est légèrement en dessous de cette moyenne, les hommes ayant une espérance de vie de 75,1 ans et les femmes de 80,8 ans. Les Français vivent en moyenne jusqu'à 75,5 ans. Les lanternes rouges en Europe occidentale sont les Danois avec une espérance de vie de 74,3 ans pour les hommes et les Irlandaises avec 78,5 ans.

AFP : http://www.caducee.net/afp/edit.asp?id_depeche=16846

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top