RTFlash

RTFLASH Recherche & Technologie
NUMERO 369
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Janvier 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet, moteur de l'équipement informatique des Français
WiFi : le standard WiFi 802.11n finalisé et approuvé
Une fibre optique en plastique
Un nanotube de carbone et une molécule unis pour créer un nouveau transistor
Avenir
Des patrouilles de robots pour garder les immeubles japonais
Matière
La Grande Bretagne mise sur l'énergie des océans
Espace
Le Japon affirme ses ambitions spatiales
Terre
2005 : année la plus chaude depuis un siècle
La France maintient ses émissions de gaz à effet de serre sous leur niveau de 1990
Vivant
Pas de lien entre téléphone portable et tumeur du cerveau
L'activité physique diminue le risque de cancer du sein
Découverte d'un gène lié au diabète de type 2
L'aspirine réduit les risques cardiovasculaires chez les deux sexes
Un synchronisateur cardiaque implantable
La génomique contre les infections nosocomiales
Des micro-cubes qui s'auto-assemblent pour la thérapie cellulaire
L'exercice régulier pourrait retarder le début de la maladie d'Alzheimer
Dépression : 30 minutes d'exercice pour se remonter le moral
Un goût inné pour la géométrie
Un nouveau venu dans le traitement des douleurs rebelles
Homme
Japon : un grand magasin équipe ses clients de badges électroniques
Edito
Le très haut débit par fibre optique jusqu'au domicile va enfin devenir une réalité



Le moins que l'on puisse dire est qu'en ce début d'année 2006, les choses s'accélèrent en matière de très haut débit optique. Quelques semaines à peine après la décision du Conseil Général des Hauts-de-Seine de se doter, à l'instar de Pau, d'un réseau de fibre optique allant de 100 mégabits par seconde à 1 ou 2 gigabits par endroits, la ville de Paris, par la voix de son Maire, Bertrand Delanoë, a annoncé qu'elle allait se doter de son propre réseau à très haut débit en fibre optique jusqu'à l'habitant et lancer très rapidement un appel d'offres dans ce sens.

Mais l'annonce la plus importante est intervenue le 17 janvier dernier quand France Télécom a annoncé qu'il allait abandonner le VDSL (une technologie hybride qui combine la fibre optique et la paire de cuivre) et se concentrer sur la fibre optique reliée directement chez l'abonné. Ce déploiement financièrement lourd se fera à mesure que les usages se développeront. Didier Lombard, P-DG de France Télécom a décidé de miser sur la fibre optique déployée jusqu'à l'abonné (baptisée FTTH, pour Fiber to the Home) pour répondre aux besoins croissants de ses clients en débit. France Telecom explique qu'à court terme "la qualité de réseau de cuivre France Telecom et la maîtrise des technologies DSL permettent de satisfaire les usages du Haut Débit" mais qu'à "l'horizon de quelques années, les besoins en débit vont continuer à croître fortement". Mais pas question «de faire basculer du jour au lendemain des millions de prises», prévient le patron de FT. La première étape de cette orientation stratégique débutera dans un premier temps avec le lancement d'un projet pilote d'accès «très haut débit» (100 Mbits/s) d'ici juin 2006. Mille foyers seront sélectionnés à Paris et dans six villes des Hauts-de-Seine dont Issy-les-Moulineaux, Boulogne, Rueil Malmaison, Asnières et Villeneuve la Garenne.

Pour participer, chaque foyer devra souscrire un abonnement à 80 euros par mois. Outre l'accès très haut débit, ils bénéficieront pour cette somme d'un service de téléphonie illimitée (VoIP), de la télévision haute définition, ainsi que de tous les services liés au boîtier Livebox de Wanadoo. Les clients du pilote se verront également proposer un grand nombre de services innovants à tester. A l'issue de cette première phase d'expérimentation, France Télécom pourra étendre, à horizon 2007, des pilotes dans d'autres agglomérations en France.

Cette solution FTTH a été retenue pour succéder aux différentes technologies xDSL qui plafonnent désormais à 30 Mbits/s (débit théorique) pour l'ADSL 2+. Au passage, FT choisit de faire l'impasse sur un déploiement à grande échelle de technologie VDSL2 (Very High Rate DSL 2 ou ligne numérique d'abonné à très haut débit version 2), qu'il testait en laboratoire depuis l'automne dernier. «Nous arrivons au bout des capacités de la paire de cuivre», explique Didier Lombard. «Il ne serait pas raisonnable d'engager des investissements sur une technologie, le VDSL 2, dont je sais qu'elle ne va durer que deux ou trois ans». Car ensuite, selon ses prévisions, les usages de ses clients vont nécessiter des débits plus élevés, qui rendront le passage à la fibre optique incontournable.

Pour l'opérateur, l'objectif est bien d'avoir un jour de la fibre optique dans tous les foyers, même dans les zones rurales. D'autres pays se sont déjà convertis à la fibre optique de bout en bout. La Corée du Sud y a recours pour connecter immeubles et domiciles. Au Japon, près de 4 millions d'abonnés sont aujourd'hui raccordés par FTTH (Fiber To The Home, soit la fibre jusqu'au domicile de l'abonné). Mais, en Europe, aucun opérateur historique n'a encore déployé cette technologie sur une large échelle.

Avec cette annonce de France Télécom, Il est intéressant de constater que l'idée, longtemps considérée comme saugrenue et irréaliste, d'amener la fibre optique jusqu'aux habitations, fait peu à peu son chemin. Le Ministère de l'Industrie a confié à l'Idate une mission de réflexion prospective sur les technologies de l'après ADSL qui pourraient permettre à la France d'accélérer sa mutation vers le très haut débit, c'est-à-dire au moins 100 Mbit/s symétrique. L'Idate devrait rendre ses conclusions, très attendues, au printemps 2006. De son côté, le Syndicat professionnel des fabricants de fils et câbles électriques (Sycabel), a publié un Livre blanc très intéressant dans lequel il préconise une politique ambitieuse et volontaire des pouvoirs publics en matière d'aménagement numérique du territoire et notamment le développement massif du FTTH, c'est-à-dire de la fibre optique jusqu'au domicile.

Ce livre blanc préconise le recours à la fibre optique pour faire passer la France au très haut débit et en s'appuyant sur le fait qu'aujourd'hui l'ADSL arrive à ses limites en terme de débit. L'ADSL2 permet certes, à quelques centaines de milliers de citadins privilégiés de bénéficier (en voie descendante) de 24 Mbits/s mais cette technologie ne fonctionne qu'à moins d'1,5 Km du central téléphonique. Autant dire qu'il n'y a aucune chance qu'une majorité de nos concitoyens puissent rapidement en bénéficier.

Aujourd'hui, en dépit des progrès réalisés, seuls ceux demeurant à moins de 8 km d'un central téléphonique peuvent accéder à l'ADSL. Le problème majeur inhérent à l'ADSL est qu'avec les fils de cuivre du téléphone, le débit décroît très vite en fonction de l'éloignement. Or la distance moyenne d'un foyer français par rapport au central téléphonique est à ce jour de 2,7 kilomètres. Soit, en gros, du 4 Mbit/s. C'est insuffisant pour un certain nombre d'applications, notamment pour la télévision haute définition. Car le palier de ce genre de service s'établit à 10 Mbit/s.

Et ce n'est qu'un début car très rapidement nos concitoyens vont vouloir disposer du "quadruple play", incluant l'Internet très haut débit, la TVHD, le téléphone fixe, le mobile à très haut débit supportant les applications vidéo et visiophonie. Mais pour que toutes ces nouvelles applications fonctionnent simultanément à pleine puissance, le débit requis est d'au moins 60 Mbit/s ! Nous sommes donc très loin des 24 Mbits/s de l'ADSL2 et encore plus loin des quelques Mbits/s dont doivent encore se contenter aujourd'hui la majorité des internautes.

Partant de ce constat, et de l'augmentation rapide inéluctable des besoins en bande passante, liée à la multiplication et à l'intégration des nouveaux usages numériques, notamment en télétravail, télémédecine et télééducation, France Télécom a fait le choix de l'avenir qui consiste à sauter l'étape VDSL et passer directement à la fibre optique jusqu'à l'abonné (fiber to the home, FTTH), comme au Japon ou en Suède.

La fibre optique a longtemps eu la réputation d'être une technologie très coûteuse. Mais depuis 10 ans, le prix de la fibre optique a été divisé par dix. En outre, dans une infrastructure optique, la fibre ne représente que 10 % de l'investissement total. Le reste est constitué par le génie civil. Pour le cuivre ou la fibre, les coûts des équipements de réseau sont similaires, tout comme les dépenses de génie civil. Au final, on arrive à des coûts identiques pour la fibre, quand il n'y a pas d'infrastructures préexistantes. A cet égard, nous devons nous inspirer de l'exemple de la Suède et de la Finlande qui ont su, grâce à de nouvelles formes de partenariat public-privé et à une politique volontariste et ambitieuse de l'Etat, développer des réseaux optiques jusqu'à l'habitant non seulement dans les villes mais aussi en milieu rural.

Si l'on considère donc le point d'évolution techno-économique auquel notre pays est parvenu, (un foyer sur deux possède un ordinateur et quatre foyers sur 10 sont connectés à l'Internet haut débit) je crois qu'il est légitime de se demander si l'Etat, en synergie avec les collectivités locales, ne devrait pas mettre en oeuvre un plan ambitieux visant à amener la fibre optique dans chaque foyer. Outre son débit, trois raisons me semblent plaider pour un tel plan.

-* D'abord la réserve de bande passante. Contrairement aux technologies sur cuivre, pour lesquelles le débit est physiquement limité et décroît très rapidement avec la distance, les possibilités d'accroissement de débit sur les fibres actuelles sont phénoménales et sans comparaison avec toute autre technologie. Selon différentes expérimentations réalisées depuis 5 ans, on est aujourd'hui certain de pouvoir multiplier par 1000 au moins le débit des fibres optiques existantes ! Grâce au multiplexage en longueur d'onde (WDM), l'augmentation de la capacité par fibre est de 120 % par an alors qu'elle était auparavant de l'ordre de 35 % par an. Cette évolution contribue de façon décisive à la baisse continue du coût du bit/s transmis observée depuis 1996, soit 40 % par an.

-* La deuxième raison est liée à la sécurité des transmissions optiques, infiniment plus sûres que les transmissions hertziennes, surtout avec l'avènement prochain de la cryptographie quantique.

-* La troisième raison tient au fait, qu'à terme, la photonique et l'ordinateur optique remplaceront l'électronique et l'informatique actuelles en raison des gains fantastiques en rapidité et en puissance de calcul que nous laissent entrevoir ces technologies optiques.

Dans cette perspective, il parait logique de favoriser et de promouvoir ce basculement technologique vers un continuum numérique tout optique, du stockage au traitement, en passant par la transmission de l'information. Cela est d'autant plus vrai que l'arrivée d'un nouveau type de fibre optique haute performance en plastique devrait rendre encore plus facile et moins coûteux le câblage optique des immeubles (Voir article dans la rubrique « Information&Communication »). Pour toutes ces raisons, notre pays doit, s'il veut rester dans la complétion numérique mondiale, se donner les moyens d'accélérer sa mutation technologique de l'électron vers le photon.

On comprend mieux l'importance de ce défi quand on sait qu'au Japon, la connexion en fibre optique dépassera en 2008 l'ADSL avec 35 % de parts de marché et dominera l'accès Internet dans ce pays. 50 % des foyers japonais auront leur accès par fibre optique jusqu'à la maison d'ici 2010 avec un débit de 1 gigabits/s. Dès aujourd'hui, NTT installe 15.000 foyers/jour actuellement et propose un débit de 100 Mbits symétrique pour 45 ? par mois.

Plus près de nous, la Suède, faisant preuve d'un grand volontarisme politique, a décidé il y a presque 10 ans de câbler ses 290 collectivités locales en fibre optique, moyennant 9 milliards d'euros. Aujourd'hui, toutes les villes de Suède sont reliées par une boucle optique et la plupart des foyers à Stockholm peuvent obtenir une connexion à un gigabits, grâce au FTTH.

Mais l'état suédois, soucieux d'égalité numérique, n'a pas oublié les zones rurales. Bränland, dans le Nord de la Suède, qui ne compte que 21 foyers répartis dans une zone de 3 kilomètres de large, a quand même installé son réseau en fibre optique (FTTH) grâce au financement de l'Etat suédois.

Quant au coût d'un tel réseau optique, il est beaucoup moins prohibitif qu'on ne l'imagine, 8?/mètre pour l'enfouissement en micro-tranchée. La technologie retenue est celle de la fibre optique soufflée dans les fourreaux (technologie de la société Emtelle). Au total, le raccordement d'un foyer de Bränland revient à 900 ?.

Amener à tous les foyers français l'Internet à très haut débit par fibre optique coûterait environ 30 milliards d'euros. Cette somme peut sembler énorme mais elle ne représente pourtant qu'à peine 2 % de notre PIB annuel, ou encore 500 Km d'autoroutes. Cet investissement national serait un vrai choix d'avenir et donnerait à notre pays les moyens de prendre la tête de la compétition numérique mondiale. Je forme le voeu qu'à l'occasion des prochaines élections présidentielles de 2007, ce projet fasse l'objet d'un grand débat démocratique et figure en bonne place dans les programmes des principaux candidats en tant qu'objectif prioritaire à réaliser au cours du prochain mandat présidentiel.

Si vous disposez de quelques minutes, je vous invite à relire deux de mes « éditos », celui du 6 Mai 2000 intitulé « Hauts débits : cessons les combats d'arrière-garde » et celui du 22 Mars 2003 « Hauts débits : dans une décennie, chacun aura besoin de plus de 100 mégabits. Leur lecture est édifiante.

Pour conclure, je voudrais adresser au nouveau Président de France Télécom, Monsieur Didier Lombard, mes plus sincères félicitations pour avoir eu le courage et la volonté de prendre cette décision historique du FTTH pour le plus grand nombre. C'est une réelle rupture culturelle et technologique mais seule cette voie permettra de relever le Défi du Futur : celui qui permettra à tous les Français d'être « hyperconnectés » au reste du monde. Grâce à la décision capitale qui vient d'être prise par France Télécom, les Français pourront disposer, demain, d'un signal de qualité. C'est une merveilleuse nouvelle pour La France.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Internet, moteur de l'équipement informatique des Français
Mercredi, 11/01/2006 - 00:00

Les Français rattrapent leur retard en informatique. Un foyer sur deux est équipé d'un ordinateur, soit cinq points de mieux qu'il y a un an, selon l'enquête annuelle de l'institut GfK réalisée en partenariat avec le magazine SVM. Mieux, 38 % de ceux qui ne sont pas équipés envisagent l'achat d'un ordinateur à terme. Pour eux, l'acquisition est retardée pour des raisons de prix (46%), malgré les baisses « considérables » en 2005, puis d'utilité (41%) et de complexité (20 %).

Cité par 81 % des foyers, Internet se révèle être la principale motivation d'achat et la principale occupation devant un ordinateur, loin devant la rédaction de courriers (57%), le traitement de texte (34 %) et le jeu (33 %). Pas étonnant, alors, que le nombre de connexions s'envole en France. Deux foyers sur cinq sont connectés (9,8 millions), autant dans les grandes villes qu'à la campagne, les trois quarts en haut débit (7,3 millions). Fait nouveau, deux tiers de ces abonnés haut débit ont souscrit à une offre de téléphonie illimitée et 16 % à une offre de télévision. Chez ceux qui sont toujours chez France Télécom, près de la moitié (47 %) seraient prêts à quitter l'opérateur pour un alternatif.

Expansion

WiFi : le standard WiFi 802.11n finalisé et approuvé
Mercredi, 11/01/2006 - 00:00

Après quelques tribulations, le standard WiFi 802.11n est enfin adopté par le groupe industriel IEEE (Institute of Electrical and Electronics Engineers). Sous le soleil de Hawaï, les représentants des membres du groupe ont approuvé la prochaine génération de réseau sans fil. Le réseau WiFi 802.11 va permettre des débits de transfert de données bien supérieurs à ce que permet l'actuelle norme 802.11g. Le standard intègre la technologie MIMO (multiple-in, multiple-out) qui permet de paralléliser les communications sans fil sur plusieurs antennes à la fois.

Ce MIMO est déjà utilisé actuellement par certains routeurs WiFi haut de gamme. Il offre une meilleure réception, un meilleur débit, et une plus grande réactivité du réseau en optimisant l'allocation des communications sur les différentes antennes et récepteurs parallèles. Il sera par exemple possible d'assurer la transmission d'un flux audio-vidéo sans interruption, et ce à gros débit même si d'autres activités utilisent le réseau. Les transferts sont manuellement ou automatiquement répartis en fonction de leur priorité. Ajoutons enfin que le 802.11n sera évidement compatible avec toutes les précédentes normes WiFi 802.11a/b/g. Pour les débits précis, les prévisions tournent autour de 125 Mbit/s théoriques par antenne disponible et le débit devrait atteindre 500 Mbit/s sur quatre antennes.

Clubic

Une fibre optique en plastique
Mercredi, 11/01/2006 - 00:00

Fuji Photo Film a présenté une nouvelle fibre optique haute performance au Tokyo Fiber Optics Expo 2006, qui s'est déroulé du 18 au 20 janvier. Les fibres optiques sont traditionnellement faites en verre, mais la faible flexibilité de ce matériau rend leur installation difficile dans les immeubles, privant ainsi de nombreux internautes d'une connexion très haut debit dite "FTTH" (fiber to the home). Du fait de leur conversion d'un signal optique en un signal électrique, les données se voient contraintes de passer par un goulot d'étranglement juste avant d'atteindre leur destination finale, réduisant fortement le debit de la connexion.

La nouvelle fibre optique en résine acrylique devrait permettre de résoudre ce problème. En effet, celle-ci étant suffisamment flexible pour rester opérationnelle même lorsque son rayon de courbure est de 1 centimètre, son installation n'est pas plus difficile que celle d'un câble électrique. De plus, elle possède un des débits les plus élevés à ce jour : 10,3 Gbits/s. Ses diamètres extérieur et intérieur sont respectivement de 500 et 120 micromètres. La perte de signal mesurée est inférieure à 100 dB/km. Au Japon, environ 20 % des internautes possèdent déjà une connexion FTTH, dont le debit est de 100Mbits/s.

BE Japon

Un nanotube de carbone et une molécule unis pour créer un nouveau transistor
Mercredi, 11/01/2006 - 00:00

Les chercheurs de l'Université Columbia sont parvenus à associer un nanotube de carbone à une molécule organique, créant ce qu'ils appellent le premier transistor hybride moléculaire/nanotube de carbone. Le dispositif expérimental a activé la réaction chimique dans une molécule organique spécifique de l'application exploitée par la mobilité de porteuse élevée des nanotubes de carbone.

« Nous avons atteint une sorte de pierre angulaire en étant capables de monter un transistor ultrapetit dans lequel nous avons couplé des nanotubes de carbone à des molécules organiques », explique Shalom Wind, chercheur à l'Université Columbia (New York). « Nous prenons actuellement les meilleures propriétés des deux, et nous les optimisons de façon à pouvoir les combiner dans un seul commutateur. »

Les transistors moléculaires de Columbia ont utilisé un nanotube de carbone comme le canal de transistor. Les chercheurs ont découpé le nanotube et inséré une molécule organique spécifique de l'application pour fonctionnaliser le transistor moléculaire résultant, laissant aux nanotubes le rôle d'électrodes source (et déversoir). « Les transistors moléculaires représentent le summum de la mise à l'échelle, nous devons donc les comprendre », ajoute M. Wind. « La croissance de nos nanotubes a eu lieu sur le substrat, puis nous avons créé un espace et inséré les molécules organiques qui présentent leurs propres propriétés spéciales, leur permettant d'être utilisées, par exemple, comme des capteurs. »

Les chercheurs sont parvenus avec succès à insérer plusieurs types différents de molécules organiques. Ils ont publié des résultats de test détaillés pour une molécule organique spécifique de l'application qui changeait sa conductivité en réponse au pH. Cela a permis au transistor moléculaire d'agir comme un capteur de pH. Les chercheurs ont utilisé comme technique d'insertion une lithographie à la nanoéchelle et un procédé d'oxydation qui préparait les extrémités incisées du nanotube pour un soudage chimique à la molécule insérée. En s'assurant que l'espace coupé dans le nanotube était de taille similaire à la molécule à insérer, les chercheurs ont été capables de coupler les extrémités du nanotube à une seule molécule organique.

EET

^ Haut
Avenir
Nanotechnologies et Robotique
Des patrouilles de robots pour garder les immeubles japonais
Mercredi, 11/01/2006 - 00:00

Les robots pourraient bientôt patrouiller au Japon dans les bureaux, les centres commerciaux et les banques pour assurer la sécurité des bâtiments et du personnel et maintenir les intrus à l'écart. La firme japonaise de sécurité Sohgo Security Services Co. a mis au point "Guardrobo D1", un robot de 109 centimètres, équipé d'une caméra et de capteurs, capable de patrouiller sur des zones préprogrammées et de détecter les signes d'une agitation. En cas d'alerte, le robot communiquera par radio avec les gardes humains et leur enverra le cas échéant les images des intrus, de l'incendie ou de l'inondation. Il peut également être capable de maîtriser un début d'incendie. Le prix du robot Guardrobo D1, qui devrait être commercialisé dans moins d'un an, n'a pas encore été fixé.

LM

^ Haut
Matière
Matière et Energie
La Grande Bretagne mise sur l'énergie des océans
Mercredi, 11/01/2006 - 00:00

Il y a eu l'usine marémotrice de la Rance, ouverte il y a tout juste quarante ans près de Dinard (Ille-et-Vilaine), et qui reste la plus grande installation de ce type au monde (240 MW). Et puis plus rien, ou presque, en France, pour capter l'énergie des océans. Mais la hausse du prix des hydrocarbures et les engagements de réduction des émissions de gaz à effet de serre pourraient changer la donne, ainsi que certains l'ont déjà compris. C'est le cas de la Grande-Bretagne, en pointe dans ce domaine, comme l'a montré un séminaire franco-britannique sur les énergies marines qui s'est tenu au Havre les 19 et 20 janvier. Outre-Manche, les projets pullulent. Serpents de mer articulés, prototypes de pédalos à hydrofoils immergés, hydroliennes ancrées au fond de l'eau ou montées sur des pieux, l'imagination des ingénieurs n'est guère bridée.

Et pour cause : en 2010, la Grande-Bretagne devra avoir réduit ses émissions de CO2 de 20 % par rapport à celles de 1990 et produire 10 % d'énergies renouvelables. Elle se donne donc les moyens de ses ambitions, a rappelé Sir John Holmes, ambassadeur de Grande-Bretagne à Paris : "Vingt-neuf millions d'euros ont été investis depuis 1999 dans des programmes d'énergie marine et un fonds de 61 millions d'euros sur trois ans est prévu pour des démonstrateurs." Toute une infrastructure se met en place, souvent inspirée de ce qui a déjà été fait dans l'éolien offshore, arrivé à maturité et dont les acteurs se diversifient. Un atlas des ressources de l'énergie marine a déjà été dressé. Dans les îles écossaises d'Orkney, un Centre européen d'énergie maritime (EMEC) a été créé pour permettre aux entreprises de tester leurs prototypes : des câbles électriques, reliés au réseau national, et des fibres optiques sont couplés à des bouées en mer pour mesurer les performances et le comportement des engins. "Il s'agit d'aider l'industrie à se mettre à l'eau et de définir des standards", explique Neil Kermode, son directeur.

Pelamis, sorte de serpent de mer articulé de 150 mètres de long et de 700 tonnes, d'une puissance de 750 kW, y a fait ses premières armes en 2004. Le premier tronçon d'une future ferme à vagues devrait être livré au printemps au Portugal. Et, pour le courant de marée, le projet SeaGen (1 MW) de Marine Current Turbines Ltd est proche de la commercialisation. Si, en France, EDF se contente d'études préliminaires, sa filiale britannique, EDF Energy, vient d'investir 3 millions d'euros dans SeaGen.

Face à ce volontarisme, la France, qui dispose pourtant d'importants moyens d'essai, fait pâle figure. "Les énergies marines ne sont pas des axes prioritaires dans le développement du renouvelable de l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe)", convient son représentant. Et le délégué interministériel au développement durable, Christian Brodhag, s'est d'emblée présenté "comme un facilitateur de projet, non un financeur". L'idée étant de créer un consortium recherche-industrie pour chercher des financements du côté de l'Agence de l'innovation industrielle.

Il est vrai que le secteur est encore dans l'enfance et que, outre les aspects réglementaires, environnementaux et les conflits d'usage de la mer qui ne manqueront pas de surgir, il reste nombre de questions scientifiques et technologiques à étudier. "Jusqu'ici, presque tous les projets se sont retrouvés par le fond, rappelle Alain Clément (Ecole centrale de Nantes, CNRS), père du projet Searev, un système de récupération de l'énergie des vagues constitué d'un flotteur et d'un volant d'inertie. Les technologies sont très différentes. La mer va arbitrer."

Le Monde

^ Haut
Espace
Espace et Cosmologie
Le Japon affirme ses ambitions spatiales
Mercredi, 11/01/2006 - 00:00

Le Japon a lancé sans encombre le 24 janvier sa fusée H-2A, un deuxième succès d'affilée qui conforte la volonté de Tokyo de capter une part du marché mondial des lancements de satellites commerciaux. Cette nouvelle mission de la H-2A, la première depuis près d'un an, visait à placer en orbite un puissant satellite d'observation terrestre japonais, ALOS. Après trois reports pour raisons techniques, la fusée a décollé à 10H33 locales (01H33 GMT) de la base de Tanegashima (sud du Japon), a précisé l'Agence d'exploration spatiale japonaise (JAXA). Comme prévu, la séparation du lanceur et du satellite a lieu à 10H49 locales (01H49 GMT) après une trajectoire parfaitement respectée. Le satellite d'observation terrestre avancé ALOS, surnommé "Daïchi" (Terre), s'est séparé de la fusée à une altitude d'environ 697 kilomètres pour rejoindre ultérieurement une orbite non-géostationnaire aux alentours de 691 km.

De son poste d'observation mobile, il fournira des données qui devraient notamment permettre d'établir une cartographie détaillée de l'ensemble de la Terre. Ces informations pourront aider à comprendre rapidement l'impact des catastrophes naturelles, selon la JAXA.

Programmé à l'origine fin 2005 mais repoussé en raison de diverses pannes détectées au dernier moment, le lancement de la H-2A F8 (8e modèle du programme) constituait un enjeu important pour l'avenir spatial du Japon qui n'a pas encore totalement démontré la fiabilité de son lanceur. Après une série de tirs réussis depuis mi-2001, la H-2A avait essuyé un retentissant échec fin 2003, provoquant sa destruction en vol et la perte de deux satellites, au moment même où la Chine célébrait le triomphe de son premier vol habité.

Il avait fallu plus d'un an à la JAXA pour analyser les causes du fiasco et relancer une fusée en février 2005. Un nouvel échec aurait signifié la mort pure et simple du programme H-2A. La jAXA a pris toutes les précautions pour la mission ALOS, préférant multiplier les reports plutôt que de prendre le risque d'un humiliant ratage. D'autant que l'Agence spatiale japonaise vient de subir un revers avec le demi-échec de la sonde "Hayabusa" (Faucon) qui devait récupérer des poussières d'astéroïde et les rapporter sur Terre en 2007 mais qui ne pourra au mieux rentrer qu'en 2010 à cause d'une panne de composants.

La JAXA espère néanmoins faire de sa H-2A un engin fiable et compétitif d'ici quelques années. Pour le moment, Arianespace détient près des trois quarts des lancements de satellites commerciaux nippons. La prochaine mission de la H-2A (F9) est pour le moment fixée au 15 février prochain. Elle devrait placer en orbite un satellite du ministère des Transports japonais, de l'Agence de météorologie et du Bureau de l'aviation civile, MTSAT-2, destiné à transmettre des données pour la météo et la gestion du trafic aérien.

JAXA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
2005 : année la plus chaude depuis un siècle
Mercredi, 11/01/2006 - 00:00

L'année 2005 a été la plus chaude depuis plus d'un siècle, d'après une analyse des températures relevées à la surface de la Terre publiée par une équipe de la NASA. Jusqu'à présent le record était détenu par l'année 1998, suivie par 2002, 2003 et 2004, en ordre décroissant. Les climatologues de l'Institut Goddard (GISS) soulignent que d'autres études placent 2005 en seconde position des années les plus chaudes depuis 1890, date des premiers relevés systématiques de températures. La différence vient du fait que l'analyse du GISS inclut l'Arctique, où l'année 2005 a été particulièrement chaude.

Fait notoire : l'année 1998 a été marqué par un phénomène El Niño très fort qui a contribué à la montée des températures cette année-là. Rien de similaire ne s'est produit en 2005. La tendance au réchauffement se confirme. Les cinq années les plus chaudes du siècle sont concentrées sur les huit dernières années, soulignent les chercheurs. Ils constatent que les températures ont augmenté de 0,6°C en trente ans et de 0,8°C sur un siècle.

GISS

La France maintient ses émissions de gaz à effet de serre sous leur niveau de 1990
Mercredi, 11/01/2006 - 00:00

Selon le protocole de Kyoto, la France ne devra pas dépasser en 2010 les niveaux d'émissions de gaz à effet de serre enregistrés en 1990. L'inventaire des émissions de 2004, rendu public, mardi 17 janvier, par la mission interministérielle de l'effet de serre (MIES), montre une diminution de 0,8 % par rapport à cette année de référence. D'une année sur l'autre, la stabilité est grande : les émissions ont été de 562,6 millions de tonnes équivalent CO2 en 2004, contre 561,1 millions en 2003. Mais, en 2002, elles n'étaient que de 556,1 millions. Ces chiffres, collectés par le Centre interprofessionnel technique d'études de la pollution atmosphérique (Citepa), masquent d'importantes disparités entre les secteurs d'activité. L'industrie manufacturière a diminué sa contribution de 21,6 % depuis 1990 ; l'énergie de 9,1 % ; l'agriculture/sylviculture de 10,5 % et le traitement des déchets de 8,5 %. En revanche, les transports l'ont accrue de 22,7 % et le bâtiment de 22,3 %.

Les transports restent le premier contributeur, avec 26 % des émissions - dont 57 % attribuables aux voitures particulières, 17 % aux véhicules utilitaires et 26 % aux poids lourds. Viennent ensuite l'industrie manufacturière (20 %), l'habitat, à égalité avec l'agriculture (19 %), l'énergie (13 %) et, enfin, le traitement des déchets (3 %).

Le Monde

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Pas de lien entre téléphone portable et tumeur du cerveau
Mercredi, 11/01/2006 - 00:00

Aucun lien ne peut être établi entre tumeur cérébrale et usage du téléphone portable, indique une étude britannique dans l'édition en ligne du British Medical Journal (BMJ). L'étude a été menée sur 966 Britanniques âgés de 18 à 69 ans, se servant régulièrement d'un téléphone portable et ayant souffert entre 2000 et 2004 d'un gliome, une forme de tumeur cérébrale relativement fréquente chez l'homme. Ces résultats ont été comparés avec ceux enregistrés sur 1.700 usagers de téléphones portables en bonne santé.

Aucun risque spécifique n'a pu être mis en évidence en relation avec la durée moyenne et la fréquence des appels passés, l'âge de l'usager, ou le nombre d'années d'usage, indiquent Patricia McKinney (université de Leeds) et ses collègues dans cette étude. Ces résultats confirment les conclusions de travaux déjà menés aux Etats-Unis, au Danemark et en Suède, notent les auteurs. L'Organisation mondiale de la santé (OMS) avait toutefois souhaité récemment que des études poussées soient menées sur les risques de cancer du cerveau liés à un usage intensif des portables, en particulier pour les enfants. Un risque spécifique lié à l'usage des téléphones portables en zone rurale, où le signal électromagnétique est plus puissant pour compenser l'espacement des antennes-relais, a été également montré du doigt par des scientifiques. Les travaux publiés par le BMJ s'inscrivent dans le cadre d'une étude internationale Interphone, menée dans treize pays sur les effets pour la santé du téléphone portable.

BMJ

BBC

L'activité physique diminue le risque de cancer du sein
Mercredi, 11/01/2006 - 00:00

Plus l'activité physique est importante, plus le risque de cancer du sein diminue, dès lors qu'il s'agit d'une activité physique soutenue, selon les résultats d'une étude conduite sur 100.000 femmes en France. Les femmes qui déclarent 14 heures ou plus de léger ménage par semaine voient une diminution modérée du risque de cancer du sein, "de l'ordre de 18 %", comparée à celles n'ayant pas une telle activité, indique l'Inserm. Françoise Clavel-Chapelon (directrice de recherche Inserm-Institut Gustave Roussy) et son équipe montrent non seulement que la quantité d'heures d'activités physiques est importante mais également que l'intensité de l'activité influe de manière primordiale sur le risque de cancer du sein.

Ainsi, chez les femmes qui déclarent 5 heures hebdomadaires ou plus d'activités de loisirs à intensité soutenue, la diminution du risque de cancer du sein est plus marquée (de l'ordre de 38 %) par rapport aux femmes sans activité physique. Une activité légère nécessite une dépense d'énergie au plus égale à trois fois celle au repos (assis à ne rien faire). Cuisiner, faire du ménage léger, du yoga sont classés comme des "activités légères". Une activité soutenue correspond au moins à six fois la dépense d'énergie au repos, par exemple le jogging (jusqu'à 8 fois l'énergie au repos), la natation (de 4 à 11 fois), le vélo (de 4 à 10 fois), les arts martiaux (10 fois), le squash (12 fois).

Selon ces résultats publiés dans le numéro de janvier de Cancer Epidemiology, Biomarkers and Prevention, la baisse du risque associée à une activité physique soutenue est également présente chez les femmes considérées comme "à risque de cancer du sein" : en surpoids, sans enfants, utilisatrices de traitements hormonaux substitutifs ou ayant un antécédent familial de cancer du sein.

En conclusion, les auteurs soulignent que "la pratique régulière d'une activité physique soutenue favorise une baisse non négligeable du risque de cancer du sein, même chez les populations présentant des antécédents familiaux ou d'autres facteurs de risque de cancer du sein".

Ces résultats paraissent "essentiels en terme de santé publique, selon Françoise Clavel-Chapelon, car ce cancer représente plus du tiers des cancers féminins et correspond à 10.000 décès par an environ". Le bénéfice de l'activité physique dans la diminution du risque de cancer du sein était déjà établi et l'étude visait à définir plus précisément l'intensité, la fréquence et le type d'activités bénéfiques. L'étude de cohorte prospective E3N, menée depuis 1990 par Françoise Clavel-Chapelon porte sur les facteurs de risque de cancer parmi près de 100.000 femmes affiliées à la MGEN (Mutuelle Générale de l'Education Nationale) nées entre 1925 et 1950.

Inserm

Découverte d'un gène lié au diabète de type 2
Mercredi, 11/01/2006 - 00:00

Une équipe de scientifiques a annoncé avoir découvert un gène lié très étroitement au diabète de type 2. Ce gène apparaît dans environ 20 % des cas de diabète de ce type, la forme la plus commune de la maladie, a indiqué dans un communiqué Kari Stefansson, auteur de l'étude.

Les personnes possédant au moins une copie du gène ont 45 % de risque plus élevé de souffrir du diabète que les autres et ceux avec deux copies 141 % de plus, précise Kari Stefansson, qui est aussi directeur de Decode Genetics, une société biopharmaceutique qui a sponsorisé les recherches. Cette découverte, qualifiée "d'événement dans l'histoire de la génétique humaine" par Kari Stefansson, devrait permettre aux scientifiques de développer un test pour diagnostiquer les risques de diabète chez les patients. Selon l'Organisation Mondiale de la Santé (OMS), 200 millions de personnes souffrent actuellement du diabète dans le monde.

NG

L'aspirine réduit les risques cardiovasculaires chez les deux sexes
Mercredi, 11/01/2006 - 00:00

L'aspirine réduit les risques cardiovasculaires chez les deux sexes, mais de façon différente pour les hommes et les femmes, selon une recherche publiée dans le Journal of the American Medical Association (Jama).

Chez l'homme, l'aspirine diminue le danger d'infarctus du myocarde de 32 %. Chez la femme, il réduit le risque d'accidents cérébraux-vasculaires de 17 %, selon une analyse de six études conduites par le service de cardiologie de l'université Duke en Caroline du Nord (sud-est). Ces études portent au total sur 95.456 personnes (44.114 hommes et 51.342 femmes) sans antécédent cardiovasculaire. "Ceci est une bonne nouvelle dans la mesure où la plupart des études montraient jusqu'alors l'effet de l'aspirine pour réduire les risques cardiovasculaires seulement chez les hommes, ce qui explique la réticence des médecins à en prescrire pour les femmes", a souligné Jeffrey Berger, un cardiologue de l'université Duke, principal auteur de cette recherche. Il a toutefois recommandé des études supplémentaires pour mieux comprendre la différence des réponses cardiovasculaires à l'aspirine entre les deux sexes.

Généralement, les femmes qui prennent quotidiennement de faibles doses d'aspirine ont 12% moins de risque d'avoir un accident cardiovasculaire, un infarctus ou une attaque cérébrale, par rapport à celles qui n'en prennent pas. Pour les hommes, ce taux est de 14 %. Ce médecin a aussi mis en garde contre les risques potentiels d'hémorragie gastro-intestinales présentés par l'aspirine. On estime généralement que ce danger ou celui de réactions allergiques existent chez moins de 5 % de la population. Et si les vertus préventives de l'aspirine sont bien établies, ce médicament "ne doit jamais remplacer un régime alimentaire approprié et l'exercice physique" pour réduire les risques cardiovasculaires, a insisté le Dr. Berger.

JAMA

NS

Un synchronisateur cardiaque implantable
Mercredi, 11/01/2006 - 00:00

Pour faire battre les coeurs qui défaillent, la médecine ne cesse d'innover. Après le pacemaker et le défibrillateur, voici le resynchronisateur ! Tous ces appareils, implantés sous la peau, génèrent de petites impulsions électriques. Mais chacun corrige un défaut différent. Le plus ancien, le stimulateur, accélère le rythme des muscles cardiaques trop lents. Le défibrillateur régularise les battements désordonnés. Désormais, le resynchronisateur est là pour obliger les ventricules droit et gauche à se contracter à l'unisson. Cette technique récente, dont l'efficacité vient d'être validée par des travaux scientifiques, sera largement commentée le 19 janvier, lors des Journées européennes de la Société française de cardiologie, à Paris.

L'insuffisance cardiaque, qui frappe généralement après 60 ans, progresse. En France, entre 500 000 et 700 000 individus sont concernés. «C'est la rançon du progrès médical, qui permet de sauver beaucoup de victimes d'un infarctus, estime le Pr Michel Komajda, de l'hôpital de la Pitié-Salpêtrière, à Paris. Quinze ans plus tard, leur coeur montre des signes de défaillance.» Parmi ces malades, un tiers environ peuvent tirer bénéfice d'un resynchronisateur.

Muni de trois électrodes, le boîtier envoie des signaux électriques de chaque côté du coeur. Les deux moitiés de la pompe se remettent alors à fonctionner de concert, ce qui permet d'injecter plus de sang, et donc plus d'oxygène, dans l'organisme. Le patient, moins essoufflé, augmente aussi ses chances de vivre plus longtemps. Une étude portant sur 813 patients européens souffrant d'insuffisance cardiaque l'a démontré l'an dernier, la mortalité s'est révélée inférieure de 36 % dans le groupe des personnes implantées. «Ces travaux ont apporté la preuve qui manquait pour proposer le dispositif à davantage de patients», affirme le Pr Jean-Claude Daubert, du CHU de Rennes. Ces résultats justifient en effet la diffusion plus large d'un appareil dont le coût dépasse pourtant 10 000 euros.

Express

La génomique contre les infections nosocomiales
Mercredi, 11/01/2006 - 00:00

Au milieu de l'été 2003, l'Institut de veille sanitaire (InVS) recevait des nouvelles alarmantes de plusieurs établissements de santé. Une série d'infections nosocomiales à Acinetobacter baumannii, résistantes à la plupart des traitements antibiotiques, coûtait la vie à une dizaine de patients. Cet épisode dramatique, doublé d'une convergence d'intérêts scientifiques, allait inciter un consortium d'équipes françaises du CNRS, de l'Université de la Méditerranée, du génoscope et de l'hôpital de Bicêtre, à se lancer dans le décryptage du génome de la bactérie Acinetobacter baumannii, l'un des derniers pathogènes humains majeurs encore non caractérisé au plan génomique. Les résultats de ces travaux sont publiés sur Internet dans la revue PloS Genetics datée de janvier 2006.

Acinetobacter baumannii est une bactérie opportuniste responsable d'un nombre croissant d'infections nosocomiales ultra-résistantes et souvent mortelles, notamment de pneumopathies dans les services de réanimation. Le contrôle d'une épidémie à A. baumannii est toujours difficile, et passe par une désinfection soigneuse qui nécessite l'isolement des patients et la fermeture des services contaminés. Si toutes les bactéries pathogènes peuvent éventuellement devenir porteuses de résistances aux antibiotiques, A. baumannii se caractérise par la vitesse à laquelle elle les accumule. En une trentaine d'années, A. baumannii est passée d'une susceptibilité à la plupart des antibactériens à une résistance quasi-totale. La comparaison du génome (d'environ 4 millions de nucléotides) d'une souche multi-résistante à celui d'une souche restée sensible (associée au pou humain) a révélé la plus grande concentration de gènes de résistance (appelé « îlot de résistance ») jamais découverte : 45 gènes ramassés sur un segment du génome de 86 000 nucléotides, curieusement insérés au milieu d'un gène préexistant. Ces travaux montrent que le séquençage génomique devient un moyen rapide et efficace pour caractériser des pathogènes émergents et identifier en une fois l'ensemble de leurs gènes de résistance. Ils pourront servir à accélérer le diagnostic des infections nosocomiales et à en affiner le traitement.

CNRS

Des micro-cubes qui s'auto-assemblent pour la thérapie cellulaire
Mercredi, 11/01/2006 - 00:00

Une équipe de John Hopkins University à Baltimore vient de mettre au point la fabrication de micro-cubes métalliques qui pourraient s'avérer très utiles pour le transport des médicaments et le traitement cible. Ces micro-containers peuvent être produits en quantité en associant des techniques de fabrication des puces électroniques (dépôt en couches minces). L'équipe a ainsi fabriqué des cubes métalliques creux de cuivre ou de nickel de près de 200 micromètres de côté, dont les faces sont percées de trous qui permettent d'introduire dans le volume des cellules ou des médicaments.

Les surfaces sont recouvertes d'un film fin d'or pour éviter tout problème de toxicité une fois dans le corps. Il n'y pas encore eu d'essais d'implantation in vivo, mais des tests en laboratoire ont déjà fait la preuve de leur utilité, en montrant que l'on pouvait facilement introduire des cellules dans les containers, les en extraire, et qu'elles restaient vivantes. Il est possible également d'introduire des médicaments dans les cavités et d'utiliser le micro cube pour transporter la substance active à proximité de la zone à traiter. Du fait de leur nature métallique, ces objets sont faciles à observer en imagerie par résonance magnétique, ce qui sera une méthode non invasive pour les localiser dans le corps. Certains sont magnétiques (ceux qui sont principalement faits en nickel) et les chercheurs estiment qu'on peut envisager de les guider vers la zone à soigner à l'aide d'un champ magnétique.

BE USA

JHU

L'exercice régulier pourrait retarder le début de la maladie d'Alzheimer
Mercredi, 11/01/2006 - 00:00

Les personnes âgées qui font de l'exercice au moins trois fois par semaine retarderaient le début de la maladie d'Alzheimer ou de quelque autre forme de démence, selon une étude qui confirme que rester actif participe au maintien d'un cerveau en forme. Des chercheurs américains viennent en effet de découvrir que les gens en bonne santé qui disaient faire de l'exercice régulièrement présentaient un risque de 30 à 40 % inférieur de développer une démence que les autres. L'étude qui est publiée dans les Annales de médecine interne, ne précise pas quel type d'activité est la meilleure mais, selon les chercheurs, même un peu d'exercice semble bénéfique. "On dirait qu'on retarde le début", a expliqué le Dr Wayne McCormick, gériatre de l'Université de Washington, l'un des auteurs de l'étude. "Ce qui nous a étonné, c'est qu'en fait, il ne faut pas grand chose pour obtenir cet effet."

Pour expliquer ce phénomène, des chercheurs ont émis l'hypothèse que l'exercice pouvait diminuer le taux cérébral d'amyloïde, une protéine en forme de bâtonnet qui bouche le cerveau des patients atteints de la maladie d'Alzheimer. L'étude, menée de 1994 à 2003, concerne 1.740 personnes âgées de 65 ans et plus, qui ne montraient aucun signe de démence au début de l'étude. Leur santé était évaluée tous les deux ans pendant six ans. Au total, 1.185 personnes étaient indemnes de démence, soit 77 % de ceux qui disaient avoir pratiqué de l'exercice au moins trois fois par semaine, et 158 personnes présentaient des signes de démence. Les autres sont morts ou sortis de l'étude.

L'étude ne dit pas si l'exercice aide aussi à la prévention de toutes les démences, parce que tous les participants n'ont pas été suivis jusqu'à leur mort. Chaque année, aux USA, la fréquence de la démence dans une population de plus de 65 ans est de 13 cas pour 1.000 personnes ayant pratiqué l'exercice nécessaire et de 19,7 pour 1.000 dans l'autre groupe. Pour une partie des chercheurs, des études aléatoires -où les patients sont inclus au hasard dans un groupe- sont toutefois nécessaires pour confirmer ces résultats. Bill Thies, vice-président des affaires médicales et scientifiques au sein de l'association Alzheimer, considère qu'une étude "randomisée" pourrait renseigner sur le type d'exercice le plus bénéfique. "Il faudrait commencer par un groupe dont les membres ont approximativement les mêmes habitudes, le diviser en deux et changer ces habitudes dans un des deux groupes et pas dans l'autre", a-t-il proposé.

AP

Dépression : 30 minutes d'exercice pour se remonter le moral
Mercredi, 11/01/2006 - 00:00

Une demi-heure de marche à vive allure améliore rapidement le moral des personnes déprimées, selon une nouvelle étude, leur offrant la même stimulation instantanée qu'ils pourraient rechercher avec des cigarettes, du café ou encore une consommation compulsive de nourriture.

Selon des chercheurs de l'Université du Texas à Austin, les déprimés qui marchent sur un tapis de jogging pendant simplement une demi-heure se sentent en meilleure condition physique et psychologique pendant au moins une heure après avoir terminé leur exercice. Leurs travaux sont publiés dans le numéro de décembre du journal "Medicine and Science in Sports and Exercise".

L'étude financée par Future Search Trials, une entreprise de recherche médicale basée à Austin, portait sur 40 personnes âgées de 18 à 55 ans. Toutes ont récemment souffert d'une dépression importante, aucune ne prenant de traitement antidépresseur, ni ne faisant de sport.

Les patients ont été répartis en deux groupes. Vingt personnes ont été désignées pour faire de l'exercice pendant 30 minutes, pendant qu'on demandait aux vingt autres de rester assises tranquillement pendant la même période. Ils étaient examinés cinq minutes avant la séance et cinq, 30 et 60 minutes après. Les patients des deux groupes ont tous fait état d'une diminution de leurs sentiments négatifs, tension, dépression, fatigue, colère... Mais seul le groupe qui avait fait de l'exercice a déclaré s'être senti bien après la séance.

Selon John Bartholomew, chef de l'équipe de chercheurs, cette étude vient confirmer d'autres travaux, qui ont déjà montré les effets bénéfiques de l'exercice physique, accompagné d'un traitement et d'un suivi psychologique, pour aider les gens à sortir d'une dépression. Toutefois, l'étude fait partie des premières à avoir démontré que l'exercice peut avoir un effet bénéfique immédiat. "Ce n'est ni quelque chose que vous devez faire pendant dix semaines, ni que vous devez faire avec intensité", a déclaré ce spécialiste, professeur associé de kinésiologie et d'éducation à la santé. "Vous pouvez en tirer un bénéfice immédiat et j'espère que c'est le genre de chose qui motivera suffisamment les gens pour qu'ils continuent à le faire".

AP

Un goût inné pour la géométrie
Mercredi, 11/01/2006 - 00:00

La ligne droite, le triangle, l'angle, le rectangle, le cercle et son centre... tous ces concepts géométriques seraient des notions intuitives universellement partagées, selon une étude menée en Amazonie chez des Indiens Mundurucus, publiée dans la revue Science. Certains chercheurs se demandent si la capacité à dénombrer ou à manier des concepts géométriques est en partie innée ou dépend entièrement de la création d'un langage propre à ces domaines.

Plusieurs équipes mènent des recherches auprès de tribus indiennes d'Amazonie, qui ne disposent pas d'un langage mathématique très développé. Les Mundurucus, par exemple, n'ont pas de mot pour désigner une quantité supérieure à cinq. L'anthropologue Pierre Pica et le spécialiste en sciences cognitives Stanislas Dehaene ont déjà étudié les capacités de calcul et de numération des Mundurucus et en ont conclu qu'ils avaient un sens inné de l'approximation des quantités, même si pour des opérations de calcul ils étaient vite dépassés.

Cette fois-ci Pica et Dehaene ont mené des tests basés sur la géométrie euclidienne auprès d'adultes et d'enfants Mundurucus. Il fallait par exemple ''chercher l'erreur'' parmi six figures géométriques. L'autre série de tests consistait à utiliser une carte pour trouver un objet, la carte n'étant pas un outil utilisé par ces Indiens d'Amazonie. Le taux de réussite aux premiers tests était de 66,8 % et de 71 % pour la carte. Des tests comparables menés sur des enfants et des adultes américains par une chercheuse de Harvard montrent que les résultats sont comparables chez les enfants. En revanche les adultes Américains s'en sortent mieux que les Indiens.

Pour Stanislas Dehaene et ses collègues, cela montre qu'il existe une compréhension spontanée des concepts géométriques. Le fait que les Mundurucus n'aient pas de mots pour les désigner expliquerait cependant que les performances soient les mêmes chez les enfants et chez les adultes.

Science

Un nouveau venu dans le traitement des douleurs rebelles
Mercredi, 11/01/2006 - 00:00

L'arsenal thérapeutique antidouleur pourrait s'enrichir d'un nouveau venu. Très efficace sur la douleur du chien cancéreux, ce produit puissant, extrait d'une plante marocaine, devrait être testé prochainement chez des humains. Le premier essai sur l'homme pourrait démarrer l'an prochain, à l'hôpital Bethesda de l'Institut national de santé (NIH), dans le Maryland. L'effet spectaculaire observé chez les chiens ayant conduit les chercheurs à tester cette molécule chez des personnes résistantes aux morphiniques les plus puissants.

Cette substance, la resiniferatoxine ou RTX, détruit les cellules nerveuses qui transmettent la douleur provoquée par le cancer du chien, sans pour autant toucher à la tumeur, mais en permettant au chien de ne plus rien sentir. Une seconde étude menée chez les chiens victimes de fortes douleurs est prévue pour cet été à l'Université de Pennsylvanie. Si elle donne de bons résultats, elle pourrait offrir aux médecins et aux vétérinaires un recours face aux douleurs rebelles. Et tout ça grâce à une source improbable, un cousin puissant du composé chimique qui épice le piment de Cayenne.

Comment une substance capable de vous trouer la langue peut-elle soulager la douleur ? Elle peut empoisonner certaines cellules nerveuses qui contrôlent la douleur inflammatoire, éliminant un des systèmes nociceptifs (circuit de la douleur). Cependant, elle ne touche pas les nerfs qui transmettent la douleur aiguë que provoque la marche sur un clou, par exemple. "Ce qui est bien dans cette molécule, c'est qu'elle sélectionne ses cibles", explique le Dr Andrew Mannes, un anesthésiste du NIH, spécialisée dans le traitement de la douleur. "Si vous vivez longtemps, vous avez besoin de tous vos circuits de douleur. Certaines personnes sont sous perfusion de morphine sans autre alternative."

Les opiacés, notamment la morphine, représentent le traitement principal de la douleur des cancers en phase terminale. Mais de 5 à 15 % des patients, soit de 40.000 à 100.000 Américains chaque année, selon Andrew Mannes, ne sont pas soulagés. Michael Iadarola, pharmacologue de l'Institut national de recherche dentaire et crânio-faciale, étudie comment les terminaisons nerveuses cutanées et d'autres parties du corps transmettent le message "J'ai mal" au cerveau. Dans le cas de la douleur cancéreuse, le trajet passe par une région de la moelle épinière qui possède par ailleurs le récepteur de contrôle du calcium. Trop de calcium tue les cellules.

La capsaicine, cette substance qui épice le piment de Cayenne, stimule ce récepteur qui libère du calcium. De son côté, le RTX, extrait d'une plante connue pour provoquer des irritations cutanées, est 1.000 fois plus puissant. Mis en contact avec le recepteur, il libère suffisamment de calcium pour tuer rapidement les cellules. Le Dr Dorothy Brown, vétérinaire, a pratiqué une injection épidurale à 18 chiens atteints d'un cancer des os incurable. Le lendemain, ils pouvaient marcher sur leurs jambes malades.

AP

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Japon : un grand magasin équipe ses clients de badges électroniques
Mercredi, 11/01/2006 - 00:00

Un grand magasin de Tokyo a annoncé qu'il allait équiper certains de ses clients de badges électroniques, pour les repérer et leur proposer des services privilégiés. La célèbre boutique nippone Mitsukoshi va procéder à ce test dans son magasin du quartier chic de Ginza à Tokyo, en partenariat avec le groupe Fujitsu et avec l'aide du gouvernement. Une cinquantaine de clients vont ainsi être équipés de badges électroniques d'indentification qui leur permettront de bénéficier d'une attention toute particulière.

"Lorsqu'ils entreront dans la boutique, ils recevront automatiquement un e-mail sur leur téléphone portable pour leur souhaiter la bienvenue et leur faire part d'informations sur les nouveaux produits, les promotions...", explique Mitsukoshi dans un communiqué. L'historique de leurs achats sera également conservé. "Il pourront en outre appeler directement un vendeur en appuyant sur un bouton de leur badge électronique", ajoute le magasin. Tous les vendeurs seront en effet équipés de téléphones mobiles spéciaux pour recevoir ce type d'alertes, mais aussi pour d'autres fonctionnalités qui seront simultanément expérimentées. Ces terminaux permettront par exemple de lire les étiquettes électroniques dont seront pourvus quelque 5.000 articles pour l'expérimentation.

Ils pourront ainsi consulter directement sur ce téléphone spécial l'état des stocks pour un produit donné. Des afficheurs électroniques seront installés en rayon, en lieu et place des traditionnelles étiquettes en papier. Ces afficheurs, conçus à partir d'un "papier électronique" de Fujitsu, montreront en temps réel non seulement le prix, mais aussi le stock restant. Des bornes seront aussi disponibles dans les rayons offrant davantage de détails sur un produit après lecture de son étiquette électronique.

Mitsukoshi

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top