RTFlash

RTFLASH Recherche & Technologie
NUMERO 339
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Juin 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Très haut débit : les 100 Mbit/s sur fil de cuivre avec le VDSL2 !
Un nouvel ADSL pour les exclus du haut débit
L'échographie par téléphone mobile pour demain ?
Les futurs grands projets de la LiveBox Wanadoo
Télévision numérique : la France adopte la norme MPEG4
Nokia lance sa tablette internet portable
USA : lancement des cartes de crédit sans contact
Téléphones GPS et TV pour rassurer les parents et divertir les ados
Microsoft présente un service de cartographie
Tom Tom Mobile : une solution complète de géonavigation sur votre mobile
Les antennes relais atteignent la stratosphère
L'avenir du Web est la personnalisation
L'USB sans fil atteindra 60 Mo par seconde
Matière
La voiture hybride a le vent en poupe aux USA
Espace
Une théorie du chaos expliquerait plusieurs des énigmes du système solaire
Terre
La moitié des plantes d'Europe menacées par le changement climatique
Recul des glaciers alpins : d'abord moins de neige, puis des étés plus chauds
Vivant
Des ultraviolets pour éliminer les bactéries de l'air
L'augmentation de la consommation de fibres pourrait réduire de 40 % le risque de cancer du colon
Le gène "Ras" sur la piste des cancers
Vers de nouvelles molécules anti-cancer
Les espoirs du traitement des maladies musculaires
Edito
FTTH et VDSL2 : une synergie d'avenir



Tierp est une commune de 20 000 habitants située à 150 km au nord de Stockholm. Son territoire s'étend sur quelque 2000 km2 avec des implantations pouvant rassembler moins de 150 habitants. Les hauts débits sont l'un des outils au service de la « Vision pour Tierp » formalisée par la municipalité dans le but de maintenir l'activité économique tout en préservant un cadre de vie attractif.

Tierp était trop petite pour attirer les opérateurs commerciaux. La municipalité a alors décidé de prendre les choses en mains et a fait construire et exploiter sous son autorité, non pas seulement une infrastructure passive de fibre optique (comme c'est le cas à Stockholm avec Stokab), mais un véritable réseau local destiné à connecter toutes les activités et tous les habitants de la commune. D'ici 2006, le réseau KanalTierp doit ainsi raccorder toute la population de la commune à des débits qui vont de 5 à 100 mégabits/seconde. Le coût total pour la commune sera de 5 à 7 millions d'euros.

L'infrastructure de KanalTierp (y compris les équipements de commutation) appartient à la commune. Elle est gérée par une société privée qui en a reçu délégation, Digidoc Open IP. Celle-ci administre le réseau, installe les prises dans les bâtiments et les commercialise auprès des ménages et des entreprises. En revanche, elle ne fournit pas elle-même d'autre service à valeur ajoutée : une fois raccordés à KanalTierp, les usagers peuvent choisir entre trois fournisseurs d'accès internet, plusieurs fournisseurs de téléphonie à prix réduit et plusieurs bouquets de télévision numérique. La municipalité a pris en charge le coût de la liaison optique jusqu'à Stockholm, de manière à inciter les fournisseurs de services à s'adresser à ses administrés sans avoir à installer le moindre équipement sur son territoire !

Grâce à cette initiative numérique, Tierp et Sollentuna ont créé le cadre et les conditions techno-économiques favorables au développement des nouveaux usages et la concurrence, tout en permettant aux services et établissements public d'accéder au moindre coût à un réseau optique à très haut débit qui n'a rien à envier à celui de Stockholm.

Bien sûr ce modèle a ses limites et n'est plus applicable pour les toutes petites communes très isolées. C'est le cas de Bränland, dans le Nord de la Suède, qui ne compte que 21 foyers répartis dans une zone de 3 kilomètres de large. Pourtant cette petite commune a quand même installé son réseau en fibre optique (FTTH) grâce au financement de l'Etat suédois.

Quant au coût d'un tel réseau optique, il est beaucoup moins prohibitif qu'on ne l'imagine, 8?/mètre pour l'enfouissement en micro-tranchée. La technologie retenue est celle de la fibre optique soufflée dans les fourreaux (technologie de la société Emtelle). Au total, le raccordement d'un foyer de Bränland revient à 900 ?.

Un autre pays scandinave, la Finlande, mise également sur le FTTH en milieu rural. Le conseil de la coopérative du réseau de Valokaista a sélectionné Song Networks à la fin du mois de décembre 2004 comme fournisseur de réseau d'équipements actifs et de fibres Internet (FTTH) jusqu'au domicile. La coopérative de Valokaista fonctionne dans la région des villages de Kitinoja et de Halkosaari appartenant à la municipalité de Ylistaro, près de Shinjuku. L'équipement actif du réseau sera le connecteur de Telco Systems et les équipements terminaux seront fournis par K&K Active Oy, en collaboration avec Song.

La solution réseau mise en oeuvre avec une optique de fibre légère offre les mêmes possibilités qu'un réseau de transfert de données, vidéo et de voix sur IP complet, constituant un réseau large bande entier dont les résidents, les sociétés et les associations de la région profiteront encore dans de nombreuses années. Le réseau, qui met en oeuvre le principe d'accès ouvert, favorise la concurrence entre les opérateurs de services et de télécommunications et offre le meilleur service possible aux utilisateurs. La vitesse proposée aux utilisateurs finaux est comprise entre 10 et 100 Mbits/seconde et la vitesse du réseau radioélectrique à ressources partagées est de 1 Gigaoctet/seconde.

Autre exemple : à Almere (174 000 habitants), municipalité de la banlieue d'Amsterdam, la ville a non seulement décidé de construire un réseau à très haut débit en fibres optiques "jusqu'à la maison" (FTTH), mais a également décidé d'utiliser ce très haut débit (100 Mbits) pour créer la première grille de calcul municipal au monde et mettre cette puissance de calcul au service des laboratoires, entreprises et habitants de la ville. (Voir mon édito dans la lettre 324 du 18-02-2005).

Outre-Atlantique, nos "cousins" québécois n'ont pas hésité, eux aussi, à miser sur la fibre optique pour permettre l'accès pour tous à l'internet haut débit. On parle à présent de « modèle québécois » car le modèle de déploiement de la fibre optique est maintenant soutenu par le programme Villages branchés du Québec. Dès 1995, le gouvernement du Québec, par l'intermédiaire du Fonds de l'autoroute de l'information et du ministère de l'Éducation, a financé le Réseau d'informations scientifiques du Québec (RISQ), qui a déployé, au cours des années, des infrastructures de télécommunication à large bande passante afin de desservir les collèges, les universités et les centres de recherche du Québec.

Dans la foulée de la déréglementation des télécommunications, un modèle innovateur pour se doter de réseaux de fibres optiques a pris forme dans les commissions scolaires avec l'aide du RISQ et d'ingénieurs du secteur privé. Ce modèle vise à construire, en copropriété, des réseaux de fibres optiques desservant plusieurs organismes. Près de la moitié des régions du Québec profitent déjà de ce programme des Villages branchés du Québec, financièrement alimenté par le ministère des Affaires municipales, du Sport et du Loisir et par le ministère de l'Éducation.

La région du Bas-Saint-Laurent a ainsi décidé de se doter d'une infrastructure de télécommunication ou inforoute pour desservir les secteurs scolaire et municipal, le réseau des bibliothèques publiques et des centres d'accès communautaire à Internet, ainsi que le secteur économique. Ce réseau de fibre optique fonctionnera à large débit : la dorsale serait à 1 Gbps, soit 1.000 Mbps (Mégabits par seconde) et tous les sites auront accès à 100 Mbps à cette dorsale. Les services offerts par ce réseau seraient multiples : d'abord relier tous les bâtiments d'une commission scolaire ou tous les bâtiments d'une MRC ensemble afin de pouvoir partager des informations, accéder à Internet à très haute vitesse et se donner de nouveaux services, tels la vidéoconférence. Tous ces services devraient être accessibles aux municipalités participantes.

Au Japon, alors que le nombre d'internautes japonais vient de dépasser, début 2005, les 80 millions (63 % de la population), 2 millions d'abonnés disposent déjà de la fibre optique jusqu'à la maison (FTTH). La société japonaise d'études de marché EC Research prévoit qu'en 2008 la connexion en fibre optique dépassera l'ADSL avec 34,8 % de parts de marché et dominera l'accès Internet au Japon. 50 % des foyers japonais auront leur accès par fibre optique jusqu'à la maison d'ici 2.010 avec un débit de 1 gigabits/s. NTT installe 15.000 foyers/jour actuellement et propose un débit de 100 Mbits symétrique pour 45? par mois.

Les réseaux haut débit par fibre optique jusqu'à l'habitant vont donc devenir, d'ici 5 ans, le moyen d'accès principal à l'internet. La connexion en fibre optique jusque chez l'habitant devient une nouvelle locomotive du développement de l'accès Internet à haut débit au Japon, grâce à l'arrivée de fournisseurs d'accès actifs comme Yahoo BB, à la diversification des services destinés aux appartements, et au développement des réseaux backbone.

En France, les projets de réseaux optiques se multiplient également. Par exemple en Bretagne, le projet ROSE vise à déployer, d'ici à 2009, 9 000 kilomètres de fibre optique sur Quimper et sa région par la société RTE (Réseau de transport d'électricité), gestionnaire unique en France pour l'acheminement de l'électricité sur les lignes à haute tension. Mais dans notre pays, la fibre optique jusqu'à l'habitant reste malheureusement encore peu répandue, à l'exception de quelques projets pionniers, comme le Pau Broadband Country, ouvert fin 2004. Mais est-ce vraiment nécessaire, m'objectera-t-on, de disposer dans chaque foyer, de 100 Mbits symétriques ? La réponse à cette question est un oui sans réserve car, comme le montrent les exemples suédois, québécois ou japonais, en amenant un tel débit dans les foyers on franchit un saut qualitatif et on modifie la nature même de l'internet, en générant de nouveaux usages et de nouvelles activités économiques à forte valeur ajoutée et en exploitant notamment les immenses potentialités de la 3D temps réel, du peer to peer et du calcul informatique en grille.

Il faut enfin évoquer une nouvelle norme dont on va beaucoup parler dans les mois à venir : le VDSL2. Cette norme, qui vient d'être adoptée par l'UIT le 27 mai, offre un débit pouvant aller jusqu'à 100 Mbit/s dans les deux sens, soit un débit dix fois supérieur à celui de l'ADSL ordinaire. Elle permet ainsi d'assurer le "prolongement des fibres optiques" en offrant une largeur de bande équivalente à celle des fibres optiques aux locaux qui ne sont pas raccordés directement au segment à fibres optiques du réseau d'une entreprise de télécommunication. De nombreux opérateurs considèrent la technologie VDSL2 comme le complément idéal de la technologie FTTP (fibre jusqu'aux locaux), des lignes à fibres optiques étant utilisées pour raccorder les grands bâtiments (immeubles de bureaux ou d'appartements par exemple) au RTPC et des câbles en cuivre ordinaires étant utilisés à l'intérieur des bâtiments pour raccorder les occupants aux services à haut débit. (Voir article sur le VDSL2 dans notre rubrique « Information et Communication »).

Depuis les récentes lois de décentralisation, les collectivités locales de notre pays sont maintenant en charge de leurs routes. Pourquoi les collectivités locales ne pourraient-elles pas également, dans le nouveau cadre de la loi du 21-06-2004 sur l'économie numérique, investir massivement dans des réseaux à très haut débit, combinant de manière optimale la fibre optique et le VDSL2 jusqu'au domicile et au bureau, et préparer ainsi l'avenir en apportant à l'ensemble de notre territoire une compétitivité numérique au plus haut niveau mondial et en assurant une véritable et indispensable égalité d'accès à la société de l'information et de la connaissance ?

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Très haut débit : les 100 Mbit/s sur fil de cuivre avec le VDSL2 !
Jeudi, 02/06/2005 - 00:00

Qui aurait pu penser qu'un jour on ferait passer un débit de 100 Mbits/s sur les fils de cuivre téléphonique ? Et pourtant, L'Union internationale des télécommunications (UIT) a annoncé un accord sur la technologie VDSL2 ("Very High Data Rate Digital Subscriber Line") qui offre un débit dix fois supérieur à celui de l'ADSL et permettra d'assurer le prolongement des fibres optiques. La Recommandation de l'UIT-T relative à la ligne d'abonné numérique à très haut débit 2 (VDSL2) permettra aux opérateurs de faire concurrence aux fournisseurs par câble ou satellite grâce à la fourniture de services tels que la télévision haute définition (TVHD), la vidéo à la demande, la visioconférence, l'accès Internet à haut débit et des services téléphoniques évolués comme la VoIP, sur un câble téléphonique en cuivre standard.

La nouvelle norme VDSL2 offre un débit pouvant aller jusqu'à 100 Mbit/s dans les deux sens, soit un débit dix fois supérieur à celui de l'ADSL ordinaire. Elle permet ainsi d'assurer le "prolongement des fibres optiques" en offrant une largeur de bande équivalente à celle des fibres optiques aux locaux qui ne sont pas raccordés directement au segment à fibres optiques du réseau d'une entreprise de télécommunication. La norme VDSL2 permet non seulement de répondre à la demande fortement croissante des clients en services multimédias à haut débit, mais aussi de proposer aux opérateurs une solution compatible avec les nombreux équipements DSL déjà déployés, ce qui accélérera la migration des clients vers les nouveaux produits de type VDSL2.

De plus, la technologie VDSL2 est compatible à la fois avec les réseaux ATM existants et avec les réseaux de prochaine génération fondés sur IP. De nombreux opérateurs considèrent la technologie VDSL2 comme le complément idéal de la technologie FTTP (fibre jusqu'aux locaux), des lignes à fibres optiques étant utilisées pour raccorder les grands bâtiments (immeubles de bureaux ou d'appartements par exemple) au RTPC et des câbles en cuivre ordinaires étant utilisés à l'intérieur des bâtiments pour raccorder les occupants aux services à haut débit.

UIT

Un nouvel ADSL pour les exclus du haut débit
Jeudi, 02/06/2005 - 00:00

L'extension de l'Internet haut débit pourrait connaître un nouveau coup de pouce. L'Autorité de régulation des télécommunications (ART) vient en effet d'autoriser les opérateurs à mettre en oeuvre le READSL2 (Reach-extended ADSL2). Cette nouvelle technologie, qui se présente comme une évolution de l'ADSL, présente l'avantage d'augmenter la zone de couverture d'environ 37 % par rapport à l'ADSL « classique ». Alors qu'aujourd'hui le signal émis à partir du central téléphonique atteint ses limites à trois kilomètres, le nouveau système permettra d'augmenter d'environs deux kilomètres la zone de couverture. Couplé à l'ADSL2+ qui permet de doper le débit au départ du point téléphonique central, le READSL2 assurera un débit de 512kbits/s aux abonnés éligibles les plus éloignés. Au 31 décembre 2004, 10 % des français n'avaient pas accès au haut débit. Cette proportion pourrait donc se réduire si les opérateurs téléphoniques se lancent dans des investissements.

Car la réduction de la fracture numérique a un coût élevé. « Les 10 % restants reviennent aussi cher que les 90 % déjà réalisés », précise-t-on à l'ART qui ne donne aucun objectif chiffré sur le nombre de personnes qui pourraient bénéficier du READSL2. La balle est en effet pour l'essentiel dans le camp des opérateurs. Mais tous ne devraient pas se précipiter. Si France Telecom a déjà commencé ses premiers investissements, Cegetel ne prévoit pas de nouvelles installations "dans l'immédiat". Pour cet opérateur, qui intervient surtout dans des espaces densément peuplés, l'intérêt est moindre. "Tous nos éléments sont compatibles avec cette technologie, mais elle n'est pas encore ouverte", précise l'opérateur. D'autres solutions existent par ailleurs pour résorber ces "zones blanches". Le satellite, le Wi-Fi, le WiMax, la ligne électrique, parfois utilisés en couple, ont déjà fait ou vont prochainement faire l'objet d'expérimentations en France.

Expansion

L'échographie par téléphone mobile pour demain ?
Jeudi, 02/06/2005 - 00:00

La transmission d'images par téléphone mobile pour poser un diagnostic, ça marche ! Et selon un travail mené par des étudiants américains, cela permettrait par exemple de faire bénéficier les pays les moins développés d'un accès aux avantages de l'échographie. Une approche de l'imagerie médicale qui présente notamment l'intérêt d'être économique. Dans le cas d'espèce, il suffirait d'un téléphone mobile et d'une ligne internet pour opérer la transmission des images. Le travail en question a été mené par un étudiant en médecine américain d'origine yougoslave... qui a testé le procédé en Yougoslavie.

Velko Popov a ainsi donné à un hôpital yougoslave un équipement d'échographie à partir duquel des images -thryroïde et abdomen- ont été enregistrées puis transmises aux Etats Unis. Son objectif était de démontrer que la qualité des images reçues était suffisante pour poser un diagnostic. Deux radiologues ont visionné les clichés. Ils ont ensuite comparé les images reçues - sous format compressé - avec les clichés d'origine. Et le résultat a été probant, puisque 67 % de ces images ont été jugées comme ayant une bonne valeur diagnostique. Un succès qui ouvre des perspectives nouvelles à l'utilisation de techniques légères en télémédecine.

American Roentgen Ray Society

Les futurs grands projets de la LiveBox Wanadoo
Jeudi, 02/06/2005 - 00:00

France Telecom est en train de repenser son offre triple-play, qui consiste à fournir une station de réception ADSL offrant également la télévision et le téléphone. Wanadoo va rajouter de nombreuses fonctions à sa LiveBox, dont quelques-unes sont parvenues entre nos mains. Des schémas conçus par le FAI illustrent les nouveaux services proposés, accompagnés de quelques précisions écrites. Au menu du jour, la LiveBox pourrait s'enrichir d'un combiné téléphonique Bluetooth pour la VoIP, offrir le transfert de photos, une connexion avec des caméras de surveillance domestiques et un système d'alarme, ainsi qu'une plateforme de diffusion musicale sans fil. Pas moins ! Le LivePhone est un combiné sans fil bluetooth qui fonctionnera de manière indépendante avec la LiveBox, PC éteint. Il permettra notamment de consulter directement sur le combiné ses mails, le trafic routier, et bien sûr de téléphoner selon les tarifs avantageux de la VoIP.

Cette connexion Bluetooth à 700Kbps permettra aussi de rapatrier des photos d'un appareil Bluetooth, comme un téléphone portable par exemple. Plus tard ensuite, il sera aussi possible de transférer les clichés à partir d'un appareil photo plus classique, par l'interface USB. Ces photos se placeront dans l'album photo Wanadoo selon notre document. De son côté, le service Live Security permettra à la Live Box de se brancher directement au système d'alarme de son logement. Connecté à une société de sécurité partenaire de France Telecom, la LiveBox enverra directement les alertes à la centrale d'alarme via le réseau ADSL. Les branchements se feront par interface USB. Le Live Zoom pourra connecter la Live Box directement à une caméra de surveillance compatible WiFi, afin d'offrir un accès à l'image depuis un ordinateur tiers, où qu'il soit.

Enfin le Digital Music, semble lui aussi très alléchant. Le système permettra d'écouter de la musique diffusée en WiFi par la LiveBox. L'utilisateur pourra par exemple choisir entre de la musique jouée par son PC et relayée par la LiveBox en WiFi, ou écouter directement la musique à partir d'une "plateforme musicale Wanadoo", alors même que le PC est éteint.

PCI

Télévision numérique : la France adopte la norme MPEG4
Jeudi, 02/06/2005 - 00:00

Le gouvernement français a retenu la norme de compression MPEG4 pour de futures chaînes de télévision haute définition (TVHD) sur la TNT, qu'elles soient gratuites ou payantes, annoncent jeudi dans un communiqué commun le ministère de l'Economie, le ministère de la Culture et le ministère délégué à l'Industrie. "Le gouvernement adopte une première mesure en vue de l'introduction de la haute définition sur la télévision numérique de terre (TNT). Les textes réglementaires précisant les conditions techniques du lancement, à compter du mois de septembre 2005, des chaînes payantes de la TNT viennent d'être signés par Thierry Breton, ministre de l'Economie, des finances et de l'industrie, Renauld Donnedieu de Vabres, ministre de la Culture et de la communication, et Patrick Devedjian, ministre délégué à l'Industrie", indique le communiqué.

"Conformément aux décisions du 23 décembre dernier du Premier ministre, Jean-Pierre Raffarin, ces modifications rendent obligatoire l'usage de la norme de compression MPEG4 pour la diffusion des chaînes payantes de la TNT en simple définition. Ils étendent cette obligation à l'ensemble des futures chaînes en haute définition de la TNT, qu'elles soient payantes ou non", souligne le communiqué. Les chaînes gratuites de la TNT bénéficient d'une norme moins performante, le MPEG2. "Le choix de la norme MPEG4 pour la diffusion des chaînes payantes libérera, sur les multiplexes planifiés pour la TNT, des ressources hertziennes nécessaires au lancement de services de télévision en haute définition. Il marque une première étape vers l'introduction de la haute définition sur ce support", ajoutent les trois ministères.

"L'introduction prochaine de la haute définition en TNT, en assurant aux industriels et aux producteurs français un débouché pour des équipements et des programmes innovants, répond aux objectifs de politique industrielle et de localisation des emplois à forte valeur ajoutée dans notre pays. En consolidant la place prééminente de la diffusion hertzienne en France, elle conforte la politique de soutien aux productions audiovisuelles et cinématographiques et donc la politique française de diversité culturelle", soulignent les ministères.

Pour l'instant, le CSA a délivré des autorisations pour une trentaine de chaînes en simple définition sur la TNT. Quatorze chaînes gratuites ont été lancées le 31 mars, tandis que doivent encore être lancées quatre chaînes gratuites supplémentaires et une dizaine de chaînes payantes.

TSR

Nokia lance sa tablette internet portable
Jeudi, 02/06/2005 - 00:00

Nokia prend une nouvelle tangente sur son commerce principalement centré sur le marché du cellulaire en dévoilant son premier appareil mobile non téléphonique ; la tablette Internet portable proposée permet de surfer le web de la maison par le biais d'une connexion sans fil à bande large. La tablette Internet 770 montrée mercredi par Nokia s'appuie sur le système d'exploitation libre de Linux plutôt que sur la plate-forme Symbian utilisée pour ses téléphones «intelligents» ou la version mobile de Windows de Microsoft. Nokia a déclaré qu'elle prévoit d'en publier le code source dans l'espoir de voir des développeurs de programmes créer des logiciels sur mesure pour l'appareil.

Au prix de détail suggéré de 350$ US, la tablette Internet proposée par Nokia se veut une alternative à l'achat d'un ordinateur personnel ou d'un portable de plus pour différentes pièces de la maison ; l'appareil offre ainsi une façon facile, rapide, moins coûteuse et moins encombrante de se brancher à Internet. Si l'appareil se distingue tout de même par ses petites dimensions, la tablette Internet représente le dernier d'une longue lignée d'appareils qui sont autant de tentatives de créer le soi-disant «appareil Internet» - un appareil ressemblant à un téléviseur qui offrirait un accès facile à Internet et permettrait d'exécuter des tâches simples telles que le courriel, avec lesquelles toute la puissance d'un ordinateur demeure habituellement en reste. Cette annonce de Nokia marque la deuxième incursion hors des sentiers battus de la téléphonie cellulaire en à peine quelques jours par un fabricant majeur de tels appareils.

La semaine dernière, c'était au tour de PalmOne de dévoiler un appareil de 500$ US appelé LifeDrive, une sorte d'hybride entre un lecteur media portatif, un disque dur amovible et un agenda électronique. Le LifeDrive offre un espace de stockage interne de 4 Go et un écran à haute résolution pour l'accès mobile à toute une panoplie de musique, vidéos, photos numériques, courriels et documents électroniques. Il propose aussi un accès sans fil Wi-Fi pour se brancher à Internet et les réseaux corporatifs à distance.

Canoe

USA : lancement des cartes de crédit sans contact
Jeudi, 02/06/2005 - 00:00

JPMorgan Chase & Co., grand acteur sur le marché US, vient de présenter sa nouvelle carte de crédit. Elle permet de payer sans avoir à passer sa carte dans un lecteur ou dans le fameux "fer à repasser". Utilisant les puces RFID, la technologie "blink" est au point depuis quelques temps déjà, et fut testée avec succès lors de programmes pilotes, notamment à Orlando en 2003. La carte pourra être utilisée dans les distributeurs et magasins partenaires. Parmi eux, la société 7-eleven démarrera avec 170 magasins, puis si tout va bien les 5700 établissements de son réseau accepteront la nouvelle carte. Le simple passage de la carte prés du terminal de paiement effectuera le transfert. La compagnie affirme que la sécurité et les fonctionnalités de sa nouvelle carte seront identiques à celles des cartes Mastercard et Visa traditionelles. Les stations Exxon Mobil utilisent une technologie équivalente pour leur carte de paiement privative depuis 1997.

JPMorganChase

Téléphones GPS et TV pour rassurer les parents et divertir les ados
Jeudi, 02/06/2005 - 00:00

Le deuxième opérateur de télécommunications mobiles japonais KDDI a annoncé le lancement de téléphones portables intégrant la télévision, permettant aux parents de savoir où sont leurs enfants et reconnaissant automatiquement les morceaux de musique. KDDI inauguera prochainement une nouvelle application destinée à rassurer les parents. Elle permettra à ces derniers de localiser en temps réel leur enfant (à condition qu'il soit aussi muni d'un portable compatible) sur une carte affichée à l'écran. La localisation, basée sur les données GPS optimisées, est précise à environ 10 mètres près y compris en ville. Les terminaux KDDI intègrent un récepteur GPS. Un système d'envoi automatique de messages aux parents au passage de certains endroits-clés (gare, sortie d'école) peut également être activé.

Le numéro deux japonais proposera également de nouveaux modèles de téléphones intégrant un recepteur TV analogique (tuner) associé à des données interactives. KDDI prépare ainsi le terrain et les consommateurs avant la mise en service dans quelques mois de la télévision numérique terrestre mobile. Pour le moment, les consommateurs interrogés sont encore sceptiques sur l'intérêt de la télévision sur portable, si l'on en croit les médias japonais. Le troisième service présenté par KDDI permet au téléphone de reconnaître un morceau de musique diffusé à la radio ou à la télévision (en dix secondes d'écoute) et de le télécharger immédiatement (légalement et moyennant finances) dans la mémoire de son portable depuis un site internet mobile dédié. Les cinq nouveaux modèles de téléphones présentés, qui font office de baladeurs audio (téléchargement de titres), sont en outre équipés d'un émetteur FM pour écouter les listes de lectures contenues dans la mémoire du téléphone sur une chaîne hi-fi ou un autoradio.

Wanadoo

Microsoft présente un service de cartographie
Jeudi, 02/06/2005 - 00:00

Microsoft a présenté hier son service de cartographie et de repérage géographique destiné à concurrencer celui de Google. Le nom de ce nouveau service : MSN Virtual Earth. A la différence du service de Google toutefois, Virtual Earth va plus loin et propose des photographies précises de ce que vous cherchez. Ainsi, si vous cherchez la pizzeria la plus proche, vous aurez à votre disposition une photo vous montrant d'aussi près que possible la dite pizzeria afin de vous en fournir un aperçu. Virtual Earth utilisera la technologie de Pictometry suite à un accord entre les deux sociétés. Pictometry produit des images en vue de trois quarts : Ce nouveau service sera lancé cet été et sera gratuit, mais limité à ses débuts à une quinzaine de grandes villes américaines. Bien entendu, le service sera complété au fur et à mesure, mais aucune liste n'a été publiée pour donner le nom de ces villes. A noter que cette version n'inclura pas les images en haute-définition, qui viendront en automne.

CENT

Tom Tom Mobile : une solution complète de géonavigation sur votre mobile
Jeudi, 02/06/2005 - 00:00

Tom Tom Mobile est une remarquable solution de géonavigation, que ce soit en terme de design, de souplesse d'utilisation ou d'efficacité. Seule limitation : elle n'est utilisable que sur les mobiles (ils sont de plus en plus nombreux) qui acceptent la MMC (une petite carte mémoire) de 256 Mo où sont stockées toutes les routes mais aussi une multitude de points d'intérêts (lieux touristiques, hôtels, vues panoramiques, ports, distributeurs d'argent, stations essence, et autres). Ce système GPS se révèle d'une étonnante simplicité et d'une convivialité quasi-absolue. Surtout que le système et l'interface de ce constructeur sont déjà particulièrement stables et intuitifs.

Un petit module à placer sur la plage avant de la voiture s'occupe d'établir une liaison avec un maximum de satellites afin de définir une triangulation - votre position de deux à cinq mètres près de précision. Il communique ensuite via bluetooth avec le logiciel installé dans la fameuse carte MMS. Il suffit alors de définir sa destination (ville, nom de la rue et numéro) pour qu'en moins de 10 secondes un itinéraire soit affiché ! Il est également possible de définir un itinéraire en dehors du point défini par la géolocalisation, de demander le calcul d'un itinéraire bis en cas d'embouteillage, de naviguer sur une carte de France vue de dessus, ou de bénéficier d'une vue en 3D exactement similaire à celle utilisée par les taxis, de dézoomer pour voir toute la France ou de zoomer pour ne voir qu'une impasse.

Le système propose aussi une large palette de voix qui se chargeront de vous prévenir quand tourner. Il recalcule également immédiatement un nouvel itinéraire si vous n'avez pas voulu tourner où il le préconisait. Et si un appel téléphonique est activé, le logiciel continuera malgré tout à afficher le tracé, seule la voix qui indique les directions se taira pendant votre appel. Dernier point : il est possible d'ajouter ses propres points d'intérêts, une option qui ouvre de grandes perspectives en matière d'e-tourisme.

Mobinaute

Les antennes relais atteignent la stratosphère
Jeudi, 02/06/2005 - 00:00

Des sociétés américaines et européennes se préparent à déployer des réseaux de télécommunications sans fil d'un nouveau type. Leurs antennes relais seront en effet portées par des aérostats volant à haute altitude, ou HAPS (High Altitude Platform Stations). L'opérateur américain Globetel vient ainsi de présenter un prototype de dirigeable stratosphérique fourni par son compatriote Sanswire Technologies. L'objectif de Globetel est de mettre en place une solution de réseau basée sur de tels drones relais alimentés en énergie par des panneaux photovoltaïques et volant à une altitude de 20 kilomètres. Elle permettrait d'établir des communications montantes et descendantes avec des appareils nomades équipés d'un module radio 802.11x et d'une antenne. En Europe, le britannique SkyLINC participe au projet européen Capanina, d'un montant de 5,6 millions d'euros, qui vise à développer des plates-formes HAPS alimentées elles aussi à l'énergie solaire. Ce projet, piloté par l'université de York dans le cadre du 6 e PCRD (Programme-cadre européen de R&D), vise le déploiement d'aérostats pouvant monter jusqu'à 22 kilomètres. Chaque dirigeable pourrait théoriquement couvrir une zone de 1000 kilomètres de diamètre et émettre à 2 GHz (pour les réseaux 3G) ou dans des bandes de fréquences spécifiques, autour de 40 GHz et entre 18 GHz et 32 GHz. Les premiers tests réalisés en basse altitude en octobre dernier ont permis d'établir des liaisons avec un débit de 120 Mbit/s dans la bande 38/41 GHz. D'après le responsable du projet Capanina, les premiers services commerciaux des plates-formes de haute altitude pourraient voir le jour dès 2008

OINet

L'avenir du Web est la personnalisation
Jeudi, 02/06/2005 - 00:00

Pour les moteurs de recherche, l'avenir est dans la personnalisation. Au début du mois, Yahoo lançait "My Web tools", une série de fonctionnalités permettant de stocker, de rechercher et de partager de l'information trouvée sur la toile avec d'autres utilisateurs. Concrètement, le portail propose à l'internaute de créer sa propre page personnelle, sur laquelle il peut ajouter du contenu, changer les couleurs de ses rubriques, etc.

Depuis jeudi 19 mai, le groupe californien a rajouté une nouvelle expérimentation à son Google Labs, qui permet de personnaliser à loisir la page d'accueil de Google.com. Douze modules sont désormais disponibles (la météo, le cinéma, la messagerie maison GMail - toujours en version beta -, la bourse, Google News, le mot et la citation du jour ainsi que plusieurs fils d'information comme le New York Times, Slashdot, BBC News, ou Wired News).

Google propose également des informations en push : cours de bourse, prévisions météorologiques, état du trafic, citation du jour, programme cinéma de sa ville, etc. (Disponible pour les Etats-Unis seulement pour l'instant). L'internaute peut également voir s'afficher sur sa page les derniers messages de son compte Gmail(la messagerie à 2 Go de Google), les actualités du New York Times, de BBC News, ou de son service d'actualité Google News.

L'un des objectifs de Google pourrait être de rattraper en terme d'audience ses concurrents directs, sur le marché américain. Selon une étude du cabinet Score Media Metrix, citée par Associated Press, en avril 2005, Google totalisait 78,6 millions de visiteurs uniques, contre 114,8 millions pour Yahoo!, 97 millions pour MSN et 86 millions pour AOL.

TR

L'USB sans fil atteindra 60 Mo par seconde
Jeudi, 02/06/2005 - 00:00

Le "Wireless USB Promoter Group", consortium d'industriels composé notamment de Hewlett Packard, Intel ou Microsoft, vient d'annoncer les spécifications finales de la technologie Wireless USB (WUSB). Cette dernière est la déclinaison sans fil de l'interface USB, permettant théoriquement ainsi de relier par ondes radio un ordinateur et une imprimante, et même un téléviseur avec un magnétoscope numérique. Le WUSB offre donc un débit maximal de 60 mégaoctets par seconde (Mo/s) dans le cas de périphériques séparés de 3 mètres. Ce débit tombe à 13,75 Mo/s sur une distance de 10 mètres. Ces spécifications ont été transmises à l'USB Implementers Forum (USB-IF), organisme chargé de définir les standards des connexions de type USB. Une simple formalité étant donné que le conseil de l'USB-IF est constitué de six dirigeants d'entreprises déjà membres du Wireless USB Promoter Group. Les premiers produits WUSB devraient être commercialisés à la fin de l'année. Microsoft a déjà indiqué qu'il dotera alors Windows XP d'un pilote générique WUSB. Reste à savoir ce que deviendra la norme Bluetooth, autre solution de connexion sans fil.

WUSB

^ Haut
Matière
Matière et Energie
La voiture hybride a le vent en poupe aux USA
Jeudi, 02/06/2005 - 00:00

Les véhicules hybrides sont-ils la solution à la dépendance énergétique des Etats-Unis vis-à-vis des pays producteurs de pétrole ? La question fait débat. L'an dernier, 56 % du pétrole consommé par les Américains a été importé de l'étranger, soit 11 millions de barils par jour sur 56 millions (les véhicules à essence représentent plus de 7 millions de barils par jour). C'est beaucoup plus que les 33 % de la première crise pétrolière des années 1970 et moins que les 66 % attendus pour 2025. Cependant depuis quelque temps, les voitures hybrides essence/électriques font leur place sur le marché national. La société Toyota Motor vient d'ailleurs d'annoncer son intention de produire, pour la première fois, une version hybride de sa Camry aux Etats-Unis, à Georgetown (Kentucky). Il faut noter que le délai de livraison pour la Prius, qui connaît un succès certain, atteint maintenant plusieurs semaines, tandis que les prix pour l'occasion s'envolent. A l'heure actuelle, le parc automobile américain comprend près de 235 millions de véhicules légers, dont moins de 1 % sont hybrides. L'impact réel de cette technologie sur la consommation de pétrole dépendra donc de la vitesse à laquelle le pays l'adoptera, sachant que, de toute façon, le nombre de voitures en circulation augmente régulièrement. Selon un récent rapport du Oak Ridge National Laboratory, les hybrides pourraient représenter de 10 à 15 % des ventes de véhicules neufs d'ici 2012.

Les scénarios les plus optimistes font état de 20 % en 2010 et jusqu'à 80 % en 2015. Le Département de l'Energie de son côté reste très prudent puisqu'il prévoit la vente de 1,1 millions de voitures hybrides (moins de 7 % du marché) pour l'année 2025 ! Au final, c'est bien sûr le consommateur qui décidera. Dix-sept modèles hybrides électriques seront disponibles l'an prochain et on estime qu'il y en aura 38 à l'horizon 2011.

ST Presse USA 727

NYT->http://www.nytimes.com/2005/05/17/business/17toyota.html]

^ Haut
Espace
Espace et Cosmologie
Une théorie du chaos expliquerait plusieurs des énigmes du système solaire
Jeudi, 02/06/2005 - 00:00

Des astronomes américains affirment avoir élaboré une histoire du chaos originel dans le système solaire qui expliquerait plusieurs mystères sur l'état actuel de notre environnement cosmique, selon une étude publiée le 26 mai dans la revue scientifique "Nature". "Nous obtenons des réponses à tellement de questions", s'est félicité Harold Levison de l'Institut de recherche du sud-ouest à Boulder (Colorado), un des auteurs de ces travaux. Le scénario élaboré par les chercheurs permettrait notamment de répondre aux questions suivantes : - Qu'est-ce qui a déclenché le bombardement d'astéroïdes, il y a quelque 3,9 milliards d'années, qui a creusé d'immenses cratères aujourd'hui visibles sur la lune et a pu retarder l'apparition de la vie sur Terre?

Pourquoi Jupiter et Saturne ont quitté leur orbite circulaire pour adopter la trajectoire plus ovale observée aujourd'hui? Pourquoi Jupiter partage son orbite avec des milliers d'astéroïdes qui le précèdent et le suivent autour du soleil ? La nouvelle étude est présentée dans "Nature" par Alessandro Morbidelli de l'Observatoire de la Côte d'Azur à Nice (France), Harold Levison et d'autres astronomes. Les chercheurs ont eu recours à des simulations par ordinateur pour étudier la manière dont la périphérie du système solaire avait pu se développer. Leur théorie reprend l'idée répandue qu'il y a 4,6 milliards d'années, le soleil et les planètes se sont formés à partir de l'effondrement gravitationnel d'un nuage de gaz, de poussières et de glace.

Mais elle adopte l'hypothèse controversée selon laquelle le système solaire aurait été dans un premier temps assez compact. En vertu de cette théorie, Neptune aurait par exemple vu le jour beaucoup moins loin du soleil que ne le pensent généralement les scientifiques.

La question est de savoir ce qui s'est passé au fil du temps alors que les planètes suivaient des orbites circulaires et qu'elles étaient entourées par un énorme anneau de débris planétaires, des décombres mesurant jusqu'à plusieurs centaines de kilomètres de diamètre. Selon le scénario avancé par la nouvelle étude, les planètes ont attiré les débris, mais la force gravitationnelle de ces derniers a eu pour effet d'éloigner Uranus, Neptune et Saturne du soleil. Ce changement a rallongé le temps mis par les trois planètes pour accomplir une révolution autour de leur étoile. Et à un moment donné, Saturne a mis deux fois plus de temps que Jupiter pour décrire une orbite complète. En raison de leur attraction réciproque, Jupiter et Saturne ont commencé à quitter leur orbite circulaire pour suivre une trajectoire plus ovale similaire à celle observée actuellement.

Le phénomène a provoqué des perturbations gravitationnelles, rendant les orbites d'Uranus et Neptune, des planètes beaucoup moins massives, "totalement folles", selon M. Levison. Les deux astres ont ainsi été repoussés vers l'extérieur du système solaire dans l'anneau de débris planétaires, ce qui a provoqué un éparpillement de ces décombres. Une conséquence a été le bombardement d'astéroïdes subi par la Terre et la lune. La force gravitationnelle des débris a finalement conduit Uranus et Neptune vers leur orbite actuelle, selon le scénario avancé par les chercheurs, qui expliquerait également l'inclinaison de l'orbite des quatre planètes évoquées.

Nature




^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La moitié des plantes d'Europe menacées par le changement climatique
Jeudi, 02/06/2005 - 00:00

Plus de la moitié des plantes européennes pourraient être classées "vulnérables" ou "menacées", selon les critères de l'Union Internationale pour la Conservation de la Nature (UICN), à cause des changements climatiques à l'horizon 2080, selon une étude récente. Wilfried Thuiller, un chercheur français et ses collaborateurs ont modélisé les déplacements de 1.350 espèces végétales européennes à l'horizon 2080 par rapport au climat actuel. Leurs travaux, publiés dans les comptes-rendus de l'Académie des sciences américaine (PNAS), ont utilisé sept scénarios des experts du Groupe Inter-gouvernemental sur les Changements Climatiques (GICC) reflétant différentes réponses politiques et socio-économiques aux changements climatiques.

"Même les scénarios les plus modérés, où les sociétés adoptent un comportement extrêmement prudent pour ne pas continuer à augmenter leurs émissions de gaz à effet de serre, ont un impact majeur", explique Sandra Lavorel, du Laboratoire d'Ecologie Alpine de Grenoble, qui a coordonné l'étude au sein du projet européen ATEAM avec des chercheurs français, portugais, britanniques et suédois. Selon les scénarios, qui tablent sur une hausse de température moyenne comprise entre +1,8° et +3,6° entre 2000 et 2080, 27 % à 42 % des espèces pourraient disparaître en une localité européenne donnée.

Entre la disparition de certaines plantes et l'apparition d'autres espèces qui migreraient vers le Nord, le taux de renouvellement de la flore européenne pourrait atteindre 42 à 63 % selon les scénarios. Les chercheurs ont étudié deux options : soit les plantes ne sont pas capables de migrer, notamment à cause de la fragmentation des paysages par les activités humaines, soit elles réussissent à gagner des climats plus cléments. Dans le premier cas, 22 % des plantes étudiées seraient en danger critique de disparition, et 2 % disparaîtraient totalement d'ici 2080. Dans le cas où elles réussiraient à gagner de nouveaux habitats, 67 % encourraient un faible risque de disparaître.

Selon l'étude, le paysage européen sera profondément modifié : le nord de l'Europe accueillerait de nombreuses espèces chassées des régions tempérées, tandis que la flore méditerrannéenne s'étendrait vers l'Europe centrale (66 % de renouvellement). Les plantes des régions montagneuses apparaissent comme les plus vulnérables au réchauffement climatique, car elles se sont "spécialisées" au fil des millénaires pour résister aux conditions climatiques extrêmes, et n'ont que des choix limités comme se replier vers des habitats froids. Le taux moyen de pertes d'espèces dans une région donnée de l'arc alpin, des Balkans, des hauts plateaux espagnols et des Pyrénées pourrait atteindre dans le pire des cas 60 % et la particularité floristique des massifs montagneux pourrait être bouleversée.

ATEAM

Recul des glaciers alpins : d'abord moins de neige, puis des étés plus chauds
Jeudi, 02/06/2005 - 00:00

Le recul généralisé des glaciers alpins depuis 150 ans serait dû à une diminution de plus de 25% des chutes hivernales de neige, tandis que la hausse des températures n'a surtout affecté ces glaciers que depuis la décennie 1980, selon une étude rendue publique mardi par le CNRS. Cette étude des glaciologues du CNRS-Université de Grenoble et de l'Ecole polytechnique fédérale de Zurich "résout le paradoxe du recul des glaciers, survenu à une époque où les températures estivales restaient stables", explique à l'AFP Christophe Vincent, l'un des chercheurs français.

Les glaciers alpins, entre les années 1550 et 1850, ont connu une période de forte extension que l'on nomme le "Petit Age de Glace" : la Mer de Glace s'étendait 1,8 km plus en aval, et atteignait le village des Bois dans la vallée de Chamonix. Quant au glacier d'Argentière, avec 1,4 km supplémentaire, il venait mourir au pied du village d'Argentière. "Le paroxysme de l'épisode de progression des glaciers alpins s'est produit entre 1760 et 1830, en contradiction avec l'évolution sur la même période des températures d'été, lesquelles étaient supérieures à la moyenne de celles du 20ème siècle, phénomène qui aurait dû conduire à une perte de volume des glaciers", fait remarquer Christophe Vincent.

L'étude établit que cette avancée de 1760 à 1830 est en réalité survenue consécutivement à une hausse des précipitations hivernales (supérieures d'au moins 25 % par rapport à la moyenne du 20ème siècle). Le phénomène inverse s'est ensuite produit à partir de 1830-1850 : le recul des glaciers a donc résulté d'une diminution des précipitations hivernales d'au moins 25 %, et non pas d'un réchauffement. En effet, les températures d'été demeuraient stables et plus froides que durant les décennies précédentes. "L'effet du réchauffement estival ne devient visible qu'à partir du début du 20ème siècle. Depuis, les fluctuations des glaciers alpins sont principalement liées à l'évolution des températures d'été dans les Alpes", selon le CNRS.

Pour parvenir à ces conclusions, les glaciologues ont déterminé les variations de volume de quelques glaciers français, suisses et autrichiens au cours des deux derniers siècles, en se servant de cartes anciennes. Pour les compléter, ils ont utilisé un modèle d'écoulement de la glace, tenant compte des positions maximales des moraines (les accumulations de pierres transportées et déposées au front du glacier). Ensuite, ces variations de volume ont été simulées à l'aide des températures observées depuis 1760 et de différents scénarios de précipitations.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des ultraviolets pour éliminer les bactéries de l'air
Jeudi, 02/06/2005 - 00:00

Vers une meilleure purification de l'air. Des chercheurs du CNRS et de l'université Louis-Pasteur de Strasbourg ont mis au point un appareil qui détruit 99 % des bactéries, champignons et microbes contenus dans l'air, ouvrant des perspectives pour la lutte contre la légionellose ou les infections contractées à l'hôpital, annonce le CNRS.

Plus de filtres, plus de produits chimiques ni de chocs thermiques, l'appareil conçu par les scientifiques fonctionne grâce à des lampes à ultraviolet, comme celles qu'on trouve sur les pistes de danse, précise un communiqué diffusé jeudi par le CNRS (Centre national de la recherche scientifique). Il s'agit d'un tube aux parois recouvertes d'une couche de dioxyde de titane à l'intérieur duquel on fait circuler l'air à désinfecter. Sous la lumière ultraviolette, le titane devient "un agent oxydant très actif capable d'oxyder presque toutes les molécules, dont celles qui constituent les parois cellulaires" des organismes présents.

Le premier essai de décontamination a été effectué avec une bactérie responsable en général de gastroentérite. Diffusées en flux aérosol comme dans un système de ventilation ou de climatisation, les bactéries ont toutes été détruites au contact de la paroi de ce "photoréacteur". Les chercheurs ont commencé une deuxième série de tests et espèrent désormais détruire la "legionella pneumophilia", responsable de la légionellose chez l'homme.

Si les essais sont concluants, ce système pourrait permettre de stériliser les installations publiques sensibles aux bactéries, comme les tours aéroréfrigérantes des systèmes de climatisation dans lesquelles la légionelle peut proliférer, provoquant parfois de graves épidémies. Le système pourrait également s'adapter sur la ventilation des hôpitaux pour éviter aux patients de contracter des infections nosocomiales. Les avions, les trains, bus ou voitures pourraient également bénéficier à terme de cette stérilisation. Le photoréacteur pourrait remplacer les actuels filtres, pas suffisamment efficaces, ou les traitements chimiques et thermiques qui ont une durée d'action limitée. Comparé à certains traitements, il a également l'avantage de ne pas être nocif pour l'homme, souligne le CNRS.

CNRS

L'augmentation de la consommation de fibres pourrait réduire de 40 % le risque de cancer du colon
Jeudi, 02/06/2005 - 00:00

Un nombre croissant de recherches tend à prouver que le couple obésité-déséquilibre alimentaire favorise le développement d'un certain nombre de cancers très fréquents - sein et côlon. C'est ce que vient de confirmer une série d'études scientifiques présentées lors de la troisième Conférence internationale sur les bénéfices de l'alimentation méditerranéenne qui s'est tenue à Rome du 18 au 21 mai. Véritable fléau sanitaire, l'épidémie d'obésité qui guette la plupart des pays industrialisés est déjà clairement en cause dans les maladies cardiaques et le diabète. Des maux dits de civilisation liés en grande partie à un manque patent d'activité physique et à une alimentation trop riche en produits gras d'origine animale et en produits sucrés au détriment des aliments d'origine végétale : céréales, fruits et légumes. A titre d'exemple, en Allemagne et en Grande-Bretagne la consommation totale de sucres (essentiellement «invisibles» et contenus dans une foule de produits industriels) est passée de deux kilos par personne et par an à 45 kilos, en l'espace de 50 ans.

"Si l'on m'avait dit il y a vingt-cinq ans que l'obésité, le manque d'activité physique ainsi qu'un régime riche en viande et pauvre en fruits et légumes avaient un effet majeur sur ces deux types de cancer, j'aurais rétorqué que c'était impossible", reconnaît le docteur Elio Riboli, responsable de l'unité nutrition et hormones au Centre international de recherche sur le cancer (Circ) à Lyon qui dépend de l'OMS. Car des années 30 jusqu'à la fin des années 70, on était dans le dogme de la carcinogenèse exclusivement d'origine «chimique».

Mais ces cinq dernières années, un changement de paradigme s'est fait jour, à la suite des premiers résultats des grandes études prospectives de population baptisées Epic (pour European Prospective Investigation into Cancer and Nutrition) initiées par l'équipe d'Elio Riboli qui viennent de révéler des résultats surprenants en matière de cancer.

521 000 individus de 35 à 70 ans appartenant à dix pays du nord au sud de l'Europe, les uns amateurs de beurre et de viandes grasses, les autres de légumes et d'huile d'olive ont été suivis très attentivement depuis le début des années 90, tant au niveau de leur mode de vie que de leur alimentation dans le cadre de cette gigantesque enquête Epic, qui a nécessité de très gros moyens (mise en oeuvre quinze ans avant que l'Union européenne ne se décide à la financer), ainsi qu'une infinie patience. Epic, c'est aussi la première grande étude au monde couplée à des prélèvements de sang et d'ADN stockés dans des banques biologiques (à moins 196°) en vue d'analyses génétiques ultérieures.

Au final, depuis 1993, 28 000 cas de cancers ont été détectés chez ces 521 000 personnes. Pour tenter de repérer d'éventuels facteurs prédictifs, l'équipe de Riboli a intégré toute une série de facteurs : portant sur la nutrition, le rapport poids/taille mais aussi le mode de vie et l'environnement sans oublier les variables génétiques susceptibles d'expliquer l'apparition de certains cancers.

Ces recherches font suite à des constatations empiriques. Alors que les Japonais et les Japonaises, adeptes d'un régime riche en poisson et très pauvre en graisses saturées et en sucreries, restaient très minces et développaient très peu de cancer du sein et du côlon dans leur pays, une fois émigrés aux États-Unis, en l'espace d'une génération, ils ont été à leur tour victimes d'obésité et de cancer du sein et du côlon. D'où l'idée de l'étude Epic de rechercher des facteurs liés à un changement d'alimentation et de mode de vie pour expliquer l'apparition de ces nouvelles maladies.

Dans le domaine du cancer du côlon, le troisième cancer le plus fréquent au niveau mondial, les résultats de l'enquête Epic sont assez significatifs. «Le fait de doubler le total des aliments à base de fibres (céréales ou fruits et légumes) pourrait réduire la survenue d'une telle affection de 40 % dans les populations ayant une alimentation pauvre en fibres», affirme le docteur Teresa Norat du Circ. «En revanche, plusieurs études prospectives ont montré que des régimes riches en viandes rouges et en produits élaborés à base de porcs (saucisses, jambons, bacon) augmentent le risque.» Car ces viandes rouges et ces saucisses cuites produisent des amines hétérocycliques, connues pour être des agents cancérigènes pour le côlon et le rectum. A l'inverse des poissons et des volailles cuites.

Toujours d'après cette étude Epic, un manque d'activité physique et un excès de graisse abdominale sont aussi des facteurs favorisant ce type de tumeurs alors qu'un régime riche en poisson semblerait protecteur. D'autres études épidémiolgiques comparant des régimes à l'occidentale riches en graisses animales à des régimes végétariens montrent que ce cancer est un peu moins fréquent dans ce deuxième régime, d'après les analyses réalisées par Tim Key, un épidémiologiste d'Oxford.

Mais au-delà des liens entre obésité, déséquilibre alimentaire et apparition facilitée de certains types de cancer, une chose est sûre, l'épidémie d'obésité et de diabète gras qui s'abat sur nos sociétés surnourries mais mal nourries doit absolument être enrayée par des mesures politiques prises au plus haut niveau. «Six facteurs de risque sur sept de décès prématurés sont liés à l'alimentation et à un manque d'activité physique», a souligné Wilfried Kamphausen de la Direction générale de la santé et de la protection des consommateurs auprès de la Commission européenne. "Et il est désormais prouvé qu'il est possible d'éviter 80 % des maladies cardio-vasculaires, 90 % des diabètes de type II et un tiers des cancers en changeant de style de vie, en consommant beaucoup de fruits et légumes et en luttant contre la sédentarité".

Figaro

Le gène "Ras" sur la piste des cancers
Jeudi, 02/06/2005 - 00:00

Une équipe américaine est parvenue à inhiber un oncogène -c'est-à-dire un gène mutant associé au développement de certains cancers- qui serait impliqué dans plus de 30 % des tumeurs. Son nom de code : Ras. Ce gène est présent chez chacun de nous. A l'état normal, il favorise la communication des cellules entre elles. En revanche, des travaux antérieurs avaient démontré déjà que certaines mutations de ce dernier l'amènent à jouer un rôle crucial dans le développement de tumeurs du pancréas, du colon, du poumon... Mais ce n'est pas tout, puisqu'il serait également présent dans des leucémies et certains cancers de la thyroïde. La possibilité d'inhiber cet oncogène représenterait donc à l'évidence une acquisition majeure. C'est justement la performance réalisée par le Pr Matthew Topham et ses collaborateurs, à l'Université de l'Utah. Chez des souris atteintes d'un cancer de la peau et après maints essais infructueux, ils sont parvenus à bloquer l'activité de Ras. Un premier succès qui devra être suivi de beaucoup d'autres, mais qui ouvre des perspectives importantes.

ML

Vers de nouvelles molécules anti-cancer
Jeudi, 02/06/2005 - 00:00

Des équipes du CNRS, de l'Inserm, de l'European Molecular Biology Laboratory et du Paul Scherrer Institute ont déterminé la structure d'un complexe entre un médicament anti-cancéreux et sa cible, la tubuline, une protéine clef de la division cellulaire. La vinblastine est un alcaloïde naturel extrait des pervenches. Utilisée en cancérothérapie depuis une quarantaine d'années, elle a notamment permis d'inverser le pronostic des leucémies de l'enfant. Sa cible cellulaire est la tubuline, une protéine qui s'autoassemble pour constituer les microtubules. Lors de la division cellulaire, les microtubules forment le fuseau mitotique, une structure nécessaire pour la bonne partition des chromosomes vers les deux cellules filles. Sous l'effet de la vinblastine, le fuseau mitotique est endommagé, les cellules ne sont plus capables de se diviser et s'engagent dans un processus de mort cellulaire.

Les cellules tumorales, du fait de leur propension à se diviser, sont particulièrement sensibles à la vinblastine. Mais jusqu'ici le mécanisme moléculaire d'action de la vinblastine était mal compris. Des chercheurs du Laboratoire d'enzymologie et biochimie structurales (CNRS) ont déterminé la structure d'un complexe tubuline-vinblastine, en collaboration avec des chercheurs de l'Unité Inserm 440 « Signalisation et différenciation cellulaires dans les systèmes nerveux et musculaire », de l'European molecular biology laboratory (EMBL), du Paul Scherrer Institute, et de l'Institut de chimie des substances naturelles (CNRS). Ils ont montré, en analysant la structure atomique du complexe, que la vinblastine se fixe à l'interface de deux molécules de tubuline. En interférant ainsi avec les contacts entre tubulines, la vinblastine empêche leur assemblage en microtubule.

Les chercheurs montrent ici un nouveau mécanisme, différent de celui des taxoïdes, l'autre famille de médicaments anti-cancéreux ciblant la tubuline. Ces travaux, publiés dans la revue Nature du 26 mai 2005, permettent d'envisager la conception de nouvelles molécules anti-tumorales. Ils ouvrent ainsi de nouvelles perspectives thérapeutiques dans le domaine du cancer.

Inserm

Les espoirs du traitement des maladies musculaires
Jeudi, 02/06/2005 - 00:00

Le congrès international de myologie que l'Association française contre les myopathies (AFM) organisait à Nantes, du 9 au 13 mai, a permis de prendre la mesure du dynamisme des chercheurs engagés dans cette discipline, qui entre sans aucun doute aujourd'hui dans une nouvelle étape de son histoire.

La recherche sur ces maladies généralement transmises sur un mode héréditaire que sont les myopathies a, dès la fin des années 1980, commencé à largement bénéficier de l'entreprise de décryptage génétique du génome humain. Après une première période circonscrite à la thérapie génique, la myologie se nourrit aujourd'hui de l'ensemble des approches complémentaires qui, toutes, se proposent de corriger les conséquences d'anomalies constitutionnelles de nature génétique pour retrouver une fonction musculaire normale.

L'exemple le plus démonstratif, dans ce domaine, est fourni par les travaux menés sur la myopathie de Duchenne de Boulogne, la plus fréquente et l'une des plus graves maladies héréditaires touchant le système musculaire. Cette maladie a été identifiée et décrite, il y a plus d'un siècle, par le physiologiste français qui lui a laissé son nom. Elle touche environ un enfant mâle sur 3 500 et se caractérise par la perte progressive de la force et de la fonction musculaire dès l'âge de quatre ou cinq ans. En dépit des matériels palliatifs mécaniques proposés, la détérioration irréversible des muscles conduit rapidement à un décès prématuré, conséquence directe d'une insuffisance respiratoire majeure.

En 1986, Anthony Monaco, chercheur travaillant alors dans l'équipe du professeur Louis K. Kunkel (Boston), annonçait en France, lors du premier colloque national sur les maladies neuromusculaires, que la découverte du gène directement impliqué dans la physiopathologie de la myopathie de Duchenne sur l'un des bras du chromosome X était imminente. Moins de deux ans plus tard, l'équipe américaine annonçait avoir identifié la protéine (baptisée dystrophine) synthétisée par ce gène (Le Monde du 9 janvier 1988).

Ces travaux conduisirent ainsi à la mise au point d'un modèle expérimental animal : la souris dite mdx, parce qu'elle possède le défaut génétique du chromosome X responsable de la myopathie de Duchenne. En 1993, une équipe de chercheurs dirigée par Axel Kahn (Unité 129 de l'Inserm) et Michel Perricaudet (Institut Gustave-Roussy, Villejuif) montrait qu'il était possible de traiter les souris mdx en utilisant un adénovirus humain comme vecteur d'une fraction du gène de la dystrophine.

Les différents travaux menés ces dernières années chez la souris ont notamment permis d'apporter la preuve de principe qu'il est possible de corriger les conséquences structurelles et fonctionnelles de l'absence de la dystrophine dans tous les muscles de l'organisme, et ce via l'administration du vecteur viral par voie veineuse. D'autres travaux ont également été lancés chez de gros animaux (chiens labradors et primates) qui constituent également des modèles expérimentaux pour l'étude de différentes maladies neuromusculaires.

Il y a peu, une équipe française dirigée par Olivier Danos et Luis Garcia (CNRS-Généthon), travaillant en collaboration avec des chercheurs de l'Institut Cochin de Paris, annonçait avoir de la sorte pu obtenir la production de dystrophine au sein de muscles de souris génétiquement déficientes après leur avoir injecté un virus porteur d'une molécule d'ARN capable de rendre inutile l'utilisation de l'exon anormal lors de l'épissage. Dans tous les cas, la réapparition de la dystrophine a été détectée à partir de quatre semaines après l'injection dans la plupart des fibres du muscle. Les souris traitées ont rapidement montré des performances musculaires équivalentes à celles des souris saines (Le Monde du 6 novembre 2004). Des études sont en cours chez le chien.

Parallèlement à la poursuite des recherches fondamentales sur les cellules musculaires, les communications faites au congrès de Nantes ont, d'autre part, témoigné du rapide développement des recherches expérimentales, a priori prometteuses, issues des dernières découvertes concernant les cellules souches. Tout est ainsi en place pour qu'une nouvelle ère s'ouvre prochainement dans le traitement des maladies musculaires.

Le Monde

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top