RTFlash

RTFLASH Recherche & Technologie
NUMERO 365
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Décembre 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les Français : 1ers utilisateurs d'Internet en Europe
Microsoft invente la "géohorloge" et l'agenda familial électronique
Viiv : Intel réinvente le PC de salon
Grande Bretagne : I-Kids et KidsOK, un portable qui surveille vos enfants en permanence et un service de géolocalisation des enfants
L'Université Lyon 2 modernise son environnement numérique de travail
Université de Stanford : le "podcasting" transforme la diffusion du savoir
Le SMS a changé la vie des sourds et malentendants
Quand les caméras deviennent intelligentes
Espace
Cosmologie : la théorie des super-cordes...tient la corde
Virgin espère envoyer des touristes dans l'espace vers 2010
La Nasa à la conquête de Pluton : ultime planète inexplorée du système solaire
Terre
2005, record de chaleur dans l'hémisphère Nord
Effet de serre : record d'émissions aux Etats-Unis
Un projet d'éolien offshore au large de la Seine-Maritime et de la Somme
Vivant
La mortalité par cancer continue à baisser aux USA
Cancer gastrique : une avancée thérapeutique majeure
La vitamine D joue un rôle essentiel dans la fonction respiratoire...et protège du cancer du colon !
Cancer colorectal : une réaction immunitaire réduit le risque de récidive
Prévention cardio-vasculaire : une protéine essentielle découverte
Le chocolat noir bon pour le coeur !
Des gènes sous contrôle mécanique !
Maladies d'Alzheimer et apparentées : un nouveau cas toutes les 7 secondes
Homme
Droits d'auteur sur Internet : la classe politique et le monde culturel profondément divisés
Alliance stratégique Google-AOL pour contrer Microsoft
Edito
Voiture propre et nouvelle conception des transports individuels : un défi technologique, économique et politique



Il est très intéressant de rapprocher le contenu et les conclusions de deux récents rapports concernant les véhicules du futur, celui de l'AIE (Agence Internationales de l'Energie), déjà évoqué dans notre lettre 362 (Voir article sur la voiture à hydrogène dans la lettre 362) et le dernier rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, intitulé « La définition et les implications du concept de voiture propre » (Rapport de l'OPECST à paraître).

Le rapport de l'OPECST souligne que, dans l'immédiat, la motorisation diesel est la solution la plus efficace et la moins chère pour réduire les émissions en Europe, où le diesel est massivement diffusé. Les motorisations diesel dégagent en effet moins de gaz carbonique - principal coupable du réchauffement de l'atmosphère - que les motorisations essence car leur consommation est en moyenne moindre de 20 % à 30 %. Elles peuvent aussi fonctionner avec des esters d'huiles végétales, les "biocarburants". Le rendement énergétique de cette technologie, qui a perdu beaucoup de ses défauts environnementaux initiaux grâce au filtre à particules et à l'injection haute pression, peut encore être amélioré de l'ordre de 20 %, selon le rapport.

En revanche, les véhicules associant propulsion diesel et électrique, comme ceux en préparation chez PSA, trouvent grâce auprès des rapporteurs. Pour eux, la meilleure des solutions serait pour le court terme "un diesel hybride, disposant d'un système automatique arrêt/démarrage en circulation urbaine, et doté d'un filtre à particules, dans l'attente, au- delà de 15 ans, de véhicules à pile à combustible commercialement viables".

Les rapporteurs relèvent également que les progrès récents des batteries automobiles (batteries Lithium-Ion et Lithium-Polymères), redonnent une chance au véhicule électrique, comme l'attestent les projets des groupes Bolloré et Dassault. Mais le véhicule électrique ne pourra concurrencer avec succès les véhicules thermiques que s'il affiche "les mêmes performances, la même polyvalence et le même coût que le véhicule thermique", affirment-ils.

Ce rapport de l'OPECST est complémentaire de celui de l'AIE qui explore, pour sa part, les perspectives à plus long terme du moteur à hydrogène pour les véhicules. L'AIE souligne, à juste titre, que la généralisation des véhicules fonctionnant à l'hydrogène représente un double défi, techno-économique et politique. Une pile à combustible coûte actuellement 2.000 dollars par kilowatt d'énergie produite. Il faudrait ramener ce coût à 100/200 USD pour engager une production de masse, tout en sachant que le coût des moteurs actuels de voiture est de l'ordre de 50 USD par kilowatt.

L'AIE estime par ailleurs qu'il faut diviser de trois à dix fois le coût de revient actuel de l'hydrogène, actuellement de l'ordre de 50 dollars par gigajoule (soit l'équivalent de 8 kilogrammes d'hydrogène), pour que les voitures à pile à combustible puissent être compétitives. Il faudrait y ajouter 1 à 2 USD/Gj pour refléter le coût des pipelines d'acheminement, 7 à 10 USD/Gj pour les installations de cryogénisation et de 3 à 6 USD/Gj pour les stations-service. Les voitures seront également difficiles à construire à des prix compétitifs, car l'hydrogène est un gaz très peu dense. Pour le stocker, il faut donc le comprimer très fort (jusqu'à 700 fois la pression atmosphérique) ou le geler à -253° C.

Les technologies existent mais leur coût est très élevé, y compris du point de vue énergétique, puisque jusqu'à 60 % de l'énergie de l'hydrogène embarqué dans une voiture pourrait être consommé dans son stockage.

Pour l'AIE, le développement de la pile à combustible rendra nécessaire dans le demi-siècle des investissements additionnels pouvant atteindre au total 4000 milliards de dollars (1.000 milliards de dollars dans les pipelines de transport, 700 mds USD dans les stations-service et 2.300 milliards de dollars dans les véhicules). Cette somme peut sembler considérable mais elle ne représente cependant qu'un quart des 16.000 milliards de dollars que la planète devra investir dans l'énergie d'ici 2030.

Il faut donc non seulement parvenir à réduire au moins d'un facteur 20 le coût de fabrication et d'utilisation du moteur à hydrogène mais également mettre en oeuvre, au niveau des états, des politiques très volontaristes qui facilitent la difficile transition vers l'hydrogène.

Selon ce rapport de l'AIE, dans l'hypothèse la plus favorable, les véhicules mus par une pile à combustible à l'hydrogène pourraient être commercialisés à partir de 2025 et représenteraient 30 % du parc automobile en 2050, soit 700 millions de véhicules. La consommation mondiale de pétrole en serait ainsi réduite de 13 %. Avec l'apport d'autres technologies nouvelles, un tel développement du parc mondial de ce type de véhicule permettrait de diminuer de moitié d'ici 2050 les émissions de gaz carbonique, principal fautif du réchauffement de la planète.

Le gros problème de l'hydrogène est que, contrairement au pétrole ou au gaz, il n'existe pas dans la nature à l'état natif. Il faut donc le fabriquer par différentes voies technologiques mais toujours au prix d'une grosse consommation d'énergie et l'utilisation accrue de l'hydrogène impliquera d'améliorer les techniques de capture et de stockage du gaz carbonique dégagé lors de sa fabrication.

La généralisation de l'hydrogène comme carburant pour nos voitures doit donc relever de multiples et complexes défis, baisse du coût de fabrication de la pile à combustible, baisse du coût de production et de stockage de l'hydrogène, mise en place d'un réseau de distribution suffisant et sûr. Face à ces défis, les chercheurs étudient donc d'autres solutions, comme des systèmes de production d'hydrogène dans le véhicule, ce qui évite d'avoir à embarquer des réservoirs ou des bouteilles de gaz. L'automobile devient alors une centrale électrique sur roues, autosuffisante.

Autre solution, complémentaire, la cogénération : les Japonais travaillent beaucoup dans ce domaine qui consiste à faire d'abord entrer la Pile A Combustibles (PAC) dans nos maisons et nos immeubles et dans un second temps, lorsque le rapport coût-efficacité des PAC aura progressé, à généraliser l'utilisation de la PAC dans tous les véhicules.

Mais en attendant de basculer dans l'ère de l'hydrogène, sans doute pas avant 2050, on peut déjà réduire considérablement les émissions de gaz à effet de serre en améliorant et en combinant des technologies existantes, moteurs hybrides diesel-électrique ou thermique-électrique et voiture électrique de nouvelle génération.

Mais au-delà de la dimension technologique, il est également possible, comme le préconisent d'ailleurs les auteurs du rapport de l'OPECST, de rationaliser et de maîtriser beaucoup mieux l'utilisation de nos voitures, non seulement en améliorant et en développant l'offre de transports en commun mais également en utilisant pleinement les potentialités des technologies de l'information qui permettent une prévision et une gestion « intelligente » du trafic routier. Les TIC peuvent également permettre de répondre de manière beaucoup plus souple et efficace à la diversité de la demande individuelle en matière de transports et de déplacements, en généralisant par exemple le covoiturage interactif, géré en temps réel sur l'Internet.

En attendant l'avènement de l'ère de l'hydrogène, qui prendra deux générations à cause des gigantesque défis techno-économiques qui viennent d'être évoqués, nous pouvons donc immédiatement mettre en oeuvre, grâce aux puissantes ressources des TIC, des concepts et des services très innovants en matière de déplacements et d'utilisation des transports individuels et collectifs. Et améliorer ainsi considérablement la qualité de vie de nos concitoyens, tout en réduisant de manière très sensible les coûts économiques, sociaux et environnementaux liés à l'utilisation de la voiture et aux transports routiers.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les Français : 1ers utilisateurs d'Internet en Europe
Vendredi, 02/12/2005 - 00:00

Avec une moyenne de treize heures en ligne par semaine, les Français arrivent en tête du classement européen de l'utilisation d'Internet en 2005, selon une étude de l'EIAA (European Interactive Advertising Association) publiée sur le site de l'afjv (Agence Française pour le Jeu Vidéo). Intitulée « EIAA Mediascope Europe », l'étude résulte de 7.000 entretiens téléphoniques aléatoires entre septembre et octobre 2005, dont 1.000 au Royaume-Uni, en Allemagne, en France, en Espagne, en Italie et dans les pays scandinaves mais aussi 500 en Belgique et aux Pays-Bas. Son objectif consiste à analyser le temps que les Européens consacrent aux médias et à mieux appréhender leur utilisation d'Internet.

Entre 2004 et 2005, les Français ont accru le temps d'utilisation d'Internet de 38 %, contre 17 % pour leurs condisciples européens. En des termes plus précis, ils passent en moyenne près de treize heures en ligne par semaine, contre un peu plus de 9 heures en 2004. La moyenne européenne s'établit autour de 10h15 par semaine en 2005. Depuis 2003, poursuit l'EIAA, le temps que les Français passent sur Internet a crû de 43 %.

D'ailleurs, un nouveau clan a vu le jour. Les super Internautes. En effet, l'étude note que 32 % des personnes interrogées en France consacrent plus de 16 heures par semaine à leurs activités en ligne, « une grande majorité (79 %) étant en ligne 5 jours par semaine ou plus. » Cette tendance dépasse les frontières françaises puisque 24 % des Européens interrogés passent plus de 16 heures par semaine sur Internet et 69 % se connectent à Internet 5 jours par semaine ou plus. Un autre constat s'impose : l'utilisation d'Internet croît plus vite que celle de tous les autres media. Tandis que l'utilisation d'Internet en France a progressé de 38 % entre 2004 et 2005, celle de la télévision et de la radio n'a augmenté que de 10 %. De même, les magazines et les journaux n'ont enregistré qu'une maigre hausse de 2 % et de 1 % respectivement.

L'un des atouts d'Internet est d'offrir un large spectre d'utilisations, de la messagerie instantanée, à la téléphonie, en passant par le blog, la radio en ligne et les forums de discussions. A titre d'exemples, près de 48 % des internautes français utilisent la messagerie instantanée au moins une fois par mois, près d'un tiers d'entre eux écoutent la radio en ligne et 18 % téléphonent via Internet.

EIAA

Microsoft invente la "géohorloge" et l'agenda familial électronique
Vendredi, 02/12/2005 - 00:00

Microsoft vient de présenter deux innovations en matière d'informatique conviviale qui visent à banaliser l'usage des TIC dans les foyers. La première est une "géohorloge" qui vous permet de visualiser et d'entendre où se trouvent les personnes de votre famille à un instant donné. La chercheuse qui l'a mise au point, Abigail Sellen, pense que sa meilleure utilisation est dans le foyer. " Nos études sur la vie familiale nous ont montré qu'il était important pour les parents de savoir, à un instant donné, où se trouvaient les enfants ou le conjoint, de manière à pouvoir planifier les activités familiales (courses, cuisine, déplacements).

Autre innovation, "HomeNote", qui est la version futuriste du pense-bête. L'originalité d'Homenote, sorte d'ardoise électronique, est qu'il est attaché à un lieu, une pièce de la maison, et non à un utilisateur précis. L'idée est que chacun puisse, dans un endroit donné, consulter très facilement un texte ou un message, accompagné, le cas échéant, d'un dessin ou d'une photo, qui reste affiché de panière permanente sur l'écran du Homenote.

HomeNote permet aux membres de la famille de communiquer de manière douce et conviviale en consultant, dans les endroits de la maison définis en commun, des notes électroniques à destination de tous. Ces messages restent affichés de manière permanente et sont "poussés" vers le destinataire qui n'a donc aucune démarche volontaire à effectuer pour aller lire ses messages. Les messages du HomeNote sont peu intrusifs car on les visualise de manière naturelle dans les endroits "périphériques", murs, cuisine, entrée, chambre plutôt que central (TV ou PC).

Microsoft

BBC

Viiv : Intel réinvente le PC de salon
Vendredi, 02/12/2005 - 00:00

Depuis bientôt trois ans, tous les constructeurs de matériels et développeurs de logiciels tentent de faire entrer le PC dans le salon. Le rêve : une machine connectée au téléviseur et pilotée avec une télécommande, pour écouter la musique stockée sur l'ordinateur, enregistrer ses émissions de TV en numérique et acheter des films en ligne. La réalité : un PC bruyant, lent à démarrer, plutôt laid, sans parler des services d'achat en ligne pas toujours au point.

Les choses pourraient changer avec Viiv (prononcer « vaïve »), une idée signée Intel. L'objectif est de reproduire pour le PC de salon ce qui avait fait le succès de Centrino sur les portables. Pour l'usager, Centrino est un label qui garantit de bonnes performances, une autonomie importante et un réseau WiFi opérationnel. Pour les constructeurs, Centrino est un « cahier des charges », des spécifications techniques auxquelles ils doivent se conformer pour pouvoir apposer le logo Centrino sur leur matériel. Viiv sera donc au PC de salon ce que Centrino était au portable : Intel ne fabriquera aucun PC mais a défini des caractéristiques que les constructeurs devront respecter pour pouvoir estampiller leurs machines Viiv. Ainsi, les ordinateurs de salon Viiv devront être dotés d'un processeur dual core et d'un chipset Intel, mais aussi d'une carte son 5.1, plus une prise réseau.

Pour faciliter l'utilisation de ces ordinateurs, la télécommande est de rigueur et, surtout, l'interrupteur de mise en route doit allumer et mettre en veille le PC aussi rapidement - sinon plus - qu'un téléviseur. De la même façon, un logiciel baptisé MediaShell sera inclus dans les PC Viiv, et permettra en théorie de lire n'importe quel contenu (son, image ou film) sans se soucier du format de fichier. Enfin, un deuxième programme simplifiera la connexion entre le PC et les périphériques Viiv compatibles.

Fin et élégant, le premier prototype de PC de salon Viiv ressemble à un portable sans écran. Dès lors, il trouve facilement sa place à côté de la télévision. Mais les PC de salon Viiv pourraient prendre bien d'autres formes. Ainsi, certains fabricants de produits bruns (hi-fi, vidéo, etc.) ont conçu des téléviseurs intégrant un PC Viiv. Toute la puissance d'un ordinateur sans son encombrement.

OINet

Grande Bretagne : I-Kids et KidsOK, un portable qui surveille vos enfants en permanence et un service de géolocalisation des enfants
Vendredi, 02/12/2005 - 00:00

mTrack a lancé un téléphone portable "trouveur d'enfant", le mobile i-Kids. Il peut localiser le lieu où se trouve votre enfant avec une précision à 5 mètres près via le satellite. Ce mobile fonctionne comme un téléphone portable normal, recevant des appels et des textos avec des boutons programmables et un bouton urgent pour que l'enfant appuie dessus, ce qui va numéroter les quatre numéros programmés jusqu'à ce qu'il soit connecté. La fonction GPS fonctionnera même si le i-Kids est éteint. Vous pouvez paramétrer les "zones de sécurité" et recevoir des alertes si votre enfant quitte une zone.

Complémentaire du i-Kids, le système KidsOK, également proposé par la société britannique mTrack, propose aux parents, pour 3 euros par mois, un service qui leur permet, à partir de leur mobile ou de leur PC, de localiser les appels de leurs enfants : lorsque l'enfant appelle avec son mobile, les parents reçoivent une minute plus tard, directement sur leur mobile, une carte détaillée, accompagnée d'un texte descriptif, leur permettant de localiser leur enfant à 5 mètres près. Ce service peut être utilisé avec tout portable récent ou avec un portable adapté vendu 7 euros par mTrack.

i-Kids

KidsOK

L'Université Lyon 2 modernise son environnement numérique de travail
Vendredi, 02/12/2005 - 00:00

Depuis 3 ans, l'université Lumière Lyon 2 propose un "bureau virtuel" à ses étudiants, enseignants et personnel administratif, soit environ 30.000 personnes. A cet "outil de gestion personnalisable, d'organisation et d'échange d'informations sécurisé" s'ajoutent notamment une plate-forme e-learning, une web-TV, un espace personnel de stockage "disque virtuel" ainsi que l'encyclopédie Universalis et une version électronique des différents dictionnaires Robert.

Une telle expérience constitue une "première" dans le monde universitaire, par son envergure. L'encyclopédie Universalis en ligne, d'ores et déjà accessible sur site à l'ensemble du personnel et des étudiants, peut être consultée de n'importe quel ordinateur via le principe d'annuaire LDAP, avec une authentification par nom d'utilisateur et mot de passe sans prendre en compte l'adresse IP. Les contenus mis à disposition, actualisés bimensuellement et chaque semaine pour les articles, sont libérés de droits pour un usage pédagogique au niveau de l'établissement. Une fois connecté à cet ENT, l'étudiant peut non seulement consulter les revues et informations en ligne mais également échanger des informations avec les enseignants ou d'autres étudiants.

Autre nouveauté, l'ensemble des étudiants et personnels de l'université est doté d'une carte "cumul" à puce servant tout à la fois de carte d'étudiant et de bibliothèque, de badge d'accès (parkings, salles), de moyen de paiement pour le restaurant universitaire ou les distributeurs de boissons.

Devant le succès de cet ENT (plus d'un million de connexions par mois), Lyon 2 a profondément modernisé et renforcé cet outil remarquable fin 2005 en mettant notamment à la disposition des étudiants plusieurs salles de travail équipées d'ordinateurs récents et de rétroprojecteurs.

Dernière innovation en date pour faciliter la circulation du savoir : la fonction « scan to mail » qui permet à tout étudiant ou enseignant d'envoyer aux destinataires de son choix tout document papier, via une sorte photocopieur spécialement conçu et adapté pour cette tâche.

Lyon 2

Université de Stanford : le "podcasting" transforme la diffusion du savoir
Vendredi, 02/12/2005 - 00:00

Le "podcasting", ou "baladodiffusion" selon nos cousins Canadiens, permet de recevoir, automatiquement, des enregistrements sonores sur son ordinateur par le biais de l'Internet. Ce mode de diffusion se répand dans les universités. L'Université de Stanford qui entretient depuis de nombreuses années des relations avec la firme Apple -située non loin de là- a intégré ce système sur son site et propose à ses étudiants de s'abonner à des flux podcast et de recevoir, sur leurs PC, des enregistrements de cours, de lectures publiques ou de débats avec un accès contrôlé.

A ce jour, plus de 400 programmes sont proposés. Pour l'instant, une série de cours a été intégrée sur iTunes avant d'être étendue à d'autres au cours de l'année 2006. Une analyse fine sera faite de l'impact de ce nouveau service sur l'assistance aux cours.

Ce phénomène du podcast est en train de se généraliser à l'ensemble des grandes universités américaines. Lié au développement de la « blogosphère », le podcast est différent car il ajoute du son, là où il n'y avait que des mots. Il permet également une grande liberté de ton aux producteurs. Casey Alt, directeur administratif pour les sciences de l'information à l'Université Duke explique que, pour lui, les podcasts et d'autres medias numériques transforment en profondeur le fonctionnement des institutions académiques aux Etats Unis et que ce phénomène va s'accentuer.

SU

PN

Guardian

Le SMS a changé la vie des sourds et malentendants
Vendredi, 02/12/2005 - 00:00

Pour la communauté des 500.000 sourds, les utilisations du mobile sont multiples, aussi nombreuses que les types de surdité existants mais c'est le texto qui a le plus bouleversé la vie des malentendants. «Les malentendants ont été les premiers à se l'approprier totalement», assure Jérémie Boroy, sourd de naissance et président de l'Union nationale pour l'insertion sociale des déficients auditifs (Unisda). En Grande-Bretagne, près de 9 millions de sourds et malentendants y ont recours chaque jour, pour un total d'un milliard de SMS envoyés par mois !

Pour les malentendants, le SMS a été le début de la révolution portable et a sorti un grand nombre de sourds de leur isolement en leur donnant un nouvel outil de communication mobile irremplaçable. Les applications du SMS pour les sourds sont innombrables : la police d'Irlande va ainsi permettre aux personnes sourdes et muettes de pouvoir, grâce au SMS, de se mettre en contact avec les n° d'urgences. En France, l'opérateur ORANGE propose aux malentendants un forfait SMS / MMS exclusif, adapté à leurs besoins et pour un coût préférentiel. L'offre est couplée avec un portable capable d'envoyer des photos et muni d'un clavier permettant l'écriture intuitive des messages.

NS

Quand les caméras deviennent intelligentes
Vendredi, 02/12/2005 - 00:00

Rien dans les mains, rien dans les manches. Juste une feuille cartonnée posée sur une table. Et sur cette feuille, un système projette l'image d'un gros bonhomme jaune souriant et de deux carrés, un rouge et un vert. Vu de Montbonnot, près de Grenoble, la vidéoconférence du futur a des allures de jouet pour bébé. Et pourtant ! Passez un doigt sur le carré vert et - surprise ! - l'image sera modifiée : la béatitude du bonhomme sera transformée en perplexité. Soulevez, transportez et bougez ensuite en tous sens ce support de papier et, comme «collée» à sa surface, l'illustration suivra le mouvement. Enfin, jetez vos bras en avant, et celle-ci bondira sur le mur vous faisant face, pour s'afficher agrandie sur le tableau qui y est accroché ! Fonctionnant grâce à six caméras et vidéoprojecteurs répartis dans la pièce, ce système de «surface interactive» est destiné à équiper, un jour, des salles de réunion.

Mais pour l'heure, il est surtout considéré par ses concepteurs comme un outil de démonstration chargé d'illustrer les activités du Gravir, un étonnant laboratoire spécialisé dans la robotique, la vision, la réalité virtuelle, la visualisation et l'animation. Installé dans le bâtiment en forme de paquebot blanc de l'Inria Rhône-Alpes, ce centre, créé il y a dix ans, regroupe 157 personnes, dont quarante chercheurs permanents.

En son sein, une incroyable panoplie d'équipements : « workbench », ou « plan de travail virtuel », qui permet de manipuler des données visuelles avec ou sans retour d'effort ; cave et studio où un utilisateur peut s'immerger et interagir avec des objets disposés dans un paysage virtuel ; machines « Koala » à quatre roues « évolutionnistes » ; « cybercars », ou voitures sans chauffeurs habillées de capteurs télémétriques. Et même un robot bipède mis au point voici quelques années dans un tout autre cadre mais fièrement exhibé ici au bout d'une chaîne comme un témoin vieillissant des progrès de ces technologies !

Son savoir-faire dans les procédés de « suivi et interprétation » - des logiciels permettant de détecter, de suivre la trajectoire et même de reconnaître des objets à travers les images prises par des caméras - est, notamment, réputé. Au point que les scientifiques du laboratoire en sont aujourd'hui à développer les premières applications. Mis au point il y a cinq ans déjà, l'un de leurs logiciels, dit de « suivi robuste », est ainsi consacré au comptage sélectif : il permet de dénombrer à l'aide d'une caméra les humains passant à proximité d'un lieu déterminé. Désormais commercialisée et utilisée pour la surveillance de zones aéroportuaires, cette étonnante technologie a été testée avec succès, en 2003, sur la vitrine d'un magasin à Madrid. Sa mission : déterminer le pourcentage de badauds qui s'arrêtaient pour admirer les marchandises exposées !

CNRS

^ Haut
Espace
Espace et Cosmologie
Cosmologie : la théorie des super-cordes...tient la corde
Vendredi, 02/12/2005 - 00:00

Soixante parmi les plus brillants physiciens du monde viennent de se réunir pendant trois jours dans le cadre du Conseil Solvay, à l'hôtel Métropole, comme l'avaient fait Einstein, Planck, Bohr et tous les grands physiciens du début du vingtième siècle. Leur objectif était de faire le point sur les dernières théories de l'Univers : comment concilier la relativité et la mécanique quantique ? Comment étudier les trous noirs et le big bang ? Pourra-t-on un jour savoir ce qu'il y avait avant le big bang ?

Au centre des débats, la théorie des super-cordes, étudiées depuis 35 ans, qui vise à être la théorie du «Tout» qui réconciliera la relativité d'Einstein et la mécanique quantique. Elle prévoit que les particules élémentaires sont nées des vibrations de cordes microscopiques et qu'il y a 11 dimensions dans notre espace. Mais elle reste d'une effroyable complexité et on est loin d'avoir achevé son étude. «Ce qui est sûr, explique David Gross, prix Nobel, est qu'on n'est pas sûr de bien la comprendre. On est sans doute au milieu du chemin. On pense cependant que cette théorie est une partie de la solution.»

On aimerait cependant, après 35 ans de recherches, avoir ne fut-ce qu'une petite preuve qu'on est dans le bon. « On espère avoir une preuve grâce aux cordes cosmiques, expliquent David Gross et le Français Thibaut Damour. Dans les premiers instants après le big bang, l'espace de l'univers s'est enflé à une vitesse phénoménale, c'est «l'inflation». Les cordes, ces minuscules objets de 10 exposant -33 cm, ont été étirées à la même vitesse jusqu'à occuper tout l'espace de l'Univers. Aujourd'hui encore, ces cordes s'étendent d'un bout à l'autre de l'espace. On espère pouvoir déceler quand elles passent devant une galaxie en dédoublant son image par un effet de lentille. Ces cordes cosmiques pourraient aussi causer des ondes gravitationnelles, prédites par la théorie d'Einstein et qu'on espère déceler bientôt grâce au détecteur européen Virgo et à son homologue américain.»

Le futur grand détecteur européen au Cern à Genève, le LHC, pourrait aussi - indirectement - donner des preuves s'il parvient à détecter des particules supersymétriques postulées par la théorie. Pour Murray Gell-Mann, prix Nobel, «la théorie des cordes a ceci de merveilleux qu'elle génère automatiquement la relativité générale et la mécanique quantique. On ne sait pas si elle est «la» solution mais elle est sans doute un pas vers la solution». Steven Weinberg, prix Nobel, abonde en ce sens, en disant « qu'on ne sait pas si elle est la bonne théorie mais elle est un extraordinaire stimulant».

Pour Thibaut Damour cette théorie, et donc cette réunion de Bruxelles, pose le problème de l'émergence de l'espace et du temps. « Pendant deux mille ans, on a réfléchi en posant des objets dans un espace. Il y avait toujours un contenu (l'objet) et un contenant (l'espace, le temps). Einstein a malmené cela en montrant qu'un objet pouvait modifier le contenant, c'est-à-dire l'espace-temps dans lequel il se trouve. Avec la théorie des cordes, on va bien plus loin et le contenu peut devenir le contenant, il n'y a plus de distinction.

Cela permet par exemple d'espérer gommer la singularité du big bang. On butait jusqu'ici sur ce point mais on peut aujourd'hui travailler par des analogies pour supprimer ce point d'infinis. Je présenterai un travail qui dresse un parallèle entre le big bang et le trajet d'une particule E 10 dans un espace infini. Il ne faut surtout pas envisager le big bang comme étant un début, cela n'a pas de sens. C'est tout juste un bord de l'espace-temps. Au bord de cet espace-temps, cela devient flou à nos yeux et il faut construire un autre oeil pour voir ce qui s'y passe.»

Thibaut Damour est très enthousiaste pour la théorie des cordes. «Certes, on ne la comprend pas vraiment, mais elle a tous les ingrédients qu'il faut. Elle est infiniment riche et on ne cesse d'en explorer les potentialités. Joseph Polchinski, présent, a découvert qu'elle postulait l'existence d'objets massifs appelés «branes». Nous pourrions être sur un de ces branes. La théorie des cordes est si riche qu'elle ne prévoit pas un seul univers mais une infinité d'univers à dimensions variables.

La théorie des cordes permet la disparition ou l'apparition d'une dimension de plus. Il n'y a pas de sélection dans la théorie qui expliquerait pourquoi nous sommes dans un univers à trois dimensions macroscopiques comme nous le connaissons. On ne sait si les infinités d'autres univers existent ou pas. Depuis les années 20, on a cependant démontré que seul un univers à trois dimensions d'espace pouvait engendrer une physique et une chimie stables. Un autre univers à plus de dimensions ne pourrait porter la vie.

Enfin, les physiciens ont discuté de la nature de la mystérieuse "énergie noire". Depuis 1998 les observations cosmologiques ont montré que 70 % de la masse de l'Univers serait cette mystérieuse énergie du vide. Mais elle peut théoriquement osciller dans de telles marges que tous les univers sont possibles. Cette énergie qui s'oppose à la gravitation est-elle la fameuse "constante cosmologique", imaginée par Einstein, s'apparente-elle à l'énergie quantique du vide, à la "quintessence" ou à autre chose de totalement inconnue ?

LB

Virgin espère envoyer des touristes dans l'espace vers 2010
Vendredi, 02/12/2005 - 00:00

La compagnie Virgin Galactic espère lancer son premier vaisseau spatial touristique vers 2010 à partir d'une base dont la construction va commencer l'année prochaine dans le sud-ouest des USA. L'entreprise du milliardaire britannique Richard Branson et le gouverneur de l'Etat du Nouveau-Mexique Bill Richardson ont récemment annoncé avoir conclu un accord pour la construction de cet "aéroport spatial". Construit sur un terrain public de 70 km2, l'équipement coûtera 225 millions de dollars. Les travaux, qui seront lancés dès 2006, devraient s'achever vers 2009-2010, date à laquelle Virgin Galactic prévoit d'envoyer ses premiers touristes dans l'espace.

La compagnie, dévoilée en septembre 2004 par M. Branson, qui s'était associé au concepteur américain du premier vol spatial entièrement privé de l'Histoire, Mojave Aerospace Ventures (MAV), a un objectif de pas moins de 50.000 touristes spatiaux lors de ses 10 premières années d'opération.

Le prix du billet a été établi à 200.000 dollars et Virgin Galactic demande un acompte minimum de 10 % pour réserver sa place, "totalement remboursable" si le client changeait d'avis, selon son site Internet. L'entreprise affirme avoir déjà enregistré plus de 40.000 réservations venant de 120 pays. "Avec Virgin aux commandes, des passionnés du monde entier vont voler dans l'espace, régulièrement et en toute sécurité, dans quelques années seulement. Et ils décolleront d'ici, au Nouveau-Mexique, de la première base spatiale spécialement construite" pour des vols privés, s'est félicité M. Richardson.

M. Branson, milliardaire flamboyant spécialiste des coups médiatiques, a indiqué que son entreprise mettait actuellement au point un vaisseau spatial touristique à huit places, "SpaceShipTwo", construit sur le même principe que "SpaceShipOne", le vaisseau de MAV qui a atteint l'espace en juin 2004. En octobre de la même année, cet engin avait permis à ses concepteurs de remporter un prix de 10 millions de dollars en dépassant à deux reprises en moins de 15 jours une altitude de 100 km avec l'équivalent de trois personnes à bord.

L'appareil, mis au point par l'ingénieur américain Burt Rutan, a la particularité d'être lancé à partir d'un avion en vol, et non d'un pas de tir comme les navettes spatiales ou les fusées. Comme les astronautes professionels, les clients de Virgin Galactic subiront un entraînement spécial, limité à deux jours, dans des simulateurs pour les familiariser à l'apesanteur. Lors du vol, ils seront équipés d'une "console de communications personnelle" qui leur permettra d'enregistrer leur expérience, a indiqué M. Branson. "La conception de SpaceShipTwo est actuellement dans ses dernières étapes, et la construction du prototype commercial devrait commencer en 2006", a indiqué Virgin Galactic, espérant un vol d'essai en 2008. L'entreprise veut construire cinq exemplaires de son vaisseau spatial et deux avions-lanceurs.

Aux termes de l'accord avec Virgin Galactic, le Nouveau-Mexique prendra à sa charge la construction de l'équipement et la compagnie signera un bail de location pour une durée de 20 ans. Outre son siège et son "aéroport spatial", l'entreprise de M. Branson installera sur place un centre touristique sur le thème de l'espace et un hôtel. Les travaux vont commencer dès 2006 dans le désert à proximité de la ville de Las Cruces (sud-ouest), à 70 km au nord de la frontière mexicaine. M. Richardson, l'un des ténors du parti démocrate, a dit espérer d'importantes retombées économiques pour son Etat majoritairement désertique.

Voila

La Nasa à la conquête de Pluton : ultime planète inexplorée du système solaire
Vendredi, 02/12/2005 - 00:00

La Nasa s'apprête à lancer en janvier le vaisseau spatial New Horizons à destination de Pluton, seule planète n'ayant jamais eu la visite d'une sonde robotisée et dont les caractéristiques devraient aider à percer les mystères des origines de notre système solaire. Si tout se passe comme prévu, New Horizons, de la taille d'un grand piano, dotée de sept instruments scientifiques et pesant 454 kg, arrivera à proximité de Pluton au début de l'été 2015 après un périple de 6,4 milliards de km, explique Andrew Dantzler, directeur de la division Système solaire de la Nasa.

La sonde survolera alors pendant six mois la plus petite planète du système solaire et également la plus éloignée du soleil autour duquel elle fait une révolution en 248 ans. Elle pourra ainsi prendre de nombreuses images de Pluton, encore une énigme 75 ans après sa découverte, et recueillir des données sur son atmosphère et sa géologie. Les seules photographies numériques prises par le télescope spatial Hubble sont très floues. New Horizons, une mission de 650 millions de dollars, procédera aussi à des observations de Charon, la principale lune de Pluton ainsi que de deux autres satellites récemment découverts par Hubble.

La petite sonde se dirigera ensuite vers la ceinture de Kuiper qu'elle traversera en récoltant une moisson d'informations tout aussi précieuses. Les astronomes ont repéré dans cette ceinture d'astéroïdes, entourant notre système solaire, des centaines de milliers d'objets célestes apparemment similaires à Pluton. Ces découvertes suscitent un débat passionné dans la communauté astronomique sur la classification de Pluton dont une partie grandissante l'apparente davantage à un gros astéroïde. Pluton est plus petite que sept satellites du système solaire. Son diamètre est deux-tiers celui de notre Lune.

Mais au-delà de ce débat, les caractéristiques uniques de Pluton, mi-planète, mi-astéroïde, et de celles des millions de débris de la ceinture de Kuiper laissés par la formation du système solaire, en font un laboratoire céleste unique. Pour l'Académie des Sciences, l'exploration de Pluton, de ses satellites et de la ceinture de Kuiper, figure parmi les plus hautes priorités de la conquête spatiale en raison de "leur importance scientifique fondamentale pour faire avancer la compréhension du système solaire". La Nasa prévoit de lancer New Horizons à partir du 17 janvier depuis la base militaire de Cap Canaveral (Floride, sud-est). Il s'agit du premier jour d'une fenêtre de tir en comptant 29. Lancer New Horizons au-delà de cette période entraînera un retard de plusieurs années. Les scientifiques de la mission expliquent qu'il faut absolument arriver avant 2020. Pluton sera alors trop éloigné du soleil et son atmosphère sera gelée et transformée en neige.

Pour gagner du temps, la Nasa va lancer la sonde sur une puissante fusée Atlas V-551 à deux étages, qui lui donnera une énorme vélocité --environ 50.000 km/heures-- faisant de New Horizons l'engin spatiale le plus rapide. Au début 2007, l'engin frôlera Jupiter dont la force gravitationnelle le propulsera à plus de 75.000 km/h en ligne droite pour un rendez-vous avec Pluton. New Horizons est alimentée par un générateur thermoélectrique au plutonium produisant 200 watts.

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
2005, record de chaleur dans l'hémisphère Nord
Vendredi, 02/12/2005 - 00:00

2005 a battu tous les records de chaleur dans l'hémisphère Nord. Tel est ce qui ressort des données compilées par l'homologue britannique de Météo France, le Met Office, et l'Université de l'est de l'Angleterre East Anglia. A fin novembre, la température de l'eau et de l'air se situe 0,65°C au-dessus de la moyenne annuelle calculée pour la période 1861-1990, qui sert communément de base de référence en climatologie.

Dans l'hémisphère Sud, cette anomalie par rapport aux normales n'est que de 0,32°C, ce qui place 2005 en quatrième position dans le top-ten des années les plus chaudes. Si l'on considère l'ensemble du globe, l'augmentation de température moyenne est de 0,48°C et l'année écoulée arrive juste derrière 1998, devançant ainsi 2003 et 2004. Mais en 1998, l'effet El Niño avait quelque peu affecté les données. Si l'hémisphère Nord est davantage touché par la hausse des températures, c'est parce que la proportion de terre y est plus grande qu'au sud, davantage recouvert par les océans. Or la Terre a une plus grande réactivité aux conditions atmosphériques que les océans. Un nouvel indice du caractère anthropique du réchauffement. Les pays du Nord connaissent actuellement une température plus élevée de 0,4°C en moyenne qu'il y a dix ans, sachant que la marge d'erreur est de 0,1°C. «Les données montrent par ailleurs que la température à la surface de l'eau dans l'Atlantique est la plus élevée depuis 1880», ajoute David Viner, de l'Université d'East Anglia. Les chercheurs britanniques voient dans cette évolution un nouvel indice du caractère anthropique du réchauffement. «C'est de la physique simple : davantage de gaz à effet de serre dans l'atmosphère, des émissions qui augmentent globalement, d'où des températures en hausse», commente David Viner.

MO

Effet de serre : record d'émissions aux Etats-Unis
Vendredi, 02/12/2005 - 00:00

Les émissions de gaz à effet de serre (GES) des Etats-Unis ont atteint en 2004 un niveau record, selon un rapport du Département américain de l'énergie rendu public. Ces émissions ont augmenté de 2 % par rapport à 2003, passant de 6.98 millions à 7.12 millions de tonnes d'équivalent CO2. Ce taux de 2 % est supérieur à la moyenne enregistrée depuis 1990 pour la progression annuelle des émissions de GES, qui est de 1,1 %. Le rapport souligne cependant que les rejets de GES ont augmenté moins vite que la croissance et que, ramenée au PIB, la hausse est moindre qu'en 2003.

L'administration Bush a refusé de ratifier le protocole de Kyoto fixant des objectifs contraignants de réduction des gaz à effet de serre. Lors du dernier sommet de l'ONU sur le climat, qui s'est tenu à Montréal fin novembre-début décembre, le gouvernement des Etats-Unis a campé sur ses positions. Cela n'empêche pas d'autres élus américains de s'engager dans la lutte contre l'effet de serre. Ainsi sept Etats du Nord-est des Etats-Unis ont signé récemment un accord de réduction des gaz à effet de serre. Cette Initiative régionale pour les gaz à effet de serre (RGGI), lancée par le gouverneur Républicain de New York George Pataki, prévoit que les émissions de GES seront stabilisées à partir de 2009 jusqu'en 2015, date à laquelle elle devront commencer à diminuer. L'objectif est de les réduire de 10 % en 2019 dans les Etats signataires.

EIA

Un projet d'éolien offshore au large de la Seine-Maritime et de la Somme
Vendredi, 02/12/2005 - 00:00

La société montpelliéraine La Compagnie du Vent, spécialisée dans l'énergie éolienne, travaille actuellement sur un projet de parc éolien en mer. Le territoire retenu par la société se trouve à 14 km au large des communes allant de Criel-sur-Mer (Seine-Maritime) à Cayeux-sur-Mer (Somme). Le projet vise l'implantation de 156 éoliennes en mer sur une surface de 88 km². Chaque éolienne produira une puissance de 4,5 mégawatts (MW), soit un total de 702 MW.

Le parc offshore produira environ 2.150 milliards de MW par an, permettant d'alimenter 860.000 personnes. Selon Jean-Mathieu Kolb, chef de projet de la Compagnie du Vent, « le projet a été plutôt bien accueilli par les élus locaux ». Ce projet appelé « Parc des Deux Côtes », s'il est concrétisé, serait le plus grand d'Europe et « générerait beaucoup d'emplois », souligne Jean-Mathieu Kolb.

MSM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La mortalité par cancer continue à baisser aux USA
Vendredi, 02/12/2005 - 00:00

Confirmant une tendance très encourageante observée depuis dix ans, Le risque de mourir d'un cancer diminue aux Etats-Unis bien que le nombre global de cancers diagnostiqués soit constant, selon le rapport semestriel de l'Institut national du cancer. Une amélioration attribuable à un meilleur dépistage à un stade où la maladie est plus facilement traitable. Selon lui, les Américains ont par ailleurs tendance à moins fumer, moins s'exposer au soleil, et moins consommer de graisses et d'alcool, bien que l'obésité continue d'être un problème. "L'enseignement à tirer de ce rapport reste positif", a déclaré le directeur de l'Institut, Andrew von Eschenbach. "Ce que j'observe me convainc que nous sommes à l'approche d'une énorme victoire sur le cancer."

L'étude montre que les Noirs et les pauvres restent les plus touchés par les nouveaux cas et meurent le plus de cancers. D'après les chiffres publiés, 488,6 nouveaux cas de cancer pour 100.000 habitants ont été diagnostiqués en 2002, soit un taux similaire à celui de 488,1/100.000 enregistré un an plus tôt. Toutefois, dans le même temps, le taux de mortalité tous cancers confondus était de 193,6 pour 100.000, en diminution par rapport aux 195,7 enregistrés l'année précédente, et cette tendance se maintient.

Concernant les cancers les plus répandus, le taux de mortalité était de :

-* prostate : 28 pour 100.000, contre 28,9 auparavant

-* sein : 25,4, contre 26

-* colo-rectal : 19,6, contre 20,1

-* poumon : 54,8, contre 55,2.

Le rapport met en lumière une augmentation constante du taux de mortalité du cancer du poumon chez les femmes mais souligne que ce taux n'augmente plus aussi rapidement que par le passé. L'Institut du cancer, qui fait partie des Institut nationaux de santé, insiste par ailleurs sur l'augmentation du nombre de cancers du sein, de la prostate et des testicules chez les hommes, du nombre de leucémies, de lymphomes non-hodgkiniens, de myélomes (cancers de la moelle), de mélanomes, de cancers de la thyroïde, de l'oesophage et du rein. Des améliorations ont été observées dans la prévention des cancers : la consommation de tabac a diminué, tout comme celle d'alcool et de graisses. Des résultats similaires avaient déjà été signalés dans le précédent rapport datant d'octobre dernier.

Le tabac chez les jeunes, qui avait augmenté dans les années 1990, diminue depuis 1997. Ils commencent à fumer plus tard, en moyenne à 15,4 ans en 2003, contre 14,9 ans dix ans plus tôt. Par ailleurs, le pourcentage de lycéens qui fument est passé de 30,5 à 21,9 % dans la même période. Le recours aux tests de dépistage pour les cancers du sein et du col de l'utérus est en augmentation. Comme en 2003, 69,7 % des femmes de plus de 40 ans ont bénéficié d'une mammographie ces deux dernières années, un chiffre supérieur aux 29 % enregistrés en 1987. Et 79,2 % ont eu un test de dépistage du papillomavirus pour le cancer du col (PAP test), contre 73,7 %.

NCI

Cancer gastrique : une avancée thérapeutique majeure
Vendredi, 02/12/2005 - 00:00

Sanofi-Aventis annonce que les autorités de santé américaines - Food and Drug Administration (FDA) - ont accordé une procédure de revue prioritaire de six mois pour la demande d'une nouvelle indication pour Taxotere® (docetaxel), en association avec le traitement standard (cisplatine et 5-fluorouracile) dans le cancer gastrique avancé.

Cette nouvelle demande d'indication repose sur les résultats de l'étude internationale de Phase III, TAX 325 ayant inclus 457 patients atteints de cancer gastrique avancé. Les patients traités avec l'association à base de Taxotere® (docetaxel, cisplatine et 5-fluorouracile) ont eu une amélioration significative de leur médiane de survie globale par rapport à ceux ayant reçu le traitement standard par cisplatine et 5-fluorouracile (9,2 mois vs 8,6 mois, p=0,02), une diminution du risque de mortalité de 23 % et une survie à 2 ans de 18 % versus 9 %, en faveur du schéma à base de Taxotere. En Europe, cette demande d'indication supplémentaire est en cours d'examen par l'EMEA sur la base des résultats de l'étude TAX 325. La revue prioritaire d'un dossier est accordée par la FDA lorsque les données présentées ont le potentiel de générer des avancées thérapeutiques significatives.

"Les médecins traitant des patients atteints de cancer gastrique ont un besoin urgent de stratégies thérapeutiques nouvelles et plus efficaces, ainsi que de meilleures options pour combattre une maladie si redoutable," a déclaré le Professeur Jaffer A. Ajani, Oncologue, spécialiste des pathologies digestives à l'Université du Texas et au Centre Anti-Cancéreux M. D. Anderson, de Houston, Texas, investigateur principal américain de l'étude TAX 325. "Si elle est approuvée, l'adjonction de Taxotere® à la chimiothérapie communément utilisée représentera le plus important développement réalisé depuis dix ans, dans le traitement du cancer gastrique avancé."

SA

La vitamine D joue un rôle essentiel dans la fonction respiratoire...et protège du cancer du colon !
Vendredi, 02/12/2005 - 00:00

Les patients présentant des niveaux élevés de vitamine D, et notamment les patients présentant des maladies respiratoires chroniques, ont une fonction respiratoire sensiblement meilleure selon des chercheurs de l'Université d'Auckland (Nouvelle Zélande) qui ont réalisé une vaste étude portant sur 14.091 personnes. Fait étonnant : la différence de qualité de la fonction respiratoire entre les patients qui avaient un haut niveau de vitamine D et ceux qui avaient une faible concentration de cette vitamine était plus marquée que cette même différence entre fumeurs et ancien fumeurs !

Selon cette étude, dirigée par les professeurs Peter Black and Robert Scragg, il semble donc qu'une alimentation riche en vitamine D puisse améliorer sensiblement la fonction pulmonaire, indépendamment des autres facteurs impliquées dans cette fonction, sans qu'on comprenne précisément par quels mécanismes.

On sait déjà que la vitamine D joue un rôle important dans la prévention de l'ostéoporose, de l'hypertension, du diabète, et sans doute de certains cancers.

Les chercheurs pensent que la vitamine D joue un rôle qui reste à élucider dans la croissance et la réparation du tissu cellulaire pulmonaire. Le Docteur Britton, pour sa part, pense que l'effet de la vitamine D sur la capacité pulmonaire pourrait être indirect : le fait d'avoir des os solides grâce à la vitamine D pourrait permettre aux patients d'avoir de plus gros poumons.

Le Docteur Michael Alberts, Président de l'Association américaine des pneumologues, souligne l'importance de cette découverte. "Les affections pulmonaires chroniques détériorent la qualité de vie de dizaines de millions de personnes dans le monde et en comprenant mieux l'effet que les vitamines peuvent avoir sur la fonction pulmonaire, nous allons pouvoir améliorer les traitements contre ces maladies très invalidantes » précise-t-il.

Mais les bienfaits de la vitamine D ne s'arrêtent pas là. Car d'autres chercheurs américains du Centre Moores de recherche sur le cancer à l'Université de Californie à San Diego (Californie) viennent d'établir qu'absorber une quantité spécifique de vitamine D réduirait de moitié le risque d'être atteint d'un cancer du côlon.

Selon cette étude, la prise de 1.000 unités internationales (25 microgrammes) de vitamine D par jour a pour résultat statistique une baisse de 50 % du risque de cancer colorectal. Edward D. Gorham, professeur à l'UCSD et spécialiste du cancer, a indiqué que les effets bénéfiques de la vitamine D dans la prévention du cancer du côlon étaient déjà connus, mais que la quantité idéale pour réduire la prévalence de la maladie n'était jusqu'ici pas établie.

"Cette étude précise le niveau de vitamine D qui pourrait réduire le nombre de cancers colorectaux de moitié", a affirmé le professeur Gorham. Même si d'autres études sont nécessaires, "il faut sans retard encourager une utilisation plus importante de la vitamine D en tant que mesure de santé publique", a-t-il ajouté. L'étude de l'Université de San Diego est un recoupement de 18 autres travaux publiés de 1996 à 2004.

Rappelons que la vitamine D est essentielle pour la bonne fixation osseuse du calcium. Mais à la différence d'autres vitamines, elle peut être produite par notre organisme, à condition cependant de bénéficier d'une exposition suffisante à la lumière du soleil. Cette synthèse cutanée représente en temps normal les deux tiers de nos sources de vitamine D. Elle est également contenue dans certains aliments comme les poissons « gras » (sardine, thon, saumon, hareng), le jaune d'oeuf, le beurre, levure et céréales.

Article @RTFlash

UA

BBC

UCSD

Cancer colorectal : une réaction immunitaire réduit le risque de récidive
Vendredi, 02/12/2005 - 00:00

Le rôle important de la réaction immunitaire en cas de cancer colorectal est souligné par une équipe franco-autrichienne, dont les travaux pourraient permettre de mieux déterminer quels sont les patients à risque de récidive afin de leur recommander une chimiothérapie. A plus long terme, une nouvelle piste de traitement par immunothérapie pourrait se dessiner. Selon une étude parue dans la revue américaine New England Journal of Medecine, Franck Pagès (Inserm, Paris) et ses collègues ont mis en évidence le "rôle déterminant", pour la survie des patients et la prévention des métastases dans les cancers du colon et du rectum, de certains lymphocytes T.

Appartenant à la grande famille des globules blancs, ces cellules immunitaires (appelées lymphocytes T effecteurs à mémoire) sont capables à la fois de détruire les cellules tumorales identifiées et de garder en mémoire (comme après une vaccination) l'identité (antigène) des cellules tumorales à combattre. "Les tumeurs fortement infiltrées en lymphocytes mémoires ne présentent pas de métastases", explique le Dr Pagès après avoir analysé, avec son équipe, 959 tumeurs du colon et du rectum prélevées lors d'opérations. "Si ces lymphocytes ne sont pas là, il faut se méfier", ajoute-t-il.

A partir de ces travaux, publiés dans le New England Journal of Medicine, Galon et Pagès vont tenter de mettre au point un test d'analyse de la tumeur pour mesurer le risque de récidive d'un cancer colorectal après l'opération. Cette découverte pourrait aussi déboucher sur un nouveau traitement anticancéreux stimulant la production de ces "lymphocytes T avec une activité mémoire". Pour l'instant, les chercheurs ne savent pas pourquoi certains patients en ont plus que d'autres. Par ailleurs ils supposent que le même mécanisme est à l'oeuvre dans d'autres types de cancers et vont étendre leurs recherches au cancer du poumon.

Inserm

NEJM

Prévention cardio-vasculaire : une protéine essentielle découverte
Vendredi, 02/12/2005 - 00:00

Les maladies cardio-vasculaires sont la première cause de mortalité dans les pays développés (180.000 décès en France par an). Si certains facteurs de risque sont bien connus, le dosage du cholestérol reste encore à affiner. Eric Chabrière, chercheur au LCM3B (Laboratoire de Cristallographie et Modélisation des Matériaux Minéraux et Biologiques) de l'Université Henri Poincaré de Nancy a découvert une nouvelle protéine : la HPBP (Human Phosphate Binding Protein) qui est potentiellement impliquée dans la protection de ces maladies.

L'intérêt pour la HPBP tient au fait qu'il pourrait exister une corrélation entre les risques de maladies cardio-vasculaires et la concentration de cette protéine dans le sang. Lorsqu'il s'accumule, le phosphate bouche les artères impliquant ainsi des risques d'accidents vasculaires. La protéine HPBP permettrait de transporter les phosphates dans le sang et ainsi éviter les formations d'agrégats dans les artères.

Cette découverte est primordiale car aucun chercheur n'avait encore trouvé de transporteur de phosphate dans le sang. Cette protéine, issue du plasma sanguin, est associée aux lipoprotéines (principalement aux HDLs alias bon cholestérol). La découverte de cette protéine est d'autant plus inattendue qu'elle a échappé pour des raisons mystérieuses au séquençage du génome humain.

Le travail actuel est de mettre en évidence cette corrélation et de proposer un kit de dosage de cette protéine. Ceci pourrait permettre d'affiner le diagnostic du risque vasculaire, voire de trouver un médicament prévenant ces risques. Un brevet a été déposé par l'UHP et le CNRS pour la valorisation de cette protéine.

Université de Nancy

Le chocolat noir bon pour le coeur !
Vendredi, 02/12/2005 - 00:00

Voilà une étude dont les résultats réjouiront tous les amateurs de chocolat noir. Cette étude, publiée dans la très sérieuse revue « Heart » démontre en effet l'effet positif pour les artères des fumeurs de 40 grammes de chocolat noir comparé à celui de 40 grammes de chocolat blanc du même fabricant helvétique. Le chocolat peut accroître le risque cardiovasculaire à cause de ses effets sur le glucose (sucre), les lipides (graisses) et le poids corporel, ou au contraire avoir un potentiel positif pour la santé cardiovasculaire à cause de ses effets antioxydants, résument les chercheurs dans une "lettre scientifique".

Les flavonoïdes présents dans le chocolat noir mais pas dans le chocolat blanc ont des propriétés antioxydantes. Pour comparer les effets de chocolats noirs et blancs de même marque, ils ont enrôlé une vingtaine de fumeurs à titre de cobayes. Privés pendant vingt-quatre heures d'autres antioxydants (thé noir ou vert, oignons, pommes, choux, vin, produits à base de cacao), dix cobayes ont ingéré 40 grammes de chocolat noir (à 73 % de cacao) et dix autres ont savouré 40 grammes de chocolat blanc (4 % de cacao).

Bilan : le chocolat blanc n'a eu aucun effet sur les cellules tapissant les artères, les plaquettes intervenant dans la formation des caillots sanguins, ni sur les taux d'antioxydants contenus dans le sang. Le chocolat noir est sorti gagnant : des échographies-Doppler ont montré que le chocolat noir entraînait une amélioration de la circulation dans les artères deux heures après son ingestion et que cet effet positif se maintenait pendant huit heures. Le taux d'antioxydants présents dans le sang a augmenté. Les chercheurs estiment que les effets positifs constatés sont "très vraisemblablement" liés aux effets antioxydants du chocolat noir.

Heart

Des gènes sous contrôle mécanique !
Vendredi, 02/12/2005 - 00:00

Le développement de l'embryon est coordonné par une cascade d'expressions de gènes dits de « patterning ». Certains d'entre eux contrôlent étroitement le développement de la morphologie physique de l'embryon. Mais existe-t-il un « contrôle qualité » qui certifie au génome qu'une forme nouvelle prise par l'embryon est correctement réalisée ? Le génome est-il capable de détecter que la forme qu'il est en charge de développer est atteinte pour pouvoir déclencher l'expression des gènes suivants de la cascade ? Ce sont les questions que se sont posées les biophysiciens de l'équipe « Mécanique et génétique du développement embryonnaire », dirigée par Emmanuel Farge (Inserm / Université Paris-VII).

Et ils ont obtenu récemment d'étonnants résultats. « Un tel contrôle peut exister si l'expression de certains gènes du développement est mécaniquement sensible à la forme de l'embryon », explique le chercheur. Encore fallait-il le prouver. Alors les scientifiques ont entrepris de déformer artificiellement des embryons de drosophile en les compressant entre lame et lamelle micro-manipulée. En réponse, ils ont constaté que le gène twist 4, qui ne s'exprime normalement que sur la partie ventrale, s'exprimait également tout autour de l'embryon et sur sa partie dorsale. Il était donc possible de reprogrammer le développement d'un embryon - autrement dit, de modifier l'expression de ses gènes de patterning - en le déformant mécaniquement.

Mais cette propriété s'exerce-t-elle naturellement au cours de l'embryogenèse ? Pour le savoir, les biophysiciens ont étudié les cellules d'une région particulière du pôle antérieur, destinée à former le tube gastrique. Ces cellules sont fortement comprimées par un mouvement d'extension des tissus ventraux lors de la gastrulation. Ils ont constaté que juste avant cette déformation, twist y est très faiblement exprimé alors que, une dizaine de minutes après, il l'est très fortement. Coïncidence ? Non, car chez un individu mutant qui ne développe pas ce mouvement d'extension, twist reste faiblement exprimé. Et si cette déformation est rétablie à l'aide d'une pointe micromanipulée, twist est de nouveau fortement exprimé.

Ainsi, les chercheurs ont pu montrer que la forte expression de twist était induite par une déformation des tissus. D'ores et déjà, ces travaux soulèvent deux enjeux particulièrement importants. Ils apportent un nouveau concept en biologie du développement en montrant que les processus impliqués ne seraient pas exclusivement contrôlés par les produits biochimiques de l'expression génique. Par ailleurs, comme les gènes du développement embryonnaire sont impliqués dans le processus de progression tumorale, l'induction mécanique des gènes constitue une nouvelle piste pour l'étude du développement des cancers.

CNRS

Maladies d'Alzheimer et apparentées : un nouveau cas toutes les 7 secondes
Vendredi, 02/12/2005 - 00:00

Plus de 24 millions de personnes souffrent dans le monde de la maladie d'Alzheimer ou de troubles apparentés, et leur nombre devrait doubler tous les vingt ans, avec un nouveau cas toutes les sept secondes, selon une étude paraissant dans la revue médicale britannique The Lancet. La maladie d'Alzheimer et d'autres formes de démence devraient toucher 42 millions de personnes dans le monde en 2020 et plus de 81 millions d'ici 2040, selon douze experts internationaux qui ont passé en revue les études publiées.

Chaque année, 4,6 millions de nouveaux cas sont enregistrés, soit "un nouveau cas toutes les sept secondes", soulignent-ils, près de cent ans après l'identification, en 1906, de la maladie par le médecin allemand Alois Alzheimer. Une démence (confusion, perte de fonctions cognitives) peut être liée aux séquelles d'un accident vasculaire cérébral (attaque) ou d'une maladie neurodégénérative comme Alzheimer. Les pays en développement sont les plus touchés, avec 60 % des cas, selon les estimations faites par ces chercheurs d'Alzheimer's Disease International (ADI) qui chapeaute à l'échelle mondiale 75 associations nationales de malades.

En 2040, 71 % des personnes souffrant de la maladie d'Alzheimer ou d'autres formes de démence vivront dans des pays en développement. Entre 2001 et 2040, le nombre de malades devrait quadrupler en Inde, Chine et dans d'autres pays d'Asie, voire même être multiplié par cinq en Amérique latine, en Afrique du Nord et au Proche Orient. Dans les pays développés, le nombre de malades devrait doubler entre 2001 et 2040, selon les prévisions de ces experts. En 2001, la Chine comptait 5 millions de malades d'Alzheimer et d'autres formes de démence, l'Union européenne 5 millions également, suivis par les Etats-Unis (2,9 millions), l'Inde (1,5 million), la Russie (1,1 million) et l'Indonésie (1 million).

Tout en reconnaissant les limites de leur exercice de prospective, les chercheurs voient dans leurs estimations détaillées "la meilleure base disponible pour prendre des décisions politiques, planifier et allouer des ressources sanitaires et sociales". La prévention devrait, concluent-ils, notamment porter sur les facteurs de risque vasculaires, dont l'hypertension et le tabagisme, mais aussi la forme de diabète la plus courante favorisée par l'excès de poids et la sédentarité.

Lancet

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Droits d'auteur sur Internet : la classe politique et le monde culturel profondément divisés
Vendredi, 02/12/2005 - 00:00

Les députés ont désavoué le gouvernement dans le débat sur les droits d'auteur sur Internet. Une fronde transcendant les clivages partisans a empêché l'adoption avant la fin de l'année du projet de loi. L'examen du texte présenté par Renaud Donnedieu de Vabres reprendra à partir du 17 janvier, après les vacances parlementaires.

Les députés ont débattu jusqu'à la fin de la session parlementaire de l'article 7, le coeur du projet, sans parvenir à l'adopter. L'article 7 qui, transposant une disposition clef de la directive européenne de mai 2001, introduit en droit français l'autorisation et la protection des "mesures techniques efficaces destinées à empêcher ou limiter les utilisations non autorisées par le titulaire d'un droit d'auteur ou d'un droit voisin du droit d'auteur, d'une oeuvre, autre qu'un logiciel, d'une interprétation, d'un phonogramme, d'un vidéogramme ou d'un programme". Cet article 7 concerne donc la question capitale du contrôle des oeuvres numériques.

Les débats sur le projet de loi relatif aux "droits d'auteur et droits voisins dans la société de l'information", déjà passionnés, se sont enflammés avec l'adoption de deux amendements légalisant les échanges de fichiers entre internautes ("peer to peer"). Votés par 30 voix contre 28 malgré l'avis négatif du gouvernement, ces deux amendements identiques, créent une "licence globale optionnelle".

"L'auteur ne peut interdire les reproductions effectuées sur tout support à partir d'un service de communication en ligne par une personne physique pour son usage privé et à des fins non directement ou indirectement commerciales, à l'exception des copies d'un logiciel autres que la copie de sauvegarde", stipulent les amendements Suguenot et Paul. Les internautes acquitteraient en échange une redevance forfaitaire aux fournisseurs d'accès. Ces deux amendements adoptés par une coalition de députés UMP, PS et PCF remettent en cause l'architecture du texte, dont l'objectif de lutter contre le développement du piratage de musique et de films sur Internet par des mesures techniques de protection des oeuvres.

Leur adoption a été applaudie par les associations de consommateurs et d'internautes, vent debout contre le texte. Les artistes sont, eux, immédiatement montés au créneau pour s'inquiéter de cette menace pour leurs droits d'auteur.

Dans un communiqué commun, les organisations professionnelles du cinéma et de l'audiovisuel ont fait part de leur "profonde inquiétude" face à cette "expropriation des droits d'auteur sur Internet", et invité le gouvernement à trouver rapidement "les solutions permettant de rétablir l'équilibre entre les intérêts des ayant droit et des consommateurs". Face à l'ampleur que prend cette question des droits d'auteurs, Renaud Donnedieu de Vabres a voulu demander une nouvelle délibération des deux amendements. Mais le président du groupe UMP Bernard Accoyer s'y est opposé. En conséquence, l'examen des articles un et deux a été reporté jusqu'à la fin du débat.

"Il n'est pas question de revenir à cette heure sur ce qui a été voté, mais par contre d'approfondir, de débattre", a déclaré à la presse M. Accoyer. Le groupe UMP entend "laisser le temps nécessaire pour écouter les nombreuses expressions", "en tenir compte" et "voter le meilleur texte possible". A la reprise des débats, le ministre de la Culture a jugé cette décision "sage", et souhaité que ce délai de réflexion permette une "réconciliation" entre les défenseurs des internautes et ceux des artistes.

Après avoir décidé du report en janvier de l'examen de ce projet de loi sur les droits d'auteurs, M. Donnedieu de Vabres, a précisé « qu'il n'a pas l'intention de renoncer à son projet". Le ministre de la Culture qualifie de "fausse bonne idée" la légalisation du téléchargement en échange d'un prélèvement global sur les abonnements Internet. "Cette taxe poserait des problèmes de répartition de droits, ce qui la rend inacceptable. Elle ne permettrait pas de rémunérer correctement les artistes et menacerait l'économie et les emplois liés à la création. J'ai en face un ennemi redoutable : le rêve de la gratuité", fait-il valoir. Le ministre de la Culture se défend de sanctionner les internautes sans respecter les droits de la défense ou favoriser les industriels du divertissement et de l'informatique.

Il veut "créer une alternative aux sanctions pénales", se disant fier d'un "système novateur de réponse graduée" comportant d'abord un courriel d'avertissement pour les contrevenants, suivi d'une lettre recommandée puis d'une amende en cas de récidive. En outre, souligne-t-il, le droit à la copie privée serait "garanti par loi", chaque consommateur devant pouvoir "continuer à pouvoir partager les oeuvres qu'il aime au sein du cercle familial"

Fait intéressant, cette question centrale, mais complexe, du contrôle des droits d'auteur sur le Net ne divise pas seulement la classe politique mais aussi le monde culturel et artistique. Si de nombreux artistes français en contrat avec les "majors" Universal Music, Sony-BMG, EMI et Warner, ont manifesté leur hostilité vis-à-vis de ces amendements et de la "licence globale", plus de 13.000 autres artistes ont signé une pétition en faveur de l'instauration d'une "licence globale optionnelle" pour légaliser les échanges non commerciaux sur Internet.

Prochain épisode de ce feuilleton à rebondissements en janvier...

Article @RTFlash

AN

Alliance stratégique Google-AOL pour contrer Microsoft
Vendredi, 02/12/2005 - 00:00

Google va prendre 5 % du capital d'AOL pour 1 milliard de dollars, une transaction jugée surtout à l'avantage du second mais qui permet au premier de distancer un peu plus Microsoft dans la recherche en ligne. L'accord entre Google et la division Internet de Time Warner étend un partenariat datant de 2002 dans la publicité en ligne. Il prévoit que Google "investisse 1 milliard de dollars pour une part de 5 % dans AOL", selon un communiqué conjoint.

Cela valorise AOL à environ 20 milliards de dollars soit près de 25 % de ce que vaut actuellement Time Warner en Bourse, alors que la part de la division Internet dans les bénéfices est bien moindre. Le PDG de Time Warner, Richard Parsons, visé actuellement par une fronde d'actionnaires lui réclamant de mieux valoriser AOL, s'est félicité de cet accord. La relation avec Google se prolonge, a-t-il dit, "d'une manière qui renforce sensiblement la position d'AOL sur le marché en croissance rapide de la publicité en ligne et contribue à diriger davantage d'annonceurs vers ses sites web".

AOL, qui avait bâti son développement sur les services payants à la fin des années 90, est actuellement en pleine métamorphose. Pour générer plus de trafic et donc davantage de revenus publicitaires --qui sont le nerf de la guerre-- le portail AOL.com étaye son offre de contenus gratuits (actualités, divertissement, etc..).

Concrètement, l'accord prévoit que ces contenus soient plus facilement accessibles aux usagers de Google et même promus à travers le réseau de sites partenaires de ce dernier. L'index Google Video référencera ce que produit AOL. En outre, les deux partenaires vont rendre compatibles Google Talk et l'IM d'AOL (ou AIM), messagerie instantanée la plus utilisée aux Etats-Unis, pour que les usagers des deux services puissent communiquer entre eux "sous certaines conditions", selon le communiqué.

Microsoft et Yahoo! avaient conclu en octobre un accord présenté comme le premier pour l'interopérabilité de deux messageries, respectivement MSN Messenger et Yahoo Messenger. Alors qu'AOL profite de la popularité de Google --voie d'accès la plus utilisée dans le monde pour lancer une recherche--, le célèbre moteur peut, grâce à son partenaire, proposer à son réseau d'annonceurs un plus grand nombre de documents web (texte, audio, vidéo) potentiellement soumis à une recherche.

L'accord permet de "connecter les utilisateurs de Google à travers le monde à une profusion de nouveaux contenus", a commenté Eric Schmidt, PDG de Google. Via AOL Marketplace, AOL fera la promotion auprès de son réseau d'annonceurs de la technologie de recherche sponsorisée de Google, qui a fait ses preuves au point de permettre dernièrement au moteur de recherche de voir ses bénéfices progresser encore plus vite que son chiffre d'affaires. L'action Google introduite en Bourse en août 2004 à 85 dollars vaut quelque 430 dollars aujourd'hui.

Ce nouveau partenariat éclipse Microsoft, qui convoitait aussi depuis plusieurs mois une participation dans AOL. Avec son outil de recherche MSN Search, le géant des logiciels est distancé aux Etats-Unis. D'après les mesures d'audience de Nielsen/NetRatings, Google et AOL ont ensemble quelque 55 % du marché de la recherche en ligne (48+7) là où MSN réunit 11 % environ. Jessica Reif Cohen, analyste de la banque d'affaires Merrill Lynch, s'était dite surprise par la perspective d'un accord AOL-Google aux termes duquel Google s'engageait à diriger ses usagers vers un site (en l'occurrence AOL.com), ce qu'il ne fait pas d'ordinaire. "Il semble que l'importance stratégique de la relation (avec AOL) et le désir de coincer Microsoft aient conduit Google à faire des concessions significatives à AOL", avait-elle estimé.

TW

WP

NYT

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top