RTFlash

RTFLASH Recherche & Technologie
NUMERO 405
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 09 Novembre 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Plus de 100 millions de sites Web dans le monde
Lancement du passeport numérique pour les TPE
Avenir
Des robots écologiques dans les champs pour supprimer les mauvaises herbes !
Matière
L'antimatière contre le cancer
Terre
La quasi-totalité des poissons risque de disparaître des océans d'ici 2050
Calculer sa production de CO2 sur le Net
Vivant
Le génome de la paramécie dévoile des mécanismes d'évolution des espèces
Thérapie génique contre le virus du SIDA : premiers essais prometteurs
Des scientifiques créent le premier foie humain avec cellules souches
Le Resveratrol, composant du vin rouge, allonge la vie de souris obèses
Vers l'identification de l'horloge alimentaire
La mort subite du nourrisson probablement due à une anomalie cérébrale
Homme
L'Arcep veut des investissements en fibre optique mutualisés
Révolution dans le monde du logiciel avec l'alliance Windows-Linux
Recherche
Europe : 6 millions de voiture à hydrogène en 2020
La voiture à piles à combustible pourrait décoller en 2015
Edito
Le dossier médical partagé et la carte Vitale 2 vont faire entrer notre système de santé dans l'ère numérique



Plus de 30.000 dossiers médicaux personnels (DMP) ont été ouverts depuis juin dans 17 sites pilotes dans lesquels cet outil informatique est expérimenté jusqu'à la fin de l'année, a annoncé le groupement d'intérêt public (GIP) chargé de le mettre en place. Quelque 31.783 dossiers ont été ouverts dans les 17 "sites pionniers" qui doivent poursuivre leurs expérimentations jusqu'à fin décembre 2006, a annoncé le GIP-DMP dans un communiqué.

La loi du 13 août 2004 réformant l'assurance maladie prévoit une généralisation du dossier médical personnel à partir de juillet 2007. Ce dossier centralisera pour chaque patient toutes les informations médicales le concernant. Cet outil informatique destiné notamment à éviter les actes redondants est censé générer des économies pour l'assurance maladie, dont le déficit s'élève à 8 milliards d'euros en 2006.

Le difficultés actuelles de mise en place de ce DMP n'ont rien étonnant, compte tenu de la complexité de gestion mais elles ne doivent pas conduire à remettre en cause le principe et les finalités du dossier médical informatisé. Celui-ci permettra en effet aux professionnels de santé de disposer d'une information plus complète pour élaborer leur diagnostic, les examens redondants seront réduits, les résultats des analyses seront connus plus rapidement.

Le DMP contiendra six parties : un volet "identification" avec les coordonnées du patient ; un volet "données générales" portant sur ses antécédents, allergies et intolérances ; un volet "soins" avec les pathologies actuelles, les comptes rendus médicaux et les prescriptions médicamenteuses ; un volet "images" avec les radios et les photos médicales ; un volet "prévention" avec les actions de dépistage entreprises ; un volet "espace personnel", enfin, où le patient pourra librement s'exprimer.

Un portail internet géré par la Caisse des dépôts devrait permettre dès juillet 2007 à chaque Français d'ouvrir son DMP mais ce dernier devra surmonter encore bien des difficultés avant de devenir un instrument d'usage courant. Il faudra d'abord convaincre les médecins de ville et les établissements de santé d'adopter ce nouvel outil dans leurs pratiques de tous les jours. A peine la moitié des médecins libéraux et 20 à 25 % des hôpitaux publics disposent d'un dossier patient électronique, selon un rapport du sénateur Jean-Jacques Jégou. "Dans les hôpitaux, la plupart des services sont informatisés, donc il suffit de trouver un moyen de transférer chacune de ces informations sur le DMP, assure Jacques Sauret, le directeur du groupement d'intérêt public du DMP (GIP-DMP). Du côté des médecins de ville, en revanche, il est vrai qu'un réel effort de pédagogie et de communication sera nécessaire." Un challenge d'autant plus difficile que les logiciels médicaux sont très nombreux et que faire en sorte que tous soient compatibles avec le DMP ne sera pas une mince affaire.

Plus généralement, quatre interrogations majeures demeurent, à quelques mois de la mise en place prévue du DMP. S'agissant de la confidentialité et de la sécurisation des données d'abord, un décret doit encore être publié et un colloque sur les questions éthiques est prévu début décembre par le ministère. Certains médecins s'inquiètent en particulier de la possibilité donnée aux patients de masquer certaines informations de leur dossier et des effets qu'une telle démarche pourrait entraîner sur les diagnostics. Des associations craignent par ailleurs que les informations de santé tombent dans de mauvaises mains. Sur ce point capital, le ministre s'est voulu le plus rassurant possible. "Le DMP présente toutes les conditions optimales de sécurisation et de respect du secret médical et de la vie privée", a-t-il déclaré, avant d'ajouter que ce dossier ne sera pas consultable par les médecins du travail ou les organismes chargés des contrats complémentaires de santé.

Le ministère de la Santé a également annoncé en septembre qu'il allait lancer, de manière complémentaire au DMP, la nouvelle carte Vitale. La carte Vitale 2 servira de clé d'entrée au DMP pour les médecins de ville et des hôpitaux. Elle sera peu à peu distribuée aux Français à partir de novembre 2006 et chaque assuré devrait posséder la sienne d'ici quatre ans. Pour recevoir la nouvelle carte, les assurés n'auront qu'à renvoyer un formulaire prérempli en y joignant une photo et une photocopie de leur carte d'identité.

Plus sécurisée, la nouvelle carte contiendra "les mécanismes de cryptographie nécessaires pour les fonctions d'authentification et de signature électronique, a précisé Xavier Bertrand. La limitation des fraudes sera en outre facilitée par une nette amélioration de la gestion de l'ensemble des cartes. La nouvelle carte aura une mémoire huit fois plus importante que la carte actuelle et pourra stocker plus de données. Parmi ces nouvelles informations, devraient figurer, outre la numérisation de la photo et les informations déjà présentes sur la carte actuelle, les coordonnées du médecin traitant et les données ayant trait à la complémentaire santé. Mais la carte pourrait aussi dans le futur permettre d'effectuer d'autres démarches administratives. Elle pourrait servir à signer électroniquement des documents ou à faire usage d'autres téléservices, comme le télépaiement de l'impôt ou le changement d'adresse.

Avec la généralisation du DMP et de la carte Vitale 2, en 2008, notre pays va véritablement entrer dans l'ère de la santé numérique et il est grand temps ! Alors que l'informatique est partout et a envahi depuis des années nos bureaux et nos foyers, la médecine et la santé sont loin de tirer pleinement parti des nouvelles technologies de l'information, il suffit d'être hospitalisé pour s'en convaincre. En 2006, le patient qui doit passer d'un service à l'autre ou d'un établissement à l'autre ou qui veut simplement montrer ses radios à son médecin généraliste doit encore transporter avec lui ses clichés. On sait en effet envoyer au bout du monde une photo ou une vidéo par l'Internet mais la transmission numérique d'une radio, d'un examen ou d'un dossier médical entre deux hôpitaux ou de l'hôpital au médecin traitant relève encore, pour une grande majorité de malades, de la science-fiction !

Cette situation n'est plus acceptable car elle entraîne à la fois des actes redondants et des gaspillages et surtout elle est source d'inconfort pour le patient et génère une perte importante de temps,d'énergie et efficacité médicale. C'est pourquoi, loin d'être un gadget technologique, le dossier médical personnel est une avancée majeure et une innovation de rupture en matière de médecine et de santé, même si ses difficultés de mise en place sont réelles.

Mais il est vrai que, comme toute innovation fondamentale, le DMP remet en cause les rapports de pouvoirs et modifie profondément l'organisation et les méthodes de travail au sein de notre système de santé, dont on connaît les lourdeurs technocratiques et les tendances au conservatisme. La mise en place de ce DMP peut constituer, si tous les acteurs concernés s'impliquent dans sa réussite, un vecteur décisif de modernisation et d'amélioration de l'ensemble des prestations de santé, c'est pourquoi nous devons tous oeuvrer pour contribuer à son succès.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Plus de 100 millions de sites Web dans le monde
Vendredi, 10/11/2006 - 00:00

Le Web rassemble plus de 100 millions de sites dans le monde. Un cap faramineux révélé par une étude du cabinet Netcraft. La Toile poursuit ainsi une expansion à une vitesse croissante - accélération observée depuis 2004 et qui repose en grande partie sur la popularité croissante des blogs.

Il faut comparer les plus de 101 millions de sites recensés par Netcraft dans son observatoire du mois de novembre, aux 97 millions de son rapport d'octobre. Si la progression d'un mois sur l'autre est ainsi notable, avec la création de plus de 4 millions de nouveaux sites en un mois, elle l'est aussi sur l'année : depuis le début de 2006, la Toile a accueilli 27,4 millions de nouveaux sites, contre 17 millions sur l'ensemble de 2005.

"L'Internet a doublé sa taille depuis mai 2004, lorsque nous avions recensé 50 millions de sites dans le monde", souligne le cabinet, qui a commencé à observer le développement du web en 1995, avec à l'époque... un peu moins de 19.000 sites. "Les blogs et les sites de jeunes et/ou petites entreprises ont dopé la croissance explosive de cette année", affirme l'étude, qui souligne "la forte hausse d'activité des hébergeurs de blogs", à l'instar de Google ou de My Space. Du côté des professionnels, Go Daddy et 1&1 internet figurent en tête des hébergeurs de sites pour les entreprises, grâce à des services à bas prix.

Pour la petite histoire, parmi les seuils symboliques qui marquent l'histoire d'internet, le million de sites avait été franchi en avril 1997. Trois ans plus tard, en février 2000, le compteur atteignait les 10 millions. Si le net a un peu marqué le pas à la suite de l'explosion de la bulle internet en 2001, les 40 millions de sites ont été atteints en avril 2003. Et depuis 2005, le net a ajouté de nouveaux sites à un rythme soutenu, gagnant parfois plus de 10 millions de nouveaux sites en l'espace de quelques mois.

TF1

Lancement du passeport numérique pour les TPE
Vendredi, 10/11/2006 - 00:00

A l'heure où 700.000 des petites entreprises françaises (sur un total de 2,5 millions) sont toujours déconnectées de l'économie numérique et où 15 % seulement d'entre elles profitent pleinement du potentiel offert par les technologies de l'information et de la communication (TIC), le gouvernement décide de lancer son «Passeport Pour l'Economie Numérique». Destiné aux entreprises de moins de 20 salariés, il propose des formations gratuites aux nouvelles technologies. Il permettra aux dirigeants de petites entreprises d'accéder à des offres préférentielles en matière d'équipements informatiques et de financement.

L'objectif est d'insuffler une dynamique en matière de diffusion des technologies Internet dans les TPE. Pour Renaud Dutreil, Ministre des Petites et Moyennes Entreprises, du Commerce, de l'Artisanat et des Professions Libérales, « le développement des usages des technologies de l'information et de la communication apparaît de plus en plus comme un levier pour la compétitivité de nos TPE, dans une économie où la réactivité des entreprises et la rapidité de leurs échanges sont devenues cruciales ».

Pour le gouvernement, les avantages économiques que les TPE peuvent retirer des TIC sont pour l'essentiel gain de temps, amélioration de la réactivité, réduction des coûts de fonctionnement, fidélisation de la clientèle et conquête de nouveaux clients.

Ce programme de sensibilisation et d'accompagnement dans l'adoption des usages du numérique s'adresse principalement aux chefs d'entreprise de moins de 20 salariés. Il s'articule autour de 3 volets pour :

- sensibiliser les chefs d'entreprises et leur entourage aux enjeux du numérique avec une série télévisée « Les Entreprenautes » ;

- leur faire découvrir les usages et les outils du numérique avec une offre gratuite d'initiation à l'économie numérique débouchant sur l'obtention du « Passeport pour l'économie numérique » ;

- structurer une offre commerciale mieux adaptée aux TPE en leur permettant de s'y retrouver grâce à un Guide d'achat.

Le premier volet entend s'attaquer aux freins psychologiques des chefs d'entreprises avec une série de 40 petits modules TV diffusés à compter du 6 novembre à heures de grande écoute sur TF1 et M6. Ces programmes, baptisés « Les Entreprenautes », mettent en scène six professionnels confrontés dans leur quotidien à des problèmes dans la gestion de leur entreprise que l'utilisation des TIC permet de résoudre.

Le second volet est certainement le plus important. Il repose sur une offre gratuite d'initiation aux outils et aux usages du numérique. 18 modules pratiques seront dispensés par des formateurs dédiés dans 400 centres de formation répartis sur toute la France : par exemple « Vendre sur Internet », « Choisir un matériel efficace pour son entreprise » ou encore « Simplifier ses tâches administratives ». Deux heures suffiront pour suivre et valider un module. Les inscriptions seront ouvertes à partir du 4 décembre prochain. Depuis le 6 novembre, les entreprises peuvent se pré-inscrire sur le site Internet econumerique.pme.gouv.fr ou appeler le numéro 0 810 00 33 99.

Trois modules seront requis au minimum pour décrocher son Passeport. A l'issue de ce parcours, le chef d'entreprise recevra son « Passeport pour l'économie numérique » qui se présente sous la forme d'une carte au format « carte bancaire ». Il pourra ainsi bénéficier d'offres promotionnelles exclusives (proposées par les partenaires industriels du programme) et des offres de financement privilégiées (crédit bancaire sans caution pour les entreprises de moins de deux ans).

Enfin, le troisième volet se présente sous la forme d'un guide d'achat dédié qui référencera les équipements et les services adaptés aux besoins spécifiques des TPE. Il regroupera un guide pratique, des catalogues d'offres recensant dans une trentaine de catégories des équipements informatiques, télécoms et Internet et des annuaires de prestataires labellisés « Centres de compétences TPE » et « Conseillers Informatiques et Télécoms ».

L'objectif de ce programme est d'initier la transition numérique de 200.000 petites entreprises d'ici deux ans.

PME

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots écologiques dans les champs pour supprimer les mauvaises herbes !
Vendredi, 10/11/2006 - 00:00

A l'origine, le Professeur Tian de l'Universite d'Illinois à Urbana-Champaign a mis au point un robot pour alléger le travail de ses étudiants chargés de la collecte de données sur le terrain. Finalement, ce robot se révèle bien plus utile que la simple observation, à savoir l'application sélective d'herbicide dans les champs. Guidé par GPS et alimenté par un panneau solaire faisant aussi office d'ombrelle, ce robot est capable de reconnaître les mauvaises herbes grâce à un système de double caméra, et de les détruire une par une.

Il mesure un mètre cinquante pour 70 cm de largeur et peut parcourir près de 6 kilomètres par heure de manière autonome en détruisant toutes les mauvaises herbes sur son passage. Il possède deux bras articulés : le premier coupe la tige de la mauvaise herbe identifiée alors que le deuxième introduit l'herbicide à l'intérieur de celle-ci. L'effet est radical et écologique puisque la mauvaise herbe disparaît rapidement, avec seulement quelques gouttes d'herbicide.

Les auteurs de ce projet veulent ajouter d'autres capteurs permettant d'évaluer la qualité du sol et l'état des cultures. Disposant d'un véritable ordinateur et d'une connexion Internet, ce robot peut récolter et envoyer une quantité d'informations quasiment illimitée et permettrait d'avoir un contrôle continu et pointu des cultures. Ce nouvel usage de la robotique pour remplacer le "chimique" dans le secteur agricole apparaît donc très prometteur, l'évolution reste à suivre.

BE

^ Haut
Matière
Matière et Energie
L'antimatière contre le cancer
Vendredi, 10/11/2006 - 00:00

Au CERN, une expérience inédite, susceptible de trouver des applications dans le traitement du cancer, a donné ses premiers résultats : les antiprotons sont quatre fois plus efficaces que les protons pour irradier les cellules. ACE (Antiproton Cell Experiment), également connue sous le nom d'AD-4, est une petite expérience dont les retombées pourraient s'avérer gigantesques. Son appareillage, qui ressemble à un petit aquarium, ne laisse pourtant pas présager qu'elle va déterminer si l'antimatière pourrait être utilisée pour traiter le cancer.

L'expérience ACE, lancée en 2003, est la première à étudier les effets biologiques des antiprotons. Elle rassemble des spécialistes de la physique, la biologie et la médecine, provenant de dix instituts du monde entier. L'équipe a publié récemment ses premiers résultats et certaines de ses découvertes sont impressionnantes.

Actuellement, les traitements faisant intervenir des faisceaux de particules utilisent en général des protons pour détruire les cellules tumorales d'un patient. Lorsqu'un faisceau de particules lourdes et chargées pénètre dans le corps humain, il cause très peu de dommage aux tissus en début de parcours. C'est seulement dans le dernier millimètre du trajet, lorsque, après avoir progressivement ralenti, il s'arrête subitement à une profondeur précise (fonction de son énergie initiale), qu'il entraîne une lésion importante. "Un peu comme une voiture qui roulerait doucement, puis freinerait brutalement une fois arrivée au stop", explique Michael Doser du CERN, l'un des collaborateurs d'ACE.

L'expérience a mis à l'épreuve le principe d'un traitement utilisant des antiprotons comme variante en comparant directement l'efficacité d'une irradiation cellulaire avec des protons et avec des antiprotons. Pour simuler une coupe transversale de tissu dans un corps humain, des tubes ont été remplis de cellules vivantes de hamster en suspension dans de la gélatine. Les scientifiques ont irradié l'une des extrémités du tube à l'aide d'un faisceau tantôt de protons et tantôt d'antiprotons, ayant une portée de 2 cm dans l'eau, et évalué la proportion de cellules encore en vie après irradiation en fonction de la profondeur dans la cible.

La comparaison des effets des faisceaux de protons et d'antiprotons entraînant des lésions identiques à l'entrée de la cible a montré que les dommages aux cellules situées à la fin du trajet du faisceau étaient quatre fois supérieurs avec le faisceau d'antiprotons.

Michael Holzscheiter, porte-parole de l'expérience ACE, explique la portée de cette découverte : "Pour obtenir le même degré de dommage dans les cellules de la zone visée, il faut quatre fois moins d'antiprotons que de protons. L'utilisation des antiprotons réduirait sensiblement les dommages aux cellules le long du trajet suivi par le faisceau. Comme ils ont une capacité inégalée à préserver les tissus sains, les antiprotons pourraient s'avérer particulièrement utiles dans le traitement des récidives cancéreuses où cette caractéristique est essentielle".

Les antiprotons sont des particules d'antimatière. Ils doivent être produits en petites quantités dans un laboratoire à l'aide d'un accélérateur de particules. "Le CERN est le seul endroit du monde où l'on peut disposer d'un faisceau d'antiprotons de qualité, ayant une énergie suffisamment basse. Sans le décélérateur d'antiprotons du CERN, ces expériences n'auraient pas vu le jour", indique Niels Bassler, autre porte-parole d'ACE. Lorsque des particules de matière et d'antimatière se rencontrent, elles s'annihilent, transformant ainsi leur masse en énergie. ACE se sert de cette propriété, car l'antiproton pourrait s'annihiler avec une partie du noyau d'un atome de cellule cancéreuse. Les fragments produits par l'énergie émise lors de l'annihilation seraient projetés sur des cellules cancéreuses voisines, détruites à leur tour.

CERN

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La quasi-totalité des poissons risque de disparaître des océans d'ici 2050
Vendredi, 10/11/2006 - 00:00

La quasi-totalité des espèces de poissons et de crustacés pêchés pour la consommation auront disparu des océans avant 2050 si les tendances actuelles se poursuivent, ont mis en garde des scientifiques américains et canadiens.

Cette disparition accélérée de la biodiversité marine résultant de la pêche excessive et de la pollution menace la sécurité alimentaire de la planète et l'environnement, affirment ces biologistes et économistes dans l'étude la plus exhaustive réalisée à ce jour sur ce sujet et publiée dans la revue américaine Science datée du 3 novembre.

"Nos analyses indiquent que sans changement, la situation actuelle laisse présager de sérieuses menaces sur la sécurité alimentaire mondiale, la qualité des eaux côtières et la stabilité de l'écosystème qui affecteront les générations actuelles et futures", écrivent-ils.

"Que l'on regarde les résultats d'expérimentations en laboratoires ou des études portant sur l'ensemble des océans, on fait le même constat, à savoir que la productivité et la stabilité de tout l'écosystème marin diminuent", explique Boris Worm, un biologiste à l'université d'Halifax (Nouvelle-Ecosse), un des co-auteurs.

A ce stade, "29 % des espèces de poissons et de crustacés sont en passe de disparaître", précise Boris Worm ajoutant que "les prises de pêche de ces espèces ont diminué de 90 %" ces dernières années. La morue de l'Atlantique nord a déjà atteint le point de non-retour et est considérée quasiment éteinte. "Si cette tendance se poursuit, tous les stocks de poissons et de crustacés pourraient être épuisés d'ici 2048", a ajouté Boris Worm.

Cette recherche effectuée pendant quatre ans révèle également que la disparition d'une seule espèce accélère le dérèglement de l'ensemble de l'écosystème. A l'inverse, toute espèce qui retrouve un taux normal de reproduction contribue à la santé et à la stabilité des océans ainsi qu'à leur capacité d'absorber des chocs comme la pollution et le réchauffement du climat.

Ces scientifiques expliquent que la perte de biodiversité réduit profondément la capacité des océans à produire des poissons et crustacés, de résister au développement des parasites comme certaines algues ainsi qu'à produire de l'oxygène et à filtrer les substances polluantes.

"L'océan est un grand recycleur, il absorbe les égoûts et les recycle en substances nutritives, il retire les toxines de l'eau, produit de la nourriture et transforme le dioxyde de carbone (CO2) en élément de nutrition et en oxygène", souligne Steve Palumbi, un biologiste de l'université Stanford (Californie) et co-auteur de ces travaux.

Pour cette étude, les chercheurs ont fait la synthèse de toutes les données couvrant mille ans d'histoire marine, celles provenant d'études dans 48 zones marines protégées et des statistiques mondiales sur la pêche de 1950 à 2003. "Toutes ces données montrent aussi qu'il est possible d'inverser les tendances actuelles avant qu'il ne soit trop tard", estiment les auteurs de l'étude, déplorant toutefois "que seul 1 % des océans soit protégé actuellement".

Au lendemain de la publication de cette étude, l'organisation écologiste Greenpeace a réclamé l'inscription de près de la moitié des océans au titre de sanctuaires marins. "La surpêche et la pêche illégale détruisent nos océans à un rythme alarmant", a déploré Nilesh Goundar la porte-parole de Greenpeace pour l'Australie, qui appelle à la mise en place d'une vaste zone de protection sur 40 % des mers.

Science

Calculer sa production de CO2 sur le Net
Vendredi, 10/11/2006 - 00:00

La SNCF propose, sur la page d'accueil de son site Internet, un " écocomparateur". Un logiciel calcule le prix, la durée et le nombre de kilogrammes de dioxyde de carbone (CO2) émis dans l'atmosphère, et ce pour quatre moyens de transport : le train, l'avion de ligne, l'avion à bas prix et la voiture personnelle.

D'après ce comparateur, pour un aller Lyon-Lille, une personne voyageant seule déboursera 150 euros par le train, 146 euros en avion et 239 euros avec sa voiture. Mais si le voyage en train n'émet, selon l'entreprise ferroviaire, que 6 kg de CO2, l'aérien en produit 165 kg et la voiture 277 kg. Dans le cas de trajets à plusieurs, pour un aller Paris-Strasbourg à quatre personnes, le train reste très compétitif en matière d'émissions de CO2, mais plus du tout sur le terrain des prix, où la voiture l'emporte largement.

Pour Jean-Cyril Spinetta, président d'Air France-KLM, l'émission de CO2 par un Airbus est inférieure "de 20 % à 40 % à ce qui est inscrit sur ce site". L'Agence publique de l'environnement et de la maîtrise de l'énergie (Ademe), qui a effectué les calculs pour le compte de la SNCF, confirme, elle, ses données.

Pour sa part, la société Climat Mundi propose aux particuliers et aux PME de compenser financièrement leurs émissions annuelles, comme le font déjà les grandes entreprises. Sur la page d'accueil du site, un petit calculateur invite l'internaute à saisir les données concernant ses récents voyages aériens, le type de véhicule qu'il utilise, le nombre de kilomètres qu'il effectue et sa consommation annuelle de gaz ou de fioul.

Le coût des émissions est calculé sur la base de 20 euros la tonne de CO2, un prix fixé "en fonction de notre coût d'achat des crédits carbone, sur lesquels nous appliquons une marge destinée à payer les frais de structure", précise Eric Parent, directeur associé de Climat Mundi.

Dans une petite voiture consommant 8 litres d'essence aux 100 km, 20 000 km parcourus émettent 4,34 tonnes de CO2 et coûtent 87 euros. Un aller et retour entre Paris et New York en émet 2,56 tonnes et coûte 51 euros. "Cela peut paraître cher, mais demeure abordable si on compare le prix des émissions avec celui du billet, de l'hôtel et des repas", note M. Parent, qui ajoute que la tarification "permet justement au particulier de se rendre compte que, jusqu'à présent, personne ne paie ces émissions".

SNCF

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le génome de la paramécie dévoile des mécanismes d'évolution des espèces
Vendredi, 10/11/2006 - 00:00

A l'initiative d'une équipe du Centre de Génétique Moléculaire, des chercheurs du CNRS et du Génoscope - Centre national de séquençage - viennent de décrypter le génome de la paramécie, un organisme unicellulaire d'un intérêt considérable en biologie évolutive. Grâce à la découverte de trois duplications du génome à différentes échelles de temps, ils ont pu évaluer directement les conséquences de ce phénomène sur l'évolution des espèces.

Le génome de la paramécie possède près de 40.000 gènes, contre "seulement" 25.000 pour l'homme. Les chercheurs ont découvert à l'occasion de ce séquençage "trois duplications successives du génome", ce qui leur a permis d'évaluer directement les conséquences de ce phénomène sur l'évolution des espèces. Un doublement du nombre de gènes offre en effet "un large potentiel d'innovation, et donc d'adaptation des espèces".

La paramécie est un modèle très utilisé par les scientifiques, notamment pour l'étude de l'organisation cellulaire et de l'hérédité, en raison de sa grande taille et de la facilité d'observation de ses fonctions cellulaires variées. Ce décryptage valide l'hypothèse selon laquelle une duplication, avec doublement des gènes, peut conduire à la création de nouvelles espèces : la duplication la plus récente pour la paramécie s'est produite juste avant l'apparition de 15 espèces jumelles de cet organisme unicellulaire. Elles sont génétiquement distinctes, mais identiques dans leur morphologie et leurs niches écologiques.

Par ailleurs, les scientifiques ont été surpris de constater que suite à une duplication, de nombreux gènes restaient en double copie, donc redondants, alors que pour vivre la cellule n'en a besoin que d'un pour exprimer telle protéine spécifique.

La principale raison du maintien en double copie d'un gène après duplication n'est pas l'acquisition de nouvelles fonctions, ont-ils noté. En revanche, a expliqué Jean Cohen, Chercheur au CNRS, les gènes restant en double "sont liés soit à des éléments très abondants dans la cellule, soit à des éléments pour lesquels les rapports entre les produits de deux gènes doivent être équilibrés". Changer la quantité d'une protéine par rapport à d'autres compromettrait la vie de la cellule. Toutefois, ont constaté les chercheurs, "conformément à de précédentes observations sur d'autres génomes, il semble que le destin de la plupart des gènes dupliqués soit de perdre une des deux copies, progressivement".

CNRS

Thérapie génique contre le virus du SIDA : premiers essais prometteurs
Vendredi, 10/11/2006 - 00:00

Les premiers essais en vue de mettre au point une thérapie génique contre le virus du SIDA ont donné des résultats encourageants, ont annoncé des chercheurs américains. "L'objectif de cette phase I était de déterminer la sécurité et la faisabilité, et les résultats l'ont établi", a expliqué le Dr Carl June, principal auteur de l'étude publiée dans l'édition en ligne des Annales de l'Académie nationale américaine des Sciences.

Ces travaux n'ont concerné dans un premier temps que cinq patients atteints d'une infection chronique par le virus de l'immunodéficience humaine (VIH). Mais ils ont montré que le traitement était possible, sans mettre leur vie en danger, a précisé Carl June. Durant l'étude, sur une période de neuf mois, la quantité de virus présent dans l'organisme des malades est resté stable ou a diminué.

Quatre des cinq patients traités ont vu leurs cellules et système immunitaires se renforcer au cours de l'étude. Mais mieux vaut éviter de trop s'enthousiasmer dans l'immédiat, prévient le Dr Bruce Levine, co-auteur de l'étude. "Cela ne signifie pas que cela marchera sur tout le monde. Il nous reste encore beaucoup de travail", souligne le scientifique, membre comme Carl June de l'Institut Abramson de recherches sur le cancer à l'Université de Pennsylvanie.

Les chercheurs ont prélevé des cellules immunitaires dans lesquelles ils ont introduit des lentivirus, types de virus responsables de maladies d'évolution lente touchant le système nerveux central ou le système immunitaire. Cette manipulation empêche la reproduction du VIH et, en laboratoire, permet de combattre le virus dans les cellules qui n'ont pas été traitées, selon Carl June.

L'objectif, poursuit-il, est de mettre au point un traitement pris en une seule fois et continuant à combattre l'infection, contrairement à la plupart des médicaments actuels qui doivent être pris une à plusieurs fois par jour. Il s'agit du premier essai humain effectué pour vérifier son innocuité. Il a été réalisé sur des patients dont le virus résistait à d'autres traitements.

Les chercheurs vont à présent procéder à des essais dits de phase II, auprès d'un plus grand nombre de patients, dont certains reçoivent actuellement un traitement par médicaments pour contrôler l'infection. Ils recevront plusieurs transfusions de cellules traitées. Ceux qui prennent un ou plusieurs médicaments interrompront leur traitement pour voir si les cellules traitées agissent sur l'infection.

PNAS

Des scientifiques créent le premier foie humain avec cellules souches
Vendredi, 10/11/2006 - 00:00

Une équipe scientifique britannique est parvenue à créer un foie miniature à partir de cellules provenant d'un cordon ombilical. Ce foie, qui a la taille d'un ongle de pouce, a été élaboré par des scientifiques de l'université britannique de Newcastle (nord-est) à partir de cellules souches prélevées dans du sang de cordon ombilical.

Les mini-foies peuvent être utilisés par l'industrie pharmaceutique pour effectuer des tests de médicaments, réduisant ainsi l'expérimentation animale.

Ils pourraient également servir à réparer des foies abîmés et malades et, à plus long terme, à fabriquer de véritables organes qui pourraient alors être utilisés pour des transplantations.

Alors que d'autres scientifiques ont créé des cellules de foie, l'équipe de l'université de Newcastle --dirigée par le professeur Colin McGuckin et le docteur Nico Forraz-- est la première à fabriquer des tissus de taille non négligeable à partir de cellules souches de cordon ombilical. Les scientifiques ont placé du sang prélevé du cordon ombilical de nouveau-nés dans un "bioréacteur" mis au point par la Nasa, qui reproduit les effets de l'apesanteur et permet aux cellules de se développer plus rapidement. Des solutions chimiques et des hormones ont ensuite été ajoutées afin de guider les cellules pour qu'elles se transforment en tissus de foie.

DM

Le Resveratrol, composant du vin rouge, allonge la vie de souris obèses
Vendredi, 10/11/2006 - 00:00

Un composant du vin rouge aurait des effets bénéfiques à très hautes doses sur la santé des souris obèses et accroît considérablement leur longévité, selon une étude de chercheurs américains. Cette molécule, le resveratrol, rendue célèbre par "le paradoxe français" --la consommation de vin rouge expliquerait pourquoi les Français ont moins de maladies cardiovasculaires malgré leur alimentation riche-- a déjà montré les mêmes vertus sur des vers, des mouches drosophiles et de la levure.

Cette recherche sur des souris, dont les résultats ont paru dans la dernière édition de la revue britannique Nature, est la première à montrer que le resveratrol a des effets similaires sur des mammifères, affirment ces chercheurs de l'école de médecine de Harvard (HMS) dans le Massachusetts et de l'Institut national américain d'étude du vieillissement (NIA). "C'est la première fois que l'on montre que la petite molécule de resveratrol a des effets positifs pour allonger la vie des mammifères", souligne David Sinclair, professeur associé de pathologie à HMS et co-auteur de la recherche.

"Les souris sont beaucoup plus proches des humains que les organismes précédemment utilisés comme modèle de recherche, ce qui donne l'espoir que cette molécule agira de la même manière sur des humains sans effet secondaire néfaste", ajoute ce scientifique.

"Après six mois, le Resveratrol a essentiellement empêché toutes les évolutions négatives sur l'organisme d'un régime alimentaire très riche en calories", souligne Rafael de Cabo, chercheur du NIA et co-auteur de cette étude. Les souris obèses n'ont ainsi pas développé de diabète et gardé un foie et un système cardio-vasculaire sains.

"Ces vieilles souris obèses ont eu d'aussi bonnes performances dans les tests d'agilité que les jeunes souris minces", relève le Dr Sinclair, qui conduit par ailleurs, dans sa firme pharmaceutique, un premier essai clinique sur des diabétiques avec une formule de Resveratrol.

En outre, à ce stade de la recherche qui se poursuit, les souris traitées au resveratrol ont une durée de vie allongée d'au moins 15 % par rapport à d'autres groupes témoins. Or ce chiffre est appelé à augmenter probablement encore, notent les chercheurs.

Les expérimentations réalisées auparavant sur des vers et des mouches drosophiles avaient montré un accroissement de la longévité respectivement de 30 % et 60 %. Le resveratrol, que l'on trouve notamment dans les raisins et d'autres fruits, a été découvert dans le cadre de recherches des composants activant l'enzyme Sir2, qui joue un rôle clé dans l'allongement de la durée de vie de la levure et d'autres organismes inférieurs.

L'équivalent de l'enzyme Sir2 chez les mammifères est la Sir1 qui semble avoir été activée par le resveratrol chez les souris de l'étude, souligne les chercheurs qui précisent cependant que cette découverte ne saurait en aucun cas justifier une consommation excessive de vin rouge (plus de deux verres par repas).

Nature

Vers l'identification de l'horloge alimentaire
Vendredi, 10/11/2006 - 00:00

Urs Albrecht, professeur de biochimie à l'Université de Fribourg, et Etienne Challet, de l'Université Louis Pasteur à Strasbourg, ont découvert qu'une seule mutation de gènes chez les souris conduit à la disparition de la capacité à prévoir les temps des repas. Grâce à des expériences effectuées durant plus de deux ans, ils ont pu démontrer pour la première fois qu'un gène actif dans tout le corps et dans le cerveau est responsable de cette prédiction. Ils ont également réussi non seulement à diminuer les signaux de la faim, mais à les éliminer complètement.

Découvert par le Pr. Albrecht en 1997, le gène "Per 2", qui régule les processus corporels avant la prise de nourriture, est un gène clé pour l'organisme, souligne le communiqué. Ces nouvelles constatations sur la synchronisation des heures de repas et les réactions physiques constituent une base très prometteuse dans la perspective de thérapies contre le surpoids, les problèmes de sommeil, les dépressions ou encore l'alcoolisme.

Alors que des souris de laboratoire préparent tout leur organisme à la prise d'aliments quelques minutes avant la distribution du repas, les souris avec le gène "Per 2" défectueux restent d'abord passives. L'activité apparaît seulement lorsqu'elles reçoivent leur repas.

"La notion du temps est absolument centrale pour la stratégie de survie dans un environnement compétitif", explique Urs Albrecht. Pour les animaux à l'état sauvage, la capacité à prévoir la pâture est souvent une question de vie ou de mort. Avant qu'un animal muté ne remarque qu'il a faim, ses congénères sains ont depuis longtemps consommé les aliments. Le gène "Per 2" est très important, en particulier pour l'adaptation de l'organisme aux changements tels que la température ou le cycle du jour et de la nuit. Grâce à lui, l'horloge interne est en mesure de s'adapter, par exemple lors d'un vol entre l'Europe et la Chine.

A l'aide des souris présentant le gène "Per 2" défectueux, l'équipe des chercheurs suisses avait déjà pu démontrer il y a quelques années qu'une horloge interne déréglée par exemple lors du travail de nuit ou d'un décalage horaire a pour conséquence un besoin plus important d'alcool. Le gène "Per 2" pourrait également avoir une influence indirecte sur le poids corporel.

CB

La mort subite du nourrisson probablement due à une anomalie cérébrale
Vendredi, 10/11/2006 - 00:00

La mort subite du nourrisson (MSN), qui se produit le plus souvent entre deux et quatre mois, serait due à une anomalie dans la partie du cerveau réglant le sommeil, la respiration et la température du corps, selon une étude. Les neurologues Hannah Kinney et David Peterson de l'hôpital des enfants de Boston et de l'Ecole de médecine de Harvard ont examiné le cerveau de 31 nourrissons décédés de ce syndrome et dix morts d'autres causes. Leur analyse a porté particulièrement sur le bulbe rachidien, partie inférieure du tronc cérébral, où ils ont découvert des anomalies dans les cellules nerveuses produisant et utilisant la sérotonine, un des cent médiateurs chimiques qui transmet les messages entre les neurones.

On savait déjà que la sérotonine jouait un rôle dans la coordination de la respiration, réglage de la tension artérielle, la sensibilité au dioxyde de carbone (CO2) ainsi que dans la température du corps. Quand les bébés dorment sur le ventre (une position fortement déconseillée par les pédiatres), ils respirent probablement davantage de CO2 et moins d'oxygène.

Normalement, l'accroissement du CO2 active les neurones dans le bulbe rachidien, qui stimulent la respiration et les centres d'alerte cérébraux pour éviter l'asphyxie de l'enfant. Mais pour les nourrissons souffrant d'anomalie dans le système de production et d'utilisation de la sérotonine, leurs réflexes respiratoires et de réveil pourraient être affectés. Les Dr Kinney et Peterson espèrent, à partir de leur découverte, pouvoir mettre au point des tests pour diagnostiquer les anomalies et trouver des traitements.

JAMA

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'Arcep veut des investissements en fibre optique mutualisés
Vendredi, 10/11/2006 - 00:00

Paul Champsaur, président de l'Autorité de régulation des télécoms (Arcep), a appelé, le 8 novembre, à une mutualisation des investissements nécessaires au déploiement de la fibre optique, principal vecteur de l'essor de l'internet à très haut débit en France. "L'équation économique paraît difficile : d'une part, les investissements pour développer un réseau de très haut débit sont conséquents et, d'autre part, se pose également la question des revenus additionnels pour rentabiliser ces réseaux", a-t-il déclaré lors d'un colloque sur "l'audiovisuel de demain" organisé par le quotidien La Tribune et NPA Conseil.

"La mutualisation des infrastructures de génie civil et de câblage des immeubles est amenée à jouer un rôle fondamental", a-t-il ajouté, chiffrant les investissements à plusieurs dizaines de milliards d'euros sur plus de dix ans. La fibre optique est considérée comme le successeur le plus crédible de l'ADSL dans les villes, permettant aux opérateurs télécoms de répondre aux offres très haut débit et télévision haute définition des opérateurs câble et satellite.

Free, filiale d'Iliad, a annoncé en septembre un investissement d'un milliard d'euros d'ici 2012 dans le déploiement d'un réseau à très haut débit s'appuyant sur la fibre optique. France Télécom a lancé récemment une offre de fibre dans quelques arrondissements parisiens et communes des Hauts-de-Seine. Neuf Cegetel a fait savoir qu'il lancerait un programme de fibre optique pour les particuliers dès le début 2007 dans certains quartiers de Paris.

L'essor de l'internet à haut débit, auquel 11 millions d'abonnements étaient recensés en France au 30 juin, a soutenu l'essor de la télévision à péage, a également souligné Paul Champsaur. "En flux, l'ADSL constitue désormais le principal vecteur de croissance de la télévision payante", a-t-il noté, soulignant que les offres de télévision par ADSL étaient actuellement accessibles à un peu plus de 40 % de la population française.

Arcep

Révolution dans le monde du logiciel avec l'alliance Windows-Linux
Vendredi, 10/11/2006 - 00:00

Le géant mondial des logiciels Microsoft, créateur de Windows, et la société informatique Novell, du camp adverse de la norme Linux, ont décidé de s'allier pour rendre compatibles leurs systèmes d'exploitation, une petite révolution pour l'industrie du logiciel.

Les deux sociétés se sont engagées à collaborer sur le plan commercial, technique et des brevets : Microsoft et Novell vont chacun promouvoir le système d'exploitation de l'autre et vont sortir "une série de solutions communes".

"C'est un événement énorme pour le marché du logiciel", a jugé Carmy Levy, analyste du cabinet spécialisé Infotech Research. "Quand la plus grande compagnie de logiciels du monde veut nouer une alliance stratégique avec une petite compagnie qui défend la philosophie opposée, celle de "l'open source" (logiciel libre), c'est le signe que le monde du logiciel a fondamentalement changé", a-t-il ajouté.

De fait, ce partenariat réunit deux idéologies rivales du logiciel : celle des solutions sous licence, qui s'est imposée avec Microsoft, qui équipe aujourd'hui 90 % des ordinateurs dans le monde avec son système d'exploitation Windows, et celle du logiciel libre, incarnée par Linux, qui défend la liberté d'accès, d'utilisation et de modification de son programme informatique.

Pour Microsoft comme pour Novell, qui distribue un logiciel fonctionnant sous environnement Linux, Suse Linux, cette initiative répond à une demande des clients.

"Nous avons parlé avec beaucoup d'observateurs de cette industrie, et tout le monde est d'accord pour dire que nous avons besoin de construire une interopérabilité, un pont" entre les systèmes logiciels concurrents, a rapporté le PDG de Microsoft, Steve Ballmer.

"Notre motivation pour cet accord a été que les consommateurs ont besoin de se consacrer aux possibilités accrues permises par la compatibilité, pas de perdre du temps sur la façon de faire fonctionner des environnements informatiques différents", a ajouté Ron Hovsepian, le patron de Novell. "Nos deux groupes incarnent depuis longtemps des positions fortes dans cette industrie (...) et nous avons besoin aujourd'hui de donner à nos usagers une passerelle et de la tranquillité d'esprit", a-t-il ajouté.

"Cet accord va effectivement créer une passerelle entre le monde du logiciel commercial, occupé par Windows, et celui du logiciel libre, plus spécifique", estime M. Levy. "Les deux technologies sont complémentaires, mais cet accord va apporter un changement moins au grand public qu'aux entreprises, dont beaucoup ont besoin des deux environnements", ajoute-t-il.

Lors d'une conférence de presse, un cadre de la banque d'affaires Goldman Sachs, cliente de Microsoft et de Novell, a d'ailleurs expliqué son soulagement à avoir bientôt un environnement logiciel unique, plus simple d'utilisation.

"C'est une évolution logique qui répond à une tendance de fond, la compatibilité", souligne Carmy Levy, citant les assistants numériques personnels du groupe Palm fonctionnant aujourd'hui avec le produit concurrent Windows.

En avril, Microsoft et son rival Apple avaient aussi fait un pas en ce sens, grâce au programme "Bootcamp" permettant de faire cohabiter Windows avec le système d'exploitation Mac OS sur les ordinateurs Mac d'Apple. L'argument était d'offrir aux usagers à la fois Windows et Mac, aux fonctionnalités historiquement incompatibles.

Microsoft

NYT

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Europe : 6 millions de voiture à hydrogène en 2020
Vendredi, 10/11/2006 - 00:00

Les lobbys gaziers et les industriels de notre continent poussent l'Union Européenne à emprunter plus franchement la voie des motorisations à base d'hydrogène. Bien sûr, leur intérêt dans ce choix ne serait pas mince mais même sans cela, certains croient fort au futur de l'automobile à hydrogène.

Wolfgang Reitzle, aujourd'hui patron de Linde, une multinationale polymorphe recentrée sur la production de gaz, estime que le Vieux Continent verra 6 millions de véhicules à hydrogène emprunter ses routes à l'horizon 2020. Il ajoute d'ailleurs que ceci est une prévision basse !

On ne peut même pas le taxer de doux rêveur "vertifiant" puisqu'il fut longtemps numéro 2 de BMW (jusqu'en 2003) et donc bien informé sur l'avenir automobile qui se prépare.

Lui et ses amis estiment que l'Union Européenne devrait tout mettre en oeuvre pour développer un réseau dédié à l'hydrogène. Ils pensent qu'avec 3.8 milliards d'euros, l'UE pourrait financer à peu près 2800 stations-service capables de servir de l'hydrogène pour que les véhicules futurs ne voient pas leur diffusion freinée par des contingences de service pas anticipées ! Pour justifier une telle somme, ils rappellent que ces 4 milliards d'euros ne seront pas grand chose face à l'envolée des prix du pétrole qui apparait inéluctable pour beaucoup. Et argument massue : « Si chaque Chinois devait vivre selon les normes nord-américaines, il faudrait pomper 81 millions de barils de pétrole de plus chaque jour - trois fois plus que la production actuelle des pays de l'OPEP. »

Carasidiac

La voiture à piles à combustible pourrait décoller en 2015
Vendredi, 10/11/2006 - 00:00

Le Pôle Véhicule du Futur, situé en régions Alsace et Franche-Comté, est riche de partenariats grâce à une implantation stratégique, tant au plan régional avec la présence de poids lourds du secteur automobile, qu'au plan international, à la frontière avec la Suisse et l'Allemagne. 450 entreprises, 20 centres de R&D mondiaux, 26 équipes de recherche publique et près de 200 formations supérieures participent à ce jeune pôle régional de compétitivité, labellisé en juillet 2005, qui mise sur trois axes pour développer le véhicule du futur : véhicule propre, réseaux intelligents et excellence de la filière.

« Il n'est pas impossible en 2015 d'avoir des voitures à piles à combustible ! », prédit Florent Petit, directeur d'Ineva-CNRT et chef d'exploitation de l'Institut FC-lab. « Elles ne fonctionneront pas nécessairement avec une réserve d'hydrogène, mais avec un carburant liquide embarqué, à transformer » précise-t-il.

Ineva-CNRT est une association regroupant des industriels, des universités, des organismes de recherche et les autorités régionales, chargée de rapprocher la recherche publique et privée autour de la pile à combustible. Avec le laboratoire FC-lab, tout ce beau monde dispose d'une plate-forme d'essais unique par ses capacités, implantée à Belfort. Elle permet en effet de tester des systèmes intégrés, de grande puissance (200 kW) dans un environnement représentatif (vibrations, atmosphère, charge). Objectif pour Florent Petit : être capable de présenter des résultats aux industriels dès 2007, même si selon lui « l'hydrogène, c'est à long terme ».

I&T

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top