RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 579
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Janvier 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Pour rester une technologie dominante, le Wifi doit se perfectionner
Fibre optique : les collectivités y verront plus clair en 2011
Avenir
Des robots génétiques capables de s'assembler seuls
Matière
La CNR innove dans la recharge des batteries de voitures électriques
Capter l'énergie solaire dans l'espace : l'idée fait son chemin
Eolien en mer : les industriels attendent le feu vert
La France saura-t-elle attirer les énergies propres ?
Terre
Les hivers plus froids en Europe compatibles avec le réchauffement mondial
Vivant
Arthrose : reconstruire du cartilage avec des... cellules souches !
Des cellules souches transformées en cellules pancréatiques
Des chercheurs italiens décryptent le mode de vascularisation de certaines tumeurs
Cancer anal : vaccin Gardasil autorisé
Le Rôle clé des cellules souches cancéreuses se confirme
Cancer de la prostate : une approche génétique pour un meilleur dépistage
Cancer : les ultrasons prometteurs pour traiter les métastases du foie
Tabac : des dommages immédiats
Recherche
Londres passe aux bus à hydrogène
Le projet "Autolib" s'accélère avec le choix de Bolloré
Edito
le dossier médical informatisé enfin lancé !



Après quatre ans de retard, chaque médecin pourra proposer dans quelques semaines à ses patients de leur ouvrir un dossier médical personnel (DMP). Ce dossier virtuel en ligne, qui pourra être consulté par tous les professionnels de santé autorisés par le titulaire, doit faciliter la coordination des soins et éviter les examens inutiles.

Le projet figurait dans la réforme de l'Assurance-maladie, concoctée par Philippe Douste-Blazy et Xavier Bertrand en 2004. Cet outil était, avec le médecin traitant, la principale mesure structurelle devant permettre d'économiser 3,5 milliards d'euros par an sur les dépenses de santé. Il était alors prévu que chaque assuré dispose de son DMP avant mi-2007.

Une baisse de remboursement était même inscrite dans la loi, en guise de sanction, pour les patients refusant de s'en servir ! Sauf que, à l'échéance dite, non seulement le DMP n'était pas prêt, mais sa préparation était au point mort. Un fiasco.

Une nouvelle structure publique, l'Agence des systèmes d'information partagés de santé (Asip-santé), a repris le chantier à zéro en 2009. Avec deux différences majeures par rapport à la méthode précédente, selon son directeur, Jean-Yves Robin : «Nous ne sommes pas une institution spécifiquement consacrée au DMP mais à toute l'informatique de santé (informatique hospitalière, télémédecine, carte de professionnel de santé...). Cela nous a évité de créer un outil ex nihilo sans tenir compte de ce qui existe. Par ailleurs, le projet initial prévoyait plusieurs hébergeurs de données, au nom de la liberté de choix. Cela engendrait de la complexité alors que les patients ne réclament pas vraiment de choisir : leur priorité, c'est que leurs données soient sécurisées.»

C'est un consortium mené par La Poste et la société de services informatiques Atos Origin qui a été retenu pour conserver ces données sensibles. Une dizaine de millions d'euros a été consacrée cette année à l'infrastructure du DMP ; le budget devrait être sensiblement équivalent en 2011. L'Asip-santé s'est fixé pour objectif un coût d'exploitation inférieur à un euro par dossier et par an.

L'agence publique a défini trois grands axes pour déployer le DMP dans le pays. D'abord, compter sur les éditeurs de logiciels médicaux pour que leurs futures mises à jour permettent d'alimenter ou de consulter le dossier d'un patient d'un seul clic. Les médecins libéraux, notamment, mettront donc la main à la poche de façon plus ou moins visible, via les contrats de maintenance de ces logiciels qu'ils souscrivent habituellement. L'investissement sera bien plus lourd pour de nombreux hôpitaux, étant donné leur retard informatique (certains en sont encore au dossier patient «papier»).

Deuxième levier : encourager les professionnels de santé qui, dans une zone géographique, sont prêts à se lancer. «L'idée est d'avoir une masse critique d'acteurs dans une ville (hôpital, laboratoire d'analyses, cabinet de radiologie, médecins de ville...) pour créer l'usage», explique Jean-Yves Robin.

Enfin, de la même façon, soutenir les réseaux spécialisés (cancer, diabète, accidents vasculaires cérébraux...) partants pour s'équiper. L'Asip-santé disposera d'une enveloppe - une vingtaine de millions l'an prochain, avait promis l'ancienne ministre de la Santé, Roselyne Bachelot - pour cofinancer les filières de soins ou bassins de santé volontaires.

Conscient du scepticisme généré par les épisodes précédents, Jean-Yves Robin se garde de fixer un objectif de nombre de DMP précis, évoquant «un ordre de grandeur de 2 millions de dossiers ouverts en 2011».

En Picardie, le DMP est déjà une réalité et cette région-pilote en la matière a déjà dépassé les 100.000 «dossiers santé Picardie (DSP)». Ce dossier électronique unique dans lequel sont rassemblées toutes les données médicales d'une personne (compte rendu de visite, d'hospitalisation, résultats d'analyses, radios, etc.) est la préfiguration de ce que sera le dossier médical personnalisé (DMP).

«Il y a actuellement plus de 500.000 dossiers médicaux personnels ouverts dans les régions en expérimentation», détaille Jeanne Bossi, secrétaire générale de l'Asip santé, l'organisme en charge de ce dossier.

L'Asip a beaucoup travaillé sur la connexion entre les différents systèmes d'information et a clarifié la question de l'identifiant national de santé, c'est-à-dire le numéro d'accès personnel et sécurisé du DMP qui sera différent de celui de la Sécurité sociale jugé insuffisamment fiable par la Cnil. «Fin décembre, les dossiers médicaux régionaux en test vont devenir les premiers DMP», assure Jeanne Bossi.

«En Picardie, nous sommes prêts», estime Brigitte Duval, directrice du centre hospitalier de Compiègne et administratrice du GCS (groupement de coopération sanitaire) e-santé. «Actuellement, 350 médecins libéraux ont rejoint le système DSP sur un total de 2.600 médecins, en Picardie», détaille Philippe Descombes, président de l'Union régionale des médecins libéraux (URML). Et la moitié des établissements de soins de la région s'y sont mis. L'adhésion au système est très simple puisque le médecin utilise son logiciel de travail : «Une personne vient gratuitement dans son cabinet pour la formation.»

De son côté, afin d'optimiser et d'accélérer les échanges d'informations concernant le patient, l'Institut National du Cancer et l'Agence nationale des systèmes d'informations partagés de santé s'apprêtent à déployer un Dossier Communicant en Cancérologie, dans le cadre du lancement du dossier médical partagé.

Afin d'améliorer la qualité de la prise en charge, de fluidifier les échanges et de renforcer le partage d'informations, le DCC, dossier partagé en cancérologie créé lors du Plan Cancer précédent (2003-2007), a été testé dans 7 régions pilotes, via un financement par l'INCa (Institut National du Cancer).

Ce DCC, sorte de DMP avec des logiciels spécialisés et spécifiques, a permis pour chaque patient inclus de regrouper les données des réunions de concertation pluridisciplinaires (qui élaborent la prise en charge spécifique en fonction du cancer et du contexte de chaque patient), les comptes-rendus d'anatomo-pathologie (décisifs en cancérologie, car ils indiquent précisément la nature du cancer, via l'analyse d'un échantillon provenant d'une biopsie ou d'une opération), les comptes-rendus opératoires, les programmes personnalisés de soins, les lettres entre spécialistes et établissements, etc.

L'intérêt constaté de cette rationalisation a conduit à étendre ce DCC, qui sera donc disponible dès le début du déploiement du DMP et devrait se généraliser entre 2011 et 2013. De plus, selon Jean-Yves Robin, directeur général de l'Asip Santé, cette agence "travaille déjà sur un modèle similaire pour le diabète".

Les mois qui viennent vont donc à nouveau faire évoluer la pratique médicale en France, vers plus de fluidité, d'échanges et de rationalisation des soins. Ces dossiers -DMP, DCC, Dossier Diabète, etc.- seront accessibles par les médecins, mais, aussi, comme l'a souligné Mr Robin, de manière "nomade", par exemple via un notepad ou une tablette avec une carte 3G, pour une infirmière pratiquant des soins à domicile.

Sur le plan réglementaire, le décret très attendu du 19 octobre 2010 fixe le cadre et les conditions de mise en oeuvre de ce DMP et plus largement des activités de télésanté et de télémédecine. Les actes concernés sont au nombre de cinq : la téléconsultation, la téléexpertise, la télésurveillance médicale, la téléassistance médicale et "la réponse médicale donnée dans le cadre de la régulation médicale" des urgences ou de la permanence des soins.

Sont définies les conditions de mise en oeuvre : consentement et identification des personnes prises en charge, leur formation le cas échéant, authentification des professionnels impliqués, inscription des actes dans la fiche d'observation et le dossier du patient tenus par chaque professionnel intervenant.

On voit donc qu'après beaucoup d'erreurs et de tâtonnements, tous les éléments sont enfin réunis pour que 2011 soit vraiment l'année du grand basculement vers la télésanté et la télémédecine.

Au-delà de l'aspect purement technologique, la mise en réseaux des ressources médicales combinée à l'avènement du DMP aura de profonds conséquences non seulement en matière de suivi et de qualité de soins mais également dans l'organisation globale de notre système de santé et dans les relations entre patients, médecins et établissement hospitaliers.

Cette évolution est déjà en marche comme le montrent de nombreuses innovations comme la mise en place en 2010 du projet "e.patient" au CHU de Villefranche-sur-Saône qui a reçu le prix spécial de l'innovation lors de la cérémonie des victoires de la modernisation de l'Etat. Aujourd'hui, c'est à Grenoble de s'équiper du même dispositif.

E.patient, est une plate-forme disponible sur Internet, et qui permet à chaque individu de prendre rendez-vous dans certains services comme la chirurgie orthopédique, directement sur la Toile. Une fois le rendez-vous pris, un rappel est envoyé au patient par SMS ou par mail 48 heures avant le rendez-vous en question. Ce système devrait être généralisé en 2011 et intégré à la généralisation du DMP.

Cette révolution numérique dans les domaines de la médecine et du soin devrait permettre à chacun de profiter au meilleur coût d'une médecine performante et personnalisée.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Pour rester une technologie dominante, le Wifi doit se perfectionner
Vendredi, 07/01/2011 - 00:00

Le Wifi a toutes les chances d'être l'une des technologies de géolocalisation privilégiées par les utilisateurs dans les cinq prochaines années, note dans une étude ABI Research. Elle devrait même - selon les prévisions des analystes - se situer devant les autres solutions en 2015, avec plus d'un milliard d'appareils dotés de cette technologie. “Les services basés sur la géolocalisation, et avec eux les revenus qu'ils génèrent, notamment grâce à la publicité, sont des sujets majeurs de cette année”, souligne Patrick Connolly, Senior Analyst responsable de l'étude. “La clé, c'est une localisation précise, ubiquitaire pour une pluralité d'appareils portables comme les téléphones nomades, les tablettes et les laptops”, développe-t-il.

Un constat avec lequel s'accorde Arnaud Masson, fondateur et PDG d'Insiteo, une société spécialisée dans les services de localisation en intérieur : “le Wifi est une technologie importante dans la mesure où elle peut se déployer facilement, et est compatible avec la plupart des téléphones portables”, explique-t-il à L'Atelier. Avant de nuancer : “la question de la précision va en effet devenir centrale, et c'est la raison pour laquelle le Wifi va devoir se perfectionner s'il veut être massivement adopté”. Le spécialiste note ainsi que la précision de la géolocalisation attendue par les professionnels de ce marché est de l'ordre d'un mètre environ.

Atelier

Fibre optique : les collectivités y verront plus clair en 2011
Vendredi, 07/01/2011 - 00:00

L'Autorité de régulation des communications électroniques et des postes (Arcep) a adopté à la mi-décembre deux décisions réglementant, d'une part, le déploiement de la fibre optique jusqu'à l'abonné (FttH) en dehors des zones très denses, d'autre part, les conditions d'éligibilité aux aides du fonds d'aménagement numérique du territoire (Fant), mis en place par la loi Pintat sur la fracture numérique.

Désormais en attente des homologations du ministre chargé de l'Economie numérique, Eric Besson, ces décisions respectent le calendrier prévu par Jean-Ludovic Silicani, président de l'Arcep. "Après avoir établi en 2009 le cadre réglementaire pour le déploiement de la fibre optique dans les zones les plus denses du territoire, l'année 2010 sera consacrée à définir les conditions du déploiement sur le reste du territoire", s'était-il engagé le 15 janvier dernier.

Selon l'Arcep, ces dernières décisions tiennent compte des avis de l'Autorité de la concurrence et de la Commission européenne. Celle-ci avait notamment invité l'Arcep à se montrer vigilante sur la taille du point de mutualisation (évalué à mille lignes) et sur "l'offre de collecte". Quant à l'Autorité de la concurrence, elle avait surtout insisté sur les conditions du co-investissement pour éviter la création d'un nouveau monopole sur la boucle locale de fibre optique : Les collectivités territoriales ont un rôle stratégique à jouer pour organiser, au plus près des territoires, la cohérence des déploiements et la complémentarité des technologies.

C'est l'objectif des schémas directeurs d'aménagement numérique, que de nombreuses collectivités, comme le département de la Manche, ont élaboré ou sont en train d'élaborer", a rappelé le Premier ministre, François Fillon, le 6 décembre lors d'un déplacement au pôle d'excellence rurale Novéa (qui forme aux métiers d'avenir dans les secteurs du très haut débit) et sur le site du fabricant de fibre optique Acome, à Mortain (Manche).

Aux côtés d'Eric Besson et de René Ricol, commissaire général à l'Investissement, François Fillon a présenté les sept projets-pilotes pour le déploiement du très haut débit retenus suite aux appels à projets lancés dans le cadre des investissements d'avenir (ex-grand emprunt). Avant de déployer à très grande échelle le programme très haut débit sur le territoire national, ces sept sites-pilotes d'expérimentation ont été sélectionnés pour tester en grandeur nature la mise en place d'un réseau de fibres optiques dans des zones peu denses. Ces projets, associant collectivités locales et opérateurs, ont démarré fin 2010 pour des tests de déploiement opérationnels au premier semestre 2011.

Un site-pilote se trouve à Saint-Lô, dans la Manche, département de "référence pour le numérique", selon le Premier ministre. Les autres se trouvent en Savoie (communauté de communes Coeur de Maurienne), dans le Puy-de-Dôme (conseil régional d'Auvergne à Issoire), en Seine-et-Marne (Chevry-Cossigny), en Lozère (Aumont-Aubrac), en Haute-Savoie (Sallanches) et en Vendée (Mareuil-sur-Lay-Dissais).

Les projets sélectionnés permettront, par leurs échanges d'informations et leurs retours d'expériences respectifs, de mettre en place des principes communs d'exploitation pour les futurs développements FttH en France. Tous les projets retenus sont subventionnés par l'Etat à hauteur de 50 % maximum, avec un plafond de 500.000 euros.

Ils devront concerner au moins 300 foyers. Au total, les investissements d'avenir consacreront 2 milliards d'euros pour le déploiement du très haut débit en France. Bien loin des 18 milliards de fonds publics nécessaires pour une couverture à 100 % en 2025, selon les estimations les plus optimistes de la Datar.

Localtis

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots génétiques capables de s'assembler seuls
Vendredi, 07/01/2011 - 00:00

Des scientifiques de l'institut Fraunhofer ont présenté un robot dont les pièces mobiles peuvent s'assembler par elles-mêmes, grâce à un logiciel d'algorithme génétique.

Le robot se présente en pièces détachées de forme cylindrique, s'attachant entre elles par l'intermédiaire d'articulations. Une simple commande logicielle leur donne le signal de s'assembler selon la forme souhaitée.

Une fois cette commande enregistrée, les différentes parties s'exécutent automatiquement pour créer une forme en fonction des spécificités de l'environnement et des besoins de l'expérience. En effet, le robot intègre un moteur informatique capable de s'adapter à son environnement, en ajustant sa pesanteur ou son degré de frottement sur le sol, par exemple.

Devant une tâche à accomplir, le robot proposera quelques suggestions d'actions parmi lesquelles les scientifiques pourront choisir. L'un des chercheurs de l'équipe souligne que dans certaines situations, le robot propose des solutions auxquelles ils n'avaient même pas eux-mêmes pensé.

BV

^ Haut
Matière
Matière et Energie
La CNR innove dans la recharge des batteries de voitures électriques
Vendredi, 07/01/2011 - 00:00

La Compagnie nationale du Rhône veut anticiper la demande d'électricité liée au développement des voitures électriques. Le marché de ces véhicules propres, aujourd'hui balbutiant, devrait connaître très probablement un essor important. Ainsi le plan véhicule décarboné prévoit la vente de 450 000 véhicules électriques d'ici 2015, 2 millions en 2020 avant d'atteindre 4,5 millions en 2025. Sur un parc qui compte aujourd'hui plus de 37 millions de voitures.

D'où le concept baptisé « Move in pure » qui a été présenté à Lyon portant sur une recharge dite intelligente destinée aux voitures électriques. Ainsi, grâce à un boîtier installé dans sa voiture électrique, le conducteur peut piloter la recharge de la batterie à distance et en fonction de la distance qu'il aura à effectuer.

Il indique ses besoins auprès du centre de gestion de la CNR via son téléphone connecté à internet ou son ordinateur. Forte de son expérience dans la production d'électricité issue d'énergies renouvelables, la CNR propose aux conducteurs la fourniture de cette électricité issue de la production hydraulique, éolienne et photovoltaïque.

Aussi, le Move in pure consiste à se servir de la partie aléatoire de la production d'électricité renouvelable de la CNR et la stocker dans les batteries de ces voitures. Et bien sûr, en cas d'insuffisance de ce type d'électricité propre, la CNR assure la fourniture de l'électricité provenant de ses centrales hydroélectriques sur le Rhône, « quelles que soient les conditions météorologiques », précise la CNR. Selon Mathieu Bonnet, directeur général de la compagnie, « 2 millions de véhicules en 2020 représenteraient un besoin de 4 TWh d'énergie supplémentaire, soit 1 % du volume total d'électricité consommé en France à cette date ».

C'est pourquoi la CNR distinguera la charge « immédiate » plus coûteuse de la charge « souple » qui permettra à la CNR de recharger la batterie du véhicule avec des énergies renouvelables moyennant un prix plus avantageux. « N'importe où, n'importe quand et avec n'importe quelle prise, nous pourrons fournir un carburant 100 % vert », insiste Mathieu Bonnet qui précise que le modèle économique de « move in pure » est en cours de conception.

LP

Capter l'énergie solaire dans l'espace : l'idée fait son chemin
Vendredi, 07/01/2011 - 00:00

L'énergie du Soleil captée par des satellites dans l'espace pourrait, nuit et jour, fournir de l'électricité à des installations au sol, selon des projets comme celui de la firme Astrium, qui pourraient commencer à voir le jour à partir de 2020. Il ne s'agirait pas, au moins dans un premier temps, d'alimenter des villes qui disposent déjà d'infrastructures, mais des régions isolées, d'accès difficiles où on a besoin d'électricité, explique Robert Lainé, directeur technique d'Astrium, filiale espace du groupe européen EADS.

Cela pourrait permettre de fournir ponctuellement de l'électricité à une zone de catastrophe, un hôpital de campagne, une installation de pompage, de purification ou de désalinisation d'eau, a-t-il précisé lors d'une récente conférence à Paris. Alimenter des grandes villes, "ça ne se produira pas avant qu'il n'y ait plus de pétrole", a-t-il déclaré.

"On pense que le plus simple, c'est de commencer avec un satellite existant, puis de l'adapter", note M. Lainé. La première démonstration pourrait s'appuyer sur les capacités du futur satellite de télécommunication Alphasat, avec l'objectif d'acheminer au sol, grâce à un laser infrarouge, quelques kilowatts d'énergie produite dans l'espace.

"Si on trouvait un financement demain, six ou sept ans c'est tout à fait raisonnable" pour aboutir à une démonstration, précise cet expert, alors qu'au-delà de partenariats européens, Astrium envisage de s'associer avec Russes et Japonais pour mettre en place cette nouvelle filière technologique. Lors de l'étape suivante, au cours de la décennie 2020-2030, plusieurs satellites, capables de fournir jusqu'à 100 kW chacun, pourraient faire converger leurs faisceaux. Alors qu'aux Etats-Unis des projets de grande ampleur sont envisagés, Astrium, qui recherche des partenaires, table plutôt sur un développement progressif, avec une première démonstration d'ici 2020, voire dès 2016.

"En cas de situation d'urgence, de besoin d'électricité, on bascule le faisceau facilement, on peut le faire en une minute", assure M. Lainé. Grâce à un miroir de 3,5 mètres de diamètre, comme celui du télescope scientifique Herschel, le satellite pointera vers la Terre un rayon laser infrarouge de 20 mètres de large en ciblant des panneaux solaires de 30 m sur 30 placés au sol, selon le projet d'Astrium. La puissance reçue sur chaque panneau pourrait atteindre 300 kW, de quoi alimenter des dizaines de foyers.

Des cellules photoélectriques adaptées par Astrium pour l'infrarouge permettraient de convertir jusqu'à 60 % de l'énergie reçue en électricité, au lieu de 15 % avec les panneaux solaires actuels captant la lumière blanche du soleil. La longueur d'onde supérieure à 1,4 micron choisie pour le laser devrait permettre d'acheminer sans risque 1 kW par mètre carré sur le récepteur. Une personne regardant brièvement dans le faisceau "va avoir chaud à la figure, aux yeux, mais il n'y a pas de pénétration dans la peau" ni de risque de brûler la rétine, assure M. Lainé.

A ces fréquences-là, les valeurs limites d'exposition sont élevées parce que "le rayonnement infrarouge est très peu pénétrant", précise un expert de l'Institut national de recherche et de sécurité (INRS). Et avec 1 kW par mètre carré, le laser ne se transformera pas en arme de guerre. Pointé sur une forêt, "le laser n'y mettrait jamais le feu", souligne M. Lainé, car le flux d'énergie serait voisin de ce qu'on reçoit du soleil au zénith.

Transmettre l'énergie via un faisceau micro-onde, comme l'envisagent d'autres projets, pourrait susciter davantage de réticences, comme dans le cas des antennes de téléphonie mobile, et nécessiterait des récepteurs jusqu'à mille fois plus grands.

AFP

Eolien en mer : les industriels attendent le feu vert
Vendredi, 07/01/2011 - 00:00

L'étude que le cabinet PwC a publié fin décembre a tout l'air d'un appel du pied destiné au gouvernement. La France a des atouts pour devenir un acteur important de l'énergie éolienne en mer. Mais pour rattraper notre retard sur la Grande-Bretagne ou le Danemark, il faut miser sur l'innovation, et lancer sans attendre... l'appel d'offres prévu dans ce domaine.

L'éolien offshore attend son appel d'offres. Le lancement d'un appel à candidatures pour la construction de quelque 600 éoliennes en mer était prévu pour le mois de septembre puis a été reporté. Nathalie Kosciusko-Morizet a bien évoqué une réunion avant noël pour en définir les modalités, mais la filière reste pour l'instant dans le flou. Pourtant, l'une des premières conditions à l'émergence d'une industrie française de l'éolien offshore est la création d'un marché national, martèle une étude de PwC récemment publiée.

C'est la condition sine qua none pour que la France exploite ses atouts et «capte la croissance de ce marché », assure Philippe Degonzague, responsable du groupe stratégie de PwC. « Les industriels restent suspendus au lancement de l'appel d'offres qui a été reporté à plusieurs reprises », note M. Degonzague. « Plus cet appel d'offres sera retardé et plus les décisions d'investissement risquent d'être remises en cause », estime-t-il.

Avec les 3.500 km de côtes de l'Hexagone et un savoir-faire « fort », l'Hexagone constitue le deuxième potentiel pour l'éolien marin en Europe, derrière la Grande-Bretagne. Une chance : le secteur européen de l'éolien en mer devrait croître de 20 % chaque année d'ici à 2035, estime PricewaterhouseCoopers (PwC), qui prévoit que ce marché dépassera celui de l'éolien sur terre en 2026 du fait « de la saturation des sites ». En 2035, ce sont 25 gigawatts (GW) d'éoliennes qui seront installées chaque année au large des côtes européennes, selon PwC.

L'étude de PwC décortique les opportunités pour l'industrie française sur toute la chaîne de valeur. A court terme, dans les 12 à 18 mois à venir, les industriels français se positionneront sur les segments de production peu complexes que sont la fabrication des mâts, les sous-stations (cube métallique flottant doté d'un générateur qui permet de récupérer l'électricité produite par les éoliennes d'un parc), l'assemblage à quai et les fondations. Ensuite, ceux-ci aimeraient capter un peu plus de valeur ajoutée. Car dès 2015, c'est par des trouvailles ingénieuses que l'Hexagone devra faire la différence.

Plusieurs acteurs se positionnent : l'usine EADS-Astrium concoctera des pales plus résistantes, et Saipem bûche sur une barge d'installation innovante d'éoliennes en mer. Le navire emporte l'éolienne déjà montée, et n'a plus qu'à l'installer en mer et à l'ouvrir, « comme un parasol », indique Alexis Chauffert-Yvart. Jusqu'à présent, l'installation des fondations se fait lors d'une première étape, avant que le mât surmonté des pales et du rotor n'y soit ajouté.

Quant aux turbines, c'est une autre paire de manches. La fabrication d'éoliennes marines sans multiplicateur ni boîte de vitesse est une étape ultérieure, pour laquelle la France n'est pour l'instant pas prête. « C'est prématuré », indique Philippe Degonzague. Le marché est pour l'instant trusté par trois turbiniers européens : le danois Vestas, qui a installé une base de pré-assemblage d'éoliennes dans le port de Dunkerque, l'allemand Siemens, et son compatriote Repower, celui-là même qui réfléchit à installer une usine sur un port français avec le mâtier Siag.

L'Hexagone n'est pas totalement atone : le français Areva se lance désormais avec Multibrid, et son compatriote Alstom y travaille avec le rachat d'Ecotecnia. L'arrivée de l'allemand Enercon, qui va installer sa première usine française de mâts terrestres dans l'Oise, est également un signe encourageant. Mais les turbiniers confirment avant tout leur attrait pour le Royaume-Uni. Gamesa, Siemens, General Electric ou Mitsubishi ont déjà annoncé qu'ils comptent y investir pour une centaine de millions d'euros chacun.

Dernière innovation que la France doit avoir à l'oeil estime PwC : les éoliennes flottantes, « une vraie rupture technologique, sur laquelle les acteurs français pourraient être leader du marché », selon Alexis Chauffert-Yvart. « C'est une technologie qui serait conforme aux complexités géographiques françaises : sur les côtes françaises, le fond tombe très vite, donc cela permettrait d'installer plus de mâts au large des côtes françaises à un moindre coût », indique-t-il.

Lancer les Français à la conquête du marché européen implique de débloquer l'impulsion étatique, insiste l'étude qui rappelle que le coût du MW éolien en mer installé : 3,5 millions d'euros. Il comprend la fabrication de l'éolienne complète, son installation et son raccordement. Pour raccorder 705 MW sur le parc des Deux-Côtes au large de la Normandie, la Compagnie du vent (filiale de GDF Suez) va ainsi débourser 1,8 milliard d'euros. L'objectif de 6 GW d'ici à 2020 du gouvernement représente quant à lui un investissement de 20 milliards d'euros.

UN

La France saura-t-elle attirer les énergies propres ?
Vendredi, 07/01/2011 - 00:00

Un système à réformer d'urgence, selon le Pew, pour qui, sinon, aucune politique publique française n'aura le moindre effet. L'étude du Pew serait certainement encore plus sévère pour la France si elle avait inclus la toute récente décision de geler les aides au solaire pour les 3 à 4 prochains mois !

Au niveau mondial, selon l'étude, les investissements privés dans les secteurs de l'éolien, du solaire, de la biomasse/des déchets, des petites centrales hydroélectriques, de la géothermie et de la mer, atteindront jusqu'à 2.300 milliards de dollars.

Ce qui équivaut à injecter la totalité du PIB du Royaume-Uni dans l'économie mondiale. Et signifierait au sein du G20, la mise en place de 1.180 gigawatts d'énergies propres, soit près de quatre fois les installations d'énergies renouvelables actuelles.

L'étude, fondée sur des données de Bloomberg New Energy Finance, distingue trois scénarios, selon le degré de volontarisme des politiques publiques, "la" condition pour que le privé suive : la poursuite de la tendance actuelle, scénario le moins dynamique ; l'application des engagements de Copenhague, un rythme plus soutenu ; le renforcement des politiques en faveur des énergies propres, le cas de figure le plus actif.

Car tout dépend de l'action publique, estime le Pew : "Les pays qui souhaitent maximiser les investissements privés, stimuler la création d'emplois, dynamiser la production et saisir les opportunités d'exportation devraient renforcer leurs politiques en matière d'énergie propre, » a déclaré Phyllis Cuttino, directrice du programme Climat et Énergie du Pew.

Par an, dans l'ensemble des pays du G20, les investissements grimperont jusqu'à 337 milliards de dollars en 2020 (+161 % par rapport à 2010). Au sein du G20, l'Asie sera en tête : la Chine, l'Inde, le Japon et la Corée du Sud devraient représenter ensemble environ 40 % des investissements privés dans les énergies propre en 2020. La Chine attirera, à elle seule, jusqu'à 620 milliards de dollars, l'Inde 169 milliards, au 4ème rang mondial grâce à son action volontaire. Elle n'était que 10ème en 2009.

Les États-Unis, s'ils adoptent une politique rigoureuse en matière d'énergie, attireront 342 milliards de dollars sur 10 ans, mais seulement 245 milliards sur la tendance actuelle. Par an, dans le scénario élevé, le montant s'élèverait à 53 milliards en 2020 (+237 % sur 2010).

Bien moins en tout cas que l'Union européenne qui, dans le scénario le meilleur, attirera 705 milliards de dollars d'investissement privés dans ce secteur, avec 85 milliards par an en 2020.

L'ajout de capacités de production d'énergies renouvelables pourrait dépasser 177 gigawatts par an d'ici 2020, avec sur 10 ans 1.180 gigawatts dans le monde, ce qui équivaudrait à multiplier par quatre les capacités de production d'énergie propre actuelles.

L'énergie éolienne devrait être le principal bénéficiaire des financements, avec environ 50 % du total, atteignant 190 milliards de dollars annuels en 2010 (+222 % sur 2010). Un secteur tiré par la Chine, qui y misera la moitié de ses investissements. Mais l'éolien représente aussi plus de 60 % des investissements en Allemagne, France, Canada, Etats-Unis et Grande-Bretagne.

Le solaire, n°2, est moins actif puisque, selon le scénario, les investissements annuels resteront stables ou croîtront de 53 % sur 2010. Puis, dans l'ordre, la biomasse, la géothermie, les déchets et les petites centrales hydroélectriques.

Dans l'UE, tous les pays ne seront pas pareillement gagnants : en tête, l'Allemagne (208 milliards de dollars sur la prochaine décennie), suivie du Royaume-Uni (134 milliards) et de l'Italie (90 milliards de dollars), surtout dans le solaire.

En en 4ème position seulement, loin derrière l'Italie, la France avec 57 milliards de dollars sur 10 ans. Ce qui permettrait l'installation de 29 GW de capacité de production d'énergies renouvelables, qui seront essentiellement des parcs éoliens.

Pourquoi ? D'abord à cause de la prépondérance de l'énergie nucléaire, qui laisse moins de place à la croissance des énergies renouvelables. « En conséquence, même dans le cadre du scénario de politiques renforcées, l'investissement privé dans les énergies propres en France devrait augmenter d'à peine 50 %. Dans le cadre des politiques actuelles et de Copenhague, l'investissement dans les énergies propres en France devrait rester stable au cours de la décennie à venir », selon l'étude.

« Toute capacité d'énergie nucléaire qui ferme sera probablement remplacée par davantage de nucléaire ; certains moyens de production de charbon devront être remplacés dans les dix prochaines années, laissant quelques possibilités de croissance aux énergies renouvelables. Sur les 6,3 milliards de dollars d'investissements annuels dans les énergies renouvelables en France en 2020 (scénario haut), 5 milliards de dollars seront consacrés à l'éolien », note l'étude.

Selon le Pew, la France a obtenu 1,8 milliards de dollars d'investissements dans les énergies propres en 2009, avec un taux de croissance moyen de 98 % dans ce domaine sur les cinq dernières années. Elle a installé 3,4 GW d'éolien et a un fort potentiel photovoltaïque. Le gouvernement vise 10 % d'électricité à partir d'énergies renouvelables d'ici fin 2010, adhère au marché du carbone de l'UE et s'est engagé à Copenhague à réduire ses émissions jusqu'à 30 % par rapport à 1990.

Mais elle souffre de trois défauts : des politiques « incohérentes » avec des règles qui changent sans cesse, une bureaucratie omniprésente et des contraintes administratives, et enfin un système électrique trop centralisé. Pour accroître rapidement ses capacités, la France doit remettre en question son système centralisé de l'énergie ou développer de nouveaux processus d'interconnexion.

GU

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les hivers plus froids en Europe compatibles avec le réchauffement mondial
Vendredi, 07/01/2011 - 00:00

Cela peut sembler étrange et pourtant, selon des scientifiques, les hivers rigoureux qui se succèdent en Europe depuis dix ans sont liés, en grande partie, au réchauffement climatique. Au premier regard, la froideur glaciale qui s'est abattue sur l'Europe semble peu compatible avec la hausse moyenne des températures attendue d'ici la fin du siècle et qui pourrait atteindre de 5 à 6 degrés.

Aux climato-sceptiques qui y voient la preuve que le changement climatique n'existe pas, certains scientifiques répondent que ces vagues de froid sont un refroidissement temporaire, au sein du réchauffement global.

Mais une nouvelle étude va plus loin, et montre que la hausse du thermomètre est précisément à l'origine de ces hivers enneigés et particulièrement froids.

Le coupable serait la fonte de la calotte glaciaire arctique. Le réchauffement, deux à trois fois supérieur à la moyenne, a entraîné sa réduction de 20 % ces 30 dernières années. Elle pourrait même disparaître entièrement durant les mois d'été d'ici la fin du siècle.

Les rayons du soleil, qui ne sont plus repoussés par la glace, réchauffent encore un peu plus la surface du globe à cet endroit. Une mer sans glace, et c'est tout le système de pressions qui s'en trouve bouleversé.

"Mettons que l'océan soit à zéro degré", explique à l'AFP Stefan Rahmstorf, spécialiste du climat au prestigieux Institut Potsdam (Allemagne) pour la recherche sur l'impact climatique.

"Il est ainsi beaucoup plus chaud que l'air ambiant dans cette zone polaire en hiver. Vous avez alors un important flux chaud qui remonte vers l'atmosphère, que vous n'avez pas quand tout est recouvert de glace. C'est un changement énorme", ajoute-t-il.

Le résultat, selon une étude publiée au début du mois par le Journal de Recherche Géophysique, est un système de hautes pressions qui pousse l'air polaire, dans le sens inverse des aiguilles d'une montre, vers l'Europe.

"Ces anomalies pourraient tripler la probabilité d'avoir des hivers extrêmes en Europe et dans le nord de l'Asie", y explique le physicien Vladimir Petoukhov, qui a dirigé l'étude.

D'autres explications pour ces hivers atypiques, comme une baisse de l'activité solaire ou des changements dans le Gulf Stream, "ont tendance à en exagérer les effets", ajoute M. Petoukhov.

Il souligne également que lors de l'hiver glacial de 2005-2006, quand les températures étaient de 10° inférieures à la normale en Sibérie, aucune anomalie n'avait été constatée dans l'oscillation nord-atlantique, phénomène météorologique avancé par certains comme une explication possible de ces hivers rigoureux.

Et les chercheurs de souligner que ces hivers particulièrement froids en Europe ne reflètent pas la tendance globale constatée sur l'ensemble du globe, où 2010 devrait être l'une des trois années les plus chaudes jamais enregistrées.

AP

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Arthrose : reconstruire du cartilage avec des... cellules souches !
Vendredi, 07/01/2011 - 00:00

A Marseille, une équipe travaille à reconstruire du cartilage chez des patients souffrant d'arthrose du genou, par injection de cellules-souches. Explications du Dr Michel Assor, chirurgien. « Nous ciblons l'arthrose du genou », nous explique-t-il. « Cette maladie très fréquente touche le plus souvent, de jeunes sportifs et des patients de plus de 65 ans. Jusqu'ici, aucune des techniques utilisées pour reconstituer du cartilage - microgreffes, autogreffe de cartilage... - n'a donné de résultats vraiment probants, à long terme ».

La technique des chirurgiens marseillais repose sur l'implantation au niveau de la zone lésée, « d'une solution » contenant des cellules souches. Celles-ci « sont particulièrement intéressantes dans la mesure où elles parviennent à reconnaître le milieu où elles sont plongées, puis à se 'transformer' en cellules de cet environnement », nous explique-t-il. Est-il pour autant vraiment possible de faire repousser du cartilage ? Les premières expérimentations animales, réalisées sur des rats et des chèvres, ont été « porteuses d'espoir ». Voilà pourquoi depuis quelques semaines, le Dr Assor évalue le procédé dans la « vraie vie ».

« Aussitôt après avoir prélevé les cellules souches au niveau de la moelle osseuse du malade, nous les activons en les associant à des protéines déminéralisées », poursuit-il. Ensuite, « l'ensemble est lié avec du collagène. La solution obtenue est injectée au niveau du genou ». Pour l'heure, 12 patients ont bénéficié de cette technique. « Ils ont entre 30 et 70 ans, présentent un genou stable et une arthrose de taille limitée à 6cm2 ». Tous seront suivis pendant un an. Les premiers résultats sont attendus à la fin du printemps 2011.

DS

Des cellules souches transformées en cellules pancréatiques
Vendredi, 07/01/2011 - 00:00

Des chercheurs américains sont parvenus à produire des cellules souches capables de se comporter comme des cellules pancréatiques produisant de l'insuline. Transplantées sur des souris diabétiques, ces cellules ont continué à produire de l'insuline, se comportant comme les cellules pancréatiques.

Jusqu'ici, les diabétiques devaient soit prendre de l'insuline toute leur vie soit être traités par le protocole d'Edmonton. Celui-ci utilise des cellules pancréatiques issues de personnes décédées et une partie de ces cellules peut être victime d'un rejet de greffe.

D'un autre côté, une seconde équipe de chercheurs est parvenue à convertir deux types de cellules souches en tissu intestinal. Ils se sont avérés capables de remplacer des cellules humaines lors de leur culture en laboratoire.

La revue Nature rapporte que l'équipe de chercheurs a montré que ces cellules dites organoïdes étaient capables de remplacer des cellules intestinales y compris les cellules des muscles lisses ainsi que les cellules productrices de plusieurs composants vitaux.

Nature

Des chercheurs italiens décryptent le mode de vascularisation de certaines tumeurs
Vendredi, 07/01/2011 - 00:00

Une étude italienne a révélé un mécanisme important de fonctionnement de cellules tumorales, et le rôle que ces cellules ont dans la vascularisation de la tumeur, ouvrant aussi la voie à une nouvelle approche thérapeutique concernant divers types de tumeurs.

Cette étude financée par l'AIRC (Association Italienne pour la Recherche contre le Cancer) a été menée conjointement par les chercheurs de l'Institut Supérieur de Santé, de l'Université Catholique de Rome, de l'Institut Neurologique "C. Besta" de Milan, et de l'Université de Palerme. Les mécanismes révélés mettent en cause les cellules souches du glioblastome multiforme (qui est l'une des tumeurs cérébrales les plus communes) qui seraient capables de construire le réseau de vaisseaux sanguins nécessaires à l'alimentation (et donc à la croissance) de la tumeur.

Cette étude confirme donc l'existence de cellules souches de la tumeur, question que se posait la communauté scientifique internationale depuis plusieurs années. Selon les chercheurs, la contribution de ces cellules souches à la vascularisation de la tumeur représente un nouveau mode d'angiogenese (peut-être pas forcément limité au glioblastome d'ailleurs), et cette étude permet aux chercheurs de se pencher sur des approches nouvelles quant au traitement de diverses tumeurs. L'étude, appelée "Tumour vascularization via endothelial differentiation of glioblastoma stem-like cells" a été publiée dans la prestigieuse revue Nature.

BE

Cancer anal : vaccin Gardasil autorisé
Vendredi, 07/01/2011 - 00:00

La FDA, l'autorité américaine des médicaments, vient d'autoriser le vaccin Gardasil pour la prévention du cancer anal et des lésions précancéreuses provoqués par certains papillomavirus, chez des jeunes âgés de neuf à 26 ans. Le Gardasil est déjà commercialisé pour une population féminine du même âge pour prévenir le cancer du col de l'utérus et du vagin résultant des papillomavirus de type 6, 11, 16 et 18.

La FDA avait également donné son feu vert à la mise sur le marché de ce vaccin produit par le laboratoire américain Merck pour la prévention des verrues génitales provoquées par les papillomavirus de type 6 et 11 chez les hommes et femmes. Bien que le cancer anal soit rare dans la population générale, sa fréquence augmente surtout chez les hommes homosexuels. Ces papillomavirus sont liés à environ 90 % des cancers de l'anus, précise la Food and Drug Administration (FDA) dans un communiqué.

Le Gardasil a été testé dans une étude clinique sur des hommes homosexuels, un groupe de la population ayant le taux le plus élevé de cancer anal. L'essai clinique a montré que le Gardasil a été efficace à 78 % pour prévenir le cancer anal dans ce groupe.

LF

Le Rôle clé des cellules souches cancéreuses se confirme
Vendredi, 07/01/2011 - 00:00

Une nouvelle étude parue dans le Journal Of American Medical Association a permis de mettre en avant le fait que les patients atteints de leucémie et présentant des cellules souches cancéreuses plus actives que la moyenne avaient moins de chances de survivre à la maladie.

Ce constat confirme le fait que les cellules souches cancéreuses jouent un rôle particulièrement important dans l'évolution des cancers, et explique notamment pourquoi certains traitements sont moins efficaces sur certains cancers. Ainsi, la faculté de médecine de l'Université de Stanford aux Etats-Unis explique que certaines cellules cancéreuses seraient bien moins sensibles que d'autres aux traitements et auraient la capacité de se régénérer, rendant le combat contre le cancer plus difficile.

Pour le Dr Ash Alizadeh, cette découverte est très importante : "Les implications cliniques de ce concept sont énormes. Si nous ne parvenons pas à concevoir des thérapies ciblant ces cellules capables de se régénérer et résistantes à la chimiothérapie, les malades continueront à subir des rechutes".

Pour parvenir à ces conclusions, l'étude s'est penchée sur le cas de mille malades atteints de leucémie aiguë myéloblastique, et chez qui le niveau d'activité des gènes de cellules souches cancéreuses a été observé.

L'étude a également permis de mettre au jour le fait que les cellules souches cancéreuses avaient la même activité génétique que les cellules souches sanguines normales, ce qui implique qu'elles seraient capables de s'auto-générer ainsi que de se diviser. Cette découverte devrait relancer la recherche sur des traitements plus spécifiques contre le cancer.

Yahoo

Cancer de la prostate : une approche génétique pour un meilleur dépistage
Vendredi, 07/01/2011 - 00:00

Le test le plus souvent utilisé pour le dépistage d'un cancer de la prostate est le dosage sanguin d'une protéine, le PSA (antigène spécifique de la prostate), qui, dans certains cas est un marqueur de cette tumeur. Et bien qu'il puisse devenir élevé pour bien d'autres raisons, au premier chef d'hypertrophie bénigne de la prostate, les médecins demandent systématiquement une biopsie de la prostate quand le taux de PSA atteint un certain niveau.

Une équipe islandaise vient de découvrir un ensemble de variants génétiques qui montrent que ces chiffres ne sont pas toujours valables, notamment chez certains hommes dont le taux habituel de PSA est plus élevé que la moyenne utilisée pour calculer la mesure-seuil.

Ce qui signifie que des biopsies sont pratiquées sur "un tas de prostates qui n'en avaient pas besoin", résume le Dr Kari Stefansson, PDG de deCODE Genetics, en Islande. Son équipe a publié ses travaux dans le dernier numéro de la revue Science Translational Medicine.

Kari Stefansson envisage de mettre au point un test de dépistage de ces marqueurs génétiques, peut-être même dès 2011, pour que les médecins puissent affiner leur lecture des résultats des dosages de PSA de leurs patients.

S'il considère que cette approche génétique tient debout, le Dr Otis Brawley, médecin-chef de l'American Cancer Society, extérieur à l'étude, estime qu'il faut des recherches complémentaires avant que ce test puisse être prêt. Cette découverte est "importante, mais ce n'est qu'un petit pas sur la longue route" d'un meilleur dépistage du cancer de la prostate, estime-t-il.

Rendre plus efficace le test du taux de PSA ne résout qu'une partie du problème, a-t-il ajouté. Le dépistage permet souvent de détecter des petites tumeurs, dont le développement est trop lent pour qu'elles soient mortelles. Et ce sans qu'on puisse savoir dès le départ qui aura besoin d'un traitement agressif.

"Ce dont nous avons désespérément besoin, c'est d'un test qui nous dirait 'cette forme de cancer de la prostate est mortelle, celle-ci ne l'est pas'", poursuit-il. Plus de 190.000 cas de cancer de la prostate seront diagnostiqués cette année chez des Américains, dont 27.000 seront mortels.

Mais le dépistage systématique est très controversé : alors que la plupart des hommes de plus de 50 ans ont fait mesurer au moins une fois leur taux de PSA, de nombreuses associations médicales importantes ne le recommandent pas, craignant que cela ne fasse plus de mal que de bien. La Cancer Society, par exemple, conseille que les patients soient pleinement informés du pour et du contre, afin qu'ils se décident eux-mêmes, en conscience.

Parmi les problèmes soulevés : plus du tiers des hommes dont le taux de PSA est supérieur ou égal à 10 ne montrent pas de signes de cancer lors de la biopsie de la prostate, tandis que nombre de médecins prescrivent une biopsie dès un taux aux alentours de 4. A l'inverse, des hommes ayant des taux très bas de PSA se retrouvent avec un cancer.

L'équipe de Stefansson a découvert un ensemble de variants génétiques qui modifie la production naturelle de PSA. L'équipe souligne que les hommes qui possèdent un de ces trois variants génétiques ont un taux de PSA de 40 % supérieur à la moyenne. Quand ils ont examiné les dossiers médicaux de près de 4.000 hommes en Islande et en Grande-Bretagne ayant subi une biopsie de la prostate, ils ont constaté que la plupart de ces "gros producteurs" de PSA l'avaient subie inutilement. En revanche, les hommes avec un quatrième variant avaient eux un taux de PSA de 40 % inférieur à la moyenne.

En résumé, selon cette nouvelle étude, un "gros producteur" de PSA pourrait ne pas avoir besoin de biopsie de contrôle avant un taux de PSA à 6, tandis qu'un "petit producteur" en aura besoin à moins de 4... Sachant, selon Stefansson, que ces deux catégories "extrêmes" représentent environ 5 % de la population concernée chacune.

Ap

Cancer : les ultrasons prometteurs pour traiter les métastases du foie
Vendredi, 07/01/2011 - 00:00

Mis au point à Lyon, le traitement par ultrasons focalisés de haute intensité (HIFU) est désormais bien connu pour son utilisation dans le cancer de la prostate avec l'Ablatherm, appareil développé par la société EDAP TMS, basée à Vaulx-en-Velin. Leader dans le traitement par ultrasons, l'industriel a mis au point un nouvel équipement utilisant la technologie HIFU qui permet d'améliorer le traitement des métastases hépatiques.

C'est en tout cas ce qui ressort des premiers essais cliniques menés entre mars et septembre sur six patients au Centre Léon-Bérard. Les essais ont été menés sur des patients souffrant d'un cancer colorectal en complément d'une intervention chirurgicale : les ultrasons ont été dispensés en plaçant une sonde à la surface du foie au cours d'une opération pour l'ablation de métastases hépatiques. « Avant, il fallait entre 10 et 15 minutes pour détruire des morceaux de gros volume, là il suffit de 40 secondes pour détruire une lésion de 7 cm 3.

Et c'est aussi la première fois que l'on peut contrôler en temps réel ce qu'on fait et l'effet obtenu grâce à un échographe », explique le Professeur Michel Rivoire, chirurgien cancérologue, directeur de l'Institut de chirurgie expérimentale du CLB qui conduit ces essais avec l'unité Inserm U556. La technologie permet aux chirurgiens de détruire les métastases en conservant le plus possible de foie sain.

Elle augmente les possibilités de traitement car actuellement seuls 10 à 20 % des patients ayant des métastases au foie peuvent être opérés. De nouveaux essais devraient démarrer en janvier chez 6 six autres patients. Le Professeur Rivoire espère pouvoir proposer ce traitement en routine dans les 2-3 ans.

Dans 5 à 10 ans, il pourrait être envisageable d'éviter l'intervention chirurgicale en intégrant la technologie dans une IRM ou un scanner pour des traitements externes, pour tous les cancers. D'autres applications pourraient aussi concerner le cancer du pancréas, pour lequel il existe peu de traitements, ou du sein.

Progrés

Tabac : des dommages immédiats
Vendredi, 07/01/2011 - 00:00

Plusieurs chercheurs américains se sont associés afin d'observer les effets de la fumée de cigarette sur l'organisme, et cela auprès des fumeurs réguliers, des fumeurs occasionnels et des fumeurs passifs. Ainsi, ils concluent dans un nouveau rapport que la fumée de cigarette entraînerait chez tous des dégâts cellulaires ainsi que l'inflammation des tissus, ce qui provoquerait sur le long terme des maladies graves pouvant entraîner la mort. Ainsi, les chercheurs ont mis en évidence que la fumée de cigarette contient 7.000 produits dont environ 100 composés toxiques et 70 composés cancérigènes.

Et si chaque exposition à la fumée de cigarette avait pour conséquence d'entraîner des dommages sur l'ADN, ces dommages ne pourraient pas être réparés par l'organisme si l'exposition est régulière. Face à cela, les scientifiques ont alors conclu que même une seule exposition à la fumée pourrait avoir pour conséquence des futures maladies cardio-vasculaires. Et l'auteur de l'étude de conclure : "Les produits chimiques présents dans la fumée du tabac atteignent vos poumons rapidement à chaque fois que vous l'inhalez, causant ainsi des dommages immédiats. L'inhalation d'une infime quantité de fumée du tabac peut également endommager l'ADN, ce qui peut conduire au cancer".

MS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Londres passe aux bus à hydrogène
Vendredi, 07/01/2011 - 00:00

Depuis le 20 décembre, les usagers londoniens de la ligne de bus RV1 ont une bonne chance de tomber sur un véhicule absolument silencieux. Pas un bus électrique, mais à hydrogène. La mairie de Londres en met cinq en circulation (huit d'ici à mi-2011), construits en Irlande du Nord. Londres est le dernier exemple de l'actuelle percée des véhicules à hydrogène à travers le monde.

Longtemps considérée comme une technologie plus prometteuse, mais moins au point que la voiture électrique, l'hydrogène semble rattraper son retard. Honda a lancé sa voiture FCX Clarity, le premier véhicule à hydrogène commercial, en 2008. Pour les bus, le projet londonien concerne aussi Oslo, Milan et Aarau (Suisse). En mars prochain, ITM, une société britannique qui produit de l'hydrogène, commencera à tester deux camionnettes, notamment à l'aéroport de Stansted.

L'Allemagne, leader européen dans le domaine, veut mettre en place 1.000 stations de recharge à hydrogène à travers le pays d'ici à 2015. « La Grande-Bretagne est bien placée pour la deuxième place dans le développement de cette technologie », estime Ian Williamson, directeur d'Air Products, fournisseur de l'hydrogène pour les bus londoniens.

Il est vrai que la technologie présente des avantages certains par rapport aux véhicules électriques conventionnels. Le plein d'un bus ne prend que 10 minutes et le véhicule a une autonomie de 18 heures et de 300 kilomètres. « Nous pouvons utiliser les bus à hydrogène comme sur une ligne normale », explique Mike Weston, de Transport for London, l'agence de transports urbains de Londres. D'un point de vue environnemental, les véhicules n'émettent que... de l'eau. Ils utilisent un moteur électrique et produisent l'électricité à pratir d'un mélange d'hydrogène et d'oxygène, pompé dans l'air.

En revanche, la production d'hydrogène (par catalyse) nécessite une énergie dont la production émet du CO2 (exception faite de l'énergie renouvelable). De plus, l'énorme volume occupé par le réservoir à hydrogène pose d'importants problèmes. Sur les bus londoniens, le réservoir, placé sur le toit, leur ajoute presque un mètre de hauteur.

Par ailleurs, le prix demeure exorbitant. Les bus coûtent près de 1 million d'euros pièce, quatre fois le prix d'un bus traditionnel. Certes, des économies d'échelle peuvent être réalisées, mais la technologie doit encore être améliorée pour devenir rentable. « La commercialisation de masse n'est pas envisageable avant cinq ou dix ans », estime Mike Weston.

LT

Le projet "Autolib" s'accélère avec le choix de Bolloré
Vendredi, 07/01/2011 - 00:00

La Mairie de Paris a donné le coup d'envoi au projet "Autolib'", dont la gestion est confiée au groupe Bolloré, qui permettra d'utiliser à partir d'octobre 2011 des voitures électriques en libre-service en Ile-de-France, sur le modèle du Vélib'. Les premiers travaux débuteront en avril 2011 et seront suivis d'une phase de tests entre août et septembre, avant l'ouverture au public en octobre. Le déploiement complet du projet doit être achevé fin mars 2012.

Autolib' pourra alors s'appuyer sur une flotte de 3.000 véhicules disponibles dans 1.000 stations situées dans 40 communes de l'Ile-de-France, et s'appuiera sur 800 agents dédiés à ce service. "Autolib' est une réalité. Dans neuf mois vous pourrez monter à bord. Autolib' facilitera les déplacements de plus de quatre millions d'habitants en Ile-de-France", a déclaré lors d'une conférence de presse Sylvain Marty, président du syndicat mixte Autolib'.

"Il sera un virage sociologique, technologique et environnementale et (...) sera également une vitrine du savoir-faire français à la fois en matière de véhicules mais aussi en matière de télécoms et d'exploitation de services urbains", a-t-il ajouté. Conçue à Turin, en Italie, la BlueCar de Bolloré, une voiture 100 % électrique dotée de quatre vraies places, affiche une autonomie de 250 kilomètres avec un temps de rechargement moyen des batteries - fabriquées en Bretagne - de quatre heures.

Plusieurs formules d'abonnement ont été développées, soit annuel pour 12 euros par mois, soit hebdomadaire pour 15 euros la semaine, ou quotidien au prix de 10 euros par jour. A cela devront s'ajouter, selon les formules, entre cinq et sept euros pour la première demi-heure d'utilisation, quatre à six euros la deuxième demi-heure, et six à huit euros les demi-heures suivantes.

Le système prévoit une franchise de 500 euros, réduite à 250 euros pour les abonnées annuels en cas d'absence d'accident durant six mois. De même un abonné occasionnel pourra ramener le montant de la franchise à 250 euros en la rachetant partiellement moyennant deux euros par trajet. L'utilisateur devra également verser une caution de 250 euros.

La réservation de la voiture pourra se faire par Internet, par téléphone ou directement en station et il sera possible de réserver une place de parking à l'arrivée de son trajet. La plus grande partie des stations accueillant les voitures seront implantées sur la voirie et disposeront de quatre à six voitures. Les stations en parking souterrain, moins nombreuses, bénéficieront en revanche de plus de places, avec six à 10 voitures par station.

Bolloré est en effet impliqué financièrement dans le projet, puisqu'il va apporter 60 millions d'euros au capital de la société qui sera constituée pour exploiter Autolib'. Le groupe prendra également en charge l'exploitation du service. Bolloré a également apporté des garanties de livraisons des véhicules et des stations à l'ouverture du service pour un montant de 20 millions d'euros.

S'agissant des garanties techniques et financières contre le vandalisme et une moindre fréquentation, le groupe a accepté de prendre en charge une baisse éventuelle de son chiffre d'affaires par rapport à ses prévisions contractuelles jusqu'à concurrence d'une perte cumulée de 60 millions d'euros, soit l'équivalent de son apport en capital.

Les contribuables seront également mis à contribution dans le financement du projet puisqu'une subvention publique d'investissement de 50.000 euros par station est prévue, soit environ 50 millions d'euros de participation publique (dont 35 millions pour la ville de Paris et 4 millions pour la Région Ile-de-France) pour 1.000 stations.

Le projet "Autolib", qui ne vise pas seulement les particuliers mais aussi les entreprises et les administrations publiques, devrait générer plus d'un milliard d'euros de chiffre d'affaires sur les 12 années de la délégation de service. A terme, le nombre d'utilisateurs annuel devrait dépasser les 200.000.

LP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top