RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 490
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 09 Octobre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'Europe veut faire du haut-débit un service minimum
Les vendanges supervisées par des satellites
Matière
La décohérence prise sur le vif
Les promesses du photovoltaïque
Solaire thermodynamique : le béton, une solution avantageuse pour le stockage thermique de l'énergie solaire
La France se dote d'une plate-forme d'essais pour les dispositifs exploitant l'énergie marine
Des chutes de neige observées pour la première fois sur Mars
Terre
Les émissions de CO2 excèdent largement les prévisions
L'Europe, continent où le réchauffement est le plus rapide
La capture du CO2 économiquement viable en 2030
Le pari gagnant d'un village autrichien sur l'énergie verte
Vivant
Un nouveau procédé plus sûr de production de cellules souches
Le lien entre portables et cancers préoccupe les experts américains
La coloscopie virtuelle, vers une prévention systématique des cancers colorectaux ?
Recherche
Voiture électrique : le patron de Renault présente le Z.E. Concept
Toyota prévoit un hybride rechargeable de série en Europe en 2011
Edito
Economie verte et marché du carbone : nouveaux moteurs de la croissance mondiale



Un rapport de l'ONG américaine Global Footprint Network vient de montrer que la demande mondiale actuelle dépasse de 40 % la capacité de la planète bleue. La Terre ne parvient plus à suivre le rythme effréné de consommation des ressources naturelles. Chaque année, la date à laquelle nous avons consommé la totalité de ce que la planète peut produire en un an avance : cette année, c'est le 23 septembre, selon le Global Footprint Network.

Ce qui signifie que la Terre a besoin actuellement d'un an et trois mois pour produire tout ce qui est consommé dans le monde en une année. Et cette date d'épuisement des ressources annuelles naturelles de la Terre - dénommée Earth Overshoot Day - tombe de plus en plus tôt car notre consommation ne cesse d'augmenter, souligne cet organisme. Chaque année, le Global Footprint Network calcule l'empreinte écologique de l'humanité - la pression exercée sur les cultures, les forêts, les ressources halieutiques, etc - et la compare avec la capacité des écosystèmes à régénérer ces ressources et à absorber les déchets produits.

Le 23 septembre, nous utilisions déjà 15 % de plus de ce que la Terre pouvait produire annuellement. Ainsi, les arbres sont abattus plus rapidement que d'autres ne repoussent et les poissons pêchés plus vite qu'ils ne peuvent se reproduire. Sous l'effet de la déforestation, 13 millions d'hectares disparaissent chaque année.

Coïncidence troublante : le jour de la sortie de ce rapport alarmant, les Nations Unies publiaient une étude de référence sur l'émergence d'une "économie verte" au niveau mondial et de son impact sur le monde du travail. Cette étude montre que les efforts déployés pour faire face au changement climatique pourraient générer des millions de nouveaux "emplois verts" dans les décennies à venir.

Le nouveau rapport intitulé "Pour un travail décent dans un monde durable, à faibles émissions de carbone) indique que l'évolution de l'emploi et de l'investissement liée aux actions entreprises pour faire face au changement climatique et à ses effets ont déjà généré de nouveaux emplois dans de nombreux secteurs et économies et pourraient créer des millions d'autres emplois, aussi bien dans les pays industrialisés que dans les pays en développement.

Toutefois, le rapport indique également que le processus de changement climatique déjà en cours va continuer de produire des effets négatifs sur les travailleurs et leurs familles, en particulier ceux qui gagnent leur vie dans l'agriculture et le tourisme. A ce titre, les mesures prises pour faire face au changement climatique, ainsi que pour traiter de ses effets, sont urgentes et devraient être conçues de manière à créer des emplois décents.

Même si le rapport est généralement optimiste quant à la création de nouveaux emplois pour répondre au changement climatique, il signale que nombre de ces nouveaux emplois risquent d'être "rebutants, dangereux et difficiles". Les secteurs préoccupants à cet égard, notamment dans les économies en développement, incluent l'agriculture et le recyclage où les contrats précaires, les faibles rémunérations et l'exposition à des matériaux dangereux pour la santé sont fréquents et sont autant de secteurs qui doivent évoluer rapidement.

Qui plus est, le rapport précise que trop peu d'emplois verts sont créés pour les plus vulnérables dans le monde : les 1,3 milliard de travailleurs pauvres (43 pour cent de la main d'oeuvre mondiale) dont les revenus sont trop faibles pour les hisser eux et leur famille au-dessus du seuil de pauvreté de 2 dollars par personne et par jour, ou les quelque 500 millions de jeunes qui vont devoir chercher un emploi au cours des dix prochaines années.

Les emplois verts réduisent l'impact environnemental des entreprises et des secteurs économiques, pour finalement le ramener à un niveau viable. Le rapport se concentre sur les "emplois verts" qui, dans l'agriculture, l'industrie, les services et l'administration, contribuent à préserver ou à restaurer la qualité de l'environnement. Il plaide également en faveur de mesures pour garantir que ces emplois verts constituent des "emplois décents", contribuant à réduire la pauvreté tout en préservant l'environnement.

Le rapport indique que le changement climatique en soi, l'adaptation qu'il nécessite et les efforts pour l'endiguer en réduisant les émissions ont de profondes implications en matière de développement économique et social, de modèles de production et de consommation et donc en matière d'emploi, de revenus et de réduction de la pauvreté.

Ces conséquences sont à tout à la fois porteuses de risques et de promesses pour les populations actives de tous les pays, mais particulièrement pour les populations les plus vulnérables dans les pays les moins avancés et dans les petits Etats insulaires.

Le rapport plaide en faveur d'une "transition juste" pour ceux qui sont affectés par la mutation vers une économie respectueuse de l'environnement et pour ceux qui doivent s'adapter au changement climatique en procurant des alternatives économiques et des opportunités d'emploi aux entreprises et aux travailleurs.

Selon le rapport, un dialogue social fructueux entre gouvernement, travailleurs et employeurs est indispensable, non seulement pour apaiser les tensions et encourager des politiques économiques sociales et environnementales mieux renseignées et plus cohérentes, mais aussi pour que tous les partenaires sociaux soient impliqués dans l'élaboration de telles politiques.

Parmi les faits saillants tirés du rapport : Le marché mondial des produits et services liés à l'environnement devrait doubler pour passer de 1370 milliards de dollars par an actuellement à 2740 milliards de dollars vers 2020, selon une étude citée par le rapport.

La moitié de ce marché concerne l'efficacité énergétique et l'autre moitié les transports durables, l'approvisionnement en eau, l'assainissement et la gestion des déchets. En Allemagne par exemple, la technologie environnementale devrait quadrupler pour atteindre 16 pour cent de la production industrielle vers 2030, l'emploi dans ce secteur surpassant ainsi celui des grandes industries du pays, à savoir l'automobile et les machines-outils.

Les secteurs particulièrement importants en termes d'impact environnemental, économique et d'emploi sont la fourniture d'énergie, en particulier les énergies renouvelables, le BTP, les transports, les industries lourdes, l'agriculture et la foresterie.

Aux Etats-Unis, le flux investi dans les technologies propres constitue déjà le troisième secteur d'investissement en capital risque après l'information et les biotechnologies, pendant qu'en Chine, le capital risque investi dans les technologies propres a plus que doublé ces dernières années, atteignant 19 pour cent du total des investissements.

Ces dernières années, 2,3 millions de personnes ont trouvé du travail dans le seul secteur des énergies renouvelables, et le potentiel de croissance de l'emploi dans ce secteur est énorme. Le nombre d'emplois dans les énergies alternatives pourrait grimper jusqu'à 2,1 millions dans l'éolien et 6,3 millions dans le solaire thermique d'ici 2030.

Les énergies renouvelables génèrent davantage d'emplois que les énergies fossiles. Les prévisions d'investir 630 milliards de dollars d'ici à 2030 devraient se traduire par au moins 20 millions de postes supplémentaires dans ce secteur.

Dans l'agriculture, 12 millions de personnes pourraient être employées dans la biomasse utilisée pour l'énergie et les industries qui y sont liées. Dans un pays tel que le Venezuela, un mélange de 10 % d'éthanol dans les carburants pourrait générer un million d'emplois dans le secteur de la canne à sucre d'ici 2012.

Cette étude montre qu'une transition mondiale vers des bâtiments économes en énergie pourrait créer des millions d'emplois, de même que « l'écologisation » des emplois existants pour un grand nombre des 111 millions de personnes qui travaillent déjà dans le secteur de la construction. Les investissements réalisés pour améliorer l'efficacité énergétique des bâtiments pourraient créer de 2 à 3,5 millions d'emplois verts supplémentaires en Europe et aux Etats Unis, avec un potentiel bien plus élevé dans les pays en développement.

Le recyclage et la gestion des déchets emploient aujourd'hui quelque 10 millions de personnes en Chine et 500 000 au Brésil. Ce secteur devrait se développer rapidement dans de nombreux pays face à l'augmentation des prix des denrées de première nécessité. Le rapport donne des exemples de création massive d'emplois verts à travers le monde tels que : en Chine, 600 000 personnes sont déjà employées dans des produits de fabrication et d'installation d'énergie solaire tels que les chauffe-eau solaires.

Les conséquences de la pollution pour la société, comme la dégradation de la santé, doivent être reflétée dans les prix pratiqués sur le marché. Les emplois verts doivent donc être des emplois décents », précise le rapport.

Le rapport recommande un certain nombre de voies vers un avenir plus durable en orientant les investissements vers des mesures peu coûteuses qui devraient être envisagées immédiatement, comme notamment : évaluer le potentiel de création d'emplois verts et en suivre le progrès pour dresser une feuille de route pour les politiques et les investissements ; remédier à la pénurie de compétences en la matière en répondant aux besoins de qualifications parce que les technologies et ressources disponibles pour les investissements ne peuvent être efficacement déployées qu'avec des entrepreneurs compétents et des travailleurs qualifiés ; et garantir la contribution des entreprises individuelles et des secteurs économiques à la réduction des émissions de gaz à effet de serre avec des initiatives de gestion de main d'oeuvre qui favorisent les lieux de travail écologiques.

Le rapport constate que c'est lorsque le soutien politique au plus haut niveau a été solide et cohérent que les marchés ont le plus prospéré et que les transformations ont le plus progressé. Ce soutien a notamment pris la forme d'objectifs, d'amendes et d'incitations telles que les lois « feed-in » (tarif minimum garanti pour les énergies renouvelables), de normes d'efficacité pour les bâtiments et les appareils, ainsi que d'un secteur de recherche et développement dynamique.

Le rapport précise que l'obtention d'un nouvel accord approfondi et décisif sur le climat lors de la Conférence des parties à la Convention des Nations Unies sur le climat à Copenhague fin 2009 sera vitale pour accélérer l'essor des emplois verts.

Il faut enfin souligner l'impact décisif, sur le décollage de l'économie et des technologies vertes de l'intégration de la valeur carbone dans l'économie mondiale. Le marché mondial du dioxyde de carbone a plus que doublé en 2007 par rapport à l'année 2006, et a pris une valeur de 64 milliards de dollars, d'après les indications de la Banque Mondiale. D'ici 2020, le marché mondial du carbone pourrait atteindre 565 milliards de dollars US selon Point Carbon.

Ce marché du carbone, en pleine mutation, devrait encourager les entreprises à se détourner des industries très polluantes à base d'énergies fossiles, comme le charbon, pour choisir des techniques moins polluantes, comme le gaz naturel et les énergies renouvelables. Dans l'hypothèse d'un baril à 135 dollars, le prix de marché pour le carbone serait de 75 dollars la tonne, soit trois fois son niveau de cotation actuel.

Un rapport publié en juin 2008 par le Centre d'analyse stratégique indique que la tonne de CO2 devrait se situer à 56 euros en 2020, à 100 euros en 2030 et à 200 euros en 2050. L'étude se base sur «la valeur tutélaire» du carbone, c'est-à-dire celle qui, au-delà de la valeur actuelle de marché, intègre le niveau de l'engagement européen dans la lutte contre le réchauffement climatique.

Autre élément poussant à une hausse des cours du carbone, la prochaine entrée en vigueur de la phase II du système d'échange européen, qui deviendra contraignant : les entreprises dépassant leurs quotas devront racheter des permis d'émissions pour les ramener au niveau précédent. L'Union européenne a raison de penser que l'application obligatoire de ce marché est essentielle pour que les industriels prennent cette politique du carbone au sérieux.

Avec la réforme du système communautaire d'échange de quotas d'émission (SCEQE) et l'explosion du marché mondial du carbone, le CO2 va devenir, aux côtés du pétrole, du charbon et du gaz, l'une des matières premières les plus surveillées du monde. La mutation en cours est décisive car elle marque la fin de la gratuité pour les émetteurs de CO2. Les gouvernements, en particulier celui des Etats-Unis, devront rejoindre l'Europe pour créer un marché global du carbone, et les entreprises du monde entier devront accepter le prix du marché.

Un prix du carbone plus élevé forcera les entreprises à changer radicalement leur modèle économique (ce qui a déjà commencé parmi les grands groupes de services publics européens). Celles qui démarreront les premières seront gagnantes. Les directions des entreprises et leurs conseils d'administration seront économiquement obligés de tenir compte du prix du carbone dans leurs modèles et leurs plans stratégiques.

Cet ajustement va aussi entraîner une meilleure répartition du capital. Des décisions de fonds commencent à être prises aux Etats-Unis, où des projets basés sur le charbon ont été abandonnés en raison du futur coût des émissions. Les banques américaines Citibank, JPMorgan, Morgan Stanley et Bank of America ont signé cette année une “charte du carbone” qui prévoit notamment un refus de prêter à des groupes aux émissions élevées dont le projet financier ne prend pas en compte le coût futur des émissions. Le gouvernement américain est parvenu à la même conclusion. Et les compagnies d'assurance révisent les polices accordées aux gros pollueurs en relevant le coût du risque.

Cette montée inexorable du prix du carbone va donc agir comme un puissant catalyseur et accélérer le développement des énergies renouvelables et la mutation vers une économie durable reposant sur l'efficacité énergétique et la valorisation des connaissances. Nous pouvons subir cette évolution inéluctable et la nier. Dans ce cas, notre pays ressortira de cette mutation historique durablement affaibli et appauvri. Mais nous pouvons au contraire considérer comme une chance extraordinaire ce basculement de civilisation et l'anticiper en devenant un pays pionnier en matière de croissance écologique, d'utilisation des énergies renouvelables et de valorisation de notre capital cognitif.

René Trégouët

Sénateur honoraire


TIC
Information et Communication
L'Europe veut faire du haut-débit un service minimum
Vendredi, 10/10/2008 - 00:00

Dans un rapport intitulé « Communication sur les réseaux et l'internet du futur, la Commission européenne s'interroge sur l'opportunité de faire de l'Internet haut débit un service universel au même titre que le téléphone, l'annuaire et les renseignements téléphoniques.

« Du fait de l'importance accrue du haut-débit dans la vie quotidienne, les outils stratégiques, comme la gestion du spectre radio-électrique et les services mobiles par satellite, doivent être associés à un vaste débat sur le service universel dans les télécommunications pour satisfaire, NDLR] les besoins fondamentaux auxquels le marché ne répond pas » résume dans un communiqué de presse la Commission.

L'Europe lance le débat dans la mesure où malgré ses efforts, seuls 36 % des ménages dans les pays membres de l'Union disposent d'un accès rapide au réseau. Et que 7 % de la population européenne n'est même pas raccordée. Le problème est criant dans les zones rurales. Même dans les pays très développés comme l'Italie et l'Allemagne, « la population rurale non couverte est respectivement de 18 % et de 12 % », rappelle le rapport.

Si le haut-débit devient un service universel, un seul opérateur aura pour obligation d'assurer ce service à l'ensemble du territoire national d'un pays, zones blanches comprises. En France, cette idée remporte l'adhésion du secrétaire d'Etat chargé du Développement de l'économie numérique. Eric Besson ne s'est pas caché de vouloir profiter de la présidence française de l'Union européenne pour engager un débat de fond sur le sujet. En France, des divergences subsistent sur les moyens de parvenir à une couverture de 100 % du territoire.

[Rapport européen

Les vendanges supervisées par des satellites
Vendredi, 10/10/2008 - 00:00

C'est bien connu : pour faire du bon vin, il faut du beau raisin. Pour le moment, c'est le vigneron, fort de sa connaissance du terroir et de ses parcelles, qui effectue cette sélection indispensable à la qualité de ce qui fait un bon (ou un mauvais) millésime. Mais à l'avenir, les satellites d'observation optique, comme Spot 5, pourraient l'aider grandement dans sa tâche, comme le prouve le service Oenoview testé depuis deux ans en situation réelle par Infoterra, une filiale d'Astrium.

«Le satellite permet d'accéder rapidement à une information qu'il faudrait, normalement, mettre vingt ou trente ans à acquérir de façon empirique», explique Stephen Carrier, qui vient de reprendre la gestion du domaine du château de Fieuzal, dans le vignoble de Pessac-Léognan (Bordeaux) et qui teste Oenoview pour la première fois cette année.

Du haut de son orbite terrestre, le satellite fournit une image précise et instantanée de l'état végétatif du vignoble à l'échelle d'une parcelle ou d'un terroir de plusieurs milliers d'hectares. «On compare ce que l'on voit du haut du ciel à un modèle de croissance idéal de la plante fondé sur divers paramètres biophysiques, comme la quantité de feuilles au mètre carré ou la fraction de couvert végétal par unité de surface», explique Henri Douche, responsable du développement d'Oenoview chez Infoterra.

Avec cette information, le viticulteur ou le gérant de cave coopérative peut visualiser les différences de qualité du raisin entre plusieurs parcelles, voire à l'intérieur d'une même parcelle, et procéder ainsi à des vendanges séparées. «Cet outil formidable va nous permettre de récolter le raisin à un stade de maturité optimal selon les différents cépages et de sélectionner les grappes qui correspondent exactement à la qualité du vin que l'on cherche à obtenir. On fait du jardinage de précision, en quelque sorte», poursuit Stephen Carrier.

L'an dernier, grâce à Oenoview, la cave coopérative des vignerons du Mont Tauch (Aude), a pu classer l'ensemble des parcelles de ses adhérents selon deux niveaux d'homogénéité. Alors qu'auparavant toutes les récoltes étaient mélangées, cette fois-ci, les vendanges ont été réceptionnées et vinifiées dans des cuves séparées en suivant le même protocole. Le résultat a été spectaculaire : la différence entre le vin issu des «bonnes» vignes et l'autre était perceptible même pour un non-spécialiste.

Figaro

^ Haut
Matière
Matière et Energie
La décohérence prise sur le vif
Vendredi, 10/10/2008 - 00:00

Sacré chat ! Depuis plus de soixante-dix ans il empêche les physiciens de dormir sur leurs deux oreilles. A sa décharge, il faut dire que tel qu'il a été imaginé par Erwin Schrödinger, il est lui-même dans état inconfortable : ni mort, ni vivant.

Dans cette expérience de pensée, le matou est enfermé dans une boîte avec un dispositif qui tue l'animal dès qu'il détecte la désintégration d'un atome d'un corps radioactif. Si les probabilités indiquent qu'une désintégration a une chance sur deux d'avoir lieu au bout d'une minute, la mécanique quantique indique que, tant que l'observation n'est pas faite, l'atome est simultanément dans les deux états (désintégré/ non désintégré). L'état superposé de l'atome se propage, en suivant scrupuleusement les règles quantiques, à l'état du chat qui devrait également être dans un état superposé (mort/vivant). Ce qui est bien entendu impossible dans le monde réel, c'est-à-dire au niveau macroscopique.

La théorie de la décohérence s'attaque à ce problème de la disparition des états quantiques superposés au niveau macroscopique. L'idée de base de la décohérence est qu'un système quantique ne doit pas être considéré comme isolé, mais en interaction avec un environnement possédant un grand nombre de degrés de liberté. Ce sont ces interactions qui provoquent la disparition rapide des états superposés.

Des chercheurs du CNRS/ENS/Collège de France ont réussi à « photographier » des photons en train de glisser d'un état quantique superposé vers un état classique en passant par une succession d'étapes intermédiaires. Ils ont ainsi réalisé le premier film de la décohérence. Pour ce faire, ils ont fabriqué une « boîte à photons » isolée de l'environnement au sein de laquelle les corpuscules de lumière sont préservés de toute interaction pour un temps suffisamment long (plusieurs dizaines de millisecondes) permettant de déterminer leur état quantique et d'étudier leur évolution.

L'état du système quantique est ensuite matérialisé sous la forme d'une figure géométrique, appelée fonction de Wigner, les états « normaux de la lumière » apparaissent comme des pics positifs au-dessus du plan de la figure. A l'inverse, les états superposés apparaissent comme des oscillations négatives sous le plan de la figure. Les mesures réalisées montrent que ces oscillations s'effacent progressivement, illustrant ainsi la transition d'un état superposé vers un état macroscopique « classique ».

Cette avancée, publiée dans la revue Nature du 25 septembre, ouvre la voie à la manipulation et au contrôle de la décohérence. La maitrise du phénomène permettra de conserver plus longtemps les propriétés quantiques de la lumière ; une nouvelle étape vers l'ordinateur quantique.

NO

Les promesses du photovoltaïque
Vendredi, 10/10/2008 - 00:00

Cet été, l'énergie solaire a frappé très fort. Le laboratoire américain des énergies renouvelables (NLREL) a annoncé avoir conçu une cellule photovoltaïque de 41 % de rendement. Autrement dit, les chercheurs ne sont plus très loin de savoir transformer la moitié de l'énergie solaire qui arrive sur Terre en électricité. A Valence, il y a une semaine, lors de la Conférence européenne sur l'énergie solaire réunissant 4.000 chercheurs, d'autres records sont tombés. Pratiquement toutes les technologies photovoltaïques sont concernées.

Ces bêtes de course ne sont pas uniquement des prouesses de laboratoires, elles laissent entrevoir dans leur sillage une évolution rapide de ces technologies. « C'est un grand cru scientifique, estime Daniel Lincot, directeur du Laboratoire d'électrochimie et de chimie analytique et président du congrès de Valence. On voit sortir des laboratoires de nouveaux concepts avancés, en parallèle des efforts de recherche pour diminuer les prix des technologies au silicium. »

Tous les chercheurs ont aujourd'hui le regard vissé sur le rendement maximum théorique : 84 % de l'énergie des photons pourraient être convertibles en électricité. Dans cette course de fond, les stratégies divergent. Certaines technologies produisent des performances élevées mais d'un coût prohibitif. D'autres laboratoires partent au contraire de procédés économiques pour en faire des technologies à meilleur rendement.

L'optimum est actuellement détenu par la technologie à silicium cristallin, qui truste 94 % du marché. Les meilleurs laboratoires, comme celui de Sanyo ou de Sunpower, dépassent les 20 % de rendement, et les usines sortent des produits à peine moins performants. Mais cette filière utilise les galettes de silicium de l'industrie microélectronique de 200 microns d'épaisseur. Elles sont donc coûteuses à fabriquer, et leur disponibilité est limitée.

Les cellules à couches minces pourraient prendre le relais de la filière classique, car elles s'approchent de l'industrialisation. Elles consistent en un substrat de type verre recouvert d'une couche de quelques microns de silicium amorphe. L'économie de matière offre des coûts de production trois fois inférieurs, mais leurs rendements tombent autour de la dizaine de pourcents.

Certains laboratoires et industriels veulent maintenant désaccoutumer le photovoltaïque de son addiction au silicium. Ils reprennent le concept des couches minces mais avec des revêtements de matériaux alternatifs. Deux substances ont émergé parmi les centaines déjà testées : le CdTe et le CIGS (cuivre-indium-gallium-sélénium). Le laboratoire de Daniel Lincot travaille sur cette dernière piste et frôle actuellement les 20 % de rendement.

Cette technologie de déposition a pour autre intérêt de pouvoir produire des surfaces importantes de capteurs, alors que le silicium reste cantonné aux petites galettes. Plusieurs fabricants d'écrans plats, maîtres dans l'art de la déposition de couches, se reconvertissent actuellement dans cette filière. D'autres secteurs comme les industriels du revêtement d'étain cherchent également à exploiter leurs savoir-faire. Le californien Nanosolar utilise, lui, des procédés d'imprimerie pour sortir ses premières cellules flexibles. L'investissement de telles capacités de production promet des réductions importantes de coûts. Les premiers exemplaires de cellules de 30 cm de large plafonnent toutefois à 7 % de rendement.

Pour parcourir les dizaines de pourcents qui les séparent du rendement théorique, les chercheurs explorent des voies plus radicales. Les cellules actuelles ne savent transformer en électricité qu'une petite partie du spectre de la lumière entre l'infrarouge et le proche ultraviolet. Cela vient du fait qu'un matériau photovoltaïque ne sait récupérer qu'un sursaut précis des électrons quand ils sont excités par la lumière. Tous les photons qui ont une longueur d'onde inférieure ne permettent pas aux électrons du matériau d'aboutir à un courant : ils retombent dans leur trou. Ceux qui ont une énergie supérieure ne livrent que le sursaut absorbable par le matériau.

Pour élargir le spectre des cellules, les chercheurs redoublent d'inventivité. La première voie consiste à empiler plusieurs couches photovoltaïques ; chacune spécialisée dans un spectre. C'est grâce à trois empilements que le NREL a atteint son record de 41 % de rendement.

D'autres laboratoires misent sur un filtre en amont de la cellule pour compresser les longueurs d'onde des photons incidents pour les faire rentrer au « chausse-pied » dans le spectre du matériau photovoltaïque. Mais le congrès de Valence a couronné une démarche plus prometteuse encore, celle du chercheur australien Martin Green. Il intègre dans le silicium des nanoparticules de dioxyde de silicium au comportement quantique. Ce matériau ouvre la bande infrarouge à l'effet photovoltaïque.

Reste enfin la stratégie des cellules organiques (en plastique). Cette voie vise des coûts très bas mais ses rendements restent faibles. L'école polytechnique fédérale de Lausanne vient toutefois de dévoiler un prototype de cellule à colorant qui dépasse les 11 %, prouesse inimaginable il y a quelques années. Cette technologie est la plus proche de la photosynthèse végétale, le processus parfait de conversion d'énergie solaire. Les plantes transforment les photons grâce à des molécules de colorant comme la chlorophylle qui savent stocker l'énergie dans leurs électrons.

Les cellules organiques sont des films poreux recouverts d'une très fine couche de particules de pigments en contact avec une solution électrolyte. Quand un photon frappe la cellule, il produit une charge négative dans le pigment et une charge positive dans l'électrolyte, menant à un courant. Pour doper cet effet photovoltaïque assez faible, les scientifiques ont eu l'idée d'augmenter les interfaces entre le colorant et l'électrolyte. Les prototypes comportent ainsi des surfaces actives dont la géométrie rappelle les poumons ou les arbres. Ces organisations vivantes savent maximiser les surfaces de contact, à la manière des fractales. Ce sont du coup les chimistes, et non les physiciens qui sont les plus en pointe dans ce domaine.

Il est actuellement impossible de savoir laquelle de ces technologies couvrira à terme les toits et les champs du XXIe siècle. « Il ne faut pas les opposer, la compétition reste ouverte », promet, optimiste, Daniel Lincot.

LE

Solaire thermodynamique : le béton, une solution avantageuse pour le stockage thermique de l'énergie solaire
Vendredi, 10/10/2008 - 00:00

Le Centre allemand de recherche aérospatial (DLR) et son partenaire industriel Züblin AG ont présenté le 16 septembre 2008 un nouveau système pilote de stockage de chaleur pour centrales solaires thermiques à concentration (centrales CSP). Installé dans la zone de tests de l'Université de Stuttgart, le démonstrateur stocke la chaleur dans du béton et représente une solution performante et à bas coût en vue d'une application commerciale.

L'objectif du projet, soutenu par le Ministère fédéral de l'environnement (BMU), était de démontrer la faisabilité technique du système, après une phase de calculs et d'expériences menée en laboratoire. Les nombreux tests effectués ont maintenant confirmé la performance du système : "Les essais effectués sur l'installation pilote représentent un pas en avant vers un accumulateur commercial combinable avec une centrale", a déclaré Dr. Thomas Voigt, Directeur technique chez Züblin AG.

Par rapport aux systèmes de stockage thermique par sel fondu actuellement disponibles sur le marché, l'accumulateur testé représente une solution très économique. Ceci a déjà été démontré avec succès en Espagne, sur la Plataforma Solar de Almerìa, où le DLR exploite des installations solaires expérimentales.

Dr. Rainer Tamme, Directeur du département "génie des processus thermiques" de l'Institut de thermodynamique technique du DLR, insiste également sur les avantages de la conception modulaire : "Grâce au principe de montage du système de stockage à partir de modules élémentaires, l'accumulateur en béton peut être adapté à n'importe quelle puissance. Il est non seulement approprié pour des applications dans des centrales CSP, mais il trouve également sa place pour le stockage de la chaleur d'échappement dans l'industrie par exemple ou encore dans le domaine de la cogénération".

Le stockage de l'énergie est un facteur clef pour le succès des technologies solaires thermiques haute température. La combinaison d'une centrale CSP avec un accumulateur de chaleur permet d'augmenter la durée de fonctionnement de la turbine (fonctionnement pendant la nuit ou plus généralement dans les moments de plus faible ensoleillement) et donc la disponibilité de l'installation de production d'électricité solaire.

BE

La France se dote d'une plate-forme d'essais pour les dispositifs exploitant l'énergie marine
Vendredi, 10/10/2008 - 00:00

L'annonce, jeudi 25 septembre, du lancement en 2010, au large du Croisic (Loire-Atlantique), d'une plate-forme d'essais en mer destinée à tester des procédés de récupération de l'énergie houlomotrice est le signe d'un intérêt croissant des pouvoirs publics. Le projet, d'un coût estimé à 5,5 millions d'euros, sera financé par la région des Pays de la Loire, l'Etat, le Fonds européen de développement régional (Feder) et le département.

En juillet, EDF avait déjà annoncé le lancement d'un projet pilote de production d'électricité à partir de l'énergie des courants, qui prendra, à l'horizon 2011, la forme d'une "ferme" de trois à six hydroliennes (des sortes d'éoliennes sous-marines), située au large de Paimpol (Côtes-d'Armor).

Le Site d'expérimentation en mer pour la récupération de l'énergie des vagues (Sem-Rev), dont la création a été annoncée à l'Ecole centrale de Nantes, qui pilote le projet, sera le deuxième du genre au monde. Les îles Orcades, à la pointe septentrionale de l'Ecosse, accueillent depuis 2003 le seul existant à ce jour : l'European Marine Energy Center (EMEC), qui dispose de deux sites d'essais, l'un pour les courants, l'autre pour les vagues.

Le Sem-Rev sera constitué d'une plate-forme d'essais située à une quinzaine de kilomètres des côtes et reliée à celles-ci par un câble électrique sous-marin. Chercheurs et industriels pourront ainsi tester, dans des conditions réelles, leurs procédés de récupération de l'énergie houlomotrice en les "branchant" à ce câble. Une base située à terre permettra de recueillir les données et de mesurer la production d'électricité. "Ce secteur sort de l'adolescence, estime Alain Clément, directeur du laboratoire de mécanique des fluides de l'Ecole centrale de Nantes, qui travaille lui-même sur un projet baptisé Searev. Après des années de simulations sur ordinateurs puis d'essais sur des maquettes en laboratoire, nous arrivons à des prototypes grandeur nature. Mais ce sont de grosses bestioles qu'il faut tester en mer."

Ces machines doivent en effet être capables de supporter des conditions de mer extrêmes. Si les délais sont respectés, Searev devrait être le premier projet testé sur le Sem-Rev, à partir de juillet 2010. Scruté avec attention par des acteurs économiques majeurs du marché de l'énergie, notamment, en France, Areva, Total ou EDF, le secteur de l'énergie houlomotrice est encore loin de la maturité. La plupart des 46 projets de technologies visant à produire de l'électricité à partir des vagues recensés, en 2006, par l'Agence internationale de l'énergie (AIE) restent au stade expérimental.

Un seul s'approche de l'étape de la commercialisation : le système Pelamis, une structure articulée ondulant au gré des vagues, mis au point par la société écossaise Pelamis Wave Power. Repoussée régulièrement depuis deux ans, l'inauguration de la "ferme" composée de trois Pelamis située à Aguçadoura, au large du Portugal, vient d'avoir lieu.

Le doute n'est plus permis : l'énergie houlomotrice est en train de passer un cap. Au point d'intéresser Google, qui a déposé un brevet afin de pouvoir installer, un jour, sur des plates-formes flottantes, des centres informatiques qui seraient alimentés par l'énergie des vagues et refroidis grâce à l'eau de mer.

LM

Espace & Cosmologie

Des chutes de neige observées pour la première fois sur Mars
Vendredi, 10/10/2008 - 00:00

La sonde américaine Phoenix a détecté de la neige tombant sur Mars, la planète rouge, une observation sans précédent, a annoncé la Nasa, l'agence spatiale américaine. Un instrument laser conçu pour analyser les interactions entre l'atmosphère et la surface du sol de Mars a détecté de la neige provenant de nuages à 4.000 mètres d'altitude au-dessus du site d'atterrissage de Phoenix, selon un communiqué publié sur le site de la Nasa. "On a rien vu de pareil avant sur Mars", a observé Jim Whiteway, de l'Université York à Toronto, le responsable scientifique de la station météorologique canadienne installée sur la sonde Phoenix.

"Nous allons même rechercher des indications pour savoir si la neige a atteint le sol", a-t-il ajouté. Selon les premières observations les flocons de neige se sont évaporés avant d'arriver à la surface de Mars.

Par ailleurs des expériences conduites avec les instruments de Phoenix, qui s'est posée dans l'arctique martien le 25 mai, ont également révélé des traces de réactions chimiques entre des minéraux du sol martien et de l'eau liquide dans le passé, similaires à ce qui se produit sur la terre, ont aussi expliqué des scientifiques. Les expériences paraissent mettre en évidence la présence de calcaire, la principale composante de la craie, ainsi que des particules d'argile.

La plupart des calcaires et des argiles sur la terre se forment en présence d'eau liquide, soulignent ces scientifiques. "Ceci indique des moments dans le passé de Mars où de l'eau liquide coulait sur le sol", a indiqué William Boynton, de l'Université d'Arizona un des scientifiques de la mission.

"Nous continuons à recueillir des données et nous devons encore conduire un grand nombre d'analyses mais nous faisons beaucoup de progrès pour répondre aux grandes questions que nous nous posons", a dit Peter Smith, de l'Université d'Arizona à Tucson (sud ouest), le responsable scientifique de la mission Phoenix. Depuis son arrivée dans l'arctique martien, Phoenix a déjà confirmé que le sol dans l'arctique de Mars où se trouve la sonde contient de l'eau gelée.

Déterminer si cette eau a été dans le passé à l'état liquide permettra de dire si cet environnement martien fût propice à la vie, un des objectifs clé de la mission, poursuit le chercheur. Les traces de calcaire dans des échantillons de sol provenant des tranchées creusées par la pelleteuse du bras robotisé de Phoenix ont été détectées par deux instruments : le TEGA (Thermal and Evolved Gas Analyzer) et le MECA (Microscopy, Electrochemistry and Conductivity Analyzer).

TEGA est doté d'un spectromètre de masse et de huit micro fours permettant de chauffer les matériaux jusqu'à mille degrés Celsius tandis que MEGA comprend un microscope et un analyseur d'électrochimique. La mission Phoenix, initialement prévue pour durer trois mois a été prolongée et entre dans son cinquième mois. Toutefois, la sonde devrait cesser de fonctionner vers la fin de l'année alors que les heures d'ensoleillement nécessaires pour recharger ses batteries solaires diminuent rapidement chaque jour.

AFP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les émissions de CO2 excèdent largement les prévisions
Vendredi, 10/10/2008 - 00:00

Les cimenteries et la combustion des ressources fossiles (pétrole, charbon, gaz) ont émis 8,5 milliards de tonnes (Gt) de carbone ; les activités de déforestation ont été, pour leur part, responsables de l'émission d'environ 1,5 Gt de carbone. "Ce niveau d'émissions se situe un peu au-dessus des scénarios de développement les plus pessimistes que le GIEC

La vitesse à laquelle progressent les émissions est plus préoccupante encore que leur valeur absolue de 2007. "Depuis 2000, les émissions ont crû en moyenne de 3,5 % par an, soit quatre fois plus vite qu'entre 1990 et 2000, où cette augmentation annuelle n'avait été que de 0,9 % environ", explique Corinne Le Quéré (université d'East Anglia et British Antarctic Survey), membre du GCP. A titre de comparaison, le pire scénario du GIEC prévoit seulement une augmentation de 2,7 % par an.

"Cela s'explique par le fait que les pays industrialisés n'ont globalement pas diminué leurs émissions depuis les années 1990 tandis que le développement économique des pays en voie de développement, en particulier la Chine et l'Inde, a été beaucoup plus rapide que prévu", ajoute Corinne Le Quéré.

Pourquoi une telle hausse ? "D'abord, il faut avouer qu'il n'y a pas eu d'avancée technologique déterminante, au cours des quinze dernières années, à même de les ralentir significativement", remarque Mme Le Quéré. L'essentiel (65 %) de cette augmentation récente des émissions est imputable à la croissance de l'activité économique, mais 17 % proviennent de la baisse en "efficacité-carbone" de l'économie mondiale. "Ce qui veut dire, de manière très paradoxale, qu'il faut aujourd'hui émettre plus de carbone pour produire un dollar qu'il ne le fallait en 2000", décrypte M. Ciais.

Cette chute d'efficacité-carbone, que les chercheurs voient apparaître entre 2000 et 2005, est attribuée au grand nombre de centrales à charbon de conception ancienne construites, pendant cette période, dans les provinces de l'intérieur de la Chine. Les 18 % restant sont à imputer à la baisse d'efficacité des puits naturels de carbone : la biosphère terrestre (plantes, animaux sauvages et domestiques, etc.) et l'océan (dissolution directe du CO2 dans l'eau ou absorption par le phytoplancton). Ces puits "digèrent" chaque année environ 55 % du carbone émis par l'homme. Mais, soumis à des températures globalement supérieures, les océans tendent à en absorber une proportion légèrement décroissante.

[LM">Groupe intergouvernemental d'experts sur l'évolution du climat] a utilisés pour prévoir le changement climatique à la fin du siècle", précise Philippe Ciais (Laboratoire des sciences du climat et de l'environnement), membre du GCP.

La vitesse à laquelle progressent les émissions est plus préoccupante encore que leur valeur absolue de 2007. "Depuis 2000, les émissions ont crû en moyenne de 3,5 % par an, soit quatre fois plus vite qu'entre 1990 et 2000, où cette augmentation annuelle n'avait été que de 0,9 % environ", explique Corinne Le Quéré (université d'East Anglia et British Antarctic Survey), membre du GCP. A titre de comparaison, le pire scénario du GIEC prévoit seulement une augmentation de 2,7 % par an.

"Cela s'explique par le fait que les pays industrialisés n'ont globalement pas diminué leurs émissions depuis les années 1990 tandis que le développement économique des pays en voie de développement, en particulier la Chine et l'Inde, a été beaucoup plus rapide que prévu", ajoute Corinne Le Quéré.

Pourquoi une telle hausse ? "D'abord, il faut avouer qu'il n'y a pas eu d'avancée technologique déterminante, au cours des quinze dernières années, à même de les ralentir significativement", remarque Mme Le Quéré. L'essentiel (65 %) de cette augmentation récente des émissions est imputable à la croissance de l'activité économique, mais 17 % proviennent de la baisse en "efficacité-carbone" de l'économie mondiale. "Ce qui veut dire, de manière très paradoxale, qu'il faut aujourd'hui émettre plus de carbone pour produire un dollar qu'il ne le fallait en 2000", décrypte M. Ciais.

Cette chute d'efficacité-carbone, que les chercheurs voient apparaître entre 2000 et 2005, est attribuée au grand nombre de centrales à charbon de conception ancienne construites, pendant cette période, dans les provinces de l'intérieur de la Chine. Les 18 % restant sont à imputer à la baisse d'efficacité des puits naturels de carbone : la biosphère terrestre (plantes, animaux sauvages et domestiques, etc.) et l'océan (dissolution directe du CO2 dans l'eau ou absorption par le phytoplancton). Ces puits "digèrent" chaque année environ 55 % du carbone émis par l'homme. Mais, soumis à des températures globalement supérieures, les océans tendent à en absorber une proportion légèrement décroissante.

[LM

L'Europe, continent où le réchauffement est le plus rapide
Vendredi, 10/10/2008 - 00:00

L'Europe est devenue le continent où le réchauffement climatique est le plus rapide et le plus sensible, révèle une étude publiée récemment par l'Agence européenne de l'environnement, l'Organisation mondiale de la santé et la Commission européenne. Les zones montagneuses et côtières de l'Europe, mais également la Méditerranée et l'Arctique, sont particulièrement menacées par ce réchauffement, précise le rapport qui prône des initiatives gouvernementales pour faire face à ces changements. "La température moyenne de la Terre s'est accrue de 0,8 degré Celsius par rapport à l'époque préindustrielle, avec une hausse plus forte en Europe et sous les latitudes septentrionales", précise le rapport. En Europe, cette élévation est de 1,0°C. L'Europe du Nord est devenue de plus en plus humide depuis un siècle tandis que les régions méditerranéennes évoluent vers une désertification. Des canicules, du type de celle qui avait fait 70.000 morts en 2003, pourraient devenir plus fréquentes. "Les changements dans le taux annuel des précipitations ont aggravé les différences entre l'Europe du Nord humide et le Sud aride", indique l'étude. Cela va contraindre les Etats à tout repenser, de leurs systèmes d'irrigation à la capacité des cours d'eau australes pour aider au refroidissement des centrales nucléaires. Parmi les conséquences du réchauffement, le rapport signale la hausse du niveau des mers qui menace les zones côtières, la migration de certaines espèces de poissons qui se trouvent désormais 1.000 kilomètres plus au nord, et la disparition de deux-tiers des glaciers alpins depuis 1850.

La hausse du niveau des océans est évaluée entre 18 et 59 centimètres d'ici à 2100, selon le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC), et devrait se poursuivre en raison de la fonte de la calotte glaciaire du Gröenland et de l'Arctique. En Europe, quatre millions de personnes et 2.000 milliards d'euros de biens seraient menacés par les inondations à la fin du siècle. Cela concernerait autant les Etats baltes que la Grèce. De récentes estimations indiquent que les pertes liées à la montée des eaux pourraient atteindre 18 milliards d'euros par an en 2080.

Rapport

La capture du CO2 économiquement viable en 2030
Vendredi, 10/10/2008 - 00:00

Les quotas de carbone alloués aux entreprises devront être mis aux enchères, pour que puissent se développer rapidement la capture et le stockage du carbone (CCS). Selon un rapport du cabinet McKinsey & Company, la technologie de capture et séquestration du carbone ne sera économiquement viable qu'en 2030. Jusqu'à cette date, le rapport prévoit que la CCS coûtera entre 60 et 90 euros par tonne aux industries. Ce chiffre devrait atteindre les 30 à 45 ?/t à partir de 2030, date à laquelle la technologie pourrait être plus efficace. Soit l'équivalent de l'achat d'une tonne de carbone à cette date, prévoit le cabinet.

L'eurodéputé britannique Chris Davies (Alliance des libéraux et démocrates pour l'Europe), rapporteur de la directive européenne sur le stockage géologique du CO2, évalue le soutien public aux industriels pour développer la CCS en 7 ans à 10 milliards d'euros. La "viabilité économique" et donc le coût du captage et du stockage du carbone n'a de sens que dans la comparaison économique avec, d'une part, le coût d'achat d'un quota carbone (aux enchères ou sur le marché européen des quotas) et, d'autre part, le coût de technologies de dépollution en "bout de chaîne" permettant de réduire les émissions de CO2. C'est bien dans cet arbitrage stratégique et économique que se trouvent les entreprises soumises aux obligations.

JDE

Le pari gagnant d'un village autrichien sur l'énergie verte
Vendredi, 10/10/2008 - 00:00

Peter Vadasz, maire de Güssing, petite commune de 4 000 habitants située au fin fond du Burgenland, la région la plus pauvre de l'Autriche, a trouvé dans le développement durable une sorte de potion magique pour sa ville. Autosuffisante, la commune produit électricité et chauffage à partir de sources d'énergie renouvelables. On y roule encore à l'essence d'origine fossile mais dès demain la station service vendra des carburants synthétiques à base de biomasse.

Tout a commencé il y a dix-huit ans. Les factures de chauffage et d'électricité grèvent alors le budget de cette bourgade agricole affectée par l'exode rural. Un ingénieur électricien, Reinhard Koch, est appelé à la rescousse. Sa prescription : le boycott des énergies fossiles et la proclamation de l'indépendance énergétique. Un pari, une croisade, assumés à partir de 1992 par le nouveau maire de Güssing, reconduit depuis lors. "Les prix du chauffage et de l'électricité sont de 25 % inférieurs dans notre commune", souligne Peter Vadasz en guise d'explication.

Cet argument est devenu le moteur de la relance économique. Combiné aux subventions européennes allouées à l'installation dans cette zone de développement prioritaire, le prix compétitif du chauffage communal attire les entreprises. En dix ans, une cinquantaine s'est établie, créant 1 100 emplois. Dépourvu de sources thermales, une richesse de la région, Güssing joue avec succès la carte du tourisme écologique.

Le modèle Güssing, c'est une technologie mais aussi une philosophie. "Petit, décentralisé, local. Güssing est un modèle communal. Chaque projet doit être conçu en fonction des ressources renouvelables abondantes localement. Végétation, vent, soleil...", assure le maire. Pour son fief entouré de forêts, c'est essentiellement le bois. La première centrale mise sur pied en 1992 alimente en chauffage une trentaine de foyers.

Dix ans plus tard, la quasi-totalité de l'habitat est connectée aux trois unités de production de chaleur et d'électricité ; l'indépendance énergétique est atteinte. La production d'électricité (22 GW) excédant la consommation domestique, la ville exporte 8 GW dans le réseau régional, ce qui lui procure un revenu de 4,7 millions d'euros. Le bilan environnemental est plus positif encore : les émissions de gaz carbonique ont été réduites de 93 % par rapport à 1995.

LM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un nouveau procédé plus sûr de production de cellules souches
Vendredi, 10/10/2008 - 00:00

Des chercheurs américains ont développé une technique de reprogrammation de cellules de la peau en cellules souches pluripotentes présentant moins de risque, une avancée au potentiel important pour la mise au point de thérapie régénératives. Ils ont utilisé un virus commun responsable du rhume comme vecteur de gènes pour transformer des cellules ordinaires de la peau de souris en cellules souches ayant des propriétés similaires aux cellules souches embryonnaires.

Contrairement aux rétrovirus utilisés jusqu'ici comme vecteur des protéines induisant la transformation des cellules ordinaires en cellules souches, les virus responsables du rhume n'altèrent pas le génome des cellules ainsi créées chez les animaux de laboratoire. Ces altérations provoquaient des tumeurs. Ces travaux, parus dans la revue Science datée du 26 septembre, montrent que cette technique permet de produire des cellules souches sans que celles-ci ne soient irrémédiablement génétiquement endommagées. Si cette nouvelle technique peut être appliquée aux cellules humaines, elle représenterait un potentiel de traitements prometteur pour combattre nombre de maladies aujourd'hui incurables, souligne le Dr. Matthias Stadtfeld de la faculté de médecine de l'Université de Harvard (Massachusetts, nord-est), le principal auteur de ces travaux.

Les cellules souches embryonnaires ont la capacité de devenir n'importe quelles cellules de l'organisme, cardiaques, sanguines, cérébrales ou pulmonaires. Des cellules souches obtenues par reprogrammation de cellules ordinaires de la peau ont déjà donné de bons résultats sur des modèles animal pour réduire les symptômes de la maladie de Parkinson et de la drépanocytose, une forme d'anémie, notent ces chercheurs. Il est donc très possible que cette découverte puisse avoir chez l'homme les mêmes applications thérapeutiques, ajoutent-ils.

Toutefois ces chercheurs soulignent l'importance de déterminer si les cellules souches humaines générées à l'avenir avec cette nouvelle méthode seront aussi pluripotentes que les cellules souches embryonnaires pour des applications cliniques. Au cours des derniers mois, plusieurs équipes de chercheurs ont fait part de découvertes de gènes pouvant métamorphoser des cellules ordinaires de la peau en cellules souches pluripotentes dotées des caractéristiques des cellules souches embryonnaires. Ces avancées permettent d'éviter de recourir à des embryons ou au clonage pour les produire.

Yahoo

Le lien entre portables et cancers préoccupe les experts américains
Vendredi, 10/10/2008 - 00:00

Le lien potentiel entre téléphone portable et cancers du cerveau pourrait s'apparenter à la relation entre tabac et cancers du poumon que les industriels et la société ont mis cinquante ans à admettre, ont averti des scientifiques américains, lors d'une audience au Congrès. "On ne doit pas rééditer ce que nous avons connu à propos de la cigarette et du cancer du poumon, où notre nation a pinaillé sur chaque détail d'information avant d'avertir le public", s'est inquiété David Carpenter, spécialiste de santé publique et professeur de santé environnementale à l'Université d'Albany (New York) devant la Commission des réformes de la Chambre. A ce jour, la science est divisée sur les effets biologiques des champs magnétiques émis par les téléphones cellulaires.

Mais, et surtout pour les enfants et les adolescents aux cerveaux plus vulnérables, "la prudence est de mise, même sans la preuve absolue de l'ampleur du risque", a ajouté M. Carpenter plaidant vigoureusement pour "des recherches urgentes" sur la question. "A la lumière des 70 ans que cela nous a pris pour retirer le plomb des peintures et des 50 ans qu'il a fallu pour établir de façon convaincante le lien entre la cigarette et le cancer du poumon, j'affirme qu'on ferait bien de tirer les leçons du passé pour mieux interpréter les signes de risques potentiels", a poursuivi le docteur Ronald Herberman, directeur d'un des dix plus importants centres de recherches américains contre le cancer à l'Université de Pittsburgh (Pennsylvanie, est).

La majorité des études disponibles assurant qu'il n'y a pas de risque de développer des tumeurs avec le téléphone cellulaire, ont été menées auprès de personnes ayant utilisé un portable pendant peu de temps, ont regretté les experts interrogés. "La plupart de ces études (...) sont caduques, ont des problèmes de méthodologie et n'incluent pas assez de sujets utilisant le portable depuis longtemps", a asséné le docteur Herberman. Une tumeur au cerveau met une dizaine d'années à se développer.

En outre, ces études qualifient d'usage "régulier", l'utilisation d'un portable "une fois par semaine" seulement, ont relevé ces scientifiques. Ils ont en revanche cité plusieurs études européennes, en particulier de Scandinavie --berceau du téléphone cellulaire--, qui montrent un lien entre usage fréquent du portable et tumeurs bénignes et cancéreuses. Une récente étude suédoise du docteur Lennart Hardell affirme qu'un utilisateur régulier a deux fois plus de risques de développer une tumeur du nerf auditif du côté de l'oreille où il utilise le combiné, plutôt que de l'autre oreille.

Une autre étude israélienne détermine une hausse de 50 % des chances d'avoir un cancer de la glande salivaire. "C'est toujours du côté du visage où on utilise le plus fréquemment le portable", a précisé le professeur Carpenter.

Enfin, selon une communication scientifique faite en septembre à la Royal Society de Londres, les adolescents ayant commencé à se servir largement du portable avant 20 ans ont 5 fois plus de risques de développer un cancer du cerveau à l'âge de 29 ans que ceux qui n'ont pas de portable. "Il y a dans le monde trois milliards d'usagers réguliers de téléphones cellulaires. Nous avons besoin d'un message de précaution", a affirmé M. Herberman.

"C'est un grave problème de santé publique. Il s'agit d'un appel au gouvernement pour qu'il finance davantage de recherches et à (l'autorité de régulation des télécommunications) la FCC pour réviser ses normes techniques", a ajouté M. Carpenter. Le représentant de la FCC, l'autorité qui certifie les combinés dans la limite où leurs rayonnements ne chauffent pas les tissus vivants, a reconnu que son personnel "n'était pas suffisamment qualifié pour s'exprimer sur les effets sur la santé de l'absorption des ondes radios par le corps", selon M. Julius Knapp.

TC

La coloscopie virtuelle, vers une prévention systématique des cancers colorectaux ?
Vendredi, 10/10/2008 - 00:00

Le "National CT Colonography Trial", étude incluant 15 centres de recherche des Etats-Unis, valide aujourd'hui que la coloscopie virtuelle obtenue par tomographie est aussi efficace que la coloscopie conventionnelle utilisant une sonde flexible surmontée d'une caméra, pour détecter les cancers colorectaux et les polypes précancéreux. Les cancers colorectaux, CRC, constituent le troisième type de cancers le plus fréquemment diagnostiqué (150.000 nouveaux cas en 2008 aux U.S selon le National Cancer Institute) et la seconde cause de mortalité par cancer aux Etats-Unis (50.000 décès en 2008 selon le NCI). La majorité des cancers du côlon pourrait pourtant être évitée par un dépistage précoce des lésions précancéreuses sur lesquelles il est encore temps d'intervenir.

Le dépistage est donc absolument essentiel. Et pourtant la fréquence des tests de dépistage est faible en raison de la technique invasive et coûteuse à la fois psychologiquement et financièrement pour le patient (risque de perforation, risque d'infection, nécessité de sédation). Alors qu'il est recommandé pour les personnes de 50 ans ou plus de faire une coloscopie tous les 10 ans, voire plus selon les facteurs de risques, la majorité des américains ne le font pas.

A contrario, la coloscopie virtuelle permet d'obtenir des images du côlon et des organes voisins en moins d'une minute, et permettrait au patient de ressortir une demi-heure plus tard, en possession de tous ses moyens.

Dans cette étude, menée principalement par C. Daniel Johnson de la Mayo Clinic Arizona de Scottdale, Arizona, 2351 patients asymptomatiques, âgés de 50 ans et plus, ont subi au cours de la même journée une coloscopie virtuelle et une coloscopie conventionnelle. Les résultats des deux tests ont été comparés. La coloscopie virtuelle a permis de dépister les adénomes et carcinomes avec une précision comparable à celle de la coloscopie conventionnelle. 90 % des polypes de taille égale ou supérieure à 1cm ont été détectés.

Même des polypes de taille inférieure à 0.5 cm ont pu être détectés avec une bonne précision. En conclusion, cette étude vient valider des précédentes études mono-institut, qui suggéraient que la coloscopie virtuelle pourrait devenir la technique de référence en matière de diagnostic des cancers colorectaux du fait de sa précision, sa sécurité, son coût réduit et sa meilleure acceptation par les patients.

BE

SM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Voiture électrique : le patron de Renault présente le Z.E. Concept
Vendredi, 10/10/2008 - 00:00

Renault, qui a lancé plusieurs projets de développement de voitures électriques à l'horizon 2011 veut proposer "un véhicule électrique de masse à brève échéance", a dit M. Ghosn en présentant ce prototype. Il a précisé, lors d'une rencontre avec des journalistes, qu'il prévoyait de lancer en 2012 le premier véhicule électrique spécialement conçu dans ce but. Auparavant, les voitures électriques seront dérivées d'un modèle existant comme la Mégane.

"L'avenir de l'automobile se joue dans le zéro émission", a-t-il estimé. Mais le développement de ces véhicules va demander "des investissements colossaux" dans les batteries, les modifications techniques des véhicules. M. Ghosn a indiqué que l'Alliance Renault-Nissan consacrait un tiers de ses dépenses de recherche et développement aux voitures propres, la priorité étant donnée au véhicule zéro émission. Le Z.E. Concept, préparé sur la base d'un utilitaire Kangoo, offre l'allure d'une voiture futuriste avec des vitres et un toit verts translucides, dont les poignées de portes disparaissent dans la carrosserie. Il est doté d'un moteur électrique de 70 kW et de batteries lithium-ion.

AFP

Toyota prévoit un hybride rechargeable de série en Europe en 2011
Vendredi, 10/10/2008 - 00:00

Le constructeur japonais Toyota prévoit l'introduction en Europe d'un véhicule hybride rechargeable de grande diffusion en 2011-2012, a dit Thierry Dombreval, vice-président exécutif de Toyota Motor Europe. "Les hybrides sont vraiment un facteur clé" parmi les solutions technologiques avancées, a souligné Tadashi Arashima, PDG de Toyota Motor Europe à Paris.

Toyota vise des ventes d'un million de voitures hybrides au début des années 2010, pour ensuite étendre la technologie hybride à tous ses modèles dans la décennie 2020. M. Dombreval a confirmé que la prochaine Prius hybride, qui sera présentée début 2009, conserverait des batteries nickel, ajoutant que la "production à grande échelle" de batteries lithium-ion prendrait de cinq à six ans. Quant aux voitures hybrides rechargables (sur l'électricité), Toyota fera précéder la production de masse d'une phase "expérimentale assez longue" de trois ans, de 2009 à 2011. M. Dombreval a jugé "raisonnable" de tabler sur 2011-2012 pour une production à plus grande échelle de voitures hybrides rechargeables.

Toyota prévoit cependant de commencer à vendre des hybrides rechargeables d'ici la fin 2009. Après vingt ans, a-t-il ajouté, les véhicules électriques et les rechargeables représenteront "une part de marché significative" des nouvelles voitures. Les voitures en circulation resteront toutefois majoritairement à moteur à essence, a-t-il ajouté. Toyota prépare aussi le lancement d'un véhicule totalement électrique en Europe "d'ici quatre à six ans", a dit M. Dombreval.

Le constructeur japonais estime que les véhicules électriques conviennent "très bien pour la conduite urbaine et suburbaine" avec un ordre de distance de 50 à 60 km, soit le parcours quotidien moyen d'un automobiliste en ville, a dit M. Dombreval. "Une petite voiture est probablement la meilleure solution au départ pour l'électrique", a-t-il estimé.

Toyota

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top