RTFlash

RTFLASH Recherche & Technologie
NUMERO 582
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Janvier 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le paiement transformé par le mobile et les services en ligne
Les avancées de la télémédecine
Vers un transistor multifonction
L'informatique quantique franchit une nouvelle étape
Avenir
Les prouesses des robots chirurgicaux
Matière
Le rôle des pôles dans le réchauffement climatique
Premier pétrole renouvelable et réducteur de CO2
Espace
Kepler découvre sa première exoplanète rocheuse
Terre
La collecte des déchets par aspiration pneumatique débarque en Ile-de-France
Vivant
Vers la résurrection de mammouth ?
Infarctus : la mortalité en nette diminution
Un nouveau médicament potentiel contre le cancer
Une nouvelle méthode de détection du cancer du sein
Un anticorps monoclonal contre le diabète ?
Les neurones communiquent comme sur un réseau social
Homme
Un Français sur six a plus de 65 ans et l'espérance de vie continue d'augmenter
Edito
Energie, Climat et Population : les termes indissociables d'un même équation planétaire



Lors de l'ouverture du sommet mondial sur l'énergie de l'avenir à Abou Dabi, le secrétaire général de l'Onu, Ban Ki-moon, a appelé à une véritable révolution dans le domaine des énergies propres. "Nous avons besoin d'une révolution globale dans le domaine des énergies propres, une révolution qui rendrait l'énergie accessible et abordable pour tous", indique-t-il. (ONU=).

L'ONU prévoit que d'ici 2030, la consommation d'énergie aura augmenté de 40 % dans la plupart des pays en voie de développement. Or, dans ces pays, 1,6 milliard de personnes souffrent toujours d'un manque d'accès à l'électricité et 3 milliards de personnes dépendent encore de l'énergie traditionnelle pour la cuisine, le chauffage et d'autres besoins de base.

Lors de son allocution, le secrétaire général de l'ONU a encore une fois soutenu que des progrès ont été réalisés en décembre au Sommet de Cancun sur le climat. Il a dit considérer comme des avancées majeures l'engagement des gouvernements concernant la mise en oeuvre d'objectifs ciblés, l'amélioration du transfert de technologies vertes et le financement sur le long terme de la lutte contre le réchauffement climatique.

Par ailleurs, Ban Ki-moon a rappelé que, chaque année, deux millions de personnes, surtout les femmes et les enfants, meurent en raison de la pollution de l'air, soit presque le double du nombre de morts par le paludisme !

«Investir dans l'économie verte n'est pas simplement un luxe du monde développé. Cela représente aussi une opportunité pour la création d'emplois, la croissance économique des pays et la prospérité pour tous», a ajouté Ban Ki-moon.

Cet appel du Secrétaire général de l'ONU survient au moment où une cette étude publiée par l'"Universal Ecological Fund", une organisation non gouvernementale (Voir étude) révèle que le réchauffement et l'accroissement de la population mondiale risquent d'entraîner des pénuries alimentaires d'ici 2020.

Si rien de plus n'est fait pour réduire les émissions de gaz à effet de serre, dont surtout le CO2 produit par la combustion des hydrocarbures et du charbon, un tel scénario est alors très plausible, insistent les auteurs de cette étude. Les experts du Groupe international d'experts sur le climat (Giec) avaient déjà déterminé en 2006 qu'une hausse de la température terrestre de plus de 2 degrés au-dessus de celle d'avant l'ère pré-industrielle "serait dangereuse".

La combinaison de l'impact de la montée des températures sur la production agricole et de la croissance de la population mondiale, qui devrait atteindre 7,8 milliards d'individus en 2020 (plus 900 millions par rapport à aujourd'hui) entraînera des pénuries pour trois des quatre principales cultures du globe, selon eux.

La production mondiale de blé subira un déficit de 14 % par rapport à la demande d'ici dix ans. Ce chiffre sera de 11 % pour le riz et de 9 % pour le maïs. Le soja est la seule culture majeure qui connaîtra une augmentation de sa production, permettant un excédent de 5 % sur la demande, selon cette projection.

L'eau et le climat, deux ingrédients essentiels à la production alimentaire, seront particulièrement affectés par le réchauffement, relève le climatologue Osvaldo Canziani, un des anciens responsables du Giec et principal conseiller scientifique pour ce rapport. En outre, la plupart des terres arables dans le monde sont déjà exploitées, rappellent ses auteurs qui soulignent que les espaces agricoles sont devenus des valeurs spéculatives.

Depuis 2006, près de 20 millions d'hectares de terres arables auraient fait l'objet de négociations dans le monde, selon Olivier de Schutter, rapporteur spécial des Nations unies pour le droit à l'alimentation. Des transactions correspondant presque à la surface arable française. Cette étude est à recouper avec les chiffres de l'ONU qui montrent qu'en 50 ans, la surface moyenne de terres arables par personne a été divisée par deux dans l'ensemble des pays en développement, passant de 0,3 à 0,15 hectare par personne.

L'eau disponible, principalement sous forme de précipitations, et les conditions climatiques seront donc les deux facteurs les plus déterminants pour la production alimentaire mondiale, avec des effets négatifs pour les régions devenant plus sèches, et positifs pour celles plus humides et chaudes. L'Inde, second producteur mondial de riz et de blé, pourrait subir une diminution de jusqu'à 30 % de ces deux récoltes. En revanche, la Chine, plus grand producteur de riz et de blé et second de maïs, devrait accroître ces productions de 20 %.

En Europe, les pays du Nord, comme la Suède ou la Norvège, bénéficieront du réchauffement pour voir leurs rendements de blé grimper de 3 à 4 % d'ici 2020, selon ce rapport. Mais les pays européens du bassin méditerranéen dont l'Italie, l'Espagne et la France subiraient une baisse de 10 % de l'ensemble de leurs récoltes, surtout des raisins dont ils représentent ensemble aujourd'hui 30 % de la production mondiale.

L'impact du changement climatique sur les secteurs productifs de l'économie latino-américaine serait une réduction de 1,3 % du PIB de la région si la température moyenne augmente de 2 degrés, note le rapport.

En Amérique du Nord, une baisse des précipitations va surtout toucher les Etats-Unis, notamment l'ouest, posant des problèmes d'irrigation et affectant diverses productions comme le raisin. Si les auteurs prévoient une certaine augmentation des rendements de blé dans les Grandes Plaines, ils prédisent une réduction des récoltes de maïs et de soja dans la "Corn belt". Enfin, l'Afrique devrait voir les deux tiers de ses terres arables disparaître d'ici 2025 en raison de la sécheresse.

Une autre étude internationale publiée dans "Science", (Voir étude) vient nous rappeler, en s'appuyant sur une analyse rigoureuse des cernes des arbres depuis 2000 ans, que les modifications climatiques de grande ampleur qui sont intervenues depuis 20 siècles coïncident avec des bouleversements démographiques, économiques et politiques majeurs, qu'il s'agisse de la chute de l'Empire romain, du 3ème au 5ème siècle, de la peste noire du milieu du 14ème siècle ou des grandes migrations du 19ème siècle de l'Europe vers l'Amérique.

Ces différentes études nous montrent que tout se tient et que nous devons modifier radicalement la gestion globale des ressources de notre planète si nous voulons assurer la survie de notre espèce. Il est frappant de voir, en nous appuyant sur l'histoire de la terre au cours de ces vingt derniers siècles, à quel point les changements climatiques ont des conséquences importantes sur le plan économique, social et politique et nous risquons malheureusement d'en avoir une illustration de grande ampleur si nous ne prenons pas au niveau planétaire des mesures plus énergiques et plus cohérentes pour limiter pendant que cela est encore possible, le changement climatique majeur qui est en train de s'opérer sous nos yeux à un rythme sans précédent dans l'histoire de l'humanité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le paiement transformé par le mobile et les services en ligne
Vendredi, 28/01/2011 - 00:00

L'engouement du grand public pour les appareils mobiles et les services en ligne engendre de nouvelles formes de transaction, souligne Celent dans "Top trends in Payments 2011". Les consultants prévoient une réelle accélération des paiements mobiles sans contact dans les marchés développés. Via les technologies NFC (communication en champ proche) en particulier, ou par l'utilisation de codes-barres 2D (comme le fait Starbucks, par exemple, avec le système de carte prépayée et de QR code qu'il développe).

Outre-Atlantique, plusieurs acteurs se positionnent les uns par rapport aux autres. Le rapprochement de trois opérateurs, AT&T, T-Mobile et Verizon via Isis pour un paiement mobile alternatif aux solutions proposées par Visa ou MasterCard est ainsi révélateur des mouvements en cours, indiquent les consultants. Autre évolution majeure, aux Etats-Unis : la banque sur mobile poursuit sa croissance. L'adoption de ces services ne faiblit pas, selon les analystes, qui s'attendent à ce que 40 millions d'Américains utilisent les services de m-banking dès 2012, et plus de 75 millions en 2014. Contre moins de 20 millions en 2010.

Dans le même temps, le dépôt de chèque à distance se généralisera auprès du public américain. Plus de 200 institutions financières proposent d'ores et déjà ce type de service à leurs clients, selon les consultants. Qui prévoient le lancement de nouvelles initiatives de ce type, à plus grande échelle, dans les années à venir. Autre segment prometteur : les solutions B2B vont également susciter l'intérêt des professionnels de ce secteur. Les services de facturation numérique (e-invoicing) se développeront de plus en plus, en particulier, via plusieurs grands réseaux de fournisseurs.

Atelier

Les avancées de la télémédecine
Vendredi, 28/01/2011 - 00:00

«Comment ça va ce matin ? » Au service de néphrologie du centre hospitalier de Saint-Brieuc, le Dr Françoise Leonetti interroge Fabien T., atteint d'insuffisance rénale. L'homme allongé sur un lit à côté d'un générateur est en cours de dialyse. Il répond d'un sourire. Rien que de très habituel, sauf que le Dr Leonetti, blouse blanche de rigueur, est équipée d'un casque avec écouteurs et micro et mène sa consultation par l'entremise d'une caméra et d'un écran vidéo. La dialyse est effectuée par une infirmière, sous son contrôle, à l'unité de dialyse médicalisée de Lannion, qui se trouve à 75 kilomètres de Saint-Brieuc.

Le Dr Leonetti fait face à quatre écrans informatiques. Un simple zapping lui permet de voir l'ensemble du centre de Lannion ou de zoomer sur le bras ou les chevilles de son patient. Elle peut ainsi vérifier la mise en place du cathéter ou le bon état de la fistule artérioveineuse, tout en disposant en temps réel des données du traitement envoyées par le générateur qui défilent sur un écran voisin, tandis que, sur une autre console, s'affiche le dossier médical de l'intéressé. Le système est sécurisé, les images et le son de bonne qualité. Seule limite : le médecin ne peut ausculter le patient, le palper. Mais des infirmiers sont présents sur place pour le seconder.

Pour Fabien, âgé de 75 ans, contraint d'effectuer cette opération pénible trois fois quatre heures par semaine, ce système de télémédecine assure un gain de temps et un confort de vie précieux. La ville de Lannion est proche de son domicile. Il n'a plus à se rendre à Saint-Brieuc.

La structure fonctionne depuis 2006. Elle montre l'intérêt de la télémédecine, qui est officiellement autorisée en France. Une démarche novatrice qui pourrait, à terme, bouleverser l'organisation des soins. L'objectif est de répondre à la désertification médicale dans certaines régions mais aussi d'améliorer le suivi des malades souffrant de maladies chroniques ou de handicaps. Elle devrait assurer une continuité des soins à domicile, prévenir les complications et limiter ainsi les hospitalisations.

Mais on est encore loin d'une télémédecine où le patient, via son ordinateur, sa webcam et internet, consulterait son médecin et recevrait en retour une ordonnance par e-mail. «Cette pratique ne rentre pas dans le champ actuel de la télémédecine, affirme le Dr Pierre Simon, parce qu'elle ne garantit pas la confidentialité des données, condition sine qua non pour cet exercice.»

Ce type de télésurveillance à distance et à domicile se développe aussi pour le suivi des diabétiques ou pour ceux souffrant d'apnées du sommeil. Le procédé s'adapte à toute pathologie nécessitant un contrôle appareillé permanent. Mais le déploiement le plus attendu concerne la médecine ambulatoire.

Encore faudra-t-il convaincre les médecins traitants des maisons de santé notamment ou le personnel soignant des maisons de retraite de faire intervenir le spécialiste de garde via la télémédecine. «Elle sera un apport considérable pour les établissements d'hébergement pour personnes âgées, mais aussi pour les établissements pénitentiaires», souligne le Dr Simon. Reste à tout organiser. Les Agences régionales de santé (ARS) chargées d'autoriser et de financer les projets vont remettre, en fin d'année, un programme de télémédecine tenant compte des besoins de chaque région. Mais il faudra aussi que se généralise le dossier médical partagé, qui vient d'être lancé.

Figaro

Vers un transistor multifonction
Vendredi, 28/01/2011 - 00:00

Des chercheurs du CNRS et de l'Université Paris-Sud 11 ont réussi à créer une couche conductrice à la surface d'un matériau de transition isolant et transparent. Un résultat qui ouvre la voie du transistor multifonction.

Le transistor, l'élément de base des puces électroniques, joue aujourd'hui le rôle d'interrupteur électronique offrant les deux états binaires 0 et 1. Va-t-il étendre ses capacités à d'autres fonctions ? Le résultat obtenu par des chercheur du CNRS et de l'Université de Paris-Sud 11 va en tout cas dans ce sens. Ils ont réussi à créer une couche conductrice à la surface d'un matériau isolant et transparent, en l'occurrence du titanate de strontium (SrTiO3). De quoi ouvrir des perspectives intéressantes à la microrélectronique avec un transistor multifonction. Cette découverte inattendue, mise en évidence au synchrotron SOLEIL, est publiée dans la revue Nature du 13 janvier 2011.

Aujourd'hui, les puces électroniques sont fabriquées à base de couches de semi-conducteurs déposées sur un substrat de silicium. Afin de poursuivre l'accroissement des performances au-delà de 2020, des alternatives technologiques sont à l'étude.

Le titanate de strontium (SrTiO3) figure parmi les oxydes des métaux de transition les plus étudiés pour la microélectronique du futur. C'est un isolant, mais il devient bon conducteur en le dopant (en créant quelques lacunes d'oxygène par exemple). Les interfaces entre le SrTiO3 et d'autres oxydes (LaTiO3 ou LaAlO3) sont conductrices, même si les deux matériaux sont isolants. En plus, elles présentent de la supraconductivité, de la magnétorésistance, ou de la thermoélectricité avec de très bons rendements à température ambiante. Seulement voilà : les interfaces entre oxydes sont très difficiles à réaliser.

Une découverte inattendue vient de faire sauter ce verrou technologique. Une équipe internationale pilotée par des scientifiques du CNRS et de l'Université Paris-Sud 11 vient de réaliser un gaz d'électrons métalliques bidimensionnel à la surface de SrTiO3.

Il s'agit d'une couche conductrice de deux nanomètres d'épaisseur environ, obtenue en cassant un morceau de titanate de strontium sous vide. Ce procédé, très simple, est peu coûteux. Les éléments qui constituent SrTiO3 sont disponibles en grande quantité dans les ressources naturelles et c'est un matériau non toxique, contrairement aux matériaux les plus utilisés aujourd'hui en microélectronique (les tellurures de bismuth). En outre, des gaz d'électrons métalliques bidimensionnels pourraient probablement être créés de façon similaire à la surface d'autres oxydes de métaux de transition.

La découverte d'une telle couche conductrice (sans avoir à rajouter une couche d'un autre matériau) est un grand pas en avant pour la microélectronique à base d'oxydes. Elle pourrait permettre de combiner les propriétés intrinsèques multifonctionnelles des oxydes de métaux de transition avec celles du métal bidimensionnel à sa surface. On peut songer, par exemple, au couplage d'un oxyde ferro-électrique avec le gaz d'électrons à sa surface, pour faire des mémoires non volatiles, ou à la fabrication de circuits transparents sur la surface des cellules solaires ou des écrans plats.

Industrie&Technique

L'informatique quantique franchit une nouvelle étape
Vendredi, 28/01/2011 - 00:00

L'équipe du professeur Nicolas Gisin bénéficie d'une renommée internationale dans le domaine de la physique quantique. Les dernières prouesses des physiciens de l'Université de Genève (UNIGE) devraient y contribuer encore davantage puisqu'ils viennent de réussir à intriquer un photon, leur «objet usuel», avec un cristal, soit un objet nettement moins évident dans ce contexte, du fait qu'on peut le saisir. En effet, publiés dans la revue Nature, ces résultats attestent le franchissement d'une étape importante vers la possibilité d'intriquer des objets concrets. Ils pourraient déboucher, à terme, sur l'élaboration de mémoires quantiques permettant de préserver le secret de l'information transmise dans le cadre de réseaux étendus.

Cela fait plusieurs années que le groupe du professeur Nicolas Gisin travaille aux frontières du «saisissable» en explorant, menant des recherches en physique quantique, ce qui apparaît comme un nouveau type de causalité appelé «l'intrication». On considère en général deux types de causalité -ou de corrélation- dans le monde physique : soit qu'un premier événement en a influencé un second, soit que les deux événements corrélés ont une cause commune dans un passé commun.

Or, les travaux des chercheurs de l'UNIGE démontrent depuis un certain temps que l'intrication constitue une troisième catégorie de causalité, dans le sens où elle est une propriété typique du monde atomique, qui permet à deux particules de se comporter comme un seul objet, bien qu'elles se trouvent éloignées l'une de l'autre dans l'espace. En d'autres termes, les corrélations de la physique quantique échappent aux modèles explicatifs dominants de la physique classique.

Tandis qu'elle menait surtout des expériences mettant en jeu des intrications entre photons, c'est-à-dire entre des particules de lumière, l'équipe de physiciens du professeur Gisin vient de parvenir à intriquer un photon avec un cristal. Cet exploit, qui témoigne de la possibilité d'intriquer des objets plus solides et saisissables, a été réalisé à partir de la fabrication de deux photons intriqués. Il s'agit ensuite de les séparer et d'envoyer un de ces photons dans un cristal afin qu'il lui transmette son «état d'intrication».

Les chercheurs ont parachevé leurs travaux en démontrant que, comme dans le cas de deux photons, l'intrication entre le photon et le cristal transgressait les deux types de causalités propres à la physique classique. Le constat de la simultanéité des réactions du photon et du cristal a permis ainsi d'exclure toute influence de l'un sur l'autre, tandis que le non-respect des «inégalités de Bell» a conduit à exclure toute explication basée sur une cause commune.

Publiés dans la revue Nature, ces résultats pourraient avoir des échos dans les deux domaines d'application privilégiés de la physique quantique, à savoir la téléportation et la cryptographie quantiques. C'est particulièrement probable dans le cas de la dernière, qui pourrait compter alors sur les possibilités que ces travaux ouvrent en mettant au point des mémoires quantiques, capables de préserver l'état de confidentialité de l'information transmise au sein de réseaux à grande échelle.

UNIGE

^ Haut
Avenir
Nanotechnologies et Robotique
Les prouesses des robots chirurgicaux
Vendredi, 28/01/2011 - 00:00

On savait que l'excision des cancers gynécologiques par les techniques de laparoscopie opératoire, qui ne requièrent que quelques petites incisions, est nettement moins éprouvante que l'hystérectomie traditionnelle. Les patientes peuvent quitter l'hôpital plus rapidement et en meilleure forme. Seul hic, à peine 10 % des patientes peuvent bénéficier de cette intervention peu invasive, car celle-ci est extrêmement complexe à réaliser.

Le recours à un robot chirurgical permet toutefois de surmonter ce handicap, et à un coût tout à fait compétitif. La preuve en a été faite par une équipe de chirurgiens de l'Hôpital général juif (HGJ) dont l'étude fait mentir les prophètes de malheur qui affirment que l'adoption de cette technologie avant-gardiste imposerait des coûts excessifs à notre système de soins de santé.

Au cours d'une laparoscopie, le chirurgien doit regarder au-dessus des instruments qu'il manipule, sur un écran vidéo en deux dimensions, alors qu'un assistant déplace pour lui une petite caméra introduite dans l'abdomen de la patiente. « Les mouvements sont contre-intuitifs, on manipule des instruments rigides pour faire des mouvements compliqués, et la majorité des chirurgiens n'y arrivent pas », a expliqué le chef du Service de gynéco-oncologie du Centre du cancer Segal de l'HGJ, le Dr Walter Gotlieb.

Quand on fait appel à un robot chirurgical, le chirurgien a alors accès à l'interface d'un ordinateur qui lui permet de voir une image tridimensionnelle, stable, magnifiée et en haute définition de la cible anatomique. « On a l'impression de travailler avec son nez sur les tissus », a relaté le spécialiste. Le robot est doté d'instruments miniaturisés qui donnent la possibilité de faire « des interventions plus fines, plus précises, voire de la microchirurgie ».

« Mais le grand avantage du robot est que les patients récupèrent de façon fabuleuse », a résumé le chercheur. En effet, les patientes atteintes d'un cancer de l'utérus chez lesquelles on avait effectué une hystérectomie radicale par chirurgie robotique, quittaient l'hôpital beaucoup plus tôt (après 1,9 jour) que celles qui avaient subi une laparotomie, la chirurgie traditionnelle plus invasive, qui nécessitait 7,2 jours d'hospitalisation, a souligné l'équipe du Dr Gotlieb dans The Journal of Robotic Surgery.

Les patientes subissaient des pertes sanguines nettement moindres (106 ml contre 546 ml). Elles étaient aussi clairement moins susceptibles de souffrir de complications (19 % versus 63 %). Qui plus est, leurs douleurs étant moindres, on leur administrait beaucoup moins de narcotiques. L'acétaminophène suffisait pour soulager la plupart d'entre elles.

« Là où on tire les plus grands avantages de cette technique, c'est sur les patientes plus âgées - dont les tissus sont beaucoup plus friables et fins - ou obèses - chez lesquelles les interventions sont plus complexes », a ajouté le chirurgien qui, dans l'International Journal of Gynecological Cancer, confirme que la chirurgie robotique est tout aussi bénéfique chez les patientes âgées (en moyenne de 78 ans) que chez les jeunes.

Mais qu'en est-il du coût de cette technologie de pointe ? Pour répondre à cette interrogation, l'équipe du Dr Gotlieb a comparé les coûts globaux (incluant les antibiotiques, l'hospitalisation et les perfusions sanguines) associés à une hystérectomie radicale pratiquée par la méthode traditionnelle - qui sont évalués à environ 11 764 $ - à ceux occasionnés par la chirurgie robotique, qui s'élevaient à environ 8183 $. « Et même quand on incluait le coût du robot, l'intervention effectuée à l'aide du robot demeurait meilleur marché », a ajouté le Dr Gotlieb, tout en spécifiant que le robot da Vinci de l'HGJ a été obtenu grâce à une donation anonyme.

Passeport-Santé

^ Haut
Matière
Matière et Energie
Le rôle des pôles dans le réchauffement climatique
Vendredi, 28/01/2011 - 00:00

Des données satellites montrent que la glace de l'Arctique et du Groenland réverbérait une quantité assez faible de l'énergie solaire vers l'espace. Cette quantité a en effet beaucoup diminué entre 1979 et 2008. A l'heure actuelle, avec la fonte importante des zones de glace, le rayonnement solaire se perd dans l'eau ou sur les sols, tous deux trop sombres et absorbant les rayons. L'étude estime que l'hémisphère nord renvoie 3,3 watts d'énergie solaire vers la haute atmosphère, soit 0,45 watts de moins qu'en 1970. En conséquence, la chaleur absorbée augmente et le réchauffement climatique également. Les données concrètes mesurées sont beaucoup plus importantes que celles utilisées dans les calculs pour évaluer l'évolution du climat.

Il s'agit-là d'un cercle vicieux puisqu'en se réchauffant, la planète amène les glaces à fondre plus rapidement, favorisant ainsi le réchauffement de la Terre et ainsi de suite. Plusieurs études envisagent même que la banquise de l'Arctique puisse fondre complètement en été d'ici quelques années. Les conséquences climatologiques, naturelles et humaines seraient catastrophiques.

Maxisciences

Premier pétrole renouvelable et réducteur de CO2
Vendredi, 28/01/2011 - 00:00

Après 5 années de recherche menées en coopération étroite avec les universités d'Alicante et de Valence, BFS a mis au point le premier « procédé de conversion énergétique accélérée » qui permet de transformer les rejets excessifs de CO2 en un pétrole de qualité. Ce système repose sur les effets conjugués de la photosynthèse, de l'énergie lumineuse et des propriétés organiques du phytoplancton, mobilisé comme puissant catalyseur, pour obtenir un carburant comparable au pétrole fossile et offrant les mêmes possibilités de produits dérivés (plastiques, polymères...).

La culture intensive de phytoplancton s'opère dans des photobioréacteurs verticaux à partir de souches sélectionnées pour leur teneur en lipides et cela sans prélèvement sur la biodiversité.

Sur 1 hectare et selon un scénario de rentabilité optimale, une usine-type BFS de dépollution/valorisation est ainsi capable d'absorber 12 000 tonnes de CO2 par an et d'assurer une production continue et annuelle d'environ 5 500 barils de pétrole, voire 0,45 Mégawatts d'électricité (le CO2 capté peut être transformé en électricité grâce à des turbines ou des Moteurs de Combustion Internes). Au cours du processus de transformation, de multiples coproduits et sous-produits à forte valeur ajoutée, tels les acides gras essentiels (type oméga 3 ou 6...), peuvent par ailleurs être extraits du gisement de biomasse obtenu, assurant ainsi la rentabilité d'une installation-type.

Pour produire 1 baril de pétrole, BFS absorbe 2.168 kg de CO2 et neutralise définitivement 937 Kg de C02 après combustion. Ainsi, en prenant en compte l'ensemble du cycle de production de l'énergie consommée, à distance parcourue égale (100 km) et à puissance égale (135 chevaux), une voiture fonctionnant avec le pétrole BFS est la seule à avoir un bilan carbone négatif (- 48 kg de CO2), largement devant la voiture roulant grâce au pétrole fossile (+ 19 kg de Co2) ou encore la voiture électrique alimentée à l'énergie nucléaire (+0,3 kg de co2).

De l'amont à l'aval du procédé de conversion, BFS marque une avancée majeure en termes de capacité de dépollution, de rendements à l'hectare et de bilan carbone, dépassant largement les limites environnementales, économiques et sociétales des biocarburants de 1ère et de 2ème génération à base de matières premières agricoles.

La production en continu du pétrole BFS à un coût moindre, la qualité du combustible obtenu, son caractère propre, inépuisable et économiquement viable, offrent une véritable réponse à la raréfaction des hydrocarbures ainsi qu'une alternative durable à la dépendance vis à vis des importations de pétrole et de gaz. L'usine pilote BFS d'Alicante, dont la première phase de construction au pied de la cimenterie Cemex (3ème cimentier mondial) est en cours d'achèvement, sera opérationnelle dès janvier 2011.

L'unité d'Alicante occupe 11 hectares, soit 20 terrains de football, sur le site de la cimenterie Cemex. Elle absorbera 130.000 tonnes de CO2 pour produire 60.000 barils de biopétrole et 400 tonnes de nutriments par an.

Développement durable

^ Haut
Espace
Espace et Cosmologie
Kepler découvre sa première exoplanète rocheuse
Vendredi, 28/01/2011 - 00:00

Nommée Kepler-10b, cette petite planète est en orbite autour d'une étoile similaire au Soleil dans la constellation du Cygne. D'une taille approchant celle de la Terre (environ 1,4 fois sa taille), elle est toutefois beaucoup plus lourde puisque sa masse est 4,6 fois celle de la Terre. Sa densité moyenne est de 8,8 grammes par centimètre cube, équivalente à celle de l'acier.

La découverte de cette planète a été annoncée par la Nasa et fait l'objet d'une publication dans l'Astrophysical Journal. Elle repose sur l'examen de huit mois de données recueillies par Kepler de mai 2009 à début janvier 2010. Lancé en mars 2009, le télescope Kepler est un photomètre spatial développé par la NASA pour détecter des exoplanètes et autres petits corps orbitant autour des étoiles de notre galaxie.

Il est capable de mesurer l'infime baisse de luminosité d'une étoile qui se produit lors d'un transit planétaire, c'est-à-dire lorsqu'une planète passe devant elle. La taille de la planète peut être déduite de ces variations périodiques de luminosité tandis que la distance entre la planète et son étoile est calculée en mesurant le temps entre deux passages successifs.

Kepler est la première mission de la NASA capable de trouver des planètes de taille terrestre à proximité de la zone habitable, la région dans un système planétaire où l'eau liquide peut exister en surface. Ce n'est toutefois pas le cas de Kepler-10b qui est vingt fois plus proche de son étoile que Mercure du Soleil. Mais comme le souligne Douglas Hudgins, scientifique chargé du programme Kepler : « la découverte de Kepler-10b est une étape importante dans la recherche de planètes semblables à la nôtre».

Sciences et Avenir

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La collecte des déchets par aspiration pneumatique débarque en Ile-de-France
Vendredi, 28/01/2011 - 00:00

Le bruit incessant des camions-poubelles ? Bientôt fini ! Les embouteillages qu'ils occasionnent ? Bientôt fini ! Les odeurs nauséabondes à proximité des containers à ordures ? Bientôt de l'histoire ancienne ! Place à une collecte des déchets sans bruit, sans odeurs et sans nuisance d'aucune sorte ! Pour l'instant strictement limitée à quelques villes, la collecte des déchets par aspiration pneumatique devrait voir le jour en région parisienne dès l'année prochaine. Prévu pour fin 2010 à Romainville et aux Lilas (93), ce système révolutionnaire a pris un peu de retard. La révolution attendra !

Déjà en place à Grenoble, mais aussi à Stockholm, Séville, Barcelone et Monaco, la collecte par aspiration offre donc de nombreux avantages. Tant pour l'environnement que pour l'humain. Les poubelles et autres containers qui défigurent nos cités pourraient donc être remplacés par des bornes plus discrètes et parfois même installées dans les immeubles.

Une fois par jour, le soir, quand l'électricité est la moins chère, les déchets ménagers ainsi que les journaux et les magazines sont aspirés et tractés, à travers des tuyaux, jusqu'au centre de tri. Compactés, ils pourront ensuite subir différents traitements : soit valorisés en chaleur ou en électricité, soit recyclés en compost pour l'agriculture, soit évacués par train.

Les communes de Romainville et des Lilas, en région parisienne, se sont offert le système, en partageant les frais. Si la première devrait être dotée des fameuses bornes dès 2011, les Lilas ne seront raccordés qu'en 2013. Idem pour le quartier des Batignolles, en plein coeur du 17e arrondissement de Paris. Si, pour l'heure, d'autres villes n'ont pas exprimé le souhait de mettre en place une collecte pneumatique des déchets, c'est probablement en raison de son prix... élevé. Dans les deux communes de Seine-Saint-Denis, le projet coûte la bagatelle de 11 millions d'euros, avec une prise en charge de l'Agence nationale de renouvellement urbain à hauteur de 15 %, du fonds européen Feder à hauteur de 23 % et de la Région à hauteur de 10 %.

Si ce type de collecte des ordures évitera donc de nombreux désagréments aux riverains, il permettra également d'économiser des tonnes d'équivalent carbone. En Ile-de-France, la Région prévoit la suppression de quatre passages de camions poubelles par semaine, soit une réduction de 62 à 16,4 tonnes d'équivalent CO2.

Développement durable

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vers la résurrection de mammouth ?
Vendredi, 28/01/2011 - 00:00

Des scientifiques japonais vont tenter de créer un mammouth par clonage et redonner vie à une espèce disparue depuis des milliers d'années, vient d'affirmer un journal nippon. Ces chercheurs vont travailler sur les tissus d'un cadavre de mammouth retrouvé congelé et conservé dans un laboratoire russe, a expliqué le quotidien Yomiuri Shimbun. «Les préparatifs son achevés» et l'équipe va bientôt pouvoir débuter les opérations, a assuré au journal Akira Iritani, chef de l'équipe scientifique et professeur à l'université de Kyoto.

Le projet consiste à introduire des noyaux de cellules du mammouth, mort depuis des milliers d'années, dans des cellules énucléées provenant d'un éléphant vivant, afin de créer un embryon contenant de l'ADN de mammouth.

Cet embryon sera ensuite placé dans l'utérus d'une femelle éléphant en espérant qu'elle donnera plus tard naissance à un bébé mammouth, a précisé le Yomiuri. L'équipe de M. Iritani va s'appuyer sur les travaux d'un autre scientifique japonais, Teruhiko Wakayama, du Centre Riken de Biologie du Développement de Yokohama (région de Tokyo), qui est parvenu à créer des clones de souris mortes et congelées depuis 16 ans. En utilisant la technique de M. Wakayama, M. Iritani et ses collègues ont mis au point un procédé permettant d'extraire des noyaux de cellules mortes, sans les abîmer.

«Si nous parvenons à créer l'embryon d'un clone, il nous faudra discuter, avant de l'implanter dans un utérus, de la manière dont nous pourrions nourrir (le futur mammouth) et de la pertinence de le montrer au public», a poursuivi M. Iritani. Il pense que son expérience, si elle réussit, permettra d'en savoir plus sur ces grands herbivores laineux disparus il y a des millénaires de la surface de la Terre pour des raisons encore discutées. L'équipe de M. Iritani, qui travaille avec un spécialiste russe des mammouths et deux experts américains des éléphants, espère toucher au but d'ici à cinq ou six ans.

Libération

Infarctus : la mortalité en nette diminution
Vendredi, 28/01/2011 - 00:00

C'est une bonne nouvelle pour les 100 000 Français victimes chaque année d'un infarctus du myocarde. Le pronostic vital de cet accident cardiaque à la phase aiguë continue de s'améliorer fortement en France, selon les dernières données présentées aux journées européennes de la Société française de cardiologie, à Paris. De 13,7 % en 1995, le taux de mortalité à trente jours avait déjà chuté à 8,7 % en 2000, et 7 % en 2005. Il plafonne désormais à 4 %.

«Nous sommes agréablement surpris par ce chiffre, mais il s'agit de données encore provisoires, qui portent sur les 2 700 premiers dossiers de 2010 analysés», précise d'emblée le Professeur Nicolas Danchin, cardiologue à l'hôpital européen Georges-Pompidou (Paris), qui a présenté les résultats de ce programme appelé Fast-MI.

Depuis 1995, en France, un système de registre permet de recueillir de nombreuses données concernant les hospitalisations pour infarctus. Sont ainsi analysés le profil des patients, les traitements mis en oeuvre, des paramètres biologiques...

Actuellement, 60 % des unités de soins intensifs - et à peu près tous les plus «gros» services - participent à cet observatoire, soit plus de 200 établissements. Les malades sont ensuite suivis pendant si possible dix ans. «Un taux de mortalité à 4 % au bout d'un mois, c'est très bon, on voit mal comment on pourra descendre plus bas, poursuit le Professeur Danchin, en précisant que cette évolution s'explique par la meilleure prise en charge précoce et les progrès dans l'organisation des soins. «En revanche, il n'est pas évident que le nombre d'infarctus soit en diminution. Pour le mesurer, il faudrait d'autres bases de données», note le spécialiste.

À la phase aiguë de l'infarctus, dès que le diagnostic est posé, le principal objectif du traitement est de déboucher le plus vite possible la ou les artères coronaires obstruées. Deux méthodes sont utilisées. La thrombolyse, qui peut être mise en oeuvre par l'équipe du Samu avant l'admission à l'hôpital, consiste en l'injection en intraveineuse de médicaments qui détruisent le caillot. L'alternative est une angioplastie, qui permet de dilater l'artère grâce à un ballonnet, introduit par une sonde à partir d'une artère du bras ou de l'aine.

Ce geste technique ne peut se pratiquer que dans des centres spécialisés. Il est souvent associé à la pose d'un stent (sorte de ressort) destiné à maintenir l'artère ouverte. Les traitements de reperfusion sont de plus en plus pratiqués, selon l'étude Fast-MI : ils concernent 80 % des patients en 2010. La proportion était de 64 % en 2005, 53 % en 2000 et seulement 49 % en 1995.

Figaro

Un nouveau médicament potentiel contre le cancer
Vendredi, 28/01/2011 - 00:00

Des scientifiques ont découvert le fonctionnement exact d'une protéine qui ralentirait la propagation du cancer et renforcerait l'efficacité de la chimiothérapie. Cette molécule, appelée glycoprotéine riche en histidine (GRH), pourrait aider les chercheurs à développer des médicaments anticancéreux. Cette étude, partiellement financée par l'UE, était publiée dans la revue Nature Cancer Cell.

La GRH améliore la qualité du réseau de vaisseaux sanguins qui alimente la tumeur en oxygène et en substances nutritives. Bien que cela semble contre-intuitif, cela diminue le risque de métastases (lorsque le cancer se propage dans d'autres parties du corps) et renforce la capacité au médicament à attaquer la tumeur.

Comme pour tous les tissus, les tumeurs malignes ont besoin d'oxygène et de substances nutritives pour leur croissance et leur maintien, et les cancers utilisent un éventail de molécules appelées facteurs angiogéniques pour générer leur apport sanguin. Pendant de nombreuses années, les chercheurs se sont penchés sur les médicaments anticancéreux qui pourraient réduire l'approvisionnement en sang de la tumeur en bloquant l'activité des facteurs angiogéniques. Néanmoins, cela peut renforcer le risque de métastases.

En effet, la croissance rapide des tumeurs implique que leurs réseaux de vaisseaux sanguins sont mal construits et n'apportent pas assez d'oxygène à la tumeur. C'est ce manque d'oxygène qui pousse certaines cellules cancéreuses à quitter le site de la tumeur et à immigrer vers d'autres parties du corps. En aggravant le manque d'oxygène dans la tumeur, les médicaments qui coupent son approvisionnement en sang renforcent le risque de métastase.

Ces dernières années, on a ainsi constaté un intérêt croissant pour les médicaments qui amélioreraient l'approvisionnement en sang (et par conséquent en oxygène) des tumeurs, encourageant ainsi les cellules cancéreuses à ne pas métastaser. De plus, étant donné que les médicaments atteignent la tumeur par voie sanguine, l'amélioration de la circulation du sang vers les cellules cancéreuses garantit un meilleur accès aux cellules malignes lors des séances de chimiothérapie.

Dans cette étude, des scientifiques belges, italiens et suédois ont révélé que la protéine GRH est capable de «normaliser» l'apport des vaisseaux sanguins en influençant les niveaux de deux différentes cellules immunitaires.

Selon les chercheurs, la majorité des cancers mènent à l'inflammation des cellules appelées macrophages associés aux tumeurs (MAT). Il existe deux types de MAT ; les macrophages M2 favorisent la croissance des vaisseaux sanguins (ou angiogenèse) et modèrent les défenses immunitaires de l'organisme ; les macrophages M1, quant à eux, activent les cellules immunitaires qui attaquent les tumeurs cancéreuses. Pourtant, les macrophages M1 n'ont pas la capacité de renforcer l'angiogenèse.

Cette nouvelle recherche montre que GRH est capable d'inhiber une protéine appelée facteur de croissance placentaire (PlGF, de l'anglais placenta growth factor), qui déclenche ensuite la transformation des macrophages M2 (lesquels favorisent la croissance de la tumeur) en macrophages M1 (lesquels lancent une attaque immunitaire contre le cancer en vue de réduire sa taille). Tout cela permet un approvisionnement normal de la tumeur en oxygène et en sang, réduisant ainsi le risque de métastase et renforçant par là même l'efficacité des médicaments utilisés dans la chimiothérapie en leur offrant un meilleur accès à la tumeur.

Cordis

Une nouvelle méthode de détection du cancer du sein
Vendredi, 28/01/2011 - 00:00

Si, si, c'est bien une première mondiale. Le Senobright est le fruit de dix années de recherches et de développement menés par General Electric Healthcare, entreprise américaine, pionnière en mammographie, examen de référence pour le dépistage du cancer du sein.

Avant d'être commercialisé, et pour la première fois à Armentières, l'engin est passé par un site clinique d'évaluation en France : l'Institut Gustave Roussy (IGR) de Villejuif, centre anticancéreux de renom. « Le docteur Clarisse Dromain a procédé aux études cliniques qui ont montré que grâce à l'angiomammographe, on détecte mieux les cancers du sein qu'avec un mammographe, indique Édouard Poncelet, chef du service d'imagerie de la femme au Centre hospitalier universitaire et membre de l'équipe armentiéroise. L'angiomammographe détecte autant qu'une IRM, mais avec davantage de spécificités. »

Comprenez qu'il donne davantage d'informations... Un mammographe produit une image sur laquelle apparaissent les vaisseaux sanguins et des « taches » pouvant indiquer un danger. L'angiomammographe de General Electric permet de déceler, via une image spectrale et l'injection d'un produit iodé, si ces traces présentent, ou pas, des foyers de calcification, d'hypervascularisation et donc des tumeurs malignes. La biopsie est ensuite pratiquée à dessein.

Le docteur Poncelet ajoute : « Avec l'IRM, on avait beaucoup de fausses images, pour des lésions bénignes. Le Senobright entre donc en compétition avec l'IRM sur le dépistage du cancer du sein. Mais il a l'avantage d'être couplé avec le mammographe numérique à capteur plan* qui produit moins d'irradiations et une meilleure qualité d'image. C'est, sans doute, moins traumatisant. » Pour autant, l'IGR poursuit actuellement une étude pour déterminer, cliniquement, si les performances du Senobright sont équivalentes à celle de l'IRM.

La Voix du Nord

Un anticorps monoclonal contre le diabète ?
Vendredi, 28/01/2011 - 00:00

Une alliance USA-Allemagne - les laboratoires Lilly et Boehringer Ingelheim - vient de se constituer pour développer ce qui pourrait être le premier traitement antidiabétique par anticorps monoclonal anti-TGF béta. « Le TGF béta est un facteur de croissance que l'on pense impliqué dans l'apparition de la fibrose.

Celle-ci participe à la réduction de la fonction rénale qui aboutit à une insuffisance rénale » explique le Dr Myriam Rosilio, directrice de l'unité médicale d'endocrino-diabétologie chez Lilly France. « L'anticorps monoclonal qui cible ce facteur de croissance pourrait freiner l'entrée en dialyse des diabétiques atteints d'insuffisance rénale. » C'est un objectif majeur car le traitement par dialyse est particulièrement lourd, et affecte gravement la qualité de vie. Or chaque année en France, 3 000 diabétiques débutent une dialyse.

Pour l'instant, il n'existe pas de traitement efficace contre cette complication du diabète. « Une fois que le patient est entré en pré-dialyse, on ne peut rien faire et le seul traitement de l'insuffisance rénale chronique terminale est la dialyse ou la greffe de rein » souligne Myriam Rosilio.

Cet anticorps monoclonal est donc réellement porteur d'espoir... mais un espoir lointain. Les essais cliniques sont actuellement dans une phase précoce, la phase II - et le nouveau traitement ne sera pas sur le marché avant 7 ou 8 ans. A condition que tous les essais soient concluants. Ce nouveau médicament présente lui aussi un intérêt dans les complications rénales.

L'alliance des deux laboratoires leur permettra aussi de développer et de commercialiser ensemble d'autres molécules antidiabétiques, telle que la linagliptine.

Destination santé

Les neurones communiquent comme sur un réseau social
Vendredi, 28/01/2011 - 00:00

La revue Neuron du mois dernier présente les travaux d'une équipe de chercheurs. En mettant un marqueur fluorescent sur un gène lié à l'activité neuronale, ils ont pu observer chez des souris quels neurones étaient à l'origine du fonctionnement cérébral. Grâce à des technologies d'imagerie médicale, ils ont pu observer les neurones qui s'allumaient lorsqu'ils s'activaient. Ils ont également réussi à isoler les neurones en activité et à l'enregistrer.

La métaphore employée par les scientifiques est très parlante. En comparant les neurones actifs aux membres des réseaux sociaux tels Facebook, il devient beaucoup plus simple de comprendre la découverte qui vient d'être faite. Ils expliquent que certains amis de notre réseau sont très peu connectés et interviennent peu. D'autres, au contraire, sont souvent connectés et mettent très régulièrement à jour leur statut et les informations les concernant.

Les neurones, comme ces derniers, sont beaucoup plus connectés à d'autres ; de plus, tout en échangeant davantage d'informations et de données, ils sont aussi plus susceptibles d'en recevoir d'autres de neurones (ou de membres), eux aussi particulièrement actifs.

Grâce à ces résultats, les scientifiques espèrent parvenir à comprendre pourquoi certains neurones sont plus actifs que d'autres et ainsi déterminer le rôle éventuel qu'ils jouent dans le système de l'apprentissage.

Maxisciences

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Un Français sur six a plus de 65 ans et l'espérance de vie continue d'augmenter
Vendredi, 28/01/2011 - 00:00

Les personnes de 65 ans ou plus représentent 16,8 % de la population, proportion comparable à la moyenne européenne}}. L'Allemagne reste cependant le pays où le poids des seniors est le plus élevé ; l'Irlande celui où il est le plus faible. En Allemagne, 20,7 % de la population a plus de 65 ans au 1er janvier 2010, soit quasiment deux fois plus qu'en Irlande (11,3 %).

En France, les générations nombreuses du baby-boom (1946-1973) n'ont pas encore atteint l'âge de 65 ans. Mais dès l'an prochain, les premiers baby-boomers atteindront cet âge, ce qui contribuera à augmenter fortement la part des seniors dans la population française.

Toujours selon l'Insee, en 2010, 545.000 décès sont survenus en France, dont 535 000 en métropole. L'année 2010 se situe donc dans la moyenne de ces dernières années, si l'on exclut l'épisode de canicule de 2003 et l'année suivante au cours de laquelle, par effet de rattrapage, un très faible nombre de décès avait été enregistré.

A noter que la mortalité diminue à tous les âges en 2010. Alors que la proportion de personnes âgées augmente, le nombre de décès reste encore relativement faible, très proche de son niveau d'il y a dix ans (541 000 décès en 2000). Si les risques de mortalité étaient restés à chaque âge ceux de l'année 2000, le nombre total de décès aurait été supérieur de 120 000 à celui effectivement observé en 2010. L'espérance de vie à la naissance progresse de quatre mois en 2010, aussi bien pour les hommes que pour les femmes.

En 2008 et 2009, les gains d'espérance de vie avaient été très modérés et la forte hausse de l'année 2010 peut être considérée comme un rattrapage. Depuis quinze ans, toujours selon les spécialistes de l'Insee, l'espérance de vie progresse en effet très régulièrement, notamment pour les hommes, en dehors de quelques accidents dus aux aléas climatiques.

L'espérance de vie des Françaises (84,4 ans en 2009) reste largement supérieure à celle des Européennes (82,6 ans). Seules les Espagnoles peuvent espérer vivre aussi longtemps. Celle des hommes (77,7 ans en 2009) se situe également au-dessus de la moyenne européenne (76,7 ans en 2009) mais reste légèrement au-dessous de la moyenne de l'Europe des « 15 ».

Au 1er janvier 2011, la population française dépasse pour la première fois les 65 millions d'habitants : 63,1 millions de personnes vivent en métropole et 1,9 million dans les départements d'outre-mer (DOM). C'est dix millions d'habitants de plus qu'en 1981, et vingt millions de plus qu'en 1958.

Insee

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top