RTFlash

RTFLASH Recherche & Technologie
NUMERO 454
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Novembre 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet pourrait saturer d'ici 2 ans
Internet : les Japonais délaissent l'ADSL au profit de la fibre optique
Les FAI devront collaborer pour installer leur fibre optique
Avenir
Des robots humanoïdes sensibles à la douleur pour les dentistes japonais
Matière
Le Sahara générateur d'électricité ?
Le Portugal va devenir le premier producteur mondial d'énergie des mers
Stocker l'énergie solaire sous forme de chaleur
Terre
Accélération de l'augmentation du CO2 atmosphérique
Découverte d'un mécanisme biologique majeur de consommation de CO2 dans les océans
Le réchauffement climatique est une calamité pour les pays pauvres
Le chikungunya, une nouvelle menace pour l'Europe ?
Vivant
Cellules souches : une percée majeure
Détection de cancers à l'aide d'un composant microfluidique implantable
Radiothérapie : l'ère de la haute précision arrive
Obésité : vers un nouveau traitement
Edito
La voiture électrique de nouvelle génération sera-t-elle enfin un succès commercial ?



En France, le secteur des transports routiers a émis près de 140 millions de tonnes de CO2, soit 20 % de plus qu'en 1990 : avec près d'un quart des émissions, c'est le premier contributeur en CO2 du pays, devant le résidentiel-tertiaire (23 %). La voiture particulière génère à elle seule près de la moitié des émissions dues aux transports routiers et représente au final 13,3 % des rejets de CO2. De plus, l'automobile reste la première source de pollution dans les grandes villes et participe ainsi au développement de maladies comme l'asthme et les bronchites chroniques, notamment chez les plus fragiles.

Convaincre les automobilistes d'abandonner la voiture à essence tout en diminuant l'impact sur l'environnement de l'automobile, c'est le pari d'une nouvelle voiture entièrement électrique, la "BlueCar" qui vient d'obtenir son homologation pour sillonner les routes françaises et qui devrait être commercialisée en 2009 aux alentours de 15 000 ?. Sur tous les véhicules électriques autonomes, le point faible demeure la batterie : coûteuse, lourde, volumineuse, de faible autonomie et faible puissance.

La batterie qui équipe la BlueCar a été développée par Batscap, filiale du groupe Bolloré et d'EDF. Fort d'une équipe d'une centaine de chercheurs, ingénieurs et techniciens et bénéficiant d'équipements de recherche et de production considérables, BatScap a, au terme de plus de douze années de travaux, mis au point une batterie basée sur la technologie Lithium-Métal-Polymère (LMP). De conception inédite, cette batterie, cinq fois plus légère que les batteries au plomb, présente des qualités uniques de légèreté, de compacité et de sécurité : sa durée de vie est de 10 ans ; elle se recharge en seulement quatre heures et assure à la BlueCar une autonomie de 250 km et une vitesse de pointe de 130 km/h ! A comparer avec les modèles actuels qui proposent moins de 100 km d'autonomie pour une vitesse de pointe inférieure à 100 km/h.

Cette voiture, conçue pour un usage urbain, peut accueillir 5 passagers dont, ce qui n'est pas commun, trois à l'avant et deux à l'arrière avec possibilité de coucher les sièges arrière pour donner plus de volume au coffre.

Le coût d'utilisation est réduit puisqu'il faudra débourser, via le secteur, un euro pour 100 km de route contre environ 10 euros actuellement pour les voitures à essence. Son faible gabarit (3,30 m de long) donne la possibilité de trouver des places de stationnement plus facilement en plus de celles gratuites et réservées aux voitures électriques dans de nombreux parkings.

Reste à voir si cette voiture électrique très performante mais relativement chère et résolument urbaine trouvera son marché et séduira suffisamment d'automobilistes pour devenir un succès commercial et rendre enfin crédible auprès du grand public le concept de « véhicule propre ».

Un rapide calcul montre que cette voiture permet, sur les 10 années de sa durée de vie de réaliser environ 10 000 euros d'économie en carburant (pour un kilométrage moyen annuel de 11 000 km et en prenant comme base 1,40 euro le litre de super), ce qui représente les deux tiers de la valeur d'achat de la voiture. en outre, la Bluecar permet d'économiser 15 tonnes de CO2 en 10 ans. 300 000 (soit environ 1 % de notre parc automobile) de ces voitures électriques permettraient donc, en théorie, d'économiser environ 4 millions de tonnes de CO2 par an, soir approximativement 1 % des émissions annuelles de CO2 de la France (417 millions de tonnes en 2005).

Dans la réalité, les choses sont plus compliquées car l'électricité produite en France n'est pas totalement non émettrice de CO2 mais le bénéfice pour l'environnement serait tout de même très sensible. Néanmoins, seul un puissant dispositif d'incitation fiscal, permettant de compenser la différence de prix de vente entre ce type de véhicule et une voiture à essence de catégorie équivalente, pourrait permettre à cette nouvelle génération de voiture électrique d'être achetée en masse par le grand public. Il faut donc souhaiter que l'Etat, dans la lancée du "Grenelle" de l'environnement, propose un tel dispositif et soit capable de raisonner à long terme et de prendre en compte l'ensemble des bénéfices pour la collectivité qu'entraîne le remplacement des voitures thermiques par ces voitures électriques.

Cette nouvelle génération de véhicules électrique très performants pourrait aussi être proposée à la location en libre service, dans le cadre d'une utilisation urbaine, par les grandes villes afin de permettre une véritable alternative à la voiture thermique. Là aussi, le volontarisme politique sera nécessaire pour convaincre les citadins d'utiliser en location ce type de véhicule en centre-ville plutôt que prendre leur voiture classique. on peut même aller plus loin et imaginer que, dans certains secteurs urbains, à certaines heures ou en cas de pics de pollution, seuls les véhicules électriques ou hybrides soient autorisés à circuler de manière à réduire la pollution et les émissions de CO2.

Enfin, les exemples étrangers montrent que seules des législations assorties d'objectifs contraignants dans le temps et complétées de dispositifs fiscaux incitatifs peuvent permettre un véritable décollage des véhicules propres à une échéance raisonnable. Cette nouvelle génération de voitures électriques et hybrides rechargeables constitue une solution de transition indispensable en attendant que les voitures utilisant de l'hydrogène (d'abord indirectement, via un reformeur puis à plus long terme par la mise en place d'une infrastructure de distribution) puissent être produites en masse à un prix compétitif et acceptable par le consommateur, ce qui ne sera pas le cas avant au moins 2025 ou 2030 tant les défis industriels et techniques à surmonter restent considérables.

Il reste qu'un développement rapide et massif de notre parc de véhicules électriques ne peut être envisagé que si l'augmentation correspondante de notre production électrique est assurée par des technologies elles mêmes non émettrices de CO2, éolien, solaire, biomasse ou nucléaire. Enfin, il ne sert à rien d'utiliser des véhicules plus propres si, dans le même temps, on ne lutte pas contre l'étalement urbain et si on ne diminue pas "à la source" la demande de transport individuel en réorganisant le travail et les activités économiques. On voit donc à quel point urbanisme, transports, énergie et économie sont intimement liés et interdépendants. La technologie seule ne suffira pas à relever le défi majeur du réchauffement climatique mais elle peut y contribuer et il appartient aux pouvoirs publics et aux collectivités locales de tout mettre en oeuvre pour promouvoir l'utilisation par un large public de la voiture électrique de nouvelle génération.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Internet pourrait saturer d'ici 2 ans
Vendredi, 30/11/2007 - 00:00

Vidéos, essor du pair-à-pair et téléchargement à gogo de fichiers, musique numérique... Internet est un réseau de plus en plus sollicité pour des usages très gourmands en bande passante et sans cesse grandissants. Selon le cabinet d'analyse américain Nemertes Research Group, le réseau pourrait tout simplement saturer dès 2010, si les opérateurs n'investissement pas au moins 137 Md$ en infrastructure pour augmenter la capacité en bande passante, soit plus du double planifié par les acteurs du marché.

Pour arriver à de telles conclusions, le cabinet d'analyse a utilisé la loi de Moore en se basant sur des chiffres qui situent relativement bien le problème. Selon l'Internet Innovation Alliance (IIA), les utilisateurs du Net génèreront 161 exabytes de nouvelles données cette année. Quand on sait qu'un exabyte équivaut à environ 1,1 milliard de gigaoctets, soit, toujours selon l'IAA, l'équivalent de 50 000 années de vidéo, on comprend aisément qu'il faut trouver un remède à cette consommation démesurée et pourtant essentielle au développement du commerce sur Internet.

Pour Nemertes Research Group, la solution doit en partie venir des opérateurs, ces derniers se devant investir plus qu'initialement prévu dans les infrastructures. Mais pas seulement. Le cabinet estime en effet qu'il appartient également aux gouvernements de mettre en place des mesures pour favoriser le développement des infrastructures, tels que des accords avec les professionnels du bâtiment qui reçoivent des aides actuellement aux Etats-Unis dans le cadre d'un programme pour construire des maisons à prix abordable. Ces accords pourraient inclure l'obligation de raccorder la maison en haut débit au réseau.

R&T

Internet : les Japonais délaissent l'ADSL au profit de la fibre optique
Vendredi, 30/11/2007 - 00:00

La fibre optique est en voie de dépasser l'ADSL au Japon. Selon une étude, l'offre par fibre optique devrait séduire en un an plus de 4 millions de souscripteurs supplémentaires. L'institut de recherches spécialisé Yano prévoit que le nombre de souscripteurs à une offre par fibre devrait augmenter de 4,33 millions pour s'élever à 13,13 millions, tandis que celui des abonnés à un service ADSL devrait reculer de 720.000 à 13,29 millions.

Au total, le marché japonais devrait compter à la fin de l'année budgétaire (close au 31 mars 2008) 30,33 millions d'abonnés à Internet par une liaison à haut-débit, soit 3,89 millions de plus que l'année précédente. Ainsi, l'ADSL devrait s'octroyer 44 % du marché, au coude à coude avec la fibre optique avec 43 %. Les 13 % restants revenant à une connexion via le câble.

Il semble que la fibre optique soit parvenue à se faire une place dans ce secteur si concurrentiel en proposant des offres tarifaires très incitatives. Mais les performances techniques nettement supérieures à l'ADSL et le déploiement rapide des infrastructures optiques dans tout le pays expliquent aussi cette tendance. Les abonnés ADSL n'hésitent plus à migrer pour obtenir un accès plus rapide et une offre de services plus large, compte tenu d'une différence de prix très faible. Pour les prochaines années, Yano prévoit ainsi une augmentation du nombre d'abonnements à une offre par une fibre optique directe de quatre millions en rythme annuel. Le Japon compte près de 50 millions de foyers et le gouvernement vise que 90 % d'entre eux s'abonnent d'ici 2010 à un service d'accès à Internet par fibre optique directe.

Tribune

Les FAI devront collaborer pour installer leur fibre optique
Vendredi, 30/11/2007 - 00:00

Successeur inéluctable de l'ADSL, le très haut-débit par fibre optique est la nouvelle pomme de discorde entre les opérateurs télécoms. Certains se disputent déjà les immeubles des grandes villes pour s'y implanter au plus vite, avant que le secteur ne soit réglementé. Mais ces fournisseurs d'accès à Internet (FAI) vont bientôt devoir travailler « main dans la main » et partager leurs installations au pied des immeubles : telle est la volonté de l'Arcep (Autorité de régulation des communications électroniques et des postes), qui livrait le 28 novembre les premières orientations de la future régulation de la fibre en France. En échange, l'implantation des opérateurs dans les immeubles pourrait être facilitée auprès des syndics, grâce à des recommandations élaborées par le régulateur des télécoms français, et à une évolution de la législation.

Selon l'Arcep, la mutualisation d'une partie des réseaux est indispensable, compte tenu du coût énorme du déploiement de la fibre optique en France (plus de 10 milliards d'euros). De plus, les bailleurs et les gestionnaires d'immeubles ne veulent pas voir s'installer plusieurs réseaux dans leur immeuble. Actuellement, certains préfèrent refuser l'accès à tout opérateur, n'ayant pas la garantie que sa fibre pourra être utilisée plus tard par d'autres FAI. Le régulateur demande donc un ajustement législatif, qui l'autoriserait à obliger les opérateurs à partager la partie terminale de leur réseau fibre : les équipements situés au pied des immeubles (d'où partiront ensuite les fibres de chaque opérateur, vers les logements) mais aussi, au départ, les « répartiteurs optiques », qui alimentent un quartier entier.

Pour faire passer la pilule auprès des opérateurs, l'Arcep estime qu'il serait bon de faciliter leur accès à l'intérieur des immeubles, c'est-à-dire obtenir plus rapidement l'accord des syndics. Le régulateur planche déjà sur l'élaboration d'un guide pratique à leur intention, avec par exemple une convention type, pour les informer sur le cadre en vigueur. Il devrait être prêt pour la fin du premier trimestre 2008.

Mais l'Arcep espère que la législation permettra d'aller plus loin : « On pourrait assouplir, par exemple, les conditions de vote dans les assemblées générales de copropriétaires. Sans aller non plus jusqu'au modèle italien, où le choix d'un seul habitant donne le droit à un opérateur de s'implanter. Il ne faut pas que ce soit la jungle... », illustre Gabrielle Gauthey, membre du collège de l'Arcep. Le régulateur n'exclut pas non plus la possibilité d'un « droit à la fibre », calqué sur le droit à l'antenne télévisuelle, pour que n'importe qui puisse demander l'installation de la fibre dans l'immeuble, en échange de certaines garanties par l'opérateur.

OI

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots humanoïdes sensibles à la douleur pour les dentistes japonais
Vendredi, 30/11/2007 - 00:00

Les futurs dentistes japonais vont pouvoir s'entraîner à soigner des caries sur des robots humanoïdes qui poussent des cris de douleur quand la roulette touche un nerf, grâce à une créature conçue par une équipe de roboticiens nippons. Le prototype, présenté lors d'une exposition internationale dans la banlieue de Tokyo, a les traits d'une jolie jeune femme aux cheveux longs, vêtue d'un pull rose et d'un pantalon blanc, qui peut bouger les mains et les yeux pour exprimer la douleur. "Simroïd", qui mesure 1,60 mètre, sait aussi dire "ça fait mal" et froncer les sourcils lorsque le praticien manque sa cible ou touche une zone sensible.

Tatsuo Matsuzaki, l'un des responsables de la société Kokoro qui a mis au point le système électronique et l'enveloppe humanoïde, a expliqué que le robot avait été conçu pour servir de cobaye aux étudiants en chirurgie dentaire. "Simroïd présente un tel réalisme que les apprentis dentistes vont pouvoir mesurer les réactions des patients et être ainsi capables d'améliorer leur technique en la considérant non comme un objet mais comme un être humain", a-t-il ajouté. "Cela permet de partager la souffrance du patient, sans blesser personne", selon M. Matsuzaki.

Naotake Shibui, professeur à l'Ecole de médecine japonaise de Tokyo, qui a déjà intégré le robot humanoïde dans les cours depuis septembre, estime pour sa part que "Simroïd" peut aider les dentistes à "apprendre à communiquer avec les patients". "La technique des soins est importante mais il est également utile de ressentir ce que c'est que d'être un patient", a-t-il expliqué. Et connaissant la propension des étudiants à la plaisanterie, les ingénieurs ont prévu de doter la jeune humanoïde d'un capteur placé sur la poitrine qui permet de détecter tout geste déplacé. Ce salon de la robotique, qui présente aussi des automates industriels, se tient tous les deux ans. Il doit se terminer par un combat de robots lutteurs.

Google

^ Haut
Matière
Matière et Energie
Le Sahara générateur d'électricité ?
Vendredi, 30/11/2007 - 00:00

L'avenir de l'énergie dans les pays du sud de la Méditerranée n'est pas l'atome, mais le soleil. Un groupe d'ingénieurs allemands en a convaincu le gouvernement de Berlin et des partenaires du pourtour de la mer. Leurs arguments progressent aussi à Bruxelles, où deux parlementaires européens, Rebecca Harms et Anders Wikjman, ont organisé un colloque le 28 novembre sur un des projets technologiques les plus ambitieux de l'époque.

L'idée est forte et simple : l'énergie solaire illuminant le Sahara est très abondante. Si l'on pouvait en récupérer une fraction, celle-ci couvrirait une part notable des besoins en énergie des pays méditerranéens, mais aussi de l'Europe. Or les technologies solaires ont suffisamment progressé pour que cette perspective devienne réaliste.

Sur le papier, le raisonnement est imparable : "Les déserts chauds couvrent environ 36 millions de km2 sur les 149 millions de km2 de terres émergées de la planète, explique le physicien Gerhard Knies, inspirateur du projet TREC (Trans-Mediterranean Revewable Energy Cooperation). L'énergie solaire frappant chaque année 1 km2 de désert est en moyenne de 2,2 térawattheures (TWh), soit 80 millions de TWh par an. Cela représente une quantité d'énergie si considérable que 1 % de la surface des déserts suffirait pour produire l'électricité nécessaire à l'ensemble de l'humanité." Dès lors, il devrait être possible, en multipliant les centrales solaires dans le désert, d'alimenter les pays riverains, voire les pays européens.

L'idée, dans l'air depuis longtemps, commence à se formaliser en 2002, lorsque Gerhard Knies, convaincu de la première heure, contacte la section allemande du Club de Rome. Une réunion d'experts a lieu début 2003 : le gouvernement, séduit, accepte de financer une étude approfondie. Celle-ci, menée par le Centre aéronautique et spatial allemand (DLR, l'équivalent du CNES français) et rédigée par l'ingénieur Franz Trieb, est publiée en 2005 et 2006. Elle conclut à la faisabilité du projet avec les technologies existantes.

Concrètement, quelles infrastructures cela impliquerait-il ? La production d'énergie serait assurée par des centrales thermiques à concentration, dans lesquelles des miroirs font converger la lumière du soleil. La chaleur de celle-ci peut échauffer de la vapeur (employée pour faire tourner des turbines), mais elle peut aussi être stockée dans des réservoirs de sels fondus qui la restituent pendant la nuit. L'énergie résiduelle de la production d'électricité pourrait également servir, par le procédé dit de cogénération, à dessaler l'eau de mer - une préoccupation importante pour les pays du sud de la Méditerranée. Les experts estiment par ailleurs que le transport de l'électricité vers les pays du Nord, malgré d'inévitables pertes en ligne, resterait avantageux, dans la mesure où l'irradiation est deux fois supérieure dans le désert à ce que l'on observe en Europe.

Le point-clé du projet, bien évidemment, reste sa rentabilité économique. D'après ses défenseurs, celle-ci serait au rendez-vous. "Aujourd'hui, une centrale solaire thermique produit l'électricité à un coût situé entre 0,14 et 0,18 euro par kilowattheure (kWh). Si une capacité de 5 000 mégawatts (MW) était installée dans le monde, le prix pourrait se situer entre 0,08 et 0,12 euro par kWh, et pour 100 GW, entre 0,04 et 0,06 euro par kWh", précise Franz Trieb.

"L'idée de TREC tient la route, renchérit Alain Ferrière, spécialiste de l'énergie solaire au CNRS. Elle table sur le fait que l'on a besoin de développer la technologie pour en faire baisser le coût." Pour l'instant, en effet, les centrales solaires se comptent sur les doigts de la main, en Espagne, aux Etats-Unis, ou en Allemagne. De plus, elles s'installent souvent sur des zones agricoles ou végétales, ce qui, d'un point de vue environnemental, n'est guère satisfaisant. La centrale de 40 MW de Brandis, en Allemagne, couvrira ainsi de panneaux solaires 110 hectares de bonne terre. Dans le désert, ce gaspillage d'espace est moins préoccupant. D'où l'intérêt croissant porté au concept de TREC par plusieurs compagnies d'électricité en Egypte et au Maroc. Et, plus encore, en Algérie.

Détenteur d'un des potentiels solaires les plus importants de tout le bassin méditerranéen, ce pays a annoncé, en juin, un plan de développement assorti d'un calendrier, qui devrait être mis en oeuvre par la compagnie NEAL (New Energy Algeria). Le 3 novembre, l'acte fondateur du projet a été effectué par le ministre de l'énergie Chakib Khalil, qui a posé la première pierre d'une installation hybride, comprenant une centrale à gaz de 150 MW et une centrale solaire de 30 MW, dans la zone gazière de Hassi R'mel (Sahara). Son ouverture est prévue pour 2010. Une première étape vers ce qui pourrait, une fois réduits les coûts de production, devenir à terme une installation majoritairement solaire.

Le 13 novembre, une autre étape a été franchie : le PDG de NEAL, Toufik Hasni, a annoncé le lancement du projet d'une connexion électrique de 3 000 km entre Adrar, en Algérie, et Aix-la-Chapelle, en Allemagne. "C'est le début du réseau entre l'Europe et le Maghreb. Il transportera de l'électricité qui, à terme, sera solaire à 80 %", affirme M. Hasni, interrogé par Le Monde. L'Europe s'étant fixé un objectif de 20 % d'électricité d'origine renouvelable d'ici à 2020, cette perspective pourrait intervenir à point nommé. Plus globalement, le développement de l'énergie solaire, soulignent ses promoteurs, pourrait servir la cause de la paix en devenant un substitut crédible à l'énergie nucléaire.

LM

Le Portugal va devenir le premier producteur mondial d'énergie des mers
Vendredi, 30/11/2007 - 00:00

Pour ce faire, le Portugal est en train de se doter de machines Pelamis semi émergées, nom d'origine latine qui signifie serpent de mer, conçues par une entreprise écossaise, Pelamis Wave Power (PWP). Cette machine est composée de plusieurs cylindres de 3,5 mètres de circonférence, chacun de la longueur d'un wagon de train et reliés entre eux dans la direction des vagues sur une longueur totale d'environ 150 mètres. Les vagues provoquent la montée et la descente du Pelamis dans une séquence de mouvements ressemblants à ceux d'un serpent. Au niveau des charnières, des marteaux hydrauliques pompent une huile à haute pression et fournissent une énergie qui est convertie en électricité par un générateur.

Le projet Pelamis fournira à ses débuts 2,25 megawatts (MW) d'énergie propre au large d'Aguçadoura, dans le Nord du Portugal, de quoi fournir l'équivalent énergétique de 1 500 foyers

A terme, le projet sera capable de générer l'énergie de 15 000 maisons, économisant ainsi l'émission de 60 000 tonnes de CO2 par an.Disposant de trois appareils au départ, Enersis espèe porter la ferme à vagues à 30 machines dès l'année prochaine pour atteindre en quelques années une centaine de machines pour une production de 500 MW qui rendrait le projet rentable. Ce projet s'inscrit bien dans la politique volontariste du Portugal pour développer les énergies renouvelables. Le premier ministre portugais José Sócrates a récemment relevé le taux des énergies renouvelables que le pays devra produire d'ici 2010 en passant de 39 % à 45 %. Centré sur l'énergie éolienne, le manque de place sera à terme un problème pour le Portugal qui doit alors trouver d'autres sources d'énergies renouvelables.

Enerzine

Stocker l'énergie solaire sous forme de chaleur
Vendredi, 30/11/2007 - 00:00

Pour la première fois, des scientifiques de l'institut de thermodynamique technique du centre de recherche aérospatial allemand (DLR) sont parvenus à mettre en service un accumulateur de chaleur couplé à une centrale thermoélectrique solaire. Développé par l'équipe de Wolf-Dieter Steinmann en coopération avec 13 partenaires de la recherche et de l'industrie (en provenance de 5 pays), l'accumulateur vise à stocker, sous forme de chaleur latente, une partie de l'énergie solaire récupérée par la centrale. Grâce à ce système de stockage, la centrale doit pouvoir produire de l'électricité la nuit ou par temps nuageux.

L'accumulateur (à sel de nitrate) est constitué de plusieurs couches de graphite et de matériaux, caractérisés par un changement de phase à température quasi-constante, qui permettent un stockage thermique par chaleur latente. Installé sur la plateforme de recherche solaire d'Almeria en Espagne, l'appareil délivre une puissance de 100kW avec des températures de vapeur d'eau dépassant les 200 degrés Celcius. Il est capable de stocker la chaleur pendant 10 heures et d'en restituer, en temps voulu, jusqu'à 90 %.

Parallèlement, les chercheurs du DLR souhaitent appliquer leur concept de stockage à une installation de 1MW et atteindre des températures de stockage de plus de 300 degrés Celcius."Avec le concept de l'accumulateur de chaleur latente, on est parvenu à réaliser la condition fondamentale d'utilisation de la chaleur solaire pour les procédés industriels", explique Harald Pandl du DLR.

TS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Accélération de l'augmentation du CO2 atmosphérique
Vendredi, 30/11/2007 - 00:00

Une récente étude, menée par une équipe internationale à laquelle a participé le Laboratoire des sciences du climat et de l'environnement (CEA-CNRS-UVSQ), permet d'établir que l'accélération de l'augmentation du CO2 atmosphérique constatée depuis 2000 est causée par trois facteurs principaux : une croissance économique soutenue et plus intensive en émissions de CO2 ainsi qu'un affaiblissement de la capacité d'absorption du CO2 par les puits de carbone naturels.

L'étude montre une récente accélération de l'augmentation de la teneur en CO2 de l'atmosphère. Celle-ci est principalement causée par une augmentation des émissions de gaz carbonique. Cet accroissement des rejets est lié à une croissance économique rapide et à l'augmentation de la quantité de carbone fossile nécessaire à la croissance.

De plus, l'étude montre que la récente accélération du CO2 atmosphérique observée entre 2000 et 2006 a également pour cause une réduction de l'efficacité des puits naturels de carbone, qui absorbent une partie du gaz carbonique émis dans l'atmosphère. Leur capacité d'absorption a en effet décru au cours des 50 dernières années d'environ 10%. « La réduction d'efficacité des puits naturels de carbone contribue à l'augmentation rapide du CO2 atmosphérique observée récemment » indique Philippe Ciais, du Laboratoire des sciences du climat et de l'environnement, l'un des auteurs de l'étude.

« Cette réduction d'efficacité des puits de carbone dans l'océan et la végétation, est causée notamment par des changements de circulation dans l'océan Austral et, peut-être, par des sécheresses dans l'hémisphère nord. Elle est responsable de près de 20% de l'accélération récente de la teneur atmosphérique en CO2 ».

SG

Découverte d'un mécanisme biologique majeur de consommation de CO2 dans les océans
Vendredi, 30/11/2007 - 00:00

Les organismes marins microscopiques connus sous le nom de plancton augmentent leur consommation de carbone lorsqu'ils sont soumis à des concentrations plus élevées en CO2 dissous, d'où une atténuation de l'effet de serre à l'échelle mondiale. Un groupe international de scientifiques dirigés par l'Institut Leibniz de sciences marines de Kiel (Allemagne) a étudié pour la première fois ce mécanisme biologique au sein d'une communauté planctonique.

Lors de simulations d'un océan futur, ils ont mesuré une hausse de la consommation de CO2 par les planctons pouvant atteindre jusqu'à 39 %. Les retombées positives inattendues pour le système climatique de la planète nourrissent en même temps des craintes quant aux risques considérables qu'elles pourraient constituer pour les océans et leurs écosystèmes. L'étude attire l'attention sur trois principales sources d'inquiétude : une plus grande consommation de CO2 par le plancton accélérera le taux d'acidité océanique dans les couches les plus profondes, elle mènera également à une réduction des concentrations en oxygène dans les profondeurs des océans et aura une influence néfaste sur la qualité nutritionnelle du plancton. Cette dernière conséquence pourrait entraîner le déséquilibre de tous les réseaux alimentaires océaniques.

Les conclusions de cette étude furent publiées le 11 novembre 2007 dans la revue scientifique internationale « Nature ».

Les océans du monde entier constituent les plus grands puits de CO2 anthropique de la planète. Jusqu'à présent, ils ont absorbé près de la moitié du CO2 émis lors de la combustion de carburants fossiles. Cependant, jusqu'à quand les océans seront-ils en mesure de modérer la constante augmentation de CO2 atmosphérique ? Les modèles de simulation du système climatique mondial actuels ne prennent pas en compte la réaction des organismes marins ni les processus sur lesquels ils ont un impact. Le CO2 peut-il être un fertilisant dans l'océan ?

L'équipe de scientifiques a mesuré une augmentation de l'absorption atteignant jusqu'à 39 % par rapport aux taux actuels. « Nous nous attendions à ce que les organismes observés montrent différentes réactions face à la modification de la quantité de CO2 présente dans le mésocosme. Mais ce qui nous a réellement surpris, c'est l'ampleur de ces réactions. En réalité, nous pouvons dorénavant affirmer avec certitude que la modification des données biologiques des océans est en mesure d'affecter le système climatique mondial. »

La dernière étape du projet de recherche consistait à découvrir les conséquences d'une prolifération rapide de la biomasse. Une fois de plus, les expériences menées dans le Raunefjord ont apporté quelques éléments de réponse : le CO2 supplémentaire attaché à la matière organique descend vers les profondeurs à la suite du pic de floraison des algues. A l'avenir, la fertilisation au CO2 du plancton marin pourrait se révéler bénéfique dans la lutte contre le changement climatique.

Le gaz à effet de serre consommé par le plancton et retiré de la surface des océans lorsque les cellules mourantes descendent dans les profondeurs permet d'absorber encore davantage de dioxyde de carbone. D'une certaine manière, ces organismes microscopiques servent de bandes transporteuses pour évacuer le dioxyde de carbone de la surface et l'acheminer vers les grands fonds. Ce qui ressemble à un moyen miraculeux de modérer l'effet de serre atmosphérique pourrait cependant être catastrophique pour les écosystèmes des grands fonds. La décomposition de la biomasse supplémentaire nécessitera en effet davantage d'oxygène, entraînant des problèmes majeurs pour les animaux marins vivants à ces profondeurs. De plus, ce convoyeur biologique provoquerait une accélération de la vitesse d'acidification des abysses en raison du transport plus rapide du CO2 vers les profondeurs.

Nature

Le réchauffement climatique est une calamité pour les pays pauvres
Vendredi, 30/11/2007 - 00:00

L'ONU lance un cri d'alarme dans son rapport annuel sur le développement humain. «Pour la première fois de l'histoire, nous devrions assister à un boom de la pauvreté dans le monde, une évolution d'autant plus désolante que la situation des plus démunis allait en s'améliorant ces quinze dernières années», a expliqué hier Kevin Watkins lors du lancement du rapport, au Brésil. Si le réchauffement climatique concerne toute la planète, il a déjà commencé à frapper les 2,6 milliards de personnes qui vivent sous le seuil de pauvreté, soit avec moins de 2 dollars par jour.

Le rapport estime ainsi qu'entre 2000 et 2004, sur les 262 millions de personnes par an qui ont été affectées par des désastres climatiques, 98 % habitent dans des pays en voie de développement. Et sur elles l'impact de telles catastrophes est beaucoup plus durable. Sans accès à un système d'assurance formel, les plus pauvres mettent en place des stratégies de résistance dommageables au développement. «Face à la catastrophe, ils éliminent des repas, réduisent les dépenses de santé et retirent les enfants de l'école. C'est une marche en arrière irrattrapable», souligne Kevin Watkins.

Le rapport identifie cinq mécanismes à travers lesquels le changement climatique peut stopper, voire faire reculer le développement humain. La production agricole, d'abord : les zones touchées par la sécheresse en Afrique subsaharienne devraient, par exemple, augmenter de 60 à 90 millions d'hectares et les zones arides subir des pertes de 26 milliards de dollars américains d'ici à 2060, plus que l'aide bilatérale versée en 2005.

La raréfaction d'eau devrait, elle, concerner 1,8 milliard de personnes supplémentaires d'ici à 2080, en particulier en Asie centrale, en Chine du Nord ou dans les Andes latino-américaines. Quant à la hausse du niveau des mers, elle met en péril plus de 70 millions de personnes vivant au Bangladesh, 6 millions en Basse-Égypte et 22 millions au Vietnam, sans parler de la multiplication des tempêtes tropicales conséquentes.

Vient ensuite le bouleversement de la biodiversité : un réchauffement de 3° C menacerait d'extinction 20 à 30 % des espèces terrestres, privant de nourriture des populations rurales. Enfin, le rapport souligne la dégradation de la santé publique, avec le surgissement de grandes pandémies. Le paludisme, qui tue déjà un million de personnes par an, pourrait en frapper quelque 400 millions d'autres, alors que la dengue, stimulée par le changement climatique, revient en force en Amérique latine et en Asie de l'Est.

ONU

Le chikungunya, une nouvelle menace pour l'Europe ?
Vendredi, 30/11/2007 - 00:00

L'apparition d'une épidémie de chikungunya en Italie cet été, une première sur le continent européen, fait craindre une nouvelle menace sanitaire dans les pays occidentaux, liée au réchauffement de la planète et à la mondialisation. Près de 300 cas de chikungunya, affection courante en Afrique et en Asie qui a notamment frappé La Réunion ces dernières années, ont été recensés en Italie, où seuls des cas isolés de la maladie avaient été enregistrés par le passé. "Nous avons été très surpris", avoue Stefania Salmaso, directrice du Centre d'épidémiologie à l'Institut national italien de la santé. "Personne ne s'attendait à ce qu'un événement aussi inhabituel se produise."

Si cette épidémie résulte pour une grande part d'un accroissement des échanges commerciaux et des voyages, certains experts y voient aussi un effet du réchauffement favorisant l'apparition en Europe de maladies originaires des tropiques.

Récemment, les autorités sanitaires suisses ont annoncé que le moustique tigre, vecteur potentiel du chikungunya et de la dengue, avait été observé au nord des Alpes, dans le canton d'Argovie, cet l'automne. Les premiers moustiques tigres sont apparus en 2003 en Suisse et leur population a augmenté depuis. L'insecte, qui doit son nom à ses rayures blanches, a déjà été découvert dans 12 pays européens, dont l'Italie, la France et la Belgique.

Selon le Centre européen de contrôle et de prévention des maladies (CEPCM), qui a enquêté sur l'épidémie italienne, un hiver particulièrement clément dans la péninsule a permis aux moustiques de commencer à se reproduire plus tôt que d'habitude cette année, augmentant ainsi leur population. "Cette épidémie est un signal d'alerte très important", explique Diarmid Campbell-Lendrum, un expert de l'OMS. "Le changement climatique affecte la reproduction de tous les moustiques sur Terre." Plus de moustiques signifie plus de maladies. Et avec le réchauffement, l'Europe pourrait à l'avenir être frappée par des affections habituellement confinées à l'Asie et à l'Afrique.

"Avec l'accroissement de la circulation des personnes et le changement climatique (...) nous devons nous préparer à d'autres surprises comme celle-ci dans le futur", avertit M. Campbell-Lendrum en référence à l'épidémie italienne de chikungunya. Les autorités italiennes ont commencé à avoir des soupçons en juillet lorsque plusieurs dizaines de personnes dans le nord-est du pays se sont plaintes de fièvre, douleurs articulaires, maux de tête et éruptions cutanées. Des médecins locaux pensaient qu'ils avaient été piqués par des phlébotomes, insectes diptères pouvant transmettre des maladies infectieuses.

Mais des examens ont par la suite confirmé qu'il s'agissait du chikungunya, également appelé maladie de l'homme courbé. Selon les autorités, le virus a été importé accidentellement dans le pays par un touriste arrivé du sud de l'Inde où une épidémie de chikungunya était en cours. Le tigre moustique, qui peut propager la maladie, avait déjà fait son apparition dans la péninsule il y a près de vingt ans. Outre le chikungunya, le moustique tigre peut également favoriser la dissémination d'autres maladies dangereuses comme la dengue et la fièvre jaune, une affection qui peut entraîner la mort.

Yahoo

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cellules souches : une percée majeure
Vendredi, 30/11/2007 - 00:00

Des scientifiques américains ont obtenu une avancée majeure en réussissant à transformer des cellules de peau humaine en cellules souches, ouvrant la voie à de nouveaux traitements contre le cancer, le diabète ou encore la maladie d'Alzheimer. Cette découverte simultanée par une équipe japonaise et une équipe américaine permet en outre d'obtenir des cellules souches sans en passer par la destruction d'embryons, ce qui permet de contourner le débat éthique sur la question.

Cela "va complètement changer le champ" des recherches, estime James Thomson, l'auteur de l'étude américaine publiée par l'édition en ligne du magazine Science. Les cellules souches sont considérées comme une possible panacée face à certaines des maladies les plus mortelles ou handicapantes, car elles peuvent évoluer en cellules de 220 types différents.

En permettant aux scientifiques d'y avoir plus facilement accès, la découverte annoncée devrait ainsi permettre de faire avancer rapidement la recherche pour le traitement du cancer, des maladies d'Alzheimer et de Parkinson, du diabète, de l'arthrite, des lésions de la moelle épinière, des attaques, des brûlures et des maladies cardiaques.

Cette nouvelle technique peut en effet être reproduite de manière relativement simple par des laboratoires standard, a expliqué lors d'une conférence téléphonique M. Thomson, de l'université du Wisconsin à Madison (nord), déjà pionnière dans l'obtention de cellules souches en 1998. "Mon optimisme est monté en flèche sur mon baromètre personnel", a-t-il dit, prédisant que le financement des recherches, jusqu'ici entravé par le débat éthique, "va enfin augmenter".

Ce travail "est monumental par son importance dans le champ de la recherche sur les cellules souches et par son impact potentiel sur notre capacité à accélérer les applications de cette technologie", a commenté Deepak Srivastava, directeur de l'Institut Gladstone sur les maladies cardiovasculaires. Les deux équipes ont réussi à transformer les cellules de peau en cellules souches en y insérant quatre gènes différents au moyen d'un rétrovirus.

L'équipe japonaise, conduite par Shinya Yamanaka de l'université de Kyoto, réussit à créer une lignée de cellules souches à partir de 5.000 cellules. "Cette efficacité peut paraître très faible, mais cela signifie qu'à partir d'un seul échantillon de 10 centimètres, on peut obtenir de multiples lignées de cellules souches pluripotentes (induced pluripotent stem cells, iPS)", a-t-il expliqué.

L'équipe de James Thomson réussit à reprogrammer une cellules sur 10.000, mais sans le recours à un gène cancérigène.Les deux techniques ont pour avantage de permettre de créer des cellules souches ayant le code génétique du patient, éliminant ainsi les risques de rejet.

Mais elles présentent des risques de mutation, car les cellules conservent une copie du virus utilisé. La prochaine étape-clé, selon Science, sera de réussir à se passer de rétrovirus. "Si nous arrivons à surmonter les problèmes d'innocuité, nous pourrons utiliser les cellules iPS humaines dans les thérapies de transplantation cellulaire", espère M. Yamanaka, qui juge cependant "prématuré de conclure que les cellules iPS puissent remplacer les cellules souches embryonnaires" et qui rappelle que "nous sommes encore loin de la découverte de traitements ou de thérapies à partir des cellules souches".

SD

Science

Détection de cancers à l'aide d'un composant microfluidique implantable
Vendredi, 30/11/2007 - 00:00

Les technologies permettant la détection précoce de cancers par l'intermédiaire de biomarqueurs sont destinées à avoir un fort impact dans la recherche contre le cancer et dans les soins cliniques des patients. Les techniques actuelles qui permettent de détecter la présence de biomarqueurs sont limitées par le fait que les échantillons doivent être constamment prélevés et faciles d'accès, ceci afin de connaître le niveau de développement de la tumeur cancéreuse en temps réel.

Une nouvelle technique, connue sous le nom de "implanted magnetic sensing", a été développée par Michael Cima et Robert Langer, tous deux chercheurs au MIT-Harvard Center of Cancer Nanotechnology Excellence (Cambridge, MA), afin de contrôler le développement des tumeurs et la progression de la chimiothérapie chez les patients atteints d'un cancer. Elle utilise les propriétés de détection d'interrupteurs à relaxation magnétique (Magnetic Relaxation Switches : MRS).

Les MRS sont des nanoparticules magnétiques qui diminuent le temps de relaxation transverse (T2) de l'eau en présence d'un métabolite. Ces MRS sont renfermés dans une multitude de réservoirs, réalisés en PDMS, qui disposent chacun de membranes semi perméables contenant des pores de 10 nanomètres permettant aux métabolites de pénétrer les réservoirs tout en empêchant la diffusion des MRS. Des anticorps spécifiques d'une molécule cible sont attachés à la surface de ces nanoparticules, et lorsque les molécules cibles sont présentes elles se fixent aux particules et provoquent leur agglutination. La détection de cette agglutination est effectuée par imagerie par résonance magnétique.

Les chercheurs du MIT ont validé leur technique en développant un implant contenant des anticorps reconnaissant la gonadotrophine ß humaine (hCG-ß), biomarqueur soluble spécifiquement présent dans les cancers des ovaires et des testicules. Des tests réalisés in vitro ont montré que cet implant peut détecter la présence du biomarqueur, le hCG-ß, à l'intérieur du corps du patient. Il peut être maintenu pour une longue période de temps et peut être implanté directement au sein de la tumeur, permettant ainsi aux chercheurs d'observer plus directement ce qui s'y passe. La démonstration de la faisabilité de ce prototype est une première étape dans le développement de détecteurs implantables permettant la détection de biomarqueurs in vivo, le prochain objectif de cette équipe étant que chaque réservoir formant l'implant détecte un biomarqueur différent.

BE

Traitement de tumeurs cancéreuses par excitation radiofréquence de nanotubes

Les nanotubes de carbone sont des éléments prometteurs pour l'imagerie médicale de tumeurs cancéreuses, ils sont aussi potentiellement intéressants pour la thérapie du cancer car ils peuvent être exploités pour la destruction de cellules cancéreuses par traitement thermique. On peut envisager plusieurs moyens d'exciter les nanotubes pour qu'ils libèrent de l'énergie thermique, et plusieurs équipes ont déjà proposé d'utiliser le rayonnement infrarouge. (Voir "Combattre le Cancer a l'aide des Nanotechnologies : l'effort américain" Toutefois, même si dans cette gamme spectrale, l'absorption des tissus humains est relativement réduite, on ne peut pas espérer atteindre efficacement des tumeurs internes situes a plusieurs centimètres de la source de rayonnement.

Une autre technique développée par Steven Curley du M.D. Anderson (Houston, TX) en collaboration avec des scientifiques de Rice University (Houston, TX) et un groupe français de l'Université de Bordeaux combine une irradiation radiofréquence à 13,56 MHz avec des nanotubes de carbone mono paroi fonctionnalisés solubles dans l'eau. Cette technique non invasive a le potentiel de pouvoir traiter efficacement de nombreux cas de cancers avec un minimum, voire aucun effet toxique sur les cellules saines.

Plusieurs essais on été réalisés in vitro sur trois types de cellules cancéreuses humaines et in vivo sur des lapins infectés par la tumeur hépatique VX2 en injectant différentes concentrations de nanotubes (5 à 500 mg/L) et en les exposant à des excitations de puissances différentes (100 à 800 Watts). Les chercheurs observent un échauffement conséquent des nanotubes qui se traduit par la destruction totale des cellules cancéreuses. Des tests sur la toxicité des nanotubes réalisés après traitement ne montrent aucun effet secondaire à court terme sur les lapins, même si certaines cellules saines localisées à 2-5 millimètres des tumeurs ont été endommagées du fait de la diffusion des nanotubes dans les tissus. La prochaine étape du projet consistera à améliorer la fonctionnalisation des nanotubes et leur ciblage afin de limiter la destruction de cellules saines.

BE

Radiothérapie : l'ère de la haute précision arrive
Vendredi, 30/11/2007 - 00:00

Les technologies d'avenir de la radiothérapie, épousant les contours de la tumeur au millimètre près et mesurant en continu la dose reçue font rêver les professionnels, alors que les risques restent difficiles à maîtriser, comme en témoignent les accidents d'Epinal et Toulouse. Il y a "des progrès évidents dans l'efficacité des traitements", selon Jean-Marc Cosset (Institut Curie) : la "meilleure précision balistique" permet de "mieux cibler le tumeur", tandis que "la radiothérapie asservie à la respiration" tient compte des mouvements respiratoires du patient.

Sur 180.000 malades du cancer traités par radiothérapie en France, quelques milliers bénéficient de technologies innovantes auxquelles les fabricants ont parfois donné des noms dignes de romans de science-fiction (Cyberknife, Gammaknife). Ainsi le Cyberknife, "premier vrai robot médical", selon Eric Lartigau du Centre Oscar Lambret à Lille, un des trois établissements en France équipés de cet appareil, d'une précision de l'ordre du dixième de mm, peut intégrer l'information concernant le patient, "le traiter et vérifier" si c'est bien fait.

Ce robot doit toutefois être "surveillé en permanence par l'homme", a souligné le Pr Lartigau lors d'une audition de l'Office parlementaire d'évaluation des choix scientifiques et technologiques. La radiochirurgie cible au millimètre près des tumeurs cérébrales que l'on peut traiter en une seule séance, selon Jean-Jacques Mazeron (Hôpital Pitié-Salpêtrière, Paris). Un millier de patients en France ont bénéficié de la radiothérapie par modulation d'intensité (IMRT) qui permet notamment de traiter des tumeurs en forme de fer à cheval en tenant compte de l'évolution quotidienne de leurs contours, selon Jean Bourhis (Institut Gustave Roussy).

Au-delà des améliorations techniques susceptibles de réduire les risques d'accidents, d'autres progrès restent à faire pour une "maîtrise de la qualité" lors de l'utilisation des appareils, selon les experts. Erreur d'identification de patients homonymes, erreur de calibrage de faisceaux, logiciels défaillants ou mal traduits, formation insuffisante des professionnels ou manque de communication entre eux... Le Pr Jacques Bourguignon de l'Autorité de sûreté du nucléaire (ASN) a énuméré la liste des manquements constatés au fil d'une trentaine d'"événements de radiothérapie" signalés depuis 2005. Outre les graves accidents d'Epinal et de Toulouse, des incidents isolés ont été répertoriés par l'ASN qui incite à leur déclaration pour prévenir leur répétition.

Yahoo

Obésité : vers un nouveau traitement
Vendredi, 30/11/2007 - 00:00

L'obésité est une préoccupation majeure de santé publique dans nos sociétés modernes. Elle est particulièrement liée au développement du diabète de type 2, des maladies cardiovasculaires et à une augmentation du risque de développement cancéreux. En effet, environ 40 % des Français sont concernés par un surpoids et plus de 12 % sont obèses. Bien que le taux d'obésité ait déjà doublé en dix ans, ces chiffres devraient encore croître dans les années à venir. Le Mexique, par exemple, a atteint le deuxième rang mondial, après les Etats-Unis, avec presque 30 % d'obèses et les soins médicaux engendrés par le surpoids absorbent déjà 21 % du budget de la santé publique (l'obésité y est devenue la première cause de mortalité).

Parmi les hormones-clés impliquées dans l'obésité et le maintien du poids corporel figure la leptine. Cette hormone est associée à la sensation de satiété et joue un rôle majeur dans le contrôle de la prise de poids et la dépense d'énergie. La leptine agit sur des récepteurs spécifiques (OB-R) exprimés au niveau des tissus périphériques et le système nerveux central, en particulier le noyau arqué de l'hypothalamus, la région-clé impliquée dans la régulation du poids corporel. Le taux sanguin de la leptine, qui est majoritairement sécrétée par les adipocytes, est proportionnel à la masse adipeuse.

Chez les sujets normaux, des taux de leptine élevés conduisent à une augmentation de la dépense énergétique et à une diminution de la prise alimentaire, donc à une baisse de la masse adipeuse et du taux de la leptine. En revanche, chez les personnes obèses, ce mécanisme de contrôle ne fonctionne plus et l'on parle d'une résistance à la leptine. La prévention de cette résistance constitue un enjeu majeur de la recherche sur l'obésité.

En 1997, les chercheurs de l'Institut Cochin avaient découvert que le gène codant le récepteur de la leptine (OB-R), la cible moléculaire de l'hormone, code aussi un deuxième transcrit appelé OB-RGRP pour « OB-R gene related protein .

Ce travail publié dans la revue Proc. Natl. Acad. Sci montre, chez la souris, qu'OB-RGRP régule le transport intracellulaire d'OB-R et que l'inhibition de son expression augmente de façon significative le nombre des récepteurs de la leptine présents à la surface cellulaire et, ainsi la sensibilité de la cellule à cette hormone.

Les chercheurs de l'Inserm et du CNRS ont appliqué cette observation à un modèle murin d'obésité induite par une nourriture riche en graisse dans lequel une résistance à la leptine s'instaure progressivement. L'extinction de l'expression du gène OB-RGRP par des ARN interférents permet aux souris traitées de maintenir, contrairement aux témoins, un poids tout à fait normal. Les ARN interférents, dont la découverte a été couronnée par le Prix Nobel de Physiologie et Médecine 2006, sont de petits fragments d'acides nucléiques capables d'éteindre l'activité de gènes spécifiques.

Ce travail ouvre plusieurs perspectives pour le traitement de l'obésité. Il identifie OB-RGRP comme une nouvelle cible, et propose un nouveau concept thérapeutique. En d'autres termes, au lieu d'utiliser une molécule agissant sur le récepteur lui-même, on pourrait supprimer le tonus inhibiteur d'un partenaire de régulation. Des applications thérapeutiques concrètes peuvent aussi, à terme, être envisagées pour le traitement de l'obésité et des maladies associées, tel le diabète de type 2. Si les résultats obtenus chez la souris s'avéraient transposables à l'homme, l'inhibition de la protéine OB-RGRP (soit par des ARN interférents, soit par des antagonistes pharmacologiques) pourrait alors permettre de restaurer la sensibilité à la leptine des sujets obèses, et contribuer durablement à leur perte de poids.

CNRS

Inserm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top