RTFlash

RTFLASH Recherche & Technologie
NUMERO 546
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Mars 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le haut débit : service universel ?
La montée en débit dans les zones grises dépend de la fibre optique
L'efficacité énergétique d'un bâtiment se calcule en quelques minutes
Matière
Des cellules solaires hybrides encore plus performantes grâce aux nanotechnologies
L'éolienne domestique veut s'inviter sur nos toitures
Une pile à combustible qui s'auto-alimente en hydrogène
Le potentiel des Etats-Unis en énergie éolienne a triplé
Les éoliennes du futur stockeront leur énergie
EDF investit dans une centrale solaire géante à Toul
Vivant
Un rein prélevé par le nombril à Lyon, une première européenne
La "boîte à outils" génétique de la sélection naturelle
Une simple prise de sang pour surveiller les cancers
Quelle est la place de l'activité physique dans la lutte contre le cancer ?
Un risque moindre d'Alzheimer quant le taux de leptine est élevé
Une nouvelle classe thérapeutique dans le diabète de type 2 : les inhibiteurs du transporteur rénal de glucose
Un nouveau procédé pour déterminer la structure des protéines
L'importance du sommeil dans l'apprentissage et la mémoire
Maladie de Parkinson : un problème de communication entre neurones ?
Edito
le mobile, nouveau sésame vers la société numérique



Le téléphone vedette du Mobile World Congress cette année n'était ni le Nexus One, ni l'iPhone d'Apple, ni le Windows Phone de Microsoft. C'était un Samsung au look ordinaire mais équipé d'une puce NFC, une technologie qui permet de payer ses achats simplement en posant l'appareil sur une borne. Les 400 « VIP » qui avaient l'appareil dans la poche, avec un compte crédité de 75 euros, ont ainsi pu pendant les quatre jours du salon faire des achats dans 30 magasins partenaires qui avaient été équipés de bornes de paiement.

Cette initiative visait à démocratiser le paiement mobile sans contact alors que ce service peine à décoller dans les pays développés. Seul le Japon est aujourd'hui en pointe dans ce domaine grâce au plus gros opérateur mobile du pays, NTT DoCoMo, qui a profité de posséder une banque dans son giron pour lancer ce service il y a quelques années. Depuis, 50 % de ses clients peuvent payer avec leur mobile.

Comme c'est souvent le cas, le principal obstacle n'est pas technologique car le NFC est connu et maîtrisé depuis longtemps mais commercial : les opérateurs de téléphonie mobile et les banques ont en effet le plus grand mal à s'accorder sur la répartition de la commission prise sur la transaction.

Aux Etats-Unis, les principaux opérateurs tentent de créer une plate-forme commune, avec un partenaire financier non connu, qui ne serait pas un des trois grands acteurs du paiement par carte (Visa, American Express et MasterCard) afin de lancer le service dès cette année. Les revenus tirés seraient alors partagés entre les partenaires. En France, plusieurs initiatives ont été lancées. La dernière, à Nice, où près de 10.000 téléphones, identiques à celui distribué à Barcelone, seront déployés pour tester le système.

Ces expérimentations démarrent alors que la dernière étude prospective de l'ARCEP souligne que l'intégration généralisée des puces « NFC » dans nos mobiles pourrait accélérer sensément la mutation vers la société numérique. Le téléphone sans contact peut par exemple faciliter l'accès aux transports. Il offre en effet aux opérateurs de transport la possibilité de dématérialiser les tickets magnétiques et les cartes sans contact actuelles.

Plusieurs compagnies aériennes testent de plus des solutions de dématérialisation de la carte d'embarquement, par code barres ou par technologie NFC. Ces technologies ouvrent la voie à de nombreuses applications interactives. L'ARCEP se penche notamment sur les exemples des affiches interactives, le transfert de données entre utilisateurs (échange de carte de visites, jeux, transferts d'argent...) ou l'accès à des bâtiments tels les hôtels ou les parkings.

Autre application prometteuse : Le téléphone sans contact peut trouver une utilisation intéressante dans la panoplie très vaste de services d'aide à la personne et de télémédecine. Cette technologie pourrait favoriser le maintien à domicile, et fait ainsi partie de la mission " Vivre chez soi : autonomie, inclusion et projet de vie " lancée par le secrétariat d'État chargé des aînés.

On peut même imaginer des applications directement sociales sur mobiles NFC, comme le versement de certaines prestations sociales directement sur le mobile des bénéficiaires.

Il reste que la généralisation de cette technologie devra surmonter deux difficultés importantes : la recomposition de la chaîne de valeur des acteurs économiques, technologiques et commerciaux impliqués et la mise en place d'outils technologiques et juridiques permettant une protection suffisante de la vie privée et de la confidentialité des données personnelles.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le haut débit : service universel ?
Vendredi, 05/03/2010 - 00:00

La Commission européenne vient de lancer une consultation publique sur le meilleur moyen de faire en sorte que tous les Européens disposent des services de télécommunications de base. L'actuelle réglementation de l'UE concernant les obligations de service universel dans le secteur des télécommunications date de 2002 et garantit aux Européens un accès aux réseaux téléphoniques publics et à des services comme l'internet de base. La consultation lancée aujourd'hui vise à établir si ces règles et définitions du service universel doivent être adaptées à l'ère numérique et, notamment, si elles doivent être étendues pour couvrir l'accès à haut débit. L'avis des consommateurs, des entreprises et des experts permettra à la Commission de déterminer s'il lui faut faire, d'ici à la fin de 2010, de nouvelles propositions législatives sur les obligations de service universel applicables aux télécommunications. La consultation se déroulera jusqu'au 7 mai 2010.

Neelie Kroes, membre de la Commission chargé de la stratégie numérique, a déclaré : «Cette consultation nous aidera à établir si nous devons actualiser les règles en vigueur pour faire en sorte que tous les Européens aient accès aux services de communications essentiels, y compris à l'internet rapide. Comme les marchés et la technologie évoluent constamment, nous devons veiller à ce que personne ne soit exclu de la société numérique.»

La Commission cherche à savoir s'il est nécessaire d'actualiser les règles conçues il y a dix ans, lesquelles garantissent un accès au téléphone et à l'internet, à un prix abordable, aux personnes qui vivent en zone rurale ou isolée ou qui disposent de faibles revenus. Les règles actuelles garantissent aux Européens la possibilité de se raccorder au réseau téléphonique public et d'utiliser des services téléphoniques publics pour passer des communications, envoyer des télécopies ou accéder à l'internet. Elles garantissent aussi la disponibilité de services de renseignements et d'annuaire, de téléphones publics payants et d'une aide spécifique pour les handicapés.

La Commission souhaite avoir des avis sur plusieurs points :

Concept de base du service universel : le concept actuel de service universel a été défini pour les services traditionnels de télécommunications vocales, mais cette approche est-elle toujours valable dans l'environnement numérique évolutif d'aujourd'hui ? Quelles politiques devons-nous mettre en oeuvre pour que les habitants des zones rurales et isolées ou les personnes à faible revenu puissent avoir accès aux services de télécommunications de base et les utiliser ?

Haut débit : la couverture en haut débit est essentielle pour favoriser la croissance et l'emploi en Europe. Or, 23 % de la population en zone rurale n'a pas accès au haut débit sur réseau fixe. Les principes du service universel contribueront-ils à la réalisation de l'objectif européen du «haut débit pour tous», ou la concurrence sur les marchés ouverts des télécommunications, voire d'autres options stratégiques, seraient-elles plus efficaces ?

Financement : comment le service universel doit-il être financé à l'avenir ? Pour assurer la couverture universelle en haut débit, le secteur des télécommunications doit-il fournir une contribution financière ou faut-il faire appel aux deniers publics étant donné que d'autres secteurs économiques et la société dans son ensemble en tirent également profit ?

Artesi

La montée en débit dans les zones grises dépend de la fibre optique
Vendredi, 05/03/2010 - 00:00

Si le haut débit touche désormais 19 millions d'internautes (dont 95 % en ADSL) dans l'Hexagone, tous ne bénéficient malheureusement pas des mêmes débits Internet. Pour de nombreux Français, le haut débit est encore synonyme d'une connexion stagnant entre 512 Kbits/s et 2 Mbits/s, les privant d'offres pouvant atteindre jusqu'à 20 Mbit/s. La plupart du temps, ces faibles débits s'expliquent par une trop grande distance entre l'abonné et son répartiteur téléphonique.

Pour remédier au problème des zones grises (les zones blanches concernant des régions n'ayant aucun accès haut débit), une solution envisageable serait de déployer de nouveaux répartiteurs téléphoniques, en sollicitant l'aide financière des collectivités territoriales. De cette façon, les zones grises profiteraient d'un débit nettement plus important. Cependant, l'Autorité des télécoms a mis le holà en publiant des recommandations pour la montée en débit.

Tout dépend du déploiement de la fibre optique. En effet, "dans les zones où le déploiement du FTTH est prévu à court ou moyen terme (3 à 5 ans), l'ARCEP recommande aux acteurs publics et privés de ne pas déployer de solutions intermédiaires de montée en débit et de concentrer leurs efforts et leurs moyens sur ces déploiements de réseaux à très haut débit FTTH" explique le gendarme des télécoms.

En revanche, "là où le déploiement du FTTH n'est pas prévu à court ou moyen terme, l'ARCEP estime que les solutions d'accès à la sous-boucle permettent d'apporter une montée en débit et peuvent donc être mises en oeuvre rapidement, notamment par les collectivités territoriales".

De cette façon, la prochaine évolution des débits dans les zones denses sera en réalité synonyme de saut technologique, puisque la montée en débit sera assurée par le déploiement de la fibre optique. Les régions moins peuplées ne profiteront pas de la fibre optique avant plusieurs années, mais pourront profiter tout de même d'une meilleure connectivité à Internet grâce au déploiement de nouveaux répartiteurs.

L'ARCEP souhaite cependant que les zones grises ou blanches qui profiteront de ces travaux puissent accéder à une concurrence entre différents fournisseurs d'accès à Internet : "les solutions de montée en débit sont toutefois susceptibles de réduire l'intensité concurrentielle acquise sur le marché du haut débit, principalement dans les zones dégroupées ou qui vont l'être à court terme" note le gendarme des télécoms.

D'où l'intérêt de demander à France Telecom de "préciser les modalités de mise en oeuvre de l'accès à la sous-boucle pour en limiter les risques". Avant cet été, l'ARCEP compte définir "avec l'ensemble des acteurs concernés, opérateurs et collectivités territoriales, les mesures d'accompagnement nécessaires pour pallier les risques concurrentiels identifiés".

"D'ici la conclusion de ces travaux, qui interviendra avant la fin 2010, l'ARCEP recommande aux acteurs de s'abstenir, dans les zones dégroupées ou pour lesquelles un projet de dégroupage a été initié, de lancer des projets de montée en débit via l'accès à la sous-boucle."

Numerama

L'efficacité énergétique d'un bâtiment se calcule en quelques minutes
Vendredi, 05/03/2010 - 00:00

Pour permettre aux questions de luminosité, de chauffage et d'isolation d'être prises au plus tôt dans le processus de conception d'un bâtiment, Leon Glicksman, professeur des technologies de construction et d'ingénierie mécanique au sein du MIT, a développé une application web open source baptisée Designe Advisor. L'objectif est d'évaluer en amont l'impact énergétique d'une construction en seulement quelques minutes et en jouant sur différents facteurs. En allant sur le site, il est possible de combiner de nombreux paramètres, comme la taille des pièces, leur orientation, le type de fenêtre et de ventilation ou de toit utilisés, l'humidité, etc.

L'utilisateur peut bâtir plusieurs scénarios en effectuant des changements en fonction des options envisagées. A la fin, on obtient un bilan comparatif relativement complet de l'efficacité énergétique du bâtiment pour chaque option. Celui-ci comprend une évaluation de son cycle de vie, une autre de la température et de la luminosité à l'intérieur d'une pièce type en fonction de l'heure de la journée et de la saison, etc. Résultat, il est possible d'estimer rapidement quels facteurs auront l'impact le plus important et de prendre les décisions en conséquence.

Atelier

^ Haut
Matière
Matière et Energie
Des cellules solaires hybrides encore plus performantes grâce aux nanotechnologies
Vendredi, 05/03/2010 - 00:00

Des chercheurs de l'Institut de technique des microsystèmes (IMTEK) et du Centre de recherche sur les matériaux (FMF), tous deux situés à Freiburg (Bade-Wurtemberg), viennent de développer une technique qui améliore le rendement des cellules solaires organiques.

Les cellules solaires nouvellement développées, dites "hybrides", sont recouvertes d'une couche composée d'un mélange entre un polymère organique et des nanoparticules inorganiques. Elles représentent ainsi une évolution des cellules solaires organiques grâce aux nanotechnologies. Les chercheurs ont utilisé une méthode de traitement de surface à base de nanoparticules en exploitant des points quantiques de sélénide de cadmium.

Cette nouvelle méthode, brevetée, a permis d'augmenter les performances de conversion de l'énergie solaire en énergie électrique de 2 %. Les résultats ont été confirmés par le groupe de recherche "Cellules solaires à pigments photosensibles et organiques" (Dye and Organic Solar Cells), qui fait partie de l'Institut Fraunhofer des systèmes énergétiques solaires (ISE).

Théoriquement, la nouvelle méthode de traitement surfacique peut être utilisée sur de nombreux matériaux.

Les cellules solaires hybrides appartiennent à la famille des cellules solaires organiques. Cette dernière affiche des perspectives de développement plus intéressantes que les cellules en silicium. Elles sont plus fines, plus flexibles, plus rentables, plus faciles et moins chères à produire.

BE

L'éolienne domestique veut s'inviter sur nos toitures
Vendredi, 05/03/2010 - 00:00

Aeolta et Innovation-In-Design viennent de présenter une installation de toiture baptisée l'AéroCube. Ses pales sont masquées et la structure, modulable, s'adapte au toit. L'AéroCube s'affiche comme la première éolienne française de toiture permettant au particulier de produire sa propre énergie domestique. S'adaptant à toutes les toitures, cette éolienne d'un nouveau genre est équipée de turbines multipliant par trois la puissance du vent capté lorsqu'il remonte la pente du toit. Selon les régions, un module de 1,30 m de côté peut produire de 500 à 2.500 KWh.

Pour l'installation, le seul préalable est de dégarnir les tuiles sur la surface nécessaire à la pose d'un ou de plusieurs modules. Livré prêt à fonctionner grâce au générateur et à la régulation électrique intégrés, le module fournit le courant alternatif au réseau domestique à l'aide d'un câble.

Un module, expliquent les concepteurs, peut couvrir de 8 à 20 % des besoins domestiques en énergie, chauffage inclus, suivant le potentiel éolien du site où il sera placé. L'énergie éolienne peut venir compléter des panneaux solaires. L'intégration du rotor dans la structure de toiture réduit les performances du système, mais l'utilisation du toit comme d'un tremplin pour le vent peut compenser en partie cette baisse d'efficacité.

Un AéroCube permet également de consommer moins de CO2. Il fait économiser jusqu'à 2 tonnes de CO2 par an et compense l'équivalent du CO2 émis par un véhicule urbain (100 gr de CO2/km) sur 10.000 à 20.000 km chaque année.

Enfin, l'éolienne de toiture est démontable et permet de rendre à la toiture sa configuration d'origine sans dégradation. Sa durée de vie est de plus de 20 ans et son entretien se fait tous les 5 ans minimum. Grâce aux matériaux utilisés lors de sa fabrication, tous les composants de ce système sont entièrement recyclables. L'AéroCube sera commercialisé pour l'été 2010 au prix de 5.000 euros TTC avec l'installation par un professionnel.

Futura

Une pile à combustible qui s'auto-alimente en hydrogène
Vendredi, 05/03/2010 - 00:00

A l'occasion de la tenue du Salon mondial du Mobile à Barcelone, la société italienne Electro Power Systems (EPS) annonce le lancement d'ElectroSelf, la première technologie de piles à combustible entièrement auto-alimentée en hydrogène. Le dispositif est conçu pour fournir une alimentation de secours fiable aux réseaux mobiles en tout lieu, que ce soit hors réseau, dans les lieux à l'alimentation instable ou sous des climats extrêmes. Le système de piles à combustible à hydrogène autonome ne consomme que de l'eau, n'émet aucun gaz à effet de serre et peut être installé en appoint du secteur ou d'énergies renouvelables intermittentes.

D'après EPS, les avantages sont indéniables. Tout d'abord, Electroself évite aux opérateurs mobiles de devoir fournir une alimentation de secours par le biais de générateurs et de batteries. Il réduit ensuite les frais de fonctionnement et la maintenance, supprime les frais de réapprovisionnement en carburant ou de remplacement des batteries et offre une surveillance et une commande à distance de l'alimentation. Enfin, l'investissement initial est compensé par un coût total de possession beaucoup plus bas et une durée de vie accrue.

L'ElectroSelf comprend 2 unités de 600 x 800 mm et fonctionne sans espace supplémentaire pour l'air conditionné ou le refroidissement. Il fonctionne entre -20 °C et 45 °C, permettant ainsi aux opérateurs d'étendre leurs activités hors réseau vers des climats plus extrêmes que n'en tolèrent les technologies d'alimentation de secours conventionnelles.

Ainsi, lors d'une coupure d'électricité de longue durée, le système se met automatiquement en route afin de produire de l'énergie en combinant l'hydrogène (H) et l'oxygène (O). En revanche, lorsque l'électricité est disponible normalement, l'ElectroSelf génère son propre combustible (hydrogène) par électrolyse de l'eau déminéralisée provenant de la phase de production d'électricité. Par ce procédé, le réservoir d'hydrogène reste toujours plein.

Enerzine

Le potentiel des Etats-Unis en énergie éolienne a triplé
Vendredi, 05/03/2010 - 00:00

La quantité d'énergie éolienne qui pourrait théoriquement être produite aux Etats-Unis a triplé selon la dernière estimation des ressources en vent du pays, rapporte le magazine en ligne Wired. La technologie éolienne actuelle déployée dans les zones qui ne sont pas protégées (parcs nationaux etc.) pourrait générer 37.000.000 gigawatts-heure d'électricité chaque année, selon le NREL et le cabinet de conseil AWS Truewind.

La dernière étude détaillée, publiée en 1993 par le Pacific Northwest National Laboratory, estimait à 10.777.000 gigawatts-heure le potentiel de production d'énergie éolienne des Etats-Unis. Cette augmentation vient principalement de l'amélioration de la technologie éolienne. Les deux estimations couvriraient largement les 3.000.000 gigawatts-heure d'électricité consommées actuellement par les Américains chaque année, note Wired.

Slate

Les éoliennes du futur stockeront leur énergie
Vendredi, 05/03/2010 - 00:00

A quoi ressembleront les éoliennes du futur ? A celles d'aujourd'hui, mais pas tout à fait. Elles seront plus légères, envahiront les mers et, surtout, devront palier leur intermittence. Pour concevoir les éoliennes du futur, GE Energys'est fixé 3 priorités technologiques. Comment éviter les défaillances de l'éolien offshore ? Pour percer sur ce débouché, GE Energy se concentre sur les composants de la nacelle. " Ils devront être moins nombreux, plus simples et protégés du sel marin ", prévoit Carlos Härtel, responsable recherche europe de GE. Pour l'offshore, GE Energy privilégierait ainsi la transmission mécanique directe, au lieu des classiques multiplicateurs de vitesse (pour limiter la fatigue mécanique).

GE Energy renforcera aussi la résistance des pales en utilisant des composites à base de fibres de carbone. Cette solution lui permettrait aussi d'alléger l'éolienne à résistance équivalente. Pour l'instant, GE Energy cherche comment automatiser la production des composites. En attendant, une autre piste d'allègement porte sur l'intégration entre eux des composants de la nacelle. Pour les éoliennes terrestres, le générateur et le multiplicateur de vitesses pourraient par exemple être réunis en un seul élément.

Mais c'est surtout dans le stockage d'électricité que GE Energy compte faire la différence. Pour palier l'intermittence du vent, il ne croit pas dans le stockage par l'hydrogène. Trop coûteux. GE Energy privilégie les procédés par air comprimé. Il vient de signer un partenariat avec le fournisseur d'électricité RWe, le centre spatial allemand et le spécialiste du BTP Zueblin pour la conception d'un premier prototype à l'horizon 2013.

Un défi de taille : ce projet pilote vise une capacité de stockage de 1 GWh et de restitution électrique de 200 MW. Le principe est de comprimer l'air ambiant à 20 ou 30 bars. Sa température grimpe alors à 600°C. Refroidi, l'air comprimé est stocké dans le sol. L'air sera ensuite ressorti du réservoir sous-terrain en cas de besoin d'électricité, réchauffé, puis envoyé dans une turbine.

Le défi technologique porte sur le stockage de la chaleur émise lors de la compression, elle serait réutilisée lors de la détente.

"Nous espérons ainsi atteindre 70 % de rendement, contre 50 % pour les procédés ordinaires ", évalue Carlos Härtel. La chaleur devrait être stockée dans un milieu poreux, qui reste à définir. GE Energy cherche aussi un compresseur, d'où la chaleur pourrait être récupérée. Dernier défi, apprendre à gérer le réservoir sous-terrain, qui sera soumis à une pression fluctuante. Autant de problématiques à résoudre pour pouvoir déployer ces éoliennes à grande échelle.

I&T

EDF investit dans une centrale solaire géante à Toul
Vendredi, 05/03/2010 - 00:00

Le groupe engage 434 millions d'euros pour transformer une ancienne base militaire en centrale photovoltaïque. «À l'heure actuelle, c'est le plus grand projet au monde d'énergie solaire», assure Nadine Morano, secrétaire d'État chargée de la Famille et de la Solidarité. D'ici à 2013, l'ancienne base aérienne 136, à Toul-Rosières, en Meurthe-et-Moselle, deviendra un vaste champ de panneaux solaires. La centrale photovoltaïque, étalée sur plus de 400 hectares, aura une puissance de 143 mégawatts, soit l'électricité nécessaire pour une ville de 62 000 habitants.

Elle assurera des revenus annuels de plus de 1,3 million d'euros à la région, au département et aux trois communes dont dépend l'ancien terrain de l'armée, désaffecté depuis 2004. Une manne pour ces collectivités locales, à laquelle s'ajouteront des créations d'emplois : près de 150 pendant les travaux et une quinzaine, ensuite, pour gérer la centrale.

Les élus locaux misent aussi sur les retombées touristiques. Une «Maison des énergies» sera aménagée, ainsi qu'une exposition d'avions militaires dans de petits hangars.

Enfin, une partie du site sera reboisée. Conseiller régional de Lorraine et auparavant députée de Toul, Nadine Morano bataille «depuis des mois» pour trouver une destination à ce vaste terrain, recouvert d'une centaine de bâtiments remplis d'amiante et situé au coeur de sa circonscription. Un premier plan, étudié avec le fabricant américain de panneaux solaires First Solar, n'a pas pu aboutir, faute d'une capacité suffisante d'épuration des eaux dans la localité. Mais EDF Énergies Nouvelles, déjà approché pour le montage avec First Solar, s'est accroché au projet en cours de signature. Il s'apprête à y engager 434 millions d'euros, son plus gros investissement en dix ans.

LF

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un rein prélevé par le nombril à Lyon, une première européenne
Vendredi, 05/03/2010 - 00:00

L'équipe d'urologie et de chirurgie de la transplantation de l'hôpital Edouard Herriot de Lyon a réussi à prélever un rein par le nombril en vue d'une greffe, une première européenne issue d'une technique américaine. Un "trocard", instrument en forme de tige cylindrique dans lequel passent caméra et instruments de chirurgie, a été inséré dans le nombril du patient afin de réaliser la dissection et l'extraction du rein par la même incision. "Cette nouvelle technique présente l'avantage de ne pratiquement pas laisser de cicatrice sur le donneur et de permettre une convalescence très rapide", a dit le professeur Xavier Martin, qui a dirigé l'équipe lors de l'opération intervenue le 1er février dernier.

Ce type d'intervention pourrait selon lui amener davantage de personnes à recourir au don de rein apparenté en améliorant le confort du donneur, comme cela se passe aux Etats-Unis. Les greffes de reins s'effectuent en France dans moins de 10 % des cas à partir de dons de personnes vivantes alors qu'aux Etats-Unis elles représentent 50 % de la pratique.

"Le fait qu'il n'y ait pas de cicatrice et seulement quatre jours de traitement antalgique au lieu de 26 pour une intervention standard rassure les patients", explique le docteur Sébastien Crouzet de Lyon, qui a passé huit mois à la Cleveland Clinic pour se former à cette nouvelle technique. La France se caractérise par une véritable pénurie d'organes dans ce domaine. "Seulement un tiers des patients en attente de rein réussissent à être greffés", déplore Xavier Martin, selon lequel 90 % des greffes se font à partir de donneurs morts.

La patiente lyonnaise prénommée Tiana, une consultante de 45 ans qui a donné l'un de ses reins à son mari, confie être rentrée chez elle quatre jours après l'intervention. "J'ai aussitôt repris une vie normale et les douleurs se sont estompées très rapidement", explique-elle.

Cette technique a également l'avantage de donner plus de chance de réussite à l'opération de transplantation qui suit. "On obtient de meilleurs résultats avec un donneur vivant", assure Xavier Martin. "En cas de don cadavérique la médiane de survie est de 15 ans, en cas de donneur vivant, de 22 ans". Le rein ainsi prélevé est transplanté dans les vingt minutes sur le receveur.

Yahoo

La "boîte à outils" génétique de la sélection naturelle
Vendredi, 05/03/2010 - 00:00

L'homme et certains de ses cousins primates - notamment le chimpanzé, l'orang-outan et le macaque - partagent une "boîte à outils" génétique commune, c'est-à-dire un jeu de gènes sur lesquels la sélection naturelle a eu souvent tendance à agir au cours des derniers 200.000 ans. C'est ce que viennent de montrer des chercheurs du CNRS, travaillant à l'Institut de biologie de l'École normale supérieure (CNRS/ENS/Inserm). Leur étude permet aussi d'isoler un groupe de gènes qui nous distingue de nos cousins les grands singes. Elle est publiée dans la revue PloS Genetics (édition du 26 février 2010).

Au cours de l'évolution, les espèces s'adaptent à leurs contraintes environnementales, selon le mécanisme de la sélection naturelle : lorsqu'une mutation avantageuse pour la survie (et la reproduction) apparaît dans le génome d'un individu, elle se répand dans le reste de l'espèce jusqu'à être portée, au bout de centaines, voire de milliers de générations, par toute l'espèce.

Cette sélection, qui s'effectue sur un gène précis, se produit-elle aussi sur le même gène chez les espèces voisines ? Sur quel jeu de gènes la sélection naturelle a-t-elle spécifiquement agi pour chaque espèce ? Pour répondre à ces questions, les chercheurs ont comparé les génomes de l'homme et de trois primates. Résultat : quelques centaines de gènes ont été récemment sélectionnés chez chacune de ces espèces. Parmi eux, environ 100 gènes détectés chez l'homme sont partagés par deux des trois autres espèces, soit deux fois plus qu'attendu du simple fait du hasard.

Une proportion non négligeable de gènes impliqués dans l'adaptation chez l'homme l'a aussi été chez le chimpanzé, l'orang-outan ou le macaque, et, parfois, dans plusieurs lignées à la fois. La sélection naturelle n'agit donc pas seulement en éloignant les différentes espèces les unes des autres à mesure que de nouveaux caractères apparaissent. Elle peut aussi faire apparaître un même caractère chez des espèces ayant déjà divergé les unes des autres, mais ayant un génome encore assez proche, en agissant sur le même gène.

LP

Une simple prise de sang pour surveiller les cancers
Vendredi, 05/03/2010 - 00:00

La surveillance des cancers traités fait appel à des batteries d'examens pour explorer nombre d'organes afin d'y vérifier l'absence de récidive ou de métastases. Une simple prise de sang pour identifier des cellules cancéreuses spécifiques du malade pourra-t-elle bientôt se substituer à ce lourd arsenal de surveillance ?

C'est ce que laissent espérer des travaux de chercheurs américains qui ont mis au point le premier test génétique capable d'identifier à partir d'une analyse de sang les biomarqueurs spécifiques d'une tumeur. Une telle technique permettrait de vérifier l'efficacité des traitements en suivant l'évolution des marqueurs dans une prise de sang et de détecter une éventuelle récidive.

Ces avancées ont été présentées à la conférence annuelle de l'AAAS, qui s'est tenue à San Diego. «Cette technique, c'est l'application des technologies de séquençage du génome humain à la personnalisation des soins anticancéreux», explique le Dr Victor Velculescu, professeur de cancérologie à la faculté de médecine de l'université Johns Hopkins (Maryland), principal auteur de ce travail.

Les cellules du cancer se caractérisent par la modification systématique et profonde de leur matériel génétique. Travaillant sur six cas de cancers, quatre du côlon et deux du sein, l'équipe du Dr Velculescu a pu identifier des biomarqueurs sur la base des séquences génétiques propres à chacune de ces tumeurs. Ensuite, l'équipe a réussi par une simple analyse dans le sang des patients à identifier ces biomarqueurs spécifiques de la tumeur cancéreuse grâce à des techniques d'amplification génétiques, ouvrant la possibilité de surveiller l'évolution de la maladie.

Cette stratégie dont la faisabilité vient d'être démontrée apparaît pour l'instant un peu complexe et onéreuse. Mais «les technologies de séquençage du génome vont devenir de moins en moins chères, souligne le Dr Velculescu. Le séquençage pour les patients de l'étude avait coûté 5 000 dollars par personne. Actuellement, un examen au scanner coûte 1 500 dollars et ne peut détecter que des cancers microscopiques et non leur signature génétique comme ce nouveau test.»

«Si la tendance actuelle dans le séquençage génomique persiste, ce test, appelé Pare (Personalized Analysis of Rearranged Ends), va devenir moins coûteux et s'avérer plus efficace que les scanners», soutient le Dr Kenneth Kinzler, professeur de cancérologie à l'université John Hopkins. Pour le Dr Luis Diaz, professeur adjoint de cancérologie de la même université, «cette technique permettra de détecter la présence de cancers récurrents avant qu'ils ne soient mis au jour par les méthodes conventionnelles comme les scanners». Tout en se disant aussi optimiste sur le fait qu'un test sera disponible au cours des prochaines années pour un grand nombre de patients, le Dr Velculescu a jugé qu'il restait à savoir « comment en faire baisser le coût » pour le rendre accessible.

Pour le Pr Dominique Maraninchi, directeur général de l'Institut national du cancer (Paris), ce travail représente une avancée intéressante qui s'inscrit dans le courant actuel des nouvelles stratégies de plus en plus personnalisées de diagnostic et de traitement des cancers. «Nous participons à un travail mondial qui vise à analyser le génome complet de cinquante types de tumeurs différentes pour en identifier les mutations spécifiques et trouver des marqueurs spécifiques, avec pour objectif de mettre au point des tests de diagnostic ou de dépistage et bien sûr des stratégies de traitement personnalisés.»

Figaro

Quelle est la place de l'activité physique dans la lutte contre le cancer ?
Vendredi, 05/03/2010 - 00:00

Les cellules tueuses naturelles (Natural Killer cells), dont on connaît l'importance dans la lutte contre les cellules cancéreuses et dans le domaine immunitaire, voient leur activité cytotoxique augmenter après un programme d'activité physique modérée par rapport à une activité sédentaire, ce qui pose clairement la question de l'intérêt de l'activité physique en prévention, et en tant que thérapeutique.

Reste à savoir ce qu'il en est réellement, ce qu'une équipe finlandaise a tenté de déterminer de manière prospective sur 2 560 hommes suivis en moyenne durant 16,7 ans à l'aide du questionnaire Leisure-Time Physical Activity (LTPA). Il en ressort qu'une augmentation de 1,2 MET* de l'intensité moyenne de la LTPA est liée à une moindre mortalité, principalement par cancer pulmonaire et gastro-intestinal (RR = 0,85), même après correction pour l'âge, la consommation d'alcool et de tabac, l'IMC et l'ingestion de graisses et de fibres.

De plus, le risque de décès par cancer est réduit de 37 % chez les hommes qui pratiquent une activité équivalente à 5,2 METs (quartile le plus haut) par rapport à ceux dont l'activité est mesurée à 3,7 METs (quartile le plus bas)

Les auteurs ont par ailleurs tenté de traduire ces bénéfices en se basant sur la VO2max. Ils ont pu démontrer ainsi qu'atteindre une VO2max > 33,2 ml/kg/min (tertile le plus haut) réduit de 37 % l'incidence d'un cancer par rapport à ceux dont la VO2 max reste < 26,9 ml/kg/min (tertile le plus bas), essentiellement par réduction du risque de cancer du poumon. Enfin, chez les personnes dont la VO2max est > 26,9ml/kg/min, le risque de cancer est réduit de 27 % à la condition de dépenser plus de 2 500 kcal/sem au cours d'activités physiques.

Cet effet protecteur semble passer également par une action sur l'insuline, un facteur connu de prolifération cellulaire, dont le taux baisse dans les 24 à 36 heures qui suivent une activité physique, et une atténuation de la sécrétion de l'Insulin Growth Factor. De plus, l'exercice réduit la sécrétion de certaines cytokines inflammatoires et exerce un effet positif sur l'immunité.

JIM

Un risque moindre d'Alzheimer quant le taux de leptine est élevé
Vendredi, 05/03/2010 - 00:00

La leptine est une cytokine principalement sécrétée par le tissu adipeux et qui possède de nombreuses propriétés physiologiques s'exerçant à des niveaux multiples. Elle intervient certes dans la régulation des réserves de graisses au sein de l'organisme, mais elle serait également impliquée dans le développement cérébral et dans des fonctions neurophysiologiques primordiales telles la potentialisation à long terme et la plasticité synaptique au sein de l'hippocampe. Elle faciliterait aussi la clairance de la protéine β-amyloïde et, dans certains modèles animaux représentatifs du vieillissement cérébral et des démences type Alzheimer (DTA), elle améliorerait les troubles de la mémoire.

Qu'en est-il chez l'homme ? C'est à cette question que répond une étude de cohorte prospective dans laquelle ont été inclus 785 sujets (âge moyen, 79+/5 ans, 62 % de femmes) indemnes de toute forme de démence à l'état basal. Ces derniers faisaient partie de la cohorte de Framingham au 22ème cycle d'explorations (1990-1994).

Dans un sous-groupe composé de 198 sujets, une IRM cérébrale a été réalisée, environ 7,7 années après un dosage plasmatique de la leptine. Cet examen a permis de mesurer, à deux reprises, le volume cérébral total et le volume de la corne temporale qui est inversement corrélé à celui de l'hippocampe. Au terme d'un suivi d'une durée médiane de 8,3 années (0-15,5 ans) assuré jusqu'au 31 décembre 2007, une démence est survenue chez 111 des participants qui s'est avérée être le plus souvent une DTA (n=89).

Les taux plasmatiques de leptine les plus élevés ont été associés à un risque plus faible de DTA dans les modèles d'analyse multivariée. Ainsi à chaque élévation d'une déviation standard (DS) de la concentration logarithmique de leptine a été associée une diminution du risque relatif de 0,68 pour toutes les démences, versus 0, 60 pour les DTA.

Ces résultats correspondent à une risque en valeur absolue de 25 % en l'espace de 12 ans en cas de leptine située dans le quartile inférieur, versus 6 % dans le quartile supérieur. Une augmentation d'une DS de leptine a été également associée à un volume cérébral plus élevé et à un volume de la corne temporale plus faible, encore que le seuil de signification statistique n'ait pas été atteint. Ainsi, les taux circulants de leptine seraient à même de réduire l'incidence des démences et des DTA chez le sujet âgé asymptomatique selon des mécanismes qui restent à déterminer.

JIM

Une nouvelle classe thérapeutique dans le diabète de type 2 : les inhibiteurs du transporteur rénal de glucose
Vendredi, 05/03/2010 - 00:00

Le cotransporteur de glucose sodium-dépendant de type 2 (SGLT2) est exprimé dans le tube proximal du rein et est responsable d'environ 90 % de la réabsorption tubulaire du glucose. L'absence génétique de SGLT2 résulte en une glycosurie familiale bénigne. Ainsi, des molécules pharmacologiques capables de bloquer SGLT2 sont en cours d'étude dans le traitement du diabète de type 2. A partir d'une recherche bibliographique sur Pubmed, les auteurs ont identifié tous les articles portant sur la physiologie du SGLT2 ainsi que les études expérimentales précliniques et cliniques effectuées avec des inhibiteurs du SGLT2.

Les études précliniques avec des inhibiteurs du SGLT2 spécifiques montrent qu'ils entraînent une glycosurie dose-dépendante et abaissent la glycémie dans des modèles de diabète de type 2. Les études cliniques préliminaires sur trois mois montrent une baisse de l'HbA1c dose-dépendante de 0,9 % avec une perte de poids modeste. Les effets indésirables comprennent une augmentation des infections mycosiques génitales comparé au placebo, une augmentation du volume urinaire (de 300 à 400 ml/24 heures). Ainsi, les inhibiteurs de SGLT2 montrent des résultats prometteurs comme traitement adjuvant parmi les options thérapeutiques actuelles dans le diabète de type 2.

JIM

Un nouveau procédé pour déterminer la structure des protéines
Vendredi, 05/03/2010 - 00:00

Des scientifiques du centre Helmholtz de Munich et de l'Université Technique de Munich (TUM) ont développé un nouveau procédé permettant de déterminer de manière efficace la structure spatiale des protéines en solution. Cette méthode permet d'extraire des informations sur la structure des protéines, les liaisons avec leurs partenaires et les mécanismes de régulation biologique. Les résultats paraissent dans l'actuelle édition en ligne de la revue spécialisée "Angewandte Chemie".

La plupart des grosses protéines possèdent une structure spatiale complexe, dans laquelle les sous-unités compactes sont reliées entre elles par des chaînes flexibles. Cette flexibilité est importante afin de réguler l'interaction des protéines entre elles ou avec d'autres substances. Lorsqu'on analyse la structure des protéines aux rayons X, il apparaît de manière classique que celles-ci sont bâties autour d'un réseau cristallin rigide, ce qui empêche ou réduit la flexibilité des sous-unités. Pour comprendre la fonction des protéines dans leur environnement naturel, il faut développer des procédés où les structures des molécules sont en solution.

L'équipe du Prof. Michael Sattler, directeur de l'Institut pour la Biologie Structurale au centre Helmholtz de Munich et du "Bayerisches NMR Zentrum" à l'Université Technique de Munich, a combiné plusieurs procédés connus afin d'être capable de déterminer la structure spatiale des biomolécules en solution. Cette méthode est basée sur la spectroscopie RMN. "La spectroscopie RMN est la seule méthode qui permet de déterminer les détails atomiques de la structure spatiale de la macromolécule biologique en solution", explique le Prof. Sattler.

Lorsque l'on analyse des protéines ou des complexes de protéines à l'aide d'un spectromètre RMN, on n'obtient que peu de signaux exploitables dans un premier temps, car du fait de leur taille et de leur nombre, les protéines se superposent et interfèrent.

Avec une stratégie en quatre temps implémentée dans un logiciel d'analyse des mesures RMN, l'équipe du Prof. Sattler a pu isoler les différents signaux et dégager un modèle de structure réaliste.

Dans la première étape du processus, les chercheurs rassemblent les informations existantes sur les structures des sous-unités, provenant par exemple d'analyses aux rayons X ou d'analyses RMN conventionnelles. Dans les étapes suivantes, le but est de savoir comment ces différentes sous-unités sont ordonnées et liées entre elles. Deux types différents d'informations issus des expériences RMN peuvent alors être exploités. Les couplages résiduels dipolaires donnent des informations sur l'orientation relative des sous-unités du complexe.

A plusieurs endroits de la protéine, les chercheurs introduisent dans l'étape suivante des groupes nitroxyl, possédant un électron non apparié. Ceux-ci permettent de mesurer des écarts plus grands entre les sous-unités et par là de dégager la structure tridimensionnelle du complexe de protéines. "Notre méthode est générale, et peut être appliquée sur de nombreux complexes de protéines, même ceux de tailles conséquentes et qui possèdent de nombreuses sous-unités" ajoute Sattler.

"Nous sommes désormais en mesure d'étudier les mécanismes de régulation biologique, dans lesquelles les interactions courtes et transitoires jouent un rôle important". Les protéines n'étant pas des structures rigides mais mouvantes, les substances réactives peuvent s'y lier puis s'en redéfaire dans un second temps.

Ces aspects dynamiques jouent un rôle important dans la reconnaissance de molécules dans de nombreux systèmes biologiques.

Le procédé est ainsi d'une grande utilité pour la recherche : il permet désormais la caractérisation des structures et des interactions des protéines avec leurs partenaires de liaison, comme dans les processus métaboliques ou responsables de maladies, et fournit une base pour le développement de nouveaux médicaments.

BE

L'importance du sommeil dans l'apprentissage et la mémoire
Vendredi, 05/03/2010 - 00:00

Malgré les obstacles - absence de modèle naturel de l'insomnie chez l'animal et limites de l'expérimentation chez l'homme -, des progrès considérables ont été réalisés en quelques années dans la compréhension du sommeil. Sur son rôle, d'abord. Il est constitué de phases de sommeil dit lent, parce que le cerveau produit des ondes électriques lentes, qui se terminent par du sommeil profond. Ces phases de sommeil lent sont entrecoupées de 4 à 5 épisodes de sommeil paradoxal caractérisés par un relâchement musculaire total associé à une intense activité cérébrale. «Le sommeil paradoxal dure beaucoup plus longtemps chez le bébé que chez l'adulte et pourrait jouer un rôle dans le développement cérébral», explique Pierre-Hervé Luppi.

Beaucoup d'hypothèses sont émises sur le rôle du sommeil lent sur la mémoire. «Au cours de la journée, les multiples informations qui arrivent au cerveau sont engrangées sous forme de milliers de messages aux synapses, ces jonctions qui se créent entre les neurones. Le sommeil lent servirait à éliminer les synapses qui ne servent à rien, pour ne garder que les mémoires pertinentes et pouvoir engranger d'autres informations le lendemain.

Plusieurs arguments expérimentaux vont dans ce sens.» Autre hypothèse solide, celle du renforcement des apprentissages. «On rejouerait durant la nuit certains actes de la journée. Chez l'animal, on observe durant le sommeil lent des séquences d'activation de neurones identiques à celles enregistrées lors de tâches effectuées dans la journée. De plus, le transfert de ces souvenirs depuis l'hippocampe, au centre du cerveau, vers le cortex cérébral durant le sommeil lent permettrait leur stabilisation.»

Le retentissement des insomnies, et plus largement du manque de sommeil sur l'organisme, suscite aussi beaucoup d'intérêt. Des études convergentes suggèrent qu'un sommeil insuffisant favoriserait l'obésité. «La privation de sommeil diminue la leptine, qui coupe l'appétit, et augmente la ghréline qui l'accroît.

Ces deux hormones agissent aussi au niveau central, notamment sur un système ancestral d'éveil qui s'active en cas de besoin alimentaire, celui de l'orexine (l'hormone cérébrale produite par ces neurones). Mais l'ensemble de ces interactions est loin d'être connu», explique André Bourgin. Pour Pierre-Hervé Luppi, «ce lien n'est pas surprenant puisqu'il y a une proximité anatomique au sein de l'hypothalamus entre des voies qui régulent la prise alimentaire et les centres du sommeil et de l'éveil».

LF

Maladie de Parkinson : un problème de communication entre neurones ?
Vendredi, 05/03/2010 - 00:00

Une nouvelle étude menée à l'Institut et hôpital neurologiques de Montréal - le Neuro - de l'Université McGill est la première à établir un lien moléculaire entre la maladie de Parkinson et des anomalies dans la capacité des cellules nerveuses à communiquer. La maladie de Parkinson, une maladie neurodégénérative qui touche plus de quatre millions de personnes dans le monde, un nombre qui devrait doubler d'ici l'an 2030, engendre une rigidité musculaire et des tremblements et empêche le contrôle normal des mouvements. Elle se caractérise par la dégénérescence et la mort des neurones à dopamine dans des zones spécifiques du cerveau, d'où le déficit neurologique. On ne sait pas exactement ce qui cause la mort de ces neurones.

Des mutations du gène parkin sont responsables d'une forme commune héréditaire de la maladie de Parkinson. L'étude des anomalies dans les gènes et les protéines de patients atteints de formes héréditaires de la maladie de Parkinson permet au Dr Edward Fon, principal auteur de l'étude du Neuro, de faire la lumière sur les mécanismes moléculaires en cause dans la mort des neurones à dopamine.

La fonction de la protéine parkin n'est pas encore bien définie. Les scientifiques élucident la fonction d'une protéine en étudiant des formes normales et mutées et en examinant à quoi se lie la protéine. Ce genre d'études fournit des pistes sur les processus dans lesquels la protéine pourrait intervenir. On sait que la protéine parkin est en cause dans la dégradation d'autres protéines.

Cependant, la façon dont les anomalies de cette fonction sont liées à la maladie de Parkinson reste incertaine. Pour mieux comprendre comment une protéine parkin mutée entraîne la maladie de Parkinson, le Dr Fon et ses collègues se sont penchés sur le siège des mutations dans le gène, ont tenté de comprendre la fonction de la région généralement mutée et ont cherché les protéines qui se lient à ce domaine particulier de la protéine. L'endophiline-A est centrale au processus de transmission synaptique, notamment au trafic entre les vésicules synaptiques. La transmission synaptique est le processus par lequel une cellule nerveuse communique avec une autre.

Cela implique la libération de neurotransmetteurs d'une vésicule synaptique à la surface de la cellule. Le neurotransmetteur traverse l'espace ou synapse et est amené dans le neurone communicant (endocytose). Les vésicules synaptiques sont des sphères qui transportent et libèrent des neurotransmetteurs, le « signal » requis pour la propagation des signaux des cellules nerveuses par la synapse. La protéine liante, l'endophiline-A, joue un rôle important dans la régulation de l'endocytose des vésicules synaptiques, soit la formation, ainsi que le recyclage de vésicules synaptiques.

Une des constatations les plus constantes et intéressantes associées aux formes dominante et récessive de la maladie de Parkinson, y compris celles attribuables aux mutations de parkin, ce sont les anomalies dans la transmission synaptique, probablement liées à l'altération de l'endocytose, du recyclage ou de la libération des vésicules synaptiques », dit le Dr Fon. «

Pourtant, jusqu'à présent, les mécanismes moléculaires en cause restent inconnus. Donc, en liant le parkin à l'endophiline-A, une protéine au coeur de l'endocytose et du recyclage des vésicules synaptiques, nos constatations fournissent un lien moléculaire entre les gènes récessifs de la maladie de Parkinson et les anomalies de la transmission synaptique. Et nous disposons par conséquent d'une nouvelle série de cibles potentielles de traitement. »

IH

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top