RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 535
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Novembre 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Microsoft dévoile ses ambitions dans l'informatique à distance
La maison reconnaît l'activité de son habitant et la partage en ligne
Une ville anglaise offre l'accès à Internet à tous ses habitants
Avenir
Les robots entrent dans la maison
Un robot de compagnie pour l'automobiliste
Matière
Des cellules solaires à l'intérieur de fibres optiques
Terre
Le réchauffement climatique s'accélère et dépasse toutes les prévisions
Le rôle essentiel des volcans dans le refroidissement de la Terre au début du XIXe siècle
Vivant
Des cellules souches embryonnaires pour reconstituer un épiderme humain
Une grave maladie du cerveau traitée par thérapie génique
Découverte des mécanismes génétiques du maintien des tumeurs cérébrales
Radiothérapie : une nouvelle approche limitant les effets secondaires
Cancer du sein avancé : les promesses d'une nouvelle association
Un vaccin pour délivrer les accros du tabac
Trisomie 21 : des travaux laissent espérer qu'un traitement puisse un jour améliorer les capacités d'apprentissage
Recherche
Un train électrique qui peut circuler sur des lignes non électrifiées
Edito
Grand emprunt : 4 milliards pour basculer dans l'économie numérique



La commission Juppé-Rocard vient de définir ses sept priorités dans son rapport « Investir pour l'avenir »

Parmi ces priorités, l'une d'elles, "investir dans la société numérique" (Voir rapport page 41) propose de consacrer 4 milliards pour "Le déploiement des infrastructures de très haut débit », ce qui va largement au-delà des voeux de Michel Mercier, Ministre de l'Espace rural et de l'Aménagement du territoire, qui proposait récemment au Premier ministre de consacrer 1 milliard d'euros minimum, dans le cadre de cet emprunt, pour le déploiement du très haut débit fixe et mobile dans les territoires.

Selon le rapport Juppé-Rocard, "il convient d'accélérer la transition de la France vers le très haut débit en développant les infrastructures les plus pertinentes économiquement et techniquement (fibre optique, solutions satellitaires, très haut débit mobile...) pour les zones les moins denses (zones 2 et 3) afin de favoriser l'accès, à terme, au très haut débit sur l'ensemble du territoire."

Autre recommandation : investir 2 autres milliards dans "l'innovation dans des services et usages numériques, qui présente des externalités économiques positives et qui suppose des investissements risqués et à rentabilité de long terme pour réussir la démonstration de leur intérêt technique et économique,...".

Concrètement, le rapport préconise des "projets partenariaux publics-privés » de recherche et de démonstration visant la conception de logiciels, d'usages et de contenus numériques innovants dans tous les domaines, en premier lieu dans les réseaux intelligents (électriques et de transport), mais aussi dans le télétravail, la télémédecine, l'e-santé, l'e-administration, l'e-éducation, l'e-justice, la numérisation des contenus culturels. Ces projets s'appuieraient sur le développement d'infrastructures partagées.

Le rapport propose également la création d'une structure pour gérer ces 4 milliards , l' « Agence pour le numérique », qui deviendrait un outil au service de la future délégation nationale au numérique prévue dans le plan France numérique 2012 du Gouvernement. Elle aurait pour mission d'accélérer le basculement vers l'économie numérique, en agissant à la fois sur les infrastructures et sur le développement de nouveaux usages et contenus.

Les investissements se feraient pour moitié sous forme d'avances remboursables ou de garanties de prêt et, pour le reste, de subventions et de bonifications de prêt. « L'investissement total dans le très haut débit pourrait atteindre de 20 à 30 milliards d'euros, mais il n'est pas question de mobiliser beaucoup d'argent public. Les 2 milliards doivent servir à “débloquer” les discussions avec les opérateurs », explique-t-on à la commission.

L'autre initiative, dotée également de 2 milliards, devrait permettre d'investir dans « des réseaux intelligents et des applications innovantes (télétravail, télémédecine, e-santé, e-administration, e-éducation, e-justice, numérisation du patrimoine culturel...) au besoin en accompagnant le développement d'infrastructures partagées.

Il faut souligner que la fibre optique n'est pas la seule concernée par cette enveloppe de 4 milliards. Les technologies satellitaires et mobiles seront aussi sollicitées, dans le but de pallier l'insuffisance des financements privés dans les zones rurales. Objectif : satisfaire la demande en débit qui, note le rapport, double tous les 18 mois et devrait atteindre 100 Mbit/s en 2013 ; et développer "les services à forte valeur ajoutée pour les ménages et les entreprises (télétravail, télémédecine...)". Aujourd'hui, 180.000 foyers seulement bénéficient d'un accès très haut débit.

Du côté des acteurs des télécoms, les réactions sont plutôt positives. La secrétaire d'Etat Nathalie Kosciusko-Morizet s'est réjouie des 4 milliards d'euros alloués aux TIC dans le cadre du Grand Emprunt, soulignant que « Le grand emprunt va donner les moyens d'offrir à la France une infrastructure numérique de pointe, au service des contenus et des usages dont nous savons qu'ils seront à la fois des moteurs de croissance et des leviers de socialisation ».

Saluant un "signal fort", le président de l'Arcep Jean-Ludovic Silicani a rappelé que le retour du numérique dans le grand emprunt était "une bonne surprise", avec un montant "pas négligeable". SFR a souligné que l'emprunt allait "permettre un effet de levier dans le cadre des investissements consacrés au déploiement de la fibre", tout en insistant sur la nécessité d'"un cadre réglementaire fort qui favorisera la mutualisation et le co-investissement".

Pour Maxime Lombardini, directeur général d'Iliad Free, "c'est une bonne nouvelle". Contrairement au souhait d'Orange, il rappelle lui aussi qu'"il est primordial de n'aider que le développement d'infrastructures mutualisées et ouvertes". Le dirigeant de Free rappelle ainsi clairement que l'attribution bienvenue de ces quatre milliards au développement de l'économie numérique ne règle pas le conflit majeur qui oppose, d'une part, l'ARCEP et les opérateurs privés et, d'autre part, France Télécom, sur le modèle économique à mettre en oeuvre pour déployer rapidement la fibre optique sur l'ensemble du territoire.

Dans une récente décision, l'ARCEP a en effet estimé que le multi-fibre était la solution qui "offrait les meilleures garanties en termes d'indépendance des acteurs, de neutralité technologique et de fluidité du marché au bénéfice du consommateur" et a chiffré le surcoût de la multi-fibre à +5 %. Mais, on s'en doute, cette vision n'est pas du tout celle de France Télécom qui considère que ce choix va entraîner une augmentation de 40 %.

France Télécom, plutôt que de mettre en place un réseau mutualisé, souhaiterait pour sa part diviser le pays en plusieurs zones géographiques bien distinctes, en fonction de la densité, et mettre en place un appel d'offres pour chacune des zones. L'appel d'offres aura pour conséquence de créer un opérateur unique sur chaque zone, à charge pour celui-ci de construire lui-même le réseau. Une option qui avantage évidemment France Télécom, qui jouit d'un avantage financier évident face à SFR, et plus encore face à Iliad.

L'opérateur historique a donc décidé de geler purement et simplement ses investissements en matière de très haut débit optique en attendant que ce conflit soit définitivement tranché par le Gouvernement et le Parlement.Pour mettre fin à cette situation conflictuelle qui bloque le déploiement de la fibre optique, le Gouvernement devrait annoncer début décembre un plan national pour le très haut débit qui prévoit que dans les grandes villes, où l'investissement est le plus rentable, le déploiement sera laissé à l'initiative des seuls opérateurs privés. En revanche, dans les zones moins peuplées, le schéma passera par le lancement d'appels à projets qui pourraient être soutenus par l'État via des outils financiers incitatifs. Les collectivités locales pourraient notamment monter un dossier avec financement 100% public dans les zones dépeuplés et rurales.

L'Association des villes et collectivités pour les communications électroniques et l'audiovisuel (Avicca) estime pour sa part, dans une récente étude, qu'il serait nécessaire de dégager dix milliards d'euros de subventions et de bonifier les emprunts à hauteur de trente milliards d'euros pour desservir l'ensemble du territoire en très haut débit optique.

A la lumière des ces enjeux économiques, sociaux et culturels majeurs, on voit donc à quel point les choix qui seront faits au cours de ces prochaines semaines par le Gouvernement seront capitaux pour permettre à l'ensemble de nos concitoyens, de nos entreprises et de nos services publics d'accéder sur tout le territoire au très haut débit optique avant 10 ans, ce qui est une condition majeure si nous voulons que la France continue demain de peser et d'exister dans l'économie planétaire de la connaissance.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Microsoft dévoile ses ambitions dans l'informatique à distance
Vendredi, 27/11/2009 - 00:00

Microsoft a annoncé le lancement le 1er janvier prochain du système d'exploitation Windows Azure, un programme fonctionnant à partir de serveurs distants et destiné à tirer parti de l'intérêt croissant pour les logiciels et les services utilisés via internet. Testé depuis un an, Azure repose sur les technologies de "cloud computing" (littéralement, informatique en nuage) qui permettent d'exécuter des applications via des serveurs distants comme si elles étaient installées sur le disque dur de l'utilisateur.

Le nouveau système de Microsoft proposera, entre autres, une plate-forme en ligne destinée aux développeurs de logiciels pour qu'ils puissent créer leurs propres applications, ainsi que des capacités de stockage à louer pour les entreprises.

Les internautes, eux, bénéficieront d'un espace de stockage en ligne pour sauvegarder leurs données, ainsi que d'applications en ligne.

Le succès de cette stratégie repose sur sa transparence vis-à-vis des utilisateurs, a déclaré à Reuters Ray Ozzie, "architecte logiciel" en chef chez Microsoft, au sujet du futur réseau de serveurs "en nuage".

"Du point de vue du consommateur, le meilleur 'cloud computing' réside dans le fait qu'il ne s'en rende pas compte. Azure (permettra) aux entreprises non-informatiques (...) de se concentrer sur le coeur de métier", a expliqué Ray Ozzie à l'occasion de la conférence annuelle des développeurs-maison. Le service de gestion distribuée reposera sur d'importants centres de données de Microsoft et permettra aux portails et sites internet de rester opérationnels même en cas de pics de fréquentation qui, sans cela, auraient paralysé leur activité.

Le lundi suivant Thanksgiving aux Etats-Unis représente souvent le jour le plus actif de l'année en terme de commerce en ligne et expose les entreprises à un besoin accru et ponctuel en capacité de leurs serveurs, sans en avoir besoin forcément le reste de l'année.

"Le consommateur qui fait ses course en ligne, pourra les mener à bien, ne perdra pas le contenu de son panier et n'aura pas à cliquer sur le bouton de retour en arrière et à se demander si sa transaction a abouti", argumente Ray Ozzie, citant également les périodes de craintes sanitaires ou celles suivant des désastres majeurs.

Cette nouvelle approche de mise à disposition d'espace de stockage dans des centres de données et d'offre de services en ligne peut sembler un changement radical de stratégie pour Microsoft, dont l'activité et la croissance reposent depuis longtemps sur la vente de logiciels à installer. Mais Ray Ozzie, qui a succédé à Bill Gates en juin 2006 a précisé que le point commun resterait le logiciel, indépendamment du moyen par lequel il est fourni.

Reuters

La maison reconnaît l'activité de son habitant et la partage en ligne
Vendredi, 27/11/2009 - 00:00

On sait déjà que la majorité des informations partagées sur Internet concerne les activités quotidiennes des internautes. Une mise à jour qui pourrait bien être faite automatiquement à l'avenir en combinant les réseaux sociaux et l'intelligence ambiante, aussi appelée domotique. C'est en tout cas ce que vise le projet Astra, une plate-forme logicielle qui s'appuie sur les maisons intelligentes. « Dans ce projet, un environnement rempli de capteurs repère l'activité de l'utilisateur et fournit la réponse sociale adaptée en fonction des critères remplis par celui-ci », explique à L'Atelier le professeur Achilles Kameas, le coordinateur du projet. Il peut par exemple mettre à jour son statut en ligne, mais pas seulement.

Par exemple, s'il cuisine et qu'il a défini qu'il ne devait pas être dérangé durant cette activité, un contact essayant de le joindre par téléphone se verra averti qu'il n'est pas disponible. Mieux, si lui aussi se trouve dans un environnement intelligent, il sera averti par celui-ci, par exemple le cadre lumineux où se trouve la photo de son contact changera de couleur.

La version prototype s'appuie sur un réseau social propre, chaque utilisateur gérant ses contacts. Ceux-ci sont regroupés par groupe en fonction de l'activité sociale qu'ils partagent. « L'utilisateur peut définir quelle information est partagée, et quel groupe y accèdera », explique Achilles Kameas. A terme, on pourrait envisager une gestion par groupe d'amis plus que par activités.

Atelier

Une ville anglaise offre l'accès à Internet à tous ses habitants
Vendredi, 27/11/2009 - 00:00

C'est bientôt les fêtes de fin d'année, et la cité de Swindon, dans le sud de l'Angleterre, a décidé de faire un joli cadeau à ses habitants, surtout aux plus démunis. Le conseil municipal (le Swindon Borough Council) vient ainsi d'annoncer que la ville proposerait bientôt à tous ses habitants - ils sont un peu moins de 200 000 - un accès gratuit à Internet via la technologie Wi-Fi. C'est la première initiative britannique du genre, selon la municipalité.

Une compagnie, Digital City UK, a été créée pour l'occasion avec des partenaires privés, dont la ville détient 35 %. Son service, baptisé Signal s'appuiera sur un réseau sans fil mesh (« maillé ») de 1 400 points d'accès qui couvrira tout Swindon. Les travaux démarreront en décembre et s'achèveront en avril, en principe.

Signal permettra de se connecter au Web et de consulter ses e-mails, mais avec un « usage limité », indique la municipalité. Le service gratuit sera limité à un certain nombre d'heures par jour et à un certain volume de données, tous deux non indiqués.

Les habitants de Swindon pourront aussi opter pour un accès « normal » et payant de 20 Mbit/s, pour un prix « significativement moins élevé que celui pratiqué par les principaux FAI haut débit ». Les visiteurs auront aussi la possibilité d'acheter un accès à Internet facturé à la consommation (pay-as-you-go).

Les promoteurs du projet évoquent aussi - sans plus de précisions - la surveillance à distance des domiciles par vidéosurveillance (CCTV), la délivrance d'informations aux habitants, comme leur consommation d'électricité en temps réel ou la qualité de l'air, ainsi que la télémédecine pour les professionnels de santé.

Selon l'AFP, le projet coûtera 1,1 million d'euros. L'accès gratuit sera financé par les revenus engendrés par le réseau grâce aux services commerciaux et communautaires qu'il permettra d'offrir. Le modèle pourrait être reproduit dans d'autres villes outre-Manche.

OINet

^ Haut
Avenir
Nanotechnologies et Robotique
Les robots entrent dans la maison
Vendredi, 27/11/2009 - 00:00

ls assument déjà un certain nombre de tâches pénibles ou en environnement hostile dans l'industrie ou dans l'armée. On nous dit que la prochaine étape sera leur arrivée dans les foyers.

Mais sous quelle forme ? Et pour faire quoi ? Les 4 millions de possesseurs du robot aspirateur Roomba (dont 40 000 en France) ne se posent sans doute plus ce genre de questions. Ce robot circulaire réfléchit 64 fois par seconde pour mobiliser ses capteurs de poussière, d'obstacle ou de vide. Il ne quitte la pièce qu'une fois entièrement nettoyée pour passer à la suivante. Sa tâche accomplie, il rentre à sa base pour se recharger.

Cet exemple simple mais explicite nous montre que les robots qui envahiront nos foyers ne seront pas forcément des petits êtres mécaniques à forme humaine. Comme leurs cousins industriels affectés aux tâches pénibles, ils feront sans doute leur entrée pour soulager les tâches ménagères.

On l'a vu pour l'aspiration, mais des solutions existent également pour le repassage. Moins sophistiqué, mais tout aussi utile, le Dressman TJ 10500 de Siemens repasse les chemises. Il possède 12 programmes différents selon le tissu à traiter. Et il y a de fortes chances que les prochaines générations puissent reconnaître le type de tissu et adapter le traitement en conséquence.

Mais alors, quelle différence entre une machine à laver et un robot domestique ? Contrairement à une simple machine, le robot a la capacité, à travers des capteurs (micro, caméra, senseur, etc.), de saisir des informations sur son environnement, de les analyser et d'exécuter un programme pour agir sur cet environnement. Autre caractéristique, il possède la faculté d'apprendre au fur et à mesure de son usage. A l'instar du robot aspirateur qui va progressivement mémoriser la taille de la pièce et l'emplacement des meubles pour optimiser son parcours.

Au-delà de l'aspiration ou du repassage, il existe une multitude d'autres usages possibles des robots domestiques. Déjà des spécimens proposent de surveiller votre domicile en votre absence, comme le Rovio de WowWee qui embarque une webcam mobile sans fil et autonome. Piloté à distance à partir d'un PC ou d'un téléphone mobile, il peut voir, entendre et parler pour vous dans toute la maison.

Pour la corvée de la tonte de la pelouse, Husqvarna propose la gamme Automower pour la prendre en charge. Le modèle le plus puissant assure la tonte de 3 000 mètres carrés de terrain, tant que la pente ne dépasse pas 35 %. Pour sa part, le Litter-Robot gère la litière du chat. Il est capable de la nettoyer automatiquement grâce à un système de tamisage breveté, et votre compagnon préféré bénéficie d'un espace toujours propre. Cousin du robot aspirateur, Scooba est un robot serpillière qui assure, en toute autonomie, le nettoyage des sols.

Figaro

Un robot de compagnie pour l'automobiliste
Vendredi, 27/11/2009 - 00:00

GPS, radio, téléphone, panneaux de signalisation, tableau de bord... La quantité d'informations que doit ingurgiter et analyser un automobiliste ne cesse de croître ! Pour l'aider à digérer cette masse en constante progression, le groupe de recherche des robots personnels du Media Lab - un laboratoire du Massachussetts Institute of Technology- a imaginé un robot personnel à la fois affectif et intelligent spécialement conçu pour les voitures.

Baptisé AIDA(pour Affective Intelligent Driving Agent), ce compagnon doit aider les conducteurs à prendre la bonne décision. Cette sorte de super-GPS, développé en partenariat avec Audi, la marque haut de gamme du groupe Volkswagen, et avec l'équipe SENSEable City Lab dirigé par Giusy di Lorenzo, permettra entre autre de choisir le meilleur chemin pour se rendre d'un point A à un point B. « En une semaine, AIDA aura deviné où se trouve votre maison et votre lieu de travail. Peu après, il sera en mesure de vous diriger vers votre épicerie préférée, ou de vous suggérer un itinéraire pour éviter un embouteillage », assure le MIT.

I&T

^ Haut
Matière
Matière et Energie
Des cellules solaires à l'intérieur de fibres optiques
Vendredi, 27/11/2009 - 00:00

Des chercheurs du Georgia Tech Institute of Technology ont développé un nouveau type de cellules photovoltaïques à l'intérieur même de fibres optiques à l'aide de nanostructures d'oxyde de zinc tri dimensionnelles, produites au sein des fibres et couvertes de matériaux à pigments photosensibles. L'approche pourrait permettre aux systèmes photovoltaïques de ne plus être cantonnés à des panneaux solaires sur le toit des maisons, en bref d'être "invisibles".

Avec cette technologie, les générateurs photovoltaïques sont pliables, camouflables et mobiles, d'après Zhong Lin Wang, professeur de Sciences des Matériaux au Georgia Tech et directeur de la recherche. Les fibres optiques pourraient conduire la lumière du soleil dans les murs des bâtiments où les nanostructures la convertissent en électricité.

Le principe adopté pour créer ces nanostructures à pigments photosensibles (ou cellules de graetzel, en anglais dye-sensitized solar cell), consiste en un système photochimique capable de générer de l'électricité. Elles sont moins chères à fabriquer que les cellules classiques à base de silicium monocristallin et même polycristallin, flexibles et robustes, mais leur efficacité de conversion de la lumière en énergie électrique est moindre.

Cela n'inquiète pas l'équipe de chercheurs qui avancent que la surface active de conversion peut être très importante et donc que le système pourrait être tout à fait viable. Cette technologie permettrait aussi aux architectes et designers d'inclure les cellules dans les murs des bâtiments, véhicules et même équipements militaires.

Les fibres optiques utilisées sont celles-là mêmes qu'utilise l'industrie des télécommunications pour le transport de données. Elles sont constituées d'un coeur où se propage la lumière par successions de "rebonds" sur les bords, entouré d'une gaine et d'une protection.

Les chercheurs retirent la gaine et couvrent le coeur d'une couche conductrice d'oxyde de zinc à partir de laquelle ils font pousser des nanofils d'oxyde de zinc en brosse, un peu comme une brosse pour tuyaux. Les nanofils sont ensuite recouverts avec des pigments photosensibles pour convertir la lumière en électricité.

La lumière qui entre dans les fibres optiques passe à travers les nanofils, où ils interagissent avec les pigments photosensibles pour produire le courant électrique. Un électrolyte liquide entre les nanofils collecte les charges électriques. Le résultat est un hybride nanofil/fibre optique qui est d'autant plus efficace que la fibre est longue : en effet, plus la fibre est longue, plus les chances que les photons entrent en contact avec les pigments photosensibles pour libérer un électron est importante.

Le problème auquel l'équipe fait face est de faire entrer suffisamment de lumière à l'intérieur de la fibre, et l'équipe se penche sur l'utilisation de lentilles concentrant la lumière sur les extrémités des fibres. Wang et ses collègues ont pour le moment atteint une efficacité de 3,3 % avec leur prototype et espèrent atteindre les 7 ou 8 % en utilisant d'autres matériaux pour les fibres, comme le quartz, même si le but est de réduire les coûts et donc d'utiliser des fibres en polymères.

Même si ces résultats sont inférieurs aux cellules solaires à base de silicium, ces cellules sont toujours bien moins chères à fabriquer et constituent une solution pour de multiples applications sur les véhicules ou les équipements militaires, complémentaires des applications actuelles des panneaux solaires.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement climatique s'accélère et dépasse toutes les prévisions
Vendredi, 27/11/2009 - 00:00

C'est le pire scénario jamais imaginé. Le réchauffement climatique pourrait atteindre sept degrés en 2100 selon vingt-quatre climatologues de renom. L'Institut de recherche sur les impacts du climat de Potsdam, en Allemagne, publie en effet mardi 24 novembre un document de 64 pages représentant une synthèse des travaux scientifiques sur le changement climatique parus depuis le 4e rapport du Groupe intergouvernemental d'experts sur le climat (GIEC, 2007), assorti d'un appel à agir.

'La température moyenne de l'air devrait se réchauffer entre 2 et 7 degrés en 2100 par rapport à la période préindustrielle', affirment les auteurs. L'augmentation de 40 % des émissions de CO2 entre 1990 et 2008 rend plus difficile à atteindre l'objectif fixé en juillet de limiter à 2 degrés le réchauffement global. 'Chaque année de retard dans l'action augmente les chances que le réchauffement dépasse 2 °C', avertissent-ils.

A l'attention de ceux qui douteraient encore de l'origine humaine du réchauffement, le document de Potsdam rappelle que durant le dernier quart de siècle, les températures moyennes ont augmenté de 0,19 degré par décennie, ce qui correspond parfaitement aux prévisions calculées sur la base des émissions de gaz à effet de serre.

L'un des effets les plus alarmants du changement à venir concerne la multiplication des phénomènes météorologiques extrêmes, que ce soit au niveau des températures (canicules) ou des précipitations (sécheresses, inondations). Un autre concerne l'élévation du niveau des mers.

La montée actuelle du niveau des mers, de 3,4 mm par an durant les quinze dernières années, 'est supérieure de 80 % aux prévisions passées du GIEC', selon les climatologues. Au lieu d'une fourchette comprise entre 18 et 59 cm d'augmentation, les experts estiment désormais que si les émissions de gaz à effet de serre ne sont pas réduites, la fonte des calottes glaciaires provoquera une montée des eaux comprise entre un et deux mètres d'ici à la fin du siècle.

LM

Le rôle essentiel des volcans dans le refroidissement de la Terre au début du XIXe siècle
Vendredi, 27/11/2009 - 00:00

En appliquant une nouvelle technique analytique très originale sur les retombées de sulfate d'origine volcanique dans les précipitations de neige en Antarctique et au Groenland, une équipe franco-américaine vient de démontrer que les basses températures de la décennie la plus froide des derniers 500 ans (1810-1819) résultaient de la succession, à quelques années d'intervalle, de deux éruptions volcaniques majeures, dont l'une n'avait encore jamais été considérée dans les reconstructions climatiques. Ces travaux sont publiés dans la revue Geophysical Research Letters dont ils bénéficient des "Editor's highlights".

Indépendamment du forçage à long terme des gaz à effet de serre d'origine humaine, la température moyenne de la Terre peut fluctuer largement aux échelles de temps de quelques années. Divers mécanismes peuvent être à l'origine de telles fluctuations : variations de l'activité solaire, circulation océanique et événements de type El Nino ou La Nina dans l'océan Pacifique, éruptions volcaniques...

La Terre a ainsi connu des températures relativement froides durant la décennie 1810-1819, au point que cette décennie figure comme la plus froide des 500 dernières années selon les mesures instrumentales des derniers 150 ans et les reconstructions paléoclimatiques. Une partie de ce refroidissement a été attribué à l'énorme éruption du volcan Tambora en Indonésie, en 1815. De telles éruptions cataclysmiques refroidissent en effet la planète car elles déversent d'importantes quantités de poussières et surtout de dioxyde de soufre dans la stratosphère (au-dessus de 15 km d'altitude).

Alors que les poussières sont rapidement éliminées du fait de leur masse, à ces altitudes le dioxyde de soufre gazeux se transforme en gouttelettes d'acide sulfurique qui agissent comme un véritable parasol en réfléchissant la lumière solaire, i.e. en réduisant l'énergie reçue au sol.

Cependant, si ce mécanisme permettait de justifier le coup de froid entre 1815 et 1819 par l'éruption du Tambora, il restait à expliquer le refroidissement terrestre observé à partir de 1810. Afin d'étudier cette question, une équipe franco-américaine(1) a mis au point une méthode d'analyse très originale des carottes de glace, qu'elle a appliquée aux strates datant du début du XIXe siècle de carottes forées au Groenland et en Antarctique.

Après avoir prélevé les quelques millionièmes de gramme de sulfate présents dans ces strates, les chercheurs ont réalisé une véritable microchirurgie moléculaire consistant à déterminer les proportions des quatre isotopes stables du soufre constituant le sulfate (soufre 32, 33, 34 et 36).

Au sein des couches de glace datant de 1809-1810, ils ont observé une anomalie particulière dans les rapports de concentration entre ces isotopes. Or cette forme d'anomalie isotopique sur le soufre du sulfate ne peut résulter que de réactions chimiques se produisant au sein de la stratosphère après une éruption volcanique. Ils ont ainsi pu démontrer qu'une éruption volcanique cataclysmique, inconnue à ce jour, s'est produite au début de l'année 1809, probablement au niveau des Tropiques, et qu'elle a affecté le climat de manière globale.

Ces résultats confortent le rôle important joué par l'activité volcanique explosive dans la modulation du climat terrestre aux échelles de temps de quelques années. Étendues à des périodes de temps plus longues, ces mesures très innovantes vont permettre une nouvelle évaluation du forçage climatique dû aux volcans, notamment au cours du dernier millénaire, une information particulièrement importante comme donnée d'entrée des modèles climatiques, ceux-ci étant habituellement testés sur cette époque reculée.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules souches embryonnaires pour reconstituer un épiderme humain
Vendredi, 27/11/2009 - 00:00

La recherche sur les cellules souches avance à grands pas. Une nouvelle illustration vient d'en être apportée par le travail mené par l'institut I-STEM* (I-STEM/ Inserm UEVE U861/AFM), publié dans la prestigieuse revue The Lancet.

L'équipe dirigée par Marc Peschanski a réussi à recréer l'ensemble d'un épiderme à partir de cellules souches embryonnaires humaines. L'objectif étant de proposer, un jour, cette ressource illimitée de cellules comme alternative thérapeutique, notamment aux grands brûlés et aux patients atteints de maladies génétiques affectant la peau. Ces travaux ont été en partie financés grâce aux dons du Téléthon.

Depuis plus de vingt ans, les médecins utilisent des techniques de culture cellulaire afin d'obtenir, à partir d'un petit échantillon de peau saine prélevée chez de grands brûlés, une surface cutanée suffisante à la reconstruction de l'épiderme détruit.

Bien que ce type de greffe soit utilisé avec succès, l'une de ses limites est le temps nécessaire (trois semaines) à la production d'une surface d'épiderme suffisante pour recouvrir les zones affectées. Des recherches ont déjà abouti à la mise au point de substituts cutanés, sortes de "pansements" pour essayer de protéger les malades dans la période qui précède la greffe. Mais sans réussir à éviter le risque de rejet immunitaire, ni celui de transmission de maladies.

D'où l'intérêt des travaux sur les cellules souches embryonnaires humaines (hES), qui ont deux caractéristiques fondamentales : une capacité d'expansion illimitée et une capacité à se différencier en tous les types cellulaires du corps humain. Le premier objectif de l'équipe de Marc Peschanski a été d'obtenir, à partir de cellules hES, des cellules souches superficielles de peau (kératinocytes) semblables à celles naturellement présentes chez l'homme au sein de l'épiderme, qui permettent le renouvellement constant de la peau.

Une fois cette étape franchie, son équipe a isolé ces kératinocytes souches, pour tester leur capacité à reconstituer un épiderme fonctionnel, chez la souris. Avec succès puisque, douze semaines après la greffe, elles avaient, de façon localisée, un épiderme humain adulte tout à fait normal et fonctionnel et dans lequel on retrouve tous les types cellulaires de peau. Un succès qui ouvre d'immenses perspectives.

Inserm

Une grave maladie du cerveau traitée par thérapie génique
Vendredi, 27/11/2009 - 00:00

L'équipe du Pr Aubourg de l'hôpital Saint-Vincent-de-Paul de Paris a réussi à freiner l'évolution d'une grave maladie cérébrale, l'adrénoleucodystrophie (ALD). Cette maladie génétique rare affecte le cerveau des jeunes enfants en bonne santé. Les chercheurs ont utilisé une combinaison de thérapie génique et de thérapie cellulaire pour ralentir la progression de la maladie chez deux enfants atteints d'ALD. Près de trois ans après, la progression de la maladie a été ralentie et aucun effet secondaire n'a été observé. L'ALD touche principalement les jeunes garçons entre 5 et 12 ans.

Une protéine défectueuse entraîne la destruction de la myéline dans le système nerveux central. La myéline étant la gaine qui entoure les nerfs en permettant la transmission de l'influx nerveux, à terme, les patients souffrent de démence, de problèmes moteurs et la maladie évolue vers la mort. Le seul traitement connu jusqu'alors était la greffe de moelle osseuse.

Les chercheurs ont utilisé un gène correcteur inséré dans des cellules souches de moelle osseuse par le biais d'un virus dérivé du VIH. Le gène correcteur s'est ensuite fixé sur le chromosome X afin de corriger le gène défectueux responsable de la maladie. Les deux patients ont subi la même procédure que pour une greffe : leur moelle a été détruite afin d'accueillir les cellules souches.

Deux ans plus tard, la bonne version de la protéine était toujours présente dans le système nerveux des enfants. Leur état est comparable à celui des patients qui bénéficient d'une greffe classique de moelle osseuse, expliquent les chercheurs. Ces travaux doivent désormais être confirmés à plus grand échelle, mais ouvrent la voie à de nouvelles découvertes concernant d'autres maladies génétiques.

Yahoo

Découverte des mécanismes génétiques du maintien des tumeurs cérébrales
Vendredi, 27/11/2009 - 00:00

Une équipe de chercheurs de la faculté de médecine de l'Université de Tokyo a identifié le rôle d'un facteur de croissance dans le maintien du pouvoir tumorigène de certaines cellules constituant les tumeurs cérébrales, une découverte qui pourrait permettre de former une nouvelle stratégie de lutte contre ces dernières.

Un gliome est une tumeur au cerveau formée par la dégénérescence maligne de cellules gliales (les cellules de soutien qui entourent les neurones). La forme la plus aggressive de gliome est le glioblastome multiforme, pour laquelle, malgré les progrès de la médecine, l'espérance de vie à 5 ans ne dépasse pas 10 %.

Récemment, des chercheurs sont parvenus à isoler des cellules souches cancéreuses issues de gliomes (GIC, ou cellules initiatrices de gliomes) : ces dernières présentent des caractéristiques proches de celles des cellules souches neuronales saines. Comme elles sont capables de se renouveler indéfiniment et de maintenir la population de cellules dans la tumeur, il serait essentiel de les détruire pour parvenir à éliminer définitivement celle-ci : néanmoins, à l'instar d'autres cellules souches cancéreuses, elles semblent résistantes à la radiothérapie et à la chimiothérapie.

Les chercheurs se sont penchés plus particulièrement sur une protéine appelée TGF-beta, impliquée de plusieurs façons dans le développement des gliomes, et ont cherché à identifier son influence sur les caractéristiques biologiques des GIC. Dans un premier temps, ils ont constaté que les GIC perdent leurs caractéristiques de cellules souches lorsqu'elles sont traitées au SB431542, un inhibiteur de TGF-beta.

Ils ont alors observé de plus près les gènes dont l'expression caractérise les cellules souches. Parmi ces derniers, ils ont constaté que l'expression de Sox2 est stimulée par TGF-beta mais inhibée par SB431542. Cependant, ils se sont aperçus que TGF-beta n'agit pas directement sur Sox2, mais sur un autre gène, appelé Sox4 : c'est ce dernier, dont on ignorait jusqu'ici le rôle dans le maintien des caractéristiques des cellules souches, qui régule l'expression de Sox2.

Les chercheurs ont ensuite inoculé des GIC traitées au SB431542 à des souris. Ces souris n'ont pas développé de gliomes, contrairement à celles qui ont reçu des GIC non-traitées.

Cela tend à montrer que l'inhibition de TGF-beta permet d'inhiber la formation de tumeurs par les GIC in vivo. En conclusion, les chercheurs sont parvenus à identifier le chemin métabolique par lequel TGF-beta assure le maintien des caractéristiques des GIC. Ils suggèrent que la perturbation de ce chemin, associée à la chimiothérapie ou à la radiothérapie classiques pourrait représenter une nouvelle stratégie possible de lutte contre les gliomes. Ils ajoutent cependant qu'il sera nécessaire d'établir un moyen d'amener les inhibiteurs de TGF-beta jusqu'aux GIC.

BE

Radiothérapie : une nouvelle approche limitant les effets secondaires
Vendredi, 27/11/2009 - 00:00

Des chercheurs de l'Ecole de Médecine de l'Université de Pittsburgh (Pennsylvanie) et de l'Institut National du Cancer (NCI), ont découvert un moyen de protéger les tissus sains des effets toxiques des radiations utilisées en radiothérapie, tout en augmentant la mort des cellules tumorales. Leurs résultats sont publiés dans la revue "Science Translational Medicine" éditée par l'"American Association for the Advancement of Science" (AAAS).

La radiothérapie est utilisée chez plus de la moitié des patients atteints d'un cancer. Elle est, avec la chirurgie, le traitement le plus fréquent et peut entraîner une guérison à elle seule. Elle peut être utilisée seule ou associée à la chirurgie et à la chimiothérapie. Ses indications sont liées au type de tumeur, à sa localisation, à son stade et à l'état général du patient.

Elle peut être pratiquée sans hospitalisation, car les séances sont de courte durée et les effets secondaires moindres que lors d'une chimiothérapie. Mais la même radiation efficace sur les cellules cancéreuses peut également détruire les cellules saines et provoquer des effets secondaires (asthénie, nausées, vomissements, anémie, leucopénie, thrombopénie, érythèmes, dermites, cystites...).

Des séquelles et des complications tardives peuvent apparaître plusieurs mois après la fin de l'irradiation (scléroses, raideurs, fibroses, atrophies), ainsi que des cicatrices et la mort de tissus sains. Les lésions induites sur les tissus normaux par les radiations limitent les doses thérapeutiques administrées et réduisent l'efficacité de la radiothérapie. Jeff Isenberg, de la "Division of Pulmonary, Allergy, and Critical Care Medicine, Pitt School of Medicine", et ses collègues du NCI, ont identifié une voie de signalisation biochimique qui influence la manière dont les cellules cancéreuses et les cellules saines répondent à une irradiation. Ils ont développé une stratégie basée sur des oligonucléotides morpholinos anti-thrombospondine-1, peptide se liant au récepteur cellulaire CD47.

La voie de signalisation de la thrombospondine-1 via son récepteur CD47 réduit la guérison en réponse au stress, et les souris dépourvues de l'un des gènes sont résistantes aux lésions dues aux radiations. L'inhibition de la liaison de la thrombospondine-1 sur le récepteur CD47 confère une radiorésistance à des cellules endothéliales in vitro et protège les tissus mous (muscles, tissus adipeux, vaisseaux sanguins), la moelle osseuse, et les leucocytes associés aux tumeurs chez des souris irradiées. De façon surprenante, la protection des cellules saines ne s'accompagne pas d'une protection des cellules tumorales vis-à-vis des radiations. Au contraire, le pré-traitement par l'inhibiteur de la voie de signalisation CD47, augmente la radiosensibilité des tumeurs, et diminue leur progression.

BE

Cancer du sein avancé : les promesses d'une nouvelle association
Vendredi, 27/11/2009 - 00:00

Chaque année en France, 11 000 femmes meurent encore d'un cancer du sein et 50 000 nouveaux cas sont déclarés. Malgré des résultats spectaculaires au niveau thérapeutique depuis les années 90, cette maladie reste la principale cause de mortalité par cancer chez la femme. Des avancées thérapeutiques significatives continuent pourtant de se faire jour.

C'est ce que montrent par exemple, les résultats d'une étude de phase II conduite à Barcelone et basée sur l'association de deux anticancéreux par voie orale. Chez 229 patientes atteintes d'un cancer du sein localement avancé ou métastatique, l'équipe du Pr Jose Baselga à l'Institut du cancer de Vall d'Hebron, a évalué le sorafénib (Nexavar®) déjà reconnu dans le traitement des cancers du rein et du foie- en association avec la capécitabine (Xeloda®).

Réalisé en double aveugle et contre placebo, ce travail montre que cette association pourrait constituer une option thérapeutique de choix. « Nos résultats (en termes d'amélioration de la survie) sont un signal positif quant au potentiel de cette association », explique le Pr Baselga. La tolérance a été conforme aux attentes, et aucune toxicité nouvelle ou inattendue n'est apparue »

DS

Un vaccin pour délivrer les accros du tabac
Vendredi, 27/11/2009 - 00:00

Un vaccin antitabac injectable pour éviter les rechutes chez les fumeurs qui tentent d'arrêter est dans le «pipeline» de l'industrie depuis maintenant près de dix ans, et c'est la dernière ligne droite pour une des trois firmes qui se positionnent sur ce marché. Dans quelques mois, on saura s'il peut être autorisé à la vente. Le groupe pharmaceutique britannique GlaxoSmithKline, après des années d'essais encourageants chez l'animal, puis dans un premier temps plus décevants chez l'homme, a démarré les essais de phase 3 censés déterminer son efficacité réelle sur les fumeurs.

La dépendance tabagique est due à la nicotine, une drogue naturelle également fabriquée par le cerveau. Présente dans la fumée des cigarettes, lorsqu'elle est inhalée dans les poumons, elle chemine jusqu'aux alvéoles, passe comme l'oxygène dans le sang artériel et se retrouve presque instantanément dans le cerveau. Là, elle stimule des neurones dopaminergiques qui produisent la sensation de plaisir et aussi... la dépendance. Le hic, c'est que la nicotine est une toute petite molécule qui passe facilement la barrière sang-cerveau, et ce, sans être détectée par l'organisme (comme le sont les protéines des virus ou des bactéries étrangères au corps).

D'où l'idée qu'ont eu les américains de Nabi (collaborateurs de GSK), les suisses de la firme Cytos (adossée à Novartis) et les britanniques de Xenova de rendre «détectable» la nicotine naturelle. Le but est de l'empêcher de passer dans le cerveau et de réduire ainsi l'envie, voire le besoin de fumer. Les trois laboratoires l'ont couplée avec une protéine virale ou une toxine du choléra génétiquement modifiée pour qu'elle ne soit pas dangereuse.

Lorsque l'ensemble nicotine-toxine est injecté dans le corps, il est reconnu comme étranger par le système immunitaire qui ordonne à ses cellules de produire des anticorps. Les anticorps circulent dans le sang, reconnaissent la nicotine du tabac, se collent à elle. Cela donne une molécule si grosse qu'elle devient incapable de franchir les barrières qui protègent le cerveau.

Les trois firmes concurrentes n'ont pas avancé du même pas. Lorsque la firme britannique Xenova (absorbée depuis par Celtic Pharma) a lancé le développement de ce type de vaccin fin 1999, les résultats sur les rats fumeurs ont été immédiatement très intéressants. Et les premiers essais humains dits de phase 1 démarrés en 2001, sur une soixantaine de volontaires fumeurs et non fumeurs, ont permis de montrer que le produit était bien toléré.

En 2005, le vaccin de Cytos, testé par le tabacologue suisse Jacques Cormuz (centre hospitalier universitaire de Lausanne) avait pris une longueur d'avance. Un essai positif avait été présenté au congrès de l'American Society for Clinical Oncology à Orlando sur 300 gros fumeurs âgés de 18 à 70 ans et qui avaient cessé de fumer depuis 8 semaines. Un tiers des vaccinés volontaires avaient eu une forte production d'anticorps et 57 % de ces sujets n'avaient toujours pas refumé six mois après la vaccination.

Mais désormais c'est le vaccin Nabi-GSK qui tient la corde : si les essais de phase 3 sont positifs, il pourrait être rapidement autorisé par la Food and Drug Administration américaine. Plusieurs difficultés restent toutefois à surmonter : 70 % des vaccinés font un syndrome grippal aigu. Les anticorps ont une demi-vie courte, il faudra donc des injections à répétition en cas de rechutes.

Figaro

Trisomie 21 : des travaux laissent espérer qu'un traitement puisse un jour améliorer les capacités d'apprentissage
Vendredi, 27/11/2009 - 00:00

Des travaux menés sur un modèle animal de trisomie 21 laissent espérer qu'un traitement puisse un jour améliorer les capacités d'apprentissage des personnes atteintes de cette maladie liée à la présence d'un chromosome 21 supplémentaire. Une équipe coordonnée par le neuroscientifique américain William Mobley (University of California, San Diego, E-U) a réussi à améliorer les capacités cognitives de souris atteintes d'une maladie comparable à la trisomie 21. Pour cela les chercheurs ont utilisé une molécule testée pour d'autres maladies qui stimule la production d'un neurotransmetteur, la noradrénaline. Ces travaux ouvrent la voie à un traitement des symptômes de la trisomie chez l'homme.

Il y a une quinzaine d'années a été conçu un modèle de souris possédant trois exemplaires du chromosome 16. Sachant que de nombreux gènes de ce chromosome sont homologues avec ceux du chromosome 21, cette souris (appelons-la 'souris T16') offre un très bon modèle d'étude de la trisomie 21.

Les souris T16 souffrent notamment de difficultés à faire de nouveaux apprentissages : par exemple, lorsqu'elles sont placées dans une cage inconnue, elles ne construisent pas de nid, contrairement aux autres souris de laboratoire. Cela correspond aux difficultés d'apprentissage et de mémorisation des tâches des personnes atteintes de trisomie 21.

Mobley et ses collègues ont observé chez ces souris une dégénérescence des neurones dans un petit noyau du cerveau, le locus coeruleus, symptôme observé chez les personnes atteintes de T21. Or ce noyau envoie des signaux vers l'hippocampe, zone du cerveau très importante pour l'apprentissage et la mémorisation. Ces signaux sont portés par la noradrénaline.

Les chercheurs ont donné aux souris un médicament qui facilite la synthèse de noradrénaline dans le cerveau. Les effets étaient visibles quelques heures après, relate Ahmad Salehi : les souris 'trisomiques' plongée dans un environnement inconnu se sont comportées normalement. Ces travaux, publiés dans la revue Science Translational Medicine, montrent que, malgré la dégénérescence des neurones du locus coeruleus, les symptômes peuvent être corrigés. C'est la connexion entre ce noyau et l'hippocampe qui est restaurée. Ces mécanismes concernent d'autres pathologies neurodégénératives.

«Il s'agit de résultats très intéressants», commente Jacqueline London, professeur à l'Université Denis Diderot Paris-7 et présidente de l'AFRT. «Grâce aux modèles murins, on peut mettre en évidence les dysfonctionnements liés à la présence d'un chromosome supplémentaire, les localiser et tenter de les enrayer. Il y a une accélération des résultats obtenus ces trois dernières années sur la façon d'enrayer les symptômes de la trisomie», poursuit la biologiste. L'équipe française de Jean Delabar, à Paris-7, a de son côté publié des résultats sur les effets bénéfiques d'extraits de thé vert contre un déficit cognitif lié à une anomalie chromosomique.

Toutes ces avancées nécessiteront la mise en place d'essais cliniques, souligne Jacqueline London. «Il n'est pas facile de mobiliser les patients et leurs familles pour ces essais, car on a l'idée que la trisomie 21 n'est pas une maladie mais un handicap de naissance pour lequel on ne peut rien faire».

NO

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un train électrique qui peut circuler sur des lignes non électrifiées
Vendredi, 27/11/2009 - 00:00

Mitsubishi Denki a annoncé le 10 novembre 2009 qu'il a développé un nouveau système de stockage de l'énergie électrique capturée lors du freinage dynamique d'un train et un système de simulation qui permet de concevoir un réseau de batteries utilisant au mieux cette énergie. Beaucoup de trains électriques sont équipés de systèmes de freinage dynamique.

Ce sont des dispositifs qui utilisent les moteurs comme des générateurs afin de ralentir le véhicule. Mitsubishi Denki a développé un système qui permet de stocker l'énergie ainsi libérée, à la fois à bord du train mais également dans des batteries disposées le long de la voie ferrée dont l'alimentation se fait via les caténaires. Il a été testé entre avril et juin 2009 sur les lignes de la société Odakyu Electric Railway (Tokyo et Kanagawa).

L'énergie ainsi stockée est utilisée pour la traction du train. Les batteries situées à terre peuvent restituer l'électricité via les caténaires ; celles embarquées à bord du train sont destinées au fonctionnement de celui-ci lorsqu'il circule sur des voies non électrifiées. Le système de simulation prend notamment en compte les paramètres relatifs au comportement du train et aux dispositifs de stockage.

Il permet ainsi de déterminer le nombre et la répartition optimaux des batteries de manière à réduire les coûts de conception et de construction d'un tel dispositif. Mitsubishi et la compagnie JR East testent actuellement un train électrique, le NE (New Energy) Train, qui peut circuler indifféremment sur des lignes électrifiées ou non. Il est équipé de neuf batteries Li-ion de 600 V et 163 kWh chacune. Sa vitesse maximale est de 100 km/h et son autonomie de 50 km (distance calculée sans compter l'électricité consommée pendant l'arrêt en gare).

Le moteur est alimenté par les caténaires et/ou les batteries. Ces dernières sont rechargées soit par les caténaires, soit lors du freinage. JR East étudie également un système qui permettrait de recharger les batteries en gare, même dans les zones où les lignes ne sont pas électrifiées.

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top