RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 554
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Mai 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une voiture expérimentale dirigée par le regard
Le compte-rendu d'une réunion en temps réel !
Nouvelle offensive de Google dans le livre électronique
Combien coûte un livre numérique ?
France : la FTTH peine à décoller
Matière
Le coût des piles à combustible pourrait être réduit de 80 %
Nouvelles perspectives pour les piles solaires
Terre
Les glaces flottantes du globe en "constante diminution"
Les éoliennes vont conquérir l'espace maritime français
Réchauffement en Arctique : le coupable serait la rétraction des glaces de mer
Un laser pour faire tomber la pluie
Vivant
Le génome entier d'un homme séquencé
Cancer colorectal : un examen médical peut réduire de 43 % le taux de mortalité
Le prozac bientôt utilisé contre le cancer ?
Un anticorps monoclonal contre le cancer
Alzheimer : un vaccin prometteur pour combattre la maladie
Diminuer les effets secondaires liés au traitement de la maladie de Parkinson : c'est possible !
Maladies neurodégénératives : leurs protéines ont une structure commune
Edito
La mortalité par cancer continue de reculer



Selon "L'état des lieux sur la survie des patients atteints de cancers en France" publié par l'INCa (Institut national du cancer), le 22 avril, 320.000 Français sont victimes d'un cancer chaque année mais la moitié (53 %) y survivent au moins 5 ans et 120.000 en guérissent totalement.

Ces données sont issues du suivi de patients ayant été victimes d'un cancer avant l'an 2000 et il est probable qu'avec les nouveaux traitements mis au point depuis 10 ans, le taux de survie moyen pour les malades actuels ait encore augmenté. Comme le souligne le Pr Dominique Maraninchi, directeur général de l'Institut national du cancer, «Nous assistons à un processus d'amélioration du taux de survie après cancer de l'ordre de 10 % par décennie, si l'on se réfère aux enquêtes antérieures».

Cette bonne nouvelle vient pleinement confirmer une évolution à long terme constatée par de nombreuses études solides, tant au niveau national qu'international. L'Institut de Veille Sanitaire (InVS), avait ainsi publié en 2009 un recueil très complet sur l'évolution de l'incidence et la mortalité par cancer en France de 1980 à 2005.

Cette étude montrait que chez l'homme, la mortalité par cancer diminuait depuis 1989 de 1,5 % par an. Cette diminution résulte surtout de la baisse de la mortalité par cancers des voies aérodigestives supérieures (VADS), de la prostate, du poumon, de l'intestin et de l'estomac, et s'observe malgré l'augmentation de la mortalité par cancer du foie, de la peau et du pancréas.

Chez la femme, la mortalité diminue depuis 1963, et plus rapidement de 0,7 % par an depuis 1989. Cette diminution résulte surtout de la baisse de la mortalité par cancer de l'intestin, du sein, de l'estomac et de l'utérus, et s'observe malgré l'augmentation de la mortalité par cancer du poumon, du pancréas et de la peau.

Ces données de l'Institut de Veille Sanitaire (InVS) montrent que depuis 1980, l'incidence des cancers a quasiment doublé chez l'homme (+93 %) et fortement augmenté chez la femme (+84 %). Mais ces données confirment également que la mortalité par cancers en France est en nette diminution, si l'on tient compte de l'augmentation et du vieillissement de la population.

L'InVS souligne très justement que le nombre de personnes décédées d'un cancer en 2005 est certes supérieur de 13 % à celui de 1980. Mais il souligne que « cette augmentation est très inférieure à celle prévue par l'accroissement et le vieillissement de la population (37 %) ». Ramené à l'augmentation de la population, le risque de mortalité par cancer a bel et bien chuté au cours de ces 25 dernières années : de 29 % chez l'homme et de 22 % chez la femme.

Cette diminution de la mortalité par cancer n'est pas propre à la France. Les statistiques américaines montrent que le taux de mortalité par cancer a baissé de 2,1 % par an depuis 2002. C'est deux fois plus que la baisse annuelle de 1,1 % enregistrée dans ce même pays entre 1993 et 2002. Fait encore plus remarquable, depuis 7 ans, la mortalité par cancer baisse en valeur absolue aux Etats-Unis et a retrouvé le niveau des années 30 dans ce pays alors que la population américaine a considérablement augmenté et vieilli depuis 70 ans.

Cette tendance se retrouve également au niveau européen : une étude publiée dans Annals of Oncology montre en effet que le taux de mortalité par cancer a en effet diminué de 8 % depuis 10 ans. L'incidence des cancers a atteint un pic en 1998, pour diminuer progressivement, selon l'équipe de chercheurs dirigée par Carlo la Vecchia, Directeur de l'unité d'épidémiologie à l'institut Mario Negri en Italie.

Cette étude montre que le nombre de décès pour 100 000 hommes est passé de 185 à 168 et celui pour 100 000 femmes de 104,8 à 96,9 entre 2000 et 2004. Cette baisse du taux de mortalité chez les hommes est liée à la baisse des cancers du poumon et une baisse des cancers colorectaux. La détection des cancers du col de l'utérus, du sein et les traitements ont baissé le taux de mortalité des cancers chez les femmes.

Si l'on extrapole cette tendance constatée depuis 30 ans, il n'est pas déraisonnable d'espérer que d'ici 10 ans, au moins deux cancers sur trois pourront être guéris et du moins contrôlés.

Mais sans nier bien entendu ces remarquables progrès intervenus au cours de ces dernières décennies en matière de diagnostic et de thérapeutiques, faut-il tout attendre des avancées de la médecine et de la biologie pour vaincre définitivement le cancer ? Incontestablement, la réponse à cette question est non et de récentes études rigoureuses nous montrent à quel point les politiques de santé axées sur la prévention et les comportements individuels en matière de modes de vie peuvent avoir un impact considérable en matière de cancer.

Une étude norvégienne publiée le 26 avril dans les Archives of Internal Medicine et portant sur 4 800 personnes suivies pendant 20 ans, montre ainsi que fumer, boire trop d'alcool, ne pas faire assez d'exercice et manger insuffisamment de fruits et légumes triplent le risque de décéder d'une maladie cardiovasculaire ou d'un cancer.

Le Dr Elisabeth Kvaavik de l'Université d'Oslo, principal auteur de l'étude, souligne que " de modestes changements dans le mode de vie ont probablement des effets considérables bénéfiques à la fois au niveau individuel mais aussi sur l'ensemble de la population".

Cette étude confirme qu'en adoptant des mesures très simples d'hygiène de vie, il serait possible de faire baisser dans des proportions considérables (peut être 50 %), le nombre de nouveaux cas de cancer. Cela est d'autant plus vrai que, d'ici quelques années, la connaissance fine des prédispositions génétiques de chacun à développer tel ou tel cancer, permettra d'envisager une prévention active et personnalisée.

Il est donc capital, tout en maintenant l'effort de recherche à un niveau très élevé, de faire également un effort beaucoup plus important, dès la petite enfance, pour éduquer la population et informer nos concitoyens des bénéfices immenses qu'ils peuvent retirer pour leur santé en adoptant quelques règles de vie simples.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Une voiture expérimentale dirigée par le regard
Vendredi, 07/05/2010 - 00:00

La piste de l'aéroport récemment désaffecté de Berlin, Tempelhof, vient d'accueillir une expérience hors du commun. Sur le support d'un mini-van de la marque Dodge, un groupe d'ingénieurs de l'Université libre de Berlin (FU Berlin) a présenté son nouveau système de conduite automatisée, qui permet au conducteur de diriger le véhicule non pas avec les mains mais avec les yeux.

Doté d'un casque de vélo sur lequel est fixée une caméra, le pilote n'a qu'une chose à faire : regarder dans quelle direction il veut aller. La caméra enregistre le mouvement de ses yeux, qu'elle communique à de nombreux calculateurs transformant ces informations en signaux de commande qui permettent de contrôler le véhicule de manière autonome. Le prix de ce prototype baptisé "Spirit of Berlin" est estimé à quelque 150.000 euros. Cependant, ce type de voiture est actuellement encore interdit sur les voies publiques.

Dans le cas où le conducteur serait distrait, par exemple par une affiche publicitaire au bord de la route ou par un passant, le calculateur vérifierait s'il y a effectivement une intersection et tournerait uniquement le cas échéant. D'autre part, le mini-van dispose d'un système performant lui permettant d'éviter les obstacles imprévus. Pour le démontrer, Raùl Rojas, le directeur du groupe de travail, lance un grand cube noir devant le véhicule en mouvement, qui s'arrête aussitôt. Il va même jusqu'à se jeter lui-même sur la trajectoire, sans être touché par la voiture.

Les chercheurs considèrent ce prototype comme une étape parmi d'autres vers la réalisation de véhicules totalement autonomes. Il n'est pas adapté à une production de masse. Le groupe de travail "Intelligence Artificielle" de la FU Berlin est une des nombreuses équipes travaillant sur ce type de projets mondialement reconnus. Même si les leaders dans ce domaine sont les universités américaines Stanford et Carnegie Mellon, la FU peut également être considérée comme un des grands acteurs. D'après M. Rojas, il faudrait attendre encore 20 à 30 années pour que la technologie soit au point et pour que le gouvernement légalise les véhicules sans conducteur.

BE

Le compte-rendu d'une réunion en temps réel !
Vendredi, 07/05/2010 - 00:00

S'il est possible, après une réunion ou une conférence, de récupérer les présentations ou suivre les conversations menées sur Twitter, il reste difficile de collecter l'ensemble des documents et retranscriptions d'interventions.

Pour cela, l'institut technologique de Lausanne propose, dans le cadre du projet AMI un système qui capte l'ensemble des informations sonores, visuelles et textuelles d'une rencontre. Puis qui les restitue, en quasi temps réel, sur l'intranet de l'entreprise. Le tout, de manière organisée. Le dispositif, baptisé Amida, propose en effet un compte rendu pour chaque rencontre. Celui-ci résume les phrases et expressions importantes de la réunion, le statut des intervenants, et l'ambiance : désaccord, interrogation.... "A partir de ce résumé, les personnes absentes peuvent identifier rapidement le déroulé d'une réunion", déclare Hervé Bourlard, le directeur du projet.

Et d'ajouter : "Selon son intérêt pour un thème évoqué, l'utilisateur peut alors cliquer sur un mot et accéder à un ensemble d'informations correspondantes : locution d'un intervenant, présentation power point, croquis, notes...". Le système est constitué de micros et de caméras, qui envoient les flux via le web sur un serveur central. Idem pour les présentations type Powerpoint. Un système de radar intégré aux caméras capture également des informations additionnelles comme un croquis ou des notes prises sur un tableau blanc. Celles-ci embarquent un système de capteurs de formes et de mouvements, qui permet de se centrer sur la personne qui prend la parole et d'en reconnaître l'identité si elle est référencée dans la base.

Les capteurs détectent aussi des indices permettant de deviner l'attitude des intervenants, comme un hochement de tête ou une main qui se lève. Le dispositif utilise ensuite un dispositif de reconnaissance visuelle et vocale de mots clés pour classer les contenus par thèmes.

Atelier

Nouvelle offensive de Google dans le livre électronique
Vendredi, 07/05/2010 - 00:00

Après avoir proposé sur internet des extraits d'ouvrages numérisés, le géant américain s'apprête à ouvrir sa propre librairie en ligne et à attaquer en frontal des acteurs déjà installés comme Amazon ou Apple.

Le nouveau service s'appellera Google Editions et il devrait être disponible cet été. Google vient bousculer un nouveau marché, en se mettant à vendre des livres numériques. Concrètement, la lecture se ferait via votre navigateur internet, et donc sur n'importe quel appareil connecté : ordinateur, téléphone portable ou même sur ...l'iPad d'Apple.

Ce principe de base est très différent de celui adopté par Amazon et Apple, qui oblige à utiliser un logiciel spécifique créé par ces entreprises. Ce système fermé ne les a pas empêchés de faire un carton, puisqu'Apple annonçait il y a quelques jours Un million et demi de téléchargements sur sa plateforme iBookstore, disponible depuis environ un mois.

Google, de son côté, pourra aussi s'appuyer sur Google books, ce projet très controversé qui propose déjà aux internautes des extraits d'oeuvres numérisés mais aussi des livres complets, gratuits car tombés dans le domaine publique. On verra dans quelques mois si l'arrivée de ce mastodonte est de nature à déstabiliser ce marché où tout reste à faire en France : les livres numériques représentent 0,1 % du marché de l'édition.

BFM

Combien coûte un livre numérique ?
Vendredi, 07/05/2010 - 00:00

Combien coûte un livre numérique ? La réponse ressemble à la pâquerette dont on enlève un à un les pétales pour laisser le hasard décider de l'issue. Il ne coûte rien... il coûte moins cher... il coûte aussi cher... il coûte plus cher qu'un livre papier. Comme en amour, l'effeuillage ne sert guère qu'à combler un fond de superstition.

A une ère où le lecteur peut imaginer avoir entre ses mains une liseuse (ou livre électronique) de son choix, la question peut se faire pressante et pragmatique. Lui-même suppute en général qu'un fichier revient moins cher à fabriquer qu'un volume broché et s'attend instinctivement à une baisse de prix significative au bout. Un livre papier, mettons le dernier William Boyd, a un coût. Les clés de répartition sont connues, entre le pourcentage versé à l'auteur, celui prélevé par l'éditeur, l'imprimeur, le distributeur ou le libraire... Mais dans le cas de sa version numérique, certains postes disparaissent, le papier en tête.

Alors, combien ? « Aucune étude fiable n'avait été réalisée jusqu'à présent sur les coûts réels d'un livre numérique », explique Vincent Monadé, directeur de l'Observatoire du livre et de l'écrit en Ile-de-France (MOTif), situé à Belleville, dans le XIXe arrondissement à Paris. Le rapport rendu public le 5 mai et commandé à Hervé Bienvault, consultant auprès d'acteurs du livre et de la presse sur les stratégies de numérisation, pose une première pierre « à l'heure où le livre accède à la dématérialisation de sa diffusion ».

L'immatériel est désormais intégré dans le processus de publication et on ne prévoit plus de publier un livre papier sans intégrer sa dimension numérique. « La question se pose maintenant pour les auteurs et les éditeurs de la migration d'une certaine part de leurs ventes du papier vers le numérique, voire de livres conçus spécifiquement pour le numérique avec l'apport de contenus multimédias et interactifs sur des tablettes de lecture de plus en plus sophistiquées », relève l'étude, qui poursuit : « On parle désormais d'un marché du livre numérique. » Et le changement de paradigme s'apparente à ce que l'édition a connu il y a cinquante ans avec le livre de poche. Voire bien davantage.

L'étude part de prix de vente publics qui s'esquissent sur le marché américain, entre 12,99 et 14,99 euros le fichier et d'une marge de 30 % pour l'éditeur. Certes, l'effort d'investissement, en numérisation notamment, peut être important pour les maisons d'édition. Mais l'étude conclut que « les seuils de rentabilité pour des livres sans contenus multimédias (qui s'établiraient entre 50 et 500 exemplaires pour des nouveautés, 200 à 800 pour des livres à numériser) ne semblent pas irréalistes ».

Ainsi, un roman vendu 12,99 euros pourrait être rentable à un peu plus de 200 exemplaires écoulés. Un beau livre avec 100 illustrations, vendu au prix de 14,99 euros, aurait son point mort à 847 exemplaires. Si les titres sont enrichis en multimédia comme le laissent imaginer les multiples supports de lecture avec vidéo, type iPad, il faudra en vendre au moins deux fois plus.

Les coûts des livres numériques sont donc relativement faibles, surtout pour des nouveautés qui s'intègrent maintenant dans la chaîne de production des éditeurs. « On peut faire des livres numériques en espérant des gains rapides notamment sur les nouveautés », conclut ainsi l'étude qui projette aussi les grandes lignes des équilibres financiers à venir. Elle intègre les opérateurs télécoms dans le gâteau et elle accorde 15 % à l'auteur, quand la moyenne est aujourd'hui de 8 % pour le papier. Ce taux a été avancé par plusieurs éditeurs comme étant une base actuelle de négociation pour de nouveaux contrats incluant les droits numériques.

Libération

France : la FTTH peine à décoller
Vendredi, 07/05/2010 - 00:00

La barre des 20 millions d'abonnés au haut et très haut débit approche. Avec 18,5 millions d'abonnés à l'ADSL, 900 000 dans les autres secteurs (principalement câble) et 290 000 en fibre (FTTH ou FTTLA), la France compte 19,690 millions d'abonnements à ces types de débits, soit une croissance annuelle d'1,87 million.

Le nombre de lignes dégroupées continue de croître, avec 7,325 millions de lignes, dont plus de 87 % le sont totalement. Le dégroupage partiel est de plus en plus minoritaire, et devrait passer sous la barre du million de lignes d'ici quelques trimestres. Mais l'ARCEP est surtout revenue sur le très haut débit. Le bilan actuel pour la France au 31 décembre 2009 est de 70 000 abonnés à une ligne FTTH (Fiber To The Home), et 220 000 abonnés à une ligne de type FTTLA (Fiber To The Last Amplifier).

À ce rythme, entre 300 et 350 000 foyers seront abonnés à une ligne à très haut débit via FTTLA à la fin de l'année 2010, contre moins de 100 000 pour la FTTH. Mais le nombre d'abonnés FTTH/FTTLA pourrait bien s'accélérer dans les prochains mois, et surtout ces trois prochaines années. Des investissements importants sont ainsi prévus, que ce soit par Free ou par Orange.

PCI

^ Haut
Matière
Matière et Energie
Le coût des piles à combustible pourrait être réduit de 80 %
Vendredi, 07/05/2010 - 00:00

Une équipe de chercheurs de l'Université technique de Berlin, dirigée par Peter Strasser, membre du cluster d'excellence UniCat, a décrit, en coopération avec des scientifiques américains de renom, le mécanisme d'action d'un nouveau catalyseur permettant de réduire la quantité de platine nécessaire dans les piles à combustibles, et donc, par là-même, leur coût, de l'ordre de 80 %. Les résultats sont publiés dans l'édition de mai de "Nature Chemistry" .

La méthode employée consiste à synthétiser des catalyseurs sphériques d'un diamètre de quelques nanomètres à partir de particules de platine et de cuivre, dont les particules de cuivre sont par la suite partiellement extraites. Il en résulte une coquille de platine, épaisse de quelques atomes. La particularité de la méthode réside dans le fait que le mécanisme de mélange et de séparation des particules provoque un resserrement des atomes de platine en surface. Ainsi, la capacité de fixation de l'oxygène sur ces particules est réduite, ce qui favorise la réaction de formation d'eau et améliore donc la performance électrique de la pile à combustible.

D'autre part, les scientifiques sont parvenus à prouver que l'activité du catalyseur peut être régulée en continu, ce qui devrait permettre de l'optimiser. De manière plus générale, M. Strasser affirme que ce procédé est également applicable à d'autres métaux, ce qui entraînerait une nette réduction des coûts de tous les procédés chimiques impliquant des métaux précieux. Un exemple d'un tel procédé est la synthèse d'hydrogène à partir d'eau et d'électricité (électrolyse de l'eau), qui permettrait le stockage d'énergie excédentaire, issue d'éoliennes ou de panneaux solaires, sous forme chimique.

BE

Nouvelles perspectives pour les piles solaires
Vendredi, 07/05/2010 - 00:00

Le travail mené par le Professeur Benoit Marsan du Département de Chimie de l'Université de Québec à Montréal (UQAM) a permis de résoudre 2 problèmes qui freinaient depuis 20 ans l'essor des piles solaires. Les piles solaires les plus performantes, composées d'un matériau semi-conducteur tel que le silicium, ont été élaborées en Suisse au début des années 90. Comme dans le cas des piles électrochimiques conventionnelles, les piles solaires sont constituées d'une cathode, un catalyseur à base de platine, et d'une anode, une couche poreuse formée à partir de nanoparticules de dioxyde de titane et recouverte d'un colorant qui absorbe la lumière du soleil. Un liquide conducteur, l'électrolyte, est placé entre les deux électrodes.

Malgré l'utilisation de matériaux pour la plupart peu coûteux, faciles à fabriquer et flexibles, la commercialisation à grande échelle de ces piles se confronte à deux obstacles majeurs. L'électrolyte est très corrosif, ce qui entraîne une carence en durabilité. Il est aussi très coloré, empêchant ainsi la lumière de pénétrer efficacement et limitant le photo-voltage à 0,7 volts. De plus, le platine est un matériau cher, non-transparent et rare.

Benoit Marsan et son équipe travaillent depuis des années à l'élaboration d'une pile solaire électrochimique. Avec l'aide du Professeur Livain Breau, également du Département de Chimie, les chercheurs ont développé un électrolyte constitué de nouvelles molécules, dont la concentration a pu être accrue. Le gel ainsi formé est transparent, non-corrosif et permet d'augmenter le photo-voltage. Par conséquent, la pile est plus stable et son rendement meilleur. Le platine de la cathode a par ailleurs été remplacé par du sulfure de cobalt. Ce matériau est beaucoup moins onéreux que le platine. Il est également plus performant, plus stable et plus facile à produire en laboratoire.

La communauté scientifique a été enthousiasmée par ces propositions. Plusieurs chercheurs considèrent que le travail du Professeur Marsan, publié dans le "Journal of American Chemical Society" et "Nature Chemistry", représente une avancée capitale vers la production de piles solaires efficaces et abordables.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les glaces flottantes du globe en "constante diminution"
Vendredi, 07/05/2010 - 00:00

La superficie des glaces flottantes est en "constante diminution", ce qui se traduira par une instabilité croissante qui entraînera une élévation du niveau des mers, selon une étude publiée par la revue scientifique Geophysical Research Letters. La perte nette de glaces flottantes sur les mers du globe est estimée à 7.420 km3 au cours des dix dernières années, selon le professeur Andrew Shepherd de l'Université de Leeds, principal auteur du rapport.

Cela représente plus que ce qu'ont perdu le Groenland et le continent Antarctique durant la même période. "On observe un taux constant (annuel) de diminution", explique Shepherd. "C'est un processus rapide et il n'y a aucune raison que cela n'aille pas en s'accélérant au cours des cent prochaines années".

Le rapport ne permet pas d'évaluer quand le pôle Nord pourrait être libre de glace en été. De l'avis de nombre de climatologues, cela risque de se produire vers 2050, voire avant. La fonte des banquises et des icebergs ne fait guère varier le niveau des mers, parce que la totalité de leur masse se trouve déjà dans l'eau.

Si toutes les glaces flottantes fondaient, le niveau des mers ne monterait que de quatre centimètres. Mais cela aurait un effet plus catastrophique, indirect, car la disparition de plaques de glaces côtières peut provoquer l'effondrement de glaciers, qui ont la voie libre pour se déverser dans la mer, et la fonte de cette eau douce ferait, elle, monter davantage le niveau des océans. Si la totalité des calottes glacières des pôles venait à fondre, le niveau des mers monterait de 70 mètres, selon les évaluations des scientifiques.

Yahoo

Les éoliennes vont conquérir l'espace maritime français
Vendredi, 07/05/2010 - 00:00

Le ministre de l'Ecologie, Jean-Louis Borloo, va prochainement sélectionner dix sites prêts à accueillir des éoliennes maritimes. Il l'a annoncé mercredi 5 mai en Conseil des ministres. Le gouvernement va accélérer le développement des éoliennes en mer, Jean-Louis Borloo, ministre de l'Ecologie, ayant indiqué lors d'une communication au Conseil des ministres son intention de sélectionner prochainement "dix sites propices".

Selon le plan de développement des énergies renouvelables issu du Grenelle de l'environnement, l'énergie éolienne en mer doit atteindre une puissance totale de 6.000 mégawatts à l'horizon 2010.

"L'enjeu est important pour la France : il s'agit de respecter les engagements du Grenelle de l'environnement et du paquet +énergie-climat+ (adopté sous présidence française de l'Union européenne), mais aussi de se positionner comme champion dans la future industrie des énergies marines et permettre ainsi la création de nombreux emplois", a souligné Luc Chatel, porte-parole du gouvernement, lors de son compte rendu du Conseil des ministres.

Sur la base des travaux de réflexion engagés en 2009 dans les régions Bretagne, Pays de la Loire, Haute-Normandie, Aquitaine et Provence-Alpes-Côte d'Azur, sous l'autorité des préfets, M. Borloo annoncera "dans les toutes prochaines semaines la sélection d'une dizaine de zones propices dans lesquelles l'éolien en mer pourra être développé", a ajouté M. Chatel.

Dans ce but, le ministère de l'énergie lancera en septembre 2010 une première série d'appels d'offres visant l'implantation de 3.000 MW dans un premier temps dans les zones propices. Puis les projets seront sélectionnés à l'été 2011 sur la base du prix d'achat de l'électricité proposé et du délai de mise en service des installations.

"Le président de la République a insisté sur l'importance de ce plan éolien en mer puisqu'il conditionne le respect des engagements pris, notamment avoir 23 % d'énergies renouvelables, dont un quart à base d'éolien", a également rapporté M. Chatel.

AFP

Réchauffement en Arctique : le coupable serait la rétraction des glaces de mer
Vendredi, 07/05/2010 - 00:00

Un article paru dans Nature apporte une explication au réchauffement marqué mesuré en Arctique depuis l'an 2000. Le facteur principal en est la rétraction des glaces de mer, en particulier durant l'été et l'automne. Ce facteur domine les autres, nuages, vapeur d'eau, courants marins, mouvements de l'atmosphère. Une poursuite de cette rétraction de la banquise arctique, attendue, devrait donc encore amplifier le réchauffement futur.

Portant sur la période 1989/2008, l'étude visait à élucider les causes de «l'Amplification arctique» ainsi nommée par les climatologues qui s'attendaient à ce que le réchauffement y soit particulièrement marqué. Il est au rendez-vous des mesures de températures par satellites, mais quel en était le mécanisme ?

C'est à cette question que Screen et Simmonds ont répondu. En piste comme facteurs explicatifs, il y avait la réduction de la couverture de neige en mer, la situation en Arctique en septembre dernier) le changement dans la circulation océanique et atmosphérique, la couverture nuageuse et la teneur de l'air en vapeur d'eau. Tout joue, mais avec quelle pondération des différents facteurs ? De précédentes études avaient plutôt attiré l'attention sur le transport accru de chaleur et d'humidité vers la région polaire arctique.

Les deux chercheurs se sont penchés avec plus de précision sur le profil vertical du réchauffement des vingts dernières années. Un réchauffement concentré sur l'air à proximité de la surface du sol et des océans est en effet plus sensible à un retrait de la couverture de neige et des glaces de mer, tandis qu'un réchauffement plus net de l'atmosphère serait le signe d'une cause plus liée à la circulation atmosphérique.

Or, ils ont justement découvert que l'augmentation de températures est surtout forte en surface, avec des valeurs de 1,6°C, en hiver, 0,9°C au printemps, 0,5°C en été et 1,6°C en automne par décennie pour les latitudes 70°-90°N. Paradoxalement, l'augmentation est moindre en été... car l'énergie est utilisée à la fonte accrue des glaces de mer et au réchauffement de l'océan.

L'amplification est particulièrement nette sur les surfaces le plus concernées par la rétraction des glaces .

Les deux auteurs concluent que la rétraction des glaces de mer est responsable de la majorité de l'amplification polaire du réchauffement climatique. Comme ce phénomène devrait s'accroître, en raison de la diminution de l'épaisseur moyenne de la glace, cette rétroaction positive devrait encore s'amplifier à l'avenir.

Libération

Un laser pour faire tomber la pluie
Vendredi, 07/05/2010 - 00:00

Les chercheurs de l'université de Genève (Unige) sont parvenus à déclencher une pluie de fines gouttelettes d'eau grâce à la technologie laser. Une avancée scientifique qui pourrait permettre, dans l'avenir, de stimuler les précipitations dans les régions victimes de la sécheresse. Selon le communiqué de l'université de Genève, ces gouttelettes seraient cependant trop petites pour être à l'origine d'une véritable pluie, même si elles sont visibles à l'oeil nu.

Le laser déclenche la condensation de la vapeur d'eau, à l'origine de gouttes d'eau qui resteraient en suspension dans l'air. Les conditions météorologiques pourraient ainsi être modifiées de manière locale. Le laser atteint pour le moment une puissance de 1.000 centrales électriques.

Les chercheurs vont désormais tenter d'obtenir de meilleurs résultats, notamment au niveau de la taille des gouttelettes et de la durée du phénomène en augmentant la puissance du rayon laser. Ils envisagent également d'utiliser cette technologie dans le but de capter l'énergie de la foudre. Cette expérience a fait l'objet d'une publication dans l'édition en ligne de la revue Nature Photonics datée du 2 mai.

MS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le génome entier d'un homme séquencé
Vendredi, 07/05/2010 - 00:00

Pour la première fois, le séquençage du génome entier d'un homme vient d'être réalisé dans le but de rechercher des prédispositions à des maladies, cardiovasculaires en l'occurrence. Dans la revue scientifique The Lancet, Euan Ashley et ses collègues de l'université de Stanford en Californie veulent montrer l'intérêt de cette démarche pour une médecine personnalisée. Un récent exemple avait déjà établi l'utilité du séquençage complet du génome de patients atteints de maladies rares. Car, en étudiant les gènes des membres d'une même famille, il a été possible d'identifier la mutation à l'origine de l'affection.

Mais cette fois, l'homme dont les auteurs américains ont séquencé le génome n'est pas malade. Il a "seulement" des antécédents familiaux de problèmes vasculaires et de mort subite. Les chercheurs se sont donc intéressés avant tout aux gènes impliqués dans ce domaine, mais ont aussi regardé ceux pouvant être impliqués dans d'autres maladies. Ainsi, en lien avec son risque familial de mort subite, ils ont mis en évidence trois variants dans des gènes associés à des troubles susceptibles d'accroître le risque de mort subite. Ils ont aussi trouvé un variant pouvant augmenter le risque de maladie coronaire, plusieurs polymorphismes qui moduleraient le risque d'infarctus et des variants augmentant les risques de diabète de type 2 et d'obésité.

Il y avait encore des variants associés à des risques de cancer, d'arthrose et des maladies plus rares. Les chercheurs ont également mis en évidence 63 variants génétiques pouvant influer sur l'efficacité ou les effets secondaires de médicaments. Cette connaissance pourrait aider à prescrire des traitements. Les auteurs reconnaissent qu'il reste difficile pour le moment d'intégrer toutes ces données en pratique. D'autant plus que l'effet de ces multiples variants dépend d'interactions avec l'environnement et le comportement. Malgré ces limites, il est évident que les séquençages entiers du génome vont se multiplier. Car, si le premier a coûté 2,7 milliards de dollars, la facture se monte aujourd'hui à 10.000 dollars. Demain, elle pourrait tomber à 1.000 dollars, selon les auteurs d'un éditorial dans le Lancet. Restera alors à gérer au mieux les problèmes éthiques.

LP

Cancer colorectal : un examen médical peut réduire de 43 % le taux de mortalité
Vendredi, 07/05/2010 - 00:00

C'est ce que révèle une étude britannique publiée dans le journal The Lancet. Les chercheurs ont suivi pendant onze ans 170.000 personnes. Parmi elles, 113.200 n'ont subi aucun examen durant cette période, tandis que les 57.237 personnes restantes devaient se soumettre à une sigmoïdoscopie (examen du rectum et d'une partie du sigmoïde à l'aide d'un tube souple). Lors de cette analyse, le médecin vérifie qu'il n'y a aucun polype et aucune tumeur.

Si des anomalies sont détectées, elles peuvent généralement être supprimées durant l'examen. Parmi les sujets qui n'avaient pratiqué aucun examen, 2.564 cas de cancer colorectal ont été diagnostiqués, tandis que dans le groupe suivi médicalement, 706 cas seulement ont été décelés. Le taux de mortalité de ce groupe s'est vu ainsi réduit de 43 %, et l'incidence de la maladie de 33 %. Plus d'un million de cas de cancer colorectal sont diagnostiqués dans le monde chaque année et 600.000 personnes en meurent. Il est le troisième cancer le plus courant alors qu'un diagnostic précoce permet d'augmenter les chances de survie.

Yahoo

Le prozac bientôt utilisé contre le cancer ?
Vendredi, 07/05/2010 - 00:00

Selon une étude publiée dans le journal Leukaemia Research, cet antidépresseur diminuerait de 90 % le développement de certains cancers. Il pourrait ainsi venir compléter les traitements déjà utilisés pour lutter contre ces maladies. La fluoxétine, composé actif du Prozac, aurait en effet entraîné l'apoptose, c'est-à-dire la mort cellulaire, des cellules cancéreuses cultivées en laboratoire. De même, elle réduirait de 90 % le développement des leucémies.

Les scientifiques sont confiants, et estiment que ces résultats devraient être similaires durant les essais menés sur des patients atteints de cancer. La clomipramine, un autre antidépresseur, a le même effet que le Prozac. Les deux médicaments se sont révélés particulièrement efficaces contre les cellules cancéreuses se développant dans les cas de leucémies ou de lymphomes.

Le Prozac pourrait être utilisé entre chaque cycle de chimiothérapie. En effet, cette dernière représente un traitement très agressif, tant pour les cellules cancéreuses que pour les cellules saines. L'organisme a donc besoin de pauses pour s'en remettre. Le Prozac pourrait intervenir durant ces phases de repos. Dernier avantage du produit : le Prozac est un médicament déjà agréé. Sa mise sur le marché dans le cadre de traitements anti-cancéreux pourrait être rapide.

Ms

Un anticorps monoclonal contre le cancer
Vendredi, 07/05/2010 - 00:00

VGX-100 est un anticorps monoclonal 100 % humain ciblant le facteur de croissance VEGF-C. VGX-100 inhibe le développement des vaisseaux sanguins indispensables à la croissance de la tumeur. VGX-100 peut de plus inhiber la prolifération cancéreuse (métastase) en supprimant le développement des vaisseaux lymphatiques.

Les données montrent l'efficacité de VGX-100 associé à d'autres médicaments dans les modèles de souris atteintes du cancer de la prostate, du pancréas et du cerveau (glioblastome). Le traitement avec VGX-100 plus l'anticancéreux Avastin et la chimiothérapie (docetaxel) a inhibé de manière significative la croissance de la tumeur et augmenté l'espérance de vie dans les modèles de souris atteintes du cancer de la prostate humaine supérieur à l'effet d'Avastin plus docetaxel seul.

Circadian Technologies Limited (ASX.CIR) a publié des données montrant que son principal médicament anticancéreux, VGX-100, inhibe significativement la croissance des tumeurs dans une pluralité de modèles d'animaux différents (xénogreffe tumorale) du cancer humain. Ces données indiquent que s'il est cliniquement validé, VGX-100 a le potentiel pour être un nouveau traitement utile dans le traitement de certains cancers.

Les points principaux des données sont les suivants : Dans un modèle de souris atteintes du cancer de la prostate humaine, le traitement des animaux par une triple combinaison de VGX-100, Avastin et docetaxel a inhibé la croissance de la tumeur de 83,4 %, contre seulement 35,8 % chez les animaux traités avec Avastin plus docetaxel seul.

Dans la même étude, les animaux traités par la triple combinaison ont eu quatre fois plus de chances de survivre jusqu'à la fin de l'étude que les animaux traités avec docetaxel seul. La survie est augmentée de 2,7 fois par rapport aux animaux traités avec docetaxel plus Avastin.

40 % des animaux traités par la triple combinaison ne présentaient plus de tumeur au terme de l'étude (les tumeurs avaient été éradiquées). Ce qui est à comparer avec zéro (0 %) d'exempts de tumeur chez les animaux traités avec docetaxel plus Avastin et 20 % parmi les animaux traités avec docetaxel seul.

Caducée

Alzheimer : un vaccin prometteur pour combattre la maladie
Vendredi, 07/05/2010 - 00:00

La société de biotechnologie autrichienne Affiris a annoncé le 23 avril la poursuite en phase II de son candidat vaccin contre la maladie d'Alzheimer. Une nouvelle étape attendue, après le succès des essais cliniques en phase I.

D'après Affiris, la phase I achevée il y a cinq mois a permis de vérifier la "sûreté et la tolérabilité" du vaccin par l'organisme. "AD02", comme il est appelé, va désormais être testé sur 420 patients d'Autriche, d'Allemagne, de France, de République tchèque, de Slovaquie et de Croatie. Il entraînerait la production d'anticorps qui lutteraient contre la formation de plaques dans le cerveau. Ce sont ces plaques, provoquées par la protéine bêta-amyloïde, qui bloqueraient les signaux nerveux et seraient ainsi à l'origine de la maladie d'Alzheimer.

L'objectif du vaccin à l'étude sera de traiter les personnes déjà touchées par la maladie dégénérative. La société Affiris a cependant annoncé qu'en cas de résultats positifs, un vaccin préventif pourrait ensuite voir le jour. A l'heure actuelle, aucun traitement curatif ne permet de traiter les malades d'Alzheimer. Dix-huit millions de personnes sont aujourd'hui atteintes de la maladie dans le monde, et on prévoit 34 millions de malades pour 2025.

MS

Diminuer les effets secondaires liés au traitement de la maladie de Parkinson : c'est possible !
Vendredi, 07/05/2010 - 00:00

Des chercheurs de Bordeaux associant l'Inserm et le CNRS au sein du laboratoire "Mouvement, adaptation, cognition" (CNRS / Universités Bordeaux 1 et 2) viennent de découvrir qu'il est possible de diminuer les effets secondaires liés au traitement de la maladie de Parkinson. Dans ce nouveau travail à paraitre dans la revue Science translational medicine datée du 21 avril 2010, les chercheurs ont restauré la production d'une protéine qui contrôle le circuit des récepteurs de la dopamine : la protéine GRK6, améliorant ainsi les symptômes parkinsoniens.

La maladie de Parkinson est une maladie neurodégénérative qui affecte le système nerveux central. Elle se traduit par de forts troubles moteurs dus à un manque de dopamine dans le cerveau. La thérapie à base de L-dopa comble ce manque et reste le meilleur traitement connu à ce jour. Toutefois, après quelques années, les effets secondaires liés au traitement deviennent très gênants, entrainant des mouvements involontaires (dyskinésies) et des fluctuations brutales d'activité.

Les travaux des chercheurs de l'Inserm et du CNRS montrent que la sur-expression d'une seule protéine dans le cerveau (obtenue grâce à l'injection d'un vecteur thérapeutique), aboutit à la nette diminution des dyskinésies et des fluctuations. Cela restaure les effets thérapeutiques de la L-dopa. Ces résultats ont été obtenus chez le rat et le singe dans un modèle expérimental de la maladie de Parkinson.

Une personne normale possède de la dopamine dans le cerveau. Ce neurotransmetteur sert à déclencher de nombreux signaux nécessaires au bon fonctionnement de l'organisme et est notamment impliqué dans les phénomènes de contrôle des fonctions motrices.

Au vu de son importance, sa libération est très finement régulée. Ce rôle est assuré par des récepteurs à la dopamine, situés à la surface des neurones. Par exemple, lorsqu'il y a trop de dopamine ou qu'elle reste trop longtemps présente dans la synapse, les récepteurs se désensibilisent, stoppent leur réponse et disparaissent de la surface des neurones. La phosphorylation des récepteurs à dopamine par la protéine GRK6 est nécessaire pour que ces événements puissent avoir lieu.

Dans des travaux précédents, les chercheurs avaient mis en évidence que les récepteurs à la dopamine restaient continuellement à la surface des neurones chez les animaux parkinsoniens dyskinétiques. En cause notamment, un manque de GRK6 dans le cerveau.

Dans cette nouvelle étude, les scientifiques ont corrigé ce manque en stimulant l'expression de GRK6, en l'insérant dans un lentivirus. Ce vecteur thérapeutique, porteur de la protéine d'intérêt, est ensuite chirurgicalement injecté dans le cerveau au niveau du striatum. L'expression accrue des GRK6 permet de retirer des récepteurs à la dopamine de la surface des neurones. Les animaux parkinsoniens dyskinétiques peuvent alors pleinement bénéficier du traitement à la L-dopa : leurs symptômes parkinsoniens sont améliorés et ils ne présentent plus de dyskinésies sévères.

Inserm-!

Maladies neurodégénératives : leurs protéines ont une structure commune
Vendredi, 07/05/2010 - 00:00

Les protéines des maladies neurodégénératives, telles que Parkinson, Alzheimer et le syndrome d'Huntington, ont une unité structurelle commune. C'est ce que viennent de découvrir Andrey Kajava, chercheur au Centre de recherche biochimie macromoléculaire (CNRS/Universités Montpellier 1 et 2), en collaboration avec deux scientifiques du National Institute of Health (Etats-Unis).

Ce point commun devrait permettre de mieux diagnostiquer le risque de développer ces maladies mais aussi de concevoir des inhibiteurs à but thérapeutique.

Certaines maladies sont caractérisées par la présence de dépôts insolubles de protéines dans les tissus, qui entraînent des lésions irréversibles aux organes affectés. Ces dépôts de fibrilles amyloïdes sont généralement liés à un changement de conformation d'une protéine normalement inoffensive. Ils sont retrouvés dans des pathologies neurodégénératives telles que les maladies d'Alzheimer, de Parkinson et le syndrome d'Huntington, mais aussi des maladies à prions infectieuses.

Actuellement, de nombreuses recherches sont entreprises pour déterminer la structure atomique en 3D de ces fibrilles et comprendre le mécanisme moléculaire de repliement des protéines amyloïdes et de leur assemblage en fibre. Une analyse des données structurales de ces différentes fibrilles a montré que ces dernières étaient très polymorphes : le nombre de proto-fibrilles assemblées par fibrille varie, ainsi que la structure des proto-fibrilles.

Mais Andrey Kajava du Centre de recherche biochimie macromoléculaire (CNRS/Universités Montpellier 1 et 2) et ses collègues du National Institute of Health (Etats-Unis) ont identifié une unité structurelle commune pour toutes les fibrilles liées aux maladies connues qu'ils ont appelé "β-arcade" ou arcade β. Des considérations de conformation et de thermodynamique indiquent qu'un complexe de deux ou plusieurs arches β peut déclencher la croissance rapide des fibrilles. Les chercheurs ont également retrouvé cette « signature » dans d'autres protéines dites « dangereuses » responsables de maladies virales et bactériennes.

La détection du «coeur pathogène» des fibrilles amyloïdes pourrait permettre de diagnostiquer de façon spécifique le risque de développer des maladies neurodégénératives ou liées au vieillissement chez le patient. Cette découverte facilitera également l'identification de sites plus appropriés localisés sur les fibrilles amyloïdes pour développer des médicaments capables d'enrayer leur formation.

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top