RTFlash

RTFLASH Recherche & Technologie
NUMERO 658
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 28 Juin 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les bibliothèques, moyens d'accès inégaux aux technologies
La fibre optique derrière le câble sur le marché du très haut débit
Le téléphone qui anticipe vos déplacements
Très haut débit : Orange et SFR forcent la cadence dans les villes
L'Internet des objets a besoin d'un réseau cellulaire dédié
Matière
IBM présente un supercalculateur refroidi à l'eau chaude !
Une membrane dynamique capable de s'auto-réparer
GDF Suez affiche ses ambitions dans l’hydrolien
La première éolienne offshore du Portugal sur fondation flottante !
Une turbine électrique pour les cours d'eau
Le marché de l’hydrolienne : vers un leadership Français
Vers l'optique en rayons gamma
Espace
Feu vert pour la mission spatiale Euclid
La planète qui partait en fumée
Terre
Les émissions de CO2 dues à la déforestation revues à la baisse
Le stockage géologique du CO2 pourrait augmenter les risques de séisme
La croissance des plantes en voie d'être pleinement comprise
Vivant
Un nouveau biomarqueur du cancer
Le virus H5N1 est capable de s'adapter à l'homme
Premier essai de thérapie génique pour le déficit en décarboxylase des acides aminés aromatiques
Le premier "bébé médicament" a guéri sa grande sœur
Une découverte majeure pour la lutte contre les infections à streptocoques
Cancer : le rôle protecteur de la vitamine D se confirme
Les bases neurobiologiques de l’anxiété
La cocaïne provoque le veillissement accéléré du cerveau
Le travail de nuit, facteur de risque du cancer du sein
Cancer : le traitement du futur utilisera le tir groupé !
Cancer : une nouvelle immunothérapie efficace pour 1 patient sur 4
Une découverte sur une protéine responsable de la protection des neurones
Homme
Services à la personne : quelles perspectives pour les créateurs ?
Redécouverte du camp d’entraînement des troupes de Louis XIV dans la vallée de la Seine
Recherche
Un nouveau biplan supersonique pour remplacer le Concorde
Le CNRS et le MIT créent leur première Unité mixte de recherche internationale
Edito
Les neurosciences vont-elles confirmer la psychanalyse ?



Longtemps les neurosciences et les sciences cognitives, grisées par les avancées incontestables dans la connaissance des mécanismes biochimiques et moléculaires qui caractérisent notre cerveau et sous-tendent notre pensée, notre mémoire et notre conscience, se sont appuyées sur la métaphore informatique pour rendre compte du prodigieux fonctionnement de notre esprit et des remarquables facultés cognitives de l'espèce humaine.

L'idée dominante, née avec la cybernétique et l'informatique dans les années 40, était alors que notre cerveau s'apparentait à un ordinateur très compliqué et très intégré mais qu'avec de la patience et en utilisant toutes les ressources des nouvelles technologies d'analyse et d'imagerie (IRM, caméra à émissions de positons...), on parviendrait à comprendre le fonctionnement des différents niveaux d'organisation de notre cerveau (molécules, neurones et aires spécialisées) et qu'ensuite cette connaissance des parties déboucherait logiquement sur la connaissance du tout, selon un processus cartésien imparable.

Cette conception scientifique et philosophique dominante dans les sciences cognitives connut son apogée avec des ouvrages qui eurent un grand succès, comme "homme neuronal" de Jean-Pierre Changeux, en 1983, le  "Cerveau-machine", de Marc Jeannerod, en 1991 ou encore "La biologie des passions", de Jean-Didier Vincent, en 1999.

Mais depuis une quinzaine d'années, les neurosciences, confrontées à la complexité inouïe du cerveau humain et découvrant les liens de causalité  innombrables et circulaires qui lient ce dernier et son environnement, ont été contraintes de revoir leurs prétentions à la baisse et de diversifier considérablement leurs approches conceptuelles et leurs théories en y intégrant notamment l'apport essentiel des autres sciences humaines (anthropologie, sociologie, logique, linguistique) mais également de nouveaux paradigmes directement issus de la philosophie.

C'est ainsi qu'en 1994, Antonio Damasio, célèbre neurobiologiste américain, jeta un pavé dans la marre de la neurobiologie "pure et dure" en publiant en 1994 un remarquable essai intitulé " L'erreur de Descartes, Spinoza avait raison". Dans ce livre qui s'appuie sur des observations scientifiques rigoureuses, Damasio montrait à quel point les sensations, les émotions et les sentiments jouaient, à notre insu, un rôle déterminant dans nos prises de décisions, nos raisonnements et nos actions "rationnelles".

Selon Damasio et comme Spinoza en avait eu la géniale intuition, c'est bien avec tout notre corps que nous pensons, agissons et interprétons le monde qui nous entoure et selon la célèbre phrase de Spinoza, "Nul ne sait ce que peut le corps".

Il est intéressant de rappeler que le fondateur de la psychanalyse, Sigmund Freud, avait lui même une formation scientifique de haut niveau en neuropathologie et que, dans un essai prophétique, abandonné et retrouvé après sa mort, «L'Esquisse d'une psychologie scientifique» (1895) puis dans une célèbre lettre datée de 1898, Freud justifiait certes l'autonomie épistémologique et méthodologique des outils et concepts en gestation de la psychanalyse mais affirmait néanmoins sa conviction que ceux-ci se verraient un jour reliés et intégrés à un vaste cadre théorique concernant le fonctionnement et l'organisation biologique du cerveau et finiraient par être confirmés sur le plan expérimental par les progrès de la neurobiologie.

Aujourd'hui, même si cela gène à la fois certains psychanalystes et certains neurobiologistes "orthodoxes" et peu enclins au dialogue pluridisciplinaire, les neurosciences semblent confirmer de manière surprenante les concepts psychanalytiques, comme l'a montré le psychanalyste Gérard Pommier dans un excellent livre publié en 2004 et intitulé "Comment les neurosciences démontrent la psychanalyse".

Dans son essai, Pommier montre que la conscience du monde qui nous entoure ne peut prendre sens que par la "médiation du symbole". Il nous explique qu' "un souvenir reste inconscient, non lorsqu'il est oublié, mais lorsqu'un sujet ne parvient pas à en prendre la mesure", autrement dit à se l'approprier, non pour s'en libérer mais pour le dépasser et l'utiliser comme matériau dans un processus de construction personnel.

Mais sur quelles observations la neurobiologie peut-elle étayer le concept freudien d'inconscient ? Un premier élément de réponse est donné par la façon dont notre cerveau perçoit et traite les images subliminales. Plusieurs expériences ont clairement montré que la vision d'un film contenant des éléments que le spectateur n'a pas le temps de percevoir va avoir un impact spécifique et mesurable sur son comportement émotionnel. L'autre observation complémentaire de la première concerne le phénomène « d'amorçage ». Selon ce mécanisme, toute information, qu'elle soit perçue de manière consciente ou complètement inconsciente est en mesure d'avoir un effet  sur nos décisions et comportements ultérieurs.

Autre découverte étonnante : la mémoire implicite procédurale. Ce type de mémoire a été mis en évidence à l'aide d'expériences réalisées sur des sujets souffrant de pathologies particulières et notamment de cécité totale résultant d'une destruction de l'aire corticale visuelle. Ces sujets affirment ne rien voir mais pourtant ils sont capables de montrer du doigt avec une grande précision des points lumineux situés dans leur champ aveugle, ce qui démontre qu'ils peuvent traiter correctement des informations visuelles sans en avoir la moindre conscience !

Il faut également évoquer les expériences menées sur des sujets souffrant de prosopagnosie, un dysfonctionnement cérébral qui empêche de reconnaître les visages. Lorsque l'on présente à ces sujets des photos de proches, parents ou amis, ils sont incapables de les reconnaître. Mais, observation là encore révélatrice, si on leur demande « Quelle personne vous semble la plus sympathique", ils choisissent alors toujours la photo d'un de leurs proches !

Enfin, il y a quelques semaines, la théorie freudienne de l'inconscient a reçu une nouvelle et remarquable confirmation expérimentale grâce à une expérience, présentée à l'occasion du Congrès annuel de l'association américaine de psychanalyse qui aurait sans doute enthousiasmé Freud (Voir article).

Depuis plus de 40 ans, le Professeur Howard Shevrin, professeur de l'Université du Michigan, s'applique dans des expériences au protocole méthodologique rigoureux à tenter de démontrer la validité scientifique de la psychanalyse. Sa dernière expérience montre qu'il existerait bien un lien de causalité entre la théorie du « conflit inconscient » et les symptômes conscients ressentis par des sujets souffrant de troubles anxieux.

Dans un premier temps, une dizaine de patients souffrant de troubles anxieux ont suivi plusieurs séances dirigées par des psychanalystes. Ceux-ci ont alors pu identifier l'existence de conflits inconscients probablement à l'origine des troubles anxieux ressentis par ces patients. 

Dans un deuxième temps, les mots signifiants impliqués dans le conflit inconscient ont été choisis pour être utilisés comme stimuli verbaux du conflit inconscient. Ces stimuli verbaux ont ensuite été proposés aux patients par une technique subliminale durant moins d'un millième de seconde. Au cours de cette présentation des stimuli aux patients, les chercheurs ont enregistré soigneusement les modifications de leur activité cérébrale à l'aide d'électrodes.

Les chercheurs ont alors imaginé une méthode subtile qui vise à comparer l'effet des stimuli inconscients sur les stimuli des symptômes conscients. Ils ont présenté aux patients des stimuli du conflit inconscient juste avant les stimuli des symptômes conscients et ont enregistré la fréquence de l'onde alpha du cerveau observée à ce moment précis.

Résultat : il existe bien une nette corrélation, montrée par les enregistrements d'ondes alpha, entre stimuli inconscients et conscients, mais à condition que les stimuli du conflit inconscient soient présentés de manière subliminale.

« Ces résultats montrent de manière très convaincante que les conflits inconscients causent ou contribuent aux symptômes d'anxiété du patient » souligne le Professeur Shevrin qui voit dans cette expérience remarquable la preuve que la théorie psychanalytique est à présent pleinement accessible à la vérification expérimentale selon des méthodes scientifiques rigoureuses...

Le grand philosophe des sciences Karl Popper considérait que la psychanalyse n'était pas une discipline scientifique car elle n'était pas une théorie "testable" et "réfutable" et se présentait comme un discours autoréférent. Il semble que cette objection épistémologique majeure soit en train de tomber et que, comme le souhaitait Freud, la psychanalyse, sans perdre la spécificité conceptuelle ni la singularité discursive qui en font toute sa richesse, soit sur le point de s'articuler de manière féconde et cohérente aux structures neurobiologiques qui portent notre esprit et notre conscience sans jamais pouvoir les réduire à cette seule dimension objective et rationnelle. 

L'erreur conceptuelle, culturelle et philosophique aura finalement été de vouloir conférer à toute force à la théorie psychanalytique un statut ontologique radicalement incompatible et irréconciliable avec les approches scientifiques objectives, au demeurant fort diverses, proposées par les neurosciences et les sciences cognitives. Freud, dans les traces de Spinoza et de son "conatus" qui fait du désir l'affirmation absolue de notre puissance de vie, avait d'ailleurs parfaitement perçu ce défi intellectuel et conceptuel.

Cette convergence scientifique fonctionne d'ailleurs dans les deux sens et si les neurosciences semblent confirmer de manière remarquable la théorie psychanalytique et ses concepts, les avancées de la psychanalyse viennent enrichir en retour le cadre théorique des neurosciences. Ce rapprochement n'implique ni soumission, ni domination de la psychanalyse par rapport aux neurosciences.

Il ne conduit pas d'avantage à un vague syncrétisme sans substance ni cohérence mais dévoile plus fondamentalement une nouvelle construction intellectuelle en forme d'"Unitas Multiplex", comme dirait Edgar Morin, c'est-à-dire d'une infinie complexité et d'une indépassable humanité dans laquelle se coproduisent, s'articulent et se donnent sens, par la production et la médiation symbolique, l'objet et le sujet, le corps et l'esprit, l'homme et le monde. 

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat 


TIC
Information et Communication
Les bibliothèques, moyens d'accès inégaux aux technologies
Jeudi, 28/06/2012 - 01:10

Ces espaces sont pour beaucoup de personnes l'unique moyen d'accès aux technologies. Un nombre important décide du coup d'investir sur le sujet. Mais il demeure beaucoup de disparités entre zones urbaines et rurales.

Les Américains se tourneraient toujours plus vers les bibliothèques pour accéder aux technologies essentielles. En effet, 62 % des bibliothèques seraient les seules à fournir un accès gratuit aux ordinateurs et à l'Internet selon les résultats d'une étude menée par The American Library Association (ALA). De plus, 60 % des bibliothèques américaines ont constaté une augmentation de l'utilisation des ordinateurs et du Wi-FI en 2011 et adopteraient depuis peu les médias sociaux et les applications mobiles pour améliorer leurs services. Pourtant, l'étude montrerait également une fracture numérique entre bibliothèques rurales et urbaines aux Etats-Unis.

  • Les technologies émergentes accessibles

Ainsi, avec la montée en flèche de vente de e-readers ou de tablettes, 76 % des bibliothèques offrent l'accès à des livres électroniques, soit une augmentation de 9 % par rapport à 2011. De plus, des e-readers seraient également disponibles à l'emprunt dans 39 % des bibliothèques américaines. Côté réseaux sociaux, une majorité d'établissement (70 %) déclarerait les utiliser, comme Facebook par exemple. Par contre, un petit nombre mais croissant aurait optimisé les sites web pour les mobiles (15 %), et 7 % auraient développé des applications pour smartphones.

  • Le monde urbain en avance

Toutefois, des disparités existent entre monde rural et urbain dans l'intégration de ces technologies dans les bibliothèques américaines. En effet, l'étude constate que les établissements ruraux (représentant près de 50 % de toutes les bibliothèques aux États-Unis) seraient en décalage dans la fourniture de l'accès aux technologies et aux services. En effet, seulement 17 % des bibliothèques rurales offriraient une vitesse de connexion à haut débit (supérieur à 10 Mbps) comparé à 57 % pour les bibliothèques urbaines. Pour les technologies émergentes, même constat. Ainsi les sites optimisés pour les appareils mobiles ont été lancés par 36 % des bibliothèques urbaines contre seulement 9 % des bibliothèques rurales.

L'Atelier

La fibre optique derrière le câble sur le marché du très haut débit
Mercredi, 27/06/2012 - 01:30

Le marché du haut débit reste toujours dynamique. Les derniers chiffres, publiés le 31 mai dernier par le régulateur des télécoms (l’Arcep) recensent, tout confondu, 23,1 millions d’abonnements au haut et très haut débit fixe en France. Malheureusement, la partie du très haut débit reste pour le moins mineure, puisque seuls 715 000 abonnés profitent de l’accès à Internet à très grande vitesse. Et parmi eux, une petite poignée uniquement connaît les joies de la fibre optique.

Pour revenir à la bonne nouvelle, à savoir le marché du haut débit qui n’en finit pas de croître, il se découpe ainsi : 21,3 millions de familles et entreprises (l’étude de l’Arcep ne différencie pas les deux marchés) sont raccordées à Internet par la technologie DSL (couramment, l’ADSL), et seulement 1,1 million ont un accès par le câble. Cette large différence d’adoption entre les deux technologies n’est pas nouvelle et s’explique par de nombreux facteurs comme la couverture du territoire et le nombre d’acteurs présents sur ces marchés. Mais pour le câble, l’avenir se joue ailleurs : sur le très haut débit, c’est-à-dire sur la vente d’offres permettant (techniquement… donc théoriquement) de profiter du net à plus de 50 mbits/s (en vitesse de téléchargement), selon la définition retenue par l’Arcep. Et dans ce domaine, tout reste à faire.

  • La puissance des Orange, SFR, Free et Bouygues n'y suffit pas

Si l’on peut se réjouir d’apprendre qu’il y a 715 000 abonnés au très haut débit fixe, en France, au premier trimestre 2012, on peut aussi s’inquiéter de voir que la fibre optique ne concerne toujours qu’un faible nombre d’abonnements, précisément 220 000, alors qu’elle mobilise de lourds investissements de la part des plus importants opérateurs français et cela depuis des années.

C’est le câble dans sa version "très haut débit" (du câble co-axial relié à un réseau de fibre optique en sous-sol) qui emporte le marché avec environ 495 000 abonnés. Et sur les trois premiers mois de l’année, ce câble à très haut débit affiche même une croissance plus importante que la fibre optique des Orange, SFR ou Free, de type FTTH (pour Fiber to the home, quand la fibre arrive jusque chez vous) !

Et ce câble modernisé continue sa course : à la fin du premier trimestre 2012, 4,4 millions de logements étaient "éligibles" à ses offres très haut débit (éligible voulant dire que l'on peut y avoir accès). Pour la fibre optique FTTH, à la même date, c’était près de trois fois moins, avec 1 580 000 logements éligibles aux offres. Mais seulement la moitié d'entre eux auront finalement le choix de leur opérateur : "pour près de la moitié de ces logements, au moins deux opérateurs sont en mesure de commercialiser des offres à très haut débit en fibre optique, grâce aux mécanismes de mutualisation", a précisé le régulateur.

Car au-delà des investissements faramineux, des difficultés à convaincre les co-propriétés d’engager des travaux, la fibre optique pâtit depuis le début de désaccords profonds entre les opérateurs de fibres… des maux qui s’estompent dès lors qu’un cadre réglementaire de mutualisation a été adopté, mais qui se font toujours sentir.

Au total, au 31 mars 2012, la France compte quand-même 5,4 millions de logements éligibles au très haut débit. Dont certains peuvent même bénéficier de deux accès à très haut débit, par câble à très haut débit et fibre FTTH. Doublement chanceux !

BFM Business

Le téléphone qui anticipe vos déplacements
Mardi, 26/06/2012 - 01:40

Les téléphones portables peuvent-ils prévoir nos comportements ? Trois étudiants de l’EPFL (Ecole Polytechnique Fédérale de Lausanne) gagnent le "Nokia Mobile Data Challenge", en prédisant quel sera le prochain endroit où se rendra l’utilisateur. Une méthode qui pourrait être exploitée par de nombreux services et applications.

Métro, boulot, dodo… Nos routines quotidiennes n’ont guère évolué ces dernières décennies, mais les téléphones portables en sont désormais les compagnons indéfectibles. Ils peuvent recueillir une foule d’informations, notamment sur nos trajets. Et parce que la plupart d’entre nous ne sommes pas des aventuriers, ils peuvent également prédire nos déplacements sur une base statistique, et avec une certaine exactitude. Trois doctorants de l’EPFL sont parvenus à parfaire ce concept, qui pourrait nourrir de nouveaux services et applications. Le 19 juin, la qualité de leurs prédictions leur a valu la première place au "Nokia Mobile Data Challenge". Ce concours international réunissait 108 équipes, issues d’universités comme TU Berlin, Carnegie Mellon ou Virginia Tech.

Quel sera le prochain lieu où je me trouverai ? Telle était l’un des défis proposés par Nokia dans le cadre de son concours, auquel ont choisi de répondre les étudiants de l’EPFL. Pour ce faire, l’entreprise finlandaise a mis à leur disposition des données issues des téléphones portables de 200 volontaires – des suisses romands, qui se sont prêtés au jeu pendant plus d’une année. Les participants au concours disposaient de huit mois d’informations partielles. Le reste servait à vérifier le résultat de leurs prédictions.

Dans un premier temps, il s’agissait de pister les habitudes de l’utilisateur. Les données enregistrées donnent des indices sur les lieux fréquentés : une foule de dispositifs Bluetooth dans un endroit particulièrement bondé, des identifiants Wifi qui réapparaissent régulièrement, des dispositifs auquel se connecte l’utilisateur…

«La méthode repose sur nos habitudes, explique Juha Laurila, du Nokia Research Center de Lausanne. Si par exemple un même événement se répète un certain jour de la semaine et à une heure plus ou moins identique, nous avons un élément qui nous permet de prédire statistiquement les déplacements de l’utilisateur.»

Pour corser le défi, les étudiants n’avaient accès qu’à un nombre limité d’informations – par exemple, ils ne pouvaient utiliser les données GPS. Des contraintes qui servent à mettre à l’épreuve les principes statistiques, poussés à leur limite. Sur la base d’informations très parcellaires, les trois doctorants de l’EPFL, Vincent Etter, Mohamed Kafsi et Ehsan Kazemi, sont parvenus à prédire dans la plupart des cas quel serait le prochain endroit où se rendrait un utilisateur. «Le but était de tirer autant d’informations que possible d’un ensemble de données incomplet, explique Juha Laurila. Si nous ajoutons des données comme la géolocalisation GPS, alors nous aurons un système encore plus performant.»

A l’avenir, ces travaux pourraient être utiles au développement de nouveaux services et applications mobiles. Notifications automatiques de trafic routier, message automatique pour prévenir d’un possible retard, agenda, etc. Selon Juha Laurila et Daniel Gatica Perez, coresponsable de la compétition à l’Institut Idiap, les sciences sociales pourraient également bénéficier de telles méthodes d’analyses. «Ce procédé pourrait s’avérer très intéressant pour comprendre les habitudes et les comportement des gens, notamment dans le domaine des sciences sociales computationnelles.»

EPFL

Très haut débit : Orange et SFR forcent la cadence dans les villes
Samedi, 23/06/2012 - 01:10

Sept mois après la signature de l'accord de co-investissement entre France Télécom-Orange et SFR pour le déploiement de la fibre optique en France, les deux opérateurs viennent d'annoncer le calendrier de leurs travaux sur l'agglomération de Marseille, un des plus vastes chantiers programmés après Paris : plus de 1 million d'habitants sont concernés dans la cité phocéenne et 17 communes alentour. Les travaux s'échelonneront sur huit ans. Ils complèteront la couverture déjà réalisée par l'opérateur historique dans la zone de densité maximale, où la fibre arrive au pied de 85 % des bâtiments collectifs.

Pas loin de 90.000 logements sont concernés dans les zones moins denses. D'ici à 2017, les premiers connectés pourront recevoir une offre « triple play » à 100 mégabits de débit. Les zones industrielles sont également visées. « Notre programme de déploiement s'accélère, résume Bruno Janet, directeur des relations avec les collectivités locales chez France Télécom-Orange. Sur 2 milliards d'euros d'investissements programmés entre 2010 et 2015, nous prévoyons une dépense de 300 millions cette année puis 400 l'an prochain. »

Ce coup d'accélérateur intervient alors que la commissaire européenne chargée de la Stratégie numérique, Neelie Kroes, a enjoint récemment aux grands opérateurs télécoms de se mobiliser davantage pour accélérer le déploiement de la fibre optique en Europe. Dans une étude de marché fournie par l'Idate, l'Europe apparaît à la traîne du Top 10 mondial des connexions à très haut débit des particuliers (FTTH) comme des bâtiments (FTTB) : la France y apparaît en 8e position, derrière notamment les pays d'Asie et les Etats-Unis.

« Le cadre fixé par les autorités de régulation va permettre de forcer la cadence et conforter notre pole position en Europe », estime Brunot Janet. Selon le carnet de route fixé par l'Arcep, la totalité du territoire devra être desservie par le très haut débit d'ici à 2025. Environ 60 % de la couverture du territoire (3.400 communes) sera équipée par Orange et SFR selon un accord passé en novembre dernier entre les deux opérateurs. Seules 141 grandes villes sont totalement ouvertes à la concurrence. Les zones restantes (40 % du territoire), balisées par des schémas d'aménagement numérique, seront équipées dans le cadre d'appels d'offres des collectivités pour la création de réseaux d'initiative publique.

L'ensemble de ces chantiers est évalué entre 30 et 35 milliards d'euros. Les travaux ont démarré dans 188 communes. A ce jour, 1,4 million de logements sont raccordés (dont 1,1 par Orange) et 220.000 sont abonnés. Pour accélérer la cadence, l'opérateur historique veut associer plus intimement les collectivités locales. Il a consacré l'année dernière à informer les élus de ses intentions d'équipement sur chaque territoire et commence maintenant à signer les premières conventions pour faciliter les démarches administratives. La moisson est encore pauvre : seules deux régions (Bretagne et Auvergne), un département (Côte-d'Or), et une agglomération (Auxerre) se sont engagés. « Une trentaine d'autres suivent », assure France Télécom-Orange.

Les Echos

L'Internet des objets a besoin d'un réseau cellulaire dédié
Vendredi, 22/06/2012 - 06:10

Les objets connectés sont là, encore faut-il trouver les moyens de les connecter simplement, et à bas prix. L'un des moyens est peut-être de mettre en place un réseau cellulaire dédié. C'est la voie suivie par SigFox, qui a lancé récemment un réseau à bas débit, qui permet de connecter des objets entre eux grâce à des bornes disposées sur le territoire national. SigFox fonctionne avec des petits modems qui doivent être connectés aux appareils. Modems qui ne mesurent pas plus de quelques millimètres carrés. Et qui s'occupent de recevoir et d'émettre de très petits signaux, des mWatts, soit des millimètres de Watts. De fait, cela en fait "une solution qui consomme peu d'énergie puisqu'il s'agit de signaux faibles, et qui résistent au passage du temps ; on pourrait oublier un modem sur un compteur électrique pendant vingt ans", note Ludovic Le Moan, PDG de la startup. Pour Philippe Gautier, directeur général associé de Business2any, un tel réseau répond à un véritable besoin.

Pour lui, le dispositif est intéressant pour ces aspects de l'intelligence qui, quantitativement, ont la plus grande importance au quotidien. "Il répond à un manque puisque l'on construisait inutilement des autoroutes pour très peu d'informations, surtout dans la mesure où les gros acteurs, comme les opérateurs, ont tendance à utiliser quoi qu'il en soit du haut débit, alors que les objets ont plutôt besoin de bas débit. Et de remonter vers le haut débit quand cela et nécessaire et que les données à transmettre sont plus complexes", explique t-il à L'Atelier. Néanmoins, il est nécessaire de préciser que ce dispositif ne fonctionne qu'avec des appareils qui envoient de faibles quantités d'informations, comme le tracking GPS ou des capteurs de fumée. Ce qui en limite nécessairement l'usage. Reste que ce réseau présente trois avantages. D'abord, les bornes couvrent des surfaces importantes. "Dans un cas d'école, nous avons réussi à capter le signal à 400 km. Bien sûr, dans Paris, cela se réduit à 10 km à cause du bruit comme les immeubles et la pollution", souligne Ludovic Le Moan. Et d'ajouter que, parfois, "les dispositifs RFID sont largement suffisants, par exemple dans les aéroports, où il n'est pas nécessaire d'avoir une portée aussi importante".

Le système ne fonctionne pas en continu mais simplement lorsqu'on lui demande une information, sans nécessité de synchronisation. Ensuite, il ne crée pas, du fait des faibles ondes, des interférences avec les autres appareils, à l'instar du réseau GSM et de la radio. A terme, l'objectif est de déployer un réseau international. Ce qui serait, entre autre, une condition de la réussite du projet. Car si aujourd'hui le service est proposé à 2 euros par objet et par an, ce qui est encore beaucoup pour un Internet des objets, le prix devrait baisser lorsque le nombre de clients augmentera, ce qui permettra de soutenir le déploiement du réseau. Et, ajoute Ludovic Le Moan, "d'arriver à terme, pour un individu, à deux abonnements : un abonnement mobile/ADSL, et un abonnement pour ses objets connectés à 20 euros par an". Néanmoins, précise Philippe Gautier, "Sigfox ne révolutionnera pas seul l'Internet des objets car il lui sera nécessaire de travailler avec des entreprises qui conçoivent différent les systèmes d'information aujourd'hui majoritairement adaptés au haut débit".

L'Atelier

^ Haut
Matière
Matière et Energie
IBM présente un supercalculateur refroidi à l'eau chaude !
Jeudi, 28/06/2012 - 01:30

Le Centre Leibniz de supercalcul (LRZ), en collaboration avec IBM, a récemment annoncé la sortie du tout premier supercalculateur refroidi par eau chaude, un système puissant et ultra-performant conçu pour aider chercheurs et entreprises industrielles à relever des défis scientifiques les plus cruciaux. Le nouveau système « SuperMUC » du centre LRZ est le plus grand d'Europe et l'un des plus puissants au monde. Il fait partie du Partenariat pour le calcul avancé en Europe (PRACE), l'infrastructure de calcul ultra performante pour chercheurs et entreprises industrielles à travers toute l'Europe. Le « SuperMUC » est financé conjointement par le gouvernement fédéral d'Allemagne et le land de la Bavière. Il sera inauguré officiellement en juillet 2012 au Centre Leibniz de supercalcul à Garching, Allemagne.

Le supercalculateur a été fabriqué avec des serveurs System X iDataPlex dx360 M4 d'IBM à refroidissement direct à l'eau avec plus de 150.000 cœurs pour fournir une performance maximale de plus de 3 pétaFLOPS, ce qui équivaut au fonctionnement de plus de 110.000 ordinateurs personnels. En d'autres termes, trois milliards de personnes utilisant une calculatrice de poche devraient effectuer un million d'opérations par seconde chacune pour égaler la performance du SuperMUC.

Par ailleurs, une nouvelle technologie révolutionnaire de refroidissement à l'eau chaude inventée par IBM permet au système d'être conçu de manière 10 fois plus compacte et d'améliorer sa performance maximale, tout en consommant 40 % d'énergie en moins qu'une machine équivalente refroidie par air.

« Cette année, les institutions allemandes financées par l'État sont dans l'oblication d'acheter de l'énergie à 100 % renouvelable pour leur consommation d'énergie », a déclaré le Docteur Arndt Bode, professeur et président du conseil du centre Leibniz de supercalcul. « SuperMUC nous aidera à honorer notre engagement, tout en fournissant à la communauté scientifique un système de pointe pour tester ses théories, mettre sur pied des expériences et prévoir des résultats comme jamais auparavant. »

Aujourd'hui, jusqu'à 50 % de la consommation d'énergie et de l'empreinte carbone d'un centre de données moyen refroidi par air ne sont pas causés par le calcul, mais par l'alimentation des systèmes de refroidissement nécessaires. Les scientifiques et développeurs d'IBM ont choisi d'aborder ce défi avec un concept innovant de refroidissement à l'eau chaude, ce qui supprime le besoin en systèmes de refroidissement à air conventionnels des centres de données. La technologie de refroidissement à l'eau chaude d'IBM refroidit directement les composants actifs du système, comme les processeurs et les modules de mémoire, avec des températures de refroidissement qui peuvent atteindre 45°C.

SuperMUC combine sa capacité de refroidissement à l'eau chaude, éliminant la chaleur en étant 4.000 fois plus efficace que l'air, à des processeurs Intel Xeon 18.000 fois plus économes en énergie. En plus de contribuer aux découvertes scientifiques, l'intégration du refroidissement à l'eau chaude et du logiciel de gestion de systèmes dynamiques d'IBM tourné vers les applications permet la capture et la réutilisation de l'énergie pour chauffer les bâtiments pendant l'hiver sur l'immense campus du Centre Leibniz de supercalcul, entraînant une économie d'un million d'euros (1,25 million de dollars américains) par an.

A plus long terme, IBM travaille sur des puces en 3D qui intègrent à la fois un liquide de refroidissement, des circuits de communication et une consommation énergétique réduite. L'ensemble fera que les superordinateurs du futur - vers 2025 - auront la taille d'un cube de sucre ...

Enerzine

Une membrane dynamique capable de s'auto-réparer
Mardi, 26/06/2012 - 01:20

Les membranes, qu'elles soient constituées de céramiques ou de polymères, font l'objet de très nombreuses applications, notamment dans l'industrie pharmaceutique et agroalimentaire. Servant aussi à la potabilisation et à la désalinisation de l'eau, leur marché connaît une croissance de 10 % par an. Les membranes utilisées jusqu'à présent sont des structures figées : la taille des pores ne peut pas être ajustée. De plus, elles peuvent subir des déchirements qui ne sont pas détectés immédiatement,  ce qui pose des problèmes de sécurité sanitaire.

En s'inspirant des membranes cellulaires, les chercheurs ont mis au point un nouveau type de filtre : une membrane dynamique dont on peut faire varier la taille des pores en fonction de la pression de l'eau qui les traverse. Celle-ci est constituée d'une association de trois polymères de solubilité différente. Ceux-ci forment des micelles, des nanoparticules en constante interaction les unes avec les autres. Jusqu'à une certaine pression, lorsque la force de l'eau augmente, ces micelles ont tendance à s'aplatir, et donc, à réduire la taille des pores dont la membrane est parsemée.

Ainsi, à une faible pression de l'ordre de 0,1 bar, la taille des pores est d'environ 5 nanomètres, ce qui permet de filtrer des macromolécules ou des virus. En augmentant modérément la pression, on obtient des pores de l'ordre de 1 nanomètre qui barrent le passage aux sels, colorants et tensioactifs. Mais si l'on augmente la pression jusqu'à 5 bars, un changement drastique de la morphologie de la membrane se produit et les pores atteignent plus de 100 nanomètres de diamètre, ce qui permet de filtrer les bactéries ou les particules en suspension. Cette propriété unique permettra aux utilisateurs de ne recourir qu'à un seul type de membrane pour tous leurs besoins en filtration.

Mais ce n'est pas tout : ces filtres dynamiques de 1,3 micromètre d'épaisseur sont capables de s'auto-réparer. Si la membrane se fissure, l'équilibre physique qui lie les micelles entre elles est rompu. Celles-ci cherchent alors à rétablir cet équilibre et se réorganisent de façon à combler la fissure. Une perforation d'une taille 85 fois plus grande que l'épaisseur de la membrane peut ainsi être réparée sans intervention humaine et sans l'arrêt de l'opération de filtration. Cette capacité d'autoréparation permettra à la fois de prolonger la durée de vie des membranes et d'augmenter les garanties de sécurité sanitaire.

CNRS

GDF Suez affiche ses ambitions dans l’hydrolien
Lundi, 25/06/2012 - 01:10

Le groupe se lance dans deux projets d’implantations d’hydroliennes en Bretagne et en Normandie.

GDF Suez ne tourne pas le dos aux énergies marines en France bien que son offre dans l’éolien offshore ait été recalée par le gouvernement en avril dernier. Le groupe dirigé par Gérard Mestrallet à annoncé le mercredi 20 juin s’intéresser à deux projets d’hydroliennes, ces turbines placées au fond de l’eau où elles sont actionnées par les courants marins.

La France posséderait le deuxième gisement européen après la Grande-Bretagne. Le groupe français s’intéresse à deux sites qui comptent pour 80 % de l’ensemble du potentiel de l’Hexagone. Le premier site est le Raz Blanchard, au large du Cotentin, dans la Manche. D’ici 2015, le groupe veut y installer 3 à 6 turbines Hytide du germano-norvégien Voith Hydro. Le second, le passage du Fromveur, se situe au large de l’Ile d’Ouessant où GDF suez pourrait implanter des hydroliennes D10 du français Sabella.

Après l’éolien offshore qui a vu le sacre d’EDF, d’Alstom et d’Areva pour la construction d’une filière française, l’hydrolien pourrait être un nouveau bassin d’emplois pour une industrie tricolore. En mars dernier, à l’occasion d’une visite chez DCNS, l’ex ministre de l’industrie Eric Besson annonçait un appel d’offres d’ici deux ans pour le Raz-de-Blanchard. Toutes énergies marines confondues (énergie des vagues, de la houle, thermique, hydrolienne), il existe un potentiel de 11 000 postes pérennes, selon le Groupement des industries de construction et activités navales (Gican).

L'Usine Nouvelle

La première éolienne offshore du Portugal sur fondation flottante !
Lundi, 25/06/2012 - 01:00

Non content d'annoncer l'inauguration de la première éolienne offshore du Portugal, un consortium comprenant Vestas Wind Systems A/S - EDP, Energias de Portugal, Repsol, Principle Power, A. Silva Matos (ASM) et InovCapital indique que la turbine a été installée sur un système innovant de fondation flottante appelé le WindFloat.

Spécificité importante ! C'est la première éolienne offshore à être installée sans l'utilisation de navires spécifiques dédiés normalement pour ce type d'installation en mer. L'installation, l'assemblage final, et les pré-tests de mise en service de la turbine et de sa structure ont eu lieu sur la terre dans un environnement contrôlé. Le système complet a ensuite été remorqué au large des côtes en utilisant des navires remorqueurs simples.

Le WindFloat est équipé d'une turbine Vestas V80 2.0MW capable de produire suffisamment d'électricité pour fournir 1.300 foyers. Le système est situé à 5 km au large de la côte de Aguçadoura, au Portugal, et a déjà produit plus de 1,7 GWh.

Le WindFloat devrait faire entrer l'éolien en mer dans une nouvelle ère, permettant aux gestionnaires de réseaux de cibler des sites d'implantation de meilleur qualité de vent, indépendamment de la profondeur d'eau. De plus, les projets sont en mesures de réaliser des réductions importantes de coûts et de risques en raison du montage et des pré-tests de mises en service réalisés à terre.

Hormis les sociétés citées en introduction, plus de 60 autres fournisseurs européens, dont 40 portugais, ont fourni des éléments clés du projet. Repsol a récemment rejoint la JV Windplus en tant qu'actionnaire de poids, apportant une expérience supplémentaire dans le domaine offshore.

"Vestas a été le pionnier de l'industrie éolienne et s'efforce en permanence de trouver de nouvelles façons de réduire le coût de l'énergie concernant l'éolien offshore et d'augmenter les certitudes de rentabilité pour nos clients. Le système de fondations flottantes est une des solutions avec le plus grand potentiel pour la « récolte » du vent sur des sites en eaux profondes et le projet Windfloat était une option très intéressante pour nous aider à explorer ce domaine au sein de l'éolien offshore. Nous avons travaillé en étroite collaboration avec EDP et Principle Power sur ce projet et nous sommes très heureux de l'intégration réussie de la turbine et de la plate-forme WindFloat. Ce fut une expérience très intéressante et essentielle et nous sommes fiers des résultats satisfaisants obtenus à ce jour", a déclaré Ditlev Engel, le Président de Vestas.

Enerzine

Une turbine électrique pour les cours d'eau
Dimanche, 24/06/2012 - 01:20

A l’heure où les hydroliennes prennent pied dans les océans pour récupérer l’énergie des courants marins, pourquoi ne pas s’intéresser à l’énergie des rivières ? Cette question, Instream Energy Systems a choisi d'y répondre. la société basée à Vancouver (Canada) développe une petite turbine à axe vertical adaptée à des courants allant de 1,5 à 3 m/s. Son objectif est de commercialiser à moyen terme un module standard, capable de produire entre 10 et 30 kW d’électricité.

La société a déjà expérimenté trois prototypes pendant trois mois près du barrage de Duncam, au Canada. Elle délègue la majeure partie de sa R&D à British Air Space, via des crédits de recherche octroyés par le gouvernement canadien aux entreprises innovantes. La société canadienne bénéficie ainsi de l’expertise de l’équipementier aéronautique en matière de profil des pales et de résistance des matériaux.

Pour concevoir le support des turbines, plus dépendante des conditions locales, la société établit également des partenariats. Elle a récemment été labellisée par le pôle Capenergie. En collaboration avec les sociétés locales Stucky pour la prospective du site et QMT pour la structure portante, elle devrait ainsi plonger une turbine dans le Canal Mixte, dans le sud de la France, d’ici le début 2013.

« Les canaux sont notre marché premier. Le niveau d’eau y est plus stable et le courant moins capricieux que sur les rivières », explique Christopher Turley, responsable du développement des affaires chez Instream. L’essai devrait lui apporter un retour d'expérience précieux pour peaufiner ses turbines en vue d’une commercialisation. A terme, Instream prévoit d’adapter ses systèmes à des environnements plus hostiles comme les estuaires ou les rivières.

Industrie & Technologies

Le marché de l’hydrolienne : vers un leadership Français
Samedi, 23/06/2012 - 01:30

Alors que l’essor de l’éolien terrestre est freiné par les autorités administratives, l’éolien offshore prend son envol avec l’émergence d’une véritable filière industrielle. Cet essor est rendu possible grâce aux appels d’offres de l’Etat pour la construction de 5 parcs éoliens au large des côtes françaises pour un objectif de 6 GW de puissance totale d’ici 2020. Trois de ces appels d’offres ont été remportés par le consortium EDF-Alstom correspondant jusqu’à 1.500 MW de nouvelles capacités installées. Les entreprises s’engagent également sur un plan industriel ambitieux qui représente la création d’environ 7.500 emplois directs et indirects. Mais une autre forme d’énergie marine renouvelable (EMR) commence sérieusement à intéresser les grands énergéticiens tels que EDF. Au point de lancer une phase de test grandeur nature et de parier sur un développement industriel d’une technologie encore peu explorée.

De nombreuses autres explorations technologiques visaient à exploiter l’énergie thermique des mers et l’énergie des vagues ou de la houle. Mais l’énergie issue des courants marins paraît la plus prometteuse. En particulier sur notre territoire : la France possède l’essentiel du potentiel européen. Il y a même une zone où les courants de marée représentent l’un des plus gros gisements mondiaux (le troisième plus important) : le passage du Raz Blanchard. Les courants sont équivalents à 5 mètres par seconde dans cette zone. Suffisant pour produire de l’électricité à partir d’une machine appelée Hydrolienne. Reprenant le principe d’une éolienne, l’hydrolienne est immergée au fond de la mer profitant ainsi des courants marins pour faire tourner le générateur. D’autres zones en basse-Normandie ont été identifiées où la vitesse du courant dépasse 2 mètres par seconde.

Un industriel situé à quelques kilomètres de ces gisements est prêt à investir massivement dans cette filière à haut potentiel : groupe DCNS (construction navale), un des leaders mondiaux dans la construction de sous-marins et de navires de défense basé à Cherbourg. DCNS est donc prêt à fabriquer plusieurs centaines d’hydroliennes en lançant la production dans un avenir proche.

DCNS compte fabriquer des machines nommées « Openhydro », d’une puissance de 3 MW capable d’alimenter en électricité de 2.000 à 3.000 foyers par hydrolienne. Cette technologie dite « open-centre turbine » a en fait été développée par la société irlandaise OpenHydro en 2006. Les ingénieurs ont mis au point une turbine à axe horizontal réversible selon les courants des marées. EDF est impliqué dans ce projet et a déjà immergé une hydrolienne fabriquée par la société OpenHydro en collaboration avec la DCNS, baptisée « l’Arcouest » d’un diamètre de 16 mètres pour un poids de 850 tonnes et d’une puissance de 0.5 MW. Durant plusieurs mois l’hydrolienne immergée à une profondeur de 35 mètres est entrée en phase de test.

En comparaison, la plus puissante éolienne en mer du monde, l’Haliade-150 d’Alstom, a une puissance de 6 MW (avec un rotor de 150 mètres de diamètre, pesant 1.500 tonnes avec ses fondations). L’hydrolienne accuse donc un déficit de puissance comparé aux éoliennes. Pour autant, les initiateurs du projet croient au développement d’une filière Française compétitive. Ils annoncent même un coût du kilowattheure hydrolien inférieur à celui de l’éolien offshore (180 euros/MW) !

Pour DCNS, c’est la création de 1.000 emplois à la clé et le groupe espère gagner le futur appel d’offres hydrolien français (en 2014). L’appel d’offres prévoit la construction d’un millier d’hydroliennes de 2.5 MW d’ici 2020, soit un parc d’une puissance de 2.5 GW. DCNS ne peut se permettre de louper un tel envol industriel qui lui permettrait d’ouvrir plusieurs lignes de production sur son site de Cherbourg. Et pourquoi ne pas imaginer un développement mondial de cette technologie prometteuse dont la France pourrait en devenir le leader grâce à une filière industrielle d’avant-garde ?

Quelle Energie

Vers l'optique en rayons gamma
Samedi, 23/06/2012 - 01:00

Il est facile de manipuler la lumière visible : des lentilles, des prismes ou des miroirs suffisent pour la focaliser, la dévier ou la réfléchir. Dans le cas des rayons gamma, plus énergétiques, on pensait que la déviation était  impossible et qu’aucun dispositif optique ne pouvait fonctionner dans cette gamme d’énergie. Mais une équipe de physiciens de l’Institut Laue-Langevin (ILL), à Grenoble, a montré que les rayons gamma sont réfractés dans le silicium.

La réfraction est le phénomène physique sur lequel repose le fonctionnement des lentilles et des prismes : lorsque la lumière passe d’un milieu à un autre, sa vitesse change et sa trajectoire aussi. C’est ainsi qu’une paille plongée dans un verre d’eau apparaît brisée à l'interface de l’air et l’eau. On définit l’indice de réfraction d’un milieu comme le rapport de la vitesse de la lumière dans le vide et celle dans ce milieu. Il vaut environ 1 dans l’air et environ 1,5 dans le verre.

L’indice de réfraction dépend de la fréquence de la lumière. Il tend vers 1 quand la fréquence augmente : dans ce cas, le rayon incident n'est pas dévié. Pour des rayons X, il faut plusieurs centaines de lentilles pour focaliser un faisceau. Quelques instruments, tel que l’Installation européenne de rayonnement synchrotron (ESRF) à Grenoble, permettent de sonder la matière au moyen de rayons X à des échelles nanométriques, ce qui a des applications dans divers domaines (physique, chimie, médecine ou archéologie). Avec les rayons gamma, on pourrait aligner un nombre encore plus important de lentilles, mais, chacune absorbant une partie de la lumière, un tel dispositif serait inexploitable.

Dietrich Habs, de l’Université de Munich, et ses collègues de l’ILL proposent une autre approche. Ils ont mesuré l’indice de réfraction du silicium pour des photons gamma d'énergie jusqu’à deux mégaélectronvolts. Dans leur expérience, un faisceau gamma, produit par un faisceau de neutrons bombardant une cible de chlore, traversait un prisme de silicium où il était réfracté. Les physiciens ont constaté que l’indice de réfraction du silicium devient légèrement supérieur à un lorsque l’énergie des photons gamma augmente. C'est dû à un effet dit de diffusion Delbrück : en présence du champ électrique des noyaux de silicium, les photons gamma engendrent des paires électron-positron, qui s’annihilent en libérant des photons gamma. Le passage par la paire électron-positron, qui se déplace plus lentement que la lumière, ralentit la progression des photons dans le prisme, ce qui modifie l’indice de réfraction.

Celui-ci reste très proche de un dans le cas du silicium, mais l’effet Delbrück devrait être plus important pour des atomes plus lourds. Les physiciens estiment que l’or permettrait d'obtenir un indice de réfraction assez élevé pour concevoir des systèmes optiques (lentilles, prismes, guides d’onde, etc.) utilisables avec des rayons gamma. Des dispositifs exploitant les rayons gamma seront-ils un jour exploitables en imagerie médicale ou pour traiter des cancers ?

Pour La Science

^ Haut
Espace
Espace et Cosmologie
Feu vert pour la mission spatiale Euclid
Lundi, 25/06/2012 - 01:30

Le Comité des Programmes Scientifiques (SPC) de l'ESA vient d'approuver le démarrage de la mission Euclid consacrée à l'étude de l'énigmatique énergie noire. Cette étape très importante est la dernière d'un processus de près de cinq ans qui aura vu Euclid, née d'une idée française, franchir avec succès toutes les étapes de sélection pour être retenue, parmi plus de 50 propositions à l'origine, comme deuxième mission du programme Vision Cosmique de l'ESA. La France, à travers le CNES (l'agence spatiale française), le CNRS et le CEA, a initié ce projet et contribue de manière déterminante à sa réalisation. Le lancement est prévu au second trimestre 2020.

L'expression « énergie noire » est née en 1998 suite à une découverte surprenante : alors que l'expansion de l'Univers prévue dans le cadre de la « théorie du Big Bang » est bien confirmée par l'observation des galaxies qui s'éloignent les unes des autres, cette expansion semble se faire de plus en plus rapidement avec le temps, alors que l'on imaginait jusqu'alors un ralentissement de cette expansion, à cause de la gravitation. En outre, cette mystérieuse composante représenterait 73 % du contenu de l'Univers, en sus de 23 % d'une non moins mystérieuse « matière noire » dont on observe les effets à grande échelle.

Cette découverte, qui vaudra à ses auteurs le prix Nobel en 2011, a suscité un intérêt considérable dans une très large communauté scientifique embrassant la physique théorique, l'astrophysique ou encore la cosmologie. Plusieurs idées ont alors été mises en œuvre pour tenter de comprendre ce qu'est l'énergie noire. Euclid s'appuiera sur au moins deux d'entre elles, appelées respectivement méthode du cisaillement gravitationnel (Weak Lensing – WL en anglais) et méthode des oscillations acoustiques baryoniques (Baryonic Acoustic Oscillations – BAO).

La première consiste à mesurer la distorsion des images des galaxies provoquée par la présence de matière noire sur la ligne de visée. En réalisant l'opération sur des galaxies situées à diverses distances de la Terre, on peut « cartographier » la matière noire en trois dimensions et voir ainsi l'évolution de cette répartition dans le temps, évolution déterminée par les propriétés de l'énergie noire.

La méthode des BAO s'appuie quant à elle sur une cartographie en trois dimensions des grandes structures visibles de l'Univers (galaxies, amas de galaxies). Là encore, c'est la comparaison entre structures lointaines (anciennes) et proches (récentes) qui renseignera sur les effets précis de l'énergie noire.

Il se trouve que matière et énergie noires contribuent de façon différente à l'histoire de l'expansion de l'Univers et de l'évolution des structures cosmiques. Ces différences peuvent être identifiées et caractérisées avec Euclid, permettant aux physiciens et astrophysiciens de comprendre la nature de l'énergie noire et de révéler des propriétés de la matière noire.  Avec Euclid les physiciens seront donc en mesure de dire si l'accélération de l'expansion de l'Univers provient d'une composante nouvelle, l'énergie noire, ou bien de la manifestation d'effets gravitationnels non prévus par la théorie standard de la gravitation, la relativité générale.

Pour réaliser ces mesures, Euclid effectuera un relevé d'une grande partie du ciel avec deux instruments très précis, placés au foyer d'un télescope de 1,2 m de diamètre. Une caméra de 576 millions de pixels observant dans le domaine visible fournira les images d'environ deux milliards de galaxies avec une très haute résolution, équivalente à celle du télescope spatial Hubble. Un spectro-imageur opérant dans l'infrarouge produira une cartographie des grandes structures de l'Univers et mesurera la distance aux galaxies imagées par la caméra. Enfin, un ensemble de supercalculateurs et de logiciels spécifiques sera nécessaire pour traiter les données reçues du satellite (soit plusieurs millions de gigaoctets).

Les données scientifiques d'Euclid constitueront un catalogue unique de plusieurs milliards d'étoiles et galaxies distribuées sur l'ensemble du ciel situé de part et d'autre de la Voie Lactée. Ceci ouvrira notamment une fenêtre sur la formation des premières galaxies, il y a plus de 12 milliards d'années, et représentera une source unique et quasi-inépuisable d'informations pour la communauté astronomique mondiale pendant les prochaines décennies.

Si l'ESA est en charge de la mission dans son ensemble, c'est un consortium de laboratoires et d'instituts européens (le plus important jamais rassemblé autour d'une mission spatiale en Europe), dirigé par Yannick Mellier, de l'Institut d'Astrophysique de Paris (Université Pierre et Marie Curie/CNRS), qui fournira les instruments et le système de traitement des données. Les laboratoires français soutenus par le CNES constituent les initiateurs et le fer de lance de ce consortium et ont largement contribué par des études approfondies à la sélection d'Euclid. Ils auront notamment en charge la fourniture du spectro-imageur infrarouge, du plan focal de la caméra visible, de l'architecture globale du système de traitement des données, de nombreux logiciels ainsi que d'un centre de calcul de grande capacité.

CNRS

La planète qui partait en fumée
Samedi, 23/06/2012 - 01:40

Le satellite Kepler a découvert une exoplanète dotée d'une queue de poussière et de gaz, arrachés sous l'effet de la proximité avec son étoile. Elle pourrait s’évaporer totalement d’ici 200 millions d’années.

Le télescope Kepler a découvert plus de 1 250 planètes extrasolaires par la méthode des transits, c'est-à-dire en observant une baisse infime mais périodique de la luminosité d'une étoile à chaque fois qu'une exoplanète en orbite passe devant. Ces transits sont réguliers aussi bien dans le temps que par l'intensité de la baisse de luminosité. L’étoile KIC 12557548 présente cependant un comportement anormal : si une baisse de luminosité périodique a été observée, signe de la présence d’une planète, cette atténuation varie au fil des transits. Pour expliquer ce phénomène, Saul Rappaport, de l'Institut de technologie du Massachussets, et ses collègues suggèrent que la planète en orbite perdrait dans l'espace une grande quantités de poussière, qui formerait une « queue » semblable à celle des comètes.

La période du transit est de 15,7 heures – correspondant à un rayon d'environ 0,013 unités astronomiques –, et la masse de la planète responsable ne dépasserait pas trois fois celle de Jupiter. Mais la baisse de luminosité de l’étoile varie de 0,15 à 1,3 pour cent. Cette variabilité ne peut s’expliquer par le passage d'un seul objet de taille bien définie. Les astrophysiciens ont d'abord envisagé des scénarios impliquant une autre planète ou une étoile compagnon, mais ceux-ci ne permettent pas de reproduire les observations. 

Ils ont alors imaginé une planète géante gazeuse qui perdrait du gaz, lequel bloquerait plus ou moins la lumière de l'étoile en fonction de son abondance (c’est le cas de la planète HD 209458b, ou Osiris). Cependant, une traînée de gaz ne peut expliquer à elle seule une telle variation de la baisse de luminosité. Une autre solution est que la planète incriminée est rocheuse et éjecte non seulement du gaz, mais aussi un volumineux nuage de poussière opaque.

Le scénario avancé par les chercheurs implique ainsi une planète de petite taille, dix fois plus légère que la Terre, ayant une composition similaire à celle du manteau supérieur terrestre, à savoir une forte teneur en silicates (pyroxènes et olivines). La petite taille de la planète induit une faible gravité, si bien que les grains de poussière peuvent s’échapper facilement dans l'espace.

Comment acquièrent-ils l'énergie suffisante à leur éjection ? En raison de la proximité de la planète avec son étoile, la planète est bloquée en rotation synchrone, présentant ainsi toujours la même face à l'étoile.  La température de la surface exposée atteindrait ainsi 2 100 kelvins. De quoi vaporiser les silicates, qui se condensent en nuages dans l’atmosphère. Ces grains sont ensuite entraînés hors de l’atmosphère par le gaz fuyant à quelques kilomètres par seconde, au-delà de la vitesse de libération du champ de pesanteur.

Pour décrire ce processus, les astrophysiciens ont utilisé un modèle similaire à celui imaginé par l’astronome américain Eugene Parker dans les années 1950 pour expliquer le vent solaire par l’agitation thermique. Dans le cas présent, le gaz s’échapperait de la planète en emportant la poussière avant de se disperser. L’effet d’entraînement devenant négligeable, celle-ci reste soumise à la seule pression de radiation de l’étoile et aux forces de Coriolis, qui donnent au nuage de poussière une forme similaire à une queue de comète.

Pour avoir une influence notable sur la luminosité lors du transit, les grains de poussière doivent avoir une durée de vie suffisamment longue avant de se sublimer. Des simulations numériques menées en 2002 ont montré que des grains de pyroxène d’un rayon de l’ordre du micromètre avaient une durée de vie de plusieurs heures. En revanche, les grains d’olivine s’évaporent trop rapidement. Des nuages de pyroxène pourraient ainsi reproduire les atténuations observées. Les variations d'intensité résulteraient de l'irrégularité des émissions de poussière, comme on l'observe dans les queues de comètes.

Selon les calculs des physiciens, avec une telle évaporation, la planète en orbite autour de l'étoile KIC 12557548 aurait une durée de vie relativement courte, de l’ordre de 200 millions d’années.

Pour La Science

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les émissions de CO2 dues à la déforestation revues à la baisse
Mercredi, 27/06/2012 - 01:20

Les émissions de dioxyde de carbone (CO2) résultant de la déforestation en zones tropicales sont nettement moindres qu'estimé jusqu'alors, a révélé récemment une étude américaine réalisée grâce à des données satellitaires. Ainsi de 2000 à 2005, ces émissions n'ont été que de 810 millions de tonnes par an, soit un tiers environ du volume estimé encore récemment. Cela ne représente que 10 % du CO2 total d'origine humaine rejeté dans l'atmosphère, selon ces chercheurs.

Dans leurs travaux publiés dans le revue Science, ils se sont concentrés sur les pertes de CO2 dues à l'abattage d'arbres dans les forêts tropicales, sans prendre en compte la reforestation qui permet de capter du dioxyde de carbone.

De 2000 à 2005, le Brésil et l'Indonésie sont les deux pays qui ont produit le plus de CO2 dû à la déforestation, avec 55 % du total de ces émissions, précise l'étude menée par des chercheurs de Winrock International, un institut américain privé de recherche sur l'environnement à but non lucratif. Cette équipe comprenait également des scientifiques de la firme Applied GeoSolutions, d'un laboratoire de la Nasa et de l'Université du Maryland (est).

Selon ces travaux, près de 40 % des pertes de couverture forestière étaient concentrées dans les zones sèches des tropiques mais elles n'ont compté que pour 17 % des émissions de CO2 résultant de la déforestation, illustrant de faibles stocks de dioxyde de carbone comparativement aux forêts tropicales humides.

En 2007, la meilleure estimation des émissions de CO2 dues à la déforestation, établie par le Groupe d'experts de l'ONU sur l'évolution du climat (Giec) et basée sur l'utilisation des terres, les évaluait à environ 1.900 milliards de tonnes par an. "Le modèle comptable pour calculer les émissions de CO2 basé sur les changements dans l'utilisation des terres était jusqu'alors la meilleure méthode", relève Nancy Harris, de l'institut Winrock et principale auteur de l'étude. "Mais l'émergence des satellites d'observation de la Terre combinée à une politique internationale cherchant à réduire les émissions de CO2 résultant de la déforestation dans les pays en développement a poussé la communauté scientifique à adopter des méthodes d'estimation plus transparentes et dépendant de plus en plus des données satellitaires", explique-t-elle.

Ces chercheurs espèrent aussi que le mécanisme de l'ONU dans la convention sur le changement climatique, qui propose de compenser les pays en développement pour réduire leurs émissions de CO2 provoquées par la déforestation et la dégradation des forêts, va bénéficier d'une estimation plus exacte du dioxyde de carbone rejeté dans l'atmosphère.

Google news

Le stockage géologique du CO2 pourrait augmenter les risques de séisme
Mardi, 26/06/2012 - 01:10

Selon deux chercheurs californiens, l'injection dans le sous-sol de volumes de CO2 assez importants pour réduire les émissions de gaz à effet de serre accroît le risque sismique dans les zones «fragiles».

L'enfouissement dans le sous-sol de vastes quantités de dioxyde de carbone (CO2) risque de provoquer des séismes, ce qui pourrait compromettre cette stratégie prometteuse - mais coûteuse - de lutte contre le réchauffement climatique, avertit une étude américaine.

Le stockage géologique du CO2, notamment lorsque ce gaz est généré par des centrales électriques à charbon comme c'est majoritairement le cas en Chine et aux États-Unis, permet d'éviter son émission dans l'atmosphère et sa contribution au renforcement de l'effet de serre naturel. Dans son rapport de 2005, le Groupe intergouvernemental de l'ONU sur l'évolution du climat (Giec) considère même qu'il s'agit d'une solution viable pour contrecarrer la tendance actuelle au réchauffement. Une analyse contestée par les géophysiciens Mark Zoback et Steven Gorelick de l'Université de Stanford, en Californie. «Nous estimons qu'il existe une forte probabilité que des tremblements de terre soient déclenchés par l'injection de vastes volumes de CO2, mélangés à de l'eau, dans les roches fragiles que l'on rencontre le plus souvent» dans la croûte terrestre, écrivent-ils dans un article publié dans les Annales de l'Académie américaine des sciences (Pnas).

À l'appui de leur démonstration, les auteurs citent le cas de séismes de magnitude faible à modérée (3 à 5,3) provoqués par l'injection dans le sous-sol, à plusieurs kilomètres de profondeur, d'eaux usées à forte pression mélangées ou non à du méthane. Ils signalent que plusieurs incidents de ce type sont survenus aux États-Unis au cours de la seule année 2011.

Le mécanisme est assez simple. L'incorporation de fluides liquides ou gazeux a pour effet d'augmenter la pression à l'intérieur des roches. Et dans les régions où la croûte terrestre est fragile, c'est-à-dire à proximité d'une faille préexistante et potentiellement active, ce regain de tension peut suffire à déclencher un tremblement de terre.

Ne pourrait-on pas contourner le problème en injectant le CO2 dans les zones géologiquement stables ? C'est sans compter sur le fait que de larges portions du territoire américain et surtout chinois, principaux pourvoyeurs mondiaux de CO2, ont une forte sismicité. Or pour prétendre lutter efficacement contre les émissions de CO2, il faudrait pouvoir en injecter de l'ordre de 3,5 milliards de tonnes par an dans le sous-sol, «soit un volume équivalent aux 27 milliards de barils de pétrole produit chaque année dans le monde», notent les auteurs. Difficile dans ces conditions de ne pas empiéter sur des zones à risque.

Sans compter que des secousses de faible ou moyenne puissance sont à même de compromettre l'étanchéité des poches géologiques contenant le CO2 séquestré et donc de contribuer à terme à son relargage dans l'atmosphère ruinant ainsi l'efficacité du dispositif. «Dans ces conditions, il faut reconnaître que le stockage géologique de CO2 à grande échelle est une stratégie extrêmement coûteuse et risquée si l'on veut réduire de manière significative les émissions de gaz à effet de serre», mettent en garde les auteurs.

Le Figaro

La croissance des plantes en voie d'être pleinement comprise
Samedi, 23/06/2012 - 01:20

Jusqu'à aujourd'hui, la génétique de la croissance des plantes était considérée comme trop complexe pour être cartographiée. En se basant sur les éléments clés du métabolisme des plantes, l'Université de Hohenheim dans le sud de Stuttgart, l'Institut Max Planck de physiologie moléculaire des plantes (MPI) de Potsdam-Golm (Brandebourg) et l'Institut Leibniz de génétique végétale et de recherche sur les plantes cultivées (IPK) de Gatersleben, ont réussi à identifier les zones de l'ADN où se joue la croissance d'une plante.

De nombreux gènes interagissent les uns avec les autres pour déterminer si une plante sera de grande ou de petite taille. En utilisant l'exemple du maïs, les chercheurs spécialistes de la reproduction des plantes de l'Université de Hohenheim ont réussi pour la première fois à identifier les segments d'ADN pertinents à la croissance des plantes. Ils ont pour cela d'abord identifié les éléments clés du métabolisme de la plante qui affectent la croissance, pour en déduire les sections de l'ADN qui les intéressaient. Cette nouvelle approche a été possible grâce à l'expertise particulière du MPI et de l'IPK. Les résultats de cette étude sont disponibles dans la revue américaine "Proceedings of the National Academy of Sciences" (PNAS).

La croissance du maïs montre une étonnante diversité. Jusqu'à tout récemment, les mécanismes génétiques faisant d'une plante un végétal de quelques centimètres ou de plusieurs pieds de haut étaient un véritable mystère pour les scientifiques. Leur seule certitude reposait sur la complexité de ce processus et sur l'intervention de nombreux gènes. Le fossé entre le code génétique d'une plante et son aspect dans les champs était encore énorme. En collaboration avec leurs partenaires, les chercheurs spécialistes de la reproduction ont veillé à ce que l'écart entre "gène" et "apparence" ne soit plus aussi important. Plutôt que de simplement passer au crible le code génétique à la recherche de points de contrôle liés à la croissance des plantes, ils ont choisi une approche plus large axée sur le métabolisme de la plante.

Pour cela, ils ont extrait des feuilles de 300 plants de maïs de différentes tailles les éléments clés du métabolisme. Les chercheurs du MPI ont analysé et déterminé les concentrations de 118 substances différentes, dont beaucoup impliquées dans la croissance de la plante. Pour ce faire, ils ont eu à leur disposition les dernières technologies d'analyse, permettant de détecter ces composants avec une haute précision. Comme l'explique Lothar Willmitzer, chercheur au MPI, "toute substance est comme un composant ayant une fonction spécifique et, ensemble, ces substances forment un bâtiment fonctionnel".

Grâce à ces connaissances, les chercheurs ont pu déterminer les sections du génome qui contrôle la production de ces éléments clés. A cet effet, ils ont coopéré avec les scientifiques de l'IPK, qui ont utilisé pour l'identification un vaste recueil de données génomiques ainsi que des méthodes d'analyse statistique, semblables à celles qui sont employées actuellement dans la génétique humaine afin d'identifier les causes génétiques d'un cancer, de diabète ou autres maladies.

Jusqu'à présent, les scientifiques ont pu identifier avec une grande précision les points de contrôle génétiques pour 26 métabolites. Ainsi, la compréhension génétique de la croissance des plantes, bien que pas encore complètement élucidée, est sur une voie prometteuse.

Bulletins Electroniques

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un nouveau biomarqueur du cancer
Jeudi, 28/06/2012 - 01:40

Repérer le plus tôt possible l’apparition de cancers ou leur rechute est l’un des enjeux de la cancérologie. Malgré les progrès de l’imagerie, la récidive de la tumeur doit avoir atteint une taille suffisante pour être visible. A l’Institut Curie, un travail co-dirigé par deux médecins chercheurs, Marc-Henri Stern et Olivier Lantz (U830 et U9323 Inserm/Institut Curie), montrent pour la première fois qu’il est possible de détecter de l’ADN tumoral circulant dans le sang de patients atteints de mélanome de l’oeil métastatique. Sa présence révèle l’existence d’une tumeur et sa quantité reflète sa taille : ceci en fait un nouveau biomarqueur susceptible de repérer très tôt la présence d’une tumeur ou d’une récidive.

Bien que réalisée sur un nombre limité de patients atteints d'une maladie rare, cette étude mise en ligne dans Clinical Cancer Research est une preuve de concept de la faisabilité et de l’intérêt clinique de la détection et de la quantification de l'ADN tumoral dans le sang. Cette technique pourrait être appliquée à n'importe quel type tumoral à partir du moment où une altération génétique spécifique a été identifiée.

Malgré les progrès dans la prise en charge initiale des mélanomes de l’oeil, ce cancer est, une fois disséminé, très difficile à traiter. L’un des espoirs est de pouvoir proposer le plus tôt possible un traitement aux patients présentant une dissémination tumorale. Mais à ce jour, les techniques d’imagerie et de biologie ne peuvent révéler que des métastases ayant déjà une taille importante. D’où l’idée des chercheurs de l’Institut Curie de détecter de l’ADN tumoral circulant dans le sang des patients.

  • Détecter l’ADN circulant dans le sang : une nouvelle méthode « simple » applicable à tous les cancers

Il existe en effet un phénomène naturel de dégradation des cellules normales ou tumorales dans l’organisme et ce, afin d’assurer le renouvellement des tissus. Les cellules sont dégradées et une partie de leur matériel génétique se retrouve dans le sang. Donc, comme l’explique Marc-Henri Stern, « si de l’ADN tumoral est détecté, cela signifie que des cellules tumorales sont présentes dans l’organisme. » Un travail co-dirigé par Olivier Lantz et Marc-Henri Stern s’est attelé à mettre au point une technique utilisable en clinique pour détecter l’ADN tumoral dans le sang sachant que celui-ci est en très faible quantité par rapport à l’ADN normal issu des autres cellules. Dans un premier temps, il a fallu déterminer comment distinguer l’ADN tumoral. « L’ADN tumoral possède les mêmes altérations que la tumeur primitive. La présence de ces mutations génétiques, en l’occurrence une altération dans les gènes GNAQ ou GNA11 très fréquentes dans ce type de cancer, est la marque de l'origine de l'ADN. » explique Olivier Lantz.

Les chercheurs ont ensuite eu recours à la méthode appelée « polymérisation activée par pyrophosphorolyse » (PAP), basée sur la réaction en chaîne par polymérase, pour détecter la présence de 3 mutations ponctuelles dans ces deux gènes. Cette technique allie sensibilité et spécificité puisqu’elle permet d’identifier une mutation ponctuelle dans un gène au milieu d’une quantité d’ADN équivalente à plus de 10 000 génomes entiers de cellule. Cette technique est simple, peu coûteuse et peut être mise en oeuvre dans n'importe quel laboratoire de biologie moléculaire clinique.

D’un point de vue clinique, de l’ADN tumoral a été détecté dans les prélèvements sanguins de 20 des 21 patients ayant un mélanome de l’oeil métastatique. « Par ailleurs la quantité de cet ADN était proportionnelle à la masse tumorale évaluée par imagerie par résonance magnétique (IRM) » ajoute Marc-Henri Stern. « Nous avons ainsi établi la preuve de concept que cette méthode de détection est parfaitement adaptée pour repérer la présence d’un foyer tumoral chez les patients à partir d’une simple prise de sang » complète Olivier Lantz.

Des études complémentaires sont dores et déjà prévues pour évaluer la valeur pronostique de ce nouveau biomarqueur en fonction du stade d’évolution des mélanomes de l’oeil. Des thérapies ciblées étant en cours de développement pour cette tumeur, la recherche de l’ADN tumoral pourrait permettre de repérer très tôt une rechute – de petite taille – et donc les patients susceptibles d’en bénéficier de manière optimale, avec en prime la possibilité d’évaluer son efficacité en observant une éventuelle diminution du taux d’ADN tumoral circulant dans le sang. Mais l’avenir de cette technique va bien au-delà du mélanome de l’oeil, puisqu’elle pourrait s’appliquer à tous les cancers chez lesquels une mutation spécifique a été identifiée.

  • Mélanomes de l’oeil : l’expertise de l’Institut Curie

Le mélanome de l’oeil est le cancer de l’oeil le plus fréquent chez l’adulte, avec 500 à 600 nouveaux cas diagnostiqués chaque année en France. L'Institut Curie est le centre de référence en France pour la prise en charge de cette pathologie avec plus de la moitié des patients français traités chaque année. L’une des préoccupations majeures est la préservation de la vue. Les traitements conservateurs, qui permettent de détruire ou d’enlever la tumeur en conservant le globe oculaire, sont essentiellement basés sur la chirurgie, la protonthérapie et la curiethérapie. Si la tumeur est trop volumineuse, le traitement conservateur n’est pas toujours réalisable et une ablation chirurgicale de l’oeil (énucléation) est parfois nécessaire. Lors du diagnostic d’un mélanome de l’oeil, il est assez rare de déceler la présence de métastases. Toutefois, 10 ans – et parfois jusqu’à 20 ans – après le diagnostic, des métastases sont décelées chez 30 à 50 % des patients. L’uvée ne possédant pas de système lymphatique, les cellules tumorales ne se propagent que par le système sanguin. Dans plus de 80 % des cas, seul le foie est atteint. Plus rarement et plus tardivement, des métastases se développent au niveau des os, de la peau ou des poumons.

Institut Curie

Le virus H5N1 est capable de s'adapter à l'homme
Jeudi, 28/06/2012 - 01:00

La revue américaine Science a publié des travaux très polémiques sur le virus H5N1, qui montrent que le vecteur de la grippe aviaire peut muter et provoquer une pandémie humaine majeure. «Je suis depuis le début persuadé qu'il faut publier ces travaux qui font avancer la connaissance sur le virus H5N1», affirme le professeur Bruno Lina, directeur du laboratoire des centres nationaux de référence des virus influenza à Lyon. La polémique avait éclaté en septembre dernier quand des chercheurs américains et néerlandais avaient annoncé lors d'une conférence scientifique qu'ils avaient réussi à produire une mutation du virus H5N1 capable de se transmettre directement de mammifère à mammifère par voie respiratoire. Une mutation du H5N1 potentiellement très dangereuse pour l'homme.

Un comité américain sur la biosécurité, le NSABB, avait estimé que ces travaux étaient dangereux et ne devraient pas être publiés. Certains experts craignaient que les virus modifiés se retrouvent dans la nature et provoquent une pandémie, ou que les publications servent de mode d'emploi pour des terroristes qui voudraient produire une arme biologique mortelle.

Après de longues discussions entre les chercheurs et les experts, ces craintes ont été écartées, et les travaux ont donc été publiés par la revue américaine Science. Les scientifiques ont cultivé un virus qui réussit à se transmettre par voie aérienne chez le furet, le meilleur modèle biologique utilisé en laboratoire pour étudier la propagation des virus grippaux sur l'homme.

«C'est de la belle science, réalisée par des spécialistes mondiaux de la grippe et les mutations qu'ils ont identifiées vont permettre d'améliorer nos moyens d'alerte face au virus H5N1 en nous montrant quelles sont les mutations que nous devons particulièrement surveiller», se réjouit Vincent Enouf, directeur adjoint du centre national de référence de la grippe à l'Institut Pasteur à Paris.

Depuis le pic de l'épidémie de grippe aviaire H5N1 qui avait tant fait couler d'encre en 2006, le virus est toujours dans la nature, contaminant des populations de volatiles en Asie (Indonésie principalement) et en Afrique (Égypte). Le virus ne se transmet actuellement que d'oiseau à oiseau mais continue de faire une trentaine de victimes humaines par an, principalement des personnes travaillant dans des élevages de volailles et directement exposées à de très fortes charges virales.

«Depuis l'apparition du virus en 2005, il y avait un vrai débat sur la capacité du H5N1 de s'adapter à l'homme, commente Bruno Lina. Certains affirmaient que cela n'arriveraient jamais, d'autres disaient que ça allait arriver très vite. On sait désormais que cela peut se produire, mais cela ne sera pas demain.» Les chercheurs estiment dans Science que le risque est «potentiellement sérieux».

Les travaux de Ron Fouchier, chercheur du centre médical Erasmus à Rotterdam (Pays Bas), comme ceux de l'équipe de Yoshihiro Kawaoka publiés dans Nature en mars dernier, montrent que les virus qui infectent les furets ont cinq mutations différentes par rapport à la majorité des H5N1 qui existent dans la nature. Or une analyse statistique publiée récemment dans Science montre que certains H5N1 ont déjà deux des mutations nécessaires, et il est tout à fait possible qu'ils développent les trois changements supplémentaires pour provoquer une épidémie humaine de grande ampleur.

Une des grandes inquiétudes liées au H5N1 vient du fait que son taux de mortalité est extrêmement élevé, tuant près de 60 % des malades infectés, alors que pour la grippe A (H1N1) de 2009 qui avait provoqué la mort de 18.000 personnes dans le monde, le taux de mortalité n'était que de 0,04 %.

Le Figaro

Premier essai de thérapie génique pour le déficit en décarboxylase des acides aminés aromatiques
Mercredi, 27/06/2012 - 01:40

La décarboxylase des acides aminés aromatiques (AADC), responsable de la décarboxylation de la L-Dopa et du 5-hydroxytryptophane, est essentielle à la synthèse de la dopamine et de la sérotonine. Un déficit génétique en cette enzyme se traduit par de graves retards de développement, une hypotonie, des difficultés à se déplacer, une athétose, des crises oculogyres ainsi qu’un certain nombre d’autres symptômes. Cette déficience est une maladie métabolique pédiatrique rare, dont la prévalence serait cependant sous-estimée, et la plupart des enfants touchés meurent très jeunes. Plusieurs mutations pathogènes ont été identifiées, dont l’une en augmentation dans la population Taïwanaise, où l’on observe une prévalence accrue de la maladie.

Vingt enfants taïwanais (16 contrôles et 4 traités) chez qui des mutations du gène AADC ont été identifiées et présentant les symptômes typique d’une carence en AADC sont recrutés pour le premier essai clinique de phase 1 de thérapie génique de cette pathologie. Trois filles et un garçon (4 à 6 ans) font l’objet d’un transfert du gène AADC en utilisant une approche stéréotaxique pour une injection dans le putamen, région principale de l’activité AADC cérébrale d’une part, et d’appartenance à la boucle motrice cortico-striatale d’autre part. Le vecteur est de type AAV (adeno-associated virus) ; deux essais de phase 1 dans la maladie de Parkinson ont déjà montré l’innocuité d’une telle injection et sa bonne tolérance chez l’adulte.

Après avoir reçu le gène correcteur, les enfants gagnent du poids progressivement et présentent une amélioration graduelle de leurs scores moteurs (échelles de Peabody et AIMS [Alberta infant motor scale] du développement moteur, ainsi que CDIIT [Comprehensive developmental inventory for infants and todlers] pour la cognition et le développement moteur). Seize mois plus tard, un patient a été en mesure de se lever et les trois autres étaient capables de s'asseoir sans aide. Les autres améliorations incluent une diminution des crises oculogyres, et une normalisation de l’hyperthermie. Les effets secondaires observés sont des dyskinésies et des épisodes d’apnées, les deux transitoires.

Au niveau biochimique, la correction apportée par ce transfert de gène n’est que partielle, les concentrations en L-Dopa et 3-0-methyldopa restant élevées. Il existe vraisemblablement une plasticité neuronale centrale chez ces enfants permettant, même après 5 ou 6 ans d’âge, un certain développement moteur après correction du déficit génétique. Des études ultérieures devront définir la relation entre dose de vecteur et effets cliniques, et déterminer la dose optimale ainsi que la nécessité éventuelle de transfecter d’autres zones cérébrales.

Au final ce premier essai de thérapie génique chez l’homme suggère la possibilité d’améliorer les symptômes de la déficience en AADC par la délivrance du gène thérapeutique à l’aide d’un vecteur AAV en ciblant des zones localisées du cerveau, et cette approche pourrait également être utile dans d’autres pathologies caractérisées par un déficit crucial d’une enzyme cérébrale.

JIM

Le premier "bébé médicament" a guéri sa grande sœur
Mercredi, 27/06/2012 - 01:10

Si ce n'était pas de la science, ce serait un miracle. Le premier "bébé médicament" français a guéri sa grande soeur, rapporte Le Parisien, samedi 23 juin. Grâce aux cellules souches prélevées sur le cordon ombilical de son petit frère Umut-Talha (notre espoir, en turc) né en janvier 2011, Asya, 5 ans est remise de la bêta-thalassémie, une maladie génétique du sang.

Avant cette réussite, la famille d'Asya avait fait appel à une banque publique de sang de cordon, mais aucun donneur n'était compatible, selon Le Parisien. Le dernier recours était la conception d'un "bébé médicament", conçu par fécondation in vitro dans le but de soigner un membre de sa famille, une méthode autorisée depuis 2006 en France.

Grâce à la technique du diagnostic préimplantatoire (DPI), utilisée par l'équipe du professeur René Frydman, pionnier de la fécondation in vitro, les médecins ont ainsi pu sélectionner et implanter dans l'utérus de la mère deux embryons qui ne portaient pas la bêta-thalassémie, dont souffrent les deux aînés de la famille, Asya et Mehmet. Un seul a vu le jour pour permettre aux médecins de prélever des cellules souches sur le cordon ombilical et sauver Asya. Les parents espèrent désormais pouvoir offrir le même traitement à leur fils Mehmet, 7 ans.

FranceTVinfo

Une découverte majeure pour la lutte contre les infections à streptocoques
Mardi, 26/06/2012 - 01:30

Le streptocoque du groupe B ou Streptococcus agalactie, est responsable d’infections de la glande mammaire chez les bovins (mammites), et peut également provoquer des maladies graves chez l’homme (pneumonies, méningites, septicémies…) notamment chez les nouveau-nés. Des chercheurs de l’Inra et de l’Institut Pasteur viennent de démontrer le rôle majeur d’une molécule présente à la surface de la bactérie, et appelée antigène B. Leurs travaux établissent son implication dans le contrôle de la croissance bactérienne, ouvrant ainsi des perspectives dans la lutte contre ces infections. Les résultats ont été publiés dans PLoS Pathogens le 14 juin 2012.

  • La découverte de la fonction de l’antigène B, indispensable au développement normal de la bactérie

En 1934, la bactériologiste américaine Rebecca Lancefield met au point une technique immunologique d’identification des streptocoques, fondée sur la présence dans la paroi bactérienne d’un sucre complexe ou polysaccharide. Chez Streptococcus agalactiae, ce polysaccharide appelé antigène B, n’avait pas de fonction biologique connue.

Les chercheurs de l’Inra de Jouy-en-Josas et de l’Institut Pasteur viennent de démontrer le rôle biologique majeur de cette molécule exposée à la surface bactérienne. Identifiée depuis près de 80 ans, elle est utilisée universellement dans les tests d'identification en bactériologie clinique.

La paroi est un compartiment essentiel de la cellule bactérienne où se déroulent des réactions qui contrôlent la croissance et la division cellulaire, cibles de nombreux antibiotiques. Ces phénomènes d’une grande complexité font intervenir de multiples acteurs moléculaires, dont la localisation et l’activité doivent être coordonnées. Les chercheurs ont montré que l’antigène B est indispensable au bon déroulement du programme de croissance, de division et de morphogénèse de la cellule bactérienne.

Des polysaccharides de surface similaires à l’antigène B sont présents à la surface de nombreux streptocoques responsable d’infections variées chez l’homme et les animaux. Leur synthèse représente donc une cible potentielle pour le développement de nouvelles molécules anti-infectieuses.

INRA

Cancer : le rôle protecteur de la vitamine D se confirme
Lundi, 25/06/2012 - 01:40

Plusieurs études épidémiologiques établissent un lien entre la carence en vitamine D et l'incidence du cancer. Le métabolite actif de la vitamine D, la 1,25-dihydroxyvitamine D3[1,25(OH)2D 3], a en effet une action anticancéreuse puissante, tant in vitro que sur les modèles animaux in vivo. En influant sur la transcription des gènes impliqués dans l'une des nombreuses cascades de transduction des signaux déréglées dans les cellules cancéreuses, la 1,25(OH)2D3 freine le processus carcinogène. Selon le type de cancer, d'autres cascades de signaux sont déréglées et les effets de la 1,25(OH)2D3 sont donc différents. Outre la réduction de la croissance cellulaire et l'induction de l'apoptose, la 1,25(OH)2D3 réprime également l'angiogenèse et les métastases. La modulation du statut inflammatoire contribue aussi au fonctionnement antitumoral. La principale source de vitamine D (cholécalciférol) est sa production dans la peau, où le 7-déhydrocholestérol est transformé en vitamine D, liposoluble, sous l'influence des UV-B. Cette vitamine essentielle se retrouve également dans nos aliments tels que le poisson gras, l'huile de foie de morue et les produits laitiers enrichis.

La vitamine D est transportée dans le sang par sa protéine de liaison et est activée par deux étapes d'hydroxylation successives. Ainsi, la 25-hydroxyvitamine D3 [25(OH)D3] est d'abord produite dans le foie par les enzymes cytochromes P450, puis la 1,25-dihydroxyvitamine D3 [1,25(OH)2D3] est fabriquée dans les reins par l'enzyme 1-alpha-hydroxylase (CYP27B1).

La 1,25(OH)2D3 est la forme la plus active biologiquement de la vitamine D et se lie au récepteur de la vitamine D (RVD) avec la plus haute affinité. Les valeurs plasmatiques de 25(OH)D3 sont utilisées comme «gold standard» pour déterminer le statut de vitamine D puisque celle-ci a une demi-vie relativement longue, de 2 à 3 semaines. En revanche, la 1,25(OH)2D3 a une demi-vie courte, car l'étape de 1-alpha-hydroxylation est strictementcontrôlée par l'hormone parathyroïdienne (HPT), le calcium, le facteur de croissance fibroblastique (FCF) 23 et la 1,25(OH)2D3 elle-même (feedback négatif), de sorte que les taux de 1,25(OH)2D3 ne constituent pas une bonne indication du statut de la vitamine D. Les personnes dont les concentrations sériques sont inférieures à 10ng/ml (25nmol/l) sont déficientes en vitamine D et souffrent d'ostéomalacie et de rachitisme, caractérisés par une faiblesse musculaire et des anomalies osseuses.

Récemment, l'Institute of Medicine (IOM, novembre 2010), une association sans but lucratif américaine, a formulé de nouvelles recommandations concernant les apports journaliers nécessaires afin de prévenir les maladies osseuses. La dose recommandée pour toutes les personnes de 1 à 70 ans, y compris pour les femmes enceintes et allaitantes, est de 600 unités internationales (UI)/jour. Au-delà de 70 ans, l'IOM recommande une dose journalière de 800UI. De plus, l'IOM considère qu'une valeur sérique de 25(OH) D3 de 20ng/ml (50nmol/l) suffit à une bonne santé osseuse. Cette recommandation assez conservatrice a été très critiquée dans le monde scientifique, car bon nombre de chercheurs cliniques fixent un seuil de valeur sérique suffisante plus élevé (> 30ng/ml) et considèrent les valeurs de 20 à 30ng/ml (soit entre 50 et 75nmol/l) comme insuffisantes. En cas de concentrations sériques, 30ng/ml, des modifications s'opèrent au niveau de l'expression de l'HPT et, si cette situation persiste, elle risque de provoquer une perte osseuse et des
fractures. A l'heure actuelle, l'Autorité européenne de la Sécurité alimentaire (EFSA) établit de nouvelles directives concernant l'absorption de tous les micronutriments.

De nombreuses études réalisées dans le monde entier ont permis de mesurer les valeurs sériques individuelles de 25(OH) D3. Ces recherches ont révélé qu'un grand nombre de personnes souffrent d'une carence en vitamine D, quel que soit le pays ou le continent. En outre, diverses études épidémiologiques ont observé que des valeurs faibles de 25(OH)D3 son associées à un risque accru de cancer colorectal. Des études semblables sur le cancer du sein et les taux de 25(OH) D3 ont rapporté des résultats ambigus.

Une méta-analyse récente sur la 25(OH)D3 et le risque de cancer du sein confirme une corrélation inverse dans une étude cas-témoins qui consistait à relever les taux de 25(OH)D3 juste après le diagnostic du cancer du sein. En revanche, ce rapport négatif entre la 25(OH)D3 et le cancer du sein n'avait pas été confirmé dans des études prospectives au cours desquelles les taux de 25(OH)D3 avaient été mesurés plusieurs années avant le diagnostic. Une autre méta-analyse montre une légère baisse du risque de cancer du sein en cas d'administration préventive de vitamine D. Les faibles valeurs sériques de 25(OH)D3, déterminées au moment du diagnostic, ont aussi été associées à des taux de récidive de la maladie et de mortalité plus élevés pour plusieurs cancers tels que le cancer du sein, le cancer colorectal, le carcinome pulmonaire à petites cellules, le mélanome et le lymphome non hodgkinien.

Ces études confirment donc que la 1,25(OH)2D3 est une hormone qui régule le métabolisme calcique et osseux, mais elle dispose également de puissantes propriétés anticancéreuses et anti-inflammatoires qui lui permettent d'interférer de diverses manières dans la carcinogenèse.

JIM

Les bases neurobiologiques de l’anxiété
Dimanche, 24/06/2012 - 01:40

Une journée scientifique intitulée "Neurobiological basis of Anxiety disorders" a réuni lundi 18 juin à Paris les scientifiques des 6 organismes partenaires de DEVANX, projet européen coordonné par l’Inserm, démarré en 2008. L’occasion de faire un point sur l’état des connaissances acquises sur les bases neurobiologiques de l’anxiété.

La connaissance des circuits cérébraux et les molécules-clés impliqués dans les manifestations de l’anxiété a fait de grand progrès depuis quelques années. L’utilisation de modèles animaux a beaucoup contribué à cette compréhension. Chez la souris, il est ainsi possible d’observer les changements comportementaux qui interviennent dans les situations de conflit émotionnel, par exemple comment l’animal va choisir entre l’exploration d’un espace neuf (curiosité) et le repli sur soi (peur). L’étude de l’animal dans une situation de peur apprise a aussi été bien décrite : comment l’animal va apprendre à associer un environnement neutre avec un danger potentiel.

La sérotonine et le GABA sont les 2 principales molécules "messagères" entre les neurones ("neurotransmetteurs") qui sont impliquées dans les états anxieux. Ce sont de fait les cibles communes des médicaments « anxiolytiques ».

Mais le rôle exact de ces molécules, leurs interactions avec l’environnement sont encore à préciser. L’apport de la génétique et les nouvelles données concernant la plasticité du cerveau doivent s’intégrer à la compréhension chaque jour plus fine des mécanismes en jeu. Patricia Gaspar et Laurence Lanfumey, directrices de recherche Inserm - coordinatrices du projet DEVANX - et leurs collègues, ont cherché à aborder l’étude des bases neurobiologique de l’anxiété sous divers angles.

  • Les aspects pharmacologiques

Les récepteurs GABAb, présents sur les neurones, sont des cibles de nouvelles molécules dont le mode d’action est complètement différent des anxiolytiques classiques (benzodiazépines) qui, quant à eux, agissent sur les récepteurs GABAa. La connaissance de la structure et de la fonction des récepteurs GABAb, ainsi que leurs interactions avec le système sérotoninergique permet de proposer des nouvelles cibles thérapeutiques.

  • Le rôle de la sérotonine

Chez les personnes souffrant de dépression, d’attaques de panique, d’anxiété, ou de phobies, un traitement permettant d’augmenter le niveau de sérotonine réduit ces pathologies. Cependant, peu de données étaient disponibles sur la cause initiale de ce manque de sérotonine, déclencheur de ces troubles. C’est pourquoi différents modèles animaux sont nécessaires aux chercheurs pour découvrir et analyser les différentes situations d’un cerveau "pauvre" en sérotonine.

La sérotonine est impliquée dans de nombreux rôles physiologiques : rythmes veille-sommeil, impulsivité, appétit, douleur, comportement sexuel, et anxiété. Son action est médiée par près d’une quinzaine de sous-types de récepteurs différents.Le système sérotoninergique est en fait multiple : il est présent dans le système nerveux central (dans les noyaux du raphé dans le cerveau) et périphérique (dans les cellules entérochromaffines du tube digestif). La "spécialisation" de neurones en "neurones à sérotonine" est contrôlée par différents facteurs moléculaires, selon leur localisation, et ne se fait pas aux mêmes moments du développement.

  • Les autres circuits en jeu : circuits de la peur

Les connexions avec des travaux sur la peur et les derniers enseignements d’un point de vue neurocomportemental permettent de croiser les approches.

Il apparaît de plus en plus que ce sont des circuits neuronaux normaux de réaction à l’environnement qui sont détournés ou amplifiés de manière pathologique dans l’anxiété. Dès lors, il est très important de comprendre et d’analyser le fonctionnement de ces circuits chez les animaux "en situation". A terme, l’objectif consiste à trouver les moyens de "déconditionner" certains circuits cérébraux anormalement ou excessivement activés.

La recherche dans le domaine de l’anxiété, comme dans de nombreux domaines des Neurosciences, met à profit des approches intégrées, qui nécessitent des expertises multiples. Les études moléculaires doivent à présent impérativement s’intégrer dans le contexte de l’animal entier qui exprime des comportements les plus proches possibles de situations physiologiques, tout en étant rigoureusement contrôlées sur le plan expérimental. Les outils génétiques donnent une puissance inégalée pour rechercher la fonction d’une molécule déterminée ou d’un assemblage moléculaire dans un circuit donné et dans une fenêtre temporelle précise. Ce type d’approche est appelé à se développer dans les années à venir avec des outils qui permettront d’activer ou de rendre silencieux certains circuits neuronaux sélectionnés.

La résolution, pas à pas, de ces processus élémentaires imbriqués, devrait permettre d‘expliquer les mécanismes sous-tendant l’anxiété pathologique.

Inserm

La cocaïne provoque le veillissement accéléré du cerveau
Dimanche, 24/06/2012 - 01:30

Les consommateurs chroniques de cocaïne perdent deux fois plus rapidement leurs cellules nerveuses au cours du vieillissement que les personnes non exposées à cette drogue, révèle une étude publiée dans la revue Molecular Psychiatry. «Nous avons une nouvelle preuve physiologique que la cocaïne peut induire une véritable maladie du cerveau», commente Laurent Karila, psychiatre responsable du Centre d'enseignement et de recherche du traitement des addictions (Certa) du CHU Paul-Brousse à Villejuif (Val-de-Marne).

Pour obtenir ce résultat, les chercheurs de l'université de Cambridge (Royaume-Uni) ont mesuré par imagerie cérébrale la quantité de cellules nerveuses présentes dans le cerveau chez de 120 personnes, dont 60 cocaïnomanes âgés de 18 à 50 ans et dépendants depuis plusieurs années. «Le lien entre la durée de la consommation de cocaïne et le déclin de la matière grise était déjà connu», précise Karen Erschen qui a dirigé ce travail.

Les régions préfrontales et temporales du cerveau apparaissent particulièrement touchées, or elles sont importantes pour la mémoire, l'attention et la prise de décision, des fonctions justement très perturbées chez les consommateurs réguliers de cocaïne. L'origine de ce nouvel effet délétère de la drogue n'est pas encore connue, mais pourrait découler, selon Karen Erschen, d'une augmentation du stress oxydant au niveau des cellules nerveuses qui a déjà été observé chez l'animal. Cette toxicité vient s'ajouter aux nombreuses complications, notamment cardio-vasculaires, pulmonaires et psychiatriques, liées à la consommation de cocaïne. Celle-ci, en induisant une décharge massive de dopamine, de noradrénaline et de sérotonine dans le système nerveux, provoque euphorie et sentiment de puissance mais aussi de l'hypertension, une vasoconstriction de tous les vaisseaux qui bloque l'oxygénation des tissus et des douleurs thoraciques, pour ne citer que les symptômes les plus courants.

Aux États-Unis, la cocaïne est ainsi devenue la première cause de fréquentation des services des urgences parmi tous les produits illicites, devançant même l'alcool car elle multiplie par plus de 20 les risques d'accident cardio-vasculaire et par 14 ceux d'attaque cérébrale. «En France, nous avons une propagation très inquiétante de la consommation de cocaïne dans tous les milieux et à tous les âges, s'alarme Laurent Karila. En 2011, 3 % des jeunes de 17 ans avaient déjà expérimenté cette drogue.» Tous les consommateurs réguliers de cocaïne ne deviennent cependant pas dépendants, la proportion étant de 5 % lors de la première année d'usage et de 20 % sur le long terme selon le spécialiste.

Une susceptibilité génétique est aussi en cause, comme l'ont montré Karen Erschen et son équipe dans une étude publiée récemment dans Science. Les chercheurs ont en effet retrouvé des anomalies du cerveau spécifiques de la dépendance à la cocaïne chez les frères et sœurs de cocaïnomanes chroniques. Elles se traduisent notamment par une plus grande impulsivité mesurée chez ces personnes comparé à la population générale. De quoi envisager des mesures de prévention chez les personnes détectées comme à risque de dépendance aux drogues. Lors de l'apparition des premiers troubles cognitifs, l'abstinence et des exercices mentaux peuvent permettre de récupérer une grande partie de ses facultés psychologiques. La difficulté sera pour le toxicomane de changer de vie alors que la cocaïne affaiblit précisément ses capacités d'autocontrôle et de prise de décision.

Le Figaro

Le travail de nuit, facteur de risque du cancer du sein
Dimanche, 24/06/2012 - 01:10

Publiée dans l'International Journal of Cancer, l’étude sur les facteurs de risque du cancer du sein menée par les chercheurs de l’Inserm pourrait bien entraîner à terme un changement des comportements, notamment en matière d’organisation du travail. En effet, les femmes travaillant de nuit auraient un risque accru de développer une tumeur des glandes mammaires, de l’ordre de 30 %. Ce n’est pas la première fois que des chercheurs démontrent l'impact négatif du travail de nuit sur notre santé. En cause, la modification du rythme circadien qui régule l’alternance veille-sommeil nécessaire à notre équilibre biologique. D’après certains scientifiques, le dérèglement de ce dernier entraînerait une perturbation du cycle hormonal. D'ailleurs, en 2010, le Centre international de recherche sur le cancer (IARC/CIRC) de l’Organisation mondiale de la santé (OMS) basé à Lyon, avait classé le travail de nuit comment étant « probablement cancérogène » en raison de son impact sur le rythme circadien.

Pascal Guénel et ses collègues du Centre de recherche en épidémiologie et santé des populations, de l’Institut national de la santé et de la recherche médicale (Inserm), ont mené entre 2005 et 2008 une étude baptisée Cécile sur les facteurs environnementaux, professionnels et génétiques qui pourraient entraîner, à terme, le développement d’un cancer du sein. Pour cela, ils ont suivi 1 250 femmes ayant développé ce type de tumeur, et 1 350 qui en étaient exemptes.

En comparant les parcours professionnels des différentes participantes, les chercheurs ont constaté une augmentation d'environ 30 % du risque de développer un cancer du sein chez les femmes ayant, au cours de leur vie, travaillé de nuit, par rapport à celles ayant toujours eu une activité professionnelle diurne. Le risque est d’autant plus accru lorsque le travail de nuit s'effectue avant la première grossesse (50 %), ou dure plus de 4 années consécutives.

Ces résultats confirment des travaux antérieurs qui avaient montré une augmentation inquiétante des cancers du sein chez les infirmières travaillant de nuit. Les chercheurs espèrent que leurs travaux permettront une réflexion sur le travail nocturne et sur une modification à venir des comportements...

Information Hospitalière

Cancer : le traitement du futur utilisera le tir groupé !
Dimanche, 24/06/2012 - 01:00

Toujours à la recherche de médicaments plus efficaces mais moins toxiques contre le cancer, les chercheurs, ici de l'Université de Californie San Francisco (UCSF) et du Mont Sinaï (New York), travaillent sur une nouvelle approche multi-cibles, appelée polypharmacologie, une sorte de tir groupé ciblé sur plusieurs molécules spéciales qui, globalement, vont réussir à perturber l'ensemble du processus de la maladie. Ce travail soutenu par l'American Cancer Society, la Fondation Waxman, et les National Institutes of Health, publié dans l’édition du 7 juin de la revue Nature, ouvre la perspective de traitements plus efficaces et moins toxiques.

Cette nouvelle approche de conception de médicaments, mise au point par un groupe de chercheurs américains, consiste à chercher des balles intelligentes (magic bullets) ou produits chimiques qui attaquent chacun spécifiquement un gène ou une protéine impliquée dans une étape particulière du processus de la maladie. Il s’agit donc pour ces scientifiques de passer au crible les substances chimiques déjà disponibles pour identifier ces quelques molécules qui vont agir de concert sur le processus de la maladie.

Une arme, un coup, plusieurs cibles : «Nous avons toujours été à la recherche de telles molécules intelligentes», explique le Professeur Kevan Shokat, chercheur au Howard Hughes Medical Institute et président du Département de pharmacologie cellulaire et moléculaire de l'UCSF. «Il s'agit d'un fusil qui vise non pas une cible, mais un ensemble d'objectifs. Cela multiplie les chances d'arrêter le cancer sans provoquer « trop » d'effets secondaires ».

De cette approche, ont déjà été issus 2 candidats médicaments, appelés AD80 et AD81 qui se sont avérés –sur les mouches à fruits- plus efficaces et moins toxiques que le vandetanib, un médicament approuvé par la US Food & Drug Administration l’année dernière pour le traitement d'un certain type de cancer de la thyroïde.

Surmonter le problème des effets secondaires : Dans toute maladie, il y a de nombreuses interactions moléculaires et de multiples autres processus dans des tissus spécifiques, et aujourd’hui, la plupart des médicaments sont des produits chimiques qui interfèrent avec les protéines et les gènes directement impliqués dans ces processus. Plus le médicament perturbe les éléments clés du processus de la maladie, plus il est efficace.

De plus, la toxicité du médicament est liée à la façon dont il perturbe également d'autres parties du système de l'organisme. Alors que l'index thérapeutique (le ratio de la dose efficace à la dose toxique) d’un grand nombre de médicaments, en général, considérés comme les plus sûrs sur le marché, est supérieur à 20 ou plus –ce qui signifie qu’il faudrait prendre 20 fois la dose prescrite pour risquer les effets secondaires graves-, cet indice peut avoisiner « 1 » quand il s’agit d’anticancéreux… Souffrir des effets secondaires des médicaments contre le cancer est une réalité pour de très nombreux patients, réduire cette toxicité est donc un des grands objectifs des chercheurs et des laboratoires pharmaceutiques.

Cette nouvelle approche pourrait fortement y contribuer. Sur les mouches des fruits, les chercheurs ont trouvé une technique de sélection des composés pour identifier celui qui va perturber au mieux tout un réseau de gènes. Et plutôt que de retenir une molécule qui va inhiber une cible, ils recherchent celle qui va inhiber tout un ensemble de protéines.

Santé Log

Nature

Cancer : une nouvelle immunothérapie efficace pour 1 patient sur 4
Vendredi, 22/06/2012 - 06:20

Une collaboration internationale de chercheurs de tout premier plan, constate qu’un patient sur 4 lourdement prétraités pour plusieurs types de cancers, répond de manière significative et durable au traitement par BMS-936558, un anticorps qui bloque spécifiquement PD-1 (pour programmed cell death 1), un récepteur clé capable de bloquer la réponse immunitaire. Les conclusions de cet essai, cofinancé par le laboratoire Bristol-Myers Squibb, viennent d’être publiées dans le New England Journal of Medicine.

L’essai clinique, conçu pour évaluer l'efficacité anti-tumorale et la sécurité du traitement, a été mené auprès de 296 patients atteints de cancer du poumon non à petites cellules, de mélanome ou de cancer du rein, entre autres. Le Professeur J. Scott Antonia, président du Programme d'oncologie thoracique et co-président du Programme d'immunologie au Moffitt Cancer Center, explique que les tumeurs peuvent développer des mécanismes de résistance multiples pour échapper à la réponse du système immunitaire. Les tumeurs peuvent résister en exploitant une variété de voies biochimiques qui mènent à des points de contrôle auxquels les réponses immunitaires qui pourraient aider à détruire les cellules tumorales sont bloquées. PD-1 est l’un de ces « check point ».

Inhiber ces check points : Des approches immunothérapeutiques pour traiter le cancer sont en cours, et en particulier sur des inhibiteurs de ces check point. Il s’agit donc de trouver des biomarqueurs de ces mécanismes de blocage, afin d’identifier les patients dont les tumeurs résistent par ces mécanismes au traitement. Un exemple de traitement de ce type, donné par les auteurs est l'ipilimumab, un inhibiteur d’un point de contrôle d’une voie immunitaire, efficace pour de nombreux patients atteints de mélanome avancé.

36 % des patients répondent au traitement : Les participants ont reçu un traitement par anticorps anti-PD-1 à une dose de 0,1 à 10,0 mg par kg de poids corporel toutes les 2 semaines. La réponse a été évaluée après chaque cycle de traitement de 8 semaines. Les patients ont reçu jusqu'à 12 cycles jusqu'à progression de la maladie ou réponse complète. Les résultats suggèrent que les tumeurs exprimant un ligand PD-L1 seraient candidates au traitement par anticorps anti-PD1 ou BMS-936558. En effet, pour les patients atteints de ce type de tumeurs, la réponse au traitement atteint 36 %. Le taux de réponse cumulé (toutes doses) atteint ainsi 18 % chez les patients atteints d'un cancer du poumon non à petites cellules, 28 % chez les patients atteints de mélanome et 27 % chez les patients atteints de cancer du rein. De plus, l'anticorps anti-PD-1 s’avère sûr, efficace et la réponse au traitement est durable (60 % des réponses à plus d’1 an).

Santé Log

Une découverte sur une protéine responsable de la protection des neurones
Vendredi, 22/06/2012 - 05:00

Des neuroscientifiques du Royaume-Uni ont fait une nouvelle découverte extraordinaire qui pourrait mener à de nouveaux traitements contre les attaques et l'épilepsie. Leur découverte implique une protéine importante qui régule le transfert d'informations entre les neurones et le cerveau. Une fois activée, elle pourrait protéger les neurones de toute lésion en cas d'insuffisance cardiaque ou de crise épileptique. L'étude a été financée en partie par une subvention du Conseil européen de la recherche (CER) au titre du septième programme-cadre (7e PC), et a été publiée dans les revues Nature Neuroscience et PNAS.

Les protéines, appelées SUMO, sont responsables du contrôle des processus chimiques visant à inhiber ou activer les mécanismes de protection des neurones dans le cerveau. Les protéines SUMO font partie d'une famille de petites protéines chimiquement attachées et détachées d'autres protéines dans les cellules pour modifier leur fonction. Elles produisent d'infimes réactions au niveau des taux de l'activité cérébrale. Ainsi, les informations transmises par les récepteurs de kainate sont régulées. Ces récepteurs gèrent toutes les communications entre neurones, et leur activation entraîne les crises épileptiques et l'apoptose des neurones.

La fonction des protéines est contrôlée en altérant leur structure par le biais de processus indépendants ou interreliés, dont la phosphorylation, l'ubiquitination et la sumoylation. L'équipe a découvert qu'il existe un équilibre fragile entre la phosphorylation et la sumoylation, et que cette dernière dépend des taux de l'activité cérébrale. «La sumoylation réduit la fonction du récepteur de kainate lorsque l'organisme risque des dégâts, au cours d'une attaque ou d'une crise épileptique, par exemple, et protège ainsi les neurones.»

Les deux responsables de l'équipe de recherche étaient le professeur Jeremy Henley et le Docteur Jack Mellor de la faculté de médecine de l'université de Bristol, au Royaume-Uni. Le Docteur Mellor, professeur de la faculté de physiologie et de pharmacologie, commente : «Les récepteurs de kainate sont de mystérieuses mais importantes protéines impliquées dans de nombreuses maladies, dont l'épilepsie. Mais nous ignorons encore la raison de leur importance. Nous savons également que les protéines SUMO sont importantes à la neuroprotection. Ces résultats dévoilent un rapport entre les récepteurs de kainate et les protéines SUMO qui nous permet de mieux comprendre les processus qu'utilisent les neurones pour se protéger de toute activité anormale et excessive.»

Les chercheurs ont démontré que la phosphorylation des récepteurs de kainate encourage leur activité. Pourtant la phosphorylation facilite également la sumoylation des récepteurs de kainate qui réduisent leur activité. Ainsi, il existe une interaction réciproque dynamique et fragile entre la phosphorylation et la sumoylation qui régule la fonction des récepteurs de kainate.

Comme le souligne le professeur Henley : «Ces travaux sont importants car ils offrent une nouvelle perspective et une meilleure compréhension de la régulation du flux d'informations entre les neurones. L'équipe a compris que l'augmentation de protéines SUMO attachées à des récepteurs de kainate, qui entraîne une réduction de communication entre eux, pourrait constituer une voie de traitement contre l'épilepsie en vue d'empêcher la surexcitation des neurones.»

Cordis

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Services à la personne : quelles perspectives pour les créateurs ?
Mercredi, 27/06/2012 - 01:00

Aide à domicile, soutien scolaire, dépannage informatique : des secteurs qui attirent nombre de créateurs. Avec parfois des déconvenues sur un marché longtemps vu comme un eldorado. Le point sur le secteur et ses perspectives, à l’heure où sa fiscalité semble menacée.

Eldorado pour des milliers de créateurs, le secteur des services à la personne semblait réunir les conditions idéales pour se mettre à son compte : des barrières à l’entrée et des coûts peu élevés, un engouement des ménages et des aides fiscales non négligeables. Pourtant, les déconvenues ont aussi été au rendez-vous pour certains : créer dans une zone déjà bien pourvue en services ou en zone rurale ne fournissant pas une zone de chalandise suffisante pour en vivre, des problèmes de recrutement, la crise ralentissant la demande des ménages… Bref, des facteurs multiples ont contribués à rendre la vie difficile à certains entrepreneurs, comme le soulignait Elizabeth Vinay, de l’Agence pour la Création d’Entreprise (APCE) dans une interview. Pour y voir plus clair sur la situation, une étude réalisée par le cabinet Marsh et McLennan Companies, pour le compte de la Fédération des entreprises de services à la personne (FESP), dresse un bilan précis du secteur.

Premier enseignement : avec une forte croissance de 6 % en moyenne par an depuis 2005, les services à la personne représentent 1,1 du PIB national, soit 17,3 milliards d’euros, et 6 % de l’emploi en France. Côté demande, plus de 3,6 millions de ménages français ont recours chaque année aux services à la personne. Un secteur vaste, regroupant plus de 21 métiers mais dont certains captent l’essentiel de la demande : garde d’enfant, soutien scolaire, entretien de la maison ou encore assistance aux personnes âgées. Les entreprises du secteur emploient plus de 1,7 million de personnes. L’étude révèle pourtant que derrière ce tableau positif se cache une face plus sombre : le travail non-déclaré, « au noir ». En effet, « à l’exclusion des métiers de la dépendance où les Français recourent rarement au travail non déclaré, celui-ci représente plus de 75 % de l’activité du secteur », constatent les auteurs de l’étude.

Au niveau comptable, l’étude apprend que les aides de l’Etat au secteur, depuis le début des années 2000, se sont élevées à 6,3 milliards d’euros. A l’autre bout de la chaîne, ce serait 4,8 milliards d’euros de cotisations sociales, auxquels s’ajoutent 70 millions d’euros de TVA et fiscalité directe qui seraient rentrés dans les caisses de l’Etat. Sans oublier 181 millions d’euros économisés sur le versement d’allocations chômage ou de RSA. Au total, le gain pour la collectivité nationale serait de 2,6 milliards d’euros par an, auxquels s’ajoute la création de 450 000 emplois en équivalent temps plein.

  • Trois pistes pour l’évolution du secteur

Evolution de la fiscalité, baisse des aides, concentration des acteurs : les services à la personne semblent être à l’aube d’évolutions qui pourraient modifier le secteur. L’étude a dessiné trois scénarios possibles : licenciements à court terme provoqués par une baisse des aides fiscales, essoufflement face à un statu quo ou enfin dynamisation dans le cadre d’une stabilisation du cadre fiscal et de l’élimination des distorsions existantes entre les acteurs.

Ces données arrivent dans un contexte plus que tendu. En effet, comme les Echos le révélaient le 20 juin, la Commission Européenne exige de la France qu'elle réduise le champ des secteurs bénéficiant de la TVA réduite (7 %) dans les services à la personne. Car si la législation européenne permet bien un taux réduit de TVA pour les services à la personne, ce taux réduit ne s’applique qu’aux « services de soins à domicile ». Seraient donc dans le collimateur les travaux de jardinage, cours à domicile (distincts du soutien scolaire), assistance informatique et Internet à domicile, services de maintenance, ainsi que « l'entretien et la vigilance temporaire de la résidence principale et secondaire ». Avec à la clé une TVA qui repasserait à 19,6 %. Une nouvelle qui s’ajoute à la volonté du gouvernement français de faire passer la réduction d'impôt pour les services à la personne de 50 % à 45 % et d'intégrer cet avantage dans le plafonnement global des niches fiscales à 10 000 euros.

Pour les créateurs tentés par l’aventure entrepreneuriale sur ce marché, beaucoup d’incertitudes donc. Reste que jamais un business model de création d’entreprise ne devrait voir sa viabilité reposer trop fortement sur des dispositifs fiscaux. Un conseil de bon sens !

Les Echos

Redécouverte du camp d’entraînement des troupes de Louis XIV dans la vallée de la Seine
Lundi, 25/06/2012 - 01:20

Une équipe d’archéologues de l’Inrap fouille, dans la plaine d’Achères (Yvelines), le fort Saint-Sébastien, camp d’entraînement des troupes de Louis XIV en vue de la prise de Maastricht. Ces fouilles prescrites par l’État (Drac Ile-de-France), et réalisées par l’Inrap pour le SIAAP (Syndicat Interdépartemental pour l’Assainissement de l’Agglomération Parisienne) sont un préalable à la modernisation des installations du syndicat. Les 28 hectares fouillés portent sur la totalité du front d’attaque sud du fort.

  • Louis XIV et le fort Saint-Sébastien, ou l’art de la guerre

Édifié en 1669, le fort Saint-Sébastien est un quadrilatère de 600 m sur 380 m. Il s’agit d’une fortification de terre, avec fossés, talus et palissades, permettant de simuler le siège et la prise de places fortes. Les impressionnants fossés du fort mesurent 7 m de large et 3 m de profondeur. Ils sont dotés de bastions d’angles et de redans flanquant les entrées. Le talus interne (escarpe) est revêtu d’une remarquable maçonnerie de briques d’argile crue. Ce mode de parement, présent sur toute la longueur de l’escarpe, est surtout destiné à absorber le choc des boulets de canon. Les zones d’exercice se caractérisent par de complexes réseaux de tranchées d’approche, technique d’attaque systématisée par Vauban, et utilisée à grande échelle lors du siège de Maastricht en 1673.

Le fort Saint-Sébastien constitue à ce jour une découverte inédite. Ce fort est en effet un exceptionnel témoin de la poliorcétique, l’art du siège, de la deuxième moitié du XVIIe siècle, un sujet qui n’avait encore jamais été appréhendé, en France, par l’archéologie. Cette période est aussi une époque importante dans l’histoire de l’art de la guerre. Elle marque une transition dans l’histoire militaire française avec les prémices d’une armée de métier où, pour la première fois, les soldats sont recrutés et non plus enrôlés, sont dotés d’uniformes, soldés et entraînés.

  • D’Achères… à la prise de Maastricht

Durant deux ans, le fort Saint-Sébastien accueille jusqu’à 30 000 soldats à la manœuvre. Les archéologues exhument les zones de campement et de cantonnement des troupes, matérialisées à l’intérieur du fort, par des alignements de bâtiments, celliers, puits et foyers. L’abondant mobilier contenu dans les structures (céramique, restes de faune, verre, dés à jouer, pipes en terre cuite…) révèle les modes de vie et d’alimentation des soldats et les types d’approvisionnement de l’armée royale.

Toutes ces découvertes témoignent de la vie quotidienne des soldats et de l’organisation sociale et spatiale d’une communauté militaire très hiérarchisée où cohabitent fantassins, gendarmes, cavaliers, mousquetaires…

Confrontées aux abondantes archives textuelles et iconographiques, les données archéologiques permettent déjà d’établir deux phases d’occupation, matérialisées par deux organisations spatiales différentes  et cela malgré la courte existence du fort. En août 1670, les troupes de Louis XIV, bien entraînées, lèvent le camp et partent en campagne. Le fort Saint-Sébastien est alors arasé, les terres remises en culture en 1671. Les soldats ayant séjourné à Achères sont ceux qui, au côté de Charles de Batz-Castelmore, comte d’Artagnan, combattent pendant la guerre de Hollande (1672-1678) et s’illustrent, en 1673, par la prise de Maastricht en un temps record alors qu’il faut ordinairement plusieurs mois pour une telle opération militaire.

Inrap

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un nouveau biplan supersonique pour remplacer le Concorde
Jeudi, 28/06/2012 - 01:20

Une équipe de chercheurs du MIT et de l’université de Stanford ont dessiné la maquette d’un avion supersonique biplan inspiré des travaux de Busemann dans les années 1950.

Depuis le retrait du Concorde en 2003 et du Tupolev Tu-144 dès 1978, les ingénieurs aéronautiques du monde entier planchent sur la nouvelle génération d’avions supersoniques.  Qiqi Wang et Rui Hu, du département aéronautique et astronautique du MIT, et leur collègue Antony Jameson, professeur d’ingénierie à l’Université de Stanford, semblent avoir trouvé la solution aux problèmes qui ont condamné le Concorde en son temps : un biplan.

Leur concept : deux ailes superposées, placées sous le fuselage, très fines, qui se rejoignent à leurs extrémités, formant un losange. Le biplan produirait beaucoup moins de résistance à l’air qu’un monoplan conventionnel à des vitesses supersoniques, et consommerait ainsi moins de carburant.

La prochaine étape ? Dessiner un modèle 3D pour prendre en compte tous les facteurs affectant un futur vol supersonique de leur nouveau joujou volant. Largement inspirés par l'ingénieur allemand Adolf Busemann, inventeur du biplan dans les années 1950, les chercheurs américains pourraient viser juste avec leur concept d’aile double.

La maquette du biplan du MIT pourrait être présentée au salon aéronautique de Farnborough, en Angleterre, cet été (9-15 juillet 2012). Un concurrent au projet d’avion supersonique d'Aerion SBJ, et Zehst, la fusée monoplan d’EADS présentée l’an dernier.

L'Usine Nouvelle

Le CNRS et le MIT créent leur première Unité mixte de recherche internationale
Vendredi, 22/06/2012 - 06:30

La première Unité mixte internationale (UMI) CNRS-MIT a été inaugurée le 15 juin 2012 par Alain Fuchs, président du CNRS, et Susan Hockfield, présidente du MIT. L'UMI « MSE » porte sur les matériaux multi-échelles pour l'énergie et l'environnement. Installée sur le campus MIT de Cambridge (USA), elle est composée de 4 à 5 chercheurs français et d'une dizaine de professeurs du MIT.

L'UMI « MSE » (Multi-Scale Materials Science for Energy and Environment) vise à poursuivre et pérenniser l'action du centre de recherche « Concrete Sustainability Hub » (CSHub@MIT) créé en octobre 2009 par Franz Josef Ulm (professeur au Département de génie civil et environnemental du MIT) et Roland Pellenq (directeur de recherche au CNRS, MIT Senior Research Scientist).

Comprenant une vingtaine de chercheurs, le CSHub@MIT est financé par l'industrie cimentière américaine et relie l'industrie et les institutions gouvernementales. Il étudie la possibilité de diminuer l'impact écologique du matériau cimentaire par une approche combinant simulation et expérimentations depuis l'échelle des atomes jusqu'au micromètre, et de la nanoseconde jusqu'à l'heure.

Dans la même veine, Franz Ulm et Roland Pellenq ont monté en 2011 le X-shale hub en partenariat avec l'industrie pétrolière (Shell et Schlumberger) sur la poromécanique des gaz de schiste. Le X-shale hub compte aujourd'hui une douzaine de chercheurs et propose le premier modèle multi-échelle de schiste méthanifère.

L'UMI CNRS-MIT se trouve au centre d'un dispositif stratégique portant à la fois sur la recherche et la formation en partenariat avec l'industrie.

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top