RTFlash

RTFLASH Recherche & Technologie
NUMERO 622
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Novembre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Journalistes au pays des robots
Un algorithme perce les secrets d'une société secrète allemande
OmniTouch transforme n'importe quelle surface en écran tactile
Le réseau social améliore le bon fonctionnement d'une ville
Un téléphone cellulaire pour compter les globules
Avenir
Un drone pour inspecter tout le viaduc de Millau
Matière
Feuille de route pour les biocarburants de deuxième génération
La Chine s'initie aux réacteurs nucléaires à haute température
Il devient possible de regarder des électrons dans les molécules
Un nouveau type de batterie lithium-ion sans cobalt
Le Havre parie sur l'auto-combustion des boues
Espace
(21) Lutetia, un résidu des planétésimaux du Système Solaire primitif
Terre
Le réchauffement climatique pourrait faire rétrécir les êtres vivants !
Vivant
Maladie de Huntington : Une nouvelle fonction pour la protéine huntingtine
Des bactéries marines dévorent l'hydrogène
Dépression : les liens entre environnement, psychologie et génétique se précisent
Le python birman, une piste précieuse pour lutter contre les maladies cardiaques ?
Le génome de la bactérie responsable de la peste noire a été déchiffré
Bientôt des prothèses avec la sensation du toucher ?
Quand des neurones se taisent pour améliorer nos performances …
La cataracte bientôt opérée au laser
L'ADN, une horloge mécanique pour l'embryon
La vitamine D, déterminant de la masse et de la force musculaire ?
Cancer : les espoirs de la médecine personnalisée
Une bactérie serait impliquée dans le cancer du côlon
Un microstimulateur contre certaines céphalées
L'alimentation peut modifier nos gènes
La longévité transmise aux descendants !
Le génome du plus gros virus connu est décodé
Épilepsie : les avancées de la chirurgie
Une étude scientifique démontre pour la première fois le lien entre pollution et athérosclérose
Recherche
Les entreprises européennes ont boosté leurs dépenses de R&D en 2010
Lyon, première ville de France à proposer Car2go, système d'auto-partage géolocalisé
Edito
Combien d’êtres humains pourront vivre ensemble sur la Terre ?



Selon les estimations des Nations Unies, la population mondiale atteint, cette semaine, les 7 milliards.

Il nous aura fallu des centaines de milliers d’années pour que la Terre accueille, vers 1800, son premier milliard d’habitants.

120 ans plus tard, vers 1920, le 2e milliard fut atteint.

40 ans plus tard, vers 1960, le 3e milliard fut franchi.

15 ans plus tard, vers 1974-1975, nous étions déjà 4 milliards.

Il n’a fallu que 13 ans de plus pour atteindre, en 1987, le 5e milliard.

Le sommet de l’accélération semble avoir été atteint 11 ans plus tard quand, en 1998, nous sommes arrivés à 6 milliards.

La courbe semble s’inverser puisqu’il aura fallu 13 ans, de 1998 à 2011, pour atteindre le 7e milliard.

Selon la Division de la Population des Nations Unies, ce ralentissement dans l’augmentation de la population de la Terre devrait se confirmer tout au long du XXIe siècle, puisqu’il faudrait 20 ans, pour chaque nouveau milliard, pour atteindre 9 milliards dans les années 2040 et même 40 ans pour atteindre le 10e milliard vers 2080.

Comme je l’ai déjà dit dans mon Edito du 7 octobre 2011, il y a suffisamment de terres cultivables sur notre planète pour nourrir 9 milliards d’êtres humains.

Ce n’est pas la quantité de la nourriture qui pose problème, mais bien sa répartition. En cette année 2011, alors que nous atteignons les 7 milliards, il y a encore 850 à 925 millions de personnes qui vivent en sous-alimentation chronique.

Cette répartition inégale de la nourriture repose sur une répartition injuste des richesses mondiales. Aujourd’hui, la moitié du Monde vit avec moins de 2 dollars par jour (36 % en Chine, 76 % en Inde).

Le caractère explosif de cette progression de la population mondiale repose sur le fait que ce sont les régions les plus pauvres qui voient leurs populations croître le plus rapidement.

Ainsi, selon les chiffres publiés par les Nations Unies, en 2022, l’Inde aura plus d’habitants que la Chine.

En 2040, l’Afrique subsaharienne aura plus d’habitants que l’Inde !

En 2100, il y aura 5 africains (subsahariens) pour 1 européen.

Si, potentiellement, il y aura assez de nourriture pour alimenter tout le monde, par contre, la capacité de notre Planète pour fournir à tous, l’eau douce, l’énergie naturelle, l’air non pollué, l’espace de vie, la diversité biologique, les matières premières nécessaires, la tolérance climatique, nous oblige à une réflexion qui ne s’était jamais imposée à l’Homme jusqu’à ce jour.

Déjà aujourd’hui, plus d’1 milliard de personnes n’ont pas accès à l’eau potable. Selon les Nations Unies, entre 2 et 7 milliards d’êtres humains seront confrontés à une pénurie d’eau en 2050.

La Terre d’aujourd’hui est la même que celle qui accueillit le premier homme, il y a quelques centaines de milliers d’années. Ses réserves ne sont pas infinies et, certains signes, comme l’évolution du climat, révèlent que de grands équilibres sont en train de se rompre.

Si nous n’attachions pas suffisamment d’attention à ces évolutions, la Terre a la capacité, elle l’a montré dans son passé, alors que l’Homme n’était pas encore là, de provoquer des changements fondamentaux (glaciations, montée des eaux, catastrophes climatiques) qui pourraient remettre les compteurs à zéro. L’Homme ne doit pas oublier qu’il n’est que de passage sur la Terre.

Aussi, au lieu de continuer à puiser, sans limites, dans les entrailles de la Terre, à rejeter nos déchets dans l’eau et l’atmosphère, à l’épuiser en voulant toujours obtenir plus, les 7 milliards d’êtres humains, que nous sommes dorénavant, devons, collectivement, réfléchir pour que nous n’allions pas vers la catastrophe.

Reprenant les 3 pouvoirs qui dominent le Monde : Le pouvoir par la violence, le pouvoir par l’argent et le pouvoir par le savoir, qu’elle est la meilleure option pour l’avenir ?

Le plus ancien des pouvoirs, celui qui ne connaît que la violence, est encore omniprésent sur notre Planète. De très nombreuses personnes pensent encore que seules des guerres ayant la capacité de tuer des centaines de millions de personnes (et nous en avons malheureusement les moyens) pourront enrayer cette irrésistible croissance de la population.

D’autres, beaucoup plus nombreux, pensent qu’il faut laisser faire le « Marché ». Les sociétés multinationales auront dorénavant plus de pouvoirs que les États. Ce sont elles qui, par le commerce, répartiront les richesses sur l’ensemble de la Planète. Pour l’illustrer, on vous citera l’évolution de la Chine dans ces dernières décennies. Ce qu’oublient les tenants de cette thèse, c’est que l’argent est, par définition, un produit limité dans sa quantité, sans quoi il perdrait toute sa valeur. Ce qui signifie que, lorsque le « Marché » oriente des milliards de milliards vers des pays à main d’œuvre peu onéreuse, ces milliards sont retirés aux pays les mieux nantis dont les habitants les plus pauvres souffrent. C’est ce qui se passe actuellement en Europe et aux États-Unis.

De loin, le meilleur pouvoir est le Pouvoir par le Savoir. Mais, pour cela, les États doivent retrouver tous leurs pouvoirs et ne plus hésiter quand ils veulent sanctionner les entités les plus anormalement riches de notre Planète. Nous entrerons dans une ère nouvelle de notre histoire quand tous les Pays du Monde se décideront, à l’unanimité, à percevoir un impôt sur chaque transaction financière.

Les milliards ainsi dégagés devront alors être confiés à une nouvelle organisation mondiale qui aura pour unique mission d’augmenter les savoirs de chaque habitant de notre Terre, et d’élever rapidement le niveau d’intelligence de l’ensemble de la population de notre planète. Ce n’est qu’à cette condition que nous n’irons pas vers la catastrophe.

René  TREGOUET

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat

P.S. : J’ai puisé les données chiffrées de cet édito dans un excellent article, publié, dans le New York Times, le 23 Octobre 2011, par JOEL E COHEN, un biologiste mathématicien qui est à la tête du Laboratoire des Populations à l’Université Rockefeller et à la Columbia University.

New York Times

Nota : Erreur dans mon précédent édito sur la Conquête de l’Espace

Dans ce texte, j’écrivais : « l'ambitieux projet européen Galileo qui prévoit à terme pas moins de 30 satellites géostationnaires »

Or cela est faux.

Il y a bien des satellites géostationnaires dans le projet Galileo, mais seulement au nombre de 5, leur rôle étant de contrôler le fonctionnement des 25 autres qui évoluent en orbites plus basses (23 000 km) et inclinées (56° par rapport à l'équateur afin de couvrir les pôles). Il est en effet impossible de fournir un système de géolocalisation utilisable sur toute la surface du globe par un ensemble de satellites géostationnaires et donc nécessairement situés à la verticale de l'équateur.

Cette remarque m’a été transmise par Jacques LEGALLAND, un lecteur attentif de RT Flash que je remercie.


TIC
Information et Communication
Journalistes au pays des robots
Jeudi, 03/11/2011 - 08:01

Les algorithmes, ces robots intelligents qui trient des tonnes d’informations pour les classer selon la demande des utilisateurs, sont – déjà – les collègues des journalistes. La cohabitation automatique/manuel a déjà lieu lorsque les journalistes tentent de rendre un contenu “facebookable” (visible sur le fil d’actualités de Facebook) ou “Google friendly” (visible sur Google) en utilisant les paramètres des algorithmes. Ou lorsque les éditeurs sous-traitent une partie de la page d’accueil de leurs sites d’infos – de fait, les boîtes avec les articles les plus envoyés, les plus commentés, les plus populaires sont gérées par des robots, non par la main humaine.

Quelle est la prochaine étape ? Ces robots vont-ils pouvoir produire du contenu de façon autonome, façon forçats de l’information en ligne ? Telle est la question posée par cet article, “les ordinateurs sont les nouveaux journalistes pas chers ?“, publié sur The Week. Derrière ces interrogations, un logiciel inventé par Narrative Science, une start-up basée à Chicago, aux Etats-Unis, capable de rédiger des articles en faisant des phrases… compréhensibles.

Comment ça marche ? L’algorithme compile des données pour les transformer en articles. Jusqu’à présent, cette technologie n’était opérante que pour le sport. Désormais, Narrative Science assure que le travail peut être fait pour l’économie (en scannant des comptes financiers d’entreprises) et la politique (à l’aide des résultats de sondages, et d’élections). Tremblez, journalistes, “d’ici 5 ans, un programme informatique gagnera le prix Pultizer”, croit Kris Hammond, chercheur en intelligence artificielle, cité par le New York Times.

“Pour certaines informations très brèves, très simples, une rédaction robotisée peut fonctionner”, estime Frédéric Filloux, auteur de la Monday Note et professeur à l’Ecole de journalisme de Sciences Po. “Mais pour le reste ? C’est la théorie du saut en hauteur. Sauter 1,80 m, tout le monde peut y arriver (à condition de s’entraîner, ndlr). Mais 2,30 m, qui peut le faire ? Voilà toute la différence entre du très bon et de l’excellent.”

  • Pas d’humain, pas d’âme journalistique

Même avis du côté d’Alexandre Malsch, 26 ans, ingénieur et directeur général de Melty Network. “Un robot ne saura jamais faire un jeu de mots, à moins peut-être de renseigner tous les jeux de mots de la Terre dans une base de données… Dans tous les cas, un robot ne saura pas écrire un article en y mettant une âme”.

Pourtant, les robots, Alexandre Malsch connaît. Une trentaine d’algorithmes scannent en permanence son site aux 4 millions de visiteurs uniques, destiné aux ados (Alexandre Malsch préfère le terme “jeunes”), Melty.fr. Objectif : “aider” les rédacteurs à produire du contenu au bon format, sur le bon sujet, au bon moment – en clair, pas la peine de mettre en ligne un contenu sur Lady Gaga si le public cible de la chanteuse est à l’école au moment où l’article est publié.

  • Vers le tout automatique ?

Afin, donc, d’être le plus visible possible sur les moteurs de recherche, le jeune développeur a imaginé, dès 2008, un outil de publication (CMS, content management system) qui offre du “presque tout automatique” pour les journalistes. Quelle longueur doit faire le titre de l’article pour arriver en premier dans les résultats de Google ? “Aucun rédacteur ne peut en calculer la longueur optimale”, reprend Alexandre Malsch, “seul un robot en est capable”. En effet, dans le CMS, le robot met le titre que tape le rédacteur en “vert” quand il fait la bonne longueur, et en rouge quand il est trop long ou trop court. Idem pour les mots-clés utilisés dans un titre. Le rédacteur peut en proposer trois différents pour chaque contenu produit, le robot donne pour chacun un pourcentage de réussite, le rédacteur n’ayant plus qu’à opter pour le titre ayant obtenu 90 % ou 95 %.

Autre paramètre sous-traité aux robots dans le CMS de Melty : le nombre de liens que doit contenir tel ou tel article. Et, plus poussé encore, l’heure de la mise en ligne de l’article. A quel moment l’article sera-t-il le plus visible sur Google ? Le robot peut le savoir, en analysant de multiples données en un instant, pas le journaliste.

Cette machine à booster le référencement est un exemple de robotisation du système de publication. Le texte, pas touche – à part les liens qu’il contient et le titre. “C’est juste un nouveau Word, un outil pour aider les journalistes, mais cela ne remplace en rien leur travail, leurs interviews, leurs analyses.”

  • Remettre de l’humain dans les machines

Impressionnant ? Aucun doute. Inquiétant ? Peut-être. Mais le tout automatique n’est pas encore au programme. “Quand on voit la difficulté qu’ont les outils de traduction à donner des résultats pertinents en temps réel, on comprend que ce n’est pas tout à fait pour demain”, dit encore Frédéric Filloux. D’autant que, rappelle-t-il, avant d’écrire un article, un journaliste doit recueillir une matière première beaucoup plus importante que ce dont il se sert au final… Il faut un volume initial au moins 5 à 10 fois supérieur à la publication.”

Résultat – et c’est paradoxal : Alexandre Malsch et ses développeurs remettent du manuel dans leur machine, par exemple dans l’édition et la sélection des contenus, et dans le fait de pouvoir “forcer” la publication d’un contenu en temps réel, plutôt que d’attendre que le robot le pousse. “Plus le monde avance, plus la sélection humaine a l’importance”, conclut-il. “Le fait à la main redevient une valeur.”

Slate

Un algorithme perce les secrets d'une société secrète allemande
Lundi, 31/10/2011 - 00:30

Le code du Copiale est un mystérieux cryptogramme, contenant près de 75.000 caractères, qui avait été retrouvé dans une université de Berlin-Est à la fin de la Guerre froide et que l'on attribue à une société secrète allemande du XVIIIe siècle. Des scientifiques de l'université de Californie du sud et de l'université suédoise d'Uppsala ont réussi à en décrypter une partie grâce à un algorithme informatique de détection et de traduction de langages, raconte le Los Angeles Times.

Les chercheurs ont tout d'abord isolé les caractères grecs et latins des symboles abstraits pour tenter de comprendre une partie du message mais ont réalisé que ces premiers étaient insignifiants. Le travail était rendu plus complexe par l'absence d'espace entre les caractères, comme le montre la présentation de leur recherche.

Sachant que le texte provenait d'Allemagne, ils sont partis de l'hypothèse selon laquelle les symboles abstraits pourraient être des approximations de caractères germaniques. «Je suis heureux de savoir que les logiciels de linguistique peuvent nous aider à décoder des cryptogrammes historiques», a confié Kevin Knight à Annenberg TV News, chaîne télévisée de l'Université de Californie du Sud. «Maintenant, j'espère que les techniques de décodage peuvent aider à concevoir de meilleurs logiciels de traduction.».

Les premiers mots déchiffrés étaient «Cérémonies d'initiation» suivi de «Section secrète». Les chercheurs ont réussi à déchiffrer 16 pages du document, qui en compte 105, et ont découvert qu'il décrivait les rites d'une société secrète intéressée par l'ophtalmologie, comme celui de s'épiler les sourcils. Ou encore le mode de reconnaissance entre membres : si un membre veut savoir comment va Hans, par exemple, l'autre personne doit d'abord lui répondre en mentionnant un prénom qui commence par la seconde lettre du prénom déjà cité, Anton par exemple.

Selon le Guardian, l'équipe de Kevin Knight a avoué avoir d'autres projets de cryptographie en tête avec la technologie qu'elle a mise au point ; la scuplture Kryptos qui se trouve dans l'enceinte du quartier général de la CIA, le cryptogramme du tueur de Zodiaque dans les années 1960 en Californie ou encore le manuscrit de Voynich du début du 15e siècle. Toutefois, Elonka Dunin, qui anime un site sur la cryptographie, se veut dubitative. «Généralement, cette technique de décryptage a déjà été utilisée pour ces cryptogrammes», estime-t-elle sur le site MSNBC.

Slate

OmniTouch transforme n'importe quelle surface en écran tactile
Dimanche, 30/10/2011 - 01:20

Microsoft Research a dévoilé deux projets autour du tactile : l'OmniTouch et le PocketTouch. Le premier permet de transformer n'importe quelle surface en écran tactile par le biais d'un vidéoprojecteur, le second permet d'utiliser un appareil tactile à travers les vêtements. Récemment, Microsoft Research a choisi de dévoiler en même temps deux projets développés par des chercheurs différents à Redmond, projets qui ont un élément en commun : le tactile. A leur façon, l'OmniTouch et le PocketTouch offrent une évolution différente dans cette manière d'interfacer avec un ordinateur, un smartphone ou tout autre appareil.

L'OmniTouch combine un pico-projecteur à une caméra permettant de mesurer la profondeur. Son but : faire de n'importe quelle surface un écran tactile, qu'il s'agisse d'une table, d'un mur ou même de la paume de la main de son utilisateur. « Nous voulions capitaliser sur l'énorme surface qu'offre le monde réel » explique Hrvoje Benko, qui travaille sur le projet avec Chris Harrisson. Ce dernier en avait présenté les prémisses l'année dernière, sous le nom de Skinput. L'OmniTouch utilise une technologie développée par PrimeSense, société à l'origine du Kinect, ce qui explique que le look de l'appareil portable soit assez similaire à celui de l'accessoire de la XBox 360. Ici, pas de capteur : c'est la caméra de profondeur qui détermine si le doigt de l'utilisateur est suffisamment près de la surface choisie pour valider le contact. Le système valide le clic à un centimètre ou moins de la surface, et gère la glisse du doigt.

Conçu pour être portable, le tout est encore encombrant une fois installé sur l'épaule, mais les chercheurs estiment qu'il n'y a pas d'obstacle à la miniaturisation et qu'il serait possible d'obtenir un produit final de la taille d'une boîte d'allumettes. L’idée n’est pas neuve, mais le dispositif mis au point par Chris Harisson est  très précis. Il permet d’utiliser plusieurs doigts en même temps, de cliquer facilement avec l’un d’entre eux, ou de se servir de la fonction « pincer pour zoomer » comme sur un téléphone.

On pourrait résumer ainsi le projet PocketTouch, mais celui-ci est tout de même un peu plus subtil puisqu'il propose d'utiliser un smartphone à travers, par exemple, la poche d'un pantalon par le biais d'un capteur multitouch capacitif doté d'une grille. Cette grille permet d'effectuer certaines actions sur le téléphone, comme verrouiller l'appareil, prendre un appel ou écrire un message. La technologie n'en est encore qu'au stade du prototype et les chercheurs travaillent à l'élaboration d'applications permettant d'étendre les capacités du PocketTouch. Rien ne dit qu'elle ne sera pas, un jour, intégrée à l'OS Windows Phone.

Clubic

Chris Harisson

Le réseau social améliore le bon fonctionnement d'une ville
Samedi, 29/10/2011 - 01:10

Pour collecter des données sur le fonctionnement d'une ville et de ses services, tout en permettant aux citoyens de s'impliquer dans la vie urbaine, et d'avoir une influence sur celle-ci, autant passer par les réseaux sociaux. C'est la politique adoptée par "MyfunCity - Villes Durables", un site collaboratif dont la première version a été mise à l'essai dans la ville brésilienne de Sao Paulo. Le réseau étant spécifique à la ville où l'on se situe, et dédié à l'analyse du fonctionnement de cette dernière. Pour fonctionner, le site s'appuie donc sur les habitants de la ville. Ces derniers sont libres de s'inscrire en ligne.

Dès que l'inscription est validée, ils ont la possibilité de répondre notamment à des enquêtes de satisfaction relatives à leur cité. La qualité des transports en commun, des services administratifs, ou du trafic routier sont autant de sujets sur lesquels il est possible de donner son avis. Cela, en remplissant un formulaire en ligne, et par le biais d'une note qui varie de 1 à 10. Les données recueillies sont ensuite centralisées sur une base de données. Et via cette dernière, la ville peut immédiatement identifier les facteurs d'insatisfaction, pour ensuite y apporter une amélioration.

A noter qu'en plus de ce système de notation, la plate-forme fonctionne comme un véritable réseau social, c'est-à-dire qu'il est possible d'y inviter des amis, d'y effectuer des publications... Mais ce toujours autour du thème central de la ville. Signalons d'autre part que l'entreprise est partenaire avec Facebook et Orkut, et qu'il est donc également possible de donner son avis via ces réseaux sociaux. Du côté de l'utilisation, et outre l'interface en ligne, une application iPhone et Androïd est disponible au téléchargement. Pour le moment, Sao Paulo est la seule ville où le système ait réellement été mis en fonctionnement. Mais à terme, plusieurs villes des Etats-Unis et d'Europe devraient accueillir le réseau social.

L'Atelier

Un téléphone cellulaire pour compter les globules
Vendredi, 28/10/2011 - 06:20

Rarement téléphone cellulaire aura si bien porté son nom : en apposant une bille de verre sur l'objectif de son appareil photo intégré, il est possible de le transformer en microscope de poche, capable de discerner des... cellules sanguines. L'idée, mise en oeuvre par une équipe américaine que dirige Sebastian Wachsmann-Hogiu (université de Californie, à Davis), vise à fournir des moyens d'analyse médicale à faible coût à destination des pays en développement. Elle a été présentée, le 16 octobre, lors de la réunion annuelle de la Société américaine d'optique, en Californie.

Le concept n'est pas totalement nouveau : plusieurs prototypes de microscopes et de spectromètres ayant pour objectif la minuscule lentille d'un téléphone mobile ont déjà été proposés. Mais ce dispositif original est présenté comme "bien plus petit, simple et de très bas coût, tout en maintenant un niveau acceptable de performance", selon la description qui en a été faite, en mars, dans la revue PLoS One.

Rien de plus simple, pour obtenir un effet loupe capable de magnifier 350 fois un échantillon, que de disposer devant la lentille du téléphone une bille de verre d'un millimètre de diamètre. La zone où la mise au point est parfaite, avec une résolution atteignant 1,5 micron, reste cependant réduite au centre de l'image. L'équipe de Sebastian Wachsmann-Hogiu a donc ajouté une partie logicielle au dispositif, afin de fusionner plusieurs images prises à différentes distances de l'échantillon, afin de disposer d'un cliché composite de plus grande netteté.

Un développement futur consisterait à utiliser le téléphone en mode caméra, à promener son objectif devant l'échantillon, et à coller les images vidéo pour obtenir un cliché entièrement net, avancent les chercheurs. Les capacités embarquées dans un téléphone mobile sont suffisantes pour aller plus loin encore et procéder à un comptage automatique des cellules sanguines étalées entre deux lamelles de verre. L'algorithme testé par l'équipe américaine a présenté une fiabilité de 97 %.

L'équipe de Sebastian Wachsmann-Hogiu a aussi mis au point un spectromètre, c'est-à-dire un instrument capable d'analyser la lumière diffractée par l'échantillon observé. Ce type de données peut être utilisé pour mesurer le degré d'oxygénation du sang. Les tests ont principalement été conduits sur l'iPhone, mais les chercheurs américains ont aussi essayé des téléphones concurrents de celui d'Apple, avec les mêmes résultats. Il reste désormais à mener des expériences de terrain, pour voir comment une telle technologie peut être déployée, par exemple dans les dispensaires africains. Des discussions sont en cours avec des constructeurs pour commercialiser la technologie, d'ici à deux ou trois ans.

Le Monde

^ Haut
Avenir
Nanotechnologies et Robotique
Un drone pour inspecter tout le viaduc de Millau
Dimanche, 30/10/2011 - 01:40

Le 14 octobre dernier, techniciens et responsables de l'entreprise Eiffage étaient présents au pied du viaduc de Millau afin d'assister à une démonstration en vol du drone chargé d'inspecter en détail le viaduc les semaines suivantes.

Lors de sa livraison, le viaduc a été garanti pour 120 ans ; si chaque année l'ouvrage monumental subit de nombreuses vérifications, tous les six ans il est nécessaire de faire un check-up complet de l'édifice. Pour cela Eiffage a missionné Diadès, société du groupe SETEC pour une opération vérification où une vingtaine de techniciens et d'experts passeront pendant deux mois tablier, corniches, haubans, piles… au peigne fin.

Pourtant, l'Homme a ses limites et certains aspects et détails de l'ouvrage sont observés par un drone. Piloté depuis le sol par des inspecteurs qualifiés, le drone permet de détecter et de photographier les zones de défaut. Des moyens de retransmission et d'enregistrement des photos et vidéos sont mis en place pour permettre le diagnostic détaillé, avec un géo-référencement en temps réel.

Cet instrument exceptionnel est né du travail des deux entreprises, Diadès et Novadem, qui ont souhaité développer une nouvelle façon de contrôle spécifique des structures de génie civil de grande hauteur.

L'appareil qui peut voler à plus de 200 m de hauteur produit des images en haute définition, traitées et analysées par ordinateur afin d'aboutir à des conclusions très précises sur l'état de la zone inspectée.

La Dépêche

^ Haut
Matière
Matière et Energie
Feuille de route pour les biocarburants de deuxième génération
Mardi, 01/11/2011 - 09:07

Comment atteindre l’objectif de 10 % d’énergies renouvelables dans les transports d’ici 2020, que s’est fixé l’Union européenne ? Notamment, en contournant les obstacles techniques liés à la production de biocarburants de deuxième génération. Le projet Star-Colibri a établi une feuille de route claire à l'adresse des chercheurs et des industriels.

Le projet Star-COLIBRI (pour Strategic research TARgets for 2020 – COLlaboration Initiative on Bio Ref Inery), financé sur deux ans par l’Union Européenne, s’est conclu par la remise d’une feuille de route à l’adresse des acteurs actuels des bioraffineries, industriels ou organismes de recherche.

Voici quelques unes de ses principales recommandations :

  • biomasse : recourir au génie génétique pour améliorer le rendement à l’hectare des cultures et l’acclimatation aux différents sols ou pays d’Europe, et renforcer les connaissances sur le métabolisme et la structure des plantes pour identifier la ou les sources de biomasse les plus à même de répondre aux besoins industriels ;
  • étape de prétraitement : améliorer les technologies existantes pour trouver le cocktail enzymatique le plus efficace et le plus économique pour dégrader la lignocellulose ;
  • étape de production : les recommandations divergent car il existe deux voies de production différentes :

- pour la voie thermo-chimique (impliquée dans le projet français Biotfuel), il s’agit d’adapter les procédés aux unités de production existantes et d’optimiser les étapes finales du procédé (purification du biogaz) ;

- pour la voie biochimique, exploitée en particulier par Futurol, la priorité est le développement de nouveaux catalyseurs (enzymes et microorganismes) ;

  • intégration : des efforts sont à accomplir en termes de modélisation des procédés, pour intégrer les problématiques de recyclage et de gestion des déchets. Le caractère recyclable n’est en effet pas systématique pour un produit issu de ressources renouvelables.

Cette feuille de route est complétée d'un autre document, qui livre la vision des différents partenaires du projet Star-COLIBRI sur la bioraffinerie à l'horizon 2030.

Industrie & Technologies

La Chine s'initie aux réacteurs nucléaires à haute température
Mardi, 01/11/2011 - 08:58

Le premier réacteur à haute température (High Temperature Reactor, HTR) de Chine, situé dans la province de Shandong, comptera parmi les centrales nucléaires les plus modernes au monde.

Ce réacteur haute température à lit de galets (HTR-PM) est considéré comme l'un des réacteurs les plus prometteurs de la prochaine génération en raison de ses caractéristiques intrinsèques de sécurité. Une centrale témoin est d'ailleurs actuellement en construction à Shidaowan, dans la province chinoise du Shandong.

La société allemande SCHOTT vient d'être sélectionnée pour équiper le réacteur avec sa technologie exclusive de bornes de traversées d'enceinte réacteur à scellement par compression verre-métal (Electrical Penetration Assemblies, EPA). La première EPA a été livrée à l'Institute of Nuclear and New Energy Technology (INET) à l'université de Tsinghua, pour une phase de test et de formation.

D'après SCHOTT, sa technologie de scellement par compression verre – métal résiste aisément à des températures extrêmes, de -200°C à +240°C. Et ce sont ces performances qui ont convaincu Xu Yuanhui, Directeur Général Adjoint de Chinergy, le maître d'œuvre responsable de la construction de l'HTR : "En se basant sur nos recherches et les comparaisons effectuées, les EPA de SCHOTT peuvent répondre aux exigences élevées en termes de précision et de qualité des réacteurs à haute température. C'est pourquoi nous les avons choisies face à d'autres fournisseurs pour le réacteur témoin. L'achèvement réussi de la centrale témoin HTR ouvrirait la voie à de futurs modules de réacteur nucléaire."

« Les conditions dans le réacteur HTR sont très exigeantes. La pression y est d'environ 80 bars et la température du liquide de refroidissement peut atteindre 1000°C. La température ambiante elle-même est déjà proche de 150°C, même le long de la paroi intérieure de la cuve du réacteur », a expliqué le Professeur Zhou Huizhong, de l’Institute of Nuclear and New Energy Technology (INET) de l’université de Tsinghua.

« Nos dispositifs d’étanchéité hermétique par compression verre-métal peuvent être aisément exposés à des températures extrêmes, entre -200° et +240°C. Des combinaisons de matériaux spéciaux peuvent même tolérer des pics d’exposition à des températures de 1 000 °C » a expliqué le Professeur Oliver Fritz, Directeur de la technologie et de la sûreté nucléaire de SCHOTT. « Comme les derniers essais l'indiquent, nos bornes de traversées d'enceinte réacteur (EPA) restent totalement hermétiques, même à des pointes de pression supérieures à 100 bars - c'est la technologie d'étanchéité la plus sûre et la plus fiable pour les EPAs disponibles aujourd'hui ».

En comparaison, au Japon, les analystes de TEPCO ont démontré que lors de l'accident de Fukushima, la température à l'intérieur de la structure de confinement est passée à plus de 250°C, la température de fonctionnement normal étant de 60°C. Les températures et niveaux de pressions extrêmes semblent avoir mis à mal les joint d'étanchéité en époxy, ce qui est considéré comme ayant causé la fuite explosive d’hydrogène.

Enerzine

Il devient possible de regarder des électrons dans les molécules
Lundi, 31/10/2011 - 00:20

En 1999, Ahmed Zewail a reçu le prix Nobel de chimie pour ses études sur les réactions chimiques en utilisant des impulsions laser ultracourtes. Il a pu observer le mouvement des atomes et ainsi visualiser des états de transition sur le plan moléculaire. Regarder la dynamique des électrons a toujours été considéré comme un rêve à cette époque. Grâce à la dernière évolution de la technologie laser, d'intenses recherches dans le domaine de la spectroscopie attoseconde (1 attoseconde = 10-18 s) se sont développées rapidement. Pour la première fois, le professeur Hans Jakob Wörner du Laboratoire de chimie et de physique à l'EPF de Zurich, en collaboration avec des scientifiques canadiens et français, a été en mesure d'enregistrer le mouvement électronique pendant une réaction chimique complète. L'expérience est décrite dans le dernier numéro de la revue Science.

L'équipe de recherche a irradié des molécules de dioxyde d'azote (NO2) avec une impulsion de rayons ultraviolets très courte. Par conséquent, la molécule absorbe l'énergie de l'impulsion qui définit les électrons en mouvement. Les électrons commencent à se réorganiser, ce qui provoque un nuage d'électrons qui oscille entre 2 formes différentes pendant un temps très court, avant que la molécule ne commence à vibrer et à se décomposer finalement en oxyde nitrique et un atome d'oxygène.

Dans un article précédent, Hans Jakob Wörner a déjà publié la manière dont la spectroscopie attoseconde peut être utilisé pour regarder le mouvement des électrons. L'impulsion ultraviolette d'abord faible fixe les électrons en mouvement. La seconde impulsion forte à infrarouge supprime alors un électron de la molécule, l'accélèrant et la ramènant à la molécule. En conséquence, une impulsion lumineuse d'une attoseconde est émise, ce qui porte un instantané de la distribution des électrons dans la molécule. Wörner illustre le principe de la spectroscopie attoseconde : « L'expérience peut être comparée à un photographe, qui, par exemple, immortalise une balle tirée à travers une pomme. La balle serait trop rapide pour l'obturateur d'un appareil photo, et le résultat serait une image floue. Par conséquent, l'obturateur reste ouvert et l'image est illuminée avec des éclairs de lumière, qui restent plus rapides que la balle. Voilà comment nous obtenons notre capture. »

Lorsque l'électron revient à la molécule, il libère l'énergie sous forme de lumière. Dans l'expérience, Wörner et ses collègues ont mesuré la lumière des électrons et ont donc été en mesure de déduire des informations détaillées sur la distribution des électrons et de son évolution dans le temps. Cette information révèle les détails de mécanismes de réaction chimique qui étaient jusque là inaccessibles à la plupart des techniques expérimentales.

Enerzine

Un nouveau type de batterie lithium-ion sans cobalt
Lundi, 31/10/2011 - 00:00

Un groupe de chercheurs des universités d'Osaka et de la ville d'Osaka a mis au point un nouveau type de batterie lithium-ion en utilisant un polymère organique. Ces batteries ne contiennent pas de cobalt, élement qui est souvent utilisé dans la cathode. La majorité de la production de cobalt étant concentrée dans 5 pays, son prix est soumis à des fluctuations importantes, passant de 32000 à 44000 euros pour un lingot de 1kg entre les mois d'avril et de septembre 2011. Il était donc important de développer une alternative intéressante.

Le groupe de recherche a mis au point ce nouveau modèle de batterie lithium-ion en utilisant une cathode en polymère organique conducteur. Le polymère (Br3TOT) est composé de molécules d'un dérivé du trioxotriangulène, une molécule organique stable. Cette molécule se révèle être particulièrement intéressante car elle possède une orbitale moléculaire occupée par un seul électron et 2 orbitales moléculaires de basse valence, permettant ainsi au courant électrique de circuler. Le polymère utilisé a été obtenu à partir de dérivés organiques du pétrole, via une réaction de bromination.

Les résultats de l'étude ont été particulièrement concluants. En effet, le Br3TOT présente une capacité de décharge de 300 Ah/kg, excédant celle des batteries traditionnelles, et peut stocker entre 1,2 et 2 fois la quantité d'électricité de ces dernières. De plus, l'utilisation du Br3TOT augmente la performance de cycle de la batterie. Selon le professeur Morita, cette découverte ouvre la voie à une application dans le domaine de l'automobile.

Bulletins Electroniques

 

Le Havre parie sur l'auto-combustion des boues
Dimanche, 30/10/2011 - 01:30

La toute nouvelle station d’épuration du Havre (322 000 EH), inaugurée mardi 18 octobre, est l’un des premiers sites français à accueillir un Thermylis – un procédé d’oxydation thermique des boues proposé par Degrémont et qui fonctionne par auto-combustion.

En raison de la situation de l’agglomération du Havre, à l’extrémité de la Pointe de Caux, valoriser les boues d’épuration en amendement agricole impliquait de les transporter sur de longues distances. Cette solution a donc été abandonnée au profit d’un traitement sur place par incinération. La solution Thermylis de Degrémont a été sélectionnée en raison de sa capacité à fonctionner en « auto-combustion ». « Le four utilise le propre pouvoir calorifique des boues », précise Gérard Tannière, directeur eau et assainissement de la Communauté de l’agglomération havraise (Codah).

Après avoir été mis en route grâce à du gaz naturel, le four n’est plus alimenté que par les boues. Ces dernières sont de deux sortes : les boues issues du traitement biologique, en l’occurrence des bassins Cyclor où le traitement est de type boues activées par réacteur biologique séquencé (dit RBS) ; et des boues primaires. Ces dernières sont produites à partir d’eaux brutes envoyées après prétraitement vers un décanteur lamellaire. « Elles ont une meilleure combustibilité que les boues secondaires », explique Philippe Harrissart, directeur de projet chez Degrémont. Ces deux types de boues sont mixés, puis le mélange est déshydraté dans des filtres presses pour atteindre une siccité de 32 % avant d’alimenter le four Thermylis.

Ce dernier contient un lit de sable porté à haute température et fluidisé par un apport d’air chaud (650°C) provenant d’une boîte à vent. Cela crée une turbulence, similaire à celle d’un liquide en ébullition, où les boues sont incinérées à une température atteignant par pointes 850°C. La chaleur des fumées sortantes est récupérée pour chauffer l’air de fluidisation, d’où l’efficacité énergétique du procédé. « Ce traitement génère des cendres sèches minérales, valorisables en ciment ou en matériaux pour les routes », poursuit Philippe Harrissart. Le four possède aussi un traitement poussé des fumées (chlore, dioxines…), ce qui produit un déchet appelé refus d’incinération des boues (refib), qui doit être envoyé en centre de traitement des déchets.

La station du Havre présente aussi d’autres particularités : ainsi, la décantation lamellaire sert, par temps de pluie, à traiter le surplus d’eaux entrantes. « Toutes les eaux générées sur la communauté d’agglomération par une pluie décennale peuvent ainsi être traitées sans rejet direct au milieu naturel », garantit Gérard Tannière. Autre spécificité : c’est la plus grande référence européenne de Degrémont pour son produit Cyclor. En raison du manque de place au sol, deux réacteurs Cyclor ont été installés l’un sur l’autre, ce qui est une première. Tous ces efforts doivent permettre au Havre de protéger sa baie. L’agglomération contribue ainsi à atteindre le bon état dans l’estuaire de la Seine, conformément aux exigences de la DCE.

Hydroplus

^ Haut
Espace
Espace et Cosmologie
(21) Lutetia, un résidu des planétésimaux du Système Solaire primitif
Jeudi, 03/11/2011 - 07:44

L’astéroïde (21) Lutetia est un objet ancien, vestige des planétésimaux primordiaux dont sont formées toutes les planètes du Système solaire. Sa surface très complexe a une composition particulière, sans doute un mélange de différents types de matériaux agrégés à la suite d’impacts. Ceci est la conclusion tirée par des chercheurs, parmi lesquels dix scientifiques du LESIA, qui ont analysé les données acquises par la sonde Rosetta lors de son survol de l’astéroïde le 10 Juillet 2010. Les résultats scientifiques obtenus avec la caméra et le spectro-imageur infrarouge sont publiés dans deux articles de la revue Science du 28 octobre 2011.

La mission Rosetta de l’Agence Spatiale Européenne (ESA) a été lancée en 2004 pour un rendez-vous avec la comète 67P/Churyumov-Gerasimenko en 2014. Au cours de son voyage vers la comète, la sonde a effectué trois survols de la Terre et un de Mars pour profiter de leur assistance gravitationnelle, et a survolé deux astéroïdes, (2867) Steins et (21) Lutetia. Rosetta a approché Lutetia le 10 Juillet 2010 à une distance de 3170 km avec une vitesse relative de 15 km/s. Les images obtenues par la caméra OSIRIS (Optical, Spectroscopic and Infrared Remote Imaging System) révèlent un objet d’environ 120x100 km à la géologie complexe et d’une densité très élevée pour un astéroïde. La forme irrégulière de Lutetia semble résulter d’une longue histoire collisionnelle : le bombardement par des astéroïdes plus petits a produit de nombreux cratères de plusieurs dizaines de kilomètres, jusqu’à 55 km. Néanmoins, certaines régions jeunes, très lisses, sont également présentes. La région du pôle Nord est ainsi couverte par une épaisse couche de régolite où se développent des glissements de terrain importants, sous l’effet de l’activité sismique liée aux impacts.

La présence à l’intérieur des cratères de gros rochers isolés indique un mécanisme d’impact complexe. Les images montrent des variations d’albédo notables et une grande variété de structures géologiques : puits, chaînes de cratères, crêtes, escarpements et larges plaines récentes. Sa géologie complexe, l’âge de la surface et la densité élevée suggèrent que Lutetia est probablement un vestige des planétésimaux qui ont formé les planètes du Système solaire il y a 4,5 milliards d’années.

Les spectres obtenus avec l’instrument VIRTIS (Visible, Infrared and Thermal Imaging Spectrometer) sur l’hémisphère nord ne montrent aucune absorption minéralogique, en particulier silicates ferreux ou minéraux hydratés. La température maximale mesurée est de 245 K ; la comparaison avec des modèles théoriques implique que la surface de l’astéroïde est recouverte d’un régolite épais, très isolant. Les spectres sont compatibles avec une composition similaire à celles de certaines météorites primordiales, chondrites carbonées ou chondrites à enstatite.

Cependant, après le survol de Rosetta, la composition de Lutetia reste une énigme. La valeur intermédiaire de l’albédo et les propriétés spectrales observées depuis la Terre ou des télescopes orbitaux (Herschel et Spitzer) ont conduit à des discussions animées entre experts ces dernières années, les informations disponibles ne permettant pas de distinguer entre une composition carbonée (objet primitif) ou métallique (noyau d’un planétésimal différentié, puis pulvérisé). L’ensemble des données disponibles montre que Lutetia est différent de tous les astéroïdes observés jusqu’à présent depuis la Terre ou visités par des sondes spatiales.

LESIA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement climatique pourrait faire rétrécir les êtres vivants !
Dimanche, 30/10/2011 - 01:10

Les espèces vont-elles rétrécir à cause du changement climatique ? Sans doute, si l'on en croit une très sérieuse étude publiée dans Nature. Si les tigres ne vont pas se transformer en chat, Jennifer Sheridan et David Bickford, les chercheurs à l'université  de Singapour qui ont dirigé cette étude soulignent que le rétrécissement général des espèces est déjà mesurable et peut être directement corrélé au réchauffement du globe !

Pour mesurer ce phénomène surprenant, les scientifiques ont dépouillé dans une "méta-analyse" toutes les études réalisées sur la question. ils ont ainsi pu constater que sur 85 espèces observées, 40 ont vu leur taille diminuer depuis 20 ans, parmi lesquelles les lézards,  les mouettes, les tortues, les crapauds. les ours polaires et les cerfs !

Selon cette étude très argumentée, chaque degré de température supplémentaire, dans l'air ou dans l'eau, entraîne, dans des proportions variables,  une diminution de la masse et de la taille des êtres vivants. Cette diminution varie de 3 % à 22 % selon les espèces considérées.

Cette étude rappelle qu'il y a 56 millions d'années, lors du passage du Paléocène à l'Eocène, la température de la Terre a augmenté de 6°C en moins de 20 000 ans, ce qui a entraîné une diminution sensible de la taille de nombreuses espèces. La taille des insectes a notamment diminué de plus de 50 % et celle de certains mammifères de plus de 40 %. Le rythme du réchauffement planétaire actuel étant plus important encore, il n'est pas du tout étonnant que nous observions une diminution générale sensible de la taille des êtres vivants, soulignent les auteurs de l'étude.

Reste que les causes exactes de cet étrange phénomène ne sont pas connues. Les chercheurs ne comprennent pas non plus pourquoi le réchauffement semble avoir un impact important sur la taille de certains organismes et pas sur d'autres.

Parmi les hypothèses qui pourraient expliquer ce phénomène, l'une des plus solides est que l'augmentation de la température et de la sécheresse provoque une diminution de la taille des plantes car celles-ci disposent de moins d'eau et d’azote pour assurer leur croissance. C'est ensuite toute la chaîne du vivant qui serait affectée par cette diminution des ressources : les herbivores d'abord puis les carnivores. La réduction de la taille des espèces s'inscrirait donc dans le cadre classique d'un mécanisme darwinien d'adaptation à un changement de l'environnement.

S'agissant de la vie marine, l'acidification des océans, processus scientifiquement confirmé et dû aux émissions croissantes de carbone par l'homme, serait responsable d'une diminution de la taille des poissons et animaux marins. L'étude souligne néanmoins que le réchauffement du climat ne touche pas toutes les espèces de la même façon : certaines ont en effet des capacités d'adaptation plus grandes que d'autres et sont donc moins affectées par ce phénomène global.

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Maladie de Huntington : Une nouvelle fonction pour la protéine huntingtine
Jeudi, 03/11/2011 - 08:14

La maladie de Huntington est une affection d’origine génétique qui touche environ 6 000 personnes en France et concerne plus de 12 000 porteurs du gène muté, provisoirement indemnes de signes cliniques. Elle est caractérisée par des mouvements incontrôlés, un changement de personnalité, la démence et la mort des patients 10 à 20 ans après l’apparition des premiers symptômes.

Le gène HD responsable de la maladie synthétise une protéine, la huntingtine, dont la fonction reste mal connue. A l’état normal, cette protéine contient des répétitions d’un acide aminé, la glutamine. Des répétitions qui peuvent devenir dangereuses : à partir d’un certain seuil (36 à 40 glutamines), la huntingtine est mutante et induit la maladie. Et plus les répétitions sont nombreuses, plus les symptômes apparaissent tôt. Il est admis que cette expansion anormale de glutamine est responsable d’un changement de structure de la huntingtine, qui provoque la mort des neurones.

Comprendre la fonction de cette protéine est crucial pour comprendre les altérations qui surviennent au cours de la pathologie. L’équipe de Frédéric Saudou (Institut Curie / CNRS UMR 3306 / Inserm U1005) vient de mettre en évidence dans une publication, dans J Clin Invest, une nouvelle fonction de cette protéine dans la formation des cils. Les cils sont des structures qui jouent un rôle primordial dans la signalisation à l’intérieur des cellules en réponse à des modifications du milieu extérieur. Certains cils, appelés cils motiles, ont une fonction dans la génération des flux à l’intérieur des organes comme les reins. Dans le cerveau, les cils génèrent le mouvement du liquide céphalo-rachidien, mouvement indispensable aux échanges de nutriments et de molécules nécessaires à son bon fonctionnement.

L’équipe Signalisation cellulaire et neurobiologie montre que la protéine huntingtine est indispensable à la formation du cil. Son absence par des approches génétiques dans les cellules ou chez la souris abolit la ciliogénèse. Dans la maladie de Huntington, la protéine est présente, mais contient cette répétition de glutamines. Cette mutation conduit alors à des cils anormalement longs qui battent de façon désordonnée. Dans cette situation, la circulation du liquide céphalo-rachidien à l’intérieur du cerveau est anormale, ce qui induit des défauts dans la mise en place de certains neurones. Ainsi mieux comprendre les dysfonctions au cours de cette pathologie devrait permettre de développer des nouvelles stratégies thérapeutiques.

Institut Curie

Des bactéries marines dévorent l'hydrogène
Jeudi, 03/11/2011 - 08:08

Un chercheur de la Station biologique de Roscoff montre que les moules des grandes profondeurs utilisent de grandes quantités d’hydrogène pour vivre.

Il y a de la vie dans l’hydrogène. Des chercheurs ont découvert que des organismes vivants consommaient de l’hydrogène et des sulfures pour leur croissance, à 3 200m de profondeur, au milieu de l’Atlantique Nord. « On savait déjà qu’il existe des bactéries capables d’utiliser de l’hydrogène. Ce qui est nouveau, c’est que ce gaz permette à un animal, ici des moules, de vivre. Et cela grâce à une symbiose avec des bactéries », explique Stéphane Hourdez.

  • Le gène de l’hydrogène

Le chercheur de la Station biologique de Roscoff fait partie de l’équipe internationale à l’origine de cette découverte, qui a fait l’objet d’une publication dans la revue Nature en août 2011. « Les chercheurs allemands du Max Planck Institute ont été les premiers à constater que les moules des sources hydrothermales consommaient de l’hydrogène. Ils ont voulu aller plus loin. Ils ont demandé au CEA-Genoscope en France de séquencer le génome des trois types de bactéries retrouvées sur les branchies des moules », raconte le scientifique du laboratoire Adaptation et diversité en milieu marin du CNRS (UMR 7144).

Cette étude métagénomique a permis d’identifier le gène d’acquisition de l’hydrogène et celui de l’oxydation des sulfures, physiquement proches dans un fragment de génome. Le gène clé de la transformation chimique de l’hydrogène étant également présent chez les bactéries de nombreux autres organismes vivant dans ce type d’écosystème, comme des vers ou des crevettes. En 2009, Stéphane Hourdez est invité à rejoindre le navire du groupe de chercheurs à Logatchev, un site de sources hydrothermales, situé à 14° nord de la dorsale médioatlantique, un relief sous-marin au mieux de l’océan Atlantique. Sa mission : utiliser un spectromètre de masse in situ, développé par Peter Girguis, de Harvard, capable de mesurer les concentrations de gaz dans l’eau à des profondeurs abyssales. Véhiculé grâce à un Rov, un petit sous-marin téléguidé, le spectromètre est placé devant les fluides à étudier.

L’écophysiologiste breton parvient alors à montrer que les bancs de moules consomment de 45 à 50 % du flux d’hydrogène émis, soit 4 460 litres par heure pour l’ensemble de la zone observée. 39 millions de litres par an !

  • Future énergie

Cette utilisation de l’hydrogène comme source d’énergie pour fixer du carbone et produire de la matière organique pourrait intéresser les entreprises de biotechnologies : elle est plus simple et 7 à 18 fois plus productive que les autres sources d’énergie, le méthane et l’hydrogène sulfuré. Une sorte de “pile à combustible” naturelle. Une nouvelle source d’énergie renouvelable ?

  • Les sources hydrothermales

Les sources hydrothermales se forment au niveau des dorsales océaniques, qui sont des zones d’activité tectonique et parfois volcanique. Des fissures se créent par lesquelles pénètre l’eau de mer. Celle-ci se réchauffe et se modifie chimiquement à proximité des chambres magmatiques. Elle ressort chargée de métaux et d’éléments réduits, dont le sulfure d’hydrogène, l’hydrogène, le dioxyde de carbone. Le contact avec l’eau de mer à 2°C provoque la précipitation des minéraux, en forme de cheminées, autour des sorties de fluide.

Sciences Ouest

Dépression : les liens entre environnement, psychologie et génétique se précisent
Jeudi, 03/11/2011 - 07:53

Les troubles tels que l'anxiété ou la dépression ont des causes à la fois psychologiques et environnementales, ainsi qu'une composante génétique. Toutefois, on ne sait pas encore bien comment chaque élément affecte le fonctionnement du cerveau et génère les symptômes anxieux et dépressifs. Pour mieux comprendre ces interactions, une équipe du Centre émotion-remédiation et réalité virtuelle (CNRS / UPMC / CHU Pitié Salpêtrière) s'est penchée sur l'activité de l'amygdale, une structure du cerveau dont l'activité est anormalement élevée chez les personnes atteintes de troubles anxieux et dépressifs. Les chercheurs ont montré que l'activité de celle-ci peut être modulée en fonction d'un gène, de l'histoire personnelle et de l'activité cognitive des sujets. Ces travaux suggèrent que les psychothérapies pourraient, selon les gènes du patient, avoir des effets différents sur l'activité cérébrale. Publiés en novembre 2011 dans la revue Human Brain Mapping, ils feront la couverture de ce numéro.

Plusieurs travaux, publiés au cours de la dernière décennie, laissent penser que le gène 5-HTTLPR, codant pour le transporteur de la sérotonine, une substance impliquée dans la régulation des émotions, pourrait jouer un rôle important dans la dépression. Le promoteur de ce gène peut se présenter sous une forme longue ou courte, cette dernière pouvant accentuer l'impact des événements stressants sur notre moral. Si cette hypothèse reste controversée, il est en revanche admis que la forme courte du gène provoque une activation plus intense de l'amygdale, structure du cerveau impliquée dans les émotions et la reconnaissance de signaux de danger.

Dans ces nouveaux travaux, les chercheurs ont voulu étudier l'impact de la psychologie et de l'environnement sur cet effet « génétique » en réalisant une IRM cérébrale fonctionnelle sur 45 sujets sains porteurs ou non de la forme courte du gène. Durant l'IRM, des photographies plaisantes ou déplaisantes leur étaient présentées. Les sujets devaient soit indiquer si elles étaient agréables ou désagréables, soit réfléchir aux liens existant entre ces images et eux-mêmes. Selon la présence ou non de la forme courte, les résultats de l'IRM se sont montrés différents. Chez les porteurs de la forme courte, l'activation de l'amygdale était supérieure lorsqu'ils devaient associer la photographie à eux-mêmes que lorsqu'ils devaient juger de son caractère agréable ou désagréable. L'inverse était observé chez les sujets non porteurs de la forme courte. Autrement dit, l'activité de l'amygdale des sujets différait selon la forme du gène, mais aussi selon le type d'activité mentale : description « objective » de l'image ou mise en relation avec leur histoire personnelle.

Au préalable, les sujets avaient également été interrogés sur les événements de vie négatifs qu'ils avaient éventuellement rencontrés au cours de l'année écoulée : difficultés professionnelles, séparation, deuil, etc. Les résultats ont montré que le stress subi durant l'année jouait aussi sur l'influence du gène sur l'activation de l'amygdale, cette interaction « gène – environnement » étant elle-même modifiée par l'activité mentale du sujet.

Ces résultats montrent que le patrimoine génétique des sujets influence, certes, le fonctionnement du cerveau mais que cette influence est modulée aussi bien par l'histoire personnelle des sujets que par leur attitude psychologique. Extrapolés au domaine de la dépression, ces résultats suggèrent également que la psychothérapie, et notamment la thérapie cognitive qui consiste à aider le patient déprimé à appréhender le monde différemment, pourrait avoir des effets différents au niveau cérébral en fonction de certains gènes. Une piste que les chercheurs sont en train de suivre.

CNRS

Le python birman, une piste précieuse pour lutter contre les maladies cardiaques ?
Mercredi, 02/11/2011 - 08:03

Des chercheurs américains ont publié une étude qui suggère que le python birman, un des plus grands serpents au monde, pourrait aider à mettre au point de nouveaux traitements permettant de lutter contre les maladies cardiaques humaines.

Le python birman est un serpent pouvant atteindre neuf mètres de long et peser jusqu’à 90 kilogrammes. Capable d’avaler une biche ou même un alligator, ce reptile sécrète des acides gras ayant de véritables propriétés cardiaques. En effet, de précédentes études ont montré que la masse du cœur des pythons birmans augmentait de 40 % dans les 24 à 72 heures suivants un important repas et que l'activité de leur métabolisme était multipliée par quatre immédiatement après avoir avalé leur proie.

Les pythons, qui peuvent jeûner pendant un an avec peu d'effets néfastes sur leur santé, voient leur cœur quasiment doubler de taille après un repas. Ainsi, tandis que cet accroissement de la masse du muscle cardiaque est similaire chez certains athlètes, les scientifiques jugent qu'étudier le cœur des pythons pourrait grandement aider dans les recherches qui visent  à améliorer la santé cardiaque des humains. C’est ainsi qu’une équipe de l’université du Colorado, en se penchant de plus près sur ces reptiles, a constaté que les pythons produisaient des quantités de triglycérides 50 fois supérieure à la normale un jour après avoir englouti leur proie. Ces acides gras constituent l’élément principal permettant de former des graisses et des huiles naturelles, rappelle TV5monde.

  • Un coeur en bonne santé malgré les graisses

Mais le plus surprenant pour les chercheurs fut de constater que ces graisses, bien que très abondamment présentes, ne laissaient aucun dépôt dans le cœur. Ils indiquent également, dans leur publication parue dans la revue Science, avoir pu mesurer l'accroissement d'une enzyme, appelée superoxide dismutase, bien connue pour ses puissants effets protecteurs sur le muscle cardiaque, y compris chez l'homme.

Pour conduire leurs recherches, les scientifiques ont donc dans un premier temps injecté un liquide reprenant une composition similaire à celui du plasma sanguin des pythons en pleine digestion à des pythons maintenus à jeun. Après ces injections, les serpents ont montré un net accroissement du cœur et des indications d'une bonne santé cardiaque. Puis en répétant la même opération, sur des souris cette fois, les mêmes résultats cardiaques ont été observés avec notamment une augmentation de la taille du cœur.

  • Un élargissement du coeur bénéfique

"Nous avons découvert qu'une certaine combinaison d'acides gras peut avoir des effets favorables sur la croissance cardiaque chez des organismes vivants", explique Cecilia Riquelme, principal auteur de l'étude. "Maintenant nous essayons de comprendre le mécanisme moléculaire derrière ce processus et espérons que les résultats débouchent sur de nouvelles thérapies pour mieux traiter les maladies cardio-vasculaires humaines", ajoute-t-elle. "Si des maladies peuvent provoquer un épaississement du muscle cardiaque et une réduction des chambres du cœur résultant du fait qu'il travaille plus pour pomper le sang, un élargissement résultant d'un exercice vigoureux est en revanche une bonne chose", souligne Leslie Leinwand, professeur de biologie à l'université du Colorado qui a dirigé ces travaux. "Il y a un grand nombre de personnes qui ne sont pas en mesure de faire de l'exercice car souffrant d'une maladie cardiaque", explique cette biologiste ajoutant qu’il serait "bien de mettre au point un traitement capable d'induire la croissance de cellules cardiaques" chez ces malades.

Maxisciences

Le génome de la bactérie responsable de la peste noire a été déchiffré
Mercredi, 02/11/2011 - 07:55

Pourquoi la Peste Noire a-t-elle fait tant de ravages en Europe au 14e siècle ? Pour le savoir, deux chercheuses ont reconstruit le génome quasi-complet de la bactérie responsable de cette épidémie.

Au 14e siècle, la Peste Noire décima en cinq ans 30 à 50 % de la population européenne. Après des dizaines d’années de silence pendant lesquelles elle semblait avoir disparu, la peste est réapparue dans plusieurs pays (Algérie, Inde) et fait aujourd’hui environ 2 000 victimes par an. Les souches responsables de la maladie actuelle sont-elles liées à celle de la Peste Noire ? Et si oui, comment expliquer la forte baisse de mortalité ?

Pour le comprendre, Verena Schuenemann de l’Université de Tübingen, en Allemagne, et Kirsten Bos de l’Université McMaster, au Canada, ont reconstruit le génome de la bactérie Yersinia pestis, responsable de la Peste Noire médiévale. Les deux scientifiques ont utilisé un nouveau procédé de reconstruction de génome à partir d’échantillons provenant de squelettes de victimes de la Grande Peste à Londres, datés entre 1347 et 1351. Pour la première fois, elles ont obtenu le génome quasi-complet d’une souche bactérienne ancienne.

  • Un génome complet à 99 %

Les scientifiques ont prélevé la pulpe de 46 dents appartenant à quatre squelettes de victimes de la Peste Noire, exposés au musée de Londres puis elles en ont extrait tout l’ADN qu’elle contenait (ADN humain, viral, bactérien…) L’ADN ainsi obtenu a été séquencé, indexé puis amplifié pour augmenter le nombre d’échantillons. « Pour identifier les segments appartenant à Y. pestis, nous avons comparé nos échantillons à un ADN artificiel similaire à celui d’une souche moderne de la bactérie de la peste », explique Verena Schuenemann. Ce qui a permis d’extraire les segments d’ADN de Y. pestis puis de les assembler dans le bon ordre selon son architecture originale. Les chercheuses ont ensuite obtenu le séquençage complet de son génome, c’est-à-dire l’ordre des différentes briques élémentaires de l’ADN : les nucléotides A, T, C ou G. Elles ont ainsi déchiffré 99 % du génome ancien de Y. pestis.

Les scientifiques ont développé ces techniques pour la reconstruction du génome humain dans le cadre du projet « Génome humain » puis de celui de l’homme de Néandertal. Pour obtenir le génome quasi-complet de Y. pestis, V. Schuenemann et K. Bos ont pour la première fois appliqué ces techniques à l’étude d’épidémies anciennes. Des travaux innovants dans le domaine de l’archéologie épidémiologique.

  • Peu d’évolution depuis le Moyen-Age

En comparant le génome obtenu à celui de plusieurs souches modernes, les chercheuses ont constaté seulement 97 modifications de nucléotides entre les génomes récent et ancien de Y. pestis. De plus, il semblerait qu’aucune de ces modifications n’implique de partie codante du génome, autrement dit l’ADN responsable de l’anatomie et du fonctionnement de la bactérie. Elles n’auraient donc pas eu d’effets sur l’activité de l’agent pathogène.

Alors comment expliquer que la peste médiévale ait été si sévère comparée à la souche actuelle ? D’après Elisabeth Carniel, directrice du groupe « Yersinia » de l’Institut Pasteur à Paris, « ces résultats suggèrent peu de modifications de Y. pestis au cours des 660 dernières années. La moindre sévérité de la peste actuelle est donc probablement liée à des changements au sein de notre immunité ainsi qu’aux améliorations de nos conditions de vie (moins de famines, climats plus cléments, meilleure hygiène, etc.) »

La Recherche

Bientôt des prothèses avec la sensation du toucher ?
Mercredi, 02/11/2011 - 00:10

Une interface cerveau-machine avec retour sensoriel tactile permet à des singes d'activer un bras virtuel et de choisir des objets virtuels au toucher, par le seul biais de leur activité cérébrale.

Agir sur un appareil – un ordinateur, une prothèse, un robot… – par la seule entremise de son activité cérébrale : ce rêve de tout patient paralysé semble de plus en plus accessible ces dernières années. Miguel Nicolelis, de l'Université Duke, à Durham en Caroline du Nord – un des pionniers des recherches sur ce que l'on nomme les interfaces cerveau-machine –, et ses collègues viennent de franchir une nouvelle étape. Ils ont mis au point une interface cerveau-machine avec retour sensoriel tactile.

Le contrôle d'une machine par la seule activité cérébrale nécessite un échange d'informations dans les deux sens entre l'homme et la machine : d'une part, l'activité cérébrale de l'homme associée à une commande doit être analysée, puis traduite en action par la machine ; d'autre part, la machine doit transmettre à l'homme un retour – une rétroaction – pour qu'il puisse ajuster son action en temps réel.

Jusqu'à présent, les progrès ont surtout concerné le premier aspect. En 2006, l'équipe de M. Nicolelis a ainsi appris à un rat à abaisser un levier grâce à l'activité de quelques dizaines de neurones de son cortex moteur – la région du cerveau qui commande la motricité. En 2008, Andrew Schwartz, de l'Université de Pittsburg, aux États-Unis, et ses collègues ont entraîné un singe à se nourrir en actionnant un bras mécanique à l'aide d'électrodes implantées elles aussi dans le cortex moteur. D'autres systèmes testés chez le singe ont permis de stimuler des muscles pour bouger un membre paralysé.

Dans toutes ces expériences, la rétroaction était principalement visuelle : l'animal ajustait son comportement en observant le résultat. Toutefois, un tel contrôle est insuffisant pour reproduire des mouvements complexes, telle la marche. Des stimuli tactiles ont parfois été utilisés (vibrations dans une autre région du corps, détournement de l'innervation du membre paralysé vers d'autres régions du corps), mais ces approches sont peu exploitables. La nouvelle interface cerveau-machine conçue par M. Nicolelis et son équipe s'appuie aussi sur une rétroaction tactile, mais qui agit directement au niveau cérébral, et en temps réel.

Chez deux singes, les neuroscientifiques ont implanté des microélectrodes, d'une part dans le cortex moteur primaire et, d'autre part, dans certaines zones du cortex somatosensoriel primaire (la région du cerveau qui traite l'information tactile) : la zone de représentation de la main chez l'un, et de la jambe chez l'autre. Les singes ont d'abord appris à utiliser la rétroaction tactile. En manipulant un bras virtuel sur un écran grâce à une manette, ils devaient retrouver, parmi trois disques virtuels, identiques à l'œil, celui qui présentait la « bonne » texture – celle qui entraîne une récompense (du jus de fruit). Cette texture était indiquée par un signal haute fréquence envoyé directement au cortex somatosensoriel (un autre signal correspondait au deuxième disque, et aucun signal n'était associé au troisième).

Puis les neuroscientifiques ont désactivé la manette. Les singes ont alors appris à commander le bras virtuel via les électrodes implantées dans leur cortex moteur pour retrouver leur récompense. Un obstacle de taille résidait dans le fait que les deux régions corticales implantées sont très proches et interconnectées, ce qui engendre des interférences dans les signaux reçus et émis. M. Nicolelis et ses collègues ont pallié cette difficulté en alternant toutes les 50 millisecondes stimulation et enregistrement de l'activité cérébrale, après avoir vérifié que cela ne perturbait pas l'apprentissage des singes.

Avec ce dispositif, non seulement le singe commande un bras virtuel par sa seule activité cérébrale, mais il a un retour tactile direct qui lui permet d'ajuster les mouvements imprimés au bras virtuel. « S'il ne s'agit pas encore d'une stimulation permettant de ressentir pleinement la présence et l'appartenance du bras virtuel, c'est une étape importante. À ma connaissance, il s'agit là de la première interface cerveau-machine-cerveau », explique Jérémie Mattout, chercheur au sein de l'équipe Dynamique cérébrale et cognition du Centre de recherche en neurosciences de Lyon. Prochaine étape : améliorer la sûreté et la compatibilité des implants cérébraux, ainsi que la longévité des enregistrements, afin d'utiliser durablement de tels dispositifs chez l'homme.

Pour La Science

Quand des neurones se taisent pour améliorer nos performances …
Mardi, 01/11/2011 - 08:51

Pour porter son attention vers le monde, il faut "éteindre" momentanément une partie de soi, et c’est précisément ce que fait le cerveau. Mais pourquoi "éteindre" des neurones au moment où nous en avons le plus besoin ? Une équipe de chercheurs de l’Inserm dirigée par Jean Philippe Lachaux et Karim Jerbi (Centre de Recherche en Neurosciences de Lyon) vient de démontrer qu’un réseau de neurones spécifiques appelé "réseau par défaut" fonctionne en permanence même lorsque nous n’avons rien à faire. Ils démontrent surtout que, lorsque nous devons nous concentrer, ce réseau perturbe la mise en route d'autres neurones spécialisés quand il n'est pas suffisamment désactivé. Ces travaux viennent d’être publiés dans The journal of neuroscience.

Lorsque nous portons notre attention vers ce qui nous entoure, certaines régions du cerveau s’activent : c’est le réseau de l’attention, bien connu des neurobiologistes. Mais d’autres régions interrompent dans le même temps leur activité, comme si elles gênaient d’ordinaire l’orientation de l’attention vers le monde extérieur. Ces régions forment un réseau très étudié en neurobiologie, et appelé communément "réseau par défaut", parce qu’il a longtemps semblé s’activer quand le cerveau n’a rien de particulier à faire. Cette interprétation a été raffinée par dix ans de recherche en neuroimagerie, qui ont fini par associer ce réseau mystérieux ("l’énergie noire du cerveau" selon l’un de ses découvreurs, Marcus Raichle) à de nombreux phénomènes intimes et privés de notre vie mentale : perception de soi, évocation de souvenirs, imagination, pensées ...

Une étude réalisée par une équipe du Centre de Recherche en Neurosciences de Lyon (menée par Tomas Ossandon et dirigée par Jean-Philippe Lachaux, directeur de recherche à l’Inserm et Karim Jerbi, chargé de recherche à l’Inserm) vient de révéler comment ce réseau interfère avec notre capacité à porter attention, en mesurant pour la première fois l’activité des neurones du réseau par défaut dans le cerveau humain à l’échelle de la milliseconde, grâce à une collaboration avec le service d’épilepsie de Philippe Kahane à Grenoble.

Les résultats montrent sans ambiguïté que lorsque nous cherchons un objet autour de nous, les neurones de ce réseau par défaut interrompent leur activité. Mais cette interruption ne dure que le temps strictement nécessaire à la recherche : aussitôt l’objet trouvé, et en un dixième de seconde à peine, le réseau par défaut reprend son activité comme avant. Et si parfois notre réseau par défaut ne se désactive pas suffisamment, nous mettons plus de temps pour trouver l’objet. Ces résultats attestent d’une compétition féroce au sein du cerveau pour nos ressources attentionnelles, qui, lorsqu’elles ne sont pas utilisées pour l’analyse active de notre environnement sensoriel, sont instantanément redirigées vers des processus mentaux plus internes. Le cerveau a donc horreur du vide et ne reste jamais sans rien faire, pas même pendant un dixième de seconde.

INSERM

La cataracte bientôt opérée au laser
Mardi, 01/11/2011 - 08:41

C'est au cours du mois de novembre que le premier laser destiné à la chirurgie de la cataracte sera installé en France. Le début d'un nouveau chapitre dans une chirurgie qui a déjà connu deux grandes révolutions : «Il y a vingt-cinq ans, on ouvrait l'oeil sur plus d'1 cm pour extraire le cristallin opacifié et le remplacer par un implant», rappelle le Professeur Antoine Brézin, chef du service d'ophtalmologie de l'hôpital Cochin-Hôtel Dieu (APHP, Paris). Car le seul moyen de corriger la maladie est d'enlever le cristallin, cette lentille de l'œil devenue moins transparente avec l'âge.

Comme le cristallin est contenu dans un petit sac (la capsule) en arrière de l'iris, il faut faire un trou dans ce sac pour pouvoir l'extraire et le remplacer. Un trou assez grand pour pourvoir sortir le vieux cristallin, mais pas trop pour que l'implant destiné à le remplacer se maintienne en place. «La grande révolution des années 1980 a été la phacoémulsification», explique le Professeur Brézin, une technique qui consiste à introduire une sonde dans la capsule pour fragmenter le cristallin en petits morceaux grâce à des ultrasons. On pouvait alors les extraire avant d'insérer l'implant par une incision de 6 mm. Deuxième révolution, «dans les années 1990, les implants sont devenus pliables, ce qui a permis de se contenter d'une incision de 3 mm», ajoute le spécialiste. Aujourd'hui, les implants sont même roulés comme une cigarette et il suffit d'un trou de 2,2 mm pour les introduire dans la capsule. Un trou tellement petit que l'on se contente d'un gel anesthésiant à la surface de l'œil là où il fallait autrefois faire des piqûres, délicates, autour de l'œil. Même plus besoin de refermer l'orifice, la nature s'en chargeant toute seule !

Pour le Docteur Vincent Dedes, qui opère à la clinique Ambroise-Paré de Lille, où va être installé, mi-novembre, le premier laser femtoseconde (laser à impulsions extrêmement rapides) destiné à la chirurgie de la cataracte, «la qualité de l'incision du sac capsulaire sera parfaitement calibrée grâce au laser, de même que le calcul de l'implant à mettre. La performance du geste devient aussi plus prédictible». Non pas que les résultats de la chirurgie de la cataracte par la méthode traditionnelle soient aléatoires, bien sûr.

Environ 600.000 personnes se font opérer chaque année en France, avec des résultats tout à fait remarquables et les meilleurs chirurgiens ont des taux de complication d'à peine 0,5 %. «Simplement le geste est plus sûr, plus reproductible avec le laser», détaille le Docteur Dedes, «nous l'avons appris dans la chirurgie réfractive, de la myopie par exemple, où le laser s'est imposé». Pourtant, le véritable progrès n'est pas dans la découpe au laser, selon le Professeur Brézin : «Aujourd'hui, la complication la plus fréquente, quoique rare, lors de l'intervention, c'est la rupture de la capsule. C'est un peu comme si vous deviez casser un mur -le cristallin- au-dessus d'une plaque de verre -la capsule. Le laser permet certes de casser le mur en morceaux, c'est un progrès, mais il faut encore recourir aux ultrasons pour les pulvériser en sable. Or les ultrasons sont plus agressifs pour les parois environnantes. L'étape ultérieure, et la véritable révolution, sera de parvenir à se passer des ultrasons et de tout pulvériser grâce au laser.»

Le Figaro

L'ADN, une horloge mécanique pour l'embryon
Mardi, 01/11/2011 - 08:30

La plupart des animaux sont constitués de « tranches » horizontales, cette segmentation étant plus ou moins visible selon les espèces. Chez les vertébrés, chaque tranche coïncide, approximativement, avec une vertèbre. Cette fragmentation est particulièrement visible lors du développement embryonnaire pendant lequel l'organisme se construit étage par étage, chacun se distinguant qui par des membres, qui par des côtes... Un nouvel étage se forme exactement toutes les 90 minutes, et ce, pendant 48 heures : les étapes suivantes consisteront en l'enrichissement de ces différentes strates, par exemple par l'adjonction de membres. Denis Duboule, de l'École polytechnique fédérale de Lausanne, en Suisse, et ses collègues, notamment de l'Université de Genève, ont précisé les mécanismes de cette horlogerie de précision.

Les engrenages sont ici des gènes nommés Hox répartis en quatre groupes (de HoxA à HoxD). Ils s'expriment successivement, leur ordre dans l'ADN reflétant celui de leur activation le long de l'axe du corps : les gènes de HoxA s'expriment plutôt dans la partie antérieure de l'embryon (du côté des vertèbres cervicales), les gènes HoxD dans sa partie postérieure (le coccyx). À une organisation en une dimension des gènes le long de l'ADN correspond donc une autre en trois dimensions, celle du corps. Ces liens étaient connus depuis le début des années 2000, mais on ignorait comment ils se traduisent en termes de structure de l'ADN dans le noyau des cellules. Sur quelle dynamique est fondée cette relation entre ADN et morphologie ?

Pour le découvrir, les biologistes suisses ont utilisé des dispositifs d'imagerie qui enregistraient en haute définition la conformation de la chromatine (l'organisation de l'ADN dans le noyau) dans divers échantillons de tissus embryonnaires. Ils ont mis en évidence une sorte de compartimentation dans le noyau. Au début, tous les gènes Hox sont enfouis dans une pelote d'ADN : aucun ne peut s'exprimer, ils sont bloqués notamment par des protéines (des histones H3K27me3) qui empêchent toute transcription en ARN. Puis, les gènes sortent progressivement de cette pelote de dormance et changent d'environnement. Les histones H3K27me3 sont remplacées par d'autres (H3K4me3) et l'ADN se déploie, de façon à autoriser la transcription des gènes et donc la production des protéines codées. De la sorte, deux compartiments (celui où les gènes sont en dormance et celui où ils sont actifs) apparaissent, distingués par le type d'histones qu'on y trouve. En 48 heures, tous les gènes sont passés de l'un à l'autre, scandant l'établissement des étages de l'embryon !

L'horloge Hox est donc « mécanique » en ce sens qu'elle fonctionne grâce au passage d'un fil (l'ADN) d'un compartiment où la transcription est inactive à un autre où elle est active. Selon D. Duboule, ce principe confère une grande stabilité au système, à la différence des autres horloges naturelles, par exemple circadienne, fondée sur une chimie complexe. De fait, tout écart dans le déroulement de l'horloge Hox donne probablement naissance à une nouvelle espèce !

Pour La Science

La vitamine D, déterminant de la masse et de la force musculaire ?
Lundi, 31/10/2011 - 00:40

La sarcopénie est une perte progressive de la masse musculaire et de la force associée au vieillissement. Les personnes âgées présentent fréquemment une malnutrition, une anorexie et une diminution du taux de vitamine D. Récemment, il a été mis en évidence un rôle de la vitamine D dans le métabolisme musculaire lié à la présence de récepteurs à la vitamine D (VDR) dans le tissu musculaire squelettique et plusieurs études ont montré que l’expression des récepteurs VDR diminuait avec l’âge. Cependant, le lien entre  niveaux de vitamine D et la masse musculaire ou la force reste mal connu.

Les auteurs de ce travail ont étudié les relations entre taux sérique de 25-hydroxyvitamine D (25 (OH) D), 1,25-dihydroxyvitamine D (1,25 (OH) 2D), hormone parathyroïde (PTH) et masse musculaire squelettique.Trois cent onze hommes (âge moyen, 56 ans, 23-91 ans) et 356 femmes (âge moyen, 57 ans, 21-97 ans) tirés au hasard dans la population générale ont été inclus dans l’analyse.

La masse musculaire squelettique a été évaluée par absorptiométrie à rayons X et la force musculaire par la force de préhension et le moment de force isométrique lors de l'extension du genou. Il n’existait aucune association entre taux sériques de 25 (OH) D ou de PTH et les mesures de la masse musculaire ou de la force, que ce soit chez les hommes ou chez les femmes. Cependant, chez les sujets de moins de 65 ans, il y avait une association statistiquement significative entre un faible taux de 1,25 (OH) 2D et une faible masse musculaire chez les hommes et les femmes et un  faible moment isométrique de l’extension du genou chez les femmes, après ajustement pour les facteurs confondants potentiels.

Des taux bas de 25 (OH) D ou des taux élevés de PTH ne semblent pas contribuer à la sarcopénie ou à la faiblesse musculaire chez l’adulte. Le lien entre une faible concentration sérique de 25 (OH) D et le risque de chute accru rapporté précédemment dans d'autres études peut être dû à des facteurs qui affectent la fonction neuromusculaire, plutôt que la force musculaire. L'association entre un taux faible de 1,25 (OH) 2D, une masse musculaire basse et un faible moment d’extension du genou, en particulier chez les sujets jeunes nécessite des explorations supplémentaires.

JIM

Cancer : les espoirs de la médecine personnalisée
Lundi, 31/10/2011 - 00:10

Les méthodes de traitement du cancer sont en pleine transformation. Fini le temps où l'on cherchait à donner le même médicament à tout le monde. Centres de recherche et laboratoires pharmaceutiques misent désormais sur la médecine personnalisée. Son principe ? « Deux personnes atteintes du même cancer peuvent répondre de manière différente à un même traitement, résume Vladimir Lazar, directeur de la plate-forme de biologie intégrée à l'Institut Gustave-Roussy. Tout l'enjeu est d'identifier le bon médicament pour le bon patient. » Mais passer de la théorie à la pratique n'est pas une mince affaire. « Ce domaine de recherche est encore balbutiant, reconnaît Christophe Le Tourneau, oncologue à l'Institut Curie. Dans l'esprit des gens, ce sont des thérapies miracle qui permettent de guérir. Mais on n'en est pas encore là, même si elles permettent déjà d'augmenter la survie dans plusieurs types de cancers. »

Aujourd'hui, les traitements sont déjà personnalisés, dans une certaine mesure. Les médecins classent les tumeurs en divers sous-types, selon leur localisation et leur agressivité, mais aussi selon l'âge du patient et la forme des cellules touchées, ce qui permet d'adapter les actes de chirurgie, de radiothérapie et de chimiothérapie. « Mais les thérapies ciblées vont plus loin, assure Sylvie Négrier, directrice du centre de lutte contre le cancer de Lyon. Leur effet étant lié aux caractéristiques moléculaires de la tumeur, nous sommes capables de sélectionner par avance les patients qui répondront à tel ou tel traitement, et donc de gagner en efficacité tout en limitant les soins inutiles. »

De telles avancées sont liées à une meilleure compréhension de la maladie. On sait maintenant qu'un même cancer peut cacher différents mécanismes moléculaires. Cela se traduit par la présence d'anomalies biologiques différentes, qui jouent un rôle dans le développement des tumeurs. Ces altérations peuvent toucher la cellule tumorale (au niveau des récepteurs membranaires et des protéines cytoplasmiques ou nucléaires), mais aussi la régulation des gènes. Aussi, contrairement aux chimiothérapies classiques, qui empêchent la multiplication de toute cellule malade ou saine, les thérapies ciblées sont des molécules spécifiquement dirigées contre ces anomalies biologiques. Ces agents thérapeutiques (anticorps ou petites molécules de synthèse le plus souvent) agissent alors comme des interrupteurs qui viennent bloquer la cascade d'informations permettant à la cellule cancéreuse de se répliquer.

Cette approche sur mesure est incarnée par l'Herceptine, de Roche Commercialisé depuis 1998, ce médicament est destiné aux patientes atteintes d'un cancer du sein qui expriment fortement le gène HER2. Depuis, une dizaine de traitements ciblés ont vu le jour. Et le mouvement s'accélère : de nombreux laboratoires y consacrent désormais l'essentiel de leurs investissements en R&D.

Ces nouveaux traitements sont déjà associés aux chimiothérapies classiques et s'adressent en priorité aux stades métastatiques. « On estime qu'environ 30 % des cancers fréquents sont actuellement concernés par la médecine personnalisée », indique Sylvie Negrier. Mais cela varie d'une molécule à une autre. Pour l'herceptine, seuls 20 % des cancers du sein sont par exemple concernés. Quant au bénéfice thérapeutique, il est « variable », estime l'Académie nationale de médecine dans un rapport publié en mars 2011. L'institution reconnaît que certains pronostics ont été bouleversés. Les patients atteints de leucémie myéloïde chronique, par exemple, peuvent désormais espérer stabiliser leur maladie grâce au Glivec.

D'autres molécules ciblées ont considérablement amélioré l'espérance de vie, comme l'Herceptine, l'Avastin, le MabThera ou l'Iressa. Cette dernière a permis de faire passer la survie d'environ deux à douze mois pour certains cancers broncho-pulmonaires. Doit-on s'attendre à des progrès rapides ? La partie sera difficile, tant les obstacles demeurent à chaque étape du processus. « On ne pourra jamais tester toutes les anomalies biologiques pour la multitude de sous-groupes correspondants », assure Christophe Le Tourneau. Aussi, la stratégie vise plutôt à identifier les « drivers », ces anomalies dont on pense qu'elles jouent un rôle déterminant dans l'apparition et l'évolution de la maladie. Dans ce but, le séquençage de l'ADN est devenu un outil indispensable pour recenser les anomalies génétiques.

Les Echos

Une bactérie serait impliquée dans le cancer du côlon
Dimanche, 30/10/2011 - 01:00

Voilà une nouvelle qui apporte du grain à moudre à l'hypothèse d'une origine infectieuse des cancers du côlon et du rectum. On savait déjà que des virus pouvaient être impliqués dans les processus tumoraux. Par exemple, le HPV (papillomavirus) est responsable des cancers du col de l'utérus et les virus de l'hépatite B et C sont en cause dans le cancer du foie. On a même identifié une bactérie (Helicobacter pylori) dans la genèse du cancer de l'estomac. La liste pourrait encore s'allonger. Selon les travaux publiés simultanément par deux équipes nord-américaines dans la revue spécialisée Genome Research, une bactérie habituellement peu répandue dans le tube digestif terminal, fusobacterium, est curieusement présente en abondance dans certains cancers du côlon.

L'équipe de Matthew Meyerson, à Harvard (États-Unis), l'a par exemple constaté en analysant l'intégralité du génome présent dans des carcinomes (cancer) colorectaux. «Nos résultats démontrent une association entre fusobacterium et les cancers du côlon. Cela soulève la possibilité que fusobacterium puisse jouer un rôle moteur dans la cancérogénèse», explique le Docteur Aleksandar Kostic (Harvard), premier signataire de l'article, avant de pondérer : «D'un autre côté, il est possible que fusobacterium s'accumule là après que la tumeur se soit formée». L'autre équipe de chercheurs, canadiens cette fois, a identifié la même bactérie, dans des échantillons congelés de tumeurs du côlon.

Le Professeur Jean-Philippe Merlio, chef du service de biologie des tumeurs au CHU de Bordeaux, reste prudent : «Pour dire qu'un cancer est lié à une bactérie, il faut non seulement une association mais aussi une preuve de la responsabilité de l'agent infectieux et avoir vérifié la possibilité de l'inhiber». Avoir isolé la bactérie dans une tumeur serait donc une condition nécessaire mais insuffisante ? «Pour démontrer le rôle causal de fusobacterium dans la cancérogénèse du cancer, s'il y en a un, on devra introduire la bactérie dans des souris et constater le développement de cancers du côlon. Il faudra ensuite prélever ces bactéries sur ces souris, les introduire dans d'autres et provoquer ainsi de nouveaux cancers du côlon», détaille le Docteur Kostic.

Cancérologue digestif et directeur de recherche d'une unité Inserm sur la chimiothérapie et la réponse immunitaire à Dijon, le Docteur François Ghiringhelli, n'écarte pas la possibilité que l'écologie bactérienne du côlon puisse être un facteur déclenchant de cancer : «Suivant l'alimentation, on pourrait modifier la flore intestinale et favoriser la carcinogénèse. Ici, c'est une bactérie qui pourrait jouer un rôle dans l'initiation ou le développement des cancers du côlon. Si cela se confirme, s'ouvriraient alors des perspectives thérapeutiques en éliminant la bactérie.»

Le Figaro

Un microstimulateur contre certaines céphalées
Samedi, 29/10/2011 - 01:30

Les algies vasculaires de la face (ou " cluster headache ") se caractérisent par des crises douloureuses très intenses centrées sur un oeil et accompagnées de signes végétatifs du côté atteint. Parmi les personnes qui y sont sujettes, avant tout des hommes, 10 % présentent la forme chronique de la maladie où il n'y a plus de répit et les crises sont quotidiennes. Parmi eux une majorité devient en plus résistante au traitement médicamenteux. Bonne nouvelle : des chercheurs ont réussi à réduire la fréquence des crises à l'aide d'un microstimulateur implanté.

Si de simples maux de tête nous rendent parfois la vie impossible, ils restent peu douloureux par rapport aux algies vasculaires de la face... Douleurs chroniques unilatérales, celles-ci sont intenses parfois jusqu'à l'intolérable. Les crises peuvent survenir plusieurs fois sur 24 heures, sont souvent nocturnes et durent entre 30 minutes et 3 heures. Outre la douleur, elles s'accompagnent du même côté de congestion nasale, de rougeur de l'oeil, de larmoiement et de gonflement des paupières. " Cette pathologie touche une personne sur 1000, une incidence comparable à celle de la sclérose en plaque, explique Jean Schoenen, directeur de l'Unité de Recherches sur les Céphalées de l'Université de Liège au Service Universitaire de Neurologie de l'Hôpital de la Citadelle et au GIGA-Neurosciences du CHU-Sart Tilman. Dans la grande majorité des cas, le traitement le plus efficace de la crise est l'injection sous-cutanée de sumatriptan par auto-injecteur et/ou l'inhalation d'oxygène pur par masque. Cependant certains patients ne peuvent recevoir le sumatriptan à cause d'un risque cardiovasculaire trop élevé. De plus, 10% des patients développent la forme chronique de la maladie et deviennent résistants aux médicaments. Ces patients ont leur vie ruinée par la maladie et deviennent suicidaires. " C'est dire si mettre au point un traitement efficace là où les traitements classiques faillissent est une priorité !

  • Un microstimulateur à activer soi-même

La cause exacte de ce type de céphalée est encore mal connue mais cela fait plusieurs années que les chercheurs savent que le ganglion sphéno-palatin joue un rôle important dans la survenue et l'entretien des crises. Ce ganglion qui est logé dans la fosse du même nom derrière la mâchoire supérieure et innerve du même côté les glandes de la moitié du visage, est en communication avec les fibres nerveuses du nerf trijumeau qui conduisent la douleur. "Les crises s'accompagnent d'une activation du ganglion sphéno-palatin, ce qui explique des larmoiements, des rougeurs de l'oeil, du gonflement des paupières et de la congestion nasale. Greenfield Sluder, un ORL américain, a été le premier à pointer en 1903 le rôle du ganglion sphéno-palatin. Depuis lors, on sait qu'on peut interrompre une crise en touchant le fond de la narine avec un coton d'ouate imbibé de liquide de Bonain, ce qui paralyse le ganglion tout proche. En se basant sur ces informations, le Docteur Jean-Claude Devoghel de l'Université de Liège a mis au point dans les années 1980 un traitement par injection d'alcool dans le ganglion sphéno-palatin via la tempe", explique Jean Schoenen. Comme cette technique donnait de bons résultats, mais des résultats transitoires, on a cherché des moyens pour modifier de façon plus durable le fonctionnement du ganglion.

En 2010, le docteur Ansirinia et ses collègues de Las Vegas ont prouvé le concept en stimulant le ganglion avec une électrode implantée temporairement par la voie utilisée par JC Devoghel chez quelques patients hospitalisés : la stimulation à haute fréquence du ganglion sphéno-palatin a interrompu les crises dans 78 % des cas. "A partir de ces résultats, une entreprise californienne, Autonomic Technologies Inc, a décidé de développer un microstimulateur à implanter près du ganglion sphéno-palatin via la gencive de la mâchoire supérieure." Elle prend la forme d'un petit implant en polymère dépourvu de pile, et adaptable à l'anatomie de la fosse sphéno-palatine. Le patient peut activer la microélectrode à la demande en plaçant un petit générateur de champ électro-magnétique sur la joue.

Quant à la technique d'implantation, elle a été mise au point à Liège et est sans cesse améliorée par les Dr Alain Wilmont et Sandrine Machiels, des Service de Chirurgie maxillo-faciale et d'ORL du CHR de la Citadelle. Les premiers essais ont été réalisés sur cadavres grâce à l'infrastructure offerte par les nouvelles salles de dissection et de travaux pratiques du Service d'Anatomie au CHU du Sart Tilman. " Il s'agit de placer l'implant dans la fosse sphéno-palatine derrière la mâchoire supérieure à un endroit bien précis près du ganglion, sans toucher la deuxième branche du nerf trijumeau. " Une fois en place et la cicatrisation faite, le microstimulateur implanté est activé manuellement par les patients : "Quand une crise commence, le patient place une petite manette sur sa joue qui génère un champ électromagnétique. Ce champ active le microprocesseur qui va à son tour produire une stimulation électrique à haute fréquence du ganglion sphéno-palatin pendant 15 minutes. Cette stimulation bloque le trafic nerveux au niveau du ganglion." Cette nouvelle technique est étudiée simultanément en Allemagne, en Italie, en Espagne, en France, au Danemark et en Belgique dans une étude multicentrique coordonnée par l'Université de Liège, qui inclut en double aveugle une phase où certaines stimulations sont fictives (stimulations " placebo "). Elle a déjà fourni des résultats préliminaires très enthousiasmants !

  • Des crises moins fréquentes

Jusqu'à présent, 22 patients ont été implantés et les médecins ont pu analyser les résultats préliminaires obtenus chez 7 de ces 22 patients, les autres n'étant pas enrôlés dans l'étude depuis assez longtemps. " Nous avons constaté que 70 % des crises étaient arrêtées dans les 15 premières minutes suivant la mise en route du microstimulateur, explique Jean Schoenen. Ce qui est déjà très encourageant mais il ne s'agit pas là du seul résultat ! Nous avons également remarqué chez certains patients que plus ils stimulent leur ganglion sphéno-palatin, plus la fréquence des crises diminue. " Ainsi, chez 6 patients testés, la fréquence des crises a diminué de 80 % et les crises qui ont persisté étaient moins intenses. Ajoutez à cela que l'implant ne s'accompagne que de légers effets secondaires transitoires et vous comprenez l'enthousiasme des chercheurs... et des patients ! " Il n'y a pas d'effet secondaire grave avec cette technique. Pour l'instant, nous avons uniquement observé un gonflement de la joue dans les jours qui suivent l'implantation et quelques douleurs transitoires dans la mâchoire. Lorsque l'électrode est mal placée, elle peut exceptionnellement entraîner des douleurs au niveau de la face, dues à la stimulation de la 2ème branche du trijumeau (le nerf maxillaire). Cependant, plus l'étude avance, plus la technique d'implantation devient précise et le risque d'un mauvais placement de l'électrode de stimulation se réduit. "

L'étude n'en est encore qu'à ses débuts, le recrutement des patients se termine à l'automne 2011 et la seconde salve de résultats devrait être connue en février 2012.

En outre, comme le ganglion shéno-palatin pourrait aussi jouer un rôle dans les migraines, les chercheurs ont mis au point un protocole d'étude dans cette maladie qui touche 1 femme sur 5 et qui peut aussi devenir résistante aux médicaments. " Les résultats dans le cluster headache doivent être confirmés sur le long terme, mais ils sont suffisamment encourageants pour tester la microstimulation du ganglion sphéno-palatin dans la migraine sévère, d'autant que 30-50 % des migraineux ont aussi une oeil rouge et larmoyant, ou le nez bouché ou coulant pendant les crises.

Bulletins Electroniques

L'alimentation peut modifier nos gènes
Samedi, 29/10/2011 - 01:00

Le fait de manger des fruits et des légumes modifie l'effet d'une certaine région d'un gène sur le coeur, montrent les travaux de chercheurs des universités McMaster et McGill. Le Docteur Jamie Engert et ses collègues ont découvert que les variations du chromosome 9p21, qui est le principal marqueur de la maladie cardiaque, peuvent être modifiées par la consommation d'une grande quantité de fruits et de légumes crus.

On sait que les variantes du 9p21 augmentent le risque de maladie cardiaque chez les personnes qui en sont porteuses. Quelle surprise c'était de découvrir qu'un régime alimentaire sain et équilibré pouvait en réduire considérablement l'effet !

Ainsi, les résultats montrent que les personnes à haut risque génétique qui adoptent un régime alimentaire composé de légumes crus, de fruits et de baies présentent un risque de crise cardiaque similaire à celui des personnes qui ont un faible risque. D'autres recherches sont nécessaires afin de comprendre le mécanisme de cette interaction.

Par ailleurs, ces travaux montrent que la consommation d'une grande quantité de légumes verts renforce le système immunitaire et qu'a contrario une alimentation pauvre en légumes verts entraîne une disparition des lymphocytes protecteurs à la surface de l'intestin.

Ces résultats, publiés dans la revue PLoS Medicine, vont à l'encontre de l'idée selon laquelle il est impossible de changer son bagage génétique ni les effets des gènes qui sont transmis.

Radio Canada

La longévité transmise aux descendants !
Vendredi, 28/10/2011 - 06:40

Pour la première fois, des chercheurs ont mis en évidence la transmission d'une génération à une autre de caractères épigénétiques induisant une augmentation de la longévité. Des résultats surprenants et pas complètement expliqués.

Les nématodes sont des animaux particulièrement étudiés en laboratoire. C’est sur Caenorhabditis elegans que les recherches d’une équipe de scientifiques d’Harvard et de Stanford ont porté. Ils ont montré que ces vers étaient capables de transmettre des caractères épigénétiques à leur descendance. En l’occurrence, la capacité de ralentir le vieillissement.

L’épigénétique peut être résumée comme l'ensemble des facteurs qui influencent l’expression des gènes. C’est-à-dire qu’elle ne concerne pas l’ADN à proprement parler (l’ordre des bases notamment), mais tout ce qui joue sur la lecture ou l’expression de cet ADN.

  • Des modifications épigénétiques augmentent la longévité de 30 %

Le nématode Caenorhabditis elegans est un modèle précieux en biologie puisque sa durée de vie est d’environ 3 semaines. Il est donc assez commode d’étudier les mécanismes du vieillissement sur cet animal. Des modifications épigénétiques au niveau de l'ADN de ce ver ont pour conséquence un accroissement de sa longévité. Celle-ci est sous le contrôle de quelques gènes. Il est possible de jouer sur l’expression de ces gènes en attachant ou en retirant des marques chimiques sur les segments d’ADN concernés et sur les histones (des protéines autour desquelles l’ADN s'enroule donnant sa forme caractéristique au chromosome). En retirant des groupements méthyle (CH3) à certains endroits d’une histone (sur le complexe H3K4me3), les chercheurs avaient déjà montré qu’il était possible d’augmenter la longévité des vers d’environ 30 %.

Mais cette fois-ci, ils sont allés plus loin. Non seulement, cette modification épigénétique permet de ralentir le vieillissement du ver possesseur du complexe H3K4me3 altéré, mais en plus, ce caractère est transmis à la génération suivante, comme les auteurs l'expliquent dans la revue Nature. C’est un résultat assez surprenant puisqu'il avait été montré précédemment que les altérations d’ADN et d’histones, ou autres modifications épigénétiques, étaient en général supprimées lors de la méiose, division cellulaire menant à la formation des gamètes.

  • Modifications épigénétiques transmises... sur 3 générations

Alors comment ce caractère a-t-il pu être transmis à la génération suivante ? Les chercheurs l’ignorent mais c’est sur cette questions qu’ils se concentrent maintenant, ainsi que sur une autre particularité : si le caractère est effectivement transmis à la génération suivante, puis à celle d’après, cette transmission n’est en revanche pas éternelle et s’arrête après la troisième génération.

Concernant cette curiosité, les scientifiques ont leur petite idée. Ils ont émis l’hypothèse que le complexe H3K4me3 contient un gène codant pour des protéines impliquées dans la réinitialisation des modifications épigénétiques. En modifiant ce complexe dans le but de prolonger la vie du ver, les mécanismes censés nettoyer les modifications génétiques sont donc également altérés.

  • Une exception chez C. elegans ?

Le but des recherches sur C. elegans est d’une part de mieux connaître les mécanismes de l’expression des gènes impliqués, notamment, dans le vieillissement et l’apoptose, mais ensuite, il est intéressant de déterminer si ces mécanismes sont similaires chez les autres animaux et notamment chez les mammifères. Dans cette optique, le fait qu’une partie du complexe H3K4me3 soit également présente dans la plupart des organismes dont les mammifères, est encourageant.

C’est la première fois qu’une étude scientifique met en évidence la transmission d’un caractère épigénétique conférant une augmentation de la longévité. Une consécration pour une discipline encore assez jeune mais en plein essor.

Futura-Sciences

Le génome du plus gros virus connu est décodé
Vendredi, 28/10/2011 - 06:30

En 2004, la découverte de Mimivirus (pour Mimicking-microbe virus, ou "virus imitant le microbe") et le séquençage de son génome avaient semé un trouble considérable dans la communauté des virologues et, plus encore, dans celle des spécialistes de l’évolution. C’était, selon le mot d’une biologiste canadienne qui découvrait la bestiole, "un chaînon manquant dont on ignorait qu’il manquait" : un virus plus gros et au génome plus vaste et plus complexe que bien des bactéries. La découverte d’un insecte de la taille d’un éléphant n’aurait pas été plus étonnante. Le record établi voilà un peu plus de sept ans par Mimivirus, avec son millier de gènes, vient toutefois d’être battu avec la découverte, par des chercheurs du laboratoire Information génomique et structurale (CNRS-Université de la Méditerranée), d’un nouveau virus géant. Ce dernier, baptisé Megavirus chilensis, a été découvert le long des côtes chiliennes, aux abords de la station biologique de Las Cruces.

Le génome de la bête, publié lundi 10 octobre dans la revue Proceedings of the National Academy of Sciences (PNAS), est plus gros d’environ 6,5 % que celui de Mimivirus. Mais ce n’est pas tout. "Jusqu’à présent, les autres virus géants décrits depuis la découverte de Mimivirus était remarquablement proches de ce dernier, avec des génomes identiques à plus de 95 %, explique Jean-Michel Claverie, directeur de l’IGS et coauteur de ces travaux. C’est donc un peu comme si on avait retrouvé des isolats différents du même virus. Ici, une chose importante est que non seulement Megavirus chilensis est plus gros que Mimivirus, mais il est aussi très différent : il ne partage avec ce dernier que 50 % environ de son ADN."

De fait, à la découverte de Mimivirus, un débat avait surgi sur la nature du génome monumental du nouveau venu. Celui-ci était-il un "vrai" génome ou n’était-il qu’une succession de séquences n’ayant jamais été fonctionnelles, ayant simplement été "empruntées" aux hôtes successifs infectés par le virus ? La controverse était d’autant plus aigüe que certaines séquences génétiques présentes dans l’ADN de Mimivirus ne pouvaient appartenir qu’à des êtres vivants : il s’agissait de séquences synthétisant des enzymes censées être l’apanage des organismes cellulaires. C’est-à-dire l’apanage de la vie, telle qu’elle était définie. Ces quatre séquences génétiques tendaient donc à rattacher le gros virus à l’arbre du vivant, au même titre que les eucaryotes (plantes, animaux et champignons), les bactéries et les archées.

Or, que trouve-t-on dans Megavirus chilensis ? Ces quatre mêmes séquences, agrémentées de trois nouvelles, également impliquées dans le fonctionnement cellulaire. Et donc là encore présumées absentes des virus – qui n’ont de cellules que celles des organismes qu’ils infectent. Au total, sept de ces séquences "suspectes" agrémentent donc le génome de Megavirus chilensis. "Cela suggère que Megavirus chilensis et Mimivirus descendent d’un ancêtre commun cellulaire", dit M. Claverie. De quoi faire avancer le débat sur la définition de la vie et de l’opportunité d’ajouter une quatrième branche à l’arbre de la vie.

Le Monde

Épilepsie : les avancées de la chirurgie
Vendredi, 28/10/2011 - 06:10

Une vaste étude montre que dix ans après une opération de neurochirurgie destinée à traiter leur épilepsie, la moitié des patients n'a pas refait de crise grave. Les résultats présentés récemment dans la revue internationale The Lancet par une équipe anglaise (Hôpital national pour la neurologie et la neurochirurgie, Londres) sur plus de 600 patients sont peut-être un peu moins bons que ce que l'on espérait, mais ils n'en demeurent pas moins spectaculaires. «C'est une étude un peu pessimiste après un enthousiasme un peu excessif», résume le Professeur Bertrand Devaux, neurochirurgien à l'hôpital Sainte-Anne (Paris), qui a cordonné la dernière grande étude sur le sujet en France. C'est aussi l'avis du Docteur Vincent Navarro, épileptologue à l'hôpital de la Pitié-Salpêtrière (Paris) pour qui «le principal message de cette étude, c'est que globalement les résultats de la chirurgie sont excellents. En tout cas, bien meilleurs que ceux que l'on demande à un nouveau médicament antiépileptique pour être commercialisé».

Certes, la chirurgie ne concerne pas les 500.000 Français souffrant d'épilepsie, puisque l'on estime à moins de 6000 ceux qui pourraient en bénéficier, mais on est bien en dessous des 400 interventions pratiquées chaque année dans notre pays. «C'est avant tout un problème de prise de conscience. Il faut mieux identifier les patients susceptibles d'être opérés», estime le Professeur Devaux : «un enfant qui souffre d'épilepsie sévère, un patient qui a été récusé pour la chirurgie cinq ou dix ans plus tôt, mais qui continue d'avoir des crises sévères et handicapantes malgré ses médicaments, un enfant qui a des absences suffisamment nettes pour être repérées à l'école ou par ses proches.» L'idée sous-jacente n'est évidemment pas de proposer la chirurgie à tout le monde, mais plutôt de s'assurer que les patients pour qui elle a le plus de chance d'être efficace aient cette opportunité.

Cette chirurgie consiste à retirer la minuscule portion de cerveau sujette aux décharges électriques. L'intervention en elle-même s'effectue de manière classique par résection chirurgicale du foyer. Des essais sont en cours pour détruire les lésions très petites avec une irradiation très focalisée, selon une procédure dite «Gamma Knife». «L'étude britannique confirme en tout cas qu'il y a des interventions qui peuvent marcher très bien sur certaines épilepsies, conclut le Professeur Devaux en pesant ses mots. Il ne faut pas seulement regarder les chiffres de guérison, il faut aussi tenir compte des patients qui ont été améliorés. Les statistiques sont très bien pour donner des repères, mais ce qui compte pour un patient, ce sont les bénéfices et les risques qui l'attendent.»

Le Figaro

Une étude scientifique démontre pour la première fois le lien entre pollution et athérosclérose
Vendredi, 28/10/2011 - 06:00

Des chercheurs suédois ont mis en évidence pour la première fois un lien entre des polluants chimiques comme la dioxine et les PCB, présents dans l'environnement, et l'athérosclérose. Cette affection se traduit par un épaississement et une perte de souplesse des parois artérielles, ce qui finit par entraîner à terme des problèmes cardiovasculaires.

On savait déjà que des polluants comme les dioxines, les pesticides ou encore les polychlorobiphényles (PCB) pouvaient s'accumuler dans les tissus adipeux et les parois internes des artères. Mais ces travaux suédois menés à l'Université d'Uppsala ont démontré un lien formel entre l'exposition à ce type de polluants et le risque d'athérosclérose. Bien que la plupart de ces substances soient aujourd'hui interdites en Suède, comme dans beaucoup d'autres pays, elles ont une durée de vie très longue et sont donc toujours présentes dans l'environnement.

Cette étude a porté sur 1000 habitants d'Uppsala qui ont subi régulièrement des analyses sanguines pour mesurer le taux de concentration de ces substances dans leur sang ainsi que l'état de leurs artères carotides à l'aide de l'écographie-doppler. Les chercheurs ont ainsi pu montrer que les personnes présentant des concentrations importantes de polluants dans le sang étaient également celles dont les artères étaient le plus touchées par l'athérosclérose.

"Cette étude montre de manière rigoureuse que l'exposition prolongée aux composés organiques à longue durée de vie constitue bien, au même titre que le tabac, le diabète, l'hypertension ou le surpoids, un facteur de risque majeur d'athérosclérose et cela d'autant plus que ces substances s'accumulent dans l'organise avec le temps" souligne le professeur Lars Lind qui a dirigé cette étude. Ces recherches vont à présent se poursuivre pour mieux évaluer le lien entre l'exposition à ces polluants et le risque direct de maladies cardio-vasculaires ou d'accidents vasculaires cérébraux.

Science Daily

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les entreprises européennes ont boosté leurs dépenses de R&D en 2010
Samedi, 29/10/2011 - 01:40

Selon l’édition 2011 du Tableau de bord de l’Union européenne sur les investissements en R&D industrielle, les entreprises européennes ont augmenté leur effort de 6,1 %. Mais elles restent à la traîne par rapport aux entreprises américaines et asiatiques.

C’est une bonne nouvelle pour l’innovation. Les investissements en recherche et développement  reprennent dans le monde. Après une baisse générale de 1,9 % en 2009, ils repartent à la hausse avec une augmentation de 4 % en 2010. C’est ce qui ressort de l’édition 2011 du Tableau de bord de l’Union européenne sur les investissements en R&D industrielle, qui vient d’être publié par la Commission européenne. Cette étude passe au crible les données des 1 400 premières entreprises mondiales.

Dans un contexte de crise financière exacerbée, les entreprises européennes se démarquent par une performance supérieure à la moyenne, en gonflant leur effort de R&D de 6,1 %, après une chute de 2,6 % en 2009. Mais elles font moins bien que les entreprises américaines qui ont boosté leurs investissements en recherche et développement de 10 %. Sans parler des entreprises chinoises qui ont littéralement fait exploser ce poste de dépenses de 29,5 %, ou des entreprises sud-coréennes qui ont l’augmenté de 20,5 %.

Les disparités existent aussi au sein de l’Union européenne. L’Allemagne, favorisée par ses constructeurs automobiles, affiche une croissance des dépenses de R&D de 8,1 %, devant la Grande-Bretagne (5,8 %) ou la France (3,8 %).

En France, où les dépenses de R&D atteignent 25,1 milliards d’euros en 2010, parmi les entreprises ayant donné le plus grand coup de pouce à leurs investissements en recherche et développement figurent Gameloft (+78 %), Boiron (+66 %), Nexter (+43,5 %), Vivendi (+27 %), Soitec (+39 %), Parrot (+34 %), Alstom (+26 %) et JC Decaux (+29 %).

Parmi les plus fortes baisses, on note Bull (-62 %), Akka Technologies (-42 %), Bouygues (-20 %), CS Communication & Systèmes (-14 %), Safran (-14 %), Renault (-11 %), Alcatel-Lucent (-6 %), Neopost (-7 %) et  Sanofi-Aventis (-4%).

Industrie & Technologies

Lyon, première ville de France à proposer Car2go, système d'auto-partage géolocalisé
Samedi, 29/10/2011 - 01:30

Au début de l'année prochaine, Lyon expérimentera un nouveau système d’auto-partage, au tarif de 17 euros l'heure, baptisé Car2go. Deux cents Smart fortwo bleues et blanches apparaîtront dès janvier prochain dans les rues de l'agglomération.

Ce nouveau concept est proposé par la société Car2go, une filiale du constructeur germanique Daimler-Benz, le fabricant des Smart et du loueur Europcar, qui gérera le parc automobile lyonnais. Pas besoin de réserver, ni de se rendre dans une station. Il s'agit d'un concept assez original de voitures en auto-partage qui ne seront pas garées dans des stations spécifiques, mais en pleine rue. Les voitures en location : deux cents Smart fortwo, de deux places, seront équipées du système start and stop qui interrompt le moteur lorsque le véhicule est à l'arrêt devant un feu rouge ou dans des embouteillages.

Lyon sera ainsi la première ville de France à tester ce concept mis au point par le constructeur automobile Daimler-Benz, en partenariat avec Europcar qui peut ainsi tester de nouveaux systèmes de location de voiture plus souples que le système traditionnel. Le concept Car2go fonctionne déjà à Ulm et Hambourg en Allemagne, Vancouver au Canada, ainsi qu’à San Diego et Austin aux Etats-Unis. Le système Car2go a le mérite de la simplicité car il ne compte pas de bornes comme pour les Velov'. On peut laisser les Smart bleues et blanches n'importe où en ville, mais en surface. Sans doute là le talon d'Achille du système, puisque les places de parking sont une denrée plutôt rare, surtout en centre-ville. A moins, comme l'estime Gérard Collomb, que « les utilisateurs se garent peut-être à proximité d’une bouche de métro et finiront leur course en transport en commun ». Le maire de Lyon se félicite en tout cas « du choix de Lyon par Daimler et Europcar d'installer Car2go à Lyon, ce qui illustre la place qu'occupe aujourd'hui la métropole en matière de mobilité durable. »

Les véhicules seront loués par les abonnés dans une zone du Grand Lyon s'étendant sur 44 km2, ce qui ne les empêchera pas de conduire aussi longtemps et aussi loin qu'ils le souhaitent. Seule contrainte : ramener la voiture dans le périmètre d'origine. Cela coûtera plus cher de quitter le périmètre de la ville : le compteur continuera de tourner, au prix de 29 centimes la minute, contre 17 euros l'heure en ne s'éloignant pas trop. Une question se pose à ce stade de la description de ce concept : comment l'abonné de Car2go trouvera-t-il la voiture qu'il convoite ? C'est là où réside la spécificité du système : dans la géolocalisation qui permettra de retrouver grâce à son i.phone ou son smartphone, le véhicule le plus proche doté d'un signal GPS et ce, grâce à une application Web spécifique. Le fonctionnement est donc différent de l’offre Autolib de Lyon Parc Auto qui se développe encore malgré cette nouvelle concurrence et dont la contrainte est d'obliger l'utilisateur à ramener le véhicule à son point de départ.

Pour s'abonner à Car2go, il suffit de s'inscrire et de payer 29 euros de frais de dossier. L’utilisateur se voit remettre une carte avec un code. Il repère alors grâce à son application i.phone ou smartphone la voiture disponible la plus proche, passe sa carte, rentre son code et... peut alors démarrer. Un centre d’appels et un site Internet permettront également de localiser les véhicules bleus et blancs. L’utilisation se paiera à la minute près : elle inclura l’assurance, l’essence et le prix du stationnement.

Lyon entreprises

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top