RTFlash

RTFLASH Recherche & Technologie
NUMERO 618
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Octobre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La gestion de sa vie privée tient en quelques couleurs
Avenir
Un détecteur de souffle capable de retrouver les victimes de catastrophes
Matière
De l'énergie solaire en permanence !
Une bactérie primitive capable de produire du carburant pour fusées
Invention d'une feuille artificielle qui reproduit la photosynthèse
Toshiba prépare la télévision en relief sans lunettes
Espace
Découverte d' une exoplanète potentiellement habitable
L'atmosphère de Mars sursaturée en vapeur d'eau
Vivant
Sclérose en plaques : la recherche avance
La salmonelle infecte les plantes et les humains par un même mécanisme
Fertilité : découverte d'une nouvelle hormone de contrôle dans le cerveau
Escargots volants en compagnie d’oiseaux migrateurs
Des LED bleues pour traiter la jaunisse des nouveau-nés
Les bactéries, nouvel outil de la cryptographie
Le cerveau modifie son fonctionnement avec l'âge pour rester effficace
Première production de cellules pancréatiques humaines
Mordue par son chien et sauvée par des sangsues
Un nouvel outil diagnostique pour les personnes victimes de traumatismes crâniens légers
Des nanocapteurs à base d'ADN pour observer les facteurs de transcription
Des chercheurs découvrent que l'origine des souvenirs des enfants mûrit plus tard
Maladies mentales : les oubliées de la médecine et des pouvoirs publics !
Première mondiale pour la pose de prothèse de hanche "par i-pod" à Roanne
Les dépôts jaunes au coin de l'oeil prédictifs du risque cardiovasculaire
Se casser la hanche quintuple le risque de mortalité chez les femmes
Homme
Des manuscrits de la mer Morte mis en ligne sur Internet
Les 10 produits les plus étranges issus des technologies de la Nasa
Recherche
La voiture reconfigurable est attentive à son conducteur
Edito
Il y a assez de terres cultivables pour nourrir l’humanité en 2050 !



Contrairement à beaucoup d'idées reçues, l'accroissement global de la production agricole sur notre planète a été bien plus rapide que celui de la population mondiale depuis 40 ans. La consommation alimentaire moyenne mondiale par personne a augmenté de près d'un cinquième, passant de 2 360 calories par personne et par jour en 1960 à 2 800 calories par personne et par jour aujourd'hui. Dans la même période, le pourcentage d'habitants souffrant de la faim dans les pays en voie de développement est passé d'un tiers à moins d'un cinquième !

Dans les pays en développement, l'augmentation des ressources alimentaires par habitant a été particulièrement remarquable : de 1 900 calories en 1960, elles sont passées à plus de 2 500 calories en 2000, soit une augmentation de 30 % en 40 ans, alors que la population mondiale a plus que doublé au cours de cette période. Ce résultat est d'autant plus impressionnant que, comme le montrent les travaux de la FAO, la surface de terres cultivées est restée quasiment stable dans le monde depuis 1960.

Il reste que, selon la FAO, 925 millions de personnes souffrent encore de la fin sur Terre et, pour nourrir correctement l'humanité en 2050, il faudra augmenter de 70 % la production agricole mondiale. Ce défi semble impossible à relever mais pourtant une étude remarquable et très documentée montre qu'il y a suffisamment de terres cultivables non encore exploitées, à l’échelle mondiale, pour nourrir notre planète à l’horizon 2050.

Pour arriver à cette conclusion surprenante mais rigoureuse sur le plan scientifique, Laurence Roudart, chercheuse reconnue au niveau international de l’Université libre de Bruxelles, rappelle, dans un entretien passionnant accordé à la revue "La Recherche" de juillet-août 2011 (non disponible en ligne) quelques ordres de grandeur essentiels : sur les 13,4 millions d'hectares de terres émergées sur notre planète, environ 30 % sont considérées comme cultivables sans qu'il soit besoin d'irriguer. Or, sur ces 4,2 milliards d'hectares, 60 % ne sont pas cultivés, soit environ 2,5 milliards d'hectares, ce qui est considérable. Même si l'on prend en compte les infrastructures, les forêts et les zones protégées, on estime que la superficie mondiale cultivée pourrait être multipliée par 1,6, soit une extension de 970 millions d'hectares.

Cela sera-t-il suffisant pour nourrir correctement les 9 milliards d'êtres humains que comptera la Terre en 2050 ? Pour répondre à cette question, Laurence Roudart et son équipe ont envisagé un scénario extrêmement prudent et contraignant dénommé "Agrimonde 1". Dans cette hypothèse de travail, chaque personne doit disposer de 3 000 kilocalories par jour, dont 500 kilocalories d'origine animale.

Ce scénario très prudent privilégie volontairement l'extension des surfaces cultivées et mise peu sur les progrès de l'agronomie. Enfin, ce scénario prend également en compte les surfaces nécessaires à la production des agrocarburants de deuxième génération principalement issus du bois et de tous ses dérivés. Au total, ces contraintes fortes représentent 590 millions d'hectares cultivés supplémentaires, soit seulement 60 % des 970 millions d'hectares cultivables et disponibles sur notre planète !

Mais cette situation globale masque de profondes disparités locales car les terres cultivables non exploitées et véritablement disponibles pour l'agriculture (ces deux conditions doivent impérativement être simultanément remplies) sont réparties de manière très inégale à la surface de la planète. Ces "réserves foncières" agricoles sont essentiellement présentes en Afrique et en Amérique latine mais beaucoup moins au Moyen-Orient et en Asie, régions soumises à une forte pression démographique et à des contraintes géoclimatiques spécifiques. Mais il faut rappeler que l'agriculture "locale" et encore largement manuelle, qui s'inscrit dans le cadre "d'agro-écosystèmes", représente plus de 70 % de la production agricole mondiale, le reste étant assuré par l'agriculture industrielle.

Or, une autre étude menée par l'Université d'Essex et portant sur 218 projets de développement agricole fondés sur l'agroécologie, répartis dans 57 pays et couvrant 37 millions d'hectares (regroupant 12,6 millions d'exploitations agricoles), a montré un accroissement moyen des rendements de 64 % sur l'ensemble de ces projets, ce qui est tout à fait remarquable. Néanmoins, les travaux de la FAO ont montré que l'agriculture biologique ne pouvait, à elle seule, assurer la sécurité alimentaire au niveau mondial mais pouvait y contribuer de manière importante.

Il est intéressant de souligner que les conclusions de Laurence Roudart rejoignent le point de vue exprimé par Marion Guillou, Présidente de l'Institut National de la Recherche Agronomique (INRA), et Gérard Matheron dans le livre qu'ils viennent de publier, intitulé " 9 milliards d'hommes à nourrir, un défi pour demain".

Ces scientifiques éminents sont d'accord sur le fait que nous avons tous les atouts en main pour parvenir à nourrir correctement l'humanité d'ici le milieu de ce siècle mais à condition d’agir simultanément et vigoureusement dans trois directions.

  • Il faut d'abord mettre en place un nouveau système mondial de fixation et de régulation des prix agricoles qui permette aux 40 % d'actifs qui cultivent la terre de vivre décemment de leur travail.
  • Deuxième axe : imaginer de nouveaux cadres législatifs et juridiques d'exploitation des terres qui soient mieux adaptés aux sociétés traditionnelles et aux cultures locales.
  • Dernier axe, il est essentiel de réorienter la recherche agronomique et les productions agricoles vers l'agriculture durable et les cultures vivrières inscrites dans des écosystèmes locaux et articulée aux structures socio-culturelles et aux capacités d'innovation des populations concernées. L'implication et l'adhésion des populations est en effet un facteur essentiel pour réussir cette mutation agroalimentaire historique qui permettra de nourrir la planète.

Nous devons enfin comprendre que nous ne pourrons pas nourrir correctement les populations locales uniquement à partir des productions agricoles de ces populations car celles-ci vont être confrontées à une stagnation des rendements due au changement climatique dans certaines régions, à une raréfaction de l'accès à de nouvelles terres disponibles pour l'agriculture. C'est pourquoi il est capital de mettre en place un nouveau cadre économique et juridique plus équitable d'échanges des produits agricoles au niveau mondial.

Ces études remarquables et très solides du point de vue scientifique ont le mérite de remettre en cause beaucoup d'idées reçues et leurs conclusions se rejoignent : l'accès pour tous aux produits agricoles de base et la sécurité alimentaire de la planète sont possibles mais le défi à relever pour atteindre ce but ô combien souhaitable est d'abord politique et économique et passera par de nouvelle règles mondiales de partage des richesses et des ressources naturelles entre pays riches et pays en voie de développement.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La gestion de sa vie privée tient en quelques couleurs
Jeudi, 06/10/2011 - 01:40

Pour paramétrer plus rapidement et facilement son compte sur un réseau social comme Facebook, une équipe allemande propose une application qui utilise des codes couleurs pour catégoriser les options.

Des applications tierces pour gérer plus aisément sa vie privée sur Facebook ? C'est ce que proposent des chercheurs de l'Université de Darmstadt, en Allemagne : ils ont mis au point une interface basée sur un système de codes couleurs et des mécaniques de "drag-and-drop". Cela, expliquent les scientifiques, afin de tenter de répondre à des problèmes de divulgation de données personnelles non souhaitée. En effet, le rapport constate que depuis 2005, les paramètres par défaut du réseau social ont bien changé : de nombreuses publications et informations sont désormais visibles par tous (mur, photos, liste d'amis...) à moins d'aller dans plusieurs onglets différents pour modifier ces paramètres à sa convenance.

  • Une interface basée sur les couleurs

Une tâche fastidieuse, selon les scientifiques allemands. Avec leur interface, chaque information apparaît dans un cadre coloré (rouge pour "visible par personne", bleu pour "visible par certains amis", jaune pour "tous les amis" et enfin vert pour "tout le monde"). En passant le curseur de la souris sur un cadre, il est possible de changer instantanément la couleur de ce dernier et l'effet est appliqué immédiatement, que ce soit pour une publication, une date de naissance ou une photo. Lorsque l'on veut sélectionner un contenu visible uniquement par "certains amis", des listes de noms créées au préalable s'ouvrent : il est ainsi possible de déterminer directement quelle liste pourra voir une information, par un système de drag-and-drop et de cases à cocher.

  • Plus efficace et plus rapide

Afin de tester leur produit, les chercheurs ont demandé à un panel de 20 étudiants dont les deux tiers utilisent Facebook régulièrement de réaliser des tâches simples avec l'interface normale puis la customisée : trouver quelles informations étaient visibles pour un ami en particulier, changer les paramètres de confidentialité sur un album photo ou encore créer une liste d'amis. Pour les utilisateurs n'ayant jamais utilisé le réseau social, leur taux de succès dans l'achèvement des tâches passaient de 70 % à 90 % avec la nouvelle interface. Et même pour les experts, la rapidité était multipliée par 4 pour certaines actions et le nombre de clics pour y parvenir largement diminué.

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Un détecteur de souffle capable de retrouver les victimes de catastrophes
Dimanche, 02/10/2011 - 01:00

Des scientifiques ont annoncé avoir mis au point le premier appareil capable de détecter, par le souffle et la sueur, les victimes ensevelies sous les décombres d'un immeuble détruit par une catastrophe naturelle ou un attentat.

Ces détecteurs "reniflent" les métabolites, résidus organiques produits par le corps humains lorsqu'il respire, transpire ou urine. Des chiens peuvent être dressés à détecter ces composés organiques, mais leur entraînement coûte cher et tant l'animal que son dresseur ont besoin de fréquentes pauses et sont exposés au danger.

"Un tel appareil peut être utilisé sur le terrain sans aucun laboratoire de soutien. Il pourrait surveiller des traces de vie pour des périodes prolongées et être déployé en grand nombre", résume le Professeur Paul Thomas, de l'Université britannique de Loughborough, à l'origine de cette invention.

Pour tester cet appareil, huit volontaires ont passé à cinq reprises plusieurs heures sous un amas de béton armé et de verre brisé reconstituant un immeuble effondré. Les métabolites produits par ces volontaires interagissaient avec les matériaux des débris et fluctuaient en fonction des conditions d'humidité, de chaleur et de vent, ce qui rendait leur détection d'autant plus difficile.

Pourtant, les détecteurs ont rapidement identifié le dioxyde de carbone et l'ammoniac générés par le corps humain dans l'air qui sortait par les interstices des décombres factices. Les appareils ont également détecté d'autres composés organiques très volatils, comme l'acétone et l'isoprène. Les chercheurs ont ainsi constaté une nette baisse du taux d'ammoniac produit par les "victimes" lorsqu'elles étaient endormies, sans pouvoir encore expliquer ce phénomène.

L'étude, la première du genre sur un tel détecteur, est publiée par l'Institut de Physique (IOP) britannique.

Sciences et Avenir

^ Haut
Matière
Matière et Energie
De l'énergie solaire en permanence !
Jeudi, 06/10/2011 - 01:10

Des chercheurs du célèbre Massachusetts Institute of Technology (MIT) ont mis au point une technologie qui pourrait permettre la production permanente d'énergie solaire, indépendamment des conditions météorologiques. Il s'agit du CSPonD, (pour concentrated solar power on demand ou énergie solaire concentrée à la demande) ; cette technique très prometteuse constitue une avancée majeure par rapport à l'énergie solaire à concentration (CSP), appelée également énergie solaire thermodynamique, qui est, en matière de production d'énergie à partir du soleil, l'autre grande filière avec le photovoltaïque. En juillet 2011, un prototype industriel de tour thermique à concentration utilisant les sels fondus a été mis en service pour la première fois en Espagne.

Dans les systèmes CSP classiques, des miroirs sont utilisés pour concentrer les rayons du soleil afin de chauffer un fluide caloporteur, eau, huile ou sel fondu. Ce fluide peut alors chauffer de l'eau qui entraîne une turbine à vapeur pour produire de l'électricité. Mais le gros point faible du système CSP est son fonctionnement intermittent, car il ne fonctionne qu'en temps réel, c'est à dire en présence de lumière solaire.

La nuit ou lorsque le soleil est absent, la chaleur stockée dans le système se dégrade inéluctablement, conformément aux dures lois de la thermodynamique et il faut alors avoir recours à des générateurs de secours. Autre inconvénient de taille : le solaire à CSP nécessite des pompes pour transférer la chaleur du fluide caloporteur vers la turbine à vapeur.

Le nouveau système CSPonD ne présente pas ce double inconvénient : il a été conçu pour compléter le processus de chauffage du sel de nitrate de sodium-potassium fondu et le stockage de la chaleur ainsi produite dans un seul réservoir placé sur le sol. Dans cette technologie, le réservoir utilisé dans ce processus laisse entrer les rayons concentrés du soleil par une petite ouverture à son sommet. Autre avancée, une trappe placée à l'intérieur du réservoir permet de séparer le sel chauffé du sel plus froid. Cette trappe, qui est mobile, se déplace vers le bas au cours d'une journée ensoleillée et augmente ainsi la quantité de sel chauffé à l'intérieur du réservoir. Ce sel produira de la vapeur à partir d'eau circulant autour du réservoir qui, à son tour, entraînera une turbine pour produire de l'électricité en cas de nécessité.

D'après les calculs du MIT, les 2 grands réservoirs de sels de nitrate de sodium et de potassium (chacun fait plus de 3000 m3) peuvent  produire assez d'électricité pour satisfaire à la consommation domestique journalière de près de 20 000 foyers (hors chauffage). Un tel système devrait pouvoir stocker assez de chaleur, accumulée pendant plus de 10 jours d'ensoleillement, pour continuer à fournir de l'énergie pendant une journée nuageuse. Quant au coût de production de cette électricité, il serait de l'ordre de 18 cents par kilowatt/heure, c'est-à-dire presque deux fois inférieur à celui des autres systèmes d'énergie solaire à concentration.

MIT

Une bactérie primitive capable de produire du carburant pour fusées
Mercredi, 05/10/2011 - 01:10

Une équipe néerlandaise a démontré comment une bactérie primitive a développé un cocktail de protéines capable de produire naturellement une substance utilisée comme carburant dans les fusées.

Voici quelques années, la bactérie Kuenenia stuttgartiensis avait déjà époustouflé les biologistes lorsqu'ils avaient découvert qu'elle savait convertir l'ammonium, un polluant contenu dans l'eau, en azote gazeux, sans avoir recours à l'oxygène. Ce type de bactéries, dites "annamox", pourraient produire 30 à 50 % de l'azote de l'atmosphère terrestre et intéressent vivement les océanologues, climatologues et spécialistes du traitement des eaux usées. Ces derniers les utilisent d'ailleurs désormais dans les stations d'épuration.

L'équipe du Professeur Mike Jetten, microbiologiste à l'Université Radboud de Nimègue (Pays-Bas), vient d'expliquer comment K. stuttgartiensis utilisait également l'ammonium pour produire de l'hydrazine (N2H4), un composé chimique utilisé comme carburant dans les fusées.

"Y parvenir n'a pas été facile. Nous avons dû utiliser un grand nombre de nouvelles méthodes expérimentales. Mais nous avons fini par isoler le mélange de protéines responsables de la production d'hydrazine, une mixture d'un rouge ravissant", explique le Professeur Jetten dans un communiqué. "Au début nous n'avons pas réussi à produire de l'hydrazine. Il a fallu que nous rajoutions une protéine supplémentaire qui +capture+ le carburant, et maintenant ça fonctionne", ajoute le chercheur qui a publié sa découverte dans la revue scientifique Nature.

"La Nasa était curieuse de savoir comment on pouvait faire du carburant pour fusées à partir de composés azotés, qu'on trouve en grandes quantités dans l'urine par exemple", poursuit Mike Jetten. "Malheureusement, on n'en produit que de petits volumes, pas de quoi envoyer une fusée sur Mars", tempère-t-il. Les biologistes néerlandais sont actuellement en train d'étudier plus précisément la structure du cocktail de protéines utilisé par la bactérie et espèrent pouvoir ainsi doper sa production.

L'hydrazine est également utilisée dans des piles à combustibles développées par le constructeur automobile japonais Daihatsu, une technique qui a l'avantage de ne pas nécessiter de métaux rares et coûteux, comme le platine.

Libération

Invention d'une feuille artificielle qui reproduit la photosynthèse
Mardi, 04/10/2011 - 01:30

Des chercheurs américains ont créé une feuille artificielle capable de transformer la lumière du soleil directement en énergie pouvant être stockée pour être utilisée ultérieurement, selon leurs travaux publiés récemment. Cette feuille -- une cellule solaire en silice avec différents matériaux catalytiques attachés sur les deux côtés-- ne nécessite aucun branchement externe ni de circuit de contrôle pour la faire fonctionner, expliquent-ils.

  • Exposé à la lumière

Il suffit de placer cette feuille dans un récipient rempli d’eau et exposé à la lumière du soleil, précise Daniel Nocera, professeur au Massachusetts Institute of Technology (MIT), le principal auteur de cette communication parue dans la revue américaine Science datée du 30 septembre. La feuille commence alors rapidement à produire des flots de bulles d’oxygène sur un côté et d’hydrogène sur l’autre. Si cette feuille est mise dans un conteneur avec une paroi séparant ses deux faces, les bulles produites peuvent alors être récupérées et stockées pour être utilisées ensuite afin de produire de l’électricité.

Ainsi, en plaçant les bulles d’oxygène et d’hydrogène dans une pile à combustible, elles se combinent de nouveau en eau tout en produisant de l’électricité dans ce processus, explique le professeur Nocera. Cette feuille est entièrement composée de matériaux abondants et bon marché comme surtout la silice, le cobalt et le nickel et fonctionne dans de l’eau ordinaire, précise-t-il.

  • Feuille en sicile

Les autres systèmes pouvant utiliser la lumière du soleil pour séparer l’oxygène de l’hydrogène formant l’eau utilisaient des solutions corrosives ou des matériaux assez rares et chers tel le platine. Cette dernière feuille artificielle consiste en une couche fine de semi-conducteurs en silice, le matériau utilisé dans la fabrication de la plupart des cellules solaires. Ces semi-conducteurs transforment l’énergie solaire en un flot continu d’électricité sans fil à l’intérieur de la feuille. Une couche de cobalt comme catalyseur qui libère l’oxygène un carburant potentiel.

L’autre face de la feuille de silice est recouverte d’une couche d’un alliage de nickel, de molybdène et de zinc qui permet de libérer l’hydrogène des molécules d’eau. "Je pense qu’il va y avoir un vrai potentiel pour cette idée" juge, confiant, le professeur Nocera.

  • Portable et léger

"On ne peut pas être plus portable que cela", poursuit-il soulignant que ce système n’a pas besoin de fil, est très léger et ne requiert pas beaucoup d’équipement supplémentaire autre qu’un système pour capturer et conserver les bulles d’oxygène et d’hydrogène", explique ce chercheur. "Il s’agit seulement de jeter la feuille artificielle dans un verre d’eau et l’oxygène et l’hydrogène commencent à émerger", insiste-t-il.

Ce nouveau système n’est pas encore prêt pour la production commerciale puisque le système de collecte et de stockage notamment reste à être développé, relève le professeur Nocera. La création de cette feuille artificielle "est un pas" mais qui "va dans la bonne direction", conclut-il.

Tribune de Genève

Toshiba prépare la télévision en relief sans lunettes
Dimanche, 02/10/2011 - 01:20

La vision en relief sans lunettes est-elle l’avenir de la télévision 3D ? En tout cas, Toshiba y croit dur comme fer. Un an après avoir commercialisé au Japon des petites télés LCD de 15 et 20 pouces offrant cette fonctionnalité, le groupe nippon se prépare à étendre cette technologie aux grandes tailles, en introduisant en Europe, dès la fin de cette année, un poste de 55 pouces.

Ce grand téléviseur 3D sans lunettes a été exhibé à l’IFA, la grande messe de l’électronique grand public, qui s'est tenue à Berlin du 02 au 07 septembre 2011. La technologie mise en œuvre combine l’effet parallaxe d’un écran lenticulaire et l’affichage de neuf points de vue. L’écran est couvert d’un réseau de micro-lentilles qui décompose le flux vidéo 3D en deux images, l’une pour l’œil gauche, l’autre pour l’œil droit. Et c’est cet effet de stéréoscopie qui donne l’illusion du relief. Pas besoin de rester dans l’axe de l’écran. Grâce à neuf points de vue et une caméra qui suit en temps réel ses yeux, le spectateur peut changer de position sans perdre l’effet 3D. Les huit points de vue supplémentaires sont calculés par le moteur de traitement Cevo spécialement développé par Toshiba pour ce téléviseur.

Le groupe japonais ne se contente pas de supprimer les lunettes. Il gonfle aussi la définition d’image en utilisant un écran LCD de résolution 4k2k (3840 x 2160 pixels), quatre fois celle des écrans à haute définition actuels. Un progrès  bienvenu car la 3D sans lunettes réduit d’autant plus la résolution visible qu’il y a de points de vue. Sharp, le principal fournisseur de Toshiba en écrans LCD, a de son côté présenté un écran de 60 pouces offrant la résolution 4k2k. Toshiba vise le segment haut de gamme, avec un prix d'environ 8 000 euros.

Industrie & Technologies

^ Haut
Espace
Espace et Cosmologie
Découverte d' une exoplanète potentiellement habitable
Jeudi, 06/10/2011 - 01:20

Une équipe d’astronomes observant avec HARPS, l’instrument de l’ESO leader mondial des « chasseurs de planètes », a annoncé une moisson riche de plus de 50 nouvelles exoplanètes, incluant 16 super-Terres, dont l'une est en orbite à la lisière de la zone habitable de son étoile. En étudiant les propriétés de toutes les planètes découvertes avec HARPS jusqu'à présent, l'équipe à mis en évidence qu'environ 40 % des étoiles semblables au Soleil ont au moins une planète plus légère que Saturne.

Le spectrographe HARPS du télescope de 3,6 mètres à l'Observatoire de l'ESO à La Silla au Chili est le découvreur de planète qui a le plus de succès au monde . L'équipe de HARPS, dirigée par Michel Mayor (Université de Genève, Suisse), a annoncé la découverte de plus de 50 nouvelles exoplanètes en orbite autour d'étoiles proches, incluant seize super-Terres. C'est le plus grand nombre de planètes de ce type jamais annoncé d’un seul coup . Les nouveaux résultats ont été présentés à une conférence sur les Systèmes Solaire Extrêmes dans le Wyoming (Etats-Unis), où 350 experts en exoplanètes étaient réunis.

« La moisson de découvertes avec HARPS va au-delà de toute attente et comprend une population exceptionnellement riche de planètes de type super-Terre et de type Neptune,  autour d’étoiles très semblables à notre Soleil. Et encore mieux, les nouveaux résultats montrent que le rythme des découvertes s'accélère, » explique Michel Mayor. Depuis qu’HARPS a commencé à être utilisé pour observer les étoiles semblables au Soleil par la méthode des vitesses radiales, il y a huit ans, il a permis de découvrir plus de 150 nouvelles planètes. Environ les deux tiers de toutes les exoplanètes connues, dont la masse est inférieure à celle de Neptune, ont été découverts par HARPS. Ces résultats exceptionnels sont le fruit de plusieurs centaines de nuits d'observation avec HARPS.

En travaillant avec les observations effectuées avec HARPS de 376 étoiles semblables au Soleil, les astronomes ont maintenant considérablement amélioré l'estimation de la probabilité qu'une étoile comme le Soleil héberge des planètes de faible masse (par opposition aux planètes géantes gazeuses). Ils trouvent qu’environ 40 % de ces étoiles ont au moins une planète moins massive que Saturne. La majorité des exoplanètes de la masse de Neptune ou moins semble être dans des systèmes à plusieurs planètes.

Avec des mises à niveau en cours, à la fois pour le matériel et les logiciels, HARPS est amené à un niveau supérieur de stabilité et de sensibilité pour la recherche de planètes rocheuses qui pourraient abriter la vie. Dix étoiles proches similaires au Soleil ont été sélectionnées pour un nouveau relevé systématique. Ces étoiles avaient déjà été observées par HARPS et sont connues pour être adaptées à des mesures extrêmement précises de vitesses radiales. Après deux ans de travail, l'équipe d'astronomes a découvert cinq nouvelles planètes avec des masses de moins de cinq fois celle de la Terre. « Ces planètes seront parmi les meilleures cibles pour les futurs télescopes spatiaux pour rechercher des signes de vie dans l'atmosphère de la planète en cherchant des signatures chimiques révélant la présence d'oxygène», explique Francesco Pepe (Observatoire de Genève, Suisse), l'auteur principal d'un des récents articles.

Une des nouvelles planètes récemment annoncées, HD 85512 b, est estimée à seulement 3,6 fois la masse de la Terre et est située en bordure de la zone habitable - une zone étroite autour d'une étoile où l'eau peut être présente sous forme liquide, si les conditions sont réunies. « C’est la planète la moins massive, découverte et confirmée par la méthode des vitesses radiales qui se trouve potentiellement dans la zone habitable de son étoile, et la seconde planète de faible masse découverte par HARPS à l'intérieur de la zone habitable, » ajoute Lisa Kaltenegger (Institut Max Planck pour l'astronomie, Heidelberg, Allemagne et Harvard Smithsonian Center for Astrophysics, Boston, Etats-Unis), qui est une experte sur l'habitabilité des exoplanètes.

La précision croissante du nouveau relevé d’HARPS permet désormais la détection de planètes avec des masses inférieures à deux fois celle de la Terre. HARPS est maintenant si sensible qu'il peut détecter des amplitudes de vitesse radiale sensiblement en dessous de 4 km/h  – inférieur à la vitesse de marche d'un promeneur.

« HD 85512 b est loin de la limite de détection de HARPS et démontre la possibilité de découvrir d'autres super-Terres dans les zones habitables autour d'étoiles similaires au Soleil, » ajoute Michel Mayor. Ces résultats confortent les astronomes dans  l’idée qu’ils sont proches de découvrir d’autres petites planètes rocheuses habitables autour étoiles semblables à notre Soleil. De nouveaux instruments sont prévus pour poursuivre cette quête. Il s'agit notamment d'une copie de HARPS qui va être installée sur le télescope national Galileo (Italie) dans les îles Canaries, qui fera des relevés systématiques d'étoiles dans le ciel de l’hémisphère Nord, ainsi qu'un nouveau et plus puissant « chasseur de planètes » appelé ESPRESSO, qui sera installé sur le VLT de l'ESO en 2016. Dans un avenir plus lointain, l'instrument CODEX sur le télescope extrêmement grand européen (E-ELT) va pousser cette technique à un niveau supérieur. « Dans les dix à vingt prochaines années, nous devrions avoir la première liste des planètes potentiellement habitables dans le voisinage du Soleil, conclut Michel Mayor, qui a découvert la toute première exoplanète autour d'une étoile normale en 1995.

ESO

L'atmosphère de Mars sursaturée en vapeur d'eau
Lundi, 03/10/2011 - 01:20

L'analyse des données recueillies par le satellite Mars Express de l'ESA, est formelle : l'atmosphère de la planète Mars contient de la vapeur d'eau en état de sursaturation. Cette découverte surprenante va permettre aux scientifiques de mieux comprendre le cycle de l'eau sur Mars ainsi que l'évolution de l'atmosphère de la planète rouge. Menée par une équipe du Laboratoire Atmosphères, milieux, observations spatiales (LATMOS, CNRS / UPMC / UVSQ), en collaboration avec des collègues russes et français, cette étude a bénéficié du soutien du CNES. Elle a été publiée dans la revue Science le 30 septembre 2011.

Sur Terre, la vapeur d'eau tend à se condenser – c'est-à-dire à devenir liquide - quand la température descend en-dessous du « point de condensation ». On parle d'une atmosphère « saturée » car elle ne peut contenir plus d'humidité à cette température et à cette pression. L'excédent de vapeur d'eau se condense alors autour de particules et de poussières en suspension pour former des précipitations. Cependant, il arrive que la condensation soit fortement ralentie, notamment quand particules et poussières sont trop rares. Incapable de se condenser, la vapeur d'eau en excès  reste alors sous forme gazeuse : c'est ce qu'on appelle la « sursaturation ». Jusqu'à présent, on supposait qu'un tel phénomène ne pouvait exister dans l'atmosphère martienne, sans toutefois pouvoir le prouver.

En effet, si plusieurs sondes ont visité Mars depuis les années 70, la plupart de leurs instruments se sont concentrés sur les données de surface : ils ont appréhendé l'atmosphère martienne uniquement dans sa composante horizontale. La question de la concentration en eau en fonction de l'altitude restait donc quasi inexplorée pour Mars. Les relevés effectués par le spectromètre SPICAM embarqué à bord du satellite Mars Express ont aujourd'hui permis de combler cette lacune. En effet, SPICAM peut établir des profils verticaux de l'atmosphère par occultation solaire, c'est-à-dire en scrutant la lumière du Soleil qui traverse l'atmosphère de la planète durant son lever et son coucher.

Contrairement à ce qui était établi, les chercheurs ont découvert que la sursaturation en vapeur d'eau est un phénomène fréquent sur Mars. Ils ont même relevé dans l'atmosphère martienne des niveaux de sursaturation très élevés, jusqu'à plus de dix fois supérieurs à ceux rencontrés sur Terre. « Cette capacité de la vapeur d'eau à subsister en état de forte sursaturation permettrait, par exemple, d'alimenter l'hémisphère Sud de Mars en eau bien plus efficacement que ne le prédisent les modèles actuellement », précise Franck Montmessin, chercheur CNRS au LATMOS et responsable scientifique de SPICAM. De plus, une quantité de vapeur d'eau, bien plus importante qu'estimée jusqu'alors, pourrait être transportée assez haut dans l'atmosphère pour y être détruite par photodissociation. Ce phénomène, s'il se confirme, aurait des conséquences sur la problématique de l'eau martienne, dont on sait qu'une fraction notable s'échappe continuellement vers l'espace depuis des milliards d'années, expliquant en partie la faible abondance actuelle d'eau sur la planète « rouge ».

La distribution verticale de vapeur d'eau est un facteur clé dans l'étude du cycle hydrologique de Mars. L'hypothèse selon laquelle la quantité d'eau dans l'atmosphère martienne est limitée par le phénomène de saturation doit donc être entièrement révisée. Cette découverte a des implications majeures sur la compréhension du climat de la planète rouge ainsi que sur celle du transport de l'eau sur Mars.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Sclérose en plaques : la recherche avance
Jeudi, 06/10/2011 - 01:00

Une équipe de recherche basée à Marseille et dirigée par le professeur Jean Pelletier a annoncé le 14 septembre qu'un nouveau médicament permettant d'enrayer les poussées de la sclérose en plaques sera bientôt disponible en France. L'équipe du Professeur Pelletier a coordonné l'ensemble des essais thérapeutiques portant sur la première molécule absorbée par voie orale (fingolimod-Gilenya) et quatre autres molécules devraient être mises à disposition des patients d'ici un an et demi.

Il s'agit d'une vraie révolution. "Car, explique le Professeur Pelletier, les seuls traitements disponibles actuellement pour diminuer la fréquence des poussées sont des traitements injectables". "C'est un médicament efficace permettant de diminuer la fréquence des poussées de la maladie, elles-mêmes responsables des déficits et handicaps dont souffrent les patients", souligne le Professeur Pelletier. Cette molécule, le "fingolimod", a été autorisée aux Etats-Unis en septembre 2010. Elle est commercialisée sous le nom de Gilenya par le laboratoire pharmaceutique suisse Novartis, qui a obtenu une autorisation de mise sur le marché européenne en mars 2011. Elle sera disponible en France début 2012.

La sclérose en plaques est l'une des maladies neurologiques les plus répandues chez les adultes jeunes, affectant près de 2,5 millions de personnes dans le monde, dont quelque 80.000 en France et 350.000 en Europe. Très invalidante, elle résulte de la destruction de la gaine protectrice des fibres nerveuses, la gaine de myéline, puis des fibres elles-mêmes dans le cerveau et la moelle épinière. A terme, cette maladie provoque l'apparition de symptômes comme les troubles de la vue, de la marche, du toucher.

Près de 7.000 patients ont été traités dans le monde depuis dix ans dans le cadre du protocole de mise au point du médicament. L'équipe de chercheurs marseillais a également pris part à des travaux de recherche internationaux, publiés en août dans la revue Nature, qui ont permis d'identifier 29 nouveaux gènes associés à la sclérose en plaques.

Cette avancée fondamentale dans la connaissance de cette affection neurologique confirme que de multiples facteurs génétiques et environnementaux interviennent dans son apparition. On sait également aujourd'hui, avec certitude, que la sclérose en plaques n'est pas ne maladie héréditaire mais bien auto-immune. Les résultats de cette étude laissent en outre espérer que l'on puisse, dans le futur, utiliser des thérapies géniques ciblant les gènes spécifiques impliqués dans le déclenchement de la sclérose en plaques.

Timone

La salmonelle infecte les plantes et les humains par un même mécanisme
Mercredi, 05/10/2011 - 18:03

La salmonellose est la plus commune des intoxications alimentaires, induite par une bactérie appartenant au genre Salmonella. Chaque année, 100 millions de personnes sont infectées à travers le monde ; elle est également la première cause de gastro-entérites et de la fièvre typhoïde. Jusqu’à récemment, on pensait que l’homme était infecté par l’ingestion de produits contaminés d’origine uniquement animale (viande, œufs, lait). Ce principe a été remis en cause par l’observation ces 10 dernières années d’une recrudescence de personnes infectées par la salmonelle ayant rapporté une consommation de crudités. Des recherches ont depuis confirmé que les légumes et les fruits contaminés doivent également être considérés comme des vecteurs de transmission de la salmonelle. La bactérie peut donc se retrouver dans toute la chaîne alimentaire.

La salmonelle attaque les plantes en se liant à la surface des cellules végétales puis en migrant jusqu’aux pores des feuilles pour pénétrer dans la plante. Chez l’homme, la bactérie injecte à l’aide d’un appendice en forme de dard, un cocktail de protéines qui bloquent les défenses immunitaires et favorisent la prolifération de la bactérie dans l’organisme. Les chercheurs de l’Inra à Evry et à Tours, et des Universités de Giessen et de Vienne ont désormais observé le même phénomène chez la plante. Ils ont également montré que les salmonelles ayant contaminé des plantes sont très infectieuses chez l’homme et la souris, ce qui représente un nouveau défi en termes de sécurité alimentaire et de veille sanitaire.

Malgré tout, hommes et végétaux ne sont pas sans défense face à une attaque de salmonelles. En effet, ils ont développé des capteurs qui perçoivent l’attaque bactérienne et qui activent leurs systèmes immunitaires respectifs. L’infection se déclare en fonction de la rapidité et de l’intensité de la réponse immunitaire de l’hôte. Certaines variétés de plantes sont très résistantes aux infections par les salmonelles tandis que d’autres sont particulièrement vulnérables. La salmonelle appartient avec Escherichia coli à la famille bactérienne la mieux étudiée (Entérobactéries). Une connaissance avancée des mécanismes utilisés par ces bactéries pour contaminer les plantes et une meilleure compréhension de la manière dont les plantes se protègent devraient permettre de réduire le nombre d’infections liés à la consommation de fruits et légumes.

INRA

Fertilité : découverte d'une nouvelle hormone de contrôle dans le cerveau
Mercredi, 05/10/2011 - 07:25

Vincent Prévot, chercheur à l’Inserm et l’Université Lille 2 - Droit et santé, et ses collaborateurs, ont publié le 5 septembre 2011 dans la revue de l’Académie des Sciences américaine (PNAS), les résultats d’une étude sur l’animal concernant la découverte du rôle de la prostaglandine E2 (PGE2) en tant qu'hormone régulatrice de la fertilité. Sa défaillance provoque immanquablement un retard pubertaire ou une fertilité très basse chez l'animal. Ces travaux constituent un réel espoir vers un premier traitement des troubles de la fertilité provenant du système nerveux central (absence de règles d'origine hypothalamique, retard pubertaire ou encore puberté précoce).

"La fonction de reproduction est déterminée par des événements qui prennent place dans le cerveau", explique Vincent Prévot. Au moment de la puberté, l'activation d'une poignée de neurones très spécialisés (appelés les neurones à GnRH), localisés dans l'hypothalamus, conduit à une sécrétion de l'hormone GnRH (Gonadotropin Releasing Hormone). Cette dernière stimule la synthèse et la libération de deux autres hormones qui vont promouvoir la croissance des organes sexuels secondaires au moment de la puberté. Elles fonctionnent ensuite tout au long de la vie pour assurer la fonction reproductive.

Depuis quelques années, les chercheurs pensaient que les neurones à GnRH recevaient des informations émanant de cellules nerveuses situées dans leur environnement proche pour fonctionner. L'activation de ces neurones voisins devait constituer l'élément déclencheur de l'augmentation de la sécrétion de GnRH nécessaire à la survenue de la puberté et de la fertilité. Or, l'équipe de Vincent Prévot vient de prouver que la libération d'une autre hormone (la prostaglandine E2) par d'autres cellules présentes dans le cerveau est indispensable au déclenchement de toute la cascade conduisant à l'activation des fonctions de reproduction. A contrario, cette activité est interrompue par l'inhibition de la synthèse de prostaglandine E2.

Un nouvel acteur dans le contrôle de la fertilité vient donc d'être identifié, sa défaillance provoquant immanquablement retard pubertaire ou hypofertilité. Pour Vincent Prévot, "l'identification de cette hormone dévoile un rôle primordial de certaines cellules non nerveuses du cerveau dans le contrôle d'une grande fonction biologique chez les mammifères. De plus, elle ouvre de nouvelles pistes thérapeutiques pour le traitement des troubles de la fertilité." Une découverte d'autant plus importante que l'infertilité devrait doubler en Europe, au cours des dix prochaines années.

INSERM

Escargots volants en compagnie d’oiseaux migrateurs
Mercredi, 05/10/2011 - 01:20

L'étude phylogénique d'escargots marins suggère qu'ils ont traversé l'isthme de Panama... par les airs.

Des escargots marins ont traversé l'Amérique centrale… en volant. Osamu Miura, de l'Institut Smithsonian de recherche tropicale, à Panama, et ses collègues sont arrivés à cette conclusion en étudiant la diversité génétique de deux espèces voisines d'escargots marins, Cerithideopsis californica et Cerithideopsis pliculosa. La première vit sur la côte pacifique de l'isthme de Panama (la langue de terre de l'Amérique centrale qui relie les Amériques du Nord et du Sud), la seconde peuple la côte atlantique.

Ces deux espèces ont divergé à partir de leur ancêtre commun lorsque la formation de l'isthme, il y a trois millions d'années, a séparé les deux océans. En étudiant la phylogénie des variations de certains gènes mitochondriaux de ces deux espèces sur 29 localités réparties le long des deux côtes, les biologistes se sont aperçu que des échanges de matériel génétique entre provinces géographiques avaient eu lieu à deux reprises. Il y a 750 000 ans, des gènes plus proches de ceux exprimés par les escargots de la côte pacifique sont apparus sur la côte atlantique, et l'inverse s'est produit il y a 72 000 ans.

Ces événements étant postérieurs à la formation de l'isthme, il est fort probable, expliquent les biologistes, que des escargots aient traversé la langue de terre par les airs, transportés par des oiseaux migrateurs soit accrochés à leurs pattes, soit… dans leur estomac. Environ 30 pour cent des escargots Cerithideopsis sont toujours vivants après avoir été régurgités par un Chevalier semipalmé, parfois plusieurs semaines après leur ingestion. Un délai suffisant pour que l'oiseau traverse l'isthme et dépose ses passagers de l'autre côté…

Pour La Science

Des LED bleues pour traiter la jaunisse des nouveau-nés
Mardi, 04/10/2011 - 01:20

Philips développe une couverture à LED bleues qui améliore le traitement des ictères néonatals des bébés.

Les LED sont surtout vues comme les sources lumineuses de l’éclairage du futur. Philips veut aussi les utiliser pour le traitement de la jaunisse des nouveau-nés. A l’occasion de son 120e anniversaire, le groupe néerlandais a présenté un prototype de couverture susceptible de traiter plus efficacement cette maladie répandue chez 60 % des nouveau-nés à terme et 90 % des bébés prématurés.

L'ictère néonatal (jaunisse) survient lorsque le bébé ne peut pas décomposer une substance appelée bilirubine. Cette substance se décompose naturellement lorsqu'il est exposé à la lumière bleue. Le traitement consiste donc à exposer le nouveau-né à des lampes bleues jusqu'à ce que son taux de bilirubine revienne à la normale. L'efficacité de la photothérapie est directement liée à la quantité de peau exposée à la lumière bleue. Avec les lampes utilisées aujourd’hui, le bébé ne peut pas être pris dans les bras ou bercé sans interrompre le traitement. Sans compter les problèmes d’encombrement, le bruit de la ventilation associée et le débordement des rayons bleus sur le personnel soignant.

Des alternatives utilisant la fibre optique incorporée dans des électrodes sur lesquelles le bébé est couché existent. Mais elles vont au détriment du confort du nouveau-né.

La solution développée par Philips se présente comme une couverture qui peut envelopper entièrement le bébé. L’intérieur est muni de LED bleues reliées électriquement par des conducteurs intégrés entre les fibres. Il est couvert d’une couche de diffusion optique qui répartit uniformément la lumière sur la surface. Ainsi, le bébé subit un bain de lumière bleue au plus près de la peau, sur tout le corps, sans risques particuliers puisque les LED émettent peu de rayonnement infrarouge et UV.

Le système est encore au stade de développement, mais il montre déjà beaucoup de promesses. Selon Philips, il est aussi doux qu’une couverture normale et offre un traitement efficace, tout en laissant la possibilité aux parents de prendre le bébé dans les bras sans interrompre le traitement.

Industrie & Technologies

Les bactéries, nouvel outil de la cryptographie
Mardi, 04/10/2011 - 01:10

Vous utilisez encore l'encre invisible pour envoyer vos messages secrets? Passez à la culture bactérienne...

Pour coder des messages, les services secrets ont bien sûr recours à des supports électroniques sécurisés. Les dernières innovations en cryptographie font même appel à la physique quantique. Une autre voie de recherche consiste à utiliser les supports biologiques pour transmettre des messages codés. C’est ainsi que l’équipe de Manuel Palacios (Tufts University, Massachusetts, Etats-Unis) a mis au point le SPAM… non pas un de ces messages qui encombrent votre boîte mail mais la «stéganopgraphie par une batterie de microbes» (Steganography by Printed Arrays of Microbes).

Palacios et ses collègues ont utilisé la bactérie Escherichia coli, tristement célèbre pour ses souches qui provoque des diarrhées aigues, mais qui est un excellent cobaye de laboratoire. Les chercheurs ont génétiquement modifié sept souches d’E. coli afin qu’elles produisent une protéine fluorescente qui donne des couleurs différentes sous certaines conditions lumineuses.

A partir de ces sept couleurs, les chercheurs ont construit un code : par exemple un point jaune et un point vert orange pour la lettre ‘h’, etc.. Les colonies de bactéries sont cultivées en ligne sur une plaque afin d’écrire le message. Ce schéma est imprimé sur un support de nitrocellulose qui fige l’organisation des bactéries. Cette ‘feuille’ peut être envoyée au destinataire qui peut remettre les colonies en culture dans un mélange nutritif à partir de la feuille et les soumettre au traitement qui les fera ‘luire’ et révéler le message. Ne reste plus qu’à le transcrire à partir de la clef de chiffrement.

Pour ajouter un niveau de sécurité supplémentaire, les chercheurs ont inséré des gènes de résistance à certains antibiotiques chez les bactéries porteuses du message. Il faut alors d’abord tuer les autres bactéries pour avoir le bon message.

Ces recherches sont financées par le DARPA, l’agence de recherches de l’armée américaine. De précédents travaux ont montré qu’il était possible d’encoder des messages dans l’ADN. Cependant il est peu probable que les services secrets utilisent les SPAM bactériens pour communiquer, l’envoi de colonies bactériennes génétiquement modifiées par la poste pouvant poser des problèmes.... En revanche, cette technique pourrait servir pour améliorer la traçabilité de certains produits ou lutter contre la contrefaçon, estiment les chercheurs.

Ces travaux ont été publiés récemment dans les Proceedings of the National Academy of Sciences.

Sciences et Avenir

Le cerveau modifie son fonctionnement avec l'âge pour rester effficace
Mardi, 04/10/2011 - 01:00

Une étude dirigée par Professeur Oury Monchi, de l'Institut universitaire de gériatrie de Montréal, vient de montrer que le cerveau des personnes âgées en bonne santé peut être aussi performant que celui de sujets plus jeunes mais ne fonctionne pas de la même manière. Cette étude montre que malgré la perte inévitable de neurones liée au vieillissement, le cerveau des sexagénaires est tout à fait capable de garder des performances globales équivalentes à cellles de sujets beaucoup plus jeunes. Par quels mécanismes ? Pour le savoir, les chercheurs ont soumis 14 personnes âgées de 18 à 35 ans et 10 âgées de 55 à 75 ans et en bonne santé à des examens par IRM pendant qu'elles étaient en train de pratiquer des exercices d'appariement de mots.

Mais les scientifiques ont rafiné ces expériences en modifiant, de manière aléatoire, les règles d'appariement pour observer la réaction du cerveau face à une brusque modification de son environnement. Ils ont alors pu constater de manière non équivoque que les stratégies utilisées variaient en fonction de l'âge du sujet étudié : les personnes jeunes activent immédiatement et simultanément deux circuits cérébraux différents : l'un pour choisir une nouvelle stratégie, l'autre pour la mettre à exécution (action) au moment du changement des règles d'appariement des mots.

En revanche, les personnes plus âgées n'utilisent pas systématiquement ces deux circuits cérébraux mais modulent leur mobilisation en fonction du degré de difficulté à trouver la réponse correcte. Autrement dit, leur cerveau est capable, en s'appuyant sur l'expérience, d'attendre qu'une action soit nécessaire pour la planifier.

Au final, cette expérience montre que l'étonnante plasticité cérébrale du cerveau, combinée à l'expérience du sujet, peut sans problèmes compenser la perte quantitative de neurones due au vieillissement.

Cerebral Cortex

Première production de cellules pancréatiques humaines
Lundi, 03/10/2011 - 01:30

C’est une première scientifique. Des chercheurs de l’Inserm et du CNRS sont parvenus à produire des cellules pancréatiques humaines capables de sécréter de l’insuline. Ces cellules défectueuses dans les deux types de diabète 1 et 2, et essentielles pour réguler le taux de sucre dans l’organisme, étaient attendues par les chercheurs du monde entier depuis près de 30 ans.

L’attaque, puis la destruction par l’organisme des cellules β productrices d’insuline conduit au diabète de type 1. La perturbation de leur fonctionnement induit un diabète dit de type 2. Ces maladies touchent plus trois millions de personnes en France. Depuis 30 ans, les chercheurs du monde entier tentent sans succès de reproduire ces cellulesβ en laboratoire pour les étudier et comprendre leurs dysfonctionnements.

Dans une étude publiée dans The Journal of Clinical investigation, Raphaël Scharfmann, directeur de recherche à l’Inserm, en collaboration avec l’équipe de Philippe Ravassard au CNRS, détaillent le processus qui leur a permis de générer les premières lignées de cellules bêta pancréatiques humaines fonctionnelles et capables de produire de l'insuline.

  • Restauration du contrôle de la glycémie

Grâce à un protocole innovant faisant appel à un vecteur viral, les chercheurs ont réussi à obtenir plusieurs lignées de cellules, de propriétés moléculaires et fonctionnelles très proches d’une cellule β humaine adulte, capables de restaurer un contrôle de la glycémie chez des souris diabétiques.

Grâce à cette découverte, de nombreuses équipes de recherche vont maintenant pouvoir travailler avec ces cellules β humaines tant attendues et tenter de mieux connaître leurs propriétés et leur dysfonctionnement ou leur destruction observées dans les diabètes de type 2 et 1. Ces cellules permettront également de rechercher de nouvelles molécules régulant la prolifération et la fonction des cellules β humaines ou d’être utilisées comme modèles précliniques de thérapie cellulaire du diabète.

Bien qu’il reste encore quelques étapes à franchir avant de pouvoir faire de ces cellules un véritable traitement pour les diabétiques, ces travaux représentent une base solide pour la définition de nouvelles approches thérapeutiques des diabètes.

INSERM

Mordue par son chien et sauvée par des sangsues
Lundi, 03/10/2011 - 01:10

En Suède, pour reconstruire le visage d'une femme défigurée par son chien, les chirurgiens ont utilisé des sangsues.

Ce sont au total 358 sangsues médicinales (spécifiquement élevées) qui ont permis le succès de l'opération qu'une femme suédoise a subie cet été après avoir été grièvement mordue par son chien. Dans son malheur, elle a eu de la chance puisque ses parents ont eu le bon réflexe : ils ont "récupéré" le morceau de visage arraché lors de la morsure (une partie de la lèvre supérieure, le nez et une partie de la joue) et l'ont maintenu au frais. Des chirurgiens de l'hôpital universitaire de Malmö ont alors entrepris une intervention aussi compliquée que désespérée pour reconstruire la face de leur patiente. Elle aura duré 15 heures et donc nécessité l'usage de nombreuses sangsues.

Même si l'idée d'avoir de telles bestioles placées sur la peau n'est pas très séduisante, cela fait bien longtemps que les chirurgiens ont recours à ces précieux "auxiliaires de santé". Dès le début du XIXe siècle, John Friedrich Dieffenbach, considéré comme le "père" de la chirurgie plastique, en avait utilisé pour la première fois avec succès, notamment pour la reconstruction de nez. Après une période d'oubli, ces animaux ont progressivement fait leur retour dans les services de chirurgie réparatrice et traumatologique. En France, le pionnier est le Professeur Baudet, spécialiste de la chirurgie plastique au CHU de Bordeaux, qui s'en est servi dès le début des années 1970 lors de la réimplantation des doigts. Cette technique a, depuis, fait école dans de nombreux services en France et à travers le monde.

  • Sans douleur

En pratique, les sangsues médicinales absorbent le "vieux" sang et elles accélèrent les processus de décongestion des hématomes, car elles sont particulièrement attirées par le sang désoxygéné. Elles stimulent l'irrigation des cellules menacées de nécrose en maintenant l'oxygénation du tissu et elles y injectent un liquide qui contient un anticoagulant puissant. Le tout sans provoquer de douleur. "En assurant le drainage et en remplaçant le retour veineux partiellement ou totalement, elles permettent d'attendre qu'une néovascularisation veineuse se mette en place", précise sur son site sangsue-medicinale.com la société Ricarimpex.

L'équipe chirurgicale pose les sangsues là où c'est nécessaire et les laisse prendre tranquillement leur repas (cela dure en moyenne une demi-heure et elles peuvent tripler de volume). Les bestioles se détachent ensuite spontanément (elles sont alors plongées dans un désinfectant puissant et éliminées dans les incinérateurs de l'hôpital). Cette technique a donc été utilisée avec succès à Malmö. Pour la petite histoire, l'éleveur de sangsues local ne pouvant faire face à la demande, il a dû faire venir en urgence du "renfort" de Grande-Bretagne.

"Le plus important a été de rétablir la circulation du sang dans la partie qui avait été arrachée, ce que nous avons réussi à faire une heure après le début de l'intervention", a raconté Stina Klasson, le spécialiste qui a réalisé l'opération. Ce chirurgien se félicite de voir sa patiente capable aujourd'hui de respirer, de manger et de parler.

Le Point

Un nouvel outil diagnostique pour les personnes victimes de traumatismes crâniens légers
Lundi, 03/10/2011 - 01:00

L’équipe Inserm "Prévention et prise en charge des traumatismes" coordonnée par Emmanuel Lagarde (Unité Inserm 897, Université Bordeaux Segalen) et le Centre Hospitalier de Bordeaux (Dr Régis Ribereau-Gayon) viennent de publier les résultats d’une étude sur les traumatismes crâniens légers. Ce travail a permis de mettre au jour l’efficacité d’un test sanguin pour déterminer la gravité d’un traumatisme crânien. Objectif : améliorer la prise en charge et le suivi des traumatisés crâniens qui représentent chaque année plus de 100 000 individus, principalement les personnes accidentées de la route, et des personnes âgées. Le détail de ces travaux a été publié dans la revue Annals of emergency medicine. Cette étude a été soutenue par le groupe REUNICA.

  • Mieux traiter un problème de santé publique

Chaque année, les services d’urgences des hôpitaux français reçoivent plus de 100 000 personnes victimes d’un traumatisme crânien, dont 90 % sont considérés comme légers. Léger ne signifie pas pour autant bénin. Ils peuvent en effet être responsables d’hémorragies cérébrales entraînant un risque de handicap sévère, dans la vie quotidienne des patients, quelques semaines ou quelques mois après un choc. Les accidents de la route en sont la première cause et touchent en majorité les 15-25 ans. Mais les chutes font des jeunes enfants et des personnes âgées des publics exposés, le vieillissement de la population laissant craindre un nombre toujours plus important de traumatismes auprès des plus anciens. Au regard de sa fréquence et de ses conséquences potentiellement graves, le traumatisme crânien léger constitue un problème de santé publique de taille. La généralisation de l’utilisation du scanner cérébral constitue à la fois un enjeu financier et de santé publique. Lourd et coûteux, il ne révèle des lésions significatives que dans moins de 10 % des cas et produit des doses de radiations 100 fois plus forte qu’une radiographie.

  • Distinguer les patients à surveiller de ceux qui ne présentent pas de risques

Les chercheurs de l’Inserm ont évalué la pertinence d’un test sanguin qui déterminerait la gravité du traumatisme et permettrait de ne pratiquer un scanner qu’à un petit nombre de patients, ceux qui présentent un risque réel de complication. Lorsqu’ils sont soumis à un stress trop important, les astrocytes, des cellules qui environnent les neurones de notre cerveau, produisent une protéine appelée S-100B que l’on retrouve dans la circulation sanguine. Des chercheurs ont alors pensé qu’en dosant cette protéine par une simple prise de sang, on disposerait d’un indicateur de l’état du cerveau : avec ou sans lésions importantes, nécessitant de surveiller le patient. Ce test peu onéreux (environ 15 euros soit dix fois moins qu’un scanner), dont les résultats peuvent être connus en moins d’une heure, pourrait donc permettre de rassurer rapidement les patients sans avoir à pratiquer un scanner cérébral. Mais pour que ce test soit performant, il fallait être certain qu’aucun des patients présentant un test négatif ne risquait de développer une complication (des cas "faux négatifs").

  • Une recherche pratiquée au sein d’un service d’urgences adulte

Pour confirmer que la "piste" de cette protéine S-100B était intéressante, les chercheurs ont recruté plus de 1500 patients pendant 15 mois au sein du service des urgences adultes du CHU de Bordeaux. Pour les besoins de l’étude, tous les patients présentant un traumatisme crânien léger ont reçu, comme dans la pratique courante, un scanner cérébral et il leur a été proposé en plus de pratiquer à partir d’un peu du sang déjà prélevé pour les autres examens de routine le dosage de la protéine S-100B. Grâce à l’implication de l’ensemble des personnels et la mise à disposition d’attachés de recherche clinique spécialement formés, le projet a pu être mené à bien malgré les contraintes liées à l’activité d’un service d’urgence.

  • Des résultats qui montrent l’intérêt de ce nouveau test

En comparant les résultats des deux examens (scanner et protéine S-100B) les chercheurs ont pu faire les constatations suivantes :

- seuls 7 % des patients présentaient un scanner positif, évoquant une lésion cérébrale

- parmi les 292 patients qui avaient un test de la protéine S-100B négatif, un seul avait un scanner positif et il n’a pas développé de complications nécessitant des soins importants.

Pour les chercheurs, "Le test sanguin de la protéine S-100B est donc une technique prometteuse qui permettra vraisemblablement dans un avenir proche d’apporter une prise en charge des traumatisés crâniens légers plus sûre et moins coûteuse".

INSERM

Des nanocapteurs à base d'ADN pour observer les facteurs de transcription
Dimanche, 02/10/2011 - 01:10

Des scientifiques de l'Université de Californie, Santa Barbara (UCSB) ont mis au point une série de capteurs nanométriques, à base d'ADN, permettant de détecter rapidement et facilement certains facteurs de transcription dans un échantillon biologique. Cette méthode pourrait faciliter grandement l'étude de phénomènes biologiques naturels ou pathologiques et constituer un outil utile pour le développement pharmaceutique. Cette étude a été réalisée en partenariat entre UCSB et l'Université de Rome Tor Vergata (URTV) et les résultats ont été publiés dans la revue Journal of the American Chemical Society.

On considère généralement que les gènes constituent le plan de fonctionnement d'un organisme vivant. Ils encodent ses spécifications et renferment les informations nécessaires à la synthèse des protéines nécessaires à l'organisme. L'expression d'un gène est le processus par lequel l'information que ce gène contient est décryptée et utilisée par la machinerie biologique pour synthétiser la protéine qu'il encode. Chez l'être humain, 23 paires de chromosomes, constituées au total de plus de 3 milliards de paires de bases, abritent les gènes codant pour ces protéines.

Le nombre exact de gènes est encore mal connu mais il est estimé aux alentours de 25.000 suite à la réalisation du Human Genome Project en 2003. Bien que cette estimation soit bien inférieure aux précédentes, il apparaît évident que l'ensemble des gènes n'est pas exprimé à un instant donné. Les mécanismes biologiques naturels (le développement embryonnaire, par exemple) et pathologiques reposent en partie sur des variations précises de l'expression de certains gènes. La régulation de l'expression des gènes est en partie due à une famille de molécules appelée "facteurs de transcription".

Les facteurs de transcription sont des protéines ayant la propriété de pouvoir se lier à une séquence d'ADN spécifique, généralement à proximité du gène qu'ils régulent. Les facteurs de transcription peuvent alors favoriser ou inhiber l'expression du gène en question, en modulant l'action de l'ARN polymérase, une enzyme réalisant la synthèse de l'ARN messager, support transitoire de l'information avant la traduction en protéine. Chez l'Homme, on estime à environ 2600 le nombre de protéines ayant la capacité de se lier à l'ADN et la majorité d'entre elles sont des facteurs de transcription.

De nombreuses études s'intéressent aujourd'hui aux "réglages" dynamiques générés par les facteurs de transcription au cours de phénomènes biologiques physiologiques ou pathologiques. La différenciation des cellules (c'est-à-dire le passage de l'état de cellule souche à celui de cellule différenciée) est l'un des principaux exemples du rôle primordial joué par les facteurs de transcription. En effet, toutes les cellules de l'organisme possèdent le même code génétique mais la régulation de l'expression des gènes au cours du temps permet de générer des cellules aussi différentes que des globules blancs et des cellules musculaires. Certaines maladies sont également causées par un dérèglement de l'expression de certains gènes, et peuvent potentiellement être diagnostiquées par l'étude des facteurs de transcription.

L'étude des facteurs de transcription est donc devenu un aspect important des recherches biologiques et pharmaceutiques. Aujourd'hui, pour réaliser cette étude, il est nécessaire d'extraire les protéines contenues dans un échantillon biologique, de les purifier puis de les analyser : un processus long et parfois complexe. Les chercheurs de UCSB et de URTV ont mis au point des nanodétecteurs permettant de dévoiler rapidement et facilement la présence des facteurs de transcription dans ce même échantillon.

Ces nanodétecteurs sont des molécules chimériques, constituées d'un brin d'ADN flexible sur lequel ont été fixées deux molécules fluorescentes, à des endroits très précis. Le brin d'ADN contient la séquence spécifique sur laquelle le facteur de transcription recherché vient se fixer. En l'absence de facteur de transcription, la forme du détecteur, appelée conformation, oscille entre différents états. Dans ce cas, les molécules fluorescentes se neutralisent généralement et l'assemblage n'émet peu ou pas de lumière.

En revanche, lorsqu'il est mis en présence du facteur de transcription, la liaison de ce dernier avec la séquence d'ADN cible stabilise le détecteur dans une conformation particulière. Le placement des molécules fluorescentes a été étudié de façon à ce qu'elles ne se neutralisent pas lorsque l'assemblage se trouve dans cette conformation. Le nanodétecteur agit donc comme un interrupteur : il n'émet pas de lumière lorsqu'il est seul dans le milieu et s'illumine lorsqu'il est lié au facteur de transcription spécifique recherché.

L'élégance du système permet de détecter la présence d'un facteur de transcription par le biais d'une manipulation simple : l'échantillon cellulaire est broyé, afin de libérer le contenu des cellules, puis les détecteurs sont ajoutés au broyat. La mesure du rayonnement lumineux émis par le mélange permet de déterminer la concentration de facteur de transcription présente dans l'échantillon. Les chercheurs ont à ce jour pu mesurer la concentration cellulaire de trois facteurs de transcription (TATA Binding Protein, Myc-Max, et NF-?B) et pensent que cette méthode pourrait à terme permettre de suivre l'évolution de milliers de facteurs de transcription. Ce résultat préliminaire encourageant ouvre la voie à des méthodes de détection et de diagnostic rapides et peu chères qui pourraient avoir de nombreuses applications.

Bulletins Electroniques

Des chercheurs découvrent que l'origine des souvenirs des enfants mûrit plus tard
Samedi, 01/10/2011 - 01:20

Des chercheurs allemands ont découvert que les enfants développent leur capacité à se rappeler des évènements passés et l'origine de ces souvenirs pendant l'enfance et l'adolescence. Présentés dans la revue Child Development, les résultats montrent que cette capacité de se remémorer l'origine des souvenirs est un long processus qui se développe pendant l'adolescence mais n'arrive à maturité qu'à l'âge adulte. L'étude offre des informations sur la fiabilité des témoignages des enfants dans les affaires juridiques.

Des chercheurs de la Saarland University expliquent qu'un enfant peut se souvenir d'une rencontre avec une personne, ainsi que le contexte de la rencontre. L'équipe a évalué 18 enfants (âgés de 7 à 8 ans), 29 adolescents (de 13 à 14 ans) et 20 jeunes adultes (de 20 à 29 ans), leur demandant de compléter une tâche de mémorisation à double volet.

Le premier volet comprenait des images affichées sur un écran d'ordinateur pour lesquelles les sujets devaient juger combien de fois elles se répétaient en appuyant sur un bouton «nouveau» lorsque l'image était présentée pour la première fois et sur un bouton «vieux» pour les répétitions.

Le second volet était effectué après une pause de 10 minutes. Les sujets devaient visualiser d'autres photos, certaines d'entre elles faisaient partie des photos présentées lors du premier volet, d'autres étaient totalement nouvelles. Les chercheurs ont demandé aux participants de juger chaque image sur la seule base de la répétition; à savoir que, les photos reprises de la première partie et présentées pour la première fois dans la seconde partie devaient être considérées comme nouvelles, tandis que les images répétées à plusieurs reprises pendant le second volet considérées comme «vieilles». L'équipe a également observé les réponses cérébrales des sujets pendant les deux parties de l'étude en utilisant des scans d'électroencéphalogrammes (EEG).

Ainsi, les chercheurs ont pu évaluer les changements développementaux sur la manière dont le cerveau se remémore des souvenirs, l'exercice du second volet, indépendamment de la différence d'âge des souvenirs pour des événements, qui correspond au premier volet. La manière dont les jeunes extraient et évaluent les souvenirs avait également été mesurée.

Selon les chercheurs, il n'y aurait pas de grandes différences d'âge dans les processus d'extraction impliqués dans la reconnaissance de photos déjà vues (premier volet de l'exercice). Ainsi, les réactions cérébrales des enfants de 7 et 8 ans étaient similaires à celles des adolescents et des jeunes adultes.

Il convient de faire remarquer que certains enfants étaient immatures dans ce domaine de l'évaluation des origines des souvenirs. De même, lorsque les adolescents et les adultes montraient des similitudes, seuls les adultes étaient matures dans ce domaine. Les données montrent que les structures cérébrales impliquées dans le rappel des sources de souvenirs chez les enfants et les adolescents s'améliorent et arrivent à maturité à l'âge adulte.

«L'étude a d'importantes implications pour les personnes intéressées aux capacités des enfants et des adolescents à distinguer plusieurs sources de souvenirs», commentent les chercheurs. «Les parents, enseignants et parties impliqués dans le système juridique devraient savoir que les souvenirs des adolescents seraient déformés par des souvenirs de distraction, comme lorsque l'on leur suggère des éléments au cours d'un témoignage, par exemple.

CORDIS

Maladies mentales : les oubliées de la médecine et des pouvoirs publics !
Samedi, 01/10/2011 - 01:10

Plus de 30 pour cent de la population européenne souffrent d'une maladie touchant le cerveau. Il est temps de faire de la recherche sur le cerveau une priorité.

Quel est l'état de la santé mentale de la population de l'Europe ? Pour le savoir, le Collège européen de neuropsychopharmacologie, ecnp, a soutenu un vaste projet pour évaluer « l'étendue, la gravité et le coût des maladies du cerveau ». Les résultats de cette étude ont été récemment communiqués et les conclusions sont préoccupantes : plus de 30 pour cent des Européens souffrent d'une pathologie touchant le cerveau, et la prise en charge est notablement insuffisante. La société, les personnels de santé, les pouvoirs publics et les décideurs politiques doivent l'admettre : les maladies du cerveau représenteront le principal enjeu de santé publique du xxie siècle.

Les résultats de la dernière grande étude dans ce domaine ont été publiés en 2005, mais plusieurs biais avaient été mis en évidence. Il convenait donc de refaire un état des lieux plus précis sur cette question. En 2009, la nouvelle étude a été lancée. Elle avait pour objectifs de suivre pendant 12 mois la prévalence des maladies mentales et neurologiques dans la population de l'Europe des 27 ; d'évaluer les maladies touchant les plus jeunes (de 2 à 17 ans), les adultes (de 18 à 65 ans) et les plus âgés (plus de 65 ans) ; d'identifier les différentes pathologies et la proportion de la population touchée par chacune d'elles ; d'évaluer l'efficacité de la prise en charge, notamment des traitements prescrits. Notons que la liste des maladies répertoriées est longue. Il s'agit aussi bien de maladies mentales telles que la schizophrénie, la dépression, les troubles liés à l'anxiété, les phobies, entre autres, que de maladies neurologiques telles que l'épilepsie, la maladie de Parkinson, et les autres maladies neurodégénératives notamment la maladie d'Azheimer, ou encore la migraine, les insomnies, les conséquences des accidents vasculaires cérébraux, les dépendances à l'alcool et aux drogues et, chez les plus jeunes, les retards mentaux et les troubles de l'attention avec ou sans hyperactivité.

Les résultats de cette vaste analyse, tant bibliographique que directe auprès des centres de soins, ont montré qu'au moins 118 millions d'Européens souffrent d'une maladie touchant le cerveau. Ce chiffre était de 82,7 millions en 2005, mais compte tenu de l'augmentation des populations des pays concernés, d'une part, et de l'augmentation de l'espérance de vie, d'autre part, la proportion n'a pas évolué entre 2005 et 2011 : 27,4 pour cent en 2005 et 27,1 pour cent en 2011 pour les personnes âgées de 18 à 65 ans. Quand on inclut les plus jeunes et les plus âgés, la proportion atteint 38,2 pour cent.

Quelles sont les principales pathologies identifiées ? Les troubles liés à l'anxiété (et avec elle les différents types de phobie) sont les plus fréquents (14 pour cent), puis viennent les insomnies qui touchent 7 pour cent de la population, la dépression grave (6,9 pour cent), les troubles psychosomatiques (6,3 pour cent), la dépendance à l'alcool et aux drogues (4 pour cent), les troubles de l'attention avec hyperactivité (5 pour cent de la classe d'âge la plus jeune) et les démences (1 pour cent des 60-65 ans et 30 pour cent des plus de 85 ans).

Pour étudier l'impact de ces maladies en termes de santé publique, les médecins utilisent un indice qui reflète le nombre d'années perdues en raison d'une mortalité précoce ou d'une incapacité due à ces pathologies. Cet indice recouvre l'effet direct de la maladie sur les patients en raison de leurs symptômes, mais aussi l'effet indirect lié au regard des autres. Il prend aussi en compte le poids que représente chaque malade pour ses proches et l'impact financier, pour la société, de la prise en charge.

Or l'enquête confirme un résultat préoccupant de l'étude de 2005 : un tiers seulement des malades, toutes pathologies confondues, sont traités. Malgré l'existence de traitements pharmacologiques et psychothérapeutiques efficaces, la prise en charge est notablement insuffisante. On constate qu'un tiers des personnes concernées consultent un médecin, que moins de 20 pour cent consultent un médecin spécialisé dans les maladies du cerveau et que moins de 10 pour cent reçoivent un traitement adapté. Les maladies neurologiques sont les mieux traitées de toutes celles qui ont été répertoriées.

On constate aussi – et il serait pourtant aisé de modifier cet état de fait – qu'il se passe souvent plusieurs années (jusqu'à 20 ans) avant que le patient ne consulte un médecin pour la première fois. Or, généralement, une prise en charge précoce améliore le pronostic, c'est-à-dire la probabilité que la maladie soit, si ce n'est guérie, du moins jugulée et suffisamment contrôlée pour que l'insertion du malade dans la société soit facilitée. Comment améliorer la situation, sachant que la prévalence de certaines des maladies évoquées, notamment les démences dues à la maladie d'Alzheimer, va augmenter ?

Aujourd'hui, les difficultés auxquelles sont confrontés les groupes pharmaceutiques qui recherchent des médicaments pour lutter contre les maladies mentales sont multiples : les investissements nécessaires pour la découverte et le développement d'un nouveau médicament sont gigantesques ; il faut souvent attendre les derniers stades des essais cliniques pour constater qu'une molécule a des effets indésirables ; les marchés exercent une pression forte pour que les retours sur investissements soient courts ; on ne connaît pas encore suffisamment les dysfonctionnements biologiques en cause dans les maladies mentales, de sorte qu'il est difficile d'identifier une cible précise sur laquelle un médicament pourrait agir ; les remboursements des traitements ne sont pas aussi systématiques que dans le cas des autres maladies.

Tous ces éléments, notamment le fait que la majorité des malades ne sont pas traités et, quand ils le sont, c'est souvent très longtemps après l'apparition des premiers symptômes, plaident en faveur d'une prise de conscience par la société et les pouvoirs publics que les recherches sur le cerveau, son fonctionnement normal et ses anomalies, doivent devenir une des priorités, si ce n'est la priorité. Alors seulement, les traitements et la prévention des maladies du cerveau pourront être améliorés.

Pour La Science

Première mondiale pour la pose de prothèse de hanche "par i-pod" à Roanne
Samedi, 01/10/2011 - 01:00

C'est une première mondiale qui place la clinique du Renaison à Roanne (Loire) parmi les plus pointues en matière de technologie. La pose d'une prothèse de hanche planifiée par le biais d'un « i-pod touch » d'Apple.

« On ne parle pas de première médicale, mais bien technologique. L'intervention existe déjà, mais la technique est révolutionnaire », se réjouit Rodolphe Calandry, directeur de l'établissement roannais. Intrigués, des chirurgiens russes et sud-africains sont même passés spécialement pour suivre le processus.

« Le système a été développé par le laboratoire prothésiste anglo-saxon Smith&Nephew.

On parle de navigation informatique et cela aide à poser une prothèse de genou ou hanche avec plus de précision, au millimètre près », souligne le chirurgien orthopédiste Alain Cyprès. « Les premiers appareils étaient très chers, volumineux et rallongeaient le temps opératoire. Désormais, il y a une application sur iPod touch et i-pad donc c'est plus léger. On installe des émetteurs-récepteurs infrarouges dans la salle, des capteurs sur le patient, on pointe l'iPod tel un pistolet sur des points repères et l'ordinateur produit un modèle 3D en calculant les mesures idéales ».

Sur deux heures d'opération, le processus prend 20 minutes « mais on n'a plus d'essais à faire avant la pose ». Depuis début juillet, la clinique a déjà appliqué la technique une vingtaine de fois !

Le Progrès

Les dépôts jaunes au coin de l'oeil prédictifs du risque cardiovasculaire
Vendredi, 30/09/2011 - 06:55

Les dépôts jaunâtres au coin interne de l'oeil ou sur la paupière, également appelés xanthélasma, constituent un facteur prédictif de risque cardiovasculaire, selon une vaste étude danoise publiée dans le British Medical Journal.

Ces dépôts jaunâtres sont des dépôts de cholestérol ; de la même manière, il peut exister un arc blanchâtre autour de la cornée (ils vont former un arc que l'on appelle arc cornéen et qui existe aussi de façon physiologique chez les personnes âgées). Ces signes peuvent apparaître chez les personnes présentant une hypercholestérolémie majeure, mais à l'inverse, être présents chez des gens dont le bilan sanguin ne montre aucun signe d'excès de cholestérol. Pour savoir si ces manifestations témoignaient d'un risque cardiovasculaire (crise cardiaque, maladie cardiovasculaire, accident vasculaire cérébral, décès prématuré), l'équipe dirigée par le Professeur Anne Tybjaerg-Hansen à l'Université de Copenhague a suivi 12 745 individus participant à l'étude Copenhagen City Heart Study. Cette vaste étude lancée en 1976 s'est achevée en 2009.

Lors de leur inclusion, seuls 4,4 % des participants présentaient un xanthélasma et près d'un quart un arc cornéen. Au cours du suivi, 1872 personnes ont eu une crise cardiaque, 3 699 ont développé une maladie cardiovasculaire, 1 498 ont eu un AVC, 1 815 une maladie cérébrovasculaire et 8 507 sont morts.

L'analyse des chercheurs montre que, quels que soient l'âge et le sexe, le risque d'attaque cardiaque, de maladie cardiovasculaire et de décès dans les 10 ans était plus élevé chez les personnes présentant un xanthélasma. De plus, ce sur-risque était indépendant des autres facteurs de risques cardiovasculaires connus tels que le tabagisme, l'obésité, l'hypertension et même l'hypercholestérolémie.

Les hommes âgés de 70 à 79 ans avec des dépôts jaunâtres au coin de l'œil avaient ainsi un risque supérieur de 12 % par rapport à ceux du même âge sans xanthélasma. Pour les femmes, le sur-risque était ainsi de 8 %. En revanche, l'arc cornéen n'apparaît pas comme un signe prédictif d'attaque cardiaque ou de maladie cardiovasculaire.

Les auteurs concluent que la présence de xanthélasma pourrait aider les médecins au diagnostic de ces pathologies, notamment dans les pays où l'accès aux laboratoires d'analyse sanguine et aux dosages lipidiques est difficile, et ce même si l'élévation du risque est relativement faible. Plus globalement, ces résultats soulignent l'importance de l'examen clinique, qui ne doit aucunement être négligé au profit des analyses biologiques et autres examens d'imagerie.

Doctissimo

Se casser la hanche quintuple le risque de mortalité chez les femmes
Vendredi, 30/09/2011 - 06:51

Les femmes qui se fracturent la hanche entre 65 et 69 ans ont cinq fois plus de risque de mourir dans l'année qui suit que leurs semblables, en raison entre autres des complications post-opératoires, révèle une étude américaine publiée récemment.

Ce risque double pour les femmes âgées de 70 à 79 ans et triple pour les femmes de plus de 80 ans, explique cette étude financée par l'Institut national américain de la Santé et publiée dans les Archives de la médecine interne. «Cette étude est un appel à la vigilance sur l'année qui suit une fracture de la hanche chez les femmes âgées, et en particulier celles de 65 à 69 ans qui sont confrontées à un risque de mort bien plus élevée que leurs semblables», a expliqué Erin LeBlanc, l'auteur principal de cette étude.

Il y a environ 1,6 million de fractures de la hanche par an, dont 51 % en Europe et en Amérique. Environ la moitié des femmes de plus de 50 ans qui se fracturent un os souffrent d'ostéoporose, selon la Fondation nationale américaine contre l'ostéoporose. Cette étude financée par l'Institut national de la Santé a porté sur près de 10 000 femmes enrôlées entre 1986 et 1988 dans quatre villes américaines pour une étude sur l'ostéoporose.

Au cours des vingt dernières années, 1.116 femmes du groupe se sont cassé la hanche. En fonction de leur âge, les données les concernant ont été comparées à celles de 4464 autres femmes qui ne s'étaient pas cassé la hanche. «Parmi celles qui s'étaient cassé la hanche et qui sont mortes dans l'année, plus de la moitié sont mortes dans les trois mois après la fracture et près de trois quarts dans les six mois», ont précisé les chercheurs.

Ces chiffres montrent le rôle clé que joue la fracture de la hanche dans la détérioration générale de la santé d'une femme, a expliqué une des co-auteurs de cette recherche.

Cyberpresse

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Des manuscrits de la mer Morte mis en ligne sur Internet
Mercredi, 05/10/2011 - 01:00

Environ deux mille ans après leur rédaction et quelques décennies après leur découverte dans des caves du désert de Judée, certains des manuscrits de la mer Morte sont désormais lisibles en ligne, depuis lundi 26 septembre.

Le musée national d'Israël s'est associé au géant Google pour rendre accessible sur Internet cette collection de textes bibliques et apocryphes, acquis par l'Etat hébreux entre 1947 (date de leur découverte à Qumrân, à 20 km au sud-est de Jérusalem) et 1967. Cinq manuscrits ont été publiés, qui incluent le livre d'Isaïe. La technologie fournie par Google permet aux lecteurs de chercher un passage spécifique dans le texte et de le traduire en anglais.

  • Découverts par des bergers bédouins

Ces textes inscrits sur des rouleaux de parchemin de 10 à 20 cm de largeur, sur du papyrus ou sur des fragments de cuir, ont été rédigés entre 250 av. J.-C. et 100 apr. J.-C. Le quart de ces fragments est à l'origine de deux religions révélées, le judaïsme et le christianisme : ils contiennent les copies connues les plus anciennes de la plupart des textes de la Bible hébraïque (seul le livre d'Esther manque à l'appel). Ils sont rédigés en araméen, langue officielle de Babylone et alphabet choisi par les rabbins, au IIe siècle, pour écrire l'hébreu. Ils avaient été découverts par des bergers bédouins, sur les bords de la "mer de Sel" des Hébreux, où le récit biblique situe les villes maudites de Sodome et Gomorrhe.

Google travaille également avec le musée d'Israël à Jérusalem pour créer la première édition numérique compréhensive des manuscrits. Ces copies, qui doivent servir de base au travail des chercheurs – et qui seront accessibles à tous sur Internet – permettront au musée de ne plus sortir les originaux de leurs réserves que très exceptionnellement, par souci de conservation.

Le Monde

Les 10 produits les plus étranges issus des technologies de la Nasa
Dimanche, 02/10/2011 - 01:30

Une fleur aquatique qui absorbe les eaux usées, un lubrifiant, une appli iPad de géolocalisation, des couches ultra-absorbantes, un parfum à la rose «en apesanteur», autant de produits «innovants» créés grâce aux technologies de la Nasa. Des objets des plus déconcertants qui sont des applications directes de découvertes faites par l’agence en charge de la recherche spatiale et de l'aéronautique des Etats-Unis. Un article de io9 du 15 septembre en donne quelques exemples.

La technologie de fabrication des vêtements ultra absorbants utilisés par des astronautes a été, par exemple, reprise par l’industrie des couches pour bébés.

Le lubrifiant, Astroglide, fut conçu par  Dan Wray, un ingénieur, alors qu’il travaillait sur les systèmes de refroidissement d’une navette spatiale en 1977. Ou encore, une application pour l’iPad capable de vous géolocaliser avec une très grande précision –au centimètre près– est issue d’une technologie conçue au départ par la Nasa pour permettre la navigation de robots.

Un chercheur de la Nasa, Bill Wolverton, a découvert le pouvoir absorbant de la jacinthe d’eau –qui pousse en grande quantité au sud de Etats-Unis. Cette herbe aquatique est capable d’avaler comme une éponge les eaux d’égoûts dont on ne sait plus que faire, grâce à une microbactérie. Cette découverte a été largement appliquée pour la purification des eaux usées au sud des Etats-Unis.

Et ça n’est pas fini. Shiseido, la célèbre marque japonaise de parfums, a sorti «Zen» un parfum qui sent la «rose en apesanteur» plantée dans une navette spatiale.

Selon un article du PBBS du 5 septembre, la Nasa a recensé plus de 1.750 applications à la vie de tous les jours qui trouvent leur origine dans ses recherches. Mais la plus grande contribution de la Nasa selon Roger Launius, conservateur du National Air and Space Museum de Washington, est d’avoir rassemblé des équipes de scientifiques qui collaborent pour résoudre des problèmes. «Puis, quand ils retournent seuls dans leurs universités ou entreprises, ils emportent avec eux les connaissances qu’ils ont engrangées pendant leur travail en équipe», dont ils tirent parfois des applications pour la vie de tous les jours.

Slate

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La voiture reconfigurable est attentive à son conducteur
Jeudi, 06/10/2011 - 01:30

Une voiture en kit et personnalisable ? Ford est parti de ce constat pour mettre en place, en partenariat avec Bug Labs, un fournisseur en open source de matériels et de logiciels, un projet de véhicule reconfigurable. Celui-ci repose d'abord sur une plate-forme open source en ligne, nommée Open XC, et sur laquelle les consommateurs peuvent proposer des améliorations à la fois pour les équipements et les applications du véhicule. Ensuite, à partir des remarques, mais aussi via leur propre initiative, des développeurs pourront mettre au point applications et systèmes dédiés. Venkatesh Prasad, manager technique chez Ford Innovations, explique ainsi: "OpenXC  est une plate-forme qui a vocation à être totalement accessible à la communauté des développeurs, et qui intègre très rapidement les demandes du marché, afin de produire des solutions innovantes à de prix abordables".

Depuis l'interface audio jusqu'aux systèmes de sécurité, tout ce qui compose la voiture peut-être sujet à modification. Les ingénieurs de Ford analysent ensuite les améliorations proposées via la plate-forme, jugeant par là-même de leurs faisabilités. Dans le cas où celle-ci s'avère effective, la pièce est produite par Bug Labs. Dès lors, le consommateur n'a plus qu'à se rendre à un point de vente pour acquérir ces add-on, et à les incorporer à la voiture qu'il possède. Soulignons que le véhicule a été évidemment conçu à cet effet, c’est-à-dire que le changement des composants est facilité. Au final, l'on se retrouve avec une voiture entièrement personnalisable, tant du point de vue des fonctions que des applications.

A terme, Ford souhaite même développer des applications personnalisables, qui favorisent les interactions entre conducteurs, sans même avoir à recourir au concepteur. L'entreprise a ainsi présenté une application permettant de gérer sa conduite afin d'économiser du carburant. Grâce à une mise en réseau des véhicules possédant le dispositif, celle-ci permet d'identifier celui dont la consommation est la moins élevée. Dès lors, il est possible de calquer la configuration du moniteur de ce dernier, afin de limiter au maximum sa propre consommation.

L'Atelier

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top