|
|
|
|
|
NUMERO 495 |
|
|
|
|
|
|
|
Edition du 20 Novembre 2008
|
|
|
|
|
Edito
La médecine régénérative fait des pas de géants
Une équipe de chercheurs de Genentech, firme de biotechnologies, dont le siège est à San Francisco, a identifié chez les rongeurs un marqueur, dit "CD117, d'une rare population de cellules souches adultes. Ils l'ont utilisé pour isoler des cellules capables de générer une prostate en les transplantant in vivo. La précieuse cellule a été greffée sous le rein de souris de laboratoire (97 transplants ayant permis le développement fonctionnel de 14 organes), d'après leur étude. Les cellules souches adultes sont déjà plus spécialisées que les cellules souches embryonnaires indifférenciées et susceptibles d'engendrer toutes les cellules de l'organisme. "C'est à notre connaissance, la première publication démontrant que l'on pouvait générer une prostate à partir d'une seule cellule souche adulte", notent les auteurs. Récemment, deux études ont décrit la reconstitution de glande mammaire de souris à partir d'une seule cellule souche. En démontrant qu'un organe fonctionnel pourrait être généré à l'aide d'une seule cellule souche adulte, ces études représentent une avancée remarquable dans le domaine de la recherche sur les cellules souches. En Espagne, une équipe de chercheurs du Salk Institute dirigée par Juan Carlos Izpisua Belmonte, directeur du Gene Expression Laboratory au Salk Institute et du Centre de Médecine Régénérative de Barcelone a pour sa part réussi à générer des cellules souches pluripotentes induites (iPS) à partir d'un nombre limité de kératinocytes provenant d'un unique cheveu humain. Les cellules iPS sont des cellules souches pluripotentes artificiellement dérivées le plus souvent de cellules somatiques adultes, grâce à l'expression induite d'un cocktail de gènes impliqués dans la reprogrammation de ces cellules. Les expériences effectuées jusqu'ici font état d'un rendement limité : 1 cellule sur 10.000 seulement étant reprogrammée avec une durée de 3 à 4 semaines nécessaires pour obtenir une colonie. De plus, alors que chez la souris, différents types de cellules ont ainsi pu être reprogrammées avec succès (fibroblastes, cellules du foie et intestinales), les fibroblastes de la peau avaient été jusqu'ici les seules cellules humaines à être testées. Dans cette étude, les scientifiques ont testé la capacité a être reprogrammées des kératinocytes, cellules constituant 90 % de la couche superficielle de la peau (épiderme) et des phanères (ongles, cheveux, poils, plumes, écailles), à l'aide de vecteurs viraux exprimant les régulateurs Oct4, Sox2, Klf4 et c-Myc. Après seulement 10 jours de culture, une cellule sur 100 donnait naissance à une colonie de cellules présentant tous les marqueurs propres aux cellules souches embryonnaires humaines. Les scientifiques ont ensuite induit la redifférenciation de ces cellules souches dérivées de kératinocytes (K-iPS) en différents types cellulaires du corps humain, notamment en cellules cardiaques et en neurones producteurs de dopamine, neurones qui sont affectés dans la maladie de Parkinson. La surprenante efficacité d'une telle technologie a été confirmée en reprogrammant des kératinocytes cultivés en K-iPS, à partir d'un unique cheveu. La comparaison du profil d'expression des gènes reliés à l'identité des cellules souches, la croissance et la différenciation, a mis en évidence que les kératinocytes avaient plus de points communs avec les cellules souches embryonnaires et les K-iPS que les fibroblastes, ce qui pourrait expliquer pourquoi les kératinocytes semblent plus faciles à reprogrammer. Cette approche expérimentale fournit non seulement un modèle d'étude pour la compréhension des mécanismes de la reprogrammation cellulaire mais également une alternative simple, pratique et non invasive pour la génération de cellules souches spécifiques de patients. En France, une équipe de chercheurs menée par Anselme Perrier de l'Institut des cellules Souches pour le Traitement et l'Etude des maladies Monogéniques (Unité mixte de recherche Inserm/UEVE UMR861, I-STEM, AFM), dirigé par Marc Peschanski, vient de réussir une première greffe de cellules souches embryonnaires humaines chez un animal modèle pour la maladie de Huntington. Les chercheurs ont ainsi développé un protocole permettant de transformer ces cellules en un type de neurones spécifiquement touchés dans la maladie de Huntington. Par la suite ils ont démontré la capacité de progéniteurs neuronaux, issus des cellules souches embryonnaires, à se différencier en neurones dans le cerveau de rats présentant des lésions similaires à celles observées chez l'homme. Une autre équipe de l'Institut Pasteur et du CNRS vient d'identifier une nouvelle source de production de neurones dans le cerveau adulte. Leurs travaux, publiés dans le Journal of Neuroscience, apportent la preuve des capacités intrinsèques du cerveau à s'auto-réparer. Ils ouvrent ainsi des perspectives inattendues pour le développement de thérapies, notamment pour le traitement des pathologies neurodégénératives, comme la maladie de Parkinson ou la Chorée de Huntington. En 2003, alors que les neurobiologistes considéraient depuis toujours que le cerveau et la moelle épinière ne pouvaient se réparer, en cas de lésion ou de maladie, la découverte de cellules souches au coeur du cerveau adulte par Pierre-Marie Lledo et son équipe, à l'Institut Pasteur (unité Perception et mémoire (D'une manière générale, la mémoire est le stockage de l'information. C'est aussi le souvenir d'une information.), CNRS URA 2182), avait bouleversé le dogme central en neurobiologie. Les chercheurs avaient en effet montré que certaines cellules non-neuronales, appelées cellules gliales, pouvaient se transformer en neurones, eux-mêmes capables d'intégrer des réseaux cellulaires existants. Aujourd'hui, Pierre-Marie Lledo et son équipe apportent de nouveaux espoirs pour les stratégies thérapeutiques qui visent à réparer le cerveau. En collaboration avec l'unité de Virologie moléculaire et vectorologie, dirigée à l'Institut Pasteur par Pierre Charneau, les chercheurs prouvent en effet que ces cellules souches de type glial, capables de se transformer en neurones, sont localisées non seulement dans la zone de formation qu'ils ont identifiée en 2003, mais également tout le long d'un tunnel dans lequel migrent les nouveaux neurones, ainsi que dans le bulbe olfactif. L'équipe a observé que l'absence de stimulation olfactive, à la suite d'une lésion de l'organe sensoriel, intensifiait la transformation des cellules gliales en neurones. Cette formation des néo-neurones démontre que le cerveau possède une capacité d'autoréparation extraordinaire. Enfin,il y a quelques jours, des chercheurs de l'institut de recherche public nippon Riken sont parvenus à générer des tissus du cortex cérébral à partir de cellules souches prélevées sur un embryon (Voir article dans notre rubrique "Sciences de la Vie). Ces récentes et remarquables avancées de la recherche montrent que l'on pourra un jour sans doute pas si lointain, grâce à la maîtrise de l'utilisation des cellules souches, régénérer complètement des organes lésés ou détruits et restaurer des fonctions physiques ou cognitives altérées par l'âge ou la maladie. C'est donc bien une nouvelle révolution médicale qui est en train de s'accomplir sous nos yeux. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Si vous passez par Rennes, pensez à activer la connexion Bluetooth de votre téléphone portable, pour peu que en possédiez une. En effet, depuis quelques semaines et jusqu'à la fin de l'année, la ville bretonne teste un nouveau mode de communication : l'envoi de contenus directement sur le mobile du visiteur. Pour cela, elle a disposé sept bornes de connexion sans fil Bluetooth à différents endroits stratégiques de la ville : mairie, centre culturel, aéroport, parking de centre-ville, piscine municipale, etc. Le projet a été baptisé BlueRennes. Dès qu'un téléphone ou qu'un smartphone avec une connexion Bluetooth active est détecté, la borne expédie un message demandant l'autorisation d'envoyer du contenu. Si l'utilisateur refuse, il ne sera pas sollicité de nouveau par la borne éventuellement avant le lendemain. S'il accepte, la borne lui envoie gratuitement un fichier sonore ou une image (par exemple, parking de la Poterie, un instantané de l'état du trafic rennais). Chaque borne voit son contenu spécifique selon son emplacement (actualité municipale, sportive, événements culturels...) réactualisé au minimum toutes les 24 heures par Wi-Fi ou par liaison Ethernet. Les informations sont récupérées sous forme de flux RSS, avant une diffusion vers les téléphones. Pour Dominique Kergosien, chargée du projet BlueRennes au service information multimédia de la Mairie, cette expérimentation vise « à toucher les 15-25 ans que nous n'arrivons pas à atteindre avec les méthodes d'informations municipales classiques ». Un succès ? « Pour l'instant, nous n'avons pas eu de retour négatif, alors que nous avions lancé l'opération en plein débat sur les ondes radio. Sur l'ensemble des bornes rennaises, il y a 1 000 connexions proposées par jour et 3 % d'acceptation, soit largement plus que les autres expériences tentées en France. Pour Richard Seltrecht, directeur de la société Selten, conceptrice des bornes, ce taux d'acception se situe plus autour de 4 à 5 %, surtout dans des zones d'attente comme l'aéroport. La société a financé en partie l'installation des bornes utilisées par Rennes, à savoir 35 000 euros sur un budget total de 55 000 euros. Pour la municipalité, cette expérience est déjà un succès. OINet
|
|
|
|
|
|
|
|
La photonique servait surtout jusqu'à présent à connecter différents ordinateurs entre eux par l'intermédiaire de fibres optiques. Grâce aux laboratoires HP, cette discipline pourrait bientôt avoir une nouvelle application commerciale. Ces derniers travaillent en effet à l'utilisation de la photonique au sein même des ordinateurs. " Les effets de la lumière n'ont jusqu'à présent été utilisés que pour relier des postes entre eux. Mais il doit être possible de s'en servir comme de vecteurs de transmission de données entre les différents circuit imprimés d'un serveur", explique Mike Tan, un chercheur aux HP Labs. L'objectif étant notamment de conférer aux futurs serveurs une puissance de calcul supérieure. Les connexions d'un serveur traditionnel sont actuellement faites au moyen de broches et de fils de cuivre. Or la vitesse de transmission du cuivre demeure limitée par rapport à celle des signaux optiques. Les circuits actuels ont un débit maximal de 5 gigabits par seconde. Le cuivre ne pourra quant à lui jamais atteindre un débit supérieur à 10 gigabits par seconde. Pour leur part, les connexions optiques devraient bientôt pouvoir atteindre une vitesse minimale de 20 gigabits la seconde. Atelier
|
|
|
|
|
|
|
|
Une équipe de scientifiques de la School of Materials Science and Engineering à Clemson University, dirigée par le professeur Ballato a réalisé pour la première fois des fibres optiques avec un coeur en silicium (Si) cristallin en utilisant les mêmes techniques de production de masse que pour les fibres optiques à coeur de silice (SiO2). Cela rend la fabrication de ces fibres économiquement viable, et à terme devrait permettre d'augmenter l'efficacité et diminuer la consommation électrique dans les ordinateurs et autres systèmes optoélectroniques. Les fibres optiques transportent un nombre grandissant d'informations pour les télécommunications. Le principal avantage qu'offre la transmission par fibres optiques est une bande passante très élevée. Quel est alors l'avantage d'un coeur en silicium cristallin quasiment pur par rapport aux coeurs de silice ? Jusqu'à maintenant, une structure était nécessaire pour traiter l'information lumineuse (des circuits optoélectroniques indépendants), et une autre pour la transporter (la fibre). Avec un coeur en silicium cristallin, la possibilité d'améliorer les fonctionnalités du transport par fibre optique devient réelle. Habituellement les fibres sont faites d'un noyau en silice d'indice plus fort que celui de la gaine optique (le cladding, en silice dopé). La technique de fabrication est très bien maîtrisée, mais pour certaines longueurs d'ondes un noyau fait de silicium cristallin pur pourrait porter des signaux plus propres. De plus, le silicium cristallin offre des propriétés non linéaires (l'effet Kerr, la diffusion Raman et l'effet Brillouin) beaucoup plus importantes que pour les fibres optiques classiques. Cela permettrait par exemple l'amplification d'un signal lumineux ou le passage d'une longueur d'onde à l'autre. Le développement d'une fibre en silicium ouvre la voie au traitement du signal qui est actuellement réalisé par des systèmes électroniques ou par des circuits optiques indépendants, directement dans la fibre à coeur de silicium cristallin, ayant pour conséquence directe de simplifier les systèmes et réduire leur taille. BERobotique
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Pour redonner la vue à des personnes l'ayant perdue ou souffrant de graves troubles de la vision, l'oeil bionique s'annonce de plus en plus comme une solution envisageable. Le consortium Bionic vision, qui regroupe l'université et plusieurs instituts de recherche comme le Bionic Ear Institute, vient ainsi de se créer. Il espère accélérer la mise au point d'une prothèse compatible avec une commercialisation. Concrètement, l'oeil bionique consistera en un implant composé de mille électrodes et intégré derrière la rétine, juste avant le nerf optique. Une caméra, placée sur une paire de lunettes, sera chargée de prendre des images de l'environnement. Un microprocesseur convertira ensuite les clichés en signaux numériques envoyés vers l'implant par connexion sans-fil. Celui-ci transmet ces signaux au nerf optique, qui envoie des impulsions électriques au cerveau. Le centre visuel de celui-ci met enfin ces pulsions nerveuses en images. Le consortium travaille sur deux prototypes. Le premier donnera une vision ambulatoire aux patients qui souffrent d'une mauvaise perception des couleurs et du mouvement. Ils devraient ainsi être capables de mieux percevoir les contrastes, et de distinguer les objets de grande taille. Les chercheurs vont affiner les capacités de la prothèse dans le cadre du second prototype. Avec lui, les malvoyants percevront les visages et seront à même de lire de gros caractères. La restauration de la vue correspondra à une échelle de 20/80. Selon le directeur du Centre for Implantable Bionics et participant au projet, Gregg Suaning, le premier oeil bionique sera apte à être transplanté dans une rétine humaine d'ici 2012. Le second devrait pour sa part être finalisé pour 2013. Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les feuilles de buckypaper sont composées de nanotubes de carbone et en contiennent jusqu'à 50 %. Dix fois plus légères et potentiellement cinq cents fois plus solides que l'acier -lorsque les feuilles sont empilées et pressées ensemble elles forment un composite conducteur de courant et de température-, ont un large éventail d'applications allant du rétro éclairage pour les écrans plats à la régulation thermique pour la microélectronique, de la protection contre la foudre à la structure des avions ou des automobiles. Le Dr Wade Adams, directeur du Smalley Intitute à Rice University (Houston) en loue les propriétés "toutes ces propriétés sont ce que les scientifiques en nanotechnologies ont tenté d'atteindre alors qu'ils cherchaient une sorte de Graal". Malheureusement pour le moment, les feuilles de buckypaper ne peuvent être fabriquées qu'à un prix très élevé, en faible quantité, et leur résistance est encore trop faible par rapport à leur potentiel. Cela rend leur manipulation et leur utilisation délicate. Pour résoudre ce problème et rendre le matériau compétitif industriellement, l'équipe de chercheurs menée par Ben Wang a développé un moyen d'infiltrer le buckypaper dans une solution de polymères pour créer des composites thermoplastiques qui sont plus consistants, plus durs, et plus adaptés pour un environnement industriel. Les travaux de recherche ont été menés au High-Performance Materials de Florida State University, épaulés par des experts de Lockheed Martin Missile and Fire Control. Une des problèmes principaux est que les nanotubes s'attachent entre eux en formant des angles incontrôlés, ce qui limite la résistance du buckypaper. La solution de l'équipe de Wang est d'exposer les nanotubes à un fort champ magnétique, ce qui a pour effet de les aligner correctement et donc d'augmenter la résistance du buckypaper. Un autre problème est que les nanotubes sont tellement lisses qu'il est difficile de les faire tenir ensemble avec de la résine époxy. Les chercheurs cherchent donc un moyen d'ajouter des petites quantités de défauts aux nanotubes pour améliorer les liaisons chimiques. Avec l'approche d'infiltration de résine vient la difficulté à contrôler la quantité de résine imprégnée et l'épaisseur finale du buckypaper. L'infiltration de résine est un procédé multi étapes qui implique un nombre de paramètres comme la viscosité de la résine, la température et la pression d'imprégnation, ainsi que les conditions de séchage et de cuisson. En observant des échantillons de ce composant en détail, l'équipe a remarqué une imprégnation complète de la résine. Cependant, la caractérisation au microscope à balayage électronique révèle une différence dans les épaisseurs des échantillons. L'effet négatif de ceci est une inconsistance dans les propriétés mécaniques et électriques d'un échantillon à l'autre, pour la même structure de nanotubes. Pour contrecarrer ce problème, l'équipe procède à une étude paramétrique : des approches statistiques et expérimentales sont employées pour identifier le paramètre dominant et formuler les corrélations inter paramètres. Pour le moment, les chercheurs ont obtenu des échantillons ayant une résistance moitié moindre que le meilleur matériau composite du moment, le IM7, mais Wang espère combler cette lacune rapidement. Son objectif est d'obtenir d'ici la fin de l'année prochaine un composite buckypaper aussi résistant que l'IM7 mais 35 % plus léger. Les applications à long terme, d'après Wang, se situent en aéronautique. Cependant, cela prendra jusqu'à cinq ans pour obtenir un nouveau matériau de structure en aéronautique. Wang espère donc obtenir les premières applications de son buckypaper pour la protection des avions contre les interférences électromagnétiques et contre la foudre. D'autres applications à plus court terme sont aussi possibles, notamment pour les électrodes des piles à combustible, les supercapacités ou les batteries au Lithium, voire pour la dissipation de chaleur pour les ordinateurs portables. BE
|
|
|
|
|
|
|
|
Une équipe de chercheurs du Rensselaer Polytechnic Institute dirigée par le physicien Shawn Yu Lin a découvert et démontré l'efficacité d'un nouveau revêtement de cellules solaires qui améliore grandement l'absorption de l'énergie lumineuse. Ce revêtement antiréflexion presque parfait absorbe tout le spectre lumineux, des rayons ultra-violets aux infra-rouges, et ceci quel que soit l'angle d'incidence. Une cellule photovoltaïque classique en silicium peut absorber 67,4 % de la lumière du soleil qui l'atteint, ce qui signifie que quasiment un tiers de cette lumière est réfléchie et donc irrécupérable. D'un point de vue économique, le potentiel ainsi perdu représente une barrière à la prolifération solaire. Pour récupérer tous les photons du spectre solaire, il faut faire en sorte que la réflexion des rayons incidents (réflexion Fresnel) à la surface d'une cellule solaire soit éliminée. Le revêtement nanostructuré multicouches conçu par l'équipe du Rensselaer Polytechnic Institute permet l'absorption quasi totale (96,21 %) de l'énergie lumineuse qui atteint sa surface, et ceci pour toutes les longueurs d'ondes du spectre : l'équipe de chercheurs a mesuré une réflexion Fresnel allant de seulement 1 % à 6 %, sur le spectre 400nm à 1600nm. En plus d'une meilleure absorption des rayons lumineux, le revêtement antiréflexion conçu par l'équipe de Shawn Lin permet de résoudre le problème des angles d'exposition. La plupart des revêtements de cellules solaires sont conçus pour avoir un fonctionnement optimal sous une exposition normale à leur surface, c'est pourquoi dans les centrales photovoltaïques, les panneaux solaires sont mécaniquement automatisés pour suivre la course du soleil, comme les héliotropes, pour optimiser le rendement. Le prix à payer pour cette optimisation est la consommation du système automatisé, le prix de maintien, sans compter les erreurs d'alignement. Le revêtement de Lin absorbe plus de 95 % de la lumière sous une plage angulaire (par rapport à la normale au revêtement) de 0 à 60°, soit un cône de 120°. Les deux couches supérieures sont faites de nano-bâtons obliques de SiO2, accrochés au substrat par dépôt chimique en phase vapeur. En effet, l'équipe démontre que le gradient d'indice et les bâtons obliques de la dernière couche permettent de minimiser drastiquement la réflexion Fresnel pour toutes les longueurs d'ondes et angles d'incidences, ce qui diffère totalement des traditionnels revêtements antiréflexion quart d'ondes. D'après Shawn Lin, ce nouveau revêtement peut être appliqué à presque tous les matériaux photovoltaïques, y compris les multijonctions III-V et Cadmium Telluride même s'il reste à en améliorer la robustesse. Néanmoins, les résultats obtenus sont prometteurs : l'efficacité de conversion a été améliorée de 22,2 % entre un revêtement classique quart d'onde et le revêtement sept couches avec gradient d'indice. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Une sonde spatiale indienne s'est récemment posée sur la Lune, pour la première fois depuis le lancement du programme spatial indien il y a 45 ans, a annoncé l'Organisation indienne de recherche spatiale (ISRO). La sonde a touché le sol lunaire à 20h34 heure de New Delhi (15h04 GMT), 25 minutes après avoir été éjectée d'un vaisseau spatial non habité en orbite autour de la Lune, a précisé un porte-parole de l'organisation, S. Satish. La sonde, sur les panneaux extérieurs de laquelle est peint un drapeau indien, a aluni dans un cratère du pôle sud de la lune, a ajouté M. Satish à Bangalore, où se trouvent le quartier général de l'ISRO. "Une caméra vidéo placée à bord (de la sonde) a transmis des images de la lune au centre de commande de l'ISRO pendant la descente" de la sonde du vaisseau Chandrayaan-1 au sol lunaire, a-t-il ajouté. Ce premier alunissage d'un appareil indien, annoncé par le président de l'ISRO Madhavan Nair, a été salué sur place par les applaudissements des scientifiques encadrant la mission. Cette dernière a débuté le 22 octobre avec le lancement de Chandrayaan-1, qui a tourné plusieurs jours autour de la Terre avant d'entrer dans l'espace lunaire le 4 novembre. Il s'est ensuite stabilisé à 385.000 km du globe terrestre avant d'envoyer la sonde chargée d'effectuer de premiers tests à la surface de la Lune. Chandrayaan-1 transporte onze instruments scientifiques indiens, européens et américains. Durant deux ans, il doit effectuer des expériences autour de et sur la lune, comme des études topographiques, la recherche d'eau, de minéraux et de substances chimiques, notamment grâce à l'alunissage de la sonde. La mission, d'un montant de 80 millions de dollars, doit consacrer la place de l'Inde dans la course à la conquête spatiale face à ses concurrents chinois et japonais. L'Inde avait lancé son programme spatial en 1963 en développant ses propres satellites et appareils de lancement pour réduire sa dépendance vis-à-vis des agences spatiales étrangères dans ce domaine. Yahoo
|
|
|
|
|
|
|
|
Pour la première fois, des astronomes ont pris des photos de planètes en dehors de notre système solaire. Deux groupes de chercheurs annoncent la nouvelle dans la revue Science. La première de ces "exoplanètes" a été identifiée tournant autour d'une étoile à 25 années-lumière de la terre, soit environ... 236500 milliards de km. Une autre étude a permis de prendre des images de trois planètes en orbite autour d'une étoile dans la constellation de Pégase. Jusqu'ici, la recherche de ces planètes extra-solaires se faisait de façon indirecte, en détectant les mouvements infimes qu'elles impriment à leur étoile. Ou bien, si elles étaient dans le champ de téléscopes, par la façon dont la lumière émise par l'étoile s'atténuait quand les planètes passaient devant elle, en la cachant en partie. Mais il est maintenant possible de détecter la lumière réfléchie par ces planètes, ce qui va permettre aux astronomes d'étudier de façon détaillée leur composition et celle de l'atmosphère qui les entoure. La difficulté est que la lumière de l'étoile au centre de ces systèmes est intense, et tend à les "noyer" : un peu comme si, à une distance d'un kilomètre, on cherchait à détecter la flamme d'une allumette située à côté d'un projecteur. Mais des progrès ont été réalisés dans l'optique et le traitement des images, et les astronomes ont pu séparer les deux sources lumineuses, otant la lumière émise par les étoiles et ne laissant que celle, plus faible, des planètes. Celle-ci peut provenir de rayonnement infrarouge, ou bien il peut s'agir de lumière des étoiles reflétée par ces planètes. Paul Kalas de l'université de Berkeley en Californie a dirigé un groupe international qui s'est servi du téléscope spatial Hubble pour obtenir des images de la région entourant une étoile baptisée Fomalhaut b dans la constellation du Poisson austral (ou Piscis Austrinus). L'étoile est entourée d'un énorme anneau de poussière, dont le bord interne semble assez nettement découpé. Or ceci est conforme à la théorie dite de "l'accrétion", selon laquelle les planètes jeunes attirent à elles de la poussière et des matières diverse pendant qu'elles sont en orbite. Voyant cet anneau, les chercheurs ont donc soupçonné la présence d'une planète, et se sont mis à rechercher cette dernière en 2005. En mai dernier, leurs travaux ont abouti. L'équipe a maintenant identifé la planète etl'a appelée Fomalhaut b. Située à environ 18 milliards de km de son étoile, elle a une taille comparable à Jupiter. Elle met environ 870 ans à compléter un tour d'orbite. Cette étude de la lumère provenant directement des planètes va permettre de recueillir des renseignements précieux sur leurs atmosphères et leurs surface qu'il serait impossible d'obtenir par une observation indirecte. De plus, ces résultats vont étayer les théories sur la formation des planètes à partir d'immenses anneaux de poussières et de matière entourant les étoiles. Et en extrapolant, il sera possible de mieux calculer le nombre de planètes semblables à notre terre. BBC
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La lutte contre les émissions de gaz à effet de serre responsables du réchauffement climatique aura-t-elle, en améliorant la qualité de l'air, des effets bénéfiques pour la santé ? Oui, mais seulement si les deux politiques - lutte contre le réchauffement climatique et contre la pollution atmosphérique - sont pensées et menées conjointement. Dans le cas contraire, elles peuvent avoir des effets contradictoires, parfois au détriment de la santé des populations. Tel est en substance le message des experts réunis au Parlement européen de Strasbourg, jeudi 6 et vendredi 7 novembre, pour un colloque consacré à l'intégration de ces problématiques. "Les deux questions ont jusqu'à présent été étudiées séparément, à des époques différentes, par des communautés scientifiques différentes, dans des cadres institutionnels différents", constate Jean-Marie Rambaud, vice-président de l'Association pour la prévention de la pollution atmosphérique (APPA), organisatrice de la réunion. "Nous avons besoin d'une approche globale, il n'y a qu'une seule atmosphère", a plaidé Roy Harrison, spécialiste de la santé environnementale à l'université de Birmingham (Grande-Bretagne). Les deux types de pollution sont en effet étroitement liés. Elles proviennent à peu près des mêmes sources, à savoir la combustion de carburants fossiles, la production industrielle et la production agricole. De plus, les deux phénomènes interagissent. L'ozone, qui est un polluant nocif pour la santé, contribue à l'effet de serre, et les particules ont un impact sur le climat. Réciproquement, l'augmentation des températures accélère les réactions chimiques dans l'atmosphère et aggrave la pollution. Ces interactions sont encore trop peu étudiées, selon les participants. Les avantages attendus d'une meilleure intégration des politiques sont de plusieurs ordres. Le bénéfice pourrait être économique et politique. L'objectif de réduire de 20 % les émissions de CO2 d'ici à 2020 en Europe contribuera à minorer les particules de 12 %, les oxydes d'azote de 15 %, et le dioxyde de soufre de 40 %}}, a expliqué Markus Amann au nom de l'International Institute for Applied Systems Analysis (IIASA). Le bénéfice économique lié aux maladies ainsi évitées pourrait atteindre 20 milliards d'euros par an. "Ce gain substantiel n'est jamais pris en compte dans les analyses des coûts et des bénéfices des politiques de lutte contre le changement climatique", regrette le chercheur. La mise en avant de ces bénéfices sur la santé pourrait aider à légitimer la lutte contre le changement climatique, surtout dans les pays en développement, où la pollution atmosphérique est perçue comme un enjeu majeur, à l'instar de la Chine. Une élaboration conjointe permettrait surtout d'éviter les contradictions. Le chauffage au bois, par exemple, est une source d'énergie renouvelable promue dans le cadre de la lutte contre les émissions de CO2, mais aussi un gros émetteur de particules. "Nous avons vu arriver une nouvelle source de pollution dans nos villes, a relaté Ed Dearly, de l'association britannique Environnemental Protection UK. Si le chauffage au bois remplace des centrales à charbon en milieu rural, où la pollution atmosphérique est limitée, c'est positif. S'il remplace du chauffage au gaz naturel, moins polluant, dans les villes, c'est négatif." Autre exemple : l'encouragement donné en France, par le bonus-malus, aux véhicules diesel, moins consommateurs de carburant donc moins émetteurs de CO2, mais eux aussi émetteurs de particules. Or l'installation de filtres à particules n'est pas obligatoire en Europe. Et la présence du filtre augmente la consommation du véhicule, annulant une partie de l'effet recherché. Une vision d'ensemble inciterait à privilégier les mesures efficaces sur tous les tableaux : économies d'énergie, efficacité énergétique, développement des énergies solaires et éoliennes, choix du rail et des transports en commun au détriment de la route, etc. Elle permettrait, en outre, d'anticiper les effets d'interactions inattendues. Les émissions de particules, par exemple, semblent avoir retardé les effets du réchauffement climatique en réfléchissant le rayonnement solaire. Leur diminution dans l'atmosphère risque donc d'accélérer le phénomène. "Cela ne veut pas dire qu'il faut arrêter de lutter contre la pollution atmosphérique, relève M. Amann, mais qu'il faut faire encore plus, et plus vite, contre les émissions de gaz à effet de serre." LM
|
|
|
|
|
|
|
|
Pour la première fois, la protection des forêts tropicales a été prise en compte, en décembre 2007, à Bali, où les Nations unies établissaient la "feuille de route" de l'après-Kyoto. Le massif forestier européen, lui, vient de tenir la vedette d'une conférence organisée à Nancy, du 6 au 8 novembre, par la présidence française de l'Union européenne (UE), dans le cadre des négociations sur le climat. L'enjeu, cette fois, étant moins de protéger les forêts que de mieux les gérer, et d'exploiter au mieux leurs capacités à constituer un "puits" de carbone. Car dans son ensemble, la forêt européenne se porte bien. Sa superficie (plus d'un milliard d'hectares, Russie comprise) s'est même accrue de 13 millions d'hectares - l'équivalent de la Grèce - au cours des quinze dernières années, du fait de l'extension des plantations et de son expansion naturelle sur d'anciens territoires agricoles. Or le bois est constitué à 50 % de carbone. La forêt, par sa biomasse et plus encore par l'humus qui se forme dans son sol, constitue donc un piège naturel pour cet élément chimique. Un moyen de lutter contre les gaz à effet de serre qu'il ne faut pas négliger, les experts du Groupe intergouvernemental sur l'évolution du climat (GIEC) ayant rendu, en 2007, un rapport inquiétant sur la vitesse à laquelle progressent les émissions de dioxyde de carbone (CO2). Comme tous les végétaux, la forêt, grâce à la photosynthèse, puise du carbone dans l'atmosphère, qu'elle lui restitue par la respiration, la décomposition ou la combustion de sa biomasse. Lorsque ces échanges sont inégaux, la forêt constitue soit une source de carbone (elle en relâche plus qu'elle n'en capte), soit, à l'inverse, un puits de carbone. C'est ce dernier cas qui prévaut en Europe, où l'on estime que le puits forestier compense environ 15 % des émissions de carbone fossile. Mais pour combien de temps ? "Si l'idée du puits de carbone forestier s'est développée du fait de l'augmentation de productivité observée dans de nombreuses forêts d'Europe et d'Amérique du Nord, cette tendance ne doit pas faire oublier l'importance des événements extrêmes", tempère Jean-Luc Peyron, directeur du groupement d'intérêt public Ecofor. Il rappelle qu'à la suite de la canicule de 2003, la productivité primaire brute a été réduite de 30 % à l'échelle de l'Europe par rapport à 2002. Les conditions climatiques ont alors annulé, par leur ampleur, l'équivalent de "quatre années de puits". Un phénomène exceptionnel qui pourrait devenir plus fréquent dans le cadre du changement climatique, laissant augurer une moindre efficacité du puits forestier. Cette probable évolution pourra-t-elle être compensée, voire davantage, par des mesures de gestion appropriées ? Impact des coupes d'arbres dans un peuplement portugais d'eucalyptus, évolution des massifs finlandais selon différents scénarios, amélioration des modèles de simulation de la croissance forestière : les exemples cités lors de la conférence de Nancy témoignent du dynamisme des recherches menées pour évaluer le rôle des formations boisées sur le cycle du carbone, dans les conditions climatiques actuelles et à venir. Côté terrain, quelques initiatives apparaissent également. Ainsi celle de l'association France Forêts, qui met en place une trentaine de sites forestiers pilotes, afin d'offrir aux professionnels des exemples de gestion permettant d'améliorer le bilan carbone et d'optimiser l'utilisation du bois. Pour l'heure, cependant, l'essentiel est ailleurs. Dans le protocole de Kyoto - dont les objectifs ne s'appliquent qu'à la période 2008-2012 -, les quelques paragraphes consacrés à la forêt sont le résultat d'une négociation ardue entre de multiples parties et intérêts, qui aboutit à des règles complexes et actuellement peu applicables. Les délégués des Etats membres de l'UE et des organisations internationales présents à Nancy en ont âprement discuté : pour préparer "l'après-2012" et mettre en oeuvre des projets concrets en matière de puits de carbone, il importe avant tout d'accélérer les négociations. LM
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Glasgow viennent de montrer que les inégalités de santé imputables à des différences de revenus sont plus faibles dans les zones où les espaces verts sont plus nombreux. Le détail de cette étude menée par Mitchell et collaborateurs vient d'être publiée dans la dernière livraison du Lancet. « Les conséquences possibles de cette étude sont claires : les environnements qui favorisent une bonne santé pourraient être cruciaux dans la lutte pour la réduction des inégalités de santé », commentent les auteurs de l'étude. Mitchell et collaborateurs expliquent que l'effet positif des espaces verts (parcs, forêts, aires de jeux avec présence de végétation) peut s'expliquer par plusieurs facteurs : ils favorisent l'exercice physique mais peuvent aussi avoir une action positive sur l'état psychologique, la pression artérielle ou encore le niveau de stress. Dans ce travail, les chercheurs ont étudié les données de près de 41 millions d'anglais avec notamment des chiffres de mortalité de 366348 personnes afin de savoir si l'association entre les revenus et la mortalité variait en fonction d'un environnement riche en espaces verts ou non. Dans le cas de la mortalité totale, ils ont montré que les inégalités de santé entre les plus riches et les plus pauvres étaient deux fois plus faibles dans les endroits riches en espaces verts comparés aux zones qui en étaient le plus dépourvues. Cette différence était encore un peu plus marquée pour la mortalité par maladies circulatoires. Par contre, les auteurs n'ont pas trouvé d'effet significatif pour la mortalité dont les causes ne sont vraisemblablement pas affectées par un environnement vert telles que les cancers du poumon. Dans un commentaire de cette étude, le Dr Terry Hartig de l'Université d'Uppsala en Suède estime que cette étude apporte « la preuve précieuse que les espaces verts font plus qu'embellir le voisinage ; il apparaît qu'ils ont des effets réels sur les inégalités de santé, d'une façon qui devrait être prise au sérieux par les politiques et les autorités de santé ». Caducée
|
|
|
|
|
|
|
|
L'évaluation, conduite par le ministère du Développement durable en concertation avec les autres ministères concernés et parvenue à l'AFP, porte sur les coûts et les bénéfices directs économiques, sociaux et environnementaux de la loi programme du Grenelle adoptée à la quasi-unanimité en octobre, pour chacun des acteurs engagés : Etat, collectivités locales, entreprises, particuliers... Au total, les programmes concernant le bâtiment - le plus gros chantier du Grenelle - absorberont à eux seuls 205 milliards d'euros, dont 192 milliards dédiés à la seule rénovation thermique. Mais ces chantiers permettront aussi de maintenir ou créer près de 235.000 emplois. En outre, le coût de réalisation sera partiellement compensé par les économies d'énergie : avec un baril de pétrole à 55 euros, celles-ci représenteront environ 43 milliards d'euros (et 100 milliards pour un baril à 80 euros) pour la période 2009-2013. Dans les transports - doublement du réseau TGV, lancement du canal Seine-Nord et soutien au fret hors routier - les investissements devraient se monter à 192 milliards et représenter 80.000 emplois. Le développement des énergies renouvelables mobilisera sur la même période (2009-2013) quelque 115 milliards, avec un bénéfice escompté de 220.000 nouveaux emplois. Enfin, 23,2 milliards seront affectés à la protection de la biodiversité. Au total, selon l'étude, les programmes Grenelle permettront d'éviter l'émission d'environ 35 millions de tonnes de CO2 par an à partir de 2013 dans l'atmosphère. Pour le seul bâtiment, l'économie serait de 12 millions de tonnes de CO2/an à l'horizon 2013, soit une baisse d'environ 10 % par rapport à aujourd'hui. AFP
|
|
|
|
|
|
|
|
Le 6 novembre 2008, le Ministre-Président de Rhénanie du Nord-Westphalie, Jürgen Rüttgers, a inauguré une installation de production d'algues près de la centrale électrique du groupe RWE à Bergheim-Niederaußem, permettant d'en absorber et filtrer le CO2 à l'aide de microalgues. Cette installation pilote, fruit d'une coopération entre le Centre de recherche de Jülich, l'entreprise RWE et l'Université Jacobs de Brème, réunit toutes les conditions optimales pour les algues. "Ce projet montre que des centrales à charbon de haute efficacité et une protection innovante du climat ne sont pas forcément incompatibles", déclare Sebastian Schmidt, membre du comité directoire du Centre de recherche de Jülich. Dans cette installation d'environ 600 m2, les algues seront approvisionnées en CO2 directement par les gaz sortant de la centrale. Par rapport aux végétaux terrestres, les algues présente un taux de croissance sept à dix fois plus élevé et absorbent ainsi plus de CO2. La masse résultante fait l'objet de recherches, dans le but de la valoriser, pour du biogaz par exemple. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les chercheurs de l'institut de recherche public nippon Riken disent être parvenus à générer des tissus du cortex cérébral, la "tour de contrôle" du cerveau humain, à partir de cellules souches prélevées sur un embryon. Avant cette expérience concluante, l'équipe de recherche avait réussi à provoquer la différenciation de cellules souches en divers types de cellules, mais n'étaient pas parvenue jusque-là à les faire s'organiser en tissus. "En matière de thérapie régénérative, seules quelques maladies peuvent être soignées par la transplantation de simples cellules. Transplanter des tissus pourrait permettre d'améliorer le processus thérapeutique", a déclaré l'institut dans un communiqué. "Les tissus développés sont encore insuffisants et trop faibles pour soigner les patients victimes d'attaque cérébrale, mais l'étude du développement in vitro de tissus de cortex plus matures (...) va être approfondie", a-t-il ajouté. Ces tissus reconstitués pourraient aussi servir à étudier en laboratoire les causes de la maladie d'Alzheimer et être utiles pour développer des vaccins, a ajouté l'institut. La recherche sur les cellules souches est considérée comme très prometteuse pour venir à bout de pathologies telles que les cancers ou le diabète, ou pour remplacer des cellules, tissus ou organes endommagés du corps humain. Mais ce type de travaux est controversé dans un certain nombre de pays, la collecte de cellules souches entraînant la destruction des embryons humains sur lesquels elles sont prélevées. Le Japon autorise pour sa part l'utilisation d'embryons humains pour la recherche sur les cellules souches. L'institut Riken a toutefois précisé avoir développé également des tissus du cortex cérébral à partir de cellules souches dites pluripotentes induites (iPS). Ce type de cellules souches est créé en laboratoire à partir de cellules adultes prélevées sur la peau ou une autre partie du corps, un procédé qui permet de contourner la polémique éthique. Yahoo
|
|
|
|
|
|
|
|
Une équipe australienne, à qui on doit déjà un vaccin contre le cancer du col de l'utérus, effectue des recherches sur un vaccin contre le cancer de la peau qui pourrait être testé sur l'Homme dès l'année prochaine, a rapporté la presse australienne. Le professeur Ian Frazer a indiqué que les tests du vaccin contre le cancer de la peau pratiqués sur des souris avaient été concluants et que le vaccin devrait désormais être testé sur les humains dès l'année prochaine, selon le journal Sunday Telegraph. "Si nous obtenons des résultats encourageants, nous irons alors aussi loin et aussi vite que possible", a déclaré M. Frazer. Selon le chercheur, qui présentera les résultats de ses travaux au Congrès australien sur la santé et la recherche médicale, un vaccin contre le cancer de la peau pourrait être disponible d'ici à dix ans. Il pourrait alors être administré à des enfants de 10 à 12 ans pour éviter le développement de cette grave maladie qui tue annuellement 1.600 personnes en Australie. Le nouveau vaccin cherchera à agir contre le virus du papillome humain (VPH) et ses manifestations cutanées. Chercheur à l'Université de Queensland, M. Frazer a mis au point le vaccin Gardasil contre le cancer du col de l'utérus. Selon David Currow, responsable de Cancer Australia, un organisme qui soutient la recherche dans ce domaine, un tel vaccin n'empêcherait cependant pas la survenance de tous les cancers de la peau. "Comme nous l'avons vu avec le cancer de l'utérus, même s'il agit dans 70 % des cas, le vaccin ne protège pas dans 30 % des cas", a-t-il indiqué, rappelant donc que la prévention restait la meilleure façon d'éviter un cancer de la peau. "La meilleure façon de réduire le risque de cancer de la peau est de réduire l'exposition au soleil", a-t-il indiqué, alors que près de 400.000 cas de cancers de la peau sont diagnostiqués chaque année en Australie. Yahoo
|
|
|
|
|
|
|
|
L'insuline est la clef qui permet de faire pénétrer le sucre dans nos cellules. Chez les personnes atteintes d'obésité, les mécanismes mis en jeu par cette molécule se détériorent et entraînent l'apparition d'un diabète de type II. L'équipe de Philippe Valet (Unité Inserm 858 "Institut de médecine moléculaire de Rangueil") vient de mettre en évidence une nouvelle voie de secours qui, activée, participe à la régulation du taux de sucre dans l'organisme. Celle-ci fait appel à une protéine : l'apeline. Le sucre, naturellement présent dans le sang sous forme de glucose, est stocké dans le foie ou le tissu adipeux (graisse) grâce à l'action de l'insuline. Selon les besoins de l'organisme, le glucose est stocké ou directement utilisé pour assurer le bon fonctionnement du coeur, du cerveau, etc. Il arrive que ce mécanisme se détériore soit parce que l'insuline n'est plus produite (diabète de type I), soit parce que les récepteurs situés à la surface des cellules du foie se désensibilisent (diabète de type II). En conséquence, la cellule n'est plus capable d'assimiler le glucose. Un tel dysfonctionnement entraîne une élévation de la teneur en sucre dans le sang causant l'apparition de nombreuses complications. L'équipe de Philippe Valet vient de révéler que nos cellules sont dotées d'une deuxième voie permettant d'assimiler ce glucose. Cette découverte repose sur une protéine appelée "apeline" . Celle-ci, outre le fait d'être une "clef" différente de l'insuline passe également par un récepteur, une "porte d'entrée", différente. Pour le patient diabétique de type II, chez lequel ce n'est plus la clef mais la porte, ou récepteur, qui est biaisée, cette avancée fondamentale permet d'imaginer un traitement efficace. En effet, la découverte de l'équipe de Philippe Valet autorise, en court-circuitant ce mécanisme, l'assimilation du sucre par une voie totalement différente de celle médiée par l'action de l'insuline. En temps normal, cette seconde voie n'assure qu'une faible part de l'intégration du sucre. Mais comme l'ont prouvé les tests réalisés chez la souris par les chercheurs de l'Inserm, dans le cas du diabète de type II, si cette seconde voie est activée, elle est capable d'améliorer la régulation du taux de sucre dans le sang. "Il reste maintenant à vérifier l'action de cette protéine chez l'homme. En parallèle, nous développons une molécule de synthèse qui pourrait être utilisée si les tests chez l'homme s'avèrent positifs" conclut Philippe Valet. Inserm
|
|
|
|
|
|
|
|
Les TOC, problème psychiatrique qui touche 2 % de la population dans le monde à des degrés divers, peuvent constituer un handicap redoutable dans la vie quotidienne pour ceux qui en souffrent, rappelle l'équipe du Docteur Luc Mallet (Inserm-hôpital Pitié-Salpêtrière, Paris) dont les travaux sont publiés par le New England Journal of Medicine. Par ailleurs, la même équipe conduit actuellement un essai de stimulation électrique sur 14 patients concernant les cas les plus graves de maladie de Gilles de la Tourette, caractérisée par des tics moteurs et vocaux (mots grossiers involontaires). Le suivi prolongé des trois premiers patients opérés (6 ans pour le premier) montre que l'effet du traitement perdure et a permis une reprise du travail et une vie sociale normale, indique à l'AFP le Docteur Mallet. C'est par hasard, à l'occasion de traitement de parkinsoniens, que les chercheurs avaient découvert l'effet de l'implantation d'électrodes dans le cerveau sur des formes graves des TOC, résistantes aux traitements habituels. "La stimulation concerne 6.000 à 12.000 patients en France, soit moins de 10 % des TOC", dit le Docteur Mallet. "Les résultats sont vraiment probants", selon lui. Au bout de 3 mois de stimulation, 70 % des 16 patients, âgés de 29 à 56 ans et souffrant de TOC depuis 18 ans en moyenne, ont montré une amélioration : plus de 25 % de leurs symptômes ont disparu et 60 % atteignent un "fonctionnement global satisfaisant avec une gêne seulement modérée du fait de la maladie". La démonstration a été faite en "double aveugle", c'est-à-dire que ni les patients ni les médecins ne connaissaient les périodes de stimulations, poursuit le Docteur Mallet. Ce qui n'avait jamais été fait auparavant, dit-il. En fait, "l'ajustement de la stimulation permet une disparition des deux-tiers des symptômes dans la grande majorité des cas et dans un cas 100 % des symptômes ont disparu", précise-t-il. On verra par la suite s'il y a un retour au travail, ajoute-t-il. L'amélioration observée en début d'essai sans stimulation pourrait être due à la prise en charge exceptionnelle entourant les participants aux essais, avance le praticien. Les TOC sont caractérisés par l'obsession de la propreté, de l'ordre, de la symétrie, ou bien des doutes et peurs irrationnels envahissants. Les malades tentent de réduire leur anxiété en répétant inlassablement -des heures durant chaque jour- des rituels de rangement, de lavage ou de vérification. Dans un tiers des cas, le traitement usuel, associant thérapie comportementale et des antidépresseurs, est inefficace. La stimulation cérébrale profonde, utilisée avec succès depuis la fin des années 1980 dans le Parkinson, consiste à implanter deux électrodes dans le cerveau et à les relier à un stimulateur implanté sous la peau. Véritable pacemaker, ce stimulateur délivre un courant électrique continu corrigeant les signaux anormaux émis par le cerveau. Une erreur de quelques millimètres et la stimulation peut rendre le sujet hyperactif, irritable et insomniaque. Pour les chercheurs qui redoutent les dérives, cette méthode réversible mais délicate relève uniquement d'équipes expérimentées. NEJM
|
|
|
|
|
|
|
|
Selon de récents rapports de l'Organisation Mondiale de la Santé, plus de 1 milliard de personnes dans le monde souffrent de surpoids ou d'obésité, la plupart étant issues des pays développés. Aux Etats-Unis, la National Health and Nutrition Examination Survey a mis en évidence qu'en 2003-2004, 66 % des adultes de plus de 20 ans étaient concernés, et le Journal of The American Medical Association parle en 2006 de quasiment 4 américains (hommes) sur 5 âgés de 40 à 59 ans en surpoids. Alors que les traitements non chirurgicaux s'avèrent modérément efficaces pour lutter contre l'obésité, la perte ou le gain de poids peuvent être modulés par la ghréline, une hormone gastrique régulant l'appétit, et relachée par le corps pour encourager l'alimentation pendant les périodes de restriction calorique. Des études récentes suggèrent que des souris déficientes en ghréline ou en son récepteur stockent moins la nourriture consommée et ne sont plus sujettes à l'obésité induite par l'alimentation. De plus, des petites molécules antagonistes du récepteur de la ghréline induisent une réduction de la prise de nourriture et favorisent une perte de poids sélective. Ces types de médicaments n'ont cependant pas fait complètement leurs preuves : leur efficacité est avérée tant que le traitement est maintenu et dès que celui-ci est interrompu, la prise de poids redémarre. Idéalement, pour qu'un traitement fonctionne, il faudrait qu'il puisse cibler à la fois la prise de nourriture ainsi que la consommation et le stockage de l'énergie. La découverte récemment faite par des scientifiques du Scripps Research Institute irait dans ce sens grâce à la mise en évidence d'un anticorps catalytique capable de dégrader la ghréline. Malgré un faible niveau d'efficacité catalytique, cet anticorps GHR-11E11 permet une modulation efficace du comportement alimentaire, un plus fort taux de métabolisation et une suppression du besoin de s'alimenter étant observé chez les souris à jeun même après 24h de privation. Cette nouvelle étude suggère donc la possibilité qu'une immunopharmacothérapie passive utilisant un anticorps catalytique anti-ghréline tel que le GHR-11E11 pourrait décroitre le niveau de ghréline sérique et permettre aux patients d'atteindre et de maintenir leurs objectifs de perte de poids. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Derrière la fonctionnalité et la fiabilité d'une voiture se cachent deux critères très importants pour motiver l'achat d'un véhicule : le confort et l'esthétique. Les progrès actuels dans ces domaines sont relatifs à la fabrication d'une clé intelligente. A l'avenir, un paiement serait même possible à l'aide de cette clé. Portant le nom de "Multifunctional Car Key", la clé intelligente a été conçue par les entreprises BMW et NXP Semiconductors, une entreprise filiale de Philips qui fabrique des puces électroniques. Leur idée est la suivante : chaque conducteur aura à l'avenir sa propre clé, avec laquelle il pourra conduire n'importe quelle voiture, qu'il s'agisse d'une voiture privée ou d'une voiture de location, sous réserve d'avoir l'autorisation. Le conducteur pourra s'identifier auprès du véhicule à travers sa clé personnelle et l'habitacle intérieur s'adaptera automatiquement à son propre confort : hauteur du siège conducteur, température, chargement des stations de radio préférées, etc. La contribution technologique fournie par NXP est une puce sécurisée du nom de SmartMX. Certaines fonctions de cette clé sont déjà intégrées aux générations BMW série 7 et de nouvelles fonctions suivront dans les modèles de voitures prévus pour les deux prochaines années. Actuellement, la fonction innovante dont il est question permettrait d'effectuer des paiements (station-essence, parkings, etc.) par liaison radio à l'aide de la clé. Avant que cela ne soit possible, de nombreux aspects juridiques doivent être réglés et des accords trouvés avec les entreprises de cartes de crédit et les banques, notamment pour mettre en place une infrastructure adaptée. BE
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|