|
|
Edito
Le réchauffement climatique a déjà des conséquences irréversibles sur la nature
Dans son dernier rapport, publié le 8 mai sous l'égide du Professeur Jorgen Randers et intitulé " Prévision globale pour les quarante prochaines années" (Voir The Club of Rome) ,le célèbre Club de Rome confirme que la hausse attendue des émissions humaines de CO2 devrait bien provoquer une augmentation de 2°C de la température mondiale d'ici 2050 et de 2,8°C d'ici 2080 et cela même en tenant comte des facteurs de pondération que sont la décélération démographique (8 milliards d'habitants prévus en 2040 et la stabilisation de la croissance économique dans les pays développés).
Cette étude rappelle que l'homme émet à présent, en incluant la déforestation, prés de 10 milliards de tonnes de carbone par an (10 fois plus qu'en 1940), soit plus de deux fois la quantité que peut absorber la Terre dans ses sols, ses océans et ses forêts. Or, compte tenu de l'inertie des systèmes et processus de décisions et même si un nouveau traité international ambitieux prend la suite des accords de Kyoto, il faudra au moins 20 ans pour que nos émissions de gaz à effet de serre commencent à baisser au niveau mondial.
C'est dans ce contexte alarmant qu'il est intéressant de mettre en relation plusieurs études scientifiques internationales qui montrent que le réchauffement climatique accéléré (augmentation des températures moyennes mondiales de 0,8°C depuis un siècle et de 0,2°C par décennie depuis trente ans) a déjà des conséquences majeures et irréversibles sur la nature et l'ensemble du vivant.
Réalisée en 2005, la première étude concerne l'impact en Europe des canicules à répétition sur les plantes et plus généralement sur le cycle global du carbone. Cette étude montre que les canicules répétées ont entraîné une profonde modification des échanges gazeux et une diminution d'un tiers de la productivité végétale et agricole au cours du dernier siècle. Concrètement, les sols et forêts européennes ont émis plus de 500 millions de tonnes de CO2 en 2003, ce qui correspond à quatre ans de stockage de carbone par le milieu naturel européen.
Face à l'augmentation annoncée du rythme des fortes chaleurs et canicules, cela signifie que notre continent risque de devenir rapidement une source d'émission de carbone, ce qui ne ferait qu'aggraver encore le réchauffement général de la planète.
Une autre étude publiée dans la revue "Science" en 2009 montre que l'immense forêt tropicale d'Amazonie a stocké deux milliards de tonnes de CO2 par an en moyenne depuis 30 ans mais a émis trois milliards de tonnes de CO2 au cours de l'année 2005, particulièrement chaude et sèche. Au final, le bilan fait apparaître un solde négatif de cinq milliards de tonnes de CO2 relachées dans l’atmosphère, ce qui correspond à environ 15 % de l'ensemble des émissions humaines annuelles de CO2 en 2010 ou encore à l'ensemble des émissions annuelles européennes et russes de CO2.
Cette étude confirme les derniers travaux du GIEC (Groupe Intergouvernemental d’Etude sur le Climat) qui montrent que le réchauffement accéléré du climat risque de provoquer sur à peine un demi-siècle le remplacement des forêts tropicales par de la savane dans tout l'est de l'Amazonie, ce qui se traduira par une augmentation très sensible des émissions de gaz à effet de serre qui viendra en retour aggraver le réchauffement climatique.
Une autre étude, publiée dans "Science" en juin 2008 par des chercheurs de l’INRA et du CNRS a porté sur l'adaptation de 171 espèces des plantes au changement climatique depuis un siècle. Elle montre que les espèces végétales sont remontées, en moyenne, de 30 mètres tous les 10 ans pour tenter de s'adapter aux nouvelles conditions thermiques et climatiques (Science). Cette étude montre que si certaines espèces parviennent à s'adapter tant bien que mal à ce changement climatique, d'autres ont beaucoup plus de mal à survivre et sont globalement menacées dans leur existence.
Un article publié en octobre 2011 dans la revue Nature Climate Change montre que le réchauffement climatique est en train de provoquer une réduction sensible de la taille d'une grande quantité d'espèces animales et végétales. Il semble que la raréfaction de l'eau et des éléments dont se nourrissent les plantes soit à l'origine de ce phénomène de rétrécissement des végétaux.
Dans le milieu marin, l'acidification des océans provoquée par l'augmentation de la concentration de CO2 est également en train d'entraîner une réduction de la taille des espèces marines, comme le confirme une étude publiée en 2009 par le biologiste Martin Daufresne.
Enfin, une récente étude publiée dans la revue Nature confirme les conséquences biologiques majeures du changement climatique sur les espèces végétales (Voir Etude). Cette étude qui porte sur 1 600 espèces de plantes montre notamment que les plantes fleurissent beaucoup plus rapidement que les modèles de prévisions admis par les scientifiques. L'étude montre que la floraison et l'apparition des feuilles se déroulent en moyenne cinq jours plus tôt par degré d’augmentation de température. Dans l'est des Etats-Unis, on observe par exemple que les cerisiers fleurissent une semaine plus tôt qu'en 1970 !
Cette évolution rapide peut sembler anodine, il n'en est rien. Elle risque en effet d'avoir des conséquences très dommageables sur l'ensemble du biotope car dans la biosphère, tout se tient : l'alimentation et la reproduction des espèces animales sont étroitement liées aux cycles de floraison des plantes.
Notre planète forme un système vivant d'une prodigieuse complexité et possède d'extraordinaires capacités d'adaptation face aux grandes ruptures climatiques, comme le montre sa longue histoire. Mais cette fois, la mutation environnementale à laquelle nous sommes confrontés est inédite par son ampleur et sa rapidité et personne n'est en mesure de prévoir comment la nature va réagir à ce bouleversement majeur et irréversible. Ce qui est certain, c'est que le cadre et les conditions de vie de notre espèce vont être affectés bien plus gravement et durablement qu'on ne l'imaginait jusqu'à présent car nous avons sous-estimé l'effet des interactions entre les multiples facteurs et composantes modifiés par le changement climatique. Nous devons également nous rappeler que l'homme fait partie intégrante de la nature et que la technologie, aussi puissante soit-elle, ne pourra pas à elle seul tout résoudre.
Sous l'effet de cette mutation violente de l'environnement, des tensions redoutables pourraient notamment apparaître dans ces prochaines décennies en matière de productions alimentaires car les capacités d'adaptation des milieux naturels et des sociétés humaines ont leurs limites et il y aura deux milliards de bouches supplémentaires à nourrir dans moins de quarante ans, c'est-à-dire l'équivalent des populations de l'Afrique et de l'Inde réunies ! Ces tensions potentiellement porteuses de conflits risquent de s'accompagner de mouvements de population d'une ampleur sans précédent dans l'histoire de l'humanité. Parviendrons-nous à gérer l'accueil de ces centaines de millions de réfugiés climatiques sans faire "exploser" nos sociétés ?
On se rappelle de la célèbre phrase de Levi-Strauss : "La vie a commencé sans l'homme et finira sans lui". Effectivement la vie sur Terre s'adaptera d'une façon ou d'une autre, au changement climatique actuel mais si notre civilisation veut survivre et préserver des conditions de vie supportables pour les générations futures, elle doit prendre toute la mesure du défi climatique et environnemental que nous venons de rappeler et en faire l'enjeu politique et économique majeur de ce siècle.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
En 2012, le nombre d'internautes français qui recourent au web pour leur consommation va croissant. Une croissance portée par la confiance et les appareils mobiles, mais également par un public féminin.
En France, un internaute sur deux achète en ligne, bien plus que l'année dernière. En effet, 47 % d'entre eux ont acheté sur le Web au cours du dernier mois contre 43 % sur la même période en 2011. Et pour cause, on dénombre, au premier trimestre 2012, 31 millions d'internautes qui ont utilisé Internet pour leur consommation, soit une croissance de 11 % par rapport au premier trimestre de 2011. Ce qui représente, selon l'Observatoire des Usages Internet de Médiamétrie qui publie une étude sur le sujet, 3 millions de e-acheteurs supplémentaires. Une augmentation non négligeable selon Marc Lolivier, Délégué Général de la Fevad, cité dans le rapport, et pour qui "le e-commerce en France continue de progresser plus vite que le nombre d’internautes : car non seulement les Français sont de plus en plus nombreux à acheter sur Internet, mais ils ont tendance également à y consommer de plus en plus".
Une augmentation sensible, donc, dont la raison pourrait être la confiance dans ce type de consommation. En effet, 67,7% des internautes se disent confiants dans l'achat en ligne, soit 6 % de plus que l'année précédente. Une confiance qui s'applique également aux appareils mobile puisque l'on remarque que la e-consommation se fait de plus en plus via ces outils. C'est le cas du m-commerce qui a intéressé 4,3 millions de e-consommateurs. Mais pas seulement puisque la tablette semble être, elle-aussi, un outil d'achat en ligne. Car selon l'étude du Panel Tablettes qui interroge 1000 utilisateurs d'iPad, 82 % d'entre eux ont utilisé leur appareil mobile pour visiter des sites ou des applications de commerçants généralistes lorsque 76 % le faisaient pour des guides d'achat ou des comparateurs d'achat en ligne.
- Un public de plus en plus féminin
Par ailleurs, les consommateurs ont d'abord un profil d'early-adopters, avec 62 % de e-consommateurs âgés de plus de 35 ans et 47 % de CSP+. Malgré un public en majorité masculin, la part des femmes utilisant une tablette à des fins commerciales est supérieure à leur part dans l'utilisation générale de cet outil, soit 36 % contre 33 %. Une donnée qui ne se limite pas seulement aux tablettes puisque, d'une manière générale, les e-consommatrices ont vu leur nombre croître de 17 % en un an. On dénombre par ailleurs 22 % supplémentaires de consommateurs en ligne âgés de plus de 65 ans ainsi que 12 % de cyberacheteurs en région.
L'Atelier
|
|
|
|
|
|
|
|
Des scientifiques et des ingénieurs ont reconstitué la nécropole de Gizeh en trois dimensions. Un site web en propose une visite virtuelle.
Survoler la nécropole de Gizeh du temps de sa splendeur, entrer dans la pyramide de Kheops (aussi appelée Khufu) et admirer les objets qui y ont été découverts et qui sont depuis longtemps dispersés dans les musées du monde, tout cela est désormais possible. Non seulement au Museum of Fine Arts de Boston, aux États-Unis, mais aussi... depuis votre propre salon. Pour le musée de Boston et l'université américaine de Harvard, l'entreprise française Dassault Systèmes, spécialisée dans la 3D, a patiemment façonné une reconstitution virtuelle et interactive du célèbre site archéologique.
Loin d'être un gadget, celle-ci ambitionne de réaliser la synthèse de l'ensemble des connaissances scientifiques sur la nécropole de Gizeh, des milliers de documents et de photos résultant des différentes campagnes de fouilles. Une importante collection de plans, de relevés et de clichés réalisés par l'égyptologue George Reisner au début du siècle dernier, et conservés par le musée de Boston, a notamment servi de base à ce travail.
L'ambitieux projet vient de livrer ses premiers fruits : des salles de projection immersives destinées aux visiteurs du Museum of Fine Arts et aux étudiants de l'université de Harvard, ainsi qu'un site Internet gratuitement accessible au public depuis n'importe quel point du globe. Les internautes peuvent notamment y découvrir les cent premiers objets trouvés dans les tombes du plateau de Gizeh et les admirer dans leur contexte et sous toutes les coutures. S'ils disposent d'un écran TV 3D, l'expérience sera encore plus saisissante.
L'objectif du dispositif mis au point par Dassault Systèmes, qui intègre différents niveaux de lecture, est double : à la fois éducatif et scientifique. Car s'il offre un moyen de rendre le site accessible au plus grand nombre sans accélérer sa dégradation, il permet aussi de confronter, en live, les différentes hypothèses formulées par les égyptologues et de faire, peut-être, de nouvelles découvertes. Toutefois, à ce jour, seul 10 % du site a pu être reconstitué. La tâche restant à accomplir demeure... pharaonique !
Le Point
|
|
|
|
|
|
|
|
Pourquoi choisir d'organiser une conférence par téléphone lorsque l'on peut le faire en discutant avec une représentation de son interlocuteur grandeur nature ? La question a été posée par les chercheurs de l'Human Media Lab de la Queen Université du Canada. Ces derniers ont développé un pod permettant la vidéoconférence en 3D via une image holographique à taille humaine. Dans les faits, deux personnes utilisant cet outil se retrouvent toutes deux face à un cylindre de 170 cm de hauteur posé sur un socle pour atteindre environ 200 cm et 75 cm de diamètre. Un individu y voit la représentation de la personne avec qui il discute comme si celle-ci était devant lui, et peut à loisir la voir de face, sur les côtés ou de derrière puisqu'il s'agit d'un outil fonctionnant à 360°. Selon les chercheurs, le dispositif ne serait pas particulièrement onéreux.
Et pour cause, il utilise des outils existants, notamment provenant de chez Microsoft. Par exemple, la technologie Kinect. Six de ces appareils, déposés au dessus de l'appareil, permettent d'enregistrer une vidéo en 3D de l'utilisateur en capturant chacune 30 images par seconde. L'enregistrement est alors transféré instantanément à l'autre utilisateur. Ce dernier, pour pouvoir bénéficier de la représentation du premier individu projeté sur le cylindre d'acrylique sablé pour en faire une surface de projection, doit porter des lunettes à obturateur afin de bénéficier de la stéréoscopie. Représentation identique qui fonctionne également grâce à la mise en place d'un miroir convexe en haut de chaque appareil afin de diffuser une projection sur l'ensemble de la surface. Autre technologie utilisée pour la projection : une application 3D XNA, à savoir l'application qui permet de générer la représentation par la création de chaque pixel de l'utilisateur pour former un hologramme.
Du reste, cette technologie n'a pas été testée que pour des vidéoconférences, mais également pour le secteur de la santé. En effet, les chercheurs ont également développé BodiPod, un système qui repose sur la même technologie. Avec une petite différence toutefois, le cylindre permet cette fois d'interagir avec l'anatomie d'une personne en épluchant les différentes couches d'un corps, par exemple d'enlever la peau par un mouvement de doigts pincés pour accéder aux muscles, ou en demandant à voir un organe en particulier. Ceux-ci étant représentés par un système identique auquel s'ajoute deux faisceaux lasers numérisés permettant de représenter l'anatomie interne. Intéressant, donc, mais qui n'est pas sans rappeler le système de vidéoconférence via hologramme développé par une équipe du MIT qui utilisait lui aussi la Kinect.
L'Atelier
|
|
|
|
|
|
|
|
La mise en place du très haut débit en France va coûter cher. Les derniers calculs sur le sujet menés par l'Autorité de régulation des communications électroniques et des postes (Arcep) montrent en effet qu'il faudra mobiliser en tout 21 milliards d'euros sur quinze ans pour raccorder l'ensemble du territoire français avec de la fibre optique jusqu'à l'abonné (FTTH). C'est-à-dire l'équivalent de 60 % du grand emprunt.
Soucieuse d'aider les collectivités territoriales à évaluer précisément le coût du déploiement du très haut débit dans leurs confins, l'autorité administrative annonce l'arrivée d'une application web dédiée. En chantier depuis un an, celle-ci propose un "modèle de coût qui simule des déploiements de fibre optique (FTTH) à partir d'informations géographiques détaillées". "Ce modèle permet de fournir une première estimation de l'investissement nécessaire pour la construction d'un réseau en fibre optique jusqu'à proximité immédiate de l'ensemble des logements dans une zone donnée. Il peut constituer un outil complémentaire d'aide à la décision pour les acteurs impliqués dans l'aménagement numérique du territoire" ajoute l'Arcep.
Disponible à partir du 7 mai, l'application web "permet d'obtenir des estimations de coûts pour des déploiements de réseaux FTTH à différents niveaux de granularité géographique sur l'ensemble du territoire, à l'exception des zones très denses. Les déploiements simulés s'étendent depuis le nœud de raccordement optique (NR0) jusqu'à proximité immédiate des logements de la zone considérée".
La question du coût du déploiement du très haut débit est également posée à l'échelon européen. La Commission a ainsi lancé une consultation publique sur le sujet, afin d'alimenter la réflexion sur les moyens permettant de réduire la facture de ce chantier. D'après l'exécutif européen, il est possible de dégager des économies au niveau des travaux d'infrastructure, qui peuvent représenter jusqu'à 80 % de la note.
Numerama
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
De C-3PO de Star Wars aux réplicants de Blade Runner, il n'y a qu'un pas. Une équipe de scientifiques de l'université du Sussex, de Belgrade et du laboratoire d'Intelligence Artificielle de Zurich, poursuit la conception d'un robot au corps humain.
L'Eccerobot est un projet européen qui date d'il y a trois ans et qui réunit un consortium d'ingénieurs de cinq pays : France, Suisse, Angleterre, Allemagne et Serbie. Ce prototype humanoïde est considéré comme le premier vrai robot « anthropomimétique » car il s'inspire très largement du corps humain. Il possède des muscles artificiels animés, un squelette en thermoplastique et des articulations.
La création d'un tel robot poursuit évidemment plusieurs objectifs. Notamment, celui de reproduire le comportement humain afin que les robots puissent évoluer dans notre environnement. Les mouvements seront plus naturels, plus humains et prendront en compte des gestuelles plus complexes.
Le second but, essentiel, touche à la santé. Grâce à l'Eccerobot, des prothèses ou d'autres applications seront peut-être créées. En tout cas, il s'agit d'un pas supplémentaire dans l'aide aux personnes âgées et aux personnes handicapées : rendre l'autonomie à ceux qui l'ont perdue.
Pour l'heure, seule la partie haute est finalisée, l'Eccerobot étant dépourvu de membres inférieurs. Le torse en question, supporté par un socle mobile, est capable avec ses bras de tenir des objets et de serrer des mains. Des micros remplaceront les oreilles - le tout, accompagné de puces visant à faire progresser la recherche sur l'intelligence artificielle. Une paire de jambes de trente kilos est prévue et devrait naître de la collaboration avec la société Acroban.
En attendant, si vous trouvez la ressemblance avec l'être humain perturbante et que vous vous demandez dans combien de temps la distinction entre un robot et un humain deviendra impossible, soyez rassuré, car si l'aspect intérieur ressemble à celui du corps humain, l'Eccerobot ne dispose toujours pas d'enveloppe corporelle réaliste.
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
Chris James a été aveugle pendant près de vingt ans, mais il y a deux semaines il a retrouvé la vue. Pas par un miracle, mais grâce à un oeil bionique. La médecine ne comptait pas s'arrêter au bras ou à la jambe bionique, puisque une équipe de chercheurs britanniques a réussi à implanter une micro puce dans l’oeil d’un patient, rapporte Sky News.
Près de 8 heures d’opération au John Radcliffe Hospital d'Oxford auront été nécessaires à l’implantation de la puce dans l’oeil de Chris James. Epaisse de seulement 3 mm, celle-ci a été insérée au fond de l’oeil du patient et est reliée grâce à un câble très fin au nerf optique. Agé de 54 ans, l’homme a raconté à Sky News ce qu’il a ressenti après avoir ouvert les yeux : «J'ai vu un flash et ça a confirmé que mes nerfs optiques fonctionnaient correctement, ce qui est un signe très prometteur. C’était comme quelqu’un qui aurait pris une photo avec le flash, une lumière palpitante. Je l’ai reconnue instantanément.»
L’oeil bionique fonctionne de manière plutôt simple. Celui-ci envoie un signal via le nerf optique au cerveau et ce dernier s’empresse de le transformer en image. Le traitement pourrait rendre une partie de la vue à des personnes atteintes d’une maladie appelée rétinite pigmentaire qui cause la détérioration des cellules photo-réceptrices situées au fond de l’oeil. «Ce qui rend cette puce unique, c’est que toutes les fonctions de la rétine y sont intégrées», explique à The Independent le professeur Robert McLaren qui a conduit l’expérimentation. Le scientifique développe le fonctionnement : «La puce contient 1.500 diodes sensibles à la lumière et des petites électrodes qui stimulent les nerfs pour créer une image pixélisée. A part un petit appareil placé derrière l'oreille, il est impossible de deviner qu’un patient a reçu un implant.»
Cela dit, les patients récupèrent seulement une partie de leur vision. Le champ de vision est de la taille d’une boîte de CD et est en noir et blanc. Chris James peut pour l’instant seulement reconnaître des formes et des lignes de près et il lui faudra des semaines avant que son cerveau commence à interpréter correctement les signaux reçus de la puce. Si les tests sont couronnés de succès, le traitement pourra rendre la vue à près de 25.000 Britanniques. La puce a cependant des limites et ne pourra pas servir, par exemple, aux patients atteints de maladies affectant les nerfs optiques.
Slate
|
|
|
|
|
|
|
|
La société japonaise Teijin vient de mettre au point un séparateur, isolant l’anode de la cathode, résistant à de fortes températures notamment en cas de chocs. Ce produit devrait être mis en production à grande échelle d’ici 2014.
Les problèmes de surchauffe ou la peur d’une explosion des batteries se posent de plus en plus dans le développement des voitures électriques. L’entreprise japonaise Teijin Techno Products Limited, spécialisée dans la fibre d’aramide, a utilisé ce composant pour créer le nanofibre d’aramide. Ce composant permettrait de réduire les risques d'incendie en cas de chocs.
Cette matière microscopique est utilisée par l’entreprise pour constituer le séparateur. Ce dernier est formé d’une fine couche de matériaux poreux imbibés d’électrolyte, solution dans laquelle baigne la batterie. Comme son nom l’indique, ce séparateur permet de dissocier l’anode de la cathode et d’éviter en quelque sorte un court-circuit.
Jusqu’à présent cette partie de la batterie pouvait être responsable d’une surchauffe, voire même d’une explosion. L’entreprise affirme qu’avec le nanofibre d’aramide, le séparateur pourrait conserver sa forme et assurait son rôle jusqu’à une température de 300°C. Il serait également plus résistant à l’oxydation qu’un séparateur classique. Ces propriétés permettraient d’assurer une meilleure stabilité de la batterie lorsque celle-ci est exposée à une grande quantité de chaleur.
Teijin explique que la production à grande échelle de cette technologie interviendra en 2014. D’ici là, la société espère améliorer la porosité de son séparateur afin de favoriser la circulation des ions d’une électrode à l’autre. Cette situation permettrait alors une charge plus rapide. L’entreprise tente également d’augmenter la surface du séparateur pour assurer une performance optimale de la batterie à basses températures.
Livré sous forme de bandes de polyéthylène, Téijin tente de réduire également le coup de production de cette nouvelle forme de séparateur. Le prix des batteries lithium-ion pourrait alors baisser à l’arrivée.
CNET
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La start-up Envia Systems met au point un nouveau type de batterie au lithium-ion qui revendique des performances supérieures à celles du marché pour un prix inférieur de moitié. Alors que l’industrie automobile attend impatiemment une batterie révolutionnaire qui fera baisser le coût des véhicules électriques, Envia Systems a d’intéressantes données de performances à partager.
L’entreprise âgée de cinq ans a dévoilé les détails techniques de ses batteries, dont ses dirigeants promettent qu’elles pourraient permettre de diviser par deux le prix des batteries pour véhicules électriques en trois ou quatre ans. Les batteries d’Envia Systems sont en cours d’évaluation par un certain nombre de constructeurs automobiles, dont son principal investisseur General Motors, révèle le PDG Atul Kapadia.
Envia explique que ses batteries ont été testées à 400 wattheures par kilogramme à un coût projeté de 125 dollars par kilowattheure, soit une densité énergétique supérieure à celle de la plupart des batteries pour un prix inférieur de moitié à ce que déboursent aujourd’hui les constructeurs automobiles, d’après l’entreprise. Ses tests montrent également que ses batteries sont toujours performantes au-delà de 400 cycles, précise Atul Kapadia.
ZDnet
|
|
|
|
|
|
|
|
Selon un rapport du Département américain de l'Energie, les micro-algues pourraient à terme remplacer environ 17 % des importations pétrolières américaines. Cette administration soutient plus de 30 projets visant à produire du biocarburant avec des micro-algues qui représentent au total 85 millions de dollars d'investissements.
«Nous avons réalisé une étude montrant que le carburant --essence ou gazole-- tiré des micro-algues pourrait être produit pour seulement 2,28 dollars le gallon» (soit environ 0,46 euros le litre), affirme Riggs Eckelberry, PDG de la firme américaine Originoil, soit près de deux fois moins que le prix actuel à la pompe. Originoil est une des sociétés aux Etats-Unis avec Sapphire Energy, dans laquelle Bill Gates a investi, qui ont mis au point des technologies d'extraction rentables du carburant produit par ces micro-organismes marins.
Les grandes compagnies pétrolières, comme Shell tablent également sur la production de biocarburant "bleu" à partir de micro-algues via leur partenariat avec Synthetic Genomics et Cellana respectivement. «Aux Etats-Unis, les biocarburants tirés des algues seront d'abord produits pour les militaires et le transport aérien. Il faudra de ce fait probablement attendre le début de la prochaine décennie pour une distribution à grande échelle pour les automobilistes», explique le patron d'Originoil. «La Marine américaine seule prévoit de remplacer, dans les huit prochaines années, 50 % de sa consommation de carburant avec des biocarburants qui ne sont pas en concurrence avec des cultures pour l'alimentation humaine.
Comparativement aux autres sources de biocarburant, ces micro-organismes sont beaucoup plus productifs, avec un rendement virtuel à l'hectare allant jusqu'à 25.000 litres contre 6.000 litres pour l'huile de palme, la plus productive actuellement en exploitation, selon des experts. Contrairement aux bio et agrocarburants issus de céréales ou d'oléagineux, la production de biocarburant à partir micro-algues n'a aucun impact sur la production alimentaire. Dernier avantage, ces micro-organismes unicellulaires se développent très rapidement dans l'eau salée de l'océan.
20 Minutes
Originoil
Addicting Info
|
|
|
|
|
|
|
|
La société commune entre Alstom et son partenaire indien Bharat Forge a enregistré fin avril une commande d'une valeur de plus de 250 millions d'euros qui porte sur la livraison au groupe National Thermal Power Corporation Ltd (NTPC) de 2 îlots turbines pour centrales à charbon supercritiques, dans la ville de Solapur (État du Maharashtra) en Inde. Ainsi, dans le cadre d'un appel d'offres de NTPC concernant les centrales supercritiques, la réponse du consortium Alstom-Bharat Forge Power (ABFPL) a été jugée la plus compétitive pour 5 des 11 îlots turbines de 660 MW. L'offre prévoit en effet l'attribution à ABFPL d'une commande supplémentaire de 3 îlots de 660 MW destinés au site de Nabinagar détenu par Nabinagar Power Generating (NPGCPL), une société commune entre NTPC et Bihar State Electricity Board (BSEB). La part d'Alstom dans ce contrat s'élève à environ 125 millions d'euros.
Alstom-Bharat Forge sera chargé du développement, de la fabrication, du montage et de la mise en service de 5 îlots turbines pour centrales supercritiques prévus par ce projet. Ce projet de 7 300 MW au total, est le plus important jamais lancé par le gouvernement indien. Il permettra d'augmenter la capacité de production d'électricité afin d'accompagner la croissance économique rapide du pays, tout en offrant des technologies à la fois compétitives sur le plan économique et efficaces sur le plan environnemental.
Les centrales supercritiques utilisent de la vapeur à très haute température et très haute pression, qui leur garantit un rendement largement supérieur aux centrales à charbon sous-critiques traditionnelles. Une centrale supercritique brûle donc beaucoup moins de charbon et émet moins d'émissions polluantes pour une quantité donnée d'électricité produite. La construction de la nouvelle usine de la société commune à Mundra, dans l'État du Gujarat, est en cours. Le site sera opérationnel d'ici 2013. L'usine intégrée de dernière génération, qui s'étendra sur plus de 48 hectares, est destinée à produire des équipements de pointe pour centrales électriques supercritiques. Avec une capacité de production annuelle de 5.000 MW, elle constituera le plus grand site intégré du pays dans le domaine de la fabrication de turbines, d'alternateurs et d'équipements auxiliaires.
Enerzine
|
|
|
|
|
|
|
|
Des fûts d’éoliennes Offshore en béton fibré à ultrahautes performances (BFUP) ? Pour les ingénieurs de Setec TPI, une telle conception, alternative aux solutions classiques en acier, serait particulièrement pertinente.
« Les éoliennes offshore sont soumises à un environnement marin très agressif et à des sollicitations mécaniques très importantes, explique Jacques Resplendino, directeur Sud-Est de Setec TPI. Le BFUP permettrait de répondre aux deux types de contraintes. D’une part, ses excellentes caractéristiques mécaniques le rendent très résistant à la fatigue, d’autre part, sa grande compacité le rend pratiquement impénétrable aux chlorures, et insensible à la corrosion et au phénomène de gel/dégel ».
L’étude préliminaire menée par Setec TPI considère un mât de 120 mètres de haut dans une géométrie comparable à celle des plus puissantes éoliennes en acier. Ce mât est constitué de 40 voussoirs de 3 mètres de haut préfabriqués, assemblés méthodiquement selon trois phases répétitives. Les voussoirs sont précontraints localement (de manière orthoradiale et longitudinale) et sont assemblés entre eux par une précontrainte longitudinale. « Pour le moment, nous avons démontré la faisabilité d’une éolienne terrestre, mais nous allons pousser l’étude plus loin pour intégrer les phénomènes de houle et de vents turbulents », conclut l’ingénieur.
Le Moniteur
|
|
|
|
|
|
|
|
Les cellules photovoltaïques organiques sont une alternative aux cellules classiques à base de silicium. Elles présentent l’avantage de nécessiter des processus de fabrication plus doux, à partir, par exemple, de véritables encres électroniques, ce qui permet ainsi d’envisager des cellules solaires sur toutes sortes de supports comme, par exemple, des supports flexibles. La couche active de ce genre de cellule est toujours constituée d’un mélange de deux matériaux : un matériau donneur d’électrons comme le poly(3-hexylthiophène) (P3HT), et un matériau accepteur, par exemple un dérivé du fullerène (forme allotropique du carbone comme le graphite qui constitue les mines de crayon à papier). De telles cellules permettent d’obtenir des rendements supérieurs à 3 %, mais seulement après une étape de recuit thermique à des températures supérieures à 120°C. Une application sur substrat plastique (flexible) rend donc difficile ce genre de traitement thermique et limite ainsi les rendements photovoltaïques de ce système.
Parmi les défis que se sont fixés les chercheurs pour améliorer les rendements de ces cellules solaires organiques : l'optimisation de la morphologie du mélange dans la couche active dès l’étape de dépôt. Ils viennent ainsi de mettre au point un additif, véritable agent nano-structurant du mélange, par une méthode de synthèse propre et facile à mettre en œuvre à l'échelle industrielle (travail réalisé en partenariat avec la société Arkema). Il s’agit d’un copolymère à blocs, le poly(3-hexylthiophene-bloc-4-vinylpyridine) (P3HT-b-P4VP), comportant deux séquences ayant chacune une affinité préférentielle pour un des deux composants du mélange (à savoir le P3HT et le dérivé du fullerène, le PCBM, respectivement).
Lorsqu’une petite quantité de ce copolymère, entre 1 % et 10 % en masse, est ajoutée au mélange de la couche active, une augmentation significative du rendement de conversion photovoltaïque est observée par rapport au mélange initial. On peut noter une évolution du rendement photovoltaïque de 2,75 % jusqu’à presque 4,5 % en présence du copolymère, après recuit de la cellule.
Le résultat le plus frappant concerne les cellules obtenues sans aucun recuit, étape toujours délicate dans le cas de dépôt sur des polymères qui supportent souvent mal les hautes températures. L’ajout du copolymère permet d’obtenir directement un rendement supérieur à 3 %, supérieur à celui de la cellule sans copolymère après traitement thermique. Les analyses morphologiques et spectroscopiques réalisées mettent en évidence le rôle du caractère structurant de cet additif copolymère dans ces propriétés nouvelles.
Les résultats de cette étude permettent d’envisager l’élaboration de cellules solaires organiques sur substrat flexible grande surface, mettant en œuvre des procédés de fabrications rapides, sans traitement thermique, tout en préservant, voire en améliorant leur efficacité.
CNRS
|
|
|
|
|
|
|
|
Les électrons sont plutôt doués pour traiter l’information mais nettement moins pour la transporter. Les photons, quant à eux, font tout l’inverse. Les transistors sont, pour cette raison, électroniques et les câbles, optiques. Ceci nécessite malheureusement énormément d’énergie pour convertir ces deux types de signaux.
Il est donc tout naturel de vouloir développer des transistors optiques, rendant ainsi les autres obsolètes. C’est ce que se sont employés à faire des chercheurs de l’Université Purdue. Ceux-ci ont réussi à concevoir un transistor dépourvu de silicone capable de propager les signaux logiques, autrement dit, c’est un interrupteur optique embarquant suffisamment de photons pour transmettre les signaux à deux autres transistors.
Ces nouveaux types de composants sont constitués d’un minuscule résonateur circulaire situés entre deux lignes optiques. La première transmet le signal, la seconde a pour but de chauffer ce petit cercle pour changer sa fréquence de résonance. Celui-ci résonne ensuite dans cette nouvelle fréquence pour bloquer presque complètement les chemins optiques et ainsi éteindre la sortie du transistor.
Avant de se prendre à rêver à des ordinateurs optiques hyper-rapides, il faut savoir qu’à l’heure actuelle, leur fonctionnement réclame bien plus d’énergie que leurs compères électroniques. Patience donc…
Gizmodo
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Pendant vingt semaines, un dirigeable survolera l'Europe du nord au sud avec à son bord scientifiques et matériel d'analyse. Le but ? Mieux caractériser la pollution de l'air pour permettre d'émettre certaines préconisations. Lancé le 4 mai 2012 en Allemagne, ce zeppelin traversera la France courant juillet. Cette campagne unique en son genre s'inscrit dans le cadre du projet PEGASOS 1 qui vise à mieux comprendre les mécanismes liant pollution de l'air et changement climatique. Financé par la Commission européenne, il implique 16 pays dont la France, présente à travers trois laboratoires rattachés au CNRS et aux universités Claude Bernard Lyon 1, Pierre et Marie Curie, Versailles Saint-Quentin-en-Yvelines et Joseph Fourier - Grenoble 1.
Les pays européens ont tous des politiques de réduction et de maîtrise des émissions atmosphériques, améliorant ainsi la qualité de l'air. Mais une des inconnues majeures porte actuellement sur les mécanismes exacts entre qualité de l'air et changement climatique. Le projet PEGASOS a pour objet de lever ce voile à l'échelle européenne.
Pour cela, une campagne unique en son genre vient de débuter le 4 mai 2012. Pendant vingt semaines, scientifiques et matériel de mesure survoleront l'Europe dans un ballon dirigeable de la société allemande Zeppelin Luftschifftechnik GmbH & Co KG. Ils traverseront seize pays dont l'Allemagne, les Pays-Bas, l'Italie, la Finlande et la France (dont le sud-est, en juillet). Le zeppelin fera une halte à Lyon du 11 au 13 juillet. Les mesures du dirigeable seront alors croisées avec celles réalisées au sol par le LIDAR 2 du Laboratoire de spectrométrie ionique et moléculaire (LASIM, CNRS / Université Claude Bernard Lyon 1).
Durant toute la campagne, les mesures à bord du dirigeable seront couplées avec des mesures simultanées au sol. Les données collectées permettront de mieux décrire les panaches de pollution atmosphériques présents au-dessus de l'Europe et leur évolution lors de leur transport. Plus précisément, les scientifiques tenteront de quantifier les interactions et rétroactions entre pollution atmosphérique et changement climatique, de perfectionner les outils numériques de simulations de qualité de l'air et d'évolution climatique et de fournir des préconisations pour de futures réglementations européennes.
CNRS
|
|
|
|
|
|
|
|
La pollution et le changement climatique ne sont pas les seuls facteurs affectant les écosystèmes de notre planète. Une nouvelle étude internationale indique que la perte de biodiversité serait également un facteur dominant. Les résultats, présentés dans la revue Nature, mettent en évidence le besoin d'actions aux niveaux local, national et international pour sauvegarder la biodiversité.
Des chercheurs du Canada, de Suède et des États-Unis ont lancé la première du genre pour comparer les effets de la perte de diversité biologique aux effets de changements environnementaux anthropogéniques. «La perte de diversité biologique due aux extinctions d'espèces aura des impacts importants sur notre planète, et nous ferions mieux de nous y préparer», commente l'un des auteurs de l'étude, le professeur Bradley Cardinale de la faculté de ressources naturelles et de l'environnement de l'université du Michigan, aux États-Unis. «Ces extinctions peuvent faire partie des cinq facteurs les plus importants du changement mondial.»
Depuis le début des années 1990, les chercheurs ont identifié le rôle plus productif des divers écosystèmes biologiques. Mais les scientifiques s'inquiètent de plus en plus que les taux de croissance des extinctions modernes aient affaibli la capacité de Mère Nature à offrir ses services et ses produits, dont un climat stable, une eau propre et des aliments. Toutefois, les chercheurs n'ont jamais pu élucider comment mesurer la perte de biodiversité sur les changements environnementaux anthropogéniques qui affectent la santé et la productivité des écosystèmes.
«Certains ont supposé que les effets de biodiversité étaient relativement minimes comparés aux autres facteurs de stress environnementaux», commente l'auteur principal, David Hooper de la Western Washington University aux États-Unis. «Nos nouveaux résultats montrent que la future perte d'espèces a le potentiel de réduire la production végétale de la même manière que le font le réchauffement planétaire et la pollution.»
En utilisant une suite de méta-analyses de données publiées, l'équipe a observé les effets de la perte d'espèces sur la productivité (croissance végétale) et la décomposition (mort végétale), tous deux des processus importants pour tout écosystème.
Selon les chercheurs, les impacts négligeables sur la croissance végétale des écosystèmes émergeront dans les régions où la perte d'espèces de ce siècle retombe dans la partie la plus basse des projets (à savoir une perte de 1 à 20 % des espèces végétales). Les changements en terme de richesse d'espèces seront faibles en ce qui concerne les impacts estimés pour d'autres changements environnementaux.
La croissance végétale diminuera de 5 à 10 % dans les écosystèmes là où les pertes d'espèces retombent au sein des projections intermédiaires (21 à 40 % des espèces). Cela est similaire aux impacts anticipés du réchauffement climatique et à une intensification des rayonnements ultraviolets déclenchés par la perte de l'ozone stratosphérique.
Les taux plus élevés d'extinction (41 à 60 % d'espèces) sont comparables aux impacts de pertes d'espèces catégorisés comme les principaux facteurs de changement environnemental, dont la pollution d'ozone, le dépôt acide sur les forêts et la pollution de nutriments. «Dans la limite des pertes d'espèces attendues, nous avons observé des déclins moyens dans la croissance végétale aussi importants que les changements observés dans les expériences simulant plusieurs changements environnementaux importants causés par l'homme», commente le professeur Hooper. «Je pense que plusieurs d'entre nous travaillant sur cette étude étaient surpris par la force comparative de ces effets.»
L'équipe a fait remarquer l'importance que les décideurs politiques reconnaissent le potentiel des effets négatifs sur la biodiversité. «Le plus grand défi à venir est de prédire les impacts combinés de ces défis environnementaux pour les écosystèmes naturels et pour la société», explique l'un des auteurs de l'article, J. Emmett Duffy du Virginia Institute of Marine Science aux États-Unis.
Des experts de l'université de Göteborg en Suède et de McGill University et de l'Université de Colombie britannique au Canada ont contribué à cette étude. Les autres participants américains à l'étude étaient le National Center for Ecological Analysis and Synthesis, l'université du Vermont, la Northern Arizona University l'université de Californie, à Irvine.
Cordis
|
|
|
|
|
|
|
|
La Communauté de communes Epinal-Golbey a voulu faire de sa nouvelle patinoire un bâtiment unique en habillant sa façade de cristaux de glace. La solution adoptée : la technique du transfert numérique. Et ce malgré la contrainte des dimensions de la façade.
Pour répondre à l’objectif fixé par le maître d’ouvrage sur le chantier de démolition- reconstruction de la patinoire d'Epinal, le Cabinet d'architectes Bouillon Bouthier a choisi pour les façades la technique de transfert numérique qui permet d'imprimer n'importe quel fichier sur une façade métal. L’idée de départ était de trouver un procédé (Imageo d’Arval by ArcelorMittal) permettant de couvrir les grandes surfaces de façades, une des principales contraintes du chantier.
A la manière d'un gigantesque puzzle, chaque façade est composée de près de 600 m² de cassettes en acier de 2 500 X 1 000 mm de hauteur pour les trames principales et de 1 200 m² de bardage nervuré horizontal. Du fait de leur dimension, les cassettes ont dû être renforcées par un nid d'abeille et une contre - tôle, afin de leur donner une planéité correcte.
A partir d'une photo de cristaux de glace, plusieurs échantillons ont été réalisés et testés en situation sur le chantier, jusqu'à obtenir le résultat attendu par les architectes et la Maîtrise d'Ouvrage. Les cassettes ont ensuite été imprimées grâce à la technologie innovante du Transfert Numérique Moléculaire (TNM). L'application supplémentaire d'un vernis de finition thermodurcissable assure la protection de l'intégralité du support. Les couleurs ne subissent aucune altération dans le temps et sont protégées par le vernis de finition, qui a été conçu et développé pour résister aux UV et est traité anti-graffiti.
Pour faire face à la contrainte des dimensions : certaines cassettes en acier pouvaient atteindre jusqu'à 200 mm d'épaisseur ce qui ne permettait pas l’application du procédé, les cassettes ont été décomposées puis réassemblées une fois l'impression terminée. Elles ont ensuite été colisées dans l'ordre de pose des façades, défini selon un calepinage très précis. Les façades intérieures des gradins ont été habillées selon le même modèle, avec un travail de découpe supplémentaire du fait des marches des gradins et de la charpente qui viennent traverser les cassettes en acier.
- Performances thermiques et acoustiques
Les équipes de prescription d’Arval, en collaboration avec le cabinet d’architecture, ont étudié une solution pour répondre aux contraintes du projet ; elles ont ainsi proposé plusieurs systèmes thermo acoustiques : un complexe de bardage double peau, avec un bardage horizontal posé sur écarteurs, feutre tendu, plateaux perforés et isolant fond de plateau, a été posé. Il garantissait une absorption acoustique correcte, destinée à éviter une trop forte réverbération du son et assurer ainsi un confort acoustique aux patineurs et au public ; un système de couverture étanchée avec des plateaux porteurs perforés, à trames croisées, a été mis en oeuvre. Il permettait à la fois de franchir les portées requises, de traiter la thermique et également l’absorption acoustique, et d’offrir une finition à fixations cachées.
Le Moniteur
|
|
|
|
|
|
|
|
Une étude menée par des climatologues américains évoque un lien entre la pollution atmosphérique aux fines particules et le ralentissement du réchauffement des températures dans l'Est des Etats-Unis. Les particules fines auraient alors l'effet inverse du dioxyde de carbone.
Une étude menée par des climatologues de la Harvard School of Engineering and Applied Sciences, la SEAS, et publiée dans le Atmospheric Chemistry and Physics, revient sur le rôle des fines particules dans le réchauffement climatique. Mais, si le dioxyde de carbone ou le méthane contribue au réchauffement de la planète, les fines particules rejetées dans l'atmosphère pourraient avoir l'effet inverse.
En effet, selon leurs observations, la pollution aux fines particules aurait contribué au ralentissement du réchauffement de l'Est des Etats-Unis à la fin du XXe siècle. "Nous avons montré que la pollution particulaire sur l'est des États-Unis a retardé le réchauffement que nous nous attendions à observer en raison de l'augmentation des gaz à effet de serre", explique Eric Leibensper, un des auteurs de l'étude. Les particules joueraient un rôle de filtre, renvoyant les rayons du soleil.
Il convient toutefois de rappeler que la pollution aux fines particules peut se révéler dangereuse pour la santé des personnes les plus sensibles, et il est indispensable de la combattre. Une telle étude pourrait en effet représenter une aubaine pour les pays émergents, très pollueurs et qui tardent à mettre en place les mesures nécessaires pour limiter les émissions de ces fines particules. "Nous ne suggérons pas qu’il faut arrêter de lutter contre la pollution, mais il est important de comprendre l’effet que de telles mesures peuvent avoir sur le climat d’une région", ajoute Loretta J.Mickley, autre participante à l'étude.
Enviro B
|
|
|
|
|
|
|
|
L'évolution des glaciers du Groenland est plus complexe que ne le pensaient les scientifiques. Des données recueillies par plusieurs satellites durant 10 ans sur 200 grands glaciers du Groenland laissent penser que le niveau des mers ne monterait pas de 2 mètres d'ici la fin du siècle, comme certaines études l'avaient suggéré depuis quelques années.
Les informations recueillies par Twila Moon et ses collègues de l'Université de Washington à Seattle montrent que différents types de glaciers, comme ceux qui se terminent en mer ou sur terre, présentent des profils de fonte très distincts. Les chercheurs savaient que, plus les glaciers avancent vite, plus ils déchargent de glace et d'eau dans l'océan. Or, ces travaux montrent que le volume de ces glaciers augmente ou se réduit à une vitesse qui dépend aussi de leur emplacement.
Les scénarios de précédents travaux estimaient que, en raison du réchauffement, les glaciers du Groenland verraient leur vitesse de déplacement doubler entre 2000 et 2010 avant de se stabiliser à une plus grande vitesse. Un autre scénario faisait état d'une multiplication par 10 de la vitesse de déplacement.
Les présents travaux montrent plutôt que ce ne sera pas le cas. Si la fonte des glaces continue de s'accélérer dans cette région, les chercheurs estiment néanmoins que ce niveau pourrait s'élever de 0,8 mètre d'ici à 2100.
Autres résultats de l'étude :
- Presque tous les plus grands glaciers du Groenland qui recouvrent une partie des terres avancent au maximum de 9 à 99 mètres par an, les changements dans leur vitesse de déplacement étant modestes.
- Les glaciers qui finissent leur course dans les fjords bougent d'environ 300 mètres chaque année, mais leur mouvement ne s'est pas accéléré de façon notable durant ces 10 années d'observation.
- Dans l'est, le sud-est et le nord-ouest du Groenland, des glaciers qui finissent leur course dans l'océan peuvent avancer de 11 kilomètres par an ou davantage.
- Les changements de déplacement varient, certains ayant même ralenti, mais en moyenne la vitesse a augmenté de 28 % dans le nord-ouest et de 32 % dans le sud-est durant la dernière décennie, soit très nettement moins que dans les scénarios avancés auparavant.
Radio Canada
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Combien de neurones devons-nous solliciter pour lire une phrase ? Cette tâche, simple en apparence, mobilise de nombreux neurones dans des parties du cerveau éloignées les unes des autres. Comment alors mettre en commun l’activité de ces différents neurones pour déchiffrer les mots, leur donner un sens et comprendre une phrase ? A Lyon, l’équipe Inserm dirigée par Jean-Philippe Lachaux au sein de l’Unité Inserm 1028 "Centre de recherche en Neurosciences" a mis en évidence la façon dont ces différentes parties du cerveau dialoguent à distance. Ces travaux sont publiés dans la revue The Journal of Neuroscience.
Pour lire et comprendre une phrase comme celle-ci, plusieurs régions de notre cerveau doivent intervenir pour reconnaître le sens de chaque mot, leur associer une forme sonore et construire progressivement le sens du texte. Chaque région a plus spécifiquement en charge un aspect de la lecture, mais aucune ne travaille seule dans son coin. Le travail se fait à plusieurs, grâce à des interactions intenses permettant à chaque aire cérébrale d’échanger avec les autres à longue distance. Comme souvent dans le cerveau, le tout est plus que la somme des parties. Il restait toutefois une zone d’ombre importante dans la compréhension de ces mécanismes : la forme prise par ces interactions neuronales à longue distance. Sans cette donnée essentielle, il n’était pas possible de savoir, dans le cerveau, qui travaille avec qui et à quel moment, ni pendant la lecture ni d’ailleurs pendant aucune autre activité cognitive.
Des chercheurs de l’Inserm au sein Centre de Recherche en Neurosciences de Lyon, du Collège de France et du C.H.U de Grenoble viennent d'observer pour la première fois ces interactions neuronales. Pour y parvenir, les groupes dirigés par Jean-Philippe Lachaux, Alain Berthoz et Philippe Kahane ont mesuré directement l'activité électrique produite par les neurones dans le cerveau de personnes occupées à lire. Les résultats montrent que les composantes rapides de l'activité neuronale mesurée dans les aires de la lecture varient de façon corrélée lorsque ces dernières doivent interagir, notamment lors de l'accès au sens du texte.
Ces composantes rapides, qualifiées d'activité gamma avaient déjà été signalées par cette même équipe comme étant d'excellents 'biomarqueurs' du traitement de l'information dans le cortex : elles n'apparaissent effectivement au sein d'une population neuronale que lorsque celle-ci participe à l'activité cognitive du moment. Cette découverte laissait présager que lorsque deux régions cérébrales communiquent pour traiter conjointement une information, l'activité gamma que l'on peut y mesurer varie de la même façon dans le temps. C'est précisément ce qu'a montré cette étude. Bien que ces conclusions ne concernent que la lecture pour l'instant, la même signature devrait permettre de suivre le dialogue entre les différentes parties du cerveau lors d’états cognitifs très divers, car les communications neuronales à distance semblent jouer un rôle central dans toute la cognition humaine, pour former une perception cohérente et intelligible du monde qui nous entoure.
Ces recherches devraient également fournir de nouvelles clefs pour comprendre, entre autres, les déficits cognitifs associés à de nombreuses pathologies neurologiques, comme l'épilepsie.
Inserm
|
|
|
|
|
|
|
|
Les résistances envers les médicaments sont la raison principale pour laquelle les cancers du sein ne sont souvent pas traités efficacement. Des chercheurs du Centre allemand de recherche contre le cancer (DKFZ, Heidelberg, Bade-Wurtemberg) ont réussi à diminuer la résistance de cellules cancéreuses du sein au tamoxifène grâce à un microARN.
Le tamoxifène est un médicament répandu dans le traitement des cancers du sein. Son principe actif bloque l'effet des oestrogènes et les empêche ainsi d'activer la croissance des cellules cancéreuses. Lorsqu'une résistance contre le médicament se développe, un autre programme de croissance est activé dans les cellules tumorales : celles-ci changent de comportement et de morphologie, deviennent plus mobiles et acquièrent la capacité de s'insérer dans les tissus alentours. L'équipe de Stefan Wiemann du DKFZ a observé ces changements : "Nous voulons comprendre ce qui se passe dans les cellules pour pouvoir développer de meilleures thérapies dans le futur", explique t-il.
Ozgür Sahin, l'un des collègues de Stefan Wiemann, soupçonnait que des microARN étaient impliqués dans l'apparition de la résistance. Ces petits morceaux d'ARN contrôlent de nombreux processus cellulaires en se fixant très précisément à des copies de gènes (les ARN messagers) et bloquent ainsi la production de protéines. Pour étudier ce phénomène, l'équipe d'Ozgür Sahin a d'abord rendu des cellules de tumeur du sein, cultivées en boîte de Pétri, résistantes en les exposant régulièrement au tamoxifène. Parallèlement à l'instauration de la résistance, les cellules cancéreuses sont passées au programme de développement qui leur permet de se développer de manière plus invasive et plus agressive. En analysant l'ensemble du spectre des microARN des cellules résistantes, les chercheurs ont découvert que la production de microARN 375 avait particulièrement diminuée. Lorsque les scientifiques ont relancé cette production, les cellules ont de nouveau réagi au tamoxifène et sont repassées à leur programme normal de croissance. "C'est une preuve solide que le manque de microARN 375 fait augmenter l'agressivité et contribue à l'apparition de la résistance", selon Ozgür Sahin.
Lorsque la concentration de microARN 375 est faible, la production de Metadherin dans les cellules tumorales de sein augmente. Ce micro-ARN inhibe donc vraisemblablement la formation de cette protéine cancérigène dans les cellules saines. Or, les chercheurs ont trouvé qu'un taux élevé de Metadherin dans les cellules cancéreuses correspondait à un fort risque de rechute chez les patientes sous tamoxifène. Cela signifie que le microARN 375 et la Metadherin jouent un rôle dans l'installation de la résistance au tamoxifène.
Stefan Wiemann a désormais fixé un nouvel objectif : "L'analyse des microARN dans les cancers du sein nous a menés sur la piste de la Metadherin. Nous pouvons potentiellement dans le futur influencer de façon ciblée les propriétés cancérigènes de cette protéine".
Bulletins Electroniques
|
|
|
|
|
|
|
|
Une société israélienne a conçu une minuscule capsule que vous pouvez avaler et qui détecte sans douleur des polypes quand elle parcourt le colon. En février 2012, Healthymagination a lancé le premier projet israélien : une solution révolutionnaire pour le dépistage du cancer colorectal. « Une des raisons pour lesquelles tant de gens meurent du cancer du côlon, bien qu’il soit relativement facile à guérir, c'est parce qu’ils veulent éviter la procédure de coloscopie embarrassante et envahissante, » explique Guy Neev, le Directeur General de Check-Cap, qui a conçu une capsule injectable qui prend des clichés de rayons X de 360 degrés du côlon quand elle se déplace à travers le trajet gastro-intestinal.
« La capsule va à l’intérieur de l’organisme durant quelques jours et elle est conçue pour détecter les polypes cliniquement significatifs avec la même gamme de précision qu’une coloscopie standard », explique-t-il. Check-PAC, une entreprise vieille de 7 ans, basée dans la ville de Isfiya sur le Mont Carmel, a été fondée début 2005 par son responsable technique, le Docteur Yoav Kimchy, un spécialiste de la physique et un ‘leader’ en projets techniques. Il a réuni une équipe forte de 30 experts dans des domaines aussi variés que l’électronique, la physique, les mathématiques, la mécanique, le génie logiciel, la chimie, la physiologie et la médecine, surtout des diplômés de l’Institut de Technologie du Technion d’Israel à proximité de Haïfa, pour créer un appareil qui pourrait révolutionner à jamais le traitement, la prévention et la détection du cancer du côlon.
« Le défi était de produire quelque chose de moins envahissant que les méthodes actuelles », souligne Guy Neev. Le concept d’utiliser la technologie d’une pilule pour visualiser et détecter les troubles du tube digestif a été lancé par Given Imaging Israël. Check-Cap utilise une approche différente qui est encore plus facile pour le patient, affirme Guy Neev. « Tandis que les endoscopies actuellement disponibles sont basées sur des caméras qui nécessitent un nettoyage agressif de l’intestin, la capsule d’imagerie Check-Cap est le premier appareil conçu pour fonctionner dans le côlon avec pratiquement aucune préparation de l’intestin. C’est possible car elle utilise des rayons x de faible énergie qui peuvent voir à travers le contenu du côlon. »
Les patients n’ont pas même besoin d’être dans un hôpital ou chez le médecin au cours de la procédure. « Ils peuvent suivre leur ‘routine’ quotidienne sans avoir à modifier leurs activités» explique Guy Neev. Le système, qui a déjà été testé chez les animaux, comprend une capsule, un récepteur, un logiciel d’imagerie et une base de données associée pour un accès sur le web et des analyses. Le dispositif radar à rayons X minuscule crée une image de reconstitution en 3D du côlon avec une exposition minimale aux radiations, beaucoup moins qu’une densitométrie ou une mammographie, par exemple. La capsule transmet les données à un dispositif porté au poignet, où elles sont stockées pour les analyses du médecin. Si les images 3D révèlent des polypes, une coloscopie thérapeutique sera prescrite selon les besoins. « Le produit est prêt à être testé, » dit Guy Neev. « Nous prévoyons de demander l’approbation européenne de commercialisation à la fin de l’année prochaine et aux États-Unis sans doute 18 mois plus tard. »
Des discussions avec la Food and Drug Administration (FDA) soit l’Agence fédérale américaine des produits alimentaires et médicamenteux, sur les activités cliniques pour supporter l’autorisation de commercialiser du produit aux États-Unis sont en cours.
Le cancer colorectal constitue le troisième cancer le plus courant chez les hommes et le deuxième chez les femmes, tuant 608 000 personnes par an dans le monde entier – 8 % de tous les décès par cancer, selon l’Agence internationale pour la recherche sur le cancer. C’est la quatrième cause de décès par cancer dans le monde.
Si la procédure de coloscopie n’était pas si douloureuse et envahissante, beaucoup plus de personnes seraient traité de leur cancer du côlon à un stade beaucoup plus précoce, améliorant considérablement le taux de rétablissement, dit-il.
« Notre objectif est de réduire la mortalité des patients en facilitant leur adhésion considérablement accrue par les recommandations de dépistage des médecins, permettant la détection et le traitement, plus tôt », dit-il. « Toutes les personnes de plus de 50 ans ont droit à un dépistage du cancer du colon, après tout, le dépistage précoce sauve des vies. »
Siliconwadi
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut Pasteur et du CNRS viennent d'identifier chez la souris le rôle des néo-neurones formés par le cerveau adulte. En parvenant à les stimuler de manière sélective, les chercheurs montrent que ces néo-neurones améliorent les capacités d'apprentissage et de mémorisation de tâches difficiles. Cette nouvelle propriété des néo-neurones dans l'intégration d'informations complexes pourrait ouvrir des perspectives dans le traitement de certaines maladies neuro-dégénératives. Cette publication est en ligne sur le site de la revue Nature Neuroscience.
La découverte de nouveaux neurones formés par le cerveau adulte avait fait grand bruit en 2003. Elle mettait à mal le dogme quasi-séculaire selon lequel le nombre de neurones est défini dès la naissance, toute perte étant irréversible. Une découverte d'autant plus incroyable que la fonction de ces nouveaux neurones restait indéterminée jusqu'à aujourd'hui.
L'équipe de Pierre-Marie Lledo, chef de l'unité Perception et mémoire (Institut Pasteur/CNRS), vient de mettre en évidence, chez la souris, le rôle joué dans l'apprentissage et la mémoire par ces néo-neurones formés par le cerveau adulte. A l'aide d'un dispositif expérimental utilisant l'optogénétique mis au point par la même équipe et qui avait déjà fait l'objet d'une publication en décembre 2010, les chercheurs ont démontré que ces néo-neurones, quand ils sont stimulés par un bref flash lumineux, facilitent l'apprentissage ainsi que la mémorisation de tâches complexes. Ainsi, les souris mémorisent plus rapidement les informations proposées pendant la tâche d'apprentissage et se souviennent des exercices 50 jours après l'arrêt des expérimentations. A l'inverse, les néo-neurones générés juste après la naissance de l'individu ne confèrent aucun avantage, ni pour l'apprentissage, ni pour la mémoire. Seuls les neurones produits par le cerveau adulte sont donc importants pour l'apprentissage et la mémoire.
« Cette étude démontre que l'activité de quelques neurones produits chez l'adulte peut avoir un effet important sur les processus cognitifs et le comportement. De plus, ce travail illustre, en partie, comment le cerveau assimile de nouvelles stimulations. Dans notre vie quotidienne, l'activité électrique (mimée par nos flashs lumineux) est exercée par les centres de l'attention de notre cerveau » explique Pierre-Marie Lledo qui a dirigé ce travail.
Au-delà du rôle fonctionnel qu'elle établit, cette découverte réaffirme le lien patent entre « humeur » (définie ici par un schéma particulier de stimulation) et activité cérébrale : il est établi que la curiosité, l'éveil et le plaisir favorisent la formation de néo-neurones et, grâce à eux, l'acquisition de nouvelles compétences cognitives. A l'inverse, un état dépressif se répercute sur la production de nouveaux neurones et déclenche un cercle vicieux qui entretient cet abattement. Ces résultats et les technologies d'optogénétique qui ont permis d'y parvenir pourraient se révéler très utiles pour la mise au point de protocoles thérapeutiques visant à contrer le développement des maladies neurologiques ou psychiatriques.
CNRS
|
|
|
|
|
|
|
|
Un groupe de scientifiques nord-américains dont la chercheuse Cristina Nostro du Centre McEwen pour la médecine régénérative, University Health Network, Toronto, a créé un nouveau type de cellules souches humaines qui peuvent être converties en de nombreux types de cellules spécialisées.
Ces nouvelles cellules souches, appelées cellules souches endodermiques ou EP (en anglais endodermal progenitor cells), montrent deux avantages importants par rapport aux les cellules souches embryonnaires (ESCs, en anglais embryonic stem cells) et aux cellules souches pluripotentes induites (iPSCs, en angalis induced pluripoten stem cells) :
- elles ne forment pas de tumeurs lorsqu'elles sont transplantées chez un animal,
- elles peuvent former des cellules spécialisées en laboratoire, en particulier des cellules de beta pancréatiques fonctionnelles, mais également de foie et d'intestin.
Les chercheurs ont manipulé des ESCs et de iPSCs afin de les transformer en cellules EP grâce à l'utilisation des molécules signalétiques appelées cytokines. Après optimisation des conditions de croissance, les cellules EP semblent s'auto-renouveler de manière presque illimitée (>1016) ; celles-ci présentent alors une caractéristique morphologique et une caractéristique de l'expression des gènes de l'endoderme.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Une étude visant à mieux déterminer les critères de prédisposition au diabète de type 2, et à installer des actions de prévention plus ciblées et précoces, a été lancée récemment avec le début du recrutement de 500 familles «tests», afin d'étudier la maladie sur deux générations.
Environ 2,5 millions de personnes, soit 4 % de la population adulte française, souffrent de diabète de type 2 (la forme la plus courante), qui a la particularité d'être une «maladie avant tout familiale», explique le Docteur Guillaume Charpentier, qui dirige le programme de recherche baptisé Descendance.
Les spécialistes estiment actuellement que «60 % du risque de diabète est d'origine génétique», a indiqué le diabétologue et généticien Philippe Froguel, lors de la présentation à Paris de cette étude conduite par le CERITD (Centre d'études et de recherches pour l'intensification du traitement du diabète).
Mais, dans la plupart des cas, les mécanismes génétiques sont complexes et impliquent plusieurs gènes, avec un effet cumulatif alors que, pris séparément, un seul gène n'augmenterait que de 10 à 20 % le risque de survenue du diabète. Une quarantaine de gènes ont à ce jour été identifiés pour leur rôle dans cette maladie sous sa forme «polygénétique». Le risque pour un enfant dont un seul des parents est diabétique de développer la maladie est estimé à 30 % (60 % si les deux parents le sont), selon le Professeur Froguel, qui dirige l'unité Génomique et maladies métaboliques du CNRS, située à l'Institut Pasteur de Lille.
L'étude Descendance vise précisément à comprendre pourquoi dans une famille avec un ou même deux parents diabétiques, l'un des enfant développera la maladie et l'autre non, explique le Docteur Charpentier, chef du service de diabétologie du Centre hospitalier sud-francilien et président du CERITD.
Ce programme doit aboutir, d'ici à deux ans et demi, à la mise au point d'un «diagnostic génétique de prédisposition au diabète de type 2» et permettre d'identifier les sujets jeunes et en bonne santé mais à haut risque de développer un diabète vers les 50 ans et de les distinguer de leurs frères ou soeurs qui, eux, ne courent aucun risque. Ces personnes à haut risque pourront alors bénéficier de mesures préventives ciblées et sur le long terme, surtout en matière d'habitudes alimentaires et d'hygiène de vie, et parfois avec l'apport de médicaments, pour prévenir la maladie.
CERITD
|
|
|
|
|
|
|
|
L’anxiété survient à force d’anticiper la survenue éventuelle de futurs problèmes et a pour effet de sensibiliser l’individu. « Plus l’être humain est négatif, plus il s’expose à une explosion d’émotions négatives, telles que la colère ou la tristesse », explique Christophe André, médecin psychiatre à l’hôpital Sainte-Anne à Paris. A travers des tests psychologiques, ce spécialiste du stress et de la dépression remarque que, face à un problème identique, une personne de mauvaise humeur se focalisera sur une accumulation de détails négatifs, alors qu’une personne de bonne humeur aura tendance à élargir sa focale et à prendre du recul. L’état d’esprit positif est également plus fragile. En effet, le psychiatre affirme qu’il faut en moyenne 5 moments positifs pour compenser un moment négatif.
« En ressassant ses problèmes, l’esprit négatif se concentre sur lui-même. Il perçoit les éléments positifs de manière atténuée et perd tout ce que la vie a d’agréable et d’intéressant. » Lorsqu’un incident survient et qu’il n’est pas immédiatement solutionnable, le médecin préconise donc de lâcher prise et « d’accorder à son cerveau un temps de récupération, comme pour un moteur qui serait en surchauffe. » Cette pause peut permettre d’aborder ensuite le problème sous un angle positif, et ainsi trouver des ressources ou d’autres moyens de le résoudre. Une gymnastique à adopter pour vivre plus longtemps. En effet, en observant la vie de moines isolés de la vie moderne, des chercheurs américains ont prouvé que l’état d’esprit positif maintenait en meilleure santé et allongeait l’espérance de vie.
Pour autant, le stress est utile à l’être humain. Il engendre par exemple la peur, un mécanisme primaire salvateur qui augmente les chances de survie. Des études très récentes montrent que l’angoisse serait également le signe d’un quotient intellectuel plus élevé (Etude universitaire américaine sur la relation entre l’angoisse et l’intelligence publiée en février 2012). Chez les esprits résolument positifs, certaines zones du cerveau sont parfois muettes ou altérées. « Ce phénomène explique pourquoi une personne trop focalisée sur l’émotion positive pourra parfois manquer de méfiance ou de sens critique », remarque Christophe André.
Le stress peut donc s’avérer, tour à tour paralysant ou au contraire, moteur. Le tout est de réussir à trouver son propre équilibre. D’après Christophe André, le bon dosage est constitué de deux tiers de positif et d’un tiers de négatif. Alors, en cette période de crise, n’oublions pas qu’un ralentissement économique peut aussi être l’occasion de prendre du recul pour trouver de nouvelles voies de développement.
Les Echos
|
|
|
|
|
|
|
|
L'Agence américaine des médicaments va autoriser pour la première fois l'utilisation d'un anti-rétroviral, le Truvada, comme traitement préventif contre le sida pour des populations à risques. Un comité d'experts a recommandé à l'Agence américaine des médicaments (FDA) la mise sur le marché du Truvada, premier traitement préventif contre le sida, malgré les craintes de certaines associations qu'il n'entraîne des comportements sexuels plus risqués. Par une large majorité, les 22 experts se sont prononcés en faveur de la commercialisation du Truvada produit par le laboratoire américain Gilead Sciences.
La FDA n'est pas tenue de suivre les recommandations de ce comité mais elle les entérine le plus souvent. Sa décision interviendra d'ici le 15 juin, a précisé un porte-parole. Le vote comprenait trois sous-questions. Par 19 voix contre 3, les experts ont ainsi recommandé d'autoriser le traitement préventif pour les hommes homosexuels séronégatifs. Par 19 voix contre 2 et une abstention, pour la vente du Truvada aux couples hétérosexuels dont l'un des partenaires est séropositif. Enfin, par 12 voix contre 8 et 2 abstentions, ils se sont prononcés pour la commercialisation aux «autres individus risquant d'être infectés en raison de leur activités sexuelles».
Le Truvada, une combinaison de deux anti-rétroviraux, est déjà prescrit pour des personnes infectées par le VIH, le virus de l'immunodéficience humaine responsable du sida. Son coût varie de 12.000 à 14.000 dollars par an. L'efficacité préventive du Truvada a été mise en évidence par les résultats d'un vaste essai clinique mené de juillet 2007 à décembre 2009 dans six pays, dont le Brésil, l'Afrique du Sud et les Etats-Unis, et financé en grande partie par les Instituts nationaux américains de la santé (NIH). Il avait alors réduit de 44 % le risque d'infection chez les hommes homosexuels qui utilisaient aussi des préservatifs.
Une autre étude clinique a montré que le Truvada a diminué le risque d'infection jusqu'à 75 % chez les couples hétérosexuels dont l'un des deux partenaires était séropositif. Une quarantaine de personnes dont des médecins et infirmières soignant des séropositifs, des représentants d'organismes privés engagés dans la lutte contre le sida et des personnes infectées par le VIH étaient venues témoigner devant le comité de la FDA. Une majorité s'est déclarée hostile à la mise sur le marché du Truvada. Mais selon une étude américaine publiée en avril, prescrire des anti-rétroviraux à titre préventif à des hommes homosexuels risquant fortement de contracter le virus du sida -plus de cinq partenaires par an- serait économiquement rentable en réduisant la propagation de l'infection. Le Truvada est d'autre part déjà prescrit à titre préventif par des médecins, même si cela ne fait pas encore partie des indications du médicament.
Figaro Santé
The Washington Post
|
|
|
|
|
|
|
|
Une jeune fille a découvert une substance antioxydante pouvant freiner le vieillissement, composée de nanoparticules présentes dans la fibre de bois, ont récemment annoncé les organisateurs d'un concours de biotechnologie qu'elle a remporté. Janelle Tam, lycéenne de Waterloo, en Ontario, a reçu le premier prix, accompagné d'un chèque de 5000 dollars, de l'édition 2012 du Sanofi BioGENEius Challenge, dont le jury est composé de chercheurs éminents venant du Conseil national de recherches Canada.
La substance qu'elle a créée pourrait être utilisée un jour pour améliorer la santé et freiner le vieillissement, car elle neutralise nombre de radicaux libres nuisibles trouvés dans le corps humain. La particule, appelée NCC (nanocellulose cristalline), est présente dans les arbres. Janelle Tam, arrivée au Canada de Singapour il y a cinq ans, a été la première à montrer qu'elle est un antioxydant puissant, potentiellement supérieur aux vitamines C ou E, car elle est plus stable et son action dure plus longtemps.
L'ado de 16 ans a réussi à la «coupler» chimiquement avec des nanoparticules de carbone, les buckminsterfullerènes ressemblant par leur forme à un ballon de football, ce qui leur vaut le surnom de footballène. Le «couple» agit «comme un aspirateur», neutralisant les radicaux libres. La NCC, dont la grandeur se mesure en millièmes de cheveu humain, est non toxique, stable, soluble dans l'eau et renouvelable, puisqu'elle vient des arbres, a indiqué la jeune chercheuse, citée dans le communiqué. Ses utilisations potentielles sont virtuellement illimitées, souligne le document, car elle est plus forte que l'acier, mais souple, durable et ultralégère. Un institut national de recherche sur les forêts, FPInnovations, prédit que son marché pourra valoir jusqu'à 250 millions de dollars dans la décennie à venir. La première usine de démonstration de NCC a ouvert ses portes en janvier dernier sur le site de l'usine de pâtes et papiers de Domtar, à Windsor au Québec.
Sanofi
|
|
|
|
|
|
|
|
Le cancer du foie est la troisième cause de mortalité dans le monde. Il apparait souvent chez des personnes dont le foie est déjà touché par des pathologies telles qu’une hépatite B ou C, la consommation excessive d’alcool, des surcharges en fer ou l’obésité ; ces pathologies pouvant conduire au développement d’une cirrhose du foie. En France, une étude pilote incluant une première série de 24 carcinomes hépatocellulaires dans le cadre du consortium ICGC de séquençage de l’ensemble du génome a démarré en 2009. Le but de cette étude menée par Jessica Zucman-Rossi était de mettre en évidence de nouveaux gènes responsables de la formation de ces tumeurs du foie (suppresseurs de tumeur et/ou à l’inverse oncogènes).
Grâce à de nouvelles techniques de séquençage du génome, les chercheurs ont pu établir que le code génétique des personnes atteintes d’un cancer du foie présentait souvent des modifications : les bases G étant remplacées par des bases T. Ces mutations semblent spécifiques et significativement associées aux cancers du foie. Ceci suggère fortement, en dehors d’une cirrhose du foie préexistante, l’implication d’un agent toxique qui entraînerait des mutations dans l’ADN de ces patients. Dans les zones tropicales, des composés comme l’aflatoxine B1 sont déjà bien connus pour de tels effets cancérigènes. De nouvelles données épidémiologiques et toxicologiques restent à établir pour déterminer précisément quels pourraient être ces agents génotoxiques chez ces patients vivant en France.
L’analyse de l’ensemble des mutations observées a révélé 4 nouveaux gènes n’ayant jamais été décrits dans les tumeurs hépatiques et qui présentent pourtant des altérations génétiques récurrentes ; ARID1A, RPS6KA3, IRF2 et NFE2L2. Afin de comprendre leur rôle, ces 4 gènes, ainsi que 10 autres, ont été testés sur des échantillons de 125 tumeurs hépatiques. D’un point de vue physiologique, certaines de ces mutations génétiques altéreraient deux voies de signalisation connues des scientifiques : la voie WNT/β-Caténine et celle de la P53. D’autres, par ailleurs, sont impliquées dans l’activation de la voie du stress oxydatif, de l’interferon ou de la signalisation RAS qui entrainent des bouleversements de l’état cellulaire.
Enfin, chez les patients avec une intoxication alcoolique chronique, les gènes de remodelage des chromosomes (qui stabilisent l’ADN) sont fréquemment altérés, ce qui en fait des contributeurs majeurs de la tumorigenèse hépatique.
Pour Jessica Zucman-Rossi, "cette étude révèle de nouveaux gènes suppresseurs de tumeurs et oncogène impliqués dans la carcinogenèse hépatique. De nouvelles pistes sont à explorer pour utiliser dans le futur de nouveaux médicaments ciblant ces altérations génétiques et ainsi améliorer et adapter le traitement des patients en fonction des anomalies génomiques identifiées dans leur tumeur." Ce travail a été coordonné et financé par l’INCa dans le cadre du Plan cancer 2009-2013 en collaboration étroite avec la Ligue nationale contre le cancer et l’Inserm.
Inserm
|
|
|
|
|
|
|
|
En 2008, 12,7 millions de nouveaux cas de cancers ont été recensés dans le monde. Et près de 2 millions d'entre eux seraient d'origine infectieuse, selon une étude du Centre international de recherche sur le cancer de Lyon (CIRC), publiée le 9 mai 2012 dans The Lancet Oncology.
Les facteurs infectieux mis en causes sont principalement les virus responsables des hépatites B et C, le papillomavirus et la bactérie Helicobacter pylori. "On estime qu'à elles seules, ces quatre infections sont responsables de 1,9 million de cas par an, principalement de cancers de l'estomac, du foie et du col utérin", expliquent les auteurs de l'étude. Les proportions sont plus élevées dans les pays en voie de développement que dans les pays développés. 32,7 % en Afrique subsaharienne, contre 3,3 % en Australie et Nouvelle Zélande. De plus, 30 % des cas de cancers de causes infectieuses surviennent chez des personnes de moins de 50 ans.
Chez la femme, le cancer du col de l'utérus, provoqué par le papillomavirus, représente environ la moitié des cancers d'origine infectieuse. Chez l'homme, près de 80 % des cancers hépatiques et gastriques sont de causes infectieuses.
Les auteurs rappellent que "bien que le cancer soit considéré comme une maladie non transmissible majeure, une partie non négligeable de son étiologie est infectieuse, et l'application de stratégies qui fonctionnent pour les maladies non transmissibles en général peut se révéler insuffisante." Le Docteur Christopher Wild, directeur du Centre international de recherche sur le cancer de Lyon, ajoute : "Cette étude met en évidence la nécessité de fixer des priorités de lutte contre le cancer au plan national et régional, à la lumière du fardeau des cancers d'origine infectieuse, tout notamment dans les pays à revenu faible et intermédiaire."
Le développement de méthodes existantes de prévention, telles que la vaccination, les injections préventives ou les traitements antimicrobiens ajoutés à des règles d'hygiène strictes, pourrait avoir un effet considérable pour lutter contre le développement des cancers d'origine infectieuse dans les prochaines décennies.
Allodocteurs
|
|
|
|
|
|
|
|
Depuis plusieurs mois, l’idée de la mise au point d’un vaccin universel pour lutter contre la grippe dans un futur proche est de plus en plus souvent évoquée par les scientifiques. D’après une étude canadienne publiée dans la revue Frontiers of Immunology, le vaccin de 2009 contre le virus H1N1 pourrait être un bon candidat…
En étudiant le vaccin mis au point en 2009 pour lutter contre le virus grippal H1N1, John Schrader et ses collègues de l'Université de la Colombie-Britannique au Canada ont découvert que ce dernier induisait des anticorps capables de protéger notre organisme contre différents virus de la grippe. Il serait notamment efficace contre la souche virale du la grippe H5N1 (grippe aviaire) qui peut être mortelle pour l’homme.
L’analyse approfondie du vaccin et des anticorps a permis aux chercheurs de mettre en évidence la présence d’une protéine de membrane commune à la plupart des virus de la grippe, l'hémagglutinine. Dotée d'une tige et d'une tête, elle s'accrocherait aux cellules humaines par l'intermédiaire de la tête et permettrait ainsi au virus d’infecter l’hôte plus facilement. D’après l’équipe de John Schrader, le vaccin de 2009 stimulerait la production d’anticorps capables de s’attaquer à la tige de cette protéine et non à sa tête. Le principal avantage, c’est que contrairement à la tête, qui change rapidement au fil des mutations, la tige de l’hémagglutinine serait assez stable d’un virus à l’autre. Ce qui permet donc au vaccin un spectre d’efficacité plus large.
Information Hospitalière
|
|
|
|
|
|
|
|
Le Lancet vient de publier une grande étude qui fait le point sur l'utilisation depuis un demi-siècle d'antipsychotiques chez les malades schizophrènes.
La découverte par Henri Laborie, en 1952, de la première molécule neuroleptique, a révolutionné la vie des malades et le fonctionnement des hôpitaux psychiatriques. Il y a une quinzaine d'années, de nouveaux médicaments antipsychotiques sont arrivés, avec une efficacité apparemment supérieure, permettant aux patients d'évoluer vers plus d'autonomie.
La schizophrénie frappe 1 % de la population. Cette affection, qui débute chez l'adulte jeune (entre 15 et 25 ans), se manifeste par une déstructuration profonde de la personnalité avec délires, hallucinations ou encore repli sur soi. Aujourd'hui, pour la majorité des chercheurs, il s'agit d'une affection à forte composante génétique, même si les mécanismes en cause n'ont pas été complètement établis.
Quels sont les effets des médicaments antipsychotiques? Comment agissent-ils sur le cours de la maladie ? Pour répondre, l'équipe du département de psychiatrie de l'hôpital de Munich, en collaboration avec des universitaires grecs et américains, s'est penchée sur tous les essais comparant les effets des antipsychotiques à ceux d'un placebo (un produit dénué de principe actif) chez des patients souffrant de schizophrénie entre 1959 et 2011. Au total, 65 essais représentant 6500 patients ont été examinés. À noter que les chercheurs n'ont pas séparé les périodes concernées par des molécules différentes (neuroleptiques classiques de 1959 à 1990, environ ; antipsychotiques atypiques entre 1990 et 2011).
Le bilan est globalement positif pour ces médicaments, dotés aussi d'effets secondaires non négligeables. Déjà, au bout d'un an de traitement, le taux de rechute concerne 64 % des patients avec le placebo contre 27 % avec le médicament. Par ailleurs, le risque de réhospitalisation est de 26 % pour les premiers et de 10 % pour les seconds. Une moindre agressivité apparaît avec le traitement par rapport au placebo.
Malheureusement, les essais en cours ne durent jamais plus de deux ans. Or, il serait intéressant de connaître le devenir à long terme des patients recevant de tels médicaments. «Les neuroleptiques de première génération, comme l'Haldol, ont été beaucoup critiqués du fait de leurs effets secondaires, visages figés, mouvements ralentis, considérés comme des manifestations stigmatisantes, souligne le Professeur Jean-Pierre Olié (psychiatre, hôpital Sainte-Anne, Paris). Les nouveaux médicaments ont une meilleure tolérance sur le plan neurologique, il y a une vraie différence. Mais ils nécessitent une surveillance métabolique dans les premiers temps du traitement.»
Par ailleurs, ces antipsychotiques atypiques, apparus plus récemment, auraient également un effet régulateur sur le plan émotionnel, avec un impact antidépresseur. «À travers le monde, tous les consensus recommandent d'utiliser en première intention ces molécules», ajoute le Profeseur Olié. Ils entraînent cependant une prise de poids plus importante et augmentent le risque de diabète type 2 et d'intolérance au glucose.
Grâce à ces nouvelles molécules, la qualité de vie des malades a vraiment changé, avec une meilleure efficacité, un meilleur confort, souligne l'étude du Lancet qui insiste également sur l'impact positif de ces médicaments dans la préservation des fonctions cognitives.
Le Figaro
The Lancet
|
|
|
|
|
|
|
|
D'après une nouvelle étude, le cancer du sein chez les jeunes femmes serait associé à des processus biologiques liés à l'âge. Étant donné qu'il s'agit d'une maladie présentant des caractéristiques biologiques uniques, elle exige des méthodes de lutte sur mesure. C'est du moins ce qu'ont expliqué les chercheurs lors de la Conférence IMPAKT sur le cancer du sein qui a eu lieu à Bruxelles du 3 au 5 mai. Les résultats publiés dans la revue Annals of Oncology pourraient influencer les méthodes de traitement, notamment car le cancer du sein chez les jeunes patientes est souvent agressif et diagnostiqué uniquement à un stade avancé. Le pronostic pour les jeunes patientes n'est pas bon.
Sous le patronage de l'Institut Jules Bordet en Belgique, les chercheurs ont découvert que le cancer du sein chez les femmes âgées de 45 ans et moins est associé à des tumeurs de type basales. Ces femmes présentent également un haut risque de rechute indépendamment du stade, du degré histologique, des sous-types moléculaires et du traitement reçu.
«Certains chercheurs diront que cela est dû au fait que les thérapies hormonales ne conviennent pas aux jeunes femmes. Nous avons effectué une étude portant sur 1188 femmes n'ayant reçu aucune thérapie systémique. Nous avons effectivement constaté des résultats plutôt faibles chez les jeunes femmes en ce qui concerne les tumeurs luminales-A et luminales-B», explique le Docteur Hatem A. Azim Jr de l'Institut Jules Bordet.
Le cancer luminal-A et ER+ est bien différencié, tandis que le cancer luminal-B et ER+ est souvent peu différencié. L'équipe a analysé l'expression des différents gènes chez les femmes atteintes d'un cancer du sein afin d'établir un lien avec l'âge. Pour tenir compte de la taille de la tumeur lors du diagnostic, le Docteur Azim et ses collègues ont adapté les résultats. Ils ont examiné la propagation de la maladie aux nœuds lymphoïdes ainsi que le sous-type moléculaire du cancer du sein et d'autres variables.
Leur analyse a été effectuée sur deux ensembles de données indépendantes incluant 1188 et 2334 patients. Les résultats ont été analogues. «Nous avons constaté que même après avoir tenu compte de ces paramètres, plusieurs gènes et signatures génétiques sont associés à l'âge chez les patientes atteintes du cancer du sein», explique le Docteur Azim. «Certains étaient fortement exprimés chez les jeunes femmes, dont les cellules souches, les progéniteurs luminaux, les ligands RANK (RANKL) et c-kit tandis que d'autres l'étaient beaucoup moins, notamment les gènes associés à la mort programmée des cellules, ou apoptose.»
D'après les chercheurs, plusieurs chemins propres au cancer du sein chez les jeunes patientes constitueraient des pistes pour le traitement. Il s'agit notamment d'une signature génétique du chemin moléculaire de la phosphoinositide 3-kinase, étroitement liée à l'âge des patientes. «PI3k constitue une piste très importante pour le cancer du sein. Peut-être ces résultats permettront-ils de pousser plus loin l'étude de son rôle dans l'apparition du cancer du sein chez les jeunes femmes», explique le Docteur Azim.
Un autre gène, RANKL, est fortement exprimé chez les jeunes patientes atteintes du cancer du sein. D'après les experts, ce gène contribuerait aux métastases osseuses. Sur la base des résultats obtenus suite aux données précliniques, RANKL semble avoir un effet anti-tumeur en dépit de son action de propagation du cancer des os. «En mettant en contexte toutes les données, nous avons émis l'hypothèse qu'il serait intéressant de cibler RANKL chez les jeunes patientes atteintes du cancer du sein», conclut le Docteur Azim.
Cordis
|
|
|
|
|
|
|
|
Le traitement de la maladie d’Alzheimer est actuellement uniquement symptomatique, reposant surtout sur les inhibiteurs de l’acétylcholinestérase, lesquels exposent à de nombreux effets secondaires. Des alternatives sont donc activement recherchées. Récemment, il est apparu que l’Huperzine A, extraite essentiellement de la mousse Huperzia serrata pourrait être un agent prometteur pour la prise en charge de la maladie d’Alzheimer. Les rendements d’extraction à partir des plantes sèches étant faibles et la ressource végétale en quantité limitée, la synthèse chimique de la molécule a été mise au point. L’optimisation des procédés d’extraction et des synthèses chimiques permet aujourd’hui de produire l’Huperzine A à la fois chimiquement et biologiquement.
L’Huperzine A est un inhibiteur compétitif, sélectif et réversible de l’acétylcholinestérase. Son pouvoir inhibiteur est au moins équivalent à celui des inhibiteurs déjà commercialisés. Les études évoquent d’autres activités pharmacologiques de l’Huperzine A, telles que des activités contre l’H2O2, la protéine ou le peptide β-amyloïde, le glutamate, l’ischémie, la cytotoxicité due à la Staurosporine et l’apoptose. Au niveau pharmacocinétique, elle présente une absorption rapide, une large distribution avec un passage de la barrière hémato-encéphalique et une élimination assez lente.
Plusieurs essais cliniques, à différentes échelles, ont été réalisés sur cette molécule dans le monde. Ils concluent que l’Huperzine A permet une amélioration des fonctions cognitives, de la mémoire, de l’état général, des troubles du comportement et des performances fonctionnelles. L’effet bénéfique sur les fonctions cognitives a été mise en évidence chez les patients atteints d’une maladie d’Alzheimer légère à modérée, avec une posologie de 0,2 mg 2 fois par jour. Les études chez l’animal et les essais cliniques indiquent des effets cholinergiques minimes par rapport aux traitements actuels. Les études chez l’animal décrivent des effets indésirables modérés aux doses thérapeutiques, et des données prometteuses suggèrent une bonne tolérance à la dose de 0,4 mg/jour sur 24 semaines.
L’Huperzine A est d’ores et déjà utilisée en Chine dans le traitement de la maladie d’Alzheimer. Un essai clinique de phase III de grande envergure pourrait favoriser la mise sur le marché de cette molécule aux USA et en Europe. L’Huperzine A pourrait ainsi devenir prochainement une nouvelle option thérapeutique dans le traitement de la maladie d’Alzheimer et des autres démences.
JIM
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Une chambre peinte d'une habitation maya, au Guatemala, contient des annotations numériques qui correspondent à des relevés calendaires.
- Des calculs bien avant les codex
Découvert il y a près d’un siècle, le complexe tentaculaire de Xultún dans la région de Petén au Guatemala commence tout juste à livrer ses secrets. Des archéologues américains y ont découvert une maison qui contient ce qui semble être un espace de travail pour scribes, avec des murs ornés de peintures uniques, de signes calligraphiques et de centaines de nombres griffonnés. Selon les experts, ils représenteraient des calculs relatifs au calendrier Maya.
Les inscriptions datent du IXe siècle, elles sont beaucoup plus vieilles que les célèbres codex mayas écrits sur des feuilles en écorce d'arbres. Ces codex datent de la période Postclassique récente (peu avant l’arrivée des conquistadors) et jusqu’à présent on n’avait pas découvert de traces de calculs astronomiques plus anciennes. Cette découverte fait l’objet de deux publications, dans le journal Science et dans la revue National Geographic.
La maison excavée, elle était enterrée à un mètre sous le sol, a été en grande partie dégradée par des pilleurs mais plusieurs peintures de figures humaines et de nombreux hiéroglyphes noirs et rouges ont été préservés. Ils représentent les premières peintures domestiques découvertes chez les mayas.
- Trois murs et beaucoup de mystères
Sur le mur nord, les archéologues ont identifié une niche décentrée comportant la peinture d’un roi assis et vêtu de plumes bleues. A côté, il y a le portrait d’un scribe (en orange), vraisemblablement le propriétaire des lieux, qui « pourrait être le fils ou le plus jeune frère du roi » estime William Saturno de l'Université de Boston, qui a dirigé l'exploration et les fouilles.
Le mur nord comporte aussi une sorte de calendrier avec quatre nombres plus énigmatiques mais liés aux cycles astronomiques de Mars, Mercure et peut-être de Vénus. Les dates permettent de se projeter 7000 ans plus tard. « Les anciens Mayas prévoyaient que dans 7000 ans, le monde serait exactement comme ils le connaissaient » affirme William Saturno.
Les autres murs comportent des peintures de personnages vêtus de pagnes blancs, portant des médaillons identiques autour du cou et une coiffe équipée d’une unique plume. D’autres séries de dates y sont aussi gravées. Certaines colonnes de chiffres correspondent aux phases de la Lune et d’autres pourraient correspondre aux prévisions d’éclipses. Les auteurs remarquent que l'un des buts des responsables des calendriers mayas, déduit des études des codex, était de trouver une harmonie entre les événements du ciel et les rituels sacrés. Les chercheurs supposent que les peintures de Xultún devaient avoir un objectif similaire.
Sciences et Avenir
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|