|
|
|
|
|
NUMERO 673 |
|
|
|
|
|
|
|
Edition du 26 Octobre 2012
|
|
|
|
|
Edito
L’or bleu va changer la donne énergétique mondiale
On estime que 1,1 milliard de voitures circulaient dans le monde en 2012 et ce nombre devrait doubler d’ici 2040.
Pourtant, selon l’Agence internationale de l’énergie, la consommation mondiale de carburant pourrait être divisée par deux au cours de la même période mais à deux conditions : promouvoir massivement des véhicules propres et hybrides et développer parallèlement les biocarburants de nouvelle génération.
La secteur des transports, en plein essor, représente actuellement plus de 20 % de la consommation globale d'énergie dans le monde et L'AIE souligne dans ses derniers rapports que nous devons anticiper l’après-pétrole et qu’il est possible d’organiser cette transition en favorisant de grandes ruptures technologiques (Technology Roadmap: Fuel Economy of Road Vehicles) et en optant pour des politiques volontaristes en matière d’efficacité énergétique dans les transports (Policy Pathway: Improving the Fuel Economy of Road Vehicles).
Mais il faut être réaliste : quels que soient les progrès de la technologie et les efforts des pouvoirs publics pendant les 25 prochaines années, il est peu probable qu’on puisse faire « basculer » en si peu de temps l’ensemble du secteur mondial des transports vers des sources d'énergies totalement propres comme l’électricité (à condition qu’elle soit elle-même produite à partir d’énergies non émettrices de gaz à effet de serre) ou l’hydrogène.
Pour se passer totalement des énergies fossiles dont l’épuisement accéléré des ressources va inéluctablement faire exploser les prix, il va donc falloir avoir également recours aux biocarburants issus de la biomasse (à condition, comme le bois et les déchets végétaux, qu’ils n’entrent pas en compétition avec les cultures vivrières) et de la mer (les algues marines).
On sait en effet aujourd’hui que, si les biocarburants de première génération, issus principalement de certaines céréales, des betteraves, du colza, de la palme ou encore, au Brésil, de la canne à sucre, peuvent être rentables et compétitifs, ils finissent souvent par entrer en compétition avec les productions agricoles destinées à l’alimentation car les terres cultivables ne sont pas extensibles à l’infini. Autre problème majeur : selon plusieurs études scientifiques récentes, le bilan carbone réel de ces biocarburants (de type biodiesel et bioéthanol) et leur contribution nette à la réduction des émissions de gaz à effet de serre, seraient beaucoup moins favorables que prévu.
C’est d’ailleurs pour ces raisons que l’Union européenne vient d’annoncer, le 17 octobre, qu’elle souhaitait, dans son projet de Directive sur les biocarburants, limiter finalement à seulement 5 % la part de ces biocarburants de première génération dans la consommation totale des transports d'ici 2020.
Les biocarburants de deuxième génération, issus du bois, de la paille et des déchets végétaux, ne présentent pas ces inconvénients majeurs : ils n’entrent pas ou peu en compétition avec les productions agricoles et leur bilan carbone est plus favorable mais, pour le moment, leur production est bien plus coûteuse car elle requiert des procédés chimiques lourds et complexes pour aboutir à des biocarburants de moindre qualité énergétique que ceux de première génération.
En outre, un nouvel obstacle risque de compliquer encore leur essor : les progrès récents des technologies de cogénération permettent à présent d’utiliser le bois et les déchets végétaux pour produire avec un bon rendement de la chaleur et de l’électricité. Ce nouvel usage énergétique va donc entrer en compétition avec la production de ces biocarburants issus du bois et de ses dérivés.
Si l’on prend en compte ces différents facteurs économiques, écologiques et technologiques, on constate que c’est probablement la « biomasse bleue », issue de la mer (terme qui me semble plus approprié que celui trop restrictif de biocarburants de 3ème génération), qui pourrait révolutionner à terme la production de carburants mais également, nous allons le voir, être le moteur d’une nouvelle et immense chaîne de valeur industrielle et technologique.
Les micro-algues unicellulaires constituent le plancton végétal ou phytoplancton. Ce sont des micro-organismes constitués, comme leur nom l’indique, d’une seule cellule. Elles représentent les plus anciennes formes de vie sur Terre et sont apparues il y a au moins 3,5 milliards d’années. Ces micro-algues représentent plus de la moitié de toute la matière organique produite par notre planète et sont à la base de toute la chaîne alimentaire du vivant.
Au fil de leur longue évolution, ces micro-organismes ont développé une biodiversité prodigieuse : 35 000 espèces à ce jour sont inventoriées mais il en resterait au moins dix fois plus à découvrir !
Quant on sait qu’actuellement il n’existe que quelques variétés de micro-algues sur le marché (notamment les spirulines et les chlorelles), principalement pour répondre à certains besoins de l’alimentation animale, de l’industrie agro-alimentaire et de la cosmétique, on mesure mieux l’immense potentiel de développement de cet « or bleu ».
Les micro-algues pourraient devenir le moteur d’une révolution technologique, énergétique et industrielle pour cinq raisons essentielles.
D’abord, contrairement aux biocarburants de première génération (maïs, palme, colza), les algues peuvent être cultivées sur des terres impropres à la production agricole qui n’entrent en compétition ni avec l’élevage, ni avec des cultures vivrières.
Deuxième raison : ces micro-organismes peuvent parfaitement proliférer dans des eaux saumâtres ou usées. Leur production de masse devrait donc avoir un impact limité sur les ressources en eau douce de la planète qui, il faut le rappeler, sont déjà consacrées pour les trois quarts à l’agriculture et à l’élevage.
La troisième raison, nous l’avons déjà évoquée, c’est le rendement sans équivalent de cette « algoculture ». Selon les experts, un hectare d’algues, après une sélection génétique judicieuse, pourrait fournir au moins 25 000 litres d'huile, bien plus que le colza, environ 1500 litres, le tournesol, environ 1000 litres et le soja, environ 500 litres. Avec un tel rendement, il suffirait d'affecter l’équivalent d’à peine 1 % de la surface de la France à la production d'algues pour couvrir l’ensemble de la demande de carburants dans notre pays.
La quatrième raison n’est pas souvent mise en avant mais elle est pourtant décisive : en consommant des énergies fossiles présentes dans le sous-sol depuis des centaines de millions d’années, nous rejetons des quantités considérables de CO2 dans l’atmosphère (autour de 40 milliards de tonnes en 2012) et nous aggravons l’effet de serre responsable du réchauffement climatique. Les micro-algues ont au contraire besoin de consommer de grande quantité de CO2, qu’elles savent extraire directement de l’air, pour croître et se développer. La production et l’utilisation des différents biocarburants issus de ces algues seraient donc neutres en termes de bilan carbone. Par ailleurs, et cela n’est pas négligeable, ces algues n’ont pas besoin d’engrais chimiques et de pesticides pour se développer.
Enfin, dernière raison : on sait à présent tirer de certaines variétés de ces algues, des biocarburants très purs et à haut rendement énergétique dont l’emploi dans les transports pourrait améliorer les performances des moteurs et réduire en bout de chaîne la consommation et la pollution de nos véhicules thermiques.
En France, le Laboratoire d'Océanographie de Villefranche-sur-Mer (LOV) est en pointe dans ce domaine de recherche et travaille depuis plus de 5 ans, en partenariat avec l’INRIA, sur la production de biocarburants issus de la mer qui soient performants et utilisables dans nos moteurs de voitures ou d’avions. Selon les chercheurs du LOV, un litre de micro-algues permet de produire cent grammes d’huile d’excellente qualité et le rendement de ces micro-algues serait trente fois supérieur à celui du colza ou du tournesol.
Aux Etats-Unis, le Département de l'Énergie soutient également activement la recherche sur le développement de biocarburants à partir d'algues et estime comme réaliste la perspective, d’ici 10 ans, du remplacement à hauteur de 17 % du carburant issu du pétrole par des biocarburants issus des algues.
L’Europe s’est également engagée dans cette voie d’avenir et prévoit le remplacement progressif des combustibles fossiles par des biocarburants. Une directive européenne prévoit que d'ici 2020, les énergies renouvelables représentent au moins 20 % de notre consommation totale d'énergie. Une autre directive prévoit que 10 % de l’énergie utilisée par les transports en Europe d’ici 2020 soit issue des énergies renouvelables.
Mais pour développer la production d’agrocarburants à un niveau industriel, de nombreux défis scientifiques, économiques et logistiques restent à relever. Il faut notamment trouver une solution à la question de l’approvisionnement des algues en nutriments, principalement du phosphore et de l’ammoniac qui sont indispensables, avec le soleil et le dioxyde de carbone, pour «nourrir» les algues.
Un projet européen unique au monde vise à créer une nouvelle synergie techno-industrielle entre la production d’algues à grande échelle et le recyclage des eaux usées. L’idée est à la fois assez simple mais très ambitieuse à mettre en œuvre : sachant que les nutriments représentent une part importante dans les coûts de production des algues, pourquoi ne pas nourrir ces dernières gratuitement à l’aide des eaux usées qui contiennent tous les nutriments nécessaires.
C’est dans cette perspective que la compagnie de gestion de l’eau espagnole Aqualia a lancé, avec le soutien de l’Union européenne, un projet visant à démontrer la faisabilité de l’utilisation des eaux usées pour cultiver des algues destinées à la production de biocarburant. Ce projet, implanté à Chiclana, au nord de l’Espagne, vise à terme à produire annuellement, sur une surface de 10 hectares, 200 000 litres de biodiesel par an, et 600 000 mètres cube de biométhane, de quoi alimenter environ 400 véhicules par an.
Outre-Atlantique, plusieurs projets misent également sur la production massive d’algocarburants pour réduire la dépendance américaine aux carburants fossiles. Début 2012, des scientifiques américains ont réussi, en modifiant la bactérie Escherichia coli, à convertir des algues brunes en éthanol, ce qui lève un obstacle majeur à l’utilisation à grande échelle des macroalgues brunes pour la production de biocarburant. Selon les chercheurs, le rendement à l’hectare de ces algues brunes communes serait environ deux fois plus élevé que celui de la canne à sucre et cinq fois plus important que celui du maïs.
Autre avancée concrète : la société américaine de biotechnologie Joule Unlimited, a récemment annoncé un partenariat avec Audi pour développer une technique de production très innovante. Celle-ci utilise également une bactérie génétiquement modifiée, capable de produire directement du carburant liquide lorsqu'elle est exposée à la lumière et nourrie en CO2 (Voir article).
Contrairement aux autres biocarburants, les algocarburants qui seraient produits avec ce type de bactérie n’ont besoin ni de nutriments, de terre arable, ni d’eau potable, ni d’engrais. Il suffit de remplir de longs tubes de plastique transparent, d’eau usée puis d’y introduire la fameuse bactérie et du CO2. Sous l’effet de la chaleur et de la lumière du soleil, on peut alors produire de grande quantités de bioéthanol et de biogazole ! Cerise sur le gâteau : cette technologie de production a un rendement à l'hectare inégalé, au moins dix fois supérieur à celui de l'éthanol issu de la canne à sucre.
En théorie, avec cette technologie, il ne faudrait que 4 000 kilomètres carrés de réacteurs pour produire le biocarburant nécessaire au parc automobile français et 50 000 km2 pour satisfaire les besoins du parc européen. Au niveau mondial, 250 000 km2 de réacteurs, moins de la moitié de la surface de la France, suffiraient à assurer les besoins mondiaux en carburants !
Il reste cependant à passer du laboratoire à la production industrielle. Celle-ci devrait débuter dès l’année prochaine aux Etats-Unis avec deux sites-pilotes au Texas et au Nouveau-Mexique. L’objectif est de produire un bioéthanol à moins de 0,25 € le litre, soit un prix inférieur à celui du bioéthanol américain issu du maïs.
Toujours avec cette technologie du bioréacteur, il est également prévu de produire du biogazole à un coût estimé à moins de 50 dollars le baril. En outre, ce biogazole possède une qualité énergétique bien supérieure au gazole issu du pétrole, grâce un indice de cétane presque deux fois plus grand. Il permet donc un rendement et une combustion plus complète dans le moteur diesel et une réduction finale de la consommation et de la pollution.
En 2010, la compagnie EADS a d’ailleurs utilisé pour la première fois sur plusieurs vols un biocarburant issu des algues. Celui-ci contenait huit fois moins d’hydrocarbures fossiles que le kérosène dérivé du pétrole et les avions qui ont brûlé ce biocarburant ont réalisé des économies de consommation de l’ordre de 10 %. Selon EADS, ce type de biocarburant pourrait représenter d’ici 20 ans le tiers du carburant nécessaire à l’aviation civile dans le monde !
Mais le potentiel énergétique des algues ne se limite pas à la production de biocarburants performants pour le transport, il peut également venir s’intégrer dans un nouveau binôme énergétique très prometteur dont le second terme est l’hydrogène.
L’hydrogène est un vecteur énergétique potentiel idéal. Il possède une remarquable intensité énergétique et surtout sa combustion ne produit que de l’eau et n’entraîne aucune pollution et aucun gaz à effet de serre. Mais ce gaz n’est pas disponible sur Terre à l’état naturel et le grand défi de ce siècle va être de le produire en grande quantité et de manière propre. Or, l’énergie solaire et éolienne ne suffira pas, à un horizon prévisible, à produire tout l’hydrogène dont le monde aura besoin en 2050 pour sortir des énergies fossiles.
C’est là qu’interviennent certaines variétés de micro-algues qui possèdent la capacité de produire de l’hydrogène à partir d’eau et de lumière. Des chercheurs allemands de l’Université de Bonn dirigée par le Professeur Happe sont ainsi parvenus à isoler le gène qui commande la production d’hydrogène chez l’algue verte et ont ensuite modifié génétiquement cette algue verte pour lui faire produire de grandes quantités d’hydrogène.
En outre, les micro-algues sont de remarquables usines de transformation biochimiques qui peuvent « digérer » et transformer un grand nombre de substances contenues dans nos déchets et qui possèdent également une extraordinaire capacité à absorber le C02 ! A terme, il devrait être possible, grâce à une sélection rigoureuse et à une amélioration génétique de certaines familles de micro-algues, de faire d’une pierre trois coups : produire à bas coût des biocarburants d’excellente qualité, produire de manière propre de grandes quantités d’hydrogène et enfin dépolluer et retraiter nos eaux usées et nos déchets de manière écologique !
A l’heure actuelle, le litre de carburant d’algue coûte encore dix fois plus cher que le pétrole mais cette situation pourrait évoluer plus vite que prévu car le prix du baril de brut ne pourra que grimper inexorablement sous le double effet de l’épuisement des ressources physiques et de l’augmentation de la demande mondiale. Dans le même temps, le coût de production du baril d’algocarburant va fortement diminuer à mesure que la technologie de production progressera et les deux courbes pourraient bien se croiser avant une dizaine d’années…
Mais l’exploitation énergétique à grande échelle des algues n’aura de sens que si elle rentre dans le cadre d’une chaîne industrielle qui ne se limite pas à l’énergie mais intègre également l’alimentation humaine et animale, les médicaments, les cosmétiques et les technologies écologiques de dépollution des eaux. C’est donc bien une nouvelle économie qui est à imaginer et à bâtir.
Le jeu en vaut la chandelle car, pour prendre l’exemple du seul pétrole, nous ne pouvons continuer sur la trajectoire de consommation actuelle. Le monde consomme déjà 4,4 milliards de tonnes de pétrole par an et si nous restons sur ce rythme, imposé principalement par la croissance économique de l’Asie, nous consommerons plus de 6 milliards de tonnes de pétrole par an à l’horizon 2030. Une telle perspective n’est pas supportable car la planète doit absolument réduire de moitié ses émissions de CO2 d’ici 2050 et cet objectif vital ne pourra être atteint ou approché que si nous parvenons à réduire dans les mêmes proportions notre consommation d’énergies fossiles et de pétrole.
Seul le développement massif et cohérent des énergies renouvelables, articulé sur la synergie du triptyque éolien, solaire et biomasse (terrestre et marine), complété par l’hydrogène, comme vecteur, peut nous permettre, conjointement à une amélioration sans précédent de l’efficacité énergétique de nos sociétés et de nos économies, de relever le double défi, énergétique et climatique qui nous attend.
Dans cette perspective, la conception et le développement d’une industrie globale de production et de transformation des ressources immenses et inépuisables en biomasse issues de la mer doivent devenir un objectif stratégique majeur de notre pays.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Des chercheurs de l'ESA ont réussi à battre un nouveau record de téléportation quantique en parvenant à maintenir un état d'intrication quantique entre deux particules distantes de 143 km. Cette avancée majeure ouvre la voie vers la possibilité de transmettre et de crypter des informations en utilisant les lois de la physique quantique.
Conformément à la théorie quantique, les deux particules en question, bien que séparées en apparence par une grande distance, restent corrélées et forment en fait une entité commune. De ce fait, toute action sur l'une de ces particules aura instantanément un effet sur l'autre, quelle que soit la distance qui les sépare et sans pour autant que ce phénomène ne viole la vitesse limite de la lumière.
Pour cette nouvelle expérience, les chercheurs sont parvenus à produire et à émettre des photons (le constituant fondamental de la lumière et le vecteur de l'interaction électromagnétique) dans des directions opposées en maintenant jusqu'à cette distance de 143 km, leur état intriqué, leur "cohérence" quantique.
Cette expérience confirme donc qu'il est possible d'envisager des communications quantiques sur de grandes distances et les chercheurs de l'ESA vont à présent tenter de réaliser une communication quantique entre la Terre et un satellite en orbite. Mais le véritable enjeu de ces recherches est la mise au point d'un mode de cryptage quantique des informations.
Actuellement, il n'existe aucune solution de cryptage mathématique qui soit totalement inviolable et "incassable" car, avec une puissance de calcul suffisante, il est possible en théorie de parvenir à reconstituer la clef de cryptage et donc de lire les informations protégées. En revanche, la cryptographie quantique, elle, serait totalement inviolable car toute tentative d'interception se traduirait immédiatement par un "effondrement" du système quantique et par la destruction des informations.
Article rédigé par Mark FURNESS pour RTFlash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Voici une étude dont les conclusions risquent de faire du bruit : selon les sociétés GasTerra, Stedin et Joulz qui œuvrent dans les domaines du gaz naturel et des réseaux de distribution de gaz et d'électricité, il est tout à fait possible d'incorporer jusqu'à 20 % d'hydrogène dans le réseau de gaz naturel sans modifications majeures de ce dernier.
L'étude, qui a duré quatre ans, de 2007 à 2011, a été réalisée sur la distribution énergétique de logements dans des appartements situés sur l'île d'Ameland, au large des Pays-Bas. Par mesure de précaution, des appareils de cuisine identiques à ceux utilisés par les foyers participant à cette expérience ont été testés en laboratoire avant le début de cette expérimentation, avec un mélange comprenant 70 % de gaz naturel et 30 % d'hydrogène.
Au cours de l'expérimentation, de l'hydrogène a été progressivement incorporé en proportion de plus en plus importante dans le réseau de gaz naturel, par palier d'augmentation de 5 %, jusqu'à atteindre les 20 %. Le mélange des deux substances a été réalisé dans une petite station située à l'extérieur des logements.
Cette étude a permis de vérifier que ce mélange gaz naturel-hydrogène n'entraînait aucune conséquence, que ce soit sur le réseau et les installations de distribution ou au niveau des appareils utilisés par les habitants concernés. Comme le souligne Albert van der Meer, directeur de ce projet, "En raison du pouvoir calorifique plus faible de ce mélange, nous nous attendions à une montée en température plus longue du chauffage dans ces logements mais cela n'a pas été le cas et le confort des résidents n'a pas été altéré". Autre enseignement important de cette étude : la structure et les matériaux du réseau de distribution n'ont subi aucune altération particulière et ont parfaitement supporté ce mélange.
Le projet va à présent entrer dans sa deuxième phase qui consiste à produire et à stocker massivement de l'hydrogène de manière propre en utilisant la biomasse, l'énergie solaire et l'énergie du vent. Le couple éolien-hydrogène semble particulièrement prometteur dans cette région car il permettrait de ne plus être obligé de stopper les éoliennes en surcapacité de production électrique et de transformer cette électricité excédentaire en hydrogène.
Article rédigé par Mark FURNESS pour RTFlash
C2W
GasTerra
|
|
|
|
|
|
|
|
La compagnie japonaise NEC a présenté un nouveau type de batterie très performante destinée aux véhicules électriques.
Basée sur la technologie lithium-ion, cette batterie innove dans plusieurs domaines. En premier lieu, elle permet à un véhicule électrique d'atteindre une autonomie de 260 km au lieu de 200 km, soit une augmentation de 30 %, ce qui représente un progrès remarquable. Cette avancée résulte d'une amélioration de 30 % de la densité énergétique de la batterie qui passe de 150 Wh/kg à 200 Wh/kg. Parallèlement, le poids de cette batterie diminue de 30 %.
Parmi les innovations, il faut souligner les nouvelles cathodes en manganèse/nickel et des anodes en graphite qui permettent de faire progresser la tension de la batterie de 3,8V à 4,5V. Autre progrès : les électrodes sont immergées dans une solution fluorée qui permet une résistance accrue à l'oxydation par rapport aux solutions électrolytiques classiques.
Les tests d'endurance montrent qu'après 500 cycles de charges et décharges, cette batterie conserve 80 % de ses capacités pour une température de 20°C, soit une longévité équivalente à celle des batteries actuelles. Ces batteries équiperont les nouveaux modèles de Nissan Leaf, via la joint-venture formée avec le constructeur automobile. Cependant, il ne s'agit pas d'un contrat exclusif, puisque NEC n'exclut pas d'équiper les futurs modèles de Mitsubishi et Honda.
L'objectif de Nec est de parvenir à doubler la puissance et l'autonomie des batteries pour véhicules électriques, tout en réduisant leur poids et leur coût.
Article rédigé par Mark FURNESS pour RTFlash
NEC
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le 11 mai 2001, un séisme particulièrement violent et très destructeur frappait la cité historique de Lorca, située entre Almeria et Murcia, dans le sud de l'Espagne.
Ce tremblement de terre avait atteint une magnitude de 5,1 et, fait inhabituel, son épicentre avait été enregistré très près de la surface, à moins de 3 km de profondeur. Outre les victimes : neuf morts et 130 blessés à Lorca, ce séisme avait fait 15 000 sans-abri et des dégâts considérables sur le riche patrimoine de cette ville ancienne.
Pour essayer de comprendre les causes de ce séisme, des chercheurs du département des sciences de la Terre de l'université d'Ontario occidental (Canada) ont analysé, à l'aide d'un radar haute fréquence, les déformations du sol provoquées par les deux secousses de ce tremblement de terre. Ils ont découvert que ce séisme s'inscrivait dans le cadre de l'ensemble de failles d'Alhama de Murcia et que la quasi-totalité de la puissance libérée provenait d'un glissement de seulement 20 cm d'une faille de 2 km.
Les chercheurs ont également découvert que le niveau de la nappe phréatique du bassin de l'Alto Guadalentin, une rivière proche de Lorca, avait baissé de plus de 250 mètres depuis 40 ans, en raison d'une intense exploitation par l'homme.
Grâce à une modélisation informatique, les chercheurs ont pu montrer que cette baisse très importante du niveau de la nappe phréatique avait sans doute provoqué la rupture d'une portion de la croûte terrestre à proximité du système de failles d'Alhama de Murcia. Cette rupture a elle-même entraîné une "réaction élastique" de la croûte qui a augmenté la pression sur la faille, jusqu'à son point de rupture. Comme le souligne Pablo Gonzales qui a dirigé cette étude, "Nos travaux montrent que les activités humaines peuvent avoir un impact significatif sur le déclenchement et la puissance de certains séismes."
Le géologue Jean-Philippe Avouac, de l'institut de technologie de Californie (Caltech), considère, pour sa part, que l'exploitation intensive de cette nappe d'eau "a très probablement accéléré un processus naturel mais n'a pas suffi à elle seule à déclencher la secousse". Ce géologue adresse cependant un avertissement aux pouvoirs publics et préconise de limiter les perturbations dans le sous-sol, en particulier par des projets de stockage de CO2 souterrain qui risquent de modifier des volumes considérables de croûte terrestre.
Article rédigé par Mark FURNESS pour RTFlash
New Scientist
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Dans le traitement de la sclérose en plaques, la recherche est parsemée d'embûches et de déceptions. En 2011, l'essai de phase 4 du Simcombin a ainsi montré que la combinaison simvastatine et interféron n'apportait aucun bénéfice dans le traitement de cette maladie.
Mais cette fois, les chercheurs sont plus optimistes après les bons résultats, présentés par le Professeur Jeremy Chataway (University College de Londres), d'un essai clinique en phase 2 qui montre que la simvastatine, à 80 mg/j, améliore sensiblement l'état des malades souffrant d'une certaine forme de SEP (SEP-SP), un type de sclérose en plaques pour lequel il n'existe pas d'option thérapeutique.
De précédentes recherches avaient déjà montré que les statines pouvaient avoir une action anti-inflammatoire et neuroprotectrice mais cette fois, les chercheurs ont franchi un pas supplémentaire en montrant que les statines peuvent constituer une option thérapeutique à un stade plus tardif de la maladie.
Au cours de cet essai qui a duré deux ans, 140 patients, âgés de 51 ans en moyenne, ont été divisés en deux groupes. Le premier groupe a reçu 80 mg de simvastatine par jour et l'autre groupe a reçu un placebo. Au terme de l'essai, les chercheurs ont pu constater, en comparant les IRM prises tout au long de ces deux ans, une amélioration de l'état des malades, sans effets secondaires notables. A la suite de ces résultats encourageants, des essais de phase III vont commencer.
Article rédigé par Mark FURNESS pour RTFlash
Multiple Sclerosis Society
|
|
|
|
|
|
|
|
Des chercheurs de l'Université du Minnesota (USA), dirigés par Rohit Chugh, travaillent sur un nouveau médicament contre le cancer du pancréas. Il semblerait en effet que le triptolide, une substance issue d'une plante de la pharmacopée traditionnelle chinoise, la "lei gong teng", soit efficace contre ce cancer grave et souvent mortel.
D'autres recherches avaient montré en 2007 que le triptolide avait la capacité de bloquer l'action d'une protéine appelée HSP70 qui est fortement impliquée dans la cancérisation des cellules du pancréas mais cette molécule n'est pas hydrosoluble, ce qui complique son administration au malade. Les chercheurs américains ont pu néanmoins résoudre ce problème et concevoir un nouveau médicament baptisé minnelide.
Le minnelide a été expérimenté avec succès chez des souris génétiquement modifiées pour présenter des cancers humains du pancréas. Le médicament agit en inhibant une protéine nommée HSP 70, qui joue un rôle-clé dans la multiplication des cellules cancéreuses du pancréas.
Compte tenu de ces résultats, des essais du Minnelide sur l'homme sont prévus dès 2013. Le cancer du pancréas, qui touche 44 000 américains par an, est particulièrement meurtrier (95 % de décès à 5 ans) et résiste aux traitements chimiothérapiques et radiothérapiques.
Article rédigé par Mark FURNESS pour RTFlash
Science
University of Minnesota
|
|
|
|
|
|
|
|
La recherche contre le cancer vise deux buts complémentaires : bloquer la dissémination des cellules malignes et détruire sélectivement ces cellules. Une équipe de recherche, associant l'Inserm et le CNRS et dirigée par Monsef Benkirane et Yves Levy, a découvert des protéines qui jouent un rôle clé dans la prolifération des cellules cancéreuses. Ces chercheurs sont ensuite parvenus à bloquer la dissémination de cellules malignes en agissant sur ces protéines.
Cette découverte représente une double avancée : sur le plan thérapeutique, elle ouvre la voie vers de nouveaux traitements capables de bloquer de manière très efficace la prolifération cellulaire et, sur le plan fondamental, elle élucide le fonctionnement d'une voie de signalisation moléculaire qui semble jouer un rôle majeur dans le déclenchement et la propagation du cancer.
Les chercheurs ont en effet pu montrer qu'une mutation génétique spécifique de NOTCH1, une protéine impliquée dans la prolifération cellulaire, pourrait provoquer plusieurs types de cancer, notamment des leucémies lymphoïdes chroniques, des leucémies aiguës lymphoblastiques et des cancers du sein.
Plusieurs protéines et enzymes interagissant avec NOTCH1 ont pu être identifiées et les chercheurs pensent qu'il est possible, en agissant sur cette chaîne biochimique, de bloquer la prolifération des cellules malades résultant de cette altération génétique de NOTCH1.
Article rédigé par Mark FURNESS pour RTFlash
Molecular Cell
Inserm
|
|
|
|
|
|
|
|
Une équipe de recherche, associant des chercheurs du CNRS, de l'UPMC, de l'Inserm et de l'Institut Curie, a mis au point un nouvel outil novateur d'analyse automatique des migrations cellulaires qui devrait accélérer sensiblement l'évaluation des nouvelles molécules anticancéreuses. Jusqu'à présent, les chercheurs devaient en effet observer les effets des molécules qu'ils testent sur des populations de cellules. Il s'agit d'un processus long, manuel et fastidieux dans lesquels les chercheurs doivent suivre les trajets de centaines de cellules.
le nouvel outil développé par les équipes de Pascal Silberzan et Jacques Camonis consiste en un logiciel capable d'analyser automatiquement la migration cellulaire. Ce système remarquable repose sur les principes de l'hydrodynamique et permet de filmer la recolonisation d'une surface par migration cellulaire après une coupure opérée dans une "tranche" de cellules. Grâce à cet outil, toutes les cellules peuvent être prises en compte, ce qui est impossible avec la technique manuelle classique.
Comme le précise Pascal Silberzan, « Cette innovation a été possible en recourant à des méthodes d'analyses nouvelles et inspirées de celles utilisées habituellement en physique des fluides. Cela montre à quel point l'approche interdisciplinaire est essentielle pour relever les nouveaux défis de la biologie qui doit gérer et analyser des quantités énormes de données ».
Ce logiciel, par la volonté de ses concepteurs, sera en libre accès pour l'ensemble de la communauté scientifique et devrait permettre d'accélérer la mise au point de nouveaux médicaments contre le cancer.
Article rédigé par Mark FURNESS pour RTFlash
CNRS
|
|
|
|
|
|
|
|
Une étude américaine a montré que l'échographie mammaire était plus efficace que la mammographie pour détecter un cancer du sein chez la femme jeune. Pour arriver à cette conclusion, les chercheurs ont travaillé sur une cohorte de 1 200 femmes âgées de 30 à 39 ans qui ont été soumises à une échographie et à une mammographie.
Au final, 22 cancers du sein ont été révélés grâce à l'écographie, contre quatorze par mammographie. En outre, l'échographie a permis d'atteindre un taux de dépistage de 95,7 % chez les femmes de moins de 40 ans, contre 61% pour la mammographie. Ces écarts de résultats seraient liés au fait que le tissu mammaire est sensiblement plus dense chez les jeunes femmes, ce qui entraîne une plus grande difficulté d'interprétation des mammographies.
Cette étude confirme les conclusions d'une autre étude réalisée à l'hôpital universitaire de Shanghai (Chine) entre 1999 et 2007 sur 549 patientes.
La mammographie reste cependant l'examen le plus performant chez les femmes âgées de plus de 50 ans. Rappelons que le cancer du sein reste le plus fréquent chez la femme, avec 53 000 nouveaux cas en 2011 et 11 500 décès.
Comme le souligne le docteur Constance Lehman, qui dirige cette étude, "L'imagerie joue un rôle-clé dans la détection des grosseurs mammaires mais la plupart des grosseurs ne sont pas forcément cancéreuses. C'est pourquoi nous devons apprendre à combiner échographies et mammographies d'une manière optimale pour distinguer les femmes qui doivent être orientées vers une biopsie de celles qui présentent manifestement une tumeur bénigne."
Article rédigé par Mark FURNESS pour RTFlash
AJR
NCBI
|
|
|
|
|
|
|
|
Une étude finlandaise dirigée par Jouni Karppi, de l’Université de Kuopio en Finlande, vient de montrer que la consommation régulière de tomates diminuait sensiblement les risques d'accident cardiovasculaire et d'AVC. Il semble que ce soit le lycopène, antioxydant qui donne sa couleur rouge à la tomate ainsi qu'au pamplemousse rose et aux pastèques, qui soit actif en matière de prévention cardio-vasculaire.
Le lycopène se libère en grande quantité au cours de la cuisson de la tomate et semble également jouer un rôle protecteur contre certains cancers, l’ostéoporose et le diabète.
Cette étude a suivi pendant 12 ans 1 000 hommes âgés de 46 à 65 ans dont on a mesuré régulièrement le taux de lycopène dans le sang. Au terme de l'étude, 67 patients avaient eu un AVC mais ce qui est intéressant, c'est que les personnes qui avaient les taux de lycopène les plus bas dans le sang avaient plus de risques d'avoir un AVC (25 sur 258). Au contraire, pour ceux qui mangeaient beaucoup de tomates, le risque était diminué de moitié (11 sur 259).
Article rédigé par Mark FURNESS pour RTFlash
Science News
Neurology
|
|
|
|
|
|
|
|
La généralisation d'un diagnostic précoce est devenue un enjeu médical majeur pour une meilleure prise en charge des patients atteints de l'hépatite C. Des recherches réalisées par le Centre universitaire de santé McGill (Canada) ont montré que les tests à diagnostic rapide de l'hépatite sont à présent aussi fiables que les tests classiques.
Comme le souligne Nitika Pant Pai, qui dirige ces recherches, « Nous avons pu montrer que les nouveaux tests rapides sur le sang ou la salive atteignaient à présent une fiabilité de plus de 97 %, ce qui doit nous conduire à les généraliser au niveau mondial pour améliorer la détection de l'hépatite C. »
Pour l'instant, avec les tests conventionnels, il faut en moyenne plusieurs semaines entre le test et l'information du patient et un tel délai augmente sensiblement les risques de propagation du virus.
Avec les nouveaux tests, la situation est radicalement changée : les résultats sont parfois disponibles en 30 minutes et, dans le pire des cas, en moins d'une journée. En outre, ces tests fonctionnent sans recours à l'électricité, ce qui est un avantage déterminant dans les pays sous-développés.
On estime qu'environ 180 millions de personnes seraient porteuses de l'hépatite C dans le monde, notamment à la suite de transfusions sanguines et de consommation de drogues.
« Si l'on associe rapidement ces nouveaux tests rapides et simples et les nouveaux traitements de l'hépatite C par voie orale qui sortent des laboratoires, ce sont plusieurs dizaines de millions de personnes infectées dans le monde qui pourront être enfin correctement soignées et guéries », précise Rosanna Peeling, qui a codirigé cette étude.
Article rédigé par Mark FURNESS pour RTFlash
Mc Gill
|
|
|
|
|
|
|
|
Une vaste étude réalisée aux Etats-Unis de 1997 à 2011 sous la direction du Professeur Michael Gaziano (Département de Médecine de Boston) et menée en double-aveugle sur près de 16 640 hommes, âgés de 50 à 65 ans (parmi lesquels 1 312 avaient eu un cancer) a montré qu'une consommation régulière de suppléments alimentaires contenant des vitamines entraînait, après pondération des autres facteurs, une diminution globale de 8 % du risque de développer un cancer dans la cohorte étudiée.
Chaque jour, au cours de l'étude qui a duré 14 ans, les participants recevaient, soit un placebo, soit un comprimé, semblables à ceux qu'on trouve dans les pharmacies et contenant des vitamines A, C, D, E, B6 et B12 ainsi que du calcium, du zinc et du sélénium. Tout au long de la durée de cette étude, 2 669 nouveaux cas de cancer ont été observés, dont 1 373 cas de cancer de la prostate et 210 de cancer colorectal. Au cours de la même période, 2757 hommes sont décédés dont 859 (6 %) des suites d'un cancer.
L’étude montre au final que la prise quotidienne de vitamines et de nutriments associés permet de faire baisser de 8 % le risque global de cancer, ce qui n'est pas négligeable et représente, dans le cas de cette étude, 213 cas cancer évités. Mais l'étude n'a pas constaté de différences significatives entre les patients qui avaient déjà eu un cancer et ceux qui n'avaient jamais été touchés par cette maladie. Elle n' a pas pu non plus identifier quelle vitamine en particulier offrait un effet protecteur contre le cancer.
Cette étude, par son ampleur et sa durée, est riche d'enseignements, selon Michael Gaziano, directeur de ces recherches et chef du service de gériatrie de l'hôpital de Boston. Celui-ci rappelle en effet que "35 % des Américains adultes consomment régulièrement des compléments alimentaires contenant vitamines et nutriments dont les effets à long terme restent mal cernés."
Michael Gaziano précise que "Cette étude montre qu'en plus de prévenir certaines carences nutritionnelles, la prise quotidienne de ce type de suppléments semble intéressante à long terme pour prévenir certains cancers, bien qu'une alimentation variée et équilibrée possède très probablement un pouvoir de prévention équivalent ou supérieur à celui de ces suppléments vitaminés."
Article rédigé par Mark FURNESS pour RTFlash
JAMA
|
|
|
|
|
|
|
|
De manière souvent inattendue, il arrive que l'on découvre que certains médicaments peuvent également être efficaces contre des pathologies différentes et très éloignées de celles contre lesquelles il ont été conçus. Tel est le cas d'un médicament contre le diabète de type 2 qui semble actif contre certaines maladies neurodégénératives et notamment la maladie d'Alzheimer.
On savait déjà que le diabète de type 2 constituait un facteur de risque de la maladie d'Alzheimer mais on vient de découvrir que le dérèglement de la production d'insuline dans le cerveau pouvait entraîner une détérioration des neurones et contribuer ainsi à l'apparition de la maladie d'Alzheimer.
Des chercheurs de l'Université d'Ulster, dirigés par le professeur Christian Hölscher, ont en effet montré que l'utilisation d'un médicament expérimental appelé Val8 stimulait l'activité d'une protéine, la GLP61, qui intervient dans la régulation de la glycémie. Fait remarquable, le Val 8 pénètre directement dans le cerveau sans entraîner d'effets indésirables et provoque la croissance de nouvelles cellules cérébrales dans l'hippocampe, une aire du du cerveau fortement impliquée dans la mémorisation et le stockage de l'information.
«Ces recherches montrent que les médicaments contre le diabète peuvent non seulement protéger très efficacement nos cellules cérébrales et éviter certaines lésions mais également provoquer la croissance de nouveaux neurones» souligne le Professeur Hölscher qui poursuit : «Cette découverte va avoir des conséquences considérables dans le traitement des maladies d'Alzheimer ou de Parkinson, qui se caractérisent par une destruction des neurones."
Article rédigé par Mark FURNESS pour RTFlash
Ulster
|
|
|
|
|
|
|
|
Le cancer du col de l’utérus reste le deuxième cancer le plus fréquent chez la femme au niveau mondial (50 000 nouveaux cas par an) et selon les dernières prévisions de l’Organisation Mondiale de la Santé, cinq millions de femmes pourraient mourir de ce cancer dans le monde d'ici 20 ans. Dans notre pays, ce cancer touche environ 3 000 femmes par an et 1000 en décèdent. Parmi les facteurs de risque du cancer du col de l'utérus, on sait aujourd'hui que le papillomavirus humain joue un rôle important. C'est pourquoi la lutte contre ce cancer passe d'une part par le dépistage par frottis et, d'autre part, par la prévention, grâce à la vaccination contre le virus HPV.
On sait également que 75 % des cancers du col de l'utérus sont provoqués par des virus HPV de types 16 et 18 et les deux vaccins préventifs existants (Gardasil et Cervarix) sont conçus pour être efficaces contre ces deux souches. Mais une fois le cancer installé, ces vaccins, qui sont uniquement préventifs, n'ont plus d'utilité.
Cette situation devrait évoluer car les résultats d’une étude réalisée par des chercheurs américains (Université de Pennsylvanie à Philadelphie) sur un candidat-vaccin thérapeutique à ADN contre le HPV viennent d'être publiés et sont encourageants. Ce vaccin thérapeutique (à ne pas confondre avec les vaccins préventifs), ne prévient pas le cancer de l'utérus mais peut en revanche mobiliser fortement le système immunitaire quand ce cancer est déjà déclaré. Ce vaccin contient les séquences ADN de deux oncogènes et les essais réalisés ont montré, sur 18 femmes âgées de 29 ans en moyenne et déjà infectées, qu'il provoquait une forte réponse immunitaire spécifiquement orientée vers les virus HPV 16 et 18.
Si les essais de phase III confirment ces bons résultats, ce vaccin pourrait être disponible dans 5 à 10 ans.
Article rédigé par Mark FURNESS pour RTFlash
Science Translational Medicine
|
|
|
|
|
|
|
|
Dans la médecine et la pharmacopée indienne, le curcuma en poudre est utilisé depuis des milliers d'années pour traiter l'arthrose et différentes maladies inflammatoires. La science moderne a en effet confirmé que le principe actif du curcuma, la curcumine, inhibe les réactions inflammatoires. Mais, selon une étude réalisée par l'Université Ludwig-Maximilians de Munich, le curcuma aurait également un réel pouvoir anticancéreux.
Une équipe de recherche dirigée par le Professeur Bachmeier a montré que la curcumine pouvait inhiber, in vitro, la formation de métastases de cellules de cancer de la prostate. La même équipe avait déjà montré que la curcumine pouvait réduire de façon statistiquement significative la formation de métastases pulmonaires dans un modèle animal de cancer du sein avancé.
Les cancers du sein et de la prostate sont souvent associés à des processus inflammatoires dans lesquels les cellules tumorales produisent certains immunomodulateurs, comme les cytokines CXCL1 et CXCL2. Or les chercheurs allemands ont montré que la curcumine diminue spécifiquement l'expression de ces deux protéines chez la souris, ce qui entraîne une nette diminution des métastases. Comme le précise le Professeur Bachmeier, " La curcumine diminue très sensiblement la fréquence de la formation de métastases dans les poumons chez les animaux atteints d'un cancer du sein ou d'un cancer de la prostate."
Selon cette étude, la curcumine, à raison de huit grammes maximum par jour, aurait un effet à la fois préventif, en réduisant les risques d'apparition de ces cancers, et curatif, en réduisant les risques de métastases quand le cancer est déjà présent."
Article rédigé par Mark FURNESS pour RTFlash
LMU
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Chaque année, les consommateurs des pays riches gaspillent presque autant de nourriture (222 millions de tonnes) que l'entière production alimentaire nette de l'Afrique subsaharienne (230 millions de tonnes). Les fruits et légumes ainsi que les racines et tubercules ont le taux de gaspillage le plus élevé.
Le volume total de nourriture perdue ou gaspillée chaque année est équivalent à plus de la moitié de la production céréalière mondiale (2,3 milliards de tonnes en 2009-2010). La FAO distingue les pertes alimentaires et le gaspillage de nourriture. Les pertes alimentaires ont principalement lieu dans les aires de production et au niveau de la transformation. Elle résultent essentiellement des infrastructures et équipements insuffisants.
Le gaspillage alimentaire, en revanche, a lieu dans les pays industriels. Il résulte de l'attitude des commerçants et consommateurs qui, pour différentes raisons, jettent des aliments qui sont encore tout à fait comestibles. Dans les pays développés, chaque consommateur gaspille plus de 110 kg de nourriture par an, en moyenne, contre environ 10 kg, dans les pays émergents.
Pourtant, une étude réalisée par des chercheurs de l'université d'Aalto, en Finlande, montre qu'il serait possible d'augmenter considérablement les ressources alimentaires mondiales en diminuant simplement de moitié la quantité de déchets alimentaires que nous produisons. Une telle réduction du gaspillage alimentaire permettrait de nourrir un milliard de personnes supplémentaires et éliminerait pratiquement la malnutrition.
Comme le souligne Matti Kummu qui a dirigé cette étude, « L'extension des terres agricoles, en théorie possible, se heurte en réalité à de multiples obstacles, dont celui des ressources en eau car l'agriculture mobilise au total 90 % des ressources mondiales d'eau potable. Actuellement, un quart des calories est perdu au cours du processus qui va de la production à la distribution finale des aliments et c'est donc en priorité à ce niveau que nous pouvons agir. »
Ces chercheurs ont pu montrer que ces pertes alimentaires représentaient chaque année 27 mètres cubes d'eau potable et 0,031 hectare de terres agricoles par habitant.
Exprimés en calories, ces pertes et gaspillages sont encore plus parlants : à cause de ce gaspillage, 600 kilocalories sont gaspillées par personne chaque jour dans le monde, soit un quart de l'apport calorique nécessaire quotidiennement à un être humain. Sans ces pertes et ce gaspillage, l'agriculture mondiale pourrait offrir, à son niveau de productivité actuelle, 2 600 kilocalories par jour à huit milliards de personnes.
Dans la seule Union européenne, chaque habitant produit en moyenne 180 kg de déchets alimentaires par an. Pour faire évoluer cette situation, le Parlement européen a adopté une résolution qui demande aux états-membres "d'élaborer des actions concrètes visant à réduire de moitié le gaspillage alimentaire d'ici à 2025 et à éviter, parallèlement, la production de déchets alimentaires". Les députés européens font valoir que la lutte contre le gaspillage alimentaire est à la fois une exigence économique et éthique si l'on considère les 16 millions de citoyens européens fragiles qui ont besoin d'une aide alimentaire. En Europe, la production de déchets alimentaires s'élève à 91 millions de tonnes par an et pourrait atteindre 126 millions de tonnes en 2020 si aucune mesure n'est prise pour inverser la tendance.
Article rédigé par Mark FURNESS pour RTFlash
Science Direct
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|