RTFlash

RTFLASH Recherche & Technologie
NUMERO 752
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Mai 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Téléphonie Mobile : Stockage de données dans les stations de base 4G
Avenir
Un robot polyvalent numérique pour la maison
Matière
Découverte fortuite d'un nouveau type révolutionnaire de polymères
Vivant
Vers une nouvelle classe d'antibiotiques efficaces contre les bactéries résistantes
Cancer du côlon : l'aspirine est protecteur seulement pour certaines personnes...
Modéliser l'activité du cerveau en 3D
Des chercheurs britanniques restaurent la fonction motrice d'un singe paralysé
Bisphénol A : de nouveaux effets néfastes identifiés
Maladie d'Alzheimer : la protéine REST ouvre une nouvelle voie de recherche
La dépression augmente sensiblement le risque de maladies cardiaques
Cerveau : l'hormone de la faim jouerait un rôle-clé en matière de dépression…
Le virus de la rougeole, nouvelle arme contre le cancer ?
Le rôle central du microbiote sur le système immunitaire confirmé…
Restaurer la motricité grâce à l'optogénétique !
Une avancée fondamentale dans la compréhension du système immunitaire
Recherche
Les drones militaire à atterrissage vertical arrivent !
Edito
Transition énergétique : la mer doit être notre nouvel horizon !



En 2009, la consommation d'énergie réellement utilisée dans le monde a atteint près de 8,4 milliards de tonnes d’équivalent pétrole (d'après Key World Energy Statistics 2011, AIE). Mais pour permettre la consommation réelle de ces 8,4 milliards de tonnes d’équivalent pétrole, il a fallu « produire » plus de 12 milliards de tonnes d’énergie, comprenant notamment l’énergie utilisée pour transformer les ressources initiales.

Au cours de ces 20 dernières années, cette consommation mondiale d’énergie a augmenté de 40 % et la Chine, exemple des nouveaux pays industrialisés, a vu sa consommation d’énergie plus que tripler depuis 1990. A ce rythme, cet immense pays qui consomme à lui seul plus de la moitié du charbon de la planète, consommera le cinquième de l’énergie mondiale avant la fin de la décennie et la consommation énergétique d’un Chinois est maintenant égale à la consommation énergétique moyenne d'un terrien. Il en va de même en matière d’émissions de gaz polluants et de gaz effet de serre et la Chine est devenue le plus gros pollueur de la planète, devant les États-Unis et l’Union Européenne.

En 2030, la consommation d’énergie réellement utilisée par l’humanité devrait atteindre au moins 15,3 gigateps, selon l’AIE, soit une progression de 27 %. Mais il faut également souligner que cette consommation d’énergie, en dépit des progrès effectués en termes d’efficacité énergétique, progressera également même si on la calcule par habitant puisqu’elle devrait atteindre 1,9 tonne par an et par terrien en 2030, contre environ 1,5 aujourd’hui. Quant à la consommation mondiale d’électricité, elle devrait passer, toujours selon l’AIE, de 22 000 TWh par an aujourd’hui à 34 292 TWh en 2030, soit une augmentation de 56 % !

Dans ce contexte d’explosion de la demande mondiale d’énergie, liée et l’on peut s’en réjouir, au développement économique sans précédent de vastes régions du monde mais également à l’évolution corrélative des modes de vie et du niveau moyen de confort, le dernier rapport du GIEC, publié le 13 avril dernier, rappelle qu’une véritable « révolution économique » est nécessaire pour avoir une chance de limiter à deux degrés l’augmentation de la température moyenne du globe. L’effort international devra à la fois porter sur la recherche d’une meilleure efficacité énergétique et sur une utilisation accrue de l’ensemble des énergies à faibles émissions de carbone, qu’il s’agisse des énergies renouvelables « classiques » (éolien, solaire, biomasse), des énergies propres encore expérimentales (énergies des mers) ou du nucléaire de prochaine génération.

Le rapport « REmap 2030 » de l’Agence internationale des énergies renouvelables, publié le 20 janvier 2014 à l'occasion de son assemblée générale à Abu Dhabi (Emirats arabes unis), va dans le même sens que le GIEC et souligne que les énergies renouvelables pourraient représenter jusqu’à 36 % du mix énergétique mondial en 2030, contre seulement 16 % aujourd’hui, et ce, sans aucun coût supplémentaire.

Aujourd’hui, la demande d’énergie primaire mondiale reste satisfaite à environ 80 % par les énergies fossiles. Le pétrole reste la première source d’énergie, assurant 30 % des besoins mondiaux, suivi par le charbon (27 %) et le gaz (21 %). Les énergies renouvelables satisfont quant à elles 16 % de la demande, dont 9 % pour l’hydraulique. La part du nucléaire dans la consommation d’énergie primaire est d’environ 5 %.

Mais pour arriver à cette part de 36 % d’énergies renouvelables, soit 5,5 gigateps, dans le mix énergétique mondial en 2030, il faut bien comprendre que, compte tenu de la progression de la consommation en valeur absolue, cela suppose, à production hydraulique et nucléaire constante, de produire au moins 4 gigateps à cet horizon uniquement à partir de quatre grandes sources d’énergie renouvelable : la biomasse (terrestre et marine), l’éolien, le solaire et l’ensemble des énergies marines (énergie des marées, des courants marins, des vagues et énergie thermique des mers). 

Traduite en production électrique, et sachant que la demande électrique mondiale va augmenter sensiblement plus rapidement que la demande globale en énergie, cela signifie qu’il faut parvenir à produire en 2030, 12 350 TWh par an à l’aide des énergies renouvelables précitées (hors hydraulique et nucléaire), ce qui représente, nous allons le voir, un objectif très ambitieux mais nullement hors de portée de l’Humanité.

Imaginons en effet que, pour atteindre cet objectif planétaire des 36 % d’électricité décarbonée, on se fixe l’objectif suivant : 15 %  de l’électricité mondiale produite par l’éolien, 15 % par le solaire et le solde (6 %) par les énergies marines, il faudrait, dans l’état actuel des performances technologiques de ces énergies (calcul volontairement prudent car ces performances et rendement vont très probablement sensiblement progresser d’ici 15 ans) installer 18 500 km2 de panneaux solaires (soit à peine plus de 3 % de la surface de la France) et 62 000 éoliennes géantes marines de 10 MW, pour produire cette part d’électricité propre.

Le solde de 741 TWh (6 %) pourrait être produit grâce à l’ensemble des énergies marines (hors éolien). Il faut en effet rappeler que le potentiel exploitable des énergies marines au niveau mondial est estimé, dans les hypothèses les plus prudentes, à environ 14 000 TWh par an, soit 63 % de la production totale d’électricité dans le monde en 2013. L’Agence Internationale de l’Energie estime pour sa part le potentiel mondial des énergies marines à au moins 20 000 TWh par an, ce qui représente 90 % de la production mondiale actuelle d’électricité…

À cet égard, il faut bousculer quelques idées reçues et rappeler que les énergies marines ne se limitent pas à l’énergie marémotrice (utilisée par la France dans la centrale de la Rance depuis 1967), ni à l’énergie des courants marins, en cours d’expérimentation. Bien que ces deux formes d’énergie des mers représentent respectivement un potentiel exploitable d’environ 400 TWh par an, selon Jean-François Dhédin, chef de projet des énergies marines à EDF, le potentiel énergétique de la mer est également présent, dans des quantités bien plus importantes, sous trois autres formes beaucoup moins connues du grand public mais riches de promesses : l’énergie houlomotrice, produite par le mouvement des vagues (avec un gisement mondial d’au moins 2 000 TWh par an ), l’énergie osmotique, qui repose sur les différences de salinité entre les eaux douces et les eaux salées (avec un gisement mondial d’au moins 1 700 TWh par an) et enfin l’énergie thermique des mers (ETM) qui exploite les différences de température entre les eaux de surface et les eaux profondes et représente un gisement énergétique exploitable colossal d’au moins 10 000 TWh par an.

Il est vrai que pour l’instant, seule l’énergie marémotrice est exploitée à un niveau industriel mais les sites rentables susceptibles d’être équipés sont rares de par le monde et le développement massif de cette forme d’énergie se heurte également à des problèmes de respect de l’environnement. L’énergie des courants marins est en revanche sur le point d’être développée à un niveau industriel, notamment par la France qui a la chance de disposer d’un gisement exceptionnel.

Dans ce domaine, notre pays possède un potentiel de production de l’ordre de 14 TWh/an, soit l’équivalent de deux réacteurs nucléaires de dernière génération. Le premier projet de ferme hydrolienne est bien avancé et comporte l’installation dans les mois à venir de quatre hydroliennes au large de Paimpol et de l’île de Bréhat (Côtes-d’Armor). Au large de la Manche, au raz Blanchard, quatre fermes, comprenant entre 4 et 10 machines, devraient être installées en 2015 et un peu plus tard deux fermes sont prévues au large de Brest sur le site du Fromveur. D’ici 2025, plus de 200 de ces machines pourraient être installées dans nos eaux territoriales et couvrir la consommation électrique de plus de 200 000 foyers.

L’énergie houlomotrice, véhiculée par le mouvement des vagues reste en revanche une curiosité de laboratoire mais son potentiel n’en reste pas moins tout à fait considérable : rien qu’en Europe, il a été estimé à 150 TWh/an (l’équivalent du tiers de la consommation électrique totale de la France), avec une puissance moyenne sur la côte atlantique de 45 kW par mètre linéaire de front de vague au large. La France métropolitaine pour sa part pourrait tirer au moins 40 TWh par an de cette énergie des vagues, soit une production électrique comparable à celle de six réacteurs nucléaires…

Le parc éolien marin mondial reste aujourd’hui modeste, en comparaison de l’éolien terrestre qui fournit déjà chaque année plus de 500 TWh d’électricité (l’équivalent de la consommation totale de la France) mais l’éolien marin, qui représente un potentiel mondial d’au moins 10 000 TWh par an selon les dernières estimations, est appelé à un développement considérable : en 2018, le parc éolien marin mondial devrait atteindre 28 000 MW installés, selon l’Agence Internationale de l’énergie.

Plus généralement, l’EWEA (European Wind Energy Association) estime le potentiel mondial  de l’éolien offshore à 3 000 TWh/an : ce qui serait suffisant pour couvrir la consommation européenne en électricité ! Actuellement, le cap des 2 000 éoliennes offshore installées et des 6.500 mégawatts en fonctionnement a été franchi fin 2013 et l’objectif européen de produire 23 % de son électricité à l’aide des énergies renouvelables d’ici 2020 ne pourra être atteint qu’en développant massivement l’éolien marin.

En 2013, 418 nouvelles éoliennes ont été raccordées (dans 12 parcs marins), pour une capacité totale de 1.567 mégawatts, soit 34 % de plus qu'en 2012. Mais l’éolien marin n’est est encore qu’à ses débuts car Siemens prévoit un parc marin européen de 70 000 MW à l’horizon 2030, ce qui correspond à une production annuelle d’au moins 250 TWh, ce qui permettrait de couvrir plus de 5 % des besoins en électricité de l’Europe dans 15 ans !

Il est vrai que notre continent a la chance d’être une des régions du monde les plus adaptées au développement de l’éolien offshore. Son espace maritime est généralement peu profond, en particulier dans les mers du Nord et Baltique qui disposent d’un gisement de fort potentiel en vent et qui plus est, proche des grands centres urbains et industriels d’Europe du Nord.

La France grâce à ses larges façades maritimes, dispose également d’un considérable potentiel énergétique pour l’éolien marin : environ 150 TWh par an, contre seulement 50 TWh pour l’éolien terrestre. A l’horizon 2030, c’est donc plus du tiers de notre production prévisible d’électricité qui pourrait être assurée par le seul l’éolien marin.

Il faut par ailleurs bien comprendre que pour devenir rentable et compétitive par rapport aux énergies fossiles, l’éolien marin dispose de deux avantages décisifs : il peut exploiter des vents plus forts et plus réguliers que l’éolien terrestre et peut recourir à des machines gigantesques (qui dépasseront sans doute les 200 mètres de haut), dont l’installation serait impossible ou très difficile à envisager sur terre, en raison de leur impact sonore et visuel notamment. Chacune de ces  éoliennes marines géantes de prochaine génération pourra produire chaque année assez d’électricité pour alimenter plus de 12 000 foyers. Concrètement, cela signifie qu’il suffira d’une cinquantaine de ces machines extrêmement performantes, grâce aux nouveaux matériaux, à l’électronique et à l’informatique, pour alimenter en électricité (hors chauffage), les 600 000 foyers de la ville d’Hambourg…

Mais les énergies issues de la mer ne sont pas seulement liées au mouvement de l’air et de l’eau ni aux propriétés physico-chimiques des océans. La biomasse marine et notamment les algues constituent également une prodigieuse source potentielle d’énergie. Il existerait plus d’un million d’espèces de microalgues dont certaines, cultivées dans des conditions appropriées, peuvent accumuler les trois quarts de leur poids en acide gras. Certaines de ces variétés d’algues peuvent en outre être cultivées avec une productivité très grande, par rapport à la surface occupée et ne nécessitent pas le recours à des pesticides. Enfin, dernier avantage mais non le moindre, ces aquacultures industrielles d’algues n’entrent pas en compétition avec les terres agricoles.

Depuis trois ans, la France s’est enfin décidée à développer de grands programmes de recherche dans ce domaine, comme Greenstars qui regroupe une cinquantaine d’industriels et d’importants organismes de recherches publiques et privées.

Notre pays est également en pointe dans un projet particulièrement novateur présenté il y a quelques semaines et baptisé « Purple Sun », qui associe sept partenaires industriels et scientifiques et vise à la production conjointe d’algocarburants et d’électricité photovoltaïque. L’objectif de ce projet unique au monde, basé à Sophia-Antipolis, est de combiner la production de biomasse issue des algues et d’électricité en utilisant sélectivement la lumière. Concrètement, il s’agit de mieux utiliser les différentes longueurs d’onde de la lumière solaire de manière à éclairer avec le maximum d’efficacité, en termes de rendement énergétique, à la fois des microalgues et des cellules photovoltaïques.

Si cette expérimentation actuellement confinée à un laboratoire était transposée à la surface d’un terrain de football, il serait possible, selon les calculs des chercheurs, de produire environ chaque année 50 tonnes de biomasse, soit 15 tonnes de biocarburant, et 200 mégawatt-heures d’électricité solaire. Mais ce concept de serre photovoltaïque pour micro algues pourrait également être étendu à d’autres types de culture, selon Christine Poncet, directrice adjointe de l’Institut Sophia Agrobiotech qui souligne qu’il existe dans le monde plus de 4 millions d’hectares cultivés sous serre…

On le voit, la mer constitue un gisement gigantesque et inépuisable d’énergies de toute nature mais, malheureusement, jusqu’à présent, faute d’un intérêt réel des Pouvoirs Publics et de programmes de recherche sur le long terme, beaucoup de ces formes d’énergie marine sont restées peu exploitées. 

Dans ce tour d’horizon des énergies marines, il faut enfin évoquer le potentiel absolument colossal que représentent les hydrates de méthane dont nous avons déjà eu l’occasion de parler à plusieurs reprises dans cette lettre. Ces composés d’origine organique sont naturellement présents au fond des océans et se présentent sous la forme de glaçons dont la stabilité est assurée par la forte pression et la faible température qui règne au fond des mers. Selon les estimations les plus prudentes, les hydrates de méthane représenteraient un potentiel énergétique deux fois supérieur à celui que représente l’ensemble des réserves mondiales de gaz, de pétrole et de charbon réunis…

Au cours des trois dernières années, plusieurs projets de recherche américain et japonais ont montré la faisabilité d’une exploitation à grande échelle, respectueuse de l'environnement, de certains de ces gisements d’hydrates de méthane en employant une nouvelle technique révolutionnaire qui consiste à récupérer des hydrates de méthane en injectant un mélange de dioxyde de carbone (CO2) et d'azote pur dans un puits très profond creusé dans le pergélisol. Les premiers essais de cette nouvelle technique semblent montrer qu’elle permettrait de récupérer efficacement et de manière propre de grandes quantités d’hydrates de méthane piégés en profondeur. Cette nouvelle et prometteuse source d’énergie marine constitue évidemment un atout stratégique majeur pour notre pays qui a la chance de posséder un vaste domaine maritime de plus de 11 millions de kilomètres carrés.

Il y a quelques jours ont été publiés les 10 plans de la « Nouvelle France Industrielle » qui concernent la transition énergétique que souhaite effectuer notre pays (Voir Ministère de l'écologie, du développement durable et de l'énergie). Il est pour le moins étonnant qu’aucun de ces 10 plans ne concerne explicitement la recherche et le développement dans ce domaine, pourtant si important pour notre avenir, concernant l’extraordinaire potentiel énergétique des mers et des océans.

Pourtant, si notre pays veut satisfaire à ses obligations européennes en matière de transition énergétique et même aller plus loin et prendre la tête de l’indispensable transition énergétique mondiale qui va devoir s’opérer au cours des 30 prochaines années pour éviter une catastrophe climatique de grande ampleur et produire plus de la moitié de son énergie de manière propre et décarbonée d’ici le milieu du siècle, nous devons dès à présent commencer à exploiter massivement l’ensemble très diversifié des différentes formes d’énergie marine.

Dans cette perspective, il faut souhaiter que nos responsables politiques prennent clairement conscience des enjeux économiques scientifiques, technologiques et industriels que représentent le développement et l’exploitation à grande échelle de ces énergies marines et mettent en œuvre un grand Plan Energétique Marin  - PEM -, sur au moins 10 ans, associant partenaires publics et privés et doté de moyens budgétaires suffisants.

Souhaitons que notre pays, qui possède à la fois un immense espace maritime et les compétences humaines, scientifiques et industrielles nécessaires, sache prendre la tête de cette transition énergétique mondiale inévitable et se tourne vers le grand large pour réussir à construire cette nouvelle économie qui saura enfin exploiter, pour le plus grand bien de toute l’Humanité, les prodigieuses ressources énergétiques inépuisables, renouvelables et propres que nous offrent nos océans.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat 


TIC
Information et Communication
Téléphonie Mobile : Stockage de données dans les stations de base 4G
Mardi, 20/05/2014 - 20:23

Dans un article récemment posté en ligne (voir Cornell),  l'équipe de recherche dirigée par le Professeur Mérouane Debbah de Supélec à Gif-sur-Yvette a  démontré depuis peu les potentialités et les gains possibles de la mise en œuvre du stockage de données dans les stations de base.

Ce système de stockage de données en bordure de réseau (cloud on the edge) révolutionne les télecommunications sans fils et permet d'améliorer les délais de latence pour la récupération de données et surtout d’éviter un déploiement de fibre optique coûteux par rapport aux solutions cloud classiques.

Le système mis en œuvre exploite des techniques de caching en prédisant le trafic (dans une optique de convergence big data et télécommunications) et achemine les données dans la mémoire des stations de base avant les requêtes des utilisateurs.

L'innovation est actuellement sérieusement prise en considération par plusieurs constructeurs pour améliorer les performances des systèmes 4G et par une start-up récemment primée par OSEO dans le domaine du stockage distribué mise en place par Jean-louis Guénégo, un membre de l'équipe.

article rédigé par Georges Simmonds pour RT Flash

Flexible radio

Ximinds

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot polyvalent numérique pour la maison
Mercredi, 21/05/2014 - 06:36

Le robot Keecker représente une nouvelle étape vers l'accès mobile et ubiquitaire à l'ensemble des contenus numériques dans la maison. Keecker est un ordinateur qui se présente sous la forme d’un robot blanc doté d’une caméra, d’enceintes et d’un rétroprojecteur. Il peut se déplacer partout dans la maison et projeter le contenu d’un ordinateur sur n’importe quel support (mur, frigidaire, table etc.). Aujourd’hui, il n’y a pas encore de produit qui permette d’avoir tout, partout, tout le temps, et surtout, en grand !" déclare Pierre Lebeau, fondateur de Keecker. Grâce à ce robot, il devient possible d’interagir à tout moment avec l’ordinateur, connecté au réseau Wifi de la maison, via son smartphone.

Mais ce robot est aussi conçu et équipé pour analyser et surveiller l’environnement de la maison, qu'il s'agisse de la température, de l'humidité, du niveau de CO2 ou de la sécurité. Ce robot polyvalent devrait être disponible à la fin de l’année 2014 et une campagne de crowdfunding a été lancée pour distribuer ces robots en prévente et tester l’accueil du public.

Article rédigé par Georges Simmonds pour RT Flash

CNET

^ Haut
Matière
Matière et Energie
Découverte fortuite d'un nouveau type révolutionnaire de polymères
Lundi, 19/05/2014 - 19:23

Des chercheurs du Centre californien de recherches Almaden d'IBM à San Jose viennent d’annoncer avoir mis au point une nouvelle classe de polymères qui pourrait révolutionner l'industrie, notamment dans les domaines de l'énergie et de l'électronique.

Ces nouveaux matériaux possèdent en effet d'extraordinaires propriétés puisqu'ils sont à la fois presque aussi résistants que le métal tout en conservant la légèreté et l'élasticité de certains plastiques. Mais la caractéristique la plus étonnante de ce nouveau matériau est qu'il est auto-réparable : en cas de cassure, il suffit de remettre en contact les deux morceaux séparés pour n’en reformer qu’un. Enfin, dernier avantage décisif, ces nouveaux polymères sont écologiques et facilement recyclables puisqu’il est possible de les rendre à leur état originel en les plongeant simplement dans l’eau.

Rappelons que les polymères - qui sont constitués de longues chaînes de molécules reliées chimiquement entre elles - sont  utilisées dans une multitude de produits de la vie courante, comme le polyester pour les vêtements, le polyéthylène pour les bouteilles plastiques, les polyacryliques dans les peintures, etc. Mais ces matériaux ne sont pas exempts de défauts. Ils sont notamment sensibles à la chaleur, à de nombreux produits chimiques et vieillissent mal en général. En outre, leur recyclage n'est pas sans poser des problèmes.

Le plus étonnant dans cette découverte majeure est qu'elle a été faite par accident. C'est en effet après avoir oublié un composant dans ses assemblages de matériaux à forte résistance, que la chercheuse Jeannette Garcia a créé sans le savoir cette classe de polymères à très haute résistance. La scientifique a ensuite constaté qu'en abaissant la température de cuisson de son expérience, elle obtenait alors un matériau nouveau qui prend la forme d'un gel aussi solide qu’élastique.

Il reste maintenant à appliquer cette remarquable découverte à l'industrie, ce qui devrait prendre plusieurs années.

Article rédigé par Georges Simmonds pour RT Flash

IBM

The New York Times

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vers une nouvelle classe d'antibiotiques efficaces contre les bactéries résistantes
Vendredi, 23/05/2014 - 07:36

Après presque cinq ans de recherche multidisciplinaire, associant biologie,  microbiologie, bio-informatique et chimie, les travaux de quatre chercheurs de l’Université canadienne de Sherbrooke sont enfin sur le point de déboucher sur une nouvelle classe d’antibiotiques contre le pathogène nommé Clostridium difficile. Cette bactérie constitue la principale cause de diarrhée nosocomiale associée à la prise d’antibiotiques dans les pays industrialisés.

Ces chercheurs ont pu montrer, il y a quelques semaines, l’efficacité de leurs molécules dans un modèle d’infection chez la souris et des essais cliniques sur l'homme devraient bientôt commencer. Le fonctionnement de cette nouvelle classe d'antibiotique est à la fois simple et remarquable : leurrer la bactérie en lui donnant de fausses molécules essentielles à sa survie. La bactérie, ainsi trompée, croit avoir reçu les nutriments indispensables à sa survie mais en réalité il n'en est rien et cette bactérie finit par mourir.

Ce qui rend ce leurre aussi efficace est l’utilisation de petites molécules capables de se lier au riborégulateur guanine de la bactérie, une sorte d'interrupteur qui s'ouvre quand la bactérie a besoin d’énergie et se ferme quand elle a fait le plein de nourriture. La molécule PC1 découverte par ces chercheurs possède la propriété de pouvoir se fixer au riborégulateur, bloquant ainsi des gènes nécessaires à la survie de la bactérie.

"Le potentiel de cette nouvelle classe d’antibiotiques est d’autant plus prometteur que nos molécules n'induisent aucune résistance chez les bactéries, même après un contact prolongé avec la molécule", souligne Daniel Lafontaine, professeur à la Faculté des sciences de l’Université de Sherbrooke.

Article rédigé par Georges Simmonds pour RT Flash

US

Vidéo du Professeur Lafontaine

Cancer du côlon : l'aspirine est protecteur seulement pour certaines personnes...
Vendredi, 23/05/2014 - 07:29

Selon une étude américaine dirigée par Sanford Markowitz, de l'Université Case Western Reserve à Cleveland (Ohio), l'aspirine réduirait de 50 % le risque de cancer colorectal, 2ème cause de mortalité par cancer aux Etats-Unis, seulement chez certaines personnes porteuses de gènes produisant un niveau élevé d'une enzyme spécifique.

Ces chercheurs ont examiné des tissus provenant de 270 malades atteints de cancers du côlon, qui faisaient partie d'un groupe de 127.865 participants à cette étude et suivis pendant trois décennies. Ils ont observé que les personnes chez qui les gènes ne produisent pas un niveau élevé de l'enzyme 15-PGDH ne bénéficient pas des propriétés protectrices de l'aspirine contre le cancer colorectal.

Cette découverte est importante car elle ouvre la voie vers une identification des patients qui pourraient tirer véritablement avantage d'une consommation régulière d'aspirine pour prévenir le cancer du côlon. L'aspirine est en effet un médicament dont les effets ne sont pas anodins et qui peut entraîner des risques d'ulcère et d'hémorragie gastro-intestinale grave chez certains sujets. Il serait donc particulièrement utile de pouvoir bien évaluer le rapport bénéfices-risques d'une prise régulière d'aspirine pour chaque sujet en matière de prévention du cancer du côlon.

Article rédigé par Georges Simmonds pour RT Flash

Science 2.0

Modéliser l'activité du cerveau en 3D
Vendredi, 23/05/2014 - 07:23

Une équipe de recherche associant le MIT et l'Université de Vienne et dirigée par Ed Boyden travaille sur un projet visant à modéliser en 3D et en temps réel l'activité cérébrale. Ces recherches visent notamment à mieux comprendre la manière dont le système nerveux traite une information et influence le comportement. Les informations transmises par les neurones renferment une multitude de données commandant notamment la motricité ou les émotions. Les signaux électriques dans le cerveau fonctionnent comme un stimulus sur le neurone et provoquent une émission d’ions de calcium. C’est en dotant ce calcium de protéines fluorescentes qu’il a été possible de suivre l’activité du système nerveux.

L’expérience a été menée sur des vers de type C.elegans (un modèle fréquemment utilisé en biologie) mesurant 1 millimètre et composés de 302 neurones. C'est en analysant l'activité du système plénoptique, qui a pour particularité d’enregistrer les flux lumineux arrivant sous différents angles grâce à des micro-objectifs, que les chercheurs sont parvenus pour la première fois à modéliser l’activité cérébrale en 3D. Concrètement, le vers analysé a généré environ 400 points de lumière fluorescente, qui ont pu être modélisés en 3D grâce à un algorithme.

"La capacité à sonder l’activité à travers le système nerveux présente l’avantage de cibler les cellules ou réseaux nerveux impliqués dans les troubles cérébraux, apportant ainsi de nouvelles solutions de thérapie" précise Ed Boyden. Mais cette nouvelle méthode pourrait également faire avancer l'optogénétique, une nouvelle discipline qui associe optique et génétique et consiste à contrôler l'activité des neurones en les rendant sensibles à la lumière.

Article rédigé par Georges Simmonds pour RT Flash

MIT

Des chercheurs britanniques restaurent la fonction motrice d'un singe paralysé
Jeudi, 22/05/2014 - 08:12

Deux chercheurs de l'Institut des neurosciences de Newcastle (Grande Bretagne), Jonas B. Zimmermann et Andrew Jackson, ont permis à un macaque de bouger à nouveau son bras paralysé, en stimulant sa moelle épinière. Pour parvenir à ces résultats, les chercheurs ont soumis des macaques à un apprentissage consistant à saisir et tirer une poignée à ressort. Ces singes ont ensuite été temporairement paralysés, de manière à être incapables de saisir la poignée. Mais en établissant une jonction entre leur cerveau et un ordinateur puis entre l'ordinateur et la moelle épinière, les chercheurs ont pu restaurer la mobilité des bras chez ces singes.

"D'ici quelques années, cette découverte ouvrira la voie à de nouveaux traitements pour les personnes ayant subi un AVC ou des lésions de la moelle épinière et devrait permettre de les aider à retrouver un certain mouvement dans leurs bras et leurs mains", souligne Jonas Zimmermann, co-auteur de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Frontiers In Neuroscience

The Telegraph

Bisphénol A : de nouveaux effets néfastes identifiés
Jeudi, 22/05/2014 - 08:05

Des chercheurs français de l’Institut de génomique fonctionnelle de Montpellier et de l’École Nationale Supérieure (ENS) de Lyon ont découvert que le Bisphénol A pouvait avoir un rôle néfaste dans le diabète de type 2, dans certaines fonctions cérébrales et dans l’obésité.

Au cours de leurs recherches, les scientifiques ont en effet observé que le BPA agissait sur plusieurs récepteurs, dont ERRy, qui a une attirance pour le BPA 1000 fois plus élevée que celle des œstrogènes. Vincent Laudet, directeur de l’étude, précise à ce titre que les effets liés au bisphénol A « sont bien plus importants que prévu et qu’il faudrait par conséquent réévaluer son impact sur la santé humaine ».

Le récepteur ERRy joue notamment un rôle majeur dans le métabolisme des souris, au niveau du cœur et des muscles squelettiques. Déjà interdit depuis 2013 dans tous les aliments destinés aux enfants de moins de trois ans, le bisphénol A sera définitivement et totalement interdit en France à partir de juillet 2015.

Article rédigé par Georges Simmonds pour RT Flash

FASEB

Maladie d'Alzheimer : la protéine REST ouvre une nouvelle voie de recherche
Jeudi, 22/05/2014 - 07:59

Des chercheurs de l'Université d'Harvard ont découvert une protéine qui pourrait jouer un rôle-clé dans l'apparition de la maladie d'Alzheimer. À terme, cette découverte devrait permettre de créer de nouvelles molécules capables de protéger le cerveau de l'apparition de la maladie.

Depuis longtemps, les chercheurs se demandent pourquoi la maladie d'Alzheimer touche principalement les personnes âgées et pourquoi certaines personnes vivent très âgées en conservant un cerveau sain. Il semble que la réponse à ces questions se trouve dans une protéine-clé, baptisée REST.

Cette protéine REST, d'abord active pendant le développement du cerveau du fœtus, est réenclenchée plus tard afin de protéger les neurones d'agressions extérieures et notamment de l'exposition néfaste à d'autres protéines. Or ces chercheurs ont découvert que REST (RE1-Silencing Transcription factor) est absente chez les personnes atteintes de la maladie d'Alzheimer ou de légers troubles cognitifs.

En analysant plusieurs bases de données cérébrales, les chercheurs ont alors constaté que les cerveaux des jeunes adultes âgés de 20 à 35 ans contenaient peu de protéines REST. En revanche, les sujets plus âgés présentaient un haut niveau de cette protéine.

En outre, chez les malades d'Alzheimer, la concentration de cette protéine REST diminue drastiquement dans certaines zones du cerveau telles que le cortex préfrontal et l'hippocampe, responsables de l'apprentissage, de la mémoire et de l'organisation.

"Nos travaux montrent qu'il existe probablement un ensemble de protéines anormales associées à la maladie d'Alzheimer et d'autres maladies neurodégénératives mais que cela ne suffit pas à provoquer la démence car cette dernière n'apparait finalement que si le patient présente en plus des altérations dans le système de défense de son cerveau", souligne le professeur Bruce Yankner qui a dirigé ces recherches.

Selon ces chercheurs, un niveau élevé de protéine REST permettrait à une personne de résister à la maladie d'Alzheimer et il serait possible d'activer ce gène qui code la production de la protéine REST pour restaurer la capacité de résistance du cerveau et retarder sans doute de plusieurs années l'apparition de la maladie d'Alzheimer.

Article rédigé par Georges Simmonds pour RT Flash

Harvard

Nature

La dépression augmente sensiblement le risque de maladies cardiaques
Mercredi, 21/05/2014 - 06:32

Présentée à l'occasion de la conférence européenne de cardiologie , une étude norvégienne baptisée "HUNT" (Health Study Nord-Trøndelag), dirigée par Lise Tuset Gustad et portant sur 63.000 personnes du comté de Nord-Trøndelag, a montré que les sujets connaissant une légère dépression voyaient leur risque de crise cardiaque augmenter de 5 % par rapport à ceux qui ne présentaient aucun symptôme.

Ces travaux ont également montré que ce risque augmentait de 40 % chez les sujets atteints de dépression modérée ou grave. Dans le cadre de ces travaux, les chercheurs ont recueilli et analysé une multitude d'informations sur le mode de vie des participants à cette étude : consommation de tabac,  indice de masse corporelle, activité physique, tension artérielle notamment. Comme le souligne le professeur Gustad, "Les symptômes dépressifs augmentent le risque de développer une insuffisance cardiaque et plus les symptômes sont graves, plus le risque est élevé et cela indépendamment des autres facteurs de risque connus".

Selon ces scientifiques, la dépression déclencherait une production accrue d'hormones du stress, provoquant des inflammations et de l'athérosclérose et augmentant, in fine, le risque de maladies cardio-vasculaires. L'étude souligne en outre que les personnes déprimées ont plus de difficultés à suivre les conseils qui pourraient leur permettre d'adopter un mode de vie plus sain.

Article rédigé par Georges Simmonds pour RT Flash

European Society of Cardiology

Cerveau : l'hormone de la faim jouerait un rôle-clé en matière de dépression…
Mercredi, 21/05/2014 - 06:27

Des chercheurs du centre médical de l’UT Southwestern dirigés par le Professeur Jeffrey Zigman ont montré que l'hormone de la faim, la ghréline, possédait la propriété de pouvoir limiter sensiblement l’ampleur de la dépression après une exposition à long terme au stress.

En 2008, le même équipe avait déjà montré que la ghréline, qui est produite dans l’estomac et les intestins, présente des effets antidépresseurs puissants et naturels qui se manifestent lorsque ses niveaux augmentent en raison de la restriction calorique ou d’un stress psychologique prolongé.

Dans cette nouvelle étude, ces chercheurs ont montré sur l’animal, la capacité de la ghréline à stimuler la neurogenèse ou formation de nouveaux neurones dans l’hippocampe, une zone du cerveau qui régule l’humeur, la mémoire et les comportements alimentaires mais joue également un rôle majeur contre la dépression après une exposition prolongée au stress.

Les composés P7C3 de la ghréline, découverts en 2010, étaient déjà connus pour leurs capacités neuroprotectrices dans la maladie de Parkinson, la sclérose latérale amyotrophique et certaines lésions cérébrales. Mais selon ces nouveaux travaux, ces agents, en ayant la capacité de stimuler la neurogenèse, auraient un effet antidépresseur plus important que la plupart des médicaments antidépresseurs actuellement disponibles.

Ces scientifiques pensent que les patients souffrant de dépression liée au stress chronique, associée à des niveaux de ghréline modifiés, comme c'est le cas pour l’obésité et l’anorexie mentale, pourraient être réceptifs à un traitement utilisant ces composants neuroprotecteurs.  

Article rédigé par Georges Simmonds pour RT Flash

Nature

SMC

Le virus de la rougeole, nouvelle arme contre le cancer ?
Lundi, 19/05/2014 - 19:37

Des chercheurs américains viennent d'annoncer qu'ils avaient réussi, pour la première fois, à guérir entièrement une malade de 49 ans atteinte par un cancer de la moelle osseuse après l'injection d'une dose massive de virus modifiés de la rougeole.

"Il s'agit de la première étude clinique à montrer la faisabilité d'une virothérapie contre des cancers ayant fait des métastases", a précisé le Professeur Stephen Russell, de la Mayo Clinic dans le Minnesota, qui dirige ces recherches." Les deux patientes ne répondaient plus aux autres thérapies et avaient connu plusieurs rechutes de leur cancer", ajoute Russell.

Les deux malades ont reçu chacune une seule dose massive de ce vaccin contenant des virus génétiquement modifiés de la rougeole capables de cibler les cellules cancéreuses. Elles ont toutes deux réagi positivement à ce traitement mais seule l'une d'entre elles connaît une rémission complète sans trace de cancer depuis plus de six mois.

Il y a plus d'un demi-siècle que le concept de virologie anti-cancer recourant à des agents pathogènes modifiés pour attaquer les cellules cancéreuses est expérimenté et de nombreux malades ont été traités avec cette technique qui utilise de nombreuses familles de virus dont ceux de l'herpès ou du rhume. Mais c'est la première fois que les chercheurs obtiennent par cette méthode une rémission complète d'une malade atteinte d'un cancer invasif après l'injection d'une seule dose de virus.

Article rédigé par Georges Simmonds pour RT Flash

MCP

Le rôle central du microbiote sur le système immunitaire confirmé…
Lundi, 19/05/2014 - 19:32

Des chercheurs de l’Unité Inserm 892 (Centre régional de recherche en cancérologie Nantes Angers) viennent d’identifier un des mécanismes par lesquels le microbiote permet à notre système immunitaire de prévenir l’inflammation du gros intestin.

Ces chercheurs ont identifié une population de lymphocytes T régulateurs jusque-là inconnue chez l’homme – baptisés DP8a – et démontré que leur développement est induit par une bactérie du microbiote intestinal : Faecalibacterium prausnitzii. De précédentes études avaient révélé la fréquence anormalement basse de cette bactérie dans la flore fécale des patients atteints de maladies inflammatoires du tube digestif.

Les chercheurs montrent dans cette étude que les lymphocytes DP8a spécifiques de cette bactérie sont eux-mêmes diminués chez ces patients, à la fois dans la muqueuse colique et dans le sang.

Les résultats indiquent que cette population de lymphocytes joue un rôle majeur pour préserver le gros intestin d’une inflammation. Nous avons ainsi identifié, pour la première fois chez l’homme, un mécanisme par lequel une bactérie du microbiote contribue à l’équilibre de la muqueuse qui l’héberge” explique Francine Jotereau, professeur émérite au sein de l’Unité Inserm et co-auteur de ces travaux.

Ces résultats ouvrent la voie au développement de marqueurs et de thérapies innovantes pour la prévention et le traitement des maladies inflammatoires du tube digestif via la restauration de l’activité anti-inflammatoire des lymphocytes Treg DP8a chez les patients. Plus largement, cette découverte devrait également permettre de mieux  comprendre l’impact du microbiote sur le système immunitaire.

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Restaurer la motricité grâce à l'optogénétique !
Dimanche, 18/05/2014 - 19:41

Des chercheurs britanniques du King's College de Londres ont ouvert une nouvelle piste thérapeutique très originale pour traiter certaines paralysies grâce à l'optogénétique, une technique récente et très prometteuse qui permet de contrôler l'expression de certains gènes grâce à leur exposition à des flux lumineux de longueur d'ondes spécifiques.

L’optogénétique (un nouveau domaine de recherche et d’application, associant l’optique à la génétique) a été saluée comme l’un des développements récents les plus significatifs en neurosciences. À l’heure actuelle, elle a principalement été utilisée pour explorer le mécanisme du cerveau, mais certains laboratoires de recherches ont commencé à vouloir l’utiliser comme thérapie.

Des chercheurs du King College de Londres et de l’Université de Londres ont ainsi transformé des cellules souches de souris en neurones moteurs avant de les transplanter dans les nerfs des pattes de l’animal. Cette modification de cellules souches a permis de créer des protéines sensibles à la lumière qui, une fois exposées à la lumière du laser, ont permis d’enclencher un mouvement des pattes des cobayes.

Les chercheurs travaillent à présent sur la conception d'une diode électroluminescente sous la forme d’un brassard qui irait jusqu’au nerf pour stimuler les muscles. Dans un premier temps, ce dispositif pourrait aider les personnes qui perdent la capacité à contrôler leurs muscles respiratoires.

Article rédigé par Georges Simmonds pour RT Flash

New Scientist

Une avancée fondamentale dans la compréhension du système immunitaire
Dimanche, 18/05/2014 - 19:36

Des chercheurs de l'Institut de recherches cliniques de Montréal (IRCM), dirigés par le Professeur André Veillette (Département de médecine de Université de Montréal), ont découvert comment notre système immunitaire tue les globules sanguins anormaux.

"Notre équipe étudie comment les cellules natural killer (tueuses naturelles) peuvent éliminer les cellules hématopoïétiques (sanguines) anormales. Les cellules NK (natural killer) sont essentielles au système immunitaire et jouent un rôle indispensable en nous protégeant contre les virus et les cellules cancéreuses" a expliqué le Docteur Veillette, directeur de l'unité de recherche en oncologie moléculaire à l'IRCM.

Dans une étude antérieure, les chercheurs de l'IRCM avaient démontré que la molécule SAP était un élément important dans la capacité des cellules NK à tuer les globules sanguins anormaux que l'on retrouve notamment dans les cancers du sang comme la leucémie et le lymphome, ainsi que dans certaines maladies virales infectieuses telles que la mononucléose infectieuse. "En plus de SAP, une protéine nommée EAT-2 se retrouve aussi dans les cellules NK. Nous savions déjà que EAT-2 coopère avec SAP mais nous ignorions encore pourquoi ces deux molécules étaient nécessaires au bon fonctionnement des cellules NK" souligne le Professeur Veillette.

En utilisant plusieurs outils génétiques, biochimiques et d'imagerie, les chercheurs ont réussi à définir les mécanismes moléculaires et cellulaires selon lesquels EAT-2 contrôle l'activation des cellules NK. "Nous avons identifié les cascades moléculaires qui se produisent et nous avons démontré que EAT-2 et SAP exercent des fonctions différentes en utilisant des mécanismes distincts", précise le Professeur Veillette.

Ces travaux ont notamment montré que les molécules EAT-2 et SAP, qui se trouvent à l'intérieur des cellules NK, sont liées à des récepteurs de la famille SLAM à la surface des cellules. "Ces récepteurs spécifiques de surface peuvent constituer de nouvelles voies thérapeutiques pour les cancers du sang comme la leucémie et le lymphome" a conclu le Docteur Veillette.

Article rédigé par Georges Simmonds pour RT Flash

Health Canal

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les drones militaire à atterrissage vertical arrivent !
Dimanche, 18/05/2014 - 19:28

La DARPA (Département de recherche de l'armée américaine) développe, en coopération avec Lockheed Martin, un drone de soutien polyvalent à décollage et atterrissage vertical.

Le transport d'équipement vers les zones de combat reste un véritable défi sur le plan logistique. Il faut en effet 45 tonnes d'équipement par semaine en moyenne pour approvisionner les postes de combats avancés et cet acheminement de matériel peut être complexe dans un contexte de conflit. Le transport par hélicoptère ne peut satisfaire ces besoins logistiques car il n'y a pas assez d'appareils disponibles et compte tenu de leur coût d'exploitation, ces appareils sont réservés en priorité à l'évacuation des blessés.

Le projet de la DARPA a été baptisé Ares (du nom du dieu grec de la guerre) et il repose sur l'utilisation de drones capables de décollage et d'atterrissage vertical. Ces appareils seront pilotés à distance depuis un téléphone ou une tablette. Ils utiliseront deux hélices capables de basculer sur elles-mêmes pour pouvoir décoller et atterrir sur une zone d'atterrissage d'une superficie deux fois moins importante que celle requise pour un hélicoptère de même taille.

Grâce à sa souplesse et à sa polyvalence, ce type de drone pourra s'adapter à différents types de missions : transport d'équipement, évacuation de blessés, surveillance aérienne ou reconnaissance. Sa charge utile devrait être d'environ 1 350 kg, soit 40 % de son poids brut au décollage.

Article rédigé par Georges Simmonds pour RT Flash

Phys

Mail On Line

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top