RTFlash

RTFLASH Recherche & Technologie
NUMERO 869
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Octobre 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Matière
Une solution performante et à bas coût pour produire de l'hydrogène avec l'énergie solaire
Espace
Des macromolécules organiques détectées par Rosetta dans la comète Tchouri
Terre
Smart home : un wearable comme mesure de son empreinte carbone
Vivant
Les effets secondaires des antipsychotiques mieux compris
Statines anti-cholestérol : les bénéfices l'emportent sur les effets indésirables
Un nouveau médicament contre certains cancers du pancréas
Les omega-3 contre le cancer de l'intestin
Maladie de Parkinson : Grande avancée vers un test de diagnostic précoce
La synthèse -orientée diversité- : un nouvel outil au service de la médecine
La microcirculation : un facteur-clé pour vivre cent ans !
Grippe : l'espoir d'un vaccin universel se précise
Vers un test sanguin pour détecter les risques de suicide ?
Viande rouge : maîtriser sa consommation pour rester en bonne santé
L'exercice physique pourrait partiellement compenser les effets néfastes de l'alcool...
Une nouvelle molécule anti-douleur
Edito
Le béton : plus que jamais un matériau d’avenir !



Le principe du mortier et du ciment est connu depuis la plus haute l'Antiquité et les Égyptiens utilisaient déjà, il y a plus de 4 500 ans, un mélange de chaux, d’argile, de sable et d’eau pour sceller les pierres. Dès le début de notre ère, les Romains ont mis au point un ciment particulièrement performant en chauffant du calcaire et en le transformant en chaux vive.

Si ce ciment romain possède une telle résistance et une telle longévité, bien supérieures à celles du ciment Parker, inventeur du ciment à prise rapide vingt siècles plus tard, en 1796, c’est parce qu’il contient de la chaux et du sable fin constitué de "pouzzolanes", un granulat de scories volcaniques basaltiques, abondantes autour du Vésuve. Ce mélange permet d’obtenir un ciment d'une solidité à toute épreuve, grâce à la teneur élevée en aluminium des roches volcaniques employées, ainsi que l'a montré une étude réalisée en 2013 par des chercheurs de l’Université américaine de Berkeley. C'est en utilisant de manière particulièrement ingénieuse ce béton exceptionnel que les Romains ont pu réaliser des ouvrages qui nous étonnent encore aujourd'hui et dont certains ont traversé les siècles presque sans dommages !

Quelques années après l’invention du ciment à prise rapide par l’anglais James Parker, un jeune ingénieur polytechnicien français, Louis Vicat est chargé, en 1812, de réaliser un pont résistant aux crues dévastatrices de la Dordogne, à Souillac. S’investissant corps et âme dans cette entreprise et soucieux de construire un ouvrage novateur, à la fois particulièrement robuste et bon marché, Louis Vicat découvre en 1817 le principe de la fabrication des chaux et ciments artificiels. Le Pont de Souillac, inauguré en 1824 et long de 180 mètres, devient ainsi le premier pont routier au monde bâti avec une chaux hydraulique artificielle. A seulement 32 ans, cet ingénieur et inventeur hors-pair présente ses travaux devant l’Académie des Sciences qui reconnaît officiellement en 1818 sa découverte du ciment artificiel. En 1855, Louis Vicat, assisté par son fils Joseph, fondateur en 1853 des Cimenteries Vicat, construira également à Grenoble, au Jardin des plantes, le premier pont en béton coulé au monde.

Mais Louis Vicat, grand philanthrope et homme désintéressé, préférait « La gloire d’être utile à celle d’être riche » et ne voulut jamais breveter son invention majeure. S’inspirant de ses travaux, c’est l’anglais Joseph Apsdin qui déposa en 1824 un brevet pour la production du fameux ciment à prise rapide « Portland », du nom des carrières de calcaire de l’île de Portland, dans le Dorset, en Grande Bretagne. Ce brevet était volontairement imprécis et ne contenait aucune précision sur les quantités relatives de chaux et d'argile à utiliser et sur les conditions de cuisson à une température nettement supérieure à celle d'un four à chaux ordinaire.

Au cours de la seconde moitié du 19ème siècle, une nouvelle évolution technologique majeure eut lieu avec l’invention du béton armé, qui fut l’œuvre conjointe de deux Français, Joseph Monier, qui déposa en 1867, un brevet sur des caisses en ciment armé pour l'horticulture et François Hennebique, père du procédé du même nom, qui déposa son brevet en 1898 et réalisa en 1893 le premier immeuble en béton armé à Paris et en 1899, le premier pont en béton armé à Châtellerault.

Au cours de la première moitié du XXème siècle, une nouvelle révolution technique fut provoquée par l’invention et l’essor du béton précontraint par l’ingénieur Eugène Freyssinet (1879-1962). Dès 1908, celui-ci à l’idée de de pré-comprimer le béton pour augmenter sa résistance mais il faudra attendre 1933 pour qu’apparaisse le terme de « précontrainte ». En 1928, Freyssinet et son ami Séailles déposent un brevet en nom commun qui définit le principe de la précontrainte et en 1939 Freyssinet innove à nouveau en inventant la précontrainte par post-tension.

A la fin du siècle dernier, une nouvelle rupture de taille a eu lieu, avec l’avènement du Béton à Hautes et très hautes performances (BHP), d'une résistance à la compression pouvant aller de 50 à 150 MPa (Le MPA ou Méga-Pascal est l’unité de contrainte qui correspond à une force d'intensité d’un Newton (N) sur une surface d'1 mm²). La combinaison de ces nouveaux bétons haute performance et des techniques toujours plus sophistiquées de précontrainte a débouché, dans les années 90, sur la mise sur le marché du Béton Fibré à Ultra-hautes Performances (BEFUP), dont la légèreté et la résistance à la compression et la traction ont permis de réaliser des bâtiments et ouvrages d’art qui auraient été encore impossible à construire il y a seulement 30 ans, comme le fameux et magnifique viaduc de Millau, dont le béton possède des propriétés tout à fait hors-normes (200 MPa en compression et de 45MPa en flexion) ou encore le tunnel du Saint-Gothard, en Suisse, inauguré le 2 Juin dernier et qui est, avec ses 57 km de long, le plus long et le plus profond tunnel ferroviaire du monde. Cet ouvrage pharaonique, qui a nécessité plus de 20 ans de travaux, n'aurait pas été possible sans l'emploi d'un béton à très haute performance, recouvert d'une membrane imperméable pour prévenir toute infiltration d'eau.

Avec 6 milliards de tonnes produites en 2015 (une production qui a doublé en 15 ans), le béton est devenu l'un des matériaux de construction les plus utilisés au monde (deux tiers des habitations dans le monde). C'est aussi le deuxième matériau minéral le plus utilisé par l'homme après l'eau potable, avec près d’un m3 par an et par terrien !

Mais depuis quelques années, ce matériau a connu plusieurs révolutions et n'en finit pas d'évoluer, pour la plus grande joie des architectes et des constructeurs. Il existe par exemple à présent des bétons transparents et translucides, comme le Litracon (Light-transmitting concrete), inventé en 2001 par l'architecte hongrois Aron Losonczi.

Autre saut technologique : en 2013, le Cerib (Centre d’études et de recherches de l’industrie du béton) a mis au point une nouvelle famille de béton innovant ultra-léger, spécialement conçu pour la construction des bâtiments à haute efficacité énergétique. Baptisé Thermolitys, ce nouveau type de béton répond à une multitude d’applications dans la fabrication des éléments et composants (parois, planchers, cloisons) à haute performance énergétique du bâtiment.

De son côté, l’école d’ingénieurs ESTIC de Caen a mis au point un «  béton-coquillage » qui remplace une partie des granulats par des éclats de coquillages. Ce béton permet la fabrication de pavés absorbants et permet l’évacuation des eaux pluviales. Ce matériau, qui pourrait permettre d’utiliser et de valoriser une grande partie des 250 000 tonnes de coquillages produites chaque année en France, possède en outre la capacité d’absorber deux litres par m2 et par seconde, ce qui en fait un excellent revêtement potentiel, notamment dans certaines zones inondables.

Outre-Atlantique, des chercheurs américains de l'Université de Wisconsin-Milwaukee (UWM) ont mis au point en 2014 un étonnant type de béton qui résiste à l'eau et aux fissures. Baptisé SECC (Superhydrophobic Engineered Cementitious Composite), ce béton hi-Tech possède un exceptionnel niveau de résistance aux fissures, grâce à une structure moléculaire particulière obtenue notamment par l’incorporation de fibres d'alcool polyvinylique. Ce « super-béton », quatre fois plus résistant à la compression que le béton armé, aurait en outre une durée de vie bien plus longue…

Enfin, il y a quelques semaines, la jeune société XtreeE a dévoilé ce qui sera peut-être l’avenir du béton et plus largement de la construction : un « pavillon » imprimé en 3D conçu à partir de la plate-forme 3DExperience de Dassault Systèmes. Selon XtreeE, l’impression 3D augmente « la créativité et la flexibilité, réduit les déchets de chantier et crée des structures plus légères et plus robustes ». Fusionnant les processus de conception et de construction, XtreeE est parvenue à concevoir une chaîne numérique cohérente qui permet l’automatisation dans la construction des éléments de bâtiments qui n’ont plus qu’à être assemblés, comme un gros jeu de lego, sur le site de construction.

Résultat : il devient possible de fabriquer « à la chaîne » des immeubles d’habitations ou de bureaux à moindre coût et bien plus rapidement, en utilisant juste les quantités de matériaux nécessaires. Les premiers bureaux réalisés à l’aide de cette technologie ont été récemment inaugurés dans l’Emirat de Dubaï. Ils ont été réalisés en moins de trois semaines à l’aide d’une imprimante 3D géante de 6 mètres de haut par 36 mètres de long, équipée d’un bras robotique conçu pour déposer les couches successives de béton.

Selon un récent rapport publié par la firme Markets and Markets, les procédés d’impression 3D à base de béton devraient connaître une forte demande dans les années à venir, surtout dans le domaine de la construction résidentielle, et permettraient de réduire de 30 à 60 % les déchets de construction et de raccourcir les délais de production de 50 à 70 %.

Il est également un autre domaine tout à fait stratégique dans lequel le béton a fait une entrée remarquée, celui de la production et du stockage de l’énergie. Début 2015, des chercheurs de l'Université de Kassel (Hesse) ont développé un prototype de béton capable de convertir le rayonnement solaire en courant électrique. Pour parvenir à ce résultat, les chercheurs ont créé un nouveau type de cellules photovoltaïques, les cellules à colorant, ou cellules Gratzel du nom de leur inventeur. Celles-ci possèdent la capacité remarquable de reproduire le phénomène de photosynthèse végétale grâce à des pigments photosensibles artificiels dérivés de la chlorophylle. Ce « béton solaire », appelé "DysCrete", se compose d’un sandwich qui intègre une couche d'oxyde de titane capturant l'énergie solaire, un colorant, en guise d’électrolyte et enfin d’une couche de graphite, faisant office d’électrode. Le tout est protégé par une couche protectrice transparente. Selon ces travaux, en atteignant seulement un rendement de conversion photovoltaïque de 2 %, l’emploi à grande échelle d’un tel béton pourrait tout simplement bouleverser le paysage énergétique mondial, compte tenu des énormes surfaces de béton qui pourraient être utilisables (y compris sur les façades Nord) sur les innombrables bâtiments pour produire gratuitement de l’électricité.

Mais le béton s’avère également un matériau très adapté au stockage de l’énergie. Grâce à sa résistance et à sa légèreté, le béton, deux fois et demi moins dense que l’acier, peut par exemple servir à construire des volants d’inertie très performants, comme le montre le prototype présenté en juin dernier par la société française Energiestro. Baptisé « Voss », ce volant d’inertie à bas coût et grande longévité pourrait concurrencer sérieusement les batteries dans le domaine du stockage massif d’électricité.

Reste que, s’il est évidemment important de parvenir à améliorer sans cesse les propriétés du béton et d’élargir toujours plus ses champs d’application, il est également crucial, pour des raisons environnementales évidentes, de réduire drastiquement les émissions de CO2 liées à la production en quantité énorme de ce matériau de construction. Dans cette perspective, le groupe Lafarge a présenté, début 2013, un clinker nouvelle génération, baptisé Aether, permettant la production de ciments à faible empreinte carbone, grâce à un taux de calcaire réduit et à une température de cuisson plus faible. Cette innovation majeure devrait permettre de réduire les émissions de CO2 de 30 %. Parallèlement, Lafarge, en collaboration avec la société Solidia, travaille depuis plusieurs années sur un nouveau procédé qui remplace l'eau par du CO2 pour le durcissement du béton, ce qui pourrait permettre de réduire jusqu'à 70 % l'empreinte environnementale du béton préfabriqué, tout en recyclant et en valorisant le CO2 issu de la production de ciment.

Autre innovation tout à fait majeure : en avril dernier, une entreprise vendéenne a présenté le HP2A, une préparation à base d'argile aussi solide que du béton. Baptisé HP2A, ce matériau véritablement révolutionnaire, qui devrait arriver sur le marché en 2017, est composée essentiellement d’argile, à laquelle sont est incorporés, selon une recette soigneusement tenue secrète, toute une série d’ingrédients naturels divers.

Ce béton d’argile ne coûte pas plus cher à produire que les bétons classiques et comme il ne nécessite pas de cuisson, son empreinte-carbone (50 kg par tonne) est vingt fois moins importante que celle de son cousin issu du calcaire (une tonne de CO2 pour une tonne de béton fabriqué). Enfin, dernier avantage décisif de ce nouveau matériau, pour le produire, il suffit de le mélanger avec de l'eau et n’importe quel type de sable ou même de matières végétales. On mesure mieux l’impact environnemental tout à fait considérable que pourrait avoir l’utilisation à grande échelle de ce béton écologique quand on sait qu’il faut extraire plus de 25 milliards de tonnes de graviers et de sable chaque année dans le monde pour produire les 6 milliards de tonnes de béton que la planète engloutit tous les ans…

La généralisation et la combinaison de ces progrès remarquables en matière de production propre devraient permettre de réduire à terme d’au moins 700 millions de tonnes par an, les émissions mondiales de CO2 liées à la production de ciment, ce qui représente plus de deux fois les émissions annuelles de la France…

Demain, l’arrivée de nouvelles familles de béton, aux performances encore plus remarquables de résistance et de longévité, combinée à l’utilisation d’imprimantes 3D géantes, nous permettra de réaliser par fabrication additive des immeubles et ouvrages d’arts toujours plus audacieux et esthétiques, comme la future tour « Kingdom Power », actuellement en construction à Djedda et qui sera, grâce à l’utilisation d’un béton ultra-haute performance, le premier édifice à dépasser un kilomètre de haut à l'horizon 2018 ! Mais le plus extraordinaire est que ce béton du futur, loin d’être seulement un matériau de construction polyvalent et irremplaçable, deviendra également capable de recycler le CO2 nécessaire à sa fabrication, de produire de l’énergie, de s’auto-réparer et d’éclairer nos villes et nos habitations !

Il n’est cependant pas certain que les orgueilleuses constructions actuelles dont nous sommes si fiers parviennent à défier le temps, comme ont su le faire depuis des millénaires, certaines merveilles du monde antique, comme le Panthéon, le Colisée, le Parthénon ou la grande pyramide de Khéops, dont la perfection demeure à bien des égards un mystère, et qui ne cessent de nous émerveiller par leur ingéniosité et leur beauté.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Matière
Matière et Energie
Une solution performante et à bas coût pour produire de l'hydrogène avec l'énergie solaire
Jeudi, 13/10/2016 - 15:38

Comment utiliser de manière peu coûteuse et en grande quantité l’énergie solaire quand le soleil fait défaut ? Une solution prometteuse consiste à convertir cette énergie en hydrogène, par électrolyse de l’eau. Il s’agit de "casser" des molécules d’eau en hydrogène et en oxygène, en utilisant le courant électrique produit par un panneau photovoltaïque. L’hydrogène propre peut ensuite être stocké, puis restituer de l’électricité à la demande, ou encore servir de carburant (le problème du stockage de l'hydrogène n’est pas le sujet traité dans cet article).

Mais pour produire de l'hydrogène, tout n’est pas si simple. Malgré des résultats prometteurs obtenus en laboratoire ces dernières années, les technologies de production d’hydrogène sont encore trop instables ou trop onéreuses pour être commercialisées à large échelle. A l’EPFL et au CSEM, des chercheurs ont choisi de combiner des composants ayant déjà fait leurs preuves dans l’industrie pour fabriquer un système robuste et efficace. Leur dispositif dépasse les efforts précédents en termes de stabilité, performances et limitation des coûts.

Leur prototype se compose de trois cellules solaires en silicium cristallin nouvelle génération, connectées entre elles et reliées à un système d’électrolyse sans matériaux rares. Il atteint un taux de conversion de l’énergie solaire en hydrogène de 14,2 % et a déjà pu fonctionner pendant plus de 100 heures dans sa version test. « Si on installait 12 à 14m2 de ces cellules photovoltaïques en Suisse, il serait possible de stocker assez d’hydrogène pour parcourir 10 000 km par année au volant d’une voiture à pile à hydrogène », illustre Christophe Ballif, co-auteur de l’étude.

Ce résultat constitue un record mondial de rendement avec des cellules solaires en silicium, mais aussi un record de production d’hydrogène sans matériaux rares, sans compter la grande stabilité inhérente au système. Ces performances s'expliquent grâce à l’optimisation de tous les composants, mais aussi dans l’utilisation d’un type de cellules photovoltaïques en silicium cristallin "hybrides" dites à hétérojonction, dont la structure en sandwich avec du silicium cristallin et du silicium amorphe permet d’obtenir un très haut voltage. Grâce à cette particularité, il est possible, en connectant seulement trois de ces cellules entre elles, de générer une tension optimale pour réaliser l’électrolyse. La partie électrochimique est, quant à elle, réalisée avec un catalyseur en Nickel, un matériau abondant.

En matière de coûts, de performance et durée de vie, le nouveau système est unique. "Nous voulions développer un système performant et utilisable dans les conditions actuelles", explique Jan-Willem Schüttauf, chercheur au CSEM et co-auteur de l’étude. "Les cellules à hétérojonction que nous utilisons font partie de la famille des cellules en silicium cristallin, qui à elles seules représentent déjà environ 90 % du marché des panneaux photovoltaïques. C’est une technologie connue et robuste dont la durée de vie est de plus de 25 ans. Elle recouvre d’ailleurs la façade sud du bâtiment du CSEM à Neuchâtel" ajoute le chercheur.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
Espace
Espace et Cosmologie
Des macromolécules organiques détectées par Rosetta dans la comète Tchouri
Jeudi, 13/10/2016 - 15:07

Les comètes ont pu apporter sur la Terre primitive des molécules organiques (à base principalement de carbone, hydrogène, azote et oxygène) qui ont pu jouer un rôle dans l'évolution chimique qui a conduit à l'apparition de la vie sur notre planète.

La nature des molécules cométaires pourrait aussi nous aider à déchiffrer l'histoire de la matière depuis son origine dans le milieu interstellaire jusqu'à son incorporation sur Terre. Ainsi, nous comprendrions mieux la formation et l’évolution de notre système solaire dans son ensemble.

L'un des objectifs de la mission Rosetta de l'Agence spatiale européenne était de dresser un inventaire le plus complet possible des ingrédients chimiques constituant le noyau de la comète 67P/ Churyumov-Gerasimenko (Tchoury). L'un des instruments de la sonde, ROSINA, a déjà mesuré une très grande diversité de molécules gazeuses relativement légères dans l'atmosphère de la comète, dont des hydrocarbures, alcools, aldéhydes, ou encore récemment de la glycine.

Ces mesures ont été complétées par la détection d'autres molécules en phase gazeuse mesurées à la surface du noyau par les instruments COSAC et PTOLEMY à bord de l'atterrisseur Philae. L'instrument COSIMA est un spectromètre de masse dédié à l’étude des particules solides présentes dans l’atmosphère cométaire. Il était placé sur la sonde spatiale qui a continué à naviguer à proximité de noyau jusqu’au 30 septembre 2016, date à laquelle la sonde européenne Rosetta a terminé sa mission.

Depuis août 2014, cet instrument avait collecté plusieurs dizaines de milliers de petites particules solides éjectées depuis le noyau de la comète. Certains de ces fragments du noyau ont été analysés à bord de Rosetta. Les chercheurs ont détecté des macromolécules organiques solides dans les particules de la comète. Cette matière est si complexe qu'on ne peut pas lui attribuer une formule chimique, ni même un nom suivant la nomenclature chimique usuelle.

Elle présente des analogies avec la matière organique insoluble contenue dans les météorites carbonées, mais elle contient plus d'hydrogène que celles-ci, ce qui laisse penser qu'elle serait plus primitive. Elle aurait ainsi été moins altérée dans les comètes que la forme présente dans les météorites qui a été chauffée et transformée depuis son origine. Elle résulterait donc de processus présents lors des tout premiers stades de formation du système solaire.

En s'appuyant, entre autres, sur des simulations en laboratoire, les scientifiques s’attendaient aussi à trouver une multitude de molécules organiques, avec des formules dans le prolongement de ce qui a été détecté en phase gazeuse, mais en plus lourd, sous forme solide et avec des structures bien définies. Ces molécules de masses intermédiaires n’ont pour l’instant pas été détectées en phase solide dans les particules cométaires.

La discontinuité entre les familles de composés gazeux détectés par les autres instruments de Rosetta, et cette phase organique macromoléculaire mise en évidence par COSIMA, suggère qu'il pourrait y avoir plusieurs sources distinctes de matière organique qui ont été mélangées lors de la formation du noyau cométaire. Le fait que les macromolécules détectées soient omniprésentes et qu’elles soient la seule forme de matière organique détectée à ce jour dans les particules cométaires sont des indices précieux pour comprendre la formation des comètes et déchiffrer l’histoire des tout premiers temps du système solaire.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Smart home : un wearable comme mesure de son empreinte carbone
Mardi, 11/10/2016 - 11:17

Des chercheurs de l’Université de Washington ont développé un prototype de wearable, appelé MagnifiSense, qui identifie les appareils électriques avec lesquels son utilisateur interagit au quotidien afin de traquer son empreinte carbone. Se portant au poignet, le wearable contient un capteur qui se sert du rayonnement électromagnétique généré par les composants électriques, ou les petits moteurs.

Il peut ainsi déterminer quand son utilisateur ferme un interrupteur, allume une plaque électrique et même s’il monte dans un bus ou prend sa voiture. « Aujourd’hui, vous êtes en mesure de savoir que la lumière représente par exemple 20 % de votre consommation d’énergie. Ce wearable permet de répartir ce pourcentage et dire qui a consommé cette énergie », détaille Shwetak Patel, membre du groupe de recherche.

En permettant de savoir qui allume la télévision, le système pourrait lancer automatiquement son programme favori ou configurer un accès personnalisé en fonction du profil. Pour assister les personnes âgées au quotidien, il pourrait également détecter quand une plaque de cuisson est restée allumée pendant un certain temps et alerter en cas de besoin. Les chercheurs entrevoient même l’intégration du capteur, alors miniaturisé, dans des objets connectés type smart watch ou un bracelet. 

Article rédigé par Georges Simmonds pour RT Flash

University of Washington

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les effets secondaires des antipsychotiques mieux compris
Jeudi, 13/10/2016 - 15:27

Les antipsychotiques typiques aussi appelés « de première génération » sont encore majoritairement utilisés dans le traitement de psychoses telles que la schizophrénie, en cas de résistance au traitement par antipsychotiques de deuxième génération.

Cependant, bien qu’ils soulagent le patient, ces médicaments engendrent des effets indésirables qui, sur le long terme, peuvent se révéler particulièrement invalidants. Ce sont, par exemple, des troubles du mouvement, assimilables à ceux observés chez les personnes atteintes de la maladie de Parkinson (mouvements anormaux, rigidité, contractures musculaires involontaires). Trop pénibles pour certains patients, ils provoquent l’interruption du suivi du traitement malgré les bénéfices sur leur santé psychologique.

Au niveau moléculaire, les antipsychotiques classiques agissent en bloquant le récepteur de la dopamine de type D2 localisé sur les neurones du striatum, une région du cerveau impliquée dans les mouvements volontaires et la motivation. Or, depuis quelques années, les travaux menés par le laboratoire du Docteur Borrelli à l’Université de Californie à Irvine, et par d’autres instituts, montrent que la présence du récepteur n’est pas restreinte au striatum mais peut aussi être localisée à la surface d’autres populations neuronales ; son activation aura donc des conséquences différentes selon l’endroit où il est exprimé.

Grâce à la création de plusieurs modèles de souris génétiquement modifiées dont le récepteur D2 a été enlevé spécifiquement dans certaines populations de neurones (anzalone e al., 2012), l’équipe du Professeur Borrelli a étudié les différentes fonctions du récepteur D2 dans le cerveau et a décrypté le mécanisme cellulaire à l’origine de ces effets indésirables des antipsychotiques classiques.

Dans un de ces modèles murins, l’équipe a empêché l’expression du récepteur D2 sur les interneurones cholinergiques, qui ne représentent qu’environ 1-2 % des neurones du striatum. Karen Brami-Cherrier, chercheur post-doctorante, co-première auteure de l’étude, fait alors une découverte surprenante : ces souris transgéniques ne présentent plus de catalepsie (rigidité musculaire, immobilité de posture) lorsqu’elles sont traitées par des antipsychotiques.

Autrement dit, sans le récepteur D2 de ces neurones spécifiques, ces souris ne souffrent plus des effets secondaires normalement engendrés par un traitement aux antipsychotiques.

Pour mieux comprendre le lien entre les récepteurs D2 des interneurones cholinergiques et ces effets secondaires, les chercheurs ont utilisé différentes techniques d’imagerie et d’enregistrement d’activité des neurones. Grâce à celles-ci, ils ont constaté que cette ablation spécifique du récepteur D2 entraînait une diminution de la libération d’acétylcholine par ces interneurones cholinergiques.

Sans cette acétylcholine, les neurones voisins ne sont plus activés ce qui empêche l’apparition de la catalepsie. Lorsque les chercheurs traitent les souris avec un inhibiteur du récepteur à l’acétylcholine, ces dernières ne présentent alors plus de catalepsie lorsqu’elles reçoivent des antipsychotiques. Cette observation confirme les précédents résultats de l’équipe.

Ainsi, cette étude pourrait avoir des retombées cliniques importantes, tant pour la recherche de nouvelles molécules dans le traitement des psychoses sans effets indésirables, que pour la recherche sur la maladie de Parkinson dont les symptômes sont communs aux troubles moteurs induits par les antipsychotiques.

Article rédigé par Georges Simmonds pour RT Flash

France Diplomatie

Statines anti-cholestérol : les bénéfices l'emportent sur les effets indésirables
Jeudi, 13/10/2016 - 15:17

Les bénéfices des statines, des médicaments anti-cholestérol très largement prescrits, ont été sous-estimés et leurs effets indésirables exagérés, affirme dans la revue The Lancet une étude qui pourrait contribuer à calmer la polémique ayant conduit des patients à arrêter ces traitements.

"Nos résultats montrent que le nombre de gens qui évitent des infarctus et des accidents vasculaires cérébraux est beaucoup plus important que le nombre de gens qui ont des effets secondaires", indique le Professeur Rory Collins, de l'Université d'Oxford qui, avec d'autres chercheurs, a passé en revue 30 études incluant 140.000 personnes. Les statines sont des médicaments qui existent depuis une trentaine d'années. Elles sont prescrites pour faire baisser le taux de cholestérol et prévenir ainsi les risques cardiovasculaires, notamment en cas d'antécédent cardiaque. Mais elles sont de plus en plus largement prescrites à titre préventif, dès lors que le taux de cholestérol d'un patient dépasse certains seuils, variables selon les situations ou les pays.

Selon l'étude du Professeur Collins, une réduction du taux de cholestérol LDL (ou "mauvais cholestérol) de 2 mmol/L obtenue grâce à un traitement par statine donné pendant 5 ans à 10.000 patients permettrait de prévenir des événements cardiovasculaires majeurs (comme des infarctus ou des AVC provoqués par des caillots) chez 1.000 personnes ayant déjà des antécédents cardiaques (soit 10 %) et chez 500 personnes présentant seulement des facteurs de risques (soit 5 %).

Quant aux effets indésirables, les plus courants sont les douleurs musculaires. Sur 10.000 patients traités pendant 5 ans, on observe ainsi 5 cas de myopathie (une maladie qui touche les muscles) dont un cas pouvant évoluer vers la rhabdomyolyse (aboutissant à une destruction de tissus musculaires).

Cinq à 10 cas d'AVC hémorragiques ont également été associés aux statines chez 10.000 patients traités pendant 5 ans, ainsi que 50 à 100 nouveaux cas de diabète, pour la plupart apparus peu après le début du traitement et chez des patients présentant des facteurs de risques pour cette maladie.

Mais selon les auteurs de la revue, des essais randomisés (dans lesquels les malades sont répartis dans deux groupes recevant soit le traitement soit le placebo par tirage au sort) auraient montré que "pratiquement tous" les effets indésirables attribués aux statines ne seraient en réalité pas causés par ces médicaments.

La controverse sur la nocivité ou l'inefficacité des statines à titre préventif s'est développée rapidement dans plusieurs pays ces dernières années. C'est notamment le cas au Royaume-Uni où 200.000 patients ont arrêté d'en prendre, ce qui pourrait, selon les chercheurs, entraîner entre 2.000 et 6.000 incidents cardiovasculaires au cours de la prochaine décennie.

Plusieurs experts indépendants ont salué l'étude. "Les statines ont été injustement diabolisées", relève le Docteur Tim Chico, un spécialiste de l'Université de Sheffield, qui souligne que la "confusion" autour des risques des statines a conduit "de nombreuses personnes à se faire une opinion sans avoir été correctement informées".

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Un nouveau médicament contre certains cancers du pancréas
Mercredi, 12/10/2016 - 16:47

Des chercheurs britanniques ont montré qu'un nouveau médicament, l’IMM-101, permet de prolonger l’espérance de vie des personnes atteintes du redoutable cancer du pancréas métastasique. Angus Dalgleish, professeur d’oncologie à l’Université St George de Londres, qui a dirigé la recherche, explique : "Les patients qui ont reçu le nouveau médicament d’immunothérapie se sentent mieux que ceux qui étaient traités avec une chimiothérapie standard”.

Les spécialistes du cancer saluent le développement d’un médicament immunothérapique sans effets secondaires, mais soulignent l’absence de bénéfices généraux et durables pour tous les patients. L’essai clinique a été fait sur un échantillon de seulement 110 personnes, dont 85 % avaient un cancer avec métastases. “Le cumul du nouveau médicament et de la chimiothérapie standard administrée aux patients n’a pas bénéficié aux personnes dont le cancer du pancréas était propagé localement, même s’il a amélioré la durée de vie de ceux dont le cancer était métastatique”, précise l'étude.  

Article rédigé par Georges Simmonds pour RT Flash

News Medical Net

Les omega-3 contre le cancer de l'intestin
Mercredi, 12/10/2016 - 16:41

Selon une étude américaine réalisée par des chercheurs du Massachusetts General Hospital, la consommation régulière d'omega-3 pourrait réduire le risque de décès par cancer de l'intestin chez les patients touchés par cette maladie. Ces derniers auraient donc tout intérêt à inclure une grande quantité de poissons gras (saumon, thon, maquereau, hareng, sardine, anchois) dans leur alimentation, source principale d'omega-3.

De précédentes recherches ont déjà démontré que les omega-3, à savoir les acides eïcosapentaènoïque (EPA), docosahexaènoïque (DHA) et docosapentaénoïque (DPA) peuvent supprimer la croissance tumorale et freiner l'approvisionnement en sang vers les cellules malignes. Les chercheurs se sont penchés sur les questionnaires de santé de plus de 173 000 personnes qui comprenaient des informations sur leur alimentation. Parmi elles, 1659 cas de cancer de l'intestin ont été répertoriés dont 169 décès attribués uniquement à cette maladie sur une période de suivi d'une moyenne de dix ans.

Les résultats ont montré que les participants ayant un apport alimentaire élevé en omega-3 grâce à de l'huile de poisson étaient plus susceptibles d'être actifs physiquement et de consommer plus de vitamines D et de fibres. Mais ce sont les personnes qui ont reçu un diagnostic de cancer de l'intestin et dont l'alimentation contenait des niveaux élevés d'omega-3 d'origine marine qui avaient un risque plus faible de décès. L'ampleur de la réduction du risque semble liée aux doses : plus elles sont élevées plus le risque est faible.

"Par rapport aux patients qui ont consommé moins de 0,1 g d'acide gras omega-3 par jour, ceux qui en ont consommé au moins 0,3 g par jour après leur diagnostic avaient un risque 41 % plus faible de mourir de leur maladie", expliquent les chercheurs. Ces derniers ont constaté qu'une augmentation de l'apport d'omega-3 marin d'au moins 0,15 g par jour après le diagnostic était associée à un risque 70 % plus faible de décès. Tandis qu'une diminution de l'apport quotidien a été associé à un risque accru de 10 % de mortalité. "Des tendances similaires ont été relevées pour toutes les autres causes de décès", précisent les chercheurs.

Article rédigé par Georges Simmonds pour RT Flash

Gut

Maladie de Parkinson : Grande avancée vers un test de diagnostic précoce
Mercredi, 12/10/2016 - 16:33

Des chercheurs de l’Université d’Edimbourg ont présenté un test, basé sur une protéine clé, l’alpha-synucléine, impliquée dans la formation de ces touffes collantes nommées corps de Lewy, caractéristiques de la maladie de Parkinson. Cette nouvelle technique de pointe qui permet d’évaluer la viscosité des protéines et donc le risque de corps de Lewy, permet de détecter la maladie de Parkinson à un stade précoce.

La maladie de Parkinson est une maladie neurologique caractérisée par la mort de certaines cellules du cerveau, impliquées dans le mouvement, l’humeur, le sommeil et la cognition. Ses symptômes dont les tremblements, le ralentissement du mouvement, la raideur et la rigidité musculaire, les troubles de sommeil, la perte de l’odorat, la dépression et la dysfonction cognitive, sont plus souvent constatés autour de l’âge de 60 ans. Il n’existe pas encore de test de dépistage précoce de la maladie et ses symptômes étant parfois similaires à ceux d’autres troubles neurologiques, le taux d’erreur de diagnostic peut atteindre 25 %.

De nombreuses équipes travaillent à l’élaboration de tests de diagnostic, soit multicritères, avec notamment des modèles qui intègrent et pondèrent des symptômes moteurs et non moteurs, ou basés sur la force musculaire et l’équilibre, 2 critères qui se détériorent progressivement jusqu’à 25 ans avant l’apparition des autres symptômes de la maladie.

Cette nouvelle étude propose un test biologique, qui pourrait trouver également d’autres applications pour les différents types de démence. Le test détecte en effet une protéine, l’alpha-synucléine, impliquée dans la formation de ces touffes collantes nommées corps de Lewy dans les cellules du cerveau des patients parkinsoniens.

De précédentes tentatives ont été poursuivies sur la base de cette protéine, mais avec des résultats contradictoires, la difficulté étant que la protéine est également présente dans les cerveaux en bonne santé. Ici, les chercheurs de l’Université d’Edimbourg ont utilisé une technologie très sensible (real-time quaking induced conversion) permettant de mesurer la viscosité des protéines et donc leur propension à former des amas néfastes.

Ces premiers tests identifient ainsi avec précision 19 des 20 échantillons provenant de patients atteints de la maladie de Parkinson, ainsi que 3 échantillons de patients diagnostiqués à risque élevé de la maladie. Aucun faux positif n’est relevé parmi les 15 échantillons de contrôle de participants en bonne santé.

Article rédigé par Georges Simmonds pour RT Flash

ACTN

La synthèse -orientée diversité- : un nouvel outil au service de la médecine
Mercredi, 12/10/2016 - 16:10

Des chercheurs du Broad Institute de Harvard et du MIT (Massachusetts, Etats-Unis) ont réussi à identifier, à partir d’une collection d’environ 100.000 molécules, des composés qui agissent chez la souris, après une prise unique et à faible dose, contre tous les stades de cycle du parasite du paludisme, Plasmodium falciparum.

La perspective d’un traitement antipaludéen en une prise unique est d’autant plus encourageante qu’elle faciliterait l’observance thérapeutique et réduirait les coûts de traitement. Les résultats ont été également déposés sur un site Internet dédié, baptisé Malaria Therapeutics Response Portal (MTRP), afin que la communauté scientifique puisse rapidement examiner les formules chimiques des composés identifiés et prendre connaissance de leurs cibles moléculaires. L’exploitation de ces données pourrait permettre de développer de nouveaux traitements contre cette maladie parasitaire qui a affecté 214 millions de personnes et entraîné 438.000 décès en 2015.

A ce jour, la majorité des médicaments antipaludéens agissent sur la phase sanguine du parasite au cours de laquelle il pénètre à l’intérieur des globules rouges et se multiplie. Or, pour prévenir et empêcher la transmission du paludisme, il importe de disposer de médicaments capables d’agir contre toutes les phases du cycle complexe du parasite, notamment y compris le "stade hépatique".

En effet, l’anophèle femelle injecte, lors de son repas sanguin, des cellules (sporozoïtes) qui pénètrent le foie via la circulation sanguine, où elles se multiplient, donnant naissance à des dizaines de milliers de nouveaux parasites (mérozoïtes). En éclatant, les cellules hépatiques libèrent ces parasites dans le sang qui pénètrent alors dans les globules rouges. Ils s’y multiplient et provoquent l’éclatement des globules rouges. Les mérozoïtes libérés infectent de nouveaux globules rouges.

Les chercheurs du Board Institute ont identifié quatre nouveaux composés à partir d’une collection d’environ 100.000 qu’ils avaient préalablement synthétisés en utilisant une stratégie baptisée "synthèse orientée vers la diversité" (diversity-oriented synthesis, en anglais). Cette approche vise à enrichir le panel de molécules disponibles en accroissant la diversité moléculaire au niveau de la structure tridimensionnelle, tout en limitant au maximum le nombre des étapes de synthèse chimique pour y parvenir.

Les chimistes parviennent ainsi à obtenir un nombre important de produits présentant une diversité structurale. Cette démarche permet de créer une bibliothèque de plusieurs milliers de composés à partir de laquelle il est possible de découvrir des classes de candidats-médicaments ayant de nouveaux modes d’action. C’est effectivement ce que l’équipe dirigée par Stuart Schreiber est parvenue à faire, en identifiant le composé BRD7929 dont la cible moléculaire était jusqu’à présent inconnue.

Ces chercheurs ont identifié des composés dont les mécanismes d’action étaient pour certains déjà connus et pour un autre entièrement nouveau. Pour ce dernier, la cible en question est la phénylalanyl-tRNA-synthetase (PfcPheRS), une enzyme complexe impliquée dans la synthèse des protéines du parasite. Ces composés se sont montrés efficaces, en une seule dose orale, pour guérir des souris inoculées deux jours plus tôt avec des parasites P. falciparum au stade sanguin. Les rongeurs étaient indemnes de tout parasite et le sont restés durant les 30 jours suivants.

Des résultats similaires ont été obtenus lorsque des souris ont été inoculées avec la forme du parasite parvenu au stade hépatique et traités par un de ces nouveaux composés (BRD7929). Cette molécule s’est également montrée efficace pour contrer la transmission du parasite aux moustiques. En effet, des souris infectées ont été traitées par une dose unique de BRD7929 deux jours avant d’être exposées à des anophèles femelles. Une semaine plus tard, aucun parasite n’a été détecté dans l’intestin des moustiques piqueurs. Le BRD7929 est donc actif contre la forme du parasite ingéré par l’anophèle lors d’un repas sanguin. Il se montre capable d’empêcher la transmission du parasite au moustique.

Ces travaux soulignent la puissance de l’approche par "synthèse orientée vers la diversité" pour constituer des bibliothèques de milliers de nouvelles molécules (chimiothèques) à partir desquelles un criblage peut permettre la découverte de composés utiles pour développer de nouveaux médicaments. 

Article rédigé par Georges Simmonds pour RT Flash

Nature

La microcirculation : un facteur-clé pour vivre cent ans !
Mercredi, 12/10/2016 - 15:56

Selon une étude italienne de l’Université La Sapienza (Rome), une bonne microcirculation sanguine révélée par les niveaux d’une hormone, l’adrénomédulline, est un facteur de durée de vie accrue. Ces recherches ont été menées sur une cohorte de 29 participants âgés de 92 ans et plus dont certains centenaires.

La longévité humaine a précédemment été liée à des facteurs génétiques, à la restriction calorique et certains facteurs de mode de vie tels que l’activité physique ou le régime méditerranéen. Avec cette étude pilote sur quelques-unes des personnes les plus âgées du monde, ces chercheurs italiens identifient ici un facteur supplémentaire qui contribue de manière significative à une vie plus longue : ils constatent chez ces presque centenaires que la perfusion des organes et des muscles est quasiment aussi efficace qu’en moyenne, chez les personnes de 30 années plus jeunes.

Selon l’étude, la microcirculation devrait donc être au nombre des facteurs de longévité. Il s’agit du flux sanguin à travers les petits vaisseaux (capillaires) dans le système circulatoire. Dans ces régions, l’oxygène et les nutriments sont directement délivrés à des cellules, tandis que les débris métaboliques, des toxines et le CO2 sont expulsés. La pression artérielle et la température corporelle sont également régulées par la microcirculation, par la dilatation ou la contraction du réseau capillaire qui alimente les muscles, les organes et la peau.

Cette analyse constate que de faibles concentrations sanguines de l’hormone peptidique adrénomédulline (bio-ADM) indiquent une bonne microcirculation. Cette analyse porte sur précisément 29 participants âgés en moyenne de 92 ans et sur 52 parents plus jeunes âgés en moyenne de 60 ans, ayant les mêmes bases génétiques et exposés à des facteurs environnementaux similaires, puisque vivant dans le même domicile. Les analyses de biomarqueurs sanguins ont été comparés à ceux d’une autre cohorte de 194 personnes en bonne santé, âgés en moyenne de 64 ans, suivis durant 8 ans.

Cette étude montre que les niveaux de l’hormone adrénomédulline sont chez ces presque centenaires aussi faibles que les niveaux relevés chez les participants plus jeunes. Ces très faibles concentrations de ce biomarqueur indiquent un système endothélial et une microcirculation efficaces permettant une bonne irrigation sanguine des organes et des muscles. Les niveaux de bio-ADM et une bonne microcirculation peuvent donc être considérés comme 2 marqueurs de bonne qualité de vie et de longévité, concluent les auteurs.  

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Grippe : l'espoir d'un vaccin universel se précise
Mardi, 11/10/2016 - 11:54

Chaque année, à l'approche de l'hiver, les scientifiques doivent développer un vaccin spécifique efficace contre les dernières souches de grippe. Plusieurs études ont déjà documenté la faisabilité d’un vaccin universel pouvant offrir une large protection contre de multiples souches. Cette nouvelle recherche des National Institute of Allergy and Infectious Diseases (NIAID) et du Human Genome Research Institute (NHGRI) présente, dans la revue Cell, une nouvelle stratégie vaccinale bien capable d’induire des anticorps en réponse à des virus grippaux multiples.

Dans cette étude, les scientifiques américains identifient 3 types d’anticorps induits par le vaccin, capables de neutraliser différentes souches du virus de la grippe qui infecte les humains. Cette découverte constitue donc bien un pas vers le développement du vaccin universel contre la grippe. Les chercheurs rappellent le principe de leurs travaux : alors que le vaccin contre la grippe saisonnière doit être mis à jour chaque année en raison des mutations des différents virus grippaux circulants, une région du virus reste en général inchangée, ce qui en fait une cible idéale pour les anticorps induits par le vaccin universel. En clair, un vaccin capable d’induire des anticorps en réponse à cette zone fixe serait efficace contre plusieurs sous-types de grippe et supprimerait cette nécessité de mettre à jour le vaccin chaque année.

Jusqu’à présent, les scientifiques avaient seulement identifié des anticorps neutralisants à large spectre ciblant la tige du virus. Ils isolent 3 types d’anticorps, capables de neutraliser divers sous-types de virus : ici, les chercheurs sont partis d’échantillons de sang provenant de 6 patients ayant reçu un vaccin anti-H5N1 (virus de la grippe aviaire). Dans les échantillons de sang, les chercheurs ont identifié les cellules B ou globules blancs sécrétant des anticorps, qui réagissent aux différents sous-types du virus de la grippe, ils ont ensuite caractérisé et classé les séquences génétiques de ces anticorps. Ils constatent ainsi que les cellules B codent pour 3 types d’anticorps, capables de neutraliser divers sous-types de virus de la grippe et, par conséquent, pouvant constituer la base de développement d’un vaccin anti-grippe universel. "Il reste", concluent les chercheurs, "à exploiter, lors de prochains essais cliniques, les données de séquençage des cellules B pour évaluer avec précision les réponses immunitaires induites par des candidats vaccins développés sur ce principe".

Article rédigé par Georges Simmonds pour RT Flash

Cell

Vers un test sanguin pour détecter les risques de suicide ?
Mardi, 11/10/2016 - 11:46

Pour un médecin, détecter les pensées suicidaires chez un patient reste une tâche ardue et de très nombreuses équipes travaillent à l’identification des facteurs de risque de suicide pour une surveillance mentale plus ciblée ou encore à l’identification de combinaisons de biomarqueurs sanguins et de questionnaires d’évaluation. Si certains outils permettent d’aboutir à des taux de précision de 80 % dans la prédiction du risque, ces modèles restent extrêmement complexes. Cette découverte présentée dans la revue Translational Psychiatry, de la réduction d’une enzyme spécifique chez les patients suicidaires et donc d’un biomarqueur "simple", pourrait donc être extrêmement précieuse pour identifier ces patients à risque.

Les chercheurs du Van Andel Research Institute (Michigan) rappellent qu’il n’existe pas, à l’heure actuelle, de biomarqueurs pour les maladies psychiatriques. Leur objectif est donc de développer un test sanguin capable d’identifier les sujets suicidaires, ce qui "serait un grand pas en avant", explique le Docteur Erhardt, professeur de physiologie et de pharmacologie à l’Institut Karolinska et auteur principal de l’étude. Or, les personnes suicidaires ou qui ont déjà commis des tentatives de suicide (TS) présentent une inflammation chronique, dans le sang et le liquide rachidien. Avec des collègues d’autres instituts de recherche aux États-Unis, en Suède et en Australie, son équipe a identifié, chez les patients suicidaires, une activité réduite d’une enzyme, impliquée dans la régulation de l’inflammation.

Les chercheurs ont analysé certains métabolites, des sous-produits formés lors de l’infection et de l’inflammation, dans le sang et le liquide céphalo-rachidien de patients qui avaient commis des TS. Cette analyse aboutit à identifier chez ces patients, l’activité réduite de l’enzyme appelée ACMSD, qui régule l’inflammation et ses sous-produits. Selon les auteurs, les personnes présentant cette activité réduite de ACMSD sont particulièrement vulnérables au développement de la dépression et des pensées suicidaires.

La substance produite par l’enzyme ACMSD, l’acide picolinique, est alors considérablement réduite dans le plasma et dans le liquide céphalo-rachidien alors qu’un autre produit, l’acide quinolinique, inflammatoire -et qui se lie et active les récepteurs de glutamate dans le cerveau- est augmenté. En temps normal, ACMSD produit de l’acide picolinique au détriment de l’acide quinolinique, contribuant à maintenir un équilibre qui est important. Il reste toutefois aux chercheurs à vérifier que ces marqueurs sont bien spécifiques aux patients suicidaires ou également présents chez les patients dépressifs. Mais l’espoir est là de pouvoir développer des médicaments capables d’activer l’enzyme ACMSD et de rétablir ainsi l’équilibre entre l’acide quinolinique et l'acide picolinique.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Viande rouge : maîtriser sa consommation pour rester en bonne santé
Mardi, 11/10/2016 - 11:36

Les chercheurs suédois de l’Institute of Environmental Medicine du Karolinska Institutet ont pris en compte l’ensemble des études portant sur toutes les viandes (bœuf, veau, porc, agneau et mouton) et les produits à base de viande transformée (jambon, saucisses, bacon, salami,..). Ils rappellent l’augmentation, au cours des dernières décennies, de la consommation de viande rouge au niveau mondial, en particulier dans les pays en développement et, simultanément, l’augmentation de la prévalence de plusieurs maladies chroniques majeures. Les auteurs rappellent bien évidemment les preuves de la corrélation ou de l’association -selon les études- entre une consommation élevée de viande rouge, en particulier de viande transformée et l’augmentation du risque de ces maladies chroniques.

Cette méta-analyse confirme les effets néfastes pour la santé de la consommation de viande rouge : il s’agit du risque accru des principales maladies chroniques : le diabète, la maladie coronarienne, l’insuffisance cardiaque, l’accident vasculaire cérébral et plusieurs types de cancer (sein, colorectal), et finalement du risque accru de décès prématuré. Selon cette étude, même avec seulement 50 grammes de viande rouge par jour, les risques apparaissent statistiquement significativement augmentés pour la plupart des maladies étudiées : ce risque augmente en effet de 8 % pour les cancers, de 13 % pour les AVC, de 22 % pour les maladies cardiovasculaires et de 32 % pour le diabète. Conclusion : Il est donc largement confirmé que la consommation élevée de viande rouge, et surtout de viande traitée, est associée à un risque accru de plusieurs maladies chroniques majeures et de mortalité prématurée.

Article rédigé par Georges Simmonds pour RT Flash

JIM

L'exercice physique pourrait partiellement compenser les effets néfastes de l'alcool...
Mardi, 11/10/2016 - 11:27

En étudiant les réponses fournies par quelque 36.000 Britanniques de plus de 40 ans ayant répondu à des questionnaires de santé entre 1994 et 2006, les chercheurs ont constaté, sans surprise, que la consommation importante d'alcool était liée à un risque accru de décès toutes causes confondues.

Les nouvelles recommandations britanniques pour les hommes sont de 14 "unités" par semaine au maximum. Une "unité" correspond à 8g d'alcool, soit 25ml de spiritueux, une demi-pinte de bière ou un demi-verre de vin. En faisant intervenir l'activité physique, les chercheurs ont découvert que le sur-risque de décès chez les buveurs était diminué, voire parfois annulé chez ceux pratiquant au moins 150 minutes d'activité physique modérée ou intense par semaine. Chez ceux n'atteignant pas ce seuil, en revanche, le risque de décès restait étroitement corrélé à la quantité d'alcool consommée.

"Nos résultats fournissent un argument supplémentaire en faveur du rôle de l'activité physique dans la promotion de la santé de la population, même en présence de comportements plus malsains" relèvent les chercheurs dans l'étude dirigée par le Professeur Emmanuel Stamatakis, de l'Université de Sydney. Le Professeur McConway souligne qu'il n'est pas question pour autant de boire sans compter en tablant sur le sport pour compenser car il rappelle que "Même pour ceux qui pratiquent régulièrement une activité physique soutenue, le fait de consommer de l'alcool en quantité excessive finira par avoir des effets néfastes sur leur santé et augmentera leur risque de mortalité prématurée".

Article rédigé par Georges Simmonds pour RT Flash

Telegraph

Une nouvelle molécule anti-douleur
Mardi, 11/10/2016 - 11:09

La  morphine reste un des antalgiques les plus efficaces et les plus utilisés, notamment en chirurgie. Mais son usage, et celui des opiacés apparentés, se fait au prix d'effets secondaires (dépendance, constipation) dont certains potentiellement mortels (arrêt respiratoire). Les scientifiques essaient donc de faire mieux et trouver une molécule aussi efficace que la morphine, mais plus inoffensive.

Une équipe mixte américaine et allemande semble "tenir" une molécule très intéressante. Nommée "PZM21", elle s’est montrée chez la souris aussi efficace que la morphine, mais avec des effets indésirables très réduits. L’étude a été publiée mercredi 17 août dans la revue Nature.

La nouvelle molécule induit des effets anti-douleur comparables à ceux de la morphine, mais ils durent plus longtemps. L'analgésie serait même plus durable qu'avec un médicament expérimental, l'oliceridine (TRV130, société Trevena Philadelphie, Pennsylvanie) actuellement en dernière phase (phase 3) des essais cliniques humains.

Et "PZM21" est pratiquement dépourvue d'effets indésirables sur la respiration, selon les auteurs. Elle pourrait, en outre, engendrer moins d'accoutumance que la morphine et les produits apparentés. Les souris n’ont pas semblé vouloir rechercher la prise de médicaments aux cours de l'expérience.

A la recherche de l'analgésique idéal, le Docteur Brian Kobilka et ses collègues américains et allemands ont criblé sur ordinateur plus de 3 millions de molécules, avant d'identifier et d'obtenir la formule adaptée de "PZM21", jugée la plus prometteuse. Au lieu de partir du médicament "à succès" qu’est la morphine et essayer de peaufiner sa structure pour la débarrasser de ses effets délétères, les chercheurs ont pris le parti d’une démarche beaucoup plus radicale. "Nous ne voulions pas seulement optimiser la chimie qui existait déjà", a déclaré Brian Shoichet, l’un des co-auteurs de l’étude. "Nous voulions obtenir une toute nouvelle molécule".

La détermination de la structure en trois dimensions (3D) du récepteur opioïde "mu"(μ), récepteur-clé dans l'effet anti-douleur, par une équipe franco-américaine, décrite en 2012 dans la même revue Nature, a grandement facilité cette recherche. "Dans les recherches traditionnelles, vous êtes comme enfermés dans une petite boîte chimique, a expliqué Brian Shoichet. Mais quand vous commencez avec la structure du récepteur que vous souhaitez cibler, vous avez moins de contraintes. Vous pouvez imaginer toutes sortes de choses auxquelles vous ne pouviez pas penser avant."

Les chercheurs ont activé le récepteur "mu", mais pas les autres récepteurs opioïdes (delta, kappa) et stimulé la bonne voie de signalisation, celle de l'anti-douleur. Reste que cette molécule doit encore prouver sa sécurité et son efficacité chez les humains, ce qui prendra des années. L’enjeu de ces recherches est de taille. L'abus d'opiacés est devenu un véritable problème de santé publique aux Etats-Unis, pays où 14.000 personnes sont mortes d'overdose en 2014 après avoir abusé d'opiacés prescrits sur ordonnance, selon le Centre de contrôle des maladies (CDC).

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top