|
|
|
|
|
NUMERO 921 |
|
|
|
|
|
|
|
Edition du 03 Novembre 2017
|
|
|
|
|
Edito
Graisses contre sucres : faut-il revoir nos habitudes alimentaires ?
Depuis deux ans, un vif débat s’est ouvert au sein de la communauté scientifique sur le rôle exact des graisses et des sucres en matière de santé et de mortalité. Il est vrai que plusieurs études importantes, aux résultats parfois contradictoires et ayant donné lieu à des interprétations diverses, sont venues ébranler quelques-unes des certitudes scientifiques les mieux établies dans ce domaine complexe et passionnel des liens entre alimentation et santé.
En juin 2015, une équipe de recherche internationale a publié la première étude rigoureuse portant sur l’impact, au niveau mondial, de la consommation de boissons sucrées sur la mortalité. Selon ces recherches, réalisées à partir de 62 enquêtes diététiques ayant porté sur 611.971 personnes entre 1980 et 2010 dans 51 pays, la consommation de ces boissons aurait provoqué 133.000 morts pour des causes de diabète, 45.000 pour des causes de maladies cardiovasculaires et 6450 pour des causes de cancers, soit au total environ 184 000 décès pour la seule année 2004 (Voir Circulation).
L’année dernière, une vaste étude réalisée par la faculté d'Harvard a montré comment le type de graisses consommées influence la mortalité. Ces travaux confirment les bienfaits importants des graisses insaturées, surtout quand elles remplacent des graisses saturées et des acides gras trans.
Cette étude a porté sur 126 233 participants (83 349 femmes et 42 884 hommes) suivis pendant 32 ans, période au cours de laquelle 33 304 décès ont été enregistrés. L'étude analyse le lien entre la consommation des différents types de graisses et la mortalité. Selon ces travaux, une simple augmentation de 2 % des acides gras saturés est associée à un risque accru de 16 % de la mortalité prématurée.
Cette analyse a montré qu'une plus forte consommation de graisses saturées (par rapport aux hydrates de carbone) augmente de 8 % le risque de décès par rapport à une consommation plus faible de graisses saturées. Selon ces recherches, la réduction de la mortalité la plus importante a été observée chez les personnes remplaçant les graisses saturées par des graisses polyinsaturées qui se trouvent dans les végétaux (fruits à coques, huiles végétales et certains poissons) et réduisent le mauvais cholestérol. Cette étude montre enfin que remplacer seulement 5 % de son apport énergétique en graisses saturées par des acides gras polyinsaturés permettrait de réduire de 27 % le risque de décès prématuré.
Mais il y a quelques semaines, l’étude PURE (Prospective Urban Rural Epidemiological), incluant plus de 135 000 personnes (entre 35 et 70 ans) issues de milieux socio-économiques variés et provenant de dix-huit pays différents sur les cinq continents, est venue jeter le trouble dans les esprits (Voir étude).
Cette étude conduite par Mahshid Dehghan, de l'Université d'Hamilton, a été présentée lors du Congrès européen de cardiologie à Barcelone fin août, et le moins que l’on puisse dire est qu’elle a fait grand bruit. Elle montre en effet, contre toute attente, que les personnes qui limitent leurs apports en graisse ont une moins bonne santé que celles qui en consomment beaucoup. Toujours selon ces recherches, il semblerait en outre que les sujets qui ont une consommation importante de graisses – quelles qu’elles soient – aient une mortalité plus faible et une réduction de leurs risques cardiovasculaires. Enfin, l’étude souligne qu’une alimentation riche en hydrates de carbone (les fameux sucres lents, comme les féculents) semble entraîner un risque de mortalité supérieure, par rapport aux personnes qui consomment peu de ces sucres lents mais plus de graisses.
Autre surprise : l'analyse par type de matières grasses montre que les saturées (présentes dans le beurre, le fromage, la charcuterie) sont associées à une baisse du risque de mortalité, certes plus faible que pour les personnes consommant le plus de graisses insaturées (poissons, huiles végétales), mais néanmoins sensible. En revanche, l’étude montre qu’une forte consommation de sucre augmente jusqu’à 28 % le risque de mortalité, par rapport à ceux qui en consomment le moins.
Ces travaux remettent donc fortement en cause un dogme médical solide voulant que les matières grasses, et plus particulièrement les graisses saturées, favorisent d’une manière générale les maladies cardiovasculaires. Les conclusions de cette étude considèrent que les recommandations actuelles, visant à limiter à 30 % l'apport calorique venant de matières grasses et à 10 % la part de cet apport issue des graisses saturées, n’ont plus de fondements scientifiques assez solides et sont à corriger. Mahshid Dehghan estime même que, si l'on remplaçait 5 % de l'apport calorique venant des glucides par des acides gras polyinsaturés, on diminuerait la mortalité d'environ 12 %.
A première vue, l’affaire semble entendue : pendant des décennies, médecins et scientifiques se seraient trop focalisés sur les supposés effets nocifs des graisses pour le cœur et, se concentrant sur cet « arbre » des graisses, ils n’auraient pas vu ou pas voulu voir la forêt, autrement plus dangereuse pour notre santé, que représente une consommation excessive des différents types de sucre.
Mais les choses ne sont peut-être pas aussi simples. Certains scientifiques, dont le Docteur Hansel, font notamment valoir que cette étude PURE concerne principalement des sujets vivant dans des pays de faible niveau économique. Ces chercheurs soulignent que l’étude PURE ne prend pas suffisamment en compte le poids et la diversité des cadres socio-culturels dans lesquels s’inscrivent les habitudes alimentaires très variées des participants à cette étude.
Le Docteur Hansel rappelle que « Si la plupart des participants de cette étude ont une alimentation pauvre en graisses saturées, et riche en glucides, c’est, de manière logique, parce qu’ils disposent de faibles revenus et mangent peu de viande et beaucoup de féculents ». Le Docteur Hansel souligne également que cette étude ne prend pas en compte un facteur pourtant très important : l’indice de masse corporelle des participants, qui varie évidemment de manière considérable d’un pays à l’autre.
Sans nier l’intérêt de ce travail et le fait qu’il a le mérite d’enrichir le débat scientifique sur la question complexe des effets de l’alimentation sur la santé, le Docteur Hansel considère qu’il est tout à fait prématuré d’abandonner toutes les recommandations actuelles concernant les effets néfastes d’une consommation excessive de graisses. Selon lui, il convient de rester prudent, surtout sur le rôle des graisses saturées et se situer dans un cadre de réflexion plus vaste pour interpréter de manière correcte les résultats de cette étude polémique. Toutefois, cet éminent chercheur admet qu’il faut probablement aller vers une réduction de la part des hydrates de carbone dans l’apport calorique total à moins de 60 %, au profit des graisses insaturées.
Le Docteur Hansel souligne également qu’un autre volet de l’étude PURE, intitulé « Impact de la consommation de fruits et légumes sur la santé cardiovasculaire et la mortalité dans 18 pays » montre de manière solide qu’une consommation de seulement 3 à 4 portions de fruits et légumes par jour suffisait à réduire le risque de mortalité globale de 22 % . Il conviendrait donc, selon lui, de réévaluer le rôle protecteur des fruits et légumes qui peuvent sans doute compenser, chez certaines populations présentant un profil génétique particulier, les effets néfastes d’une forte consommation de graisses, y compris saturées…
Pour ajouter encore un peu plus de confusion au sein de ce débat de plus en plus vif sur le rôle réel des graisses en matière de santé, une étude danoise récente s’est penchée sur les personnes ayant un taux très élevé de HDL, le « bon cholestérol » (Voir étude dans l'EHJ). Ces chercheurs ont étudié pendant 6 ans plus de 116 000 personnes âgées de 20 à 100 ans. Au cours de l’étude, 10 500 hommes et femmes sont décédés.
Mais, à leur grande surprise, ces chercheurs ont observé que les sujets ayant les taux les plus élevés de HDL ont un risque de mortalité (toutes causes confondues) nettement plus grand : dans ce cas de figure, ce risque est en effet doublé pour les hommes et majoré de 68 % pour les femmes. Mais ces travaux montrent également que les sujets ayant des taux extrêmement bas de cholestérol HDL ont aussi un risque de mortalité nettement plus important et qu’il est préférable de se situer au milieu de la « fourchette », en ce qui concerne le « bon » cholestérol.
Il faut enfin évoquer deux autres études très intéressantes portant sur les effets surprenants du régime cétogène en matière de longévité et de protection cognitive. La première a été réalisée par des chercheurs du Buck Institute for Research on Aging. Ces scientifiques ont étudié sur des souris les effets du régime cétogène, qui consiste à privilégier la consommation de lipides (matières grasses) et de protéines mais à supprimer la consommation de sucres.
Dans cette étude, des souris ont été soumises pendant deux ans à trois régimes distincts. Le premier comportait une alimentation à haute teneur en glucides, le deuxième était un régime cétogène, et donc sans glucides, et le troisième un régime à haute teneur en matières grasses et faible en glucides. Conclusions : les souris soumises au régime cétogène avaient un risque de mortalité plus faible que celles soumises au deux autres régimes.
Mais, de manière plus inattendue, les souris soumises au régime cétogène connaissaient un déclin cognitif sensiblement plus faible en vieillissant et réussissaient mieux les différents tests d’orientation et de mémorisation. Selon ces chercheurs, ces bonnes performances cognitives pourraient s’expliquer par le fait que le régime cétogène modifie l'expression de certains gènes afin que le corps métabolise plus efficacement la graisse. Fort de ces résultats, la même équipe de recherche a commencé une nouvelle étude visant à évaluer l’impact du régime cétogène sur le cerveau de souris atteintes de la maladie d'Alzheimer.
La seconde étude, intitulée « Le régime cétogène réduit la mortalité et améliore la mémoire chez les souris âgées » a été menée par des chercheurs de l'Université de Californie à Davis a confirmé cette découverte. Ces recherches ont montré que des souris bénéficiant du régime cétogène ont vu leur déclin cognitif sensiblement réduit en vieillissant et leur durée de vie augmentée de 13 %, soit un gain d’une dizaine d’années à l’échelle d’une vie humaine. « Bien que nous espérions des effets positifs avec cette expérience, les résultats obtenus dépassent toutes nos attentes » souligne le Professeur Ramsey, qui a dirigé ces travaux.
Ces différentes études et recherches, malgré leurs lacunes et leurs contradictions, ont le mérite très salutaire de remettre en cause des dogmes et certitudes bien établis et d’ouvrir de nouveaux et passionnants champs d’investigation pour mieux comprendre les liens intriqués, complexes et subtils qui relient nos habitudes alimentaires et notre santé, liens qui doivent toujours être considérés globalement, dans leurs dimensions sociales et culturelles. Il convient cependant, tout en poursuivant les recherches dans ce domaine, de rester prudent dans l'interprétation de ces études et de ne pas balayer d'un revers de main l'ensemble des acquis de plusieurs décennies de travaux.
A cet égard, l'affaire des statines mérite réflexion. Ces médicaments, largement utilisés dans le monde, forment une classe d'hypolipémiants, utilisés comme médicaments pour baisser la cholestérolémie. Mais depuis quelques mois, certains scientifiques multiplient les affirmations péremptoires et très médiatisées, pour nous expliquer que les statines n'auraient en réalité aucune efficacité et ne réduiraient absolument pas la mortalité cardiovasculaire. Ces dénonciations ont trouvé, comme toujours, un large écho auprès du grand public, jusqu'à ce qu'une vaste et rigoureuse étude portant sur 5 500 personnes suivies pendant 20 ans, publiée il y a quelques jours et réalisée par des chercheurs anglais dirigés par le professeur Kausik Ray (Imperial College de Londres) n'établisse que ces statines avaient bel et bien permis une baisse de la mortalité de 28 % chez les patients étudiés...
Nous pouvons en outre espérer que demain, les progrès d’une jeune et prometteuse discipline, la nutrigénomique, nous permettront d’accorder nos habitudes alimentaires à nos caractéristiques génétiques personnelles, ce qui nous permettra, non seulement d’éviter de nombreuses maladies, y compris les redoutables pathologies neurodégénératives, mais peut-être également de faire sauter cette fameuse barrière de longévité maximale, que certains scientifiques, depuis deux siècles, prétendent insurmontable…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Intel, le leader mondial des semi-conducteurs s'engage à son tour, après IBM, dans la course technologique vers le puce neuromorphique, spécifiquement conçue pour tirer le meilleur parti des applications d'intelligence artificielle. Le géant de l'électronique vient de présenter sa puce Loihi, développée en partenariat avec le Caltech (California Institute of Technology) pour prendre en charge les tâches d’auto apprentissage statistique (Machine learning) à partir des données qui la nourrissent. De quoi accélérer les applications d’intelligence artificielle.
Les puces neuromorphiques devraient être sur le marché vers 2022. Il s'agit de circuits intégrés électroniques construits pour imiter le fonctionnement du cerveau. Elles présentent l’avantage d’être beaucoup plus rapides que les processeurs traditionnels tout en consommant beaucoup moins d'énergie.
Avec Loihi, Intel rejoint IBM dans la course au calcul neuromorphique. La puce TrueNorth, dévoilée en 2014 par Big Blue, reste la référence des développements dans ce domaine. Elle affiche plus d’un million de neurones et 268 millions de synapses. Elle consomme seulement 70 milliwatts, 10 000 fois moins que les processeurs classiques actuels.
La puce neuromorphique d’Intel affiche des caractéristiques plus modestes. Réalisée en gravure de 14 nanomètres, elle présente 130 000 neurones et 130 millions de synapses. Selon les tests des chercheurs dans des tâches d’auto apprentissage statistique, elle serait un million de fois plus rapide et 1 000 fois plus économe en énergie que les processeurs classiques à usage général. En utilisant les données pour apprendre elle-même et faire des inférences, elle devient toujours plus intelligente, s’ouvrant un champ illimité d’applications.
Article rédigé par Georges Simmonds pour RT Flash
Intel
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l'Université Columbia de New-York propose que l'on utilise la vapeur d'eau qui s'échappe de grandes étendues d'eau comme source d'énergie non polluante.
Cette étude souligne que la surface terrestre absorbe environ 48 % de la lumière provenant du Soleil. Un montant équivalent d'énergie est restitué par la surface terrestre sous la forme d'évaporation (25 %), de convection (5 %) et de rayonnement thermique. Pour le Dr. Ahmet-Hamdi Cavusoglu et ses collègues, l'évaporation naturelle représente une source d'énergie à fort potentiel que nous avons la capacité technique d'exploiter.
Pour ces scientifiques, elle pourrait même égaler le solaire et l'éolien : ils estiment à 325 gigawatts la puissance provenant de l'évaporation des lacs et réservoirs d'eau de plus de 10 hectares aux Etats-Unis (à l'exclusion des Grands Lacs), ce qui représente 69 % de l'énergie électrique générée aux USA en 2015.
Cette forme d'énergie présente l'avantage d'être bien moins dépendante des conditions météorologiques que le solaire ou l'éolien, et ne serait donc pas intermittente, ce qui est important dans les régions où l'alimentation électrique varie en fonction des saisons et où les coupures peuvent être nombreuses. Elle serait également doublement utile dans des régions souffrant de la sécheresse et permettrait, selon cette étude, de diviser par deux les pertes d'eau par évaporation.
Ces recherches précisent que pour les seuls Etats-Unis, 96,4 milliards de mètres cubes d'eau pourraient être récupérés chaque année grâce à une partie de l'évaporation récupérée dans le processus de production d'électricité.
Les auteurs de l'étude ont pris l'exemple d'une retenue d'eau artificielle, le E.V. Spence Reservoir, dans le Texas. En recouvrant cette étendue d'eau de 38 km2 d'une centrale à évaporation, cela générerait une puissance de 178 mégawatts. "C'est 62 MW de plus que la phase 4 de la ferme éolienne de Sweetwater proche", comparent-ils. Sur un plan plus global, "nos résultats montrent que l'énergie potentielle disponible excéderait la demande dans 15 des 47 états des Etats-Unis, et économiserait plus d'eau potable qu'il en est consommé dans 7 de ces 15 états", explique l'équipe du Dr. Cavusoglu.
Pas question pour autant de recouvrir tous les lacs précise l'étude qui insiste sur le fait que ces centrales à évaporation doivent être implantées au cas par cas, en tenant bien compte du contexte local, de manière à ne pas avoir un impact négatif sur les ressources en eau locales ou sur les autres utilisations de ces lacs (pêche, loisirs...).
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Les chercheurs japonais du Tokyo Institute of Technology (Tokyo Tech) ont développé un catalyseur réutilisable, hautement efficace pour la production d’amines primaires. Ce catalyseur pourrait potentiellement révolutionner la production de combustibles biologiques, pharmaceutiques, produits chimiques agricoles et plus encore.
Les amines primaires, qui sont des dérivés de l’ammoniac, sont des composés importants utilisés dans la préparation d’une large gamme de colorants, détergents et médicaments. Bien que de nombreuses tentatives aient été faites pour améliorer leur synthèse, notamment en utilisant des catalyseurs contenant du nickel, du palladium et du platine, entre autres, peu d’entre elles ont réussi à diminuer la formation d’amines secondaires et tertiaires ainsi que d’autres sous-produits indésirables.
Michikazu Hara, du Laboratoire de matériaux et de structures du Tokyo Tech, et ses collègues de travail, ont exploré avec quelle efficacité un nouveau catalyseur pourrait décomposer de la biomasse (sous forme de glucose) en 2,5-bis (aminométhyl) furane, un monomère servant à la production d’aramide. Des expériences antérieures utilisant un catalyseur à base de nickel avaient conduit à un rendement d’environ 50 % en utilisant des matières premières dérivées du glucose (5-hydroxyméthylfurfural).
Le nouveau catalyseur utilisé en combinaison avec un complexe appelé ruthénium-xantphos a produit un rendement de 93 % avec peu ou pas de sous-produits observé. La méthode Ru / Nb 2 O 5 représente ainsi une percée majeure dans la production propre et à grande échelle de matériaux dérivés de la biomasse.
D’autres études visant à développer ces résultats sont déjà en cours. En poussant les limites de la conception matérielle, les chercheurs affirment que la méthode Ru / Nb 2 O 5 peut accélérer la production de plastiques respectueux de l’environnement, de caoutchouc et de fibres d’aramide résistant à la chaleur.
À l’avenir, le catalyseur Ru / Nb 2 O 5 pourrait également avoir un impact sur le développement de nouveaux médicaments anticancéreux, anti-bactériens, pesticides, produits agrochimiques, engrais, bio-huiles et biocarburants.
Article rédigé par Georges Simmonds pour RT Flash
Smartgrids
|
|
|
|
|
|
|
|
L'autonomie insuffisante des batteries des voitures électriques reste, avec le temps de recharge, un obstacle rédhibitoire qui freine l'adoption massive de ces nouveaux véhicules : pour l'instant, seuls quelques modèles offrent une autonomie supérieure à 400 kilomètres, ce qui reste bien inférieur à l'autonomie d'une voiture thermique.
Le géant coréen Samsung, qui est également un constructeur de batteries rechargeables, tente de se faire une place dans le secteur naissant des batteries pour véhicules électriques et a présenté au salon automobile de Francfort sa toute dernière innovation dans le domaine.
Samsung a annoncé avoir réussi l'exploit d'améliorer la densité de l'énergie : le groupe a réussi à améliorer l'autonomie d'un module de batterie sans devoir en altérer la taille. Et la taille est un paramètre important : une voiture ne peut embarquer qu'un nombre limité de modules, du fait de la place limitée qui leur est réservée dans la carrosserie.
Samsung annonce un module qui, embarqué sur une Tesla Model S P100D, permettrait d'améliorer l'autonomie de 11 %. Alors que les 16 modules présents dans les Tesla Model S P100D offrent une autonomie de 506 kilomètres, Samsung annonce que 16 de ses modules pousseraient cette autonomie à 560 kilomètres.
Le géant sud-coréen estime que la taille de cette nouvelle batterie permettrait d'en embarquer jusqu'à 20 sur les véhicules premium, ce qui leur offrirait une autonomie de 700 kilomètres pour une charge. Une berline classique pourrait facilement embarquer jusqu'à 12 modules, qui représentent une autonomie de 305 kilomètres.
Article rédigé par Georges Simmonds pour RT Flash
Turbo
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le port de Rotterdam va sans doute accueillir à l'horizon 2020-2022 un bâtiment hors norme, The Dutch Windwheel. Cet édifice conçu par l'architecte néerlandais Duzan Doepel a la particularité d'être multifonctionnel. Ses anneaux concentriques, d'une hauteur de 174 mètres, serviront à la fois d'immeuble d'habitation, de centre commercial, d'hôtel haut de gamme mais également d'éolienne gigantesque capable de générer une puissance énergétique impressionnante.
Le concepteur de la Windwheel a souhaité que son bâtiment soit autonome en énergie. Pour cela, un ingénieux système, l'Ewicon, a été mis au point pour recueillir les gouttes d'eau en suspension dans l'air et les transformer en énergie. Des panneaux photovoltaïques viennent compléter la production énergétique pour une parfaite autosuffisance des lieux.
Pour réduire la pollution, tous les déchets sont collectés et incinérés sur place pour obtenir du biocarburant utilisé pour l'alimentation en énergie des voitures des résidents. La Windwheel devrait devenir un site emblématique de la ville de Rotterdam et accueillir un million et demi de touristes par an. Dotée d'une architecture atypique, la circonférence impressionnante de ses anneaux lui permettra de dominer majestueusement le port néerlandais.
Article rédigé par Georges Simmonds pour RT Flash
Dutch Windwheel
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Arbiom et les autres porteurs du projet Sylfeed vont tenter d’industrialiser la production de protéines végétales pour l’alimentation des poissons d’élevage à base de produits ligneux. Un démonstrateur industriel devrait être installé sur le site de Norske Skog à Golbey (Vosges).
Ce projet consiste à mettre en place, avec 7 partenaires européens, une chaîne de valeur allant de l’approvisionnement en biomasse (déchets de bois) à un produit fini destiné à l’alimentation en aquaculture. Actuellement, en Europe, le secteur est dépendant à 70 % des importations de protéines et d'après les porteurs du projet, il existe un marché pour plus de 50 bioraffineries de lignocellulose, soit une production de 1,4 million de tonnes de protéines végétales.
Le projet Sylfeed réunit 8 acteurs représentant 5 pays d’Europe de l’Ouest et du Nord (France, Suède, Belgique, Islande et Norvège). L’approvisionnement en déchets de bois et le démonstrateur industriel (5000 tonnes/an de lignocellulose) seraient pris en charge par Norske Skog Golbey (Vosges), un des leaders européens de la production de papier journal, grâce à un procédé de fractionnement de la biomasse et de conversion en protéines unicellulaires développé par Arbiom (ex-Biométhodes), accompagné par l’institut de recherche suédois RISE Processum.
Le traitement à l’échelle industrielle de l’acide phosphorique (en boucle fermée) serait effectué par la société belge Prayon, leader mondial du secteur. La nourriture aquacole ainsi obtenue, formulée et testée par l’institut de recherche islandais Matis, serait validée par Laxa en Islande et Skretting en Norvège.
Ce projet "permet à la fois d'ouvrir la biomasse forestière à de nouveaux débouchés et de franchir la dernière étape avant la concrétisation de la construction d'une future usine à grande échelle sur le site de Golbey", a commenté Yves Bailly, PDG de Norske Skog Golbey.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Nouvelle
|
|
|
|
|
|
|
|
L'étude CheckMate-214, qui vient d'être présentée à Madrid, dans le cadre du congrès de la Société européenne d'oncologie médicale, constitue une avancée majeure pour une meilleure prise en charge thérapeutique du cancer du rein métastatique.
Dans cet essai, une combinaison d’immunothérapies comprenant du nivolumab et de l’ipilimumab a réduit de 37 % le risque de décès, comparé au sunitinib (anti-tyrosine kinase) chez les patients à risque à pronostic intermédiaire et défavorable. Cette augmentation très significative de la survie globale dans ce sous-groupe de patients a d’ailleurs conduit à l’arrêt de l’étude pour permettre aux patients de basculer dans l’autre groupe.
En revanche, chez les patients atteints d'un cancer du rein avancé ou métastatique de risque à pronostic favorable, le sunitinib fait mieux en termes de survie sans progression et de taux de réponse, a précisé le Professeur Bernard Escudier (Institut Gustave Roussy, Villejuif) lors de la présentation des résultats en session présidentielle.
"Nivolumab et ipilimumab ont induit un taux de réponse objective élevé, dont la qualité est soulignée par le taux de rémission complète, la durée de réponse et sa traduction en termes de survie globale", a considéré le Docteur Manuela Schmidinger.
A la lumière de cette étude, la combinaison des immunothérapies nivolumab et ipilimumab pourrait donc devenir le nouveau traitement standard pour les patients avec un cancer du rein métastatique à haut risque.
Article rédigé par Georges Simmonds pour RT Flash
BMS
|
|
|
|
|
|
|
|
Selon une étude australienne, l'une des premières du genre concernant l'être humain, présentée à l'occasion du congrès de l'Association européenne d'études du diabète (EASD), certains édulcorants perturbent chez l'homme l’absorption intestinale du glucose.
« Deux semaines de supplémentation avec des édulcorants augmentent l’absorption du glucose, la réponse glycémique et limitent la réponse en glucagon-like peptide-1 (GLP-1) », a résumé le Professeur Richard Young (University of Adelaïde, Australie). L’hypothèse est donc que la consommation d’édulcorants à forte dose pourrait favoriser l’apparition d’un diabète de type 2.
Cette étude en double aveugle contre placebo a été menée chez 27 sujets jeunes, volontaires sains. Le premier groupe a pris 3 fois par jours une capsule d’édulcorants, soit l’équivalent d’1,2 à 1,5 L de boisson light, et le second groupe a pris un placebo. La capsule « active » renfermait 92 mg de sucralose et 52 mg d’acésulfame K. Le traitement a été poursuivi durant 15 jours.
Après une nuit à jeun, les sujets ont subi une endoscopie (sans sédation), et reçu une perfusion intraduodénale de 30 minutes d’une solution glucosée de 150 ml, contenant 30 g de glucose. Une biopsie a été réalisée avant et après la perfusion, et l’absorption de glucose a été mesurée, ainsi que la réponse glycémique et les taux d’insuline, de GLP-1, de GLP-2 et de GIP (glucose-dependant insulinotropic peptide, qui appartient à la classe des incrétines, comme les GLP).
Initialement, les 17 sujets du groupe édulcorants, et les 16 sujets du groupe placebo présentaient des valeurs similaires pour tous ces paramètres. Par ailleurs dans le groupe placebo, les valeurs relevées au terme des deux semaines d’expérience ne différaient pas des valeurs de départ. Dans le groupe « édulcorants », en revanche, l’absorption de glucose avait significativement augmenté.
Article rédigé par Georges Simmonds pour RT Flash
Newsmax
|
|
|
|
|
|
|
|
Lors de l’accouchement prématuré, le travail est associé chez la maman ou le bébé à des phénomènes inflammatoires, souvent liés à une infection. Une inflammation qui peut, en retour, causer des lésions cérébrales parfois si importantes qu’elles entraînent des séquelles à vie. Ainsi, environ 30 % des bébés prématurés sont atteints de paralysies cérébrales, ou de troubles comportementaux.
Afin de mieux comprendre les mécanismes de ces réponses immunitaires invalidantes, une vaste étude collaborative a été menée. Trois équipes de recherches basées à Londres, Singapour et Paris (Unité Inserm “Neuroprotection du cerveau en développement”, Université Paris Diderot), ont travaillé de concert. Plus de 500 examens cérébraux de nouveau-nés prématurés ont fait l’objet d’une analyse génomique. En parallèle, des modèles expérimentaux d’inflammation ont été conduits chez l’animal (souris).
Les chercheurs ont ainsi pu identifier un gène, appelé DLG4. Présent dans des cellules du cerveau dites microgliales, il existe sous différentes formes chez tous les êtres humains. Jusqu’à maintenant, on lui prêtait surtout un rôle dans le fonctionnement des neurones.
Or, les chercheurs viennent de mettre en évidence que DGL4 est exprimé différemment dans la microglie lorsqu’une réponse inflammatoire se produit dans le tissu cérébral. Ce qui suggère fortement que le gène DLG4 est impliqué ou participe à l’inflammation du cerveau du prématuré.
Cette découverte démontre l’existence d’un mécanisme spécifique, inconnu jusqu'à présent, dans l’apparition de lésions cérébrales du prématuré. Pour Pierre Gressens, le directeur de l’équipe de recherche française, « en développant ce travail, une nouvelle voie pour étudier et comprendre comment cette inflammation et les dommages cérébraux ultérieurs sont causés, est envisageable ».
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Retenez bien son nom car elle fera beaucoup parler d'elle dans les années à venir : ECL, ou Endomicroscopie confocale par laser. Cette nouvelle et remarquable technologie développée par les chercheurs de l’Université d’Édimbourg, en Ecosse, permet littéralement de voir l’intérieur du corps humain au travers de diverses structures. On doit pouvoir passer un tube de 22 mm au centre de ces renforts ; elle peut en effet détecter des sources lumineuses se cachant derrière près de 20 centimètres de tissu corporel.
Le prototype de caméra actuel, est conçu pour fonctionner conjointement avec les endoscopes (ces longs et minces instruments qui sont souvent équipés de caméras, de capteurs et de lumières pour regarder à l’intérieur des cavités creuses dans le corps humain).
Cette nouvelle caméra peut détecter des sources de lumière dans le corps, telles que l’extrémité lumineuse du tube flexible de l’endoscope, afin de le repérer avec précision.
Grâce à des milliers de détecteurs de photons intégrés à l’intérieur de la caméra, l’appareil peut en effet détecter des particules individuelles de lumière à travers les tissus humains. Généralement, lorsque les photons entrent en contact avec les structures corporelles, la lumière se diffuse ou est renvoyée sur les tissus. Mais grâce à la sensibilité élevée de la nouvelle caméra, cette dernière peut tout de même détecter ne serait-ce que d’infimes traces de lumière à l’intérieur du corps.
En conciliant les signaux lumineux directement observés par la caméra avec les photons dispersés (qui parcourent de plus longues distances et donc prennent plus de temps à atteindre la caméra), l’appareil peut déterminer de manière très précise où l’endoscope émet de la lumière et par conséquent, où il se trouve à l’intérieur du corps.
Cette technique, qui différencie les photons dispersés et balistiques (dits directs), s’appelle l’imagerie balistique et pourrait bien aider les physiciens à comprendre l’emplacement corporel interne exact observé avec l’endoscope. Cette information peut être extrêmement précieuse en termes de diagnostic et de détermination du type de traitement à prodiguer au patient.
"C’est une technologie permettant de littéralement voir à travers le corps humain", explique le chercheur Kev Dhaliwal. "La capacité de voir l’emplacement d’un appareil est cruciale pour de nombreuses applications dans le domaine de la santé". Les chercheurs affirment que la vision améliorée fournie par la nouvelle caméra permettra aux médecins de visualiser à la fois la pointe et la longueur totale de l’endoscope qu’ils utilisent.
Article rédigé par Georges Simmonds pour RT Flash
OSA
|
|
|
|
|
|
|
|
Décidément, notre cerveau n'a pas fini de nous étonner : des recherches dirigées par Simon W. Davis, chercheur au centre de neurosciences cognitives de l’Université de Duke, en Caroline du Nord, ont en effet montré que pour pallier le vieillissement, notre cerveau augmenterait le flux d’informations entre son hémisphère droit et son hémisphère gauche !
Ces travaux révèlent un phénomène de compensation pour répondre aux déclins physiologique et biologique dus à l’âge. Ainsi, en effectuant une stimulation magnétique transcrânienne, ils se sont aperçu qu’en fonction de l’âge, le cerveau était le lieu d’une communication neuronale plus ou moins intense qui permettrait de stabiliser le système cognitif du sujet.
Cette élévation du flux neuronal se produirait entre l’hémisphère droit et l’hémisphère gauche du cerveau via le corps calleux, ce faisceau d’axones délivrant l’information cérébrale entre ces deux structures quasi symétriques.
L’étude avance aussi une meilleure communication cérébrale chez les personnes détenant une importante quantité de matière blanche, caractéristique de la gaine de myéline au rôle protecteur et recouvrant les axones.
Les axones acheminent ensuite l’information neuronale jusque dans la matière grise où se trouve l’intégralité des corps neuronaux. Le lien entre substance blanche et communication neuronale était déjà connu, mais ces informations renforcent les résultats obtenus par Simon W. Davis. Plus la matière blanche d’un sujet est importante, plus son système cognitif restera stable au fil du temps.
Article rédigé par Georges Simmonds pour RT Flash
Research Gate
|
|
|
|
|
|
|
|
Selon une étude de l'Université britannique d'Exeter, les poissons auraient une personnalité complexe et réagiraient chacun avec leur propre caractère face au danger, certains se montrant plus courageux que d'autres.
Les chercheurs ont étudié une population de guppys, petits poissons d'Amérique du sud supportant bien la vie en aquarium, et ont remarqué que chaque individu répondait de façon répétée à sa manière au stress, même placé dans plusieurs situations différentes.
Plongés dans un environnement non familier, les guppys ont des stratégies différentes pour affronter cette situation stressante, bon nombre essaient de se cacher, d'autres tentent de s'échapper, d'autres enfin explorent prudemment les lieux etc. a relevé Tom Houslay, du Centre pour l'écologie et la conservation de l'Université d'Exeter.
L'expérience a été menée à plusieurs reprises et à chaque fois, les guppys s'en tenaient à leur même ligne de conduite, relève l'étude, parue dans la revue Functional Ecology.
Prochaine phase de la recherche : les enquêteurs tenteront de déterminer la part génétique et la part liée à l'environnement dictant ces différents comportements, pour mieux comprendre le processus d'évolution et voir si les différentes stratégies de comportement persistent lorsque l'espèce évolue, a expliqué le professeur Alastair Wilson.
Article rédigé par Georges Simmonds pour RT Flash
Exeter
|
|
|
|
|
|
|
|
Une intéressante étude de la Penn, publiée dans la revue Nature Genetics, a montré que le diabète et les maladies cardiaques, les deux maladies chroniques entraînant les plus grands fardeaux sanitaires, sont liés par des bases génétiques communes. Ces variantes génétiques, facteurs de risque conjoint pour ces deux maladies qui constituent de nouvelles cibles en puissance pour de futures thérapies bien sûr.
Les chercheurs de Pennsylvanie nous rappellent l’ampleur de l’épidémie de diabète de type 2, une maladie chronique qui touche aujourd’hui plus de 380 millions de personnes à travers le monde. En dépit de son ampleur, la compréhension de son étiologie présente encore des lacunes. Si on sait que le diabète de type 2 est également un facteur de risque important de maladies coronariennes, on ne connaît pas les voies biologiques qui expliquent cette connexion entre les 2 pathologies. Cette large analyse de données génétiques qui examine les variantes associées au diabète puis au risque cardiovasculaire révèle un lien génétique.
L’analyse des données de séquençage du génome de plus de 250.000 personnes a permis de découvrir de nouveaux facteurs de risque génétique du diabète et un nouveau facteur de risque cardiovasculaire. Cette découverte suggère de nouvelles hypothèses sur les mécanismes des deux maladies car la plupart des sites du génome associés au risque de diabète sont également associés à un risque accru de maladie coronarienne. Pour 8 de ces sites (loci), les chercheurs identifient une variante qui influence le risque pour les deux maladies.
Seul résultat surprenant, une variante du gène pour la protéine anti-cholestérol ApoE, qui se révèle associée à un risque plus élevé de diabète, mais à un risque plus faible de maladie coronarienne. Enfin, certaines variantes sont plus impactantes que d’autres : les variantes qui augmentent le risque d'obésité ou d'hypertension artérielle, par exemple, semblent stimuler le risque de maladie coronarienne plus fortement que les variantes qui altèrent les taux d'insuline ou de glucose.
Ces facteurs affectent des voies biologiques bien spécifiques, impliquées dans l'immunité, la prolifération cellulaire et le développement cardiaque. L'identification de ces variantes génétiques liées à la fois au diabète de type 2 et au risque coronarien ouvre l’opportunité de réduire le risque des 2 pathologies avec 1 seul médicament. « De ce point de vue, il serait logique de se concentrer sur les voies les plus fortement liées aux deux maladies », commente le Docteur Saleheen, professeur adjoint de biostatistique et d'épidémiologie.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Par rapport à l'ensemble de la population, les patients victimes d'un accident vasculaire cérébral (AVC) ont presque deux fois plus de risque d'être également atteint d'un cancer, selon une petite étude espagnole, dont les résultats ont été présentés lors du Congrès de la Société Européenne d’oncologie médicale (European Society for Medical Oncology, ESMO) 2017 à Madrid.
Dans la moitié des cas, les cancers ont été diagnostiqués dans les six mois après l'AVC et généralement à un stade avancé. « Ce qui suggère que, lorsqu'est survenu l'AVC, le cancer était déjà présent, mais à un stade asymptomatique », a commenté l'auteur principal de l'étude, le Docteur Jacobo Rogado (Hôpital La Princesa, Madrid, Espagne).
L'étude a porté sur 381 patients pris en charge pour un AVC, entre 2012 et 2014, au centre hospitalier madrilène La Princesa. Etaient exclus ceux qui avaient déjà eu un cancer dans les cinq années précédentes. Après leur sortie d'hôpital, les patients ont été suivis pendant une période de 18 mois.
Au cours du suivi, un cancer a été diagnostiqué chez 7,6 % des patients (n=29). En considérant une incidence dans la population générale évaluée à 4,5 % pour une même période, « l'incidence du cancer chez les patients victimes d'AVC est quasiment multipliée par deux », souligne le Docteur Rogado.
Il s'agissait dans la majorité des cas de tumeurs localisées au niveau du côlon (24 %), des poumons (14 %) ou de la prostate (14 %). Pour près de la moitié des patients (45 %), le diagnostic a été posé moins de six mois après l'AVC et à un stade avancé dans deux-tiers des cas.
La comparaison des données cliniques des patients a permis d'identifier quatre facteurs de risque associés à l'apparition d'un cancer chez ces patients : un âge avancé, un niveau élevé de fibrinogène, un faible taux d'hémoglobine et des antécédents de cancer.
Selon le Docteur Rogado, le niveau plus élevé de fibrinogène observé chez les patients atteints d'un cancer conforte l'hypothèse d'une stimulation de la coagulation par les cellules tumorales. « L'effet pro-thrombotique du cancer pourrait ainsi contribuer à l'apparition d'un AVC », suggère-t-il. « Les victimes d'un AVC devraient bénéficier d'un suivi pendant 18 mois pour surveiller le développement d'un éventuel cancer », estime le chercheur. En particulier ceux présentant les facteurs de risque.
Article rédigé par Georges Simmonds pour RT Flash
DDDmag
|
|
|
|
|
|
|
|
Depuis six mois, l'équipe de Vincent Roualdes, neurochirurgien au CHU de Nantes, travaille sur un dispositif qui permet de piloter un drone par la pensée en s’appuyant sur un électro-encéphalogramme. Il s’agit d’une des applications possibles des interfaces neuronales directes (ou BCI pour Brain Computer Interface) sur lesquelles travaille le neurochirurgien.
"Concrètement, nous relions le casque à un ordinateur. Des algorithmes nous permettent ensuite d’analyser en temps réel le signal électrique produit par l'activité cérébrale", explique Vincent Roualdes. Pour ce projet, l’équipe a adapté des algorithmes existants afin de mettre au point un système robuste capable de contrôler un drone de manière tridimensionnelle avec un large panel de commandes, et accessible à tous. "Nous utilisons un drone du marché, des cartes électroniques encéphalographiques et un logiciel open-source."
Depuis trois ans, Vincent Roualdes a été rejoint par Aurélien Van Langhenhove, ingénieur spécialisé dans les interfaces hommes-machines. Un partenariat a aussi été noué avec l'Ecole Centrale de Nantes. "Chaque année, nous accueillons deux élèves ingénieurs pour travailler sur le développement de "briques technologiques", comme celles du projet drone." Des briques technologiques qui sont ensuite transférées sur des applications purement médicales, comme l’assistance à la conduite d’un fauteuil.
L’équipe mène plusieurs projets médicaux de front. Courant 2018, elle doit démarrer une étude clinique sur le traitement par neurofeedback à l'aide d'interfaces non invasives et réalité virtuelle des douleurs fantômes liées à l’amputation ou la paralysie d’un membre. Des applications sont aussi possibles en matière de chirurgie éveillée ou pour personnaliser la neurostimulation cérébrale de patients atteints de la maladie de Parkinson. "Par neurofeedback, on est capable de montrer à un patient les effets de ses actions neuronales. Et mettre en place un véritable entraînement pour lui permettre de retrouver certains gestes ou actions cognitives".
Techniquement, Vincent Roualdes travaille surtout sur des systèmes invasifs. "Les systèmes non invasifs comme les casques ont des limites majeures liées à la qualité du signal. Un dispositif intracrânien permet d’obtenir beaucoup plus d'informations". Le neurochirurgien estime que, techniquement, ces applications médicales ne seront pas opérationnelles avant cinq ans. "Les délais sont longs. Mais cela s’explique par la rigueur nécessaire et imposée par la réglementation sur la recherche clinique".
D’ici là, il entend, avec son équipe, poursuivre ses travaux de recherche autour des interfaces hommes-machines. "Deux thésards et stagiaires devraient rejoindre l’équipe courant 2018. Et nous voulons créer, avec d’autres acteurs nantais, un laboratoire dédié aux interfaces cerveaux-ordinateurs à but médical."
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Digitale
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|