RTFlash

RTFLASH Recherche & Technologie
NUMERO 814
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Septembre 2015
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Matière
Les vaisseaux spatiaux bientôt équipés d’une -peau- auto-cicatrisante ?
Une batterie en aluminium plus propre et plus performante
Espace
Un robot humanoïde capable de transmettre des connaissances entre les équipages de stations spatiales
Vivant
L'effet -cocktail- confirmé par des chercheurs français
ESC 2015 : un nouvel algorithme pour confirmer l’infarctus en une heure
Un capteur pour détecter précocement le cancer
Découverte d’un nouveau mécanisme d’action d’une protéine toxique dans la maladie de Parkinson
Des chercheurs découvrent une protéine qui bloque le cancer
Une demi-heure de marche par jour : jusqu'à sept années de vie gagnées !
Leucémie : deux avancées majeures
Modéliser le cancer pour mieux le combattre
Une consommation excessive de boissons gazeuses pourrait augmenter le risque cardiovasculaire
Alzheimer : une maladie métabolique ?
Paludisme : un nouveau traitement en vue
Edito
Comment nourrir la planète en 2050 ?



Selon une récente étude réalisée par l’OCDE et la FAO, la production agricole mondiale devrait augmenter de 1,5 % par an d’ici 2024, soit un rythme moins soutenu (2,5 % par an) qu’au cours des 10 dernières années (Voir FAO).

Et pourtant la FAO rappelle qu’il va falloir augmenter d’au moins 70 % la production agricole mondiale d’ici à 2050 pour pouvoir nourrir correctement les 9,5 milliards de personnes qui peupleront la Terre à cet horizon. Dans les pays en développement, cette production devra même doubler d’ici le milieu du siècle, ce qui risque d’entraîner des tensions de plus en plus fortes sur les marchés alimentaires au cours des prochaines décennies.

Pour la FAO et l’OCDE, en Asie, en Europe et en Amérique du Nord, la croissance sera tirée par l’amélioration des rendements, tandis qu’en Amérique du Sud et en Afrique, le facteur déterminant sera l’accroissement de la surface agricole. Selon cette étude, dans 10 ans, la production mondiale de céréales devrait augmenter de 14 % et celle de viande de 17%, avec une demande en forte croissance dans les pays en développement. La production mondiale de biocarburants devrait, quant à elle, croître plus lentement, du moins tant que le prix moyen du pétrole restera au niveau très bas qu’il a atteint actuellement.

Fait remarquable, selon le dernier rapport du Congrès forestier mondial : en dépit de l’augmentation constante de la production et de la productivité agricole mondiale, le rythme moyen de la déforestation a été divisé par deux depuis 1990, avec environ 52 000 kilomètres carrés de forêt supprimés chaque année.

Cette étude rappelle opportunément que plus des trois quarts de la déforestation sont dus à l’agriculture. Au total, depuis vingt-cinq ans, la quantité de carbone stockée dans la biomasse forestière mondiale a diminué de près de 17,4 gigatonnes, contribuant ainsi à accélérer le réchauffement climatique mondial.

Mais, comme le souligne avec force le Conseil général de l'alimentation, de l'agriculture et des espaces ruraux (CGAAER), il faut tordre le cou à une idée reçue tenace selon laquelle, sous l’effet de la pression démographique et de l’augmentation de la demande agricole mondiale, le monde va connaître inévitablement une pénurie de terres arables. À cet égard, le CGAAER rappelle que, « Depuis 50 ans, la production agricole a été multipliée par un facteur supérieur à 2,5. L'augmentation des rendements et l'intensité culturale y ont contribué pour 85 %, l'accroissement des surfaces agricoles pour 15 % ». Cette instance souligne également qu’il reste, en fonction des différents scénarii choisis, de 500 millions à 2,5 milliards d'hectares disponibles pour l'agriculture, alors que la surface actuellement cultivée est de 1,6 milliard d'hectares.

Le CGAAER rappelle également les travaux remarquables réalisés en 2009 par Laurence Roudart (Université Libre de Bruxelles), à partir d’informations sur les disponibilités actuelles et futures en terres cultivables. Dans cette étude, trois scénarii ont été imaginés en matière d’augmentation des surfaces cultivables. Le premier est le plus restrictif et considère que ne peuvent être mises en culture que les terres « très convenables », « convenables » et « modérément convenables ». Le second scénario autorise la mise en culture des terres « peu convenables ». Enfin, le troisième scénario, autorise la mise en culture de l’ensemble des terres des scénarii 1 et 2 et y ajoute toutes les terres cultivables sous forêt, ce qui correspond au tiers des forêts du monde.

Une fois exclues les forêts, les superficies nécessaires aux infrastructures et les surfaces agricoles dévolues aux agrocarburants, ces trois scénarios tablent sur une augmentation possible des terres cultivables de respectivement 527, 970 et 1875 millions d'hectares distribués très inégalement sur la planète. Il est intéressant de noter que, s’agissant du premier scénario, la FAO arrive à une estimation de 547 millions d'hectares, un chiffre très proche des résultats de cette étude. Selon ces travaux, « les superficies des terres du monde utilisables en culture pluviale sont largement supérieures aux superficies nécessaires pour assurer des conditions de sécurité alimentaire pour l’ensemble de l’humanité ».

Mais pour parvenir à nourrir la planète en 2050, il ne suffira pas de disposer de suffisamment de terres agricoles ni d’augmenter la productivité agricole moyenne mondiale. Il faudra également prendre à bras-le-corps le problème du gaspillage considérable des productions agricoles et réorganiser en profondeur, au niveau mondial, les circuits économiques et commerciaux de stockage, de transport et de distribution des denrées agricoles. Il faut en effet rappeler qu’aujourd’hui, 1,3 milliard de tonnes de nourriture sont jetées chaque année, ce qui représente plus du tiers de la production totale de denrées alimentaires destinées à la consommation humaine. Une étude publiée en 2010 (SMIL) indique que 43 % seulement des produits cultivés mondialement dans un but alimentaire sont directement consommés par les humains.

Ce gaspillage absolument gigantesque a bien entendu des conséquences économiques, écologiques et environnementales considérables. Il est très néfaste, notamment en matière de consommation d’énergie, d’utilisation excessive d’intrants agricoles et, en bout de chaîne, de prix trop élevés des produits agricoles pour les consommateurs, notamment dans les pays en voie de développement.

On distingue trois grandes sources de pertes dans les pays européens : l’industrie, les foyers et la restauration. Les deux premiers sont à l’origine de près de 80 % des déchets provenant des pertes ou du gaspillage (selon une étude préparatoire de la Commission européenne).

La situation est différente dans les pays du Sud où les pertes agricoles entre la sortie du champ et la transformation sont beaucoup plus importantes, en raison de l'insuffisance et de la vétusté des infrastructures de stockage et de transport.

Notre Pays, conscient de ce problème majeur, a signé en juin 2013 son Pacte national de lutte contre le gaspillage alimentaire et s’est fixé l’objectif de diviser par deux les volumes gaspillés d’ici à 2025. Il y a quelques semaines, la grande distribution et le gouvernement sont parvenus à un accord sur une série "d'engagements volontaires", visant à renforcer les actions de lutte contre le gaspillage alimentaire. Ces mesures comprennent notamment l'obligation pour la grande distribution de favoriser au mieux les dons aux associations ou la valorisation des déchets et un engagement de l'État à soutenir financièrement les associations.

Les distributeurs se sont également engagés à favoriser "l'utilisation des invendus propres à la consommation humaine, à travers le don ou la transformation". Celle-ci devra se faire soit en transformant les produits en alimentation animale, en compost pour l'agriculture ou en ressources énergétiques, comme la méthanisation. Par ailleurs, les distributeurs s’engagent à ne pas rendre délibérément les invendus alimentaires encore consommables, impropres à la consommation ou à toute forme de valorisation.

Mais construire une agriculture mondiale à la fois plus performante, plus respectueuse de l’environnement et moins gourmande en énergie passera également par une intégration raisonnée des progrès de la science, de l’agronomie et des technologies numériques et robotiques, qui ne peuvent être globalement écartés d’un revers de main, souvent pour des raisons purement idéologiques, et doivent être évalués au cas par cas.

A cet égard, il faut rappeler qu’en Europe, le MON810, seul OGM autorisé pour le moment dans l’Union européenne, n’est cultivé que dans trois pays : Espagne, Portugal et République tchèque. Le Parlement français vient par ailleurs d’adopter la transposition des dernières règles européennes concernant notamment la culture d’organismes génétiquement modifiés : la nouvelle Directive concernant les OGM permet notamment aux États membres d'interdire cette mise en culture, même en cas de feu vert de l'Autorité européenne de sécurité des aliments (Efsa).

Au niveau mondial, selon le dernier rapport de l’Isaaa (Service international pour l’acquisition d’applications agrobiotechnologiques), le nombre de plantations d'organismes génétiquement modifiés (OGM) a atteint 181,5 millions d'hectares exploités dans le monde, soit environ 4 % des surfaces agricoles mondiales (11 % si l’on intègre les plantes génétiquement modifiées ou PGM). Ce rapport révèle également qu’environ 18 millions d’agriculteurs (sur plus d’un milliard et demi au total) ont semé des semences transgéniques. C’est donc moins de 1,5 % des agriculteurs qui utilisent de telles variétés brevetées.

En matière de culture OGM, le soja domine et représente plus de 80 % de la production d’OGM. S’agissant de la répartition géographique, les Etats-Unis restent largement en tête, avec 73,1 millions d'hectares plantés d'OGM, devançant le Brésil, qui comptait 42,2 millions d'hectares et l'Argentine, troisième avec 24,3 millions d'hectares.

Quant à l’agriculture biologique, sa part reste encore modeste au niveau mondial, avec 37,2 millions d'hectares (chiffres 2011), soit environ 1 % de la surface agricole totale. Mais son emprise territoriale a été multipliée par 2,5 au cours des quinze dernières années et elle ne cesse de progresser. La France, avec 4 % de ses surfaces agricoles et 1,1 million d'hectares de cultures biologiques, vient de dépasser l’Allemagne et arrive à présent en troisième place au niveau européen, pour les cultures bio, derrière l’Espagne et l’Italie. Fait remarquable, en dépit des prix plus élevés (mais cet écart ne cesse de se réduire) des produits issus de l'agriculture biologique, les consommateurs français se tournent de plus en plus vers les produits alimentaires issus du bio qui représentent à présent un marché de 5 milliards d'euros, en croissance de plus de 10 % par an… 

Mais les progrès et mutations en cours en matière d’agriculture et d’agronomie ne se résument ni aux OGM, ni à l’essor du bio, comme le souligne Hervé Guyomard, directeur scientifique Agriculture à l'INRA (l’Institut national de recherche agronomique). Celui-ci rappelle, qu’à l’avenir,  il va falloir sélectionner les semences, non plus seulement sur des critères de rendement mais de plus en plus sur des critères d’adaptation aux nouvelles conditions de l’environnement liées au changement climatique : sécheresse et températures extrêmes notamment, sans oublier deux autres facteurs-clés : l’utilisation de l’azote et la résistances aux maladies qui devront privilégier les cultures et plantes consommant moins d’engrais azotés et de pesticides.

Il est vrai que jusqu’à, présent, l’agriculture et l’agronomie ont d’abord cherché à transformer le milieu (en apportant engrais, eau, pesticides) de façon que le génome de la plante puisse exprimer tout son potentiel productif. Mais de récentes recherches ont montré que le gène n’était pas tout puissant ni immuable, qu’il était sensible à l’environnement et qu’en fonction de son milieu d’expression, il commande la synthèse de protéines différentes de celles initialement prévues….

Dans ce nouveau cadre scientifique, les OGM ne sont plus considérés comme une panacée et ne deviennent qu’un outil, parmi beaucoup d’autres (prise en compte de l’environnement, nouvelles pratiques agricoles), pour améliorer les performances des cultures. Cette nouvelle approche, qui vise à dépasser l’opposition stérile et simpliste entre une agriculture « naturelle » et une agriculture « productiviste », vient de se trouver confortée par une « méta-étude » américaine qui a montré, d’une part, que le déficit de productivité des méthodes biologiques par rapport à l'agriculture intensive, ou industrielle, est moins important que prévu et, d’autre part, qu'il est possible de réduire cet écart.

Ce travail très complet, dirigé par Claire Kremen, professeur de sciences de l'environnement et codirectrice du Berkeley Food Institute de l'Université de Californie, a dépouillé 115 études de 38 pays, portant sur 52 espèces végétales et couvrant trente-cinq années. Ces recherches ont ainsi montré que la différence réelle de productivité entre bio et traditionnel serait en fait de l’ordre de 19 %. En outre, contrairement aux travaux antérieurs, les auteurs ne trouvent pas de différence entre pays développés et pays en développement, pour ce qui est des performances respectives des deux modes de culture.

Mais l'enseignement principal de ces recherches est que le différentiel est beaucoup plus faible lorsque les exploitations biologiques ont recours soit aux cultures associées (plusieurs plantes cultivées sur la même parcelle), soit aux rotations : il tombe alors à respectivement 9 % et 8 %. L’étude conclut que « Ces résultats prometteurs suggèrent qu'un investissement approprié dans la recherche agronomique pour améliorer la gestion des cultures biologiques pourrait fortement réduire ou même éliminer l'écart avec l'agriculture traditionnelle pour certaines cultures ou régions. »

Une autre étude publiée il y a deux ans est également venue remettre en cause cette opposition entre une agriculture « naturelle », qui n’utiliserait que des méthodes ancestrales immuables et une agriculture « industrielle » qui serait forcément destructrice pour l’environnement et utilisatrice d’OGM. Ce travail, publié dans la revue Nature, est l’aboutissement d’une dizaine d’années de recherches sur le gène qui permet à certains plants de riz d’extraire le phosphore du sol dès le début de leur croissance (Voir Nature).

Enfin identifié, ce gène, baptisé PSTOL-1, a été transféré à d’autres variétés de riz par la technique classique de l’hybridation, sans aucune manipulation OGM, insiste Sigrid Heuer, de l’Institut international de recherches sur le riz (IRRI) basé aux Philippines. Cette chercheuse souligne que cette avancée pourrait enfin permettre au riz d’atteindre son rendement optimal une fois parvenu à maturité et devrait bénéficier surtout aux agriculteurs modestes, particulièrement ceux d’Asie du sud-est et du Bangladesh.

Cette avancée scientifique et agronomique est l’occasion de rappeler que la mutagénèse expérimentale, utilisée depuis plus de 80 ans dans le monde, permet, sans avoir recours à des transferts de gènes comme pour les OGM, d’accélérer le processus de création de nouvelles variétés en augmentant fortement la fréquence de mutation par rapport à la mutagénèse spontanée, donc la variation génétique disponible pour la sélection. Il faut d'ailleurs rappeler que la majorité des variétés cultivées actuellement, en agriculture conventionnelle ou biologique, ont été, à un moment ou un autre de leur histoire, soumises à cette technique. C’est par exemple le cas du tournesol oléique, cultivé depuis plus de vingt ans en agriculture conventionnelle et biologique, qui permet d’obtenir une huile de meilleure qualité pour la consommation.

A ce stade de notre réflexion, il est important de rappeler que, depuis les débuts de l’agriculture, il y a environ 10 000 ans, les cultivateurs n’ont cessé de pratiquer de manière de plus en plus efficace l’hybridation, de manière à obtenir des plantes et cultures toujours plus résistantes et productives. Cette utilisation, d'abord très longtemps empirique, puis scientifique du phénomène de mutagénèse spontanée a permis à l’agriculture mondiale de créer une multitude de variétés et d’espèces nouvelles de plantes et d’animaux d’élevage, ce qui explique qu’en dépit de l’accroissement démographique mondial, la part de la population mondiale touchée par la malnutrition n’a cessé de reculer depuis 50 ans, passant de 32 % en 1960 à 11 % aujourd’hui…

Rappelons qu’aujourd’hui, 61 % de la population mondiale a accès à une ration de plus de 2 700 calories journalières, selon la FAO, alors qu’en 1960, 57 % de cette population mondiale vivait encore avec une ration alimentaire inférieure à 2 200 calories par jour. Une telle amélioration de la situation alimentaire mondiale n’aurait bien entendu jamais été possible sans l’augmentation considérable de la production et de la productivité agricoles mondiales et sans cette « Révolution verte », aujourd’hui tant décriée par certains. Un seul exemple suffit pour illustrer cette extraordinaire mutation : l’Inde, qui est devenue exportatrice de blé depuis 2012, alors que sa population a dépassé le milliard d’habitants…

Il faut enfin évoquer l’extraordinaire révolution qu’est en train de connaitre l’agriculture, avec l’arrivée massive de la robotique intelligente qui, associée aux drones, aux satellites et à la puissance de calcul des Big Data, va entraîner de nouveaux progrès considérables, non seulement en matière de productivité et de gestion prévisionnelle des sols mais également dans la diversification des cultures et la réduction du coût énergétique, environnemental et climatique de l’agriculture. Rappelons en effet que l’agriculture mondiale représente, hors déforestation, plus du quart des émissions humaines de CO2 soit environ 10 gigatonnes par an (l’équivalent des émissions annuelles de La Chine). L’activité agricole mondiale consomme en outre environ 5 % de l’énergie finale au niveau mondial, soit environ 450 Mtep (Millions de Tonnes d’Equivalent Pétrole)

On le voit, la question n’est finalement peut-être pas de savoir s’il est possible de nourrir les 9,5 milliards d’hommes qui vivront sur la Terre en 2050 car nous possédons les ressources naturelles, humaines et scientifiques qui nous permettent d’atteindre cet objectif pourtant ambitieux. Parviendrons-nous, en revanche, à organiser l’agriculture mondiale sur le plan politique, économique, social et commercial de manière à permettre à chacun d’accéder dans de bonnes conditions à une production alimentaire largement suffisante ? Voilà le vrai défi de civilisation que l’Humanité va devoir relever au cours de la prochaine génération.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Matière
Matière et Energie
Les vaisseaux spatiaux bientôt équipés d’une -peau- auto-cicatrisante ?
Mercredi, 23/09/2015 - 15:01

En partenariat avec la Nasa, des chercheurs de l'Université du Michigan ont développé un nouveau matériau "auto-cicatrisant", capable de se régénérer lui-même en quelques secondes après avoir été percé par un impact de balle.

Ce  dispositif repose sur un composant chimique dénommé tributylborane. Ce gel actif est emprisonné entre deux couches de polymères solides, fines d’environ un millimètre. Lorsqu’une des couches extérieures se retrouve percée, par exemple par une balle, le gel actif se déplace pour remplir le trou. Au contact de l’oxygène, un composant chimique dénommé tributylborane, contenu dans le gel, se solidifie de manière à combler la brèche en quelques secondes.

Ce nouveau matériau intéresse particulièrement la Nasa car il apporterait une nouvelle protection à la Station spatiale internationale (ISS) régulièrement exposée aux impacts des débris spatiaux.

En effet, l’idée n’est pas de remplacer les dispositifs de réparation par ce matériau mais d’en faire une solution de secours afin de donner le temps nécessaire aux astronautes d’effectuer une réparation plus durable. Outre les engins spatiaux, le nouveau matériau pourrait également être utilisé comme "rustine" pour les avions ou les réservoirs de carburant par exemple.

Article rédigé par Georges Simmonds pour RT Flash

New Scientist

Une batterie en aluminium plus propre et plus performante
Samedi, 19/09/2015 - 19:23

Des chercheurs de l'Université de Stanford, dirigés par Hongjie Dai, ont mis au point une batterie en aluminium qui peut se recharger totalement en une minute. Les scientifiques affirment dans un communiqué de presse que cette technologie pourrait, un jour, remplacer un grand nombre de batteries actuellement utilisées dans les appareils électroniques. La batterie en aluminium-ion offre une alternative plus sûre que les batteries en lithium-ion, les plus utilisées actuellement dans les ordinateurs portables et les smartphones et qui peuvent être inflammables. Elle est également moins néfaste pour l'environnement que les piles alcalines à usage unique.

"Nous avons développé une batterie en aluminium rechargeable qui pourrait remplacer les méthodes de stockage d'énergie actuelles et celles au lithium-ion. Notre nouvelle batterie ne prendra pas feu, même si vous la percez," a affirmé Dai. Cette batterie servira pour environ 7 500 charges, alors que les premières  batteries en aluminium n'en tenaient que 100. Selon les chercheurs, une batterie au lithium-ion pourrait supporter environ 1 000 charges.

L'aluminium est un composant attractif pour la fabrication de batterie car c'est un matériau abordable, qui possède une capacité de charge importante et est peu inflammable. La batterie consiste en une anode d'aluminium chargée négativement et une cathode de graphite chargée positivement. Elle est non seulement durable, mais elle peut également être pliée, ce qui augmente grandement son potentiel d'utilisation dans des appareils électroniques.

Article rédigé par Georges Simmonds pour RT Flash

Business Insider

^ Haut
Espace
Espace et Cosmologie
Un robot humanoïde capable de transmettre des connaissances entre les équipages de stations spatiales
Mardi, 22/09/2015 - 14:19

Une équipe de chercheurs français (Inserm/Université Claude Bernard Lyon 1), dirigée par Peter Ford Dominey, directeur de recherche CNRS, a développé « une mémoire autobiographique » pour le robot Nao, qui lui permet de transmettre des connaissances à des humains, après les avoir lui-même apprises d'autres êtres humains.

Cette avancée technologique pourra notamment être utilisée pour les opérations sur la Station spatiale internationale où le robot, seul membre permanent de la station, serait le trait d'union pour le partage des connaissances entre les différents équipages, renouvelés tous les six mois.

La culture humaine se compose de connaissances acquises par l'expérience partagée de la société. La transmission culturelle permet aux nouveaux membres de la société d'apprendre rapidement de cette expérience accumulée. Pour qu'un robot appréhende le comportement coopératif, nécessaire à la transmission culturelle des connaissances, les chercheurs ont créé un système grâce auquel un agent humain peut enseigner à l'humanoïde Nao de nouvelles actions par démonstration physique (en plaçant les membres du robot dans la bonne position), par imitation visuelle (via un système Kinect) ou par commande vocale. Ces actions individuelles sont ensuite rassemblées en procédures et stockées dans la mémoire autobiographique du robot, développée par les chercheurs, afin qu'il puisse les restituer si nécessaire à d'autres agents humains.

Ce système de mémoire autobiographique doit répondre au défi de la coopération entre les hommes et les robots, de plus en plus une réalité, notamment dans le domaine spatial, l'humanoïde Robonaut 2 volant désormais de façon permanente à bord de la Station spatiale internationale.

Grâce à ce type d'apprentissage, si une même panne se reproduit, le robot pourra montrer à un nouveau membre de l'équipage, via un système vidéo, la réparation qui avait déjà été réalisée. Il pourra également répondre à des questions sur l'événement précédent tout en aidant à la nouvelle réparation. Si une panne légèrement différente se produit, le robot pourra partager son expertise sur les défaillances de ce type, tout en enregistrant les tâches à mener pour résoudre ce nouveau problème et les transmettre aux scientifiques de l'équipage suivant.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'effet -cocktail- confirmé par des chercheurs français
Mercredi, 23/09/2015 - 15:13

Une équipe française associant des chercheurs du CNRS et de l'Inserm vient de montrer que des substances chimiques sans danger, quand elles sont prises séparément, peuvent devenir nocives lorsqu'elles sont associées. Ces combinaisons aux effets inattendus et plus ou moins dangereux recouvrent ce que les chercheurs appellent "l'effet cocktail".

Ces travaux éclairent un mécanisme encore mal connu et sont importants, quand on sait qu'au moins 150 000 composés de notre environnement (polluants, médicaments, substances issues de notre alimentation) pourraient créer un effet cocktail une fois mélangés.

L'étude montre notamment que "Certains œstrogènes comme l'éthinylestradiol et des pesticides organochlorés tels que le trans-nonachlor, bien que très faiblement actifs par eux-mêmes, ont la capacité de se fixer simultanément à un récepteur situé dans le noyau des cellules et de l'activer".

Cette liaison en synergie au récepteur des cellules induirait "un effet toxique à des concentrations largement plus faibles que les molécules individuelles". Ces travaux suggèrent que les interactions de certaines substances comme les perturbateurs endocriniens (phtalate, bisphénol A, paraben, etc.) pourraient être encore plus dangereuses pour la santé que l'on ne pense en présence d'autres substances. "Si ces travaux sont confirmés in vivo, des retombées importantes sont attendues dans les domaines de la perturbation endocrinienne, la toxicologie et l'évaluation des risques liés à l'utilisation des produits chimiques", conclut l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Nature

ESC 2015 : un nouvel algorithme pour confirmer l’infarctus en une heure
Mercredi, 23/09/2015 - 15:07

Face à une  douleur thoracique pouvant être provoquée par un infarctus, chaque minute compte. Selon les résultats de l’étude BACC (Biomarkers in Acute Cardiovascular Care), présentée à l 'occasion du récent congrès de la Société européenne de cardiologie (ESC) à Londres, il est possible de confirmer le diagnostic d’infarctus en seulement une heure contre les trois heures préconisées par les recommandations européennes.

Dans cette étude dirigée par le Docteur Dirk Westermann du Centre universitaire de cardiologie de Hambourg, les chercheurs ont recruté 1 045 patients admis pour une douleur thoracique aiguë à l’hôpital universitaire de Hambourg et pris en charge selon l’algorithme classique. Un nouvel algorithme consistant à comparer les taux sanguins de troponine I à l’admission puis une heure plus tard au lieu des trois heures recommandées dans l’algorithme classique a pu être expérimenté. La confirmation du diagnostic d’infarctus des patients hospitalisés a été réalisée par l’imagerie et l’électrocardiogramme.

Les auteurs ont pu évaluer la valeur prédictive des deux tests effectués à une heure d’intervalle avec différents seuils, et sont arrivés à la conclusion que le seuil idéal est 6 ng/L. Dans le détail, le nouvel algorithme propose d’exclure un infarctus si le taux est inférieur à 6 ng/L à l’admission et au bout d’une heure, et de le confirmer s’il est toujours supérieur à 6 ng/L et qu’il y a une variation de 12 ng/L entre les deux mesures.

Au bout de 6 mois de suivi, 13 patients de l’étude sont décédés. Les auteurs ont calculé qu’il n’y aurait eu que 3 décès si l’algorithme d’une heure avait été appliqué. « Les résultats confirment qu’une augmentation de 6 ng/L en une heure est un marqueur de risque de décès ou de maladie cardiovasculaire et que les patients qui n’atteignaient pas ce seuil pouvaient quitter l’hôpital sans risque », précise le Docteur Westermann. Le nouvel algorithme a une valeur prédictive négative de 99,7 % et une sensibilité de 99,1 %.

Article rédigé par Georges Simmonds pour RT Flash

Medscape

Un capteur pour détecter précocement le cancer
Mercredi, 23/09/2015 - 14:55

Des chercheurs américains sont parvenus à mettre au point un capteur sans-fil ultra-miniaturisé qui, une fois implanté dans une tumeur, permet de renseigner les médecins au plus tôt sur sa nature et son évolution.

Créé par une équipe de chercheurs de l’Institut Koch for Integrative Cancer Research du célèbre MIT (Massachusetts Institute of Technology) de Boston, ce capteur sans fil d’à peine 2 millimètres, une fois implanté dans une tumeur, permettrait de renseigner les médecins en temps réel sur la nature et l’évolution de celle-ci chez leurs patients.

Les scientifiques ont travaillé à l’élaboration du mini-capteur dans l’espoir de détecter le plus précocement possible le cancer du poumon, qui est la principale cause de décès par cancer aux Etats-Unis. Jusqu’à présent, les procédures de diagnostic classiques pour ce type de cancer nécessitaient une biopsie invasive à partir du moment où la tumeur dépasse les 3 centimètres de diamètre.

Le mini capteur du MIT peut, d’après ses concepteurs, détecter le cancer du poumon beaucoup plus tôt, retardant de fait l’évolution de la maladie puisque celle-ci est prise en charge beaucoup plus précocement. "Nous voulions mettre au point un dispositif qui enverrait rapidement un signal chimique donnant des informations sur ce qui se passe dans la tumeur", explique le professeur Michael Cima qui a dirigé les travaux. Après des premiers tests concluants sur des souris, le chercheur et son équipe espèrent que leur innovation pourra, à terme, être déclinée aux autres formes de cancer.

Article rédigé par Georges Simmonds pour RT Flash

MIT

Découverte d’un nouveau mécanisme d’action d’une protéine toxique dans la maladie de Parkinson
Mercredi, 23/09/2015 - 14:47

Avec les protéines tau et bêta amyloïde pour la maladie d’Alzheimer, ou la protéine prion pour la maladie de Kreutzfeld-Jacob, l’alpha-synucléine fait partie des protéines pathogènes qui se propagent de cellules en cellules et qui sont associées aux changements physiopathologiques observés dans les maladies neurodégénératives.

Une équipe coordonnée par Antoine Triller, directeur de recherche Inserm, directeur de l’Institut de Biologie de l’Ecole Normale Supérieure, et Ronald Melki, directeur de recherche CNRS (Institut des Neurosciences de Paris-Saclay), vient d’identifier la cible d’une protéine, l’alpha-synucléine, qui est pathogène dans la maladie de Parkinson. Ces chercheurs ont montré que cette protéine s’agrège sur la membrane des neurones et interagit avec une protéine de surface du neurone. Cette pompe contrôle les flux d’ions sodium et potassium dans les neurones et, par voie de conséquence, l’activité électrique de ces neurones.

Chez l’homme, des mutations de cette pompe sont responsables de symptômes moteurs de la maladie de Parkinson à début précoce et de l’hémiplégie alternante de l’enfant (HAE). Les chercheurs viennent de démontrer que l’apha-synucléine, qui diffuse entre les cellules, interagit avec la pompe Na+/K+ ATPase dans la membrane. La pompe, lorsqu’elle est liée à l’alpha-synucléine, ne peut plus remplir correctement son activité de pompage.  Peu à peu, les signaux entre neurones ne sont pas transmis normalement et les symptômes de la maladie de Parkinson ou de l’HAE apparaissent.

Cette découverte a été rendue possible grâce à la combinaison de techniques de biologie moléculaire et de microscopie super-résolutive permettant le suivi des molécules individuelles. "Il s’agit d’un nouveau mécanisme permettant d’expliquer au niveau cellulaire les dysfonctionnements neuronaux dans la maladie de Parkinson", explique Antoine Triller, qui poursuit "Ces recherches vont permettre d’explorer de nouvelles stratégies thérapeutiques".

Article rédigé par Georges Simmonds pour RT Flash

Embo

Des chercheurs découvrent une protéine qui bloque le cancer
Mardi, 22/09/2015 - 14:12

À la Clinique Mayo de Jacksonville, en Floride, Panos Anastasiadis, directeur du Département de Biologie du Cancer, et son équipe ont mis à jour le rôle des protéines d’adhésion dans les cellules, et plus particulièrement la caténine p120, qui semble jouer un rôle-clé dans le développement du cancer. "Cela nous a amenés à croire que ces molécules ont deux faces – une bonne, qui maintient le comportement normal des cellules, et une mauvaise qui pilote la tumorigénèse".

Ces recherches ont permis de mettre à jour une partenaire de la protéine P120, la PLEKHA7. Lorsque celle-ci est introduite dans des tumeurs, elle « désactive » leur capacité à se reproduire et les renvoie à leur état normal.

Ces recherches ont montré que les cellules saines sont régulées par les microARN qui indiquent aux cellules de cesser leur réplication lorsqu’elles se sont suffisamment reproduites. Le cancer est causé par l’incapacité d’une cellule à se répliquer résultant en un amas de cellules, la tumeur. La PLEKHA7 semble jouer un rôle important dans la réplication des cellules mais elle n’est pas présente dans les cellules cancéreuses. En la réintroduisant dans celles-ci, elles reviennent à leur état normal.

Article rédigé par Georges Simmonds pour RT Flash

Wired

Une demi-heure de marche par jour : jusqu'à sept années de vie gagnées !
Mardi, 22/09/2015 - 12:46

C'est bien connu, en matière de santé, les petites causes produisent souvent de grands effets. C'est ainsi que, selon une récente étude réalisée par des chercheurs de l’Université de Saarland en Allemagne, marcher 25 minutes par jour serait bénéfique pour la santé et permettrait de gagner entre trois et sept années d’espérance de vie, en améliorant notamment le système cardiovasculaire !

Pour parvenir à cette conclusion, les scientifiques ont étudié 69 personnes âgées de 30 à 60 ans (des non-fumeurs) pendant une période de six mois au cours de laquelle les participants se sont soumis à toute une batterie d’exercices physiques... Résultat : au bout d’un semestre, un processus antivieillissement s’est mis en place dans leur organisme !

Pour les seniors de 50 à 60 ans, le risque de développer une pathologie cardiovasculaire a même été divisé par deux grâce à ces exercices physiques. D’autre études montrent que la pratique d’une activité modérée (au moins 20 minutes trois fois par semaine) ou d’une activité intense (au moins 3 heures par semaine) diminue ainsi de 30 % le risque de mortalité prématurée.

Article rédigé par Georges Simmonds pour RT Flash

MNN

Leucémie : deux avancées majeures
Mardi, 22/09/2015 - 12:40

Pour la première fois, des chercheurs français dirigés par Philippe Leboulch, Philippe Rousselot et Stéphane Prost (CEA-Université Paris Sud et hôpital Mignot de Versailles) ont mis au point une nouvelle thérapie qui élimine progressivement les cellules-souches leucémiques de la leucémie myéloïde chronique.

La leucémie myéloïde chronique est l’un des cancers du sang les plus fréquents avec 600 nouveaux cas par an en France. Elle est due à une anomalie chromosomique et génétique, aboutissant à la production d’une protéine anormale qui déclenche une prolifération de globules blancs.

Le traitement standard actuel de la leucémie myéloïde chronique fait appel à la molécule « imatinib » (Glivec), efficace pour éliminer la masse tumorale, mais qui n’a que peu d’effets sur les cellules-souches leucémiques ne constituant que 0,1 % de la tumeur. Or, ce sont ces dernières qui sont à l’origine de la maladie et des rechutes. Ce qui oblige le patient à suivre un traitement à vie. D’où l’idée d’essayer de cibler spécifiquement les cellules-souches leucémiques.

Dans un premier temps, les chercheurs ont trouvé la protéine fautive, ainsi que le phénomène en cascade qu’elle entraîne. Ensuite, ils ont identifié un médicament nouvellement utilisé pour traiter le diabète de type II (hyperglycémie chronique), la pioglitazone, qui est capable de s’opposer à l’action de cette protéine fautive.

Le nouveau traitement consiste à combiner l’anti-cancéreux standard, l’imatinib, et cet anti-diabétique, la pioglitazone. Résultat : sur 24 personnes traitées ainsi pendant un an, 57 % ont présenté une rémission complète, contre 27 % chez celles qui n’ont reçu que le traitement anti-cancéreux. De plus, les trois premiers patients traités demeurent tous sans leucémie myéloïde chronique détectable près de cinq ans après l’arrêt de la pioglitazone.

« La possibilité de cibler les cellules-souches responsables de la rechute doit permettre d’espérer une guérison des patients qui se traduira par un arrêt définitif de tout traitement », indique le professeur Philippe Rousselot.

La deuxième avancée a eu lieu aux Etats-Unis et concerne un autre type de leucémie, la leucémie lymphoïde chronique (LLC). Cette immunothérapie personnalisée, connue sous le nom de CTL019, a été développée par des chercheurs du Abramson Cancer Center et de la Perelman School of Medicine, qui dépendent de l'Université de Pennsylvanie (est).

"Les examens conduits sur les patients qui ont connu une rémission complète ont montré que les cellules modifiées restent dans leurs corps pendant des années après y avoir été injectées, sans aucun signe de cellules cancéreuses", explique l'un des auteurs de l'étude, Carl June, professeur à l'Université de Pennsylvanie. "Cela indique que certaines des cellules CTL019 conservent longtemps leur faculté à chasser les cellules cancéreuses", poursuit-il.

Huit des quatorze adultes ayant participé à l'étude ont répondu au traitement : quatre d'entre eux ont présenté une rémission à long terme et les quatre autres ont réagi partiellement au traitement. Le traitement expérimental est élaboré à partir des propres lymphocytes T des patients, responsables de la défense immunitaire. Ils sont prélevés puis génétiquement modifiés pour qu'ils soient capables d'attaquer sélectivement les cellules cancéreuses.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Penn Medicine

Modéliser le cancer pour mieux le combattre
Mardi, 22/09/2015 - 12:31

Des chercheurs américains des universités américaines d’Harvard et Johns Hopkins, en collaboration avec une équipe de l’Université d’Edimbourg (Ecosse), ont mis au point, à l’aide d’un algorithme mathématique, le premier modèle de tumeur solide simulant à la fois la croissance tumorale en 3D et l’évolution génétique.

Grâce à la précision de leurs calculs, cette simulation informatique permet d’observer la naissance d’une tumeur maligne à partir d’une cellule cancéreuse tout en décrivant les modifications génétiques qui surviennent pendant la prolifération des cellules malignes.

Ils ont découvert que les mouvements au sein de la tumeur et le renouvellement cellulaire permettent aux cellules cancéreuses les mieux adaptées à leur environnement de proliférer. Ces observations expliqueraient pourquoi les tumeurs sont généralement composées d’un type cellulaire tandis qu’un tissu sain en contient plusieurs.

Par ailleurs, ces mécanismes migratoires apportent un éclairage nouveau sur la résistance aux traitements. Les cellules qui n’ont pas été détruites par la chimiothérapie par exemple peuvent rapidement se répliquer et reconstituer la tumeur. Les thérapies ciblant ces mouvements microscopiques pourraient alors limiter la progression tumorale, suggèrent les auteurs.

"La mobilité cellulaire permet au cancer de se développer rapidement et aux cellules cancéreuses de partager des mutations communes", explique Martin Nowak, professeur de mathématiques et de biologie à l’université d'Harvard. "Elle est aussi responsable de l’apparition des résistances aux traitements". Selon cette étude, la formation de métastases à distance serait une conséquence de la migration au sein de la tumeur. 

Article rédigé par Georges Simmonds pour RT Flash

Nature

Une consommation excessive de boissons gazeuses pourrait augmenter le risque cardiovasculaire
Mardi, 22/09/2015 - 12:21

Selon une étude japonaise, dont les résultats ont été présentés lors du Congrès de l’European Society of Cardiology (ESC) qui se tenait à Londres, les sodas favoriseraient le développement de maladies cardiovasculaires. Ces travaux menés par le professeur Saku, professeur de cardiologie à l’université de Fukuoka (Japon), ont montré un lien probable entre une consommation importante de boissons gazeuses et les maladies cardiovasculaires.

Pour en arriver à cette conclusion, les chercheurs ont analysé les liens entre l'apparition d’arrêts cardiaques et la consommation de boissons gazeuses entre 2005 et 2011, dans 47 régions du Japon. Ils ont travaillé sur les dossiers de 785 591 patients ayant souffert d’arrêts d’origine cardiaque et non cardiaque, conséquences de maladies cérébrovasculaires ou respiratoires.

Résultat : les patients qui consomment le plus de boissons gazeuses sont le plus susceptibles de souffrir d’arrêts cardiaques. Le professeur Saku, qui met en avant l’acidité des boissons gazeuses, cause probable de cette association, souligne le fait que « limiter la consommation de boissons gazeuses reste bénéfique ». Enfin, aucun lien n’a été constaté en étudiant la consommation d’autres types de boissons comme le thé, le café, le chocolat, le lait ou les jus de fruits.

Article rédigé par Georges Simmonds pour RT Flash

ESC

Alzheimer : une maladie métabolique ?
Samedi, 19/09/2015 - 19:19

Des chercheurs canadiens du Centre de recherche du Centre hospitalier de l'Université de Montréal (CRCHUM) ont découvrent que des gouttelettes de gras s'accumulent dans le cerveau des patients atteints de la maladie d'Alzheimer. Cette découverte conforte l'hypothèse que la maladie d'Alzheimer pourrait bien être une maladie métabolique du cerveau.

Cette avancée fondamentale ouvre une nouvelle piste dans la recherche d'un médicament pour guérir ou freiner la progression de la maladie d'Alzheimer. "Nous avons trouvé des dépôts d'acides gras dans le cerveau de patients morts de cette maladie et chez des souris génétiquement modifiées pour développer la maladie d'Alzheimer. Nos expériences suggèrent que ces accumulations anormales de gras pourraient constituer un déclencheur de la maladie", estime Karl Fernandes, chercheur au CRCHUM et professeur à l'Université de Montréal.

Cette recherche met en lumière ce qui pourrait s'avérer un chaînon manquant dans le domaine. Au départ, les chercheurs tentaient de comprendre pourquoi les cellules souches, qui habituellement aident à réparer les cellules endommagées du cerveau, sont inactives lorsque la maladie d'Alzheimer se manifeste. Aloïs Alzheimer lui-même avait noté la présence de dépôts de lipides dans le cerveau des patients après leur mort, lorsqu'il a décrit la maladie pour la première fois en 1906. Mais cette observation a été écartée et largement oubliée en raison de la complexité biochimique des lipides.

Les chercheurs ont examiné les cerveaux de neuf patients morts de la maladie d'Alzheimer et trouvé significativement plus de gouttelettes de gras en comparaison avec cinq cerveaux sains. Ensuite, une équipe de chimistes de l'Université de Montréal dirigée par Pierre Chaurand a utilisé une technique de spectrométrie de masse de pointe pour identifier ces dépôts de gras comme étant des triglycérides contenant des acides gras, qu'on trouve aussi dans les graisses animales et les huiles végétales.

"Nous avons découvert que ces acides gras sont produits par le cerveau, qu'ils s'accumulent lentement avec le vieillissement normal, mais que le processus est fortement accéléré en présence de gènes prédisposant à la maladie d'Alzheimer, souligne Karl Fernandes, qui ajoute "Chez les souris prédisposées à la maladie, nous avons montré que ces acides gras s'accumulent très tôt, dès l'âge de deux mois, ce qui correspond au début de la vingtaine chez l'humain. Nous pensons donc que l'accumulation d'acides gras n'est pas une conséquence mais bien une cause ou un facteur accélérant de la maladie."

Article rédigé par Georges Simmonds pour RT Flash

Health Canal

Paludisme : un nouveau traitement en vue
Samedi, 19/09/2015 - 18:53

Un nouveau traitement contre le paludisme a été expérimenté avec succès en Centrafrique. Dans ce pays d'Afrique, le paludisme y est devenu la principale cause de mortalité chez les enfants de moins de 5 ans. Médecins sans frontières (MSF) a donc décidé de déployer un TPPI (traitement préventif et présomptif intermittent). Il s'agit d'une nouvelle molécule, approuvée par l’OMS : la dihydroarteìmisinine-pipeìraquine (DHA/PQ).

Début août, trois jours durant, les agents de santé de MSF, installés dans le lycée de la ville de Batangafo, ont administré ce traitement novateur à près de 7 000 enfants. Les médecins donnent ensuite trois comprimés aux mères de famille qui devront l’administrer à leurs enfants au début du mois suivant. Cette molécule va à la fois traiter le paludisme et le prévenir.

Ce processus a déjà été expérimenté à Madawa, au Niger, en 2014 mais c’est la première fois que la nouvelle molécule DHA/PQ est utilisée. Les résultats sont sans appel. Ils montrent une diminution allant de 50 à 80 % du taux de mortalité, suivie d’une baisse des consultations et des admissions pour des cas de paludisme.

Article rédigé par Georges Simmonds pour RT Flash

Afrik

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top