RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 892
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Mars 2017
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Ford annonce des voitures entièrement connectées pour 2018
Avenir
Des robots comestibles pour vous soigner de l'intérieur
Terre
-Not Like Dad- : découverte d’un gène majeur pour la sélection végétale
Atlantique Nord : le risque d'un refroidissement rapide revu à la hausse
Vivant
Epilepsie réfractaire : le régime cétogène est une option thérapeutique pour certains patients
Hellocare : un nouvel outil pour généraliser la télémédecine
Découverte d'une protéine-clé dans la formation des métastases
Première mondiale : une prothèse trachéo-bronchique 3D sur-mesure
Maladie d'Alzheimer et sucre : le lien se confirme...
Schizophrénie et polyarthrite rhumatoïde : une troublante symétrie immunitaire...
La vie intra-utérine influe sur le développement cérébral
Sclérose en plaques : vers la compréhension du processus de régénération de la myéline
Oublier ses peurs par une greffe de neurones ?
Comment les protéines sont contrôlées à distance
Un nouveau médicament contre la malaria et la toxoplasmose
Bientôt un vaccin contre la peste ?
Un herpès génital chez une femme enceinte doublerait le risque d'autisme de l'enfant
La créativité : une affaire de connexion entre les deux hémisphères du cerveau ?
Edito
L'agriculture numérique va donner un nouveau souffle au monde rural



La France reste la première puissance agricole européenne, avec 75,2 milliards d'euros de production en 2015, devant l'Italie (55,2 milliards), l'Allemagne (51,5 milliards), et l'Espagne (45,5 milliards). Si en France, l'industrie agroalimentaire demeure un pilier de l'économie avec plus de 170 milliards d'euros de chiffre d'affaires, son rang dans le commerce alimentaire mondial ne cesse de régresser : deux entreprises sur 10 seulement exportent leurs produits, contre 8 sur 10 en Allemagne. La France a perdu plus de la moitié de ses exploitations en 25 ans, avec 470 000 exploitations en 2016, contre un million en 1990… Quant au nombre d’agriculteurs, il est tombé à moins de 900.000 aujourd'hui, soit à peine 3,5 % de la population active.

Après un recul de 5,5 % de leur revenu net à 13,5 milliards d’euros en 2016, les agriculteurs français sont plus que jamais confrontés à une nouvelle exigence de productivité et de compétitivité et ce défi est d’autant plus difficile à relever qu’il doit s’inscrire dans la perspective d’une agriculture durable et toujours plus respectueuse de l’environnement.

Heureusement, une révolution à la fois culturelle et technologique, celle de l’agriculture numérique, peut permettre à nos agriculteurs de réussir cette mutation historique.

Depuis le début de cette décennie, sans que le grand public s’en rende compte, robots et outils numériques - qu’il s’agisse des systèmes d’autoguidage pour tracteurs, des services de télédétection et d’aide à la décision ou des robots modulables - sont sortis des laboratoires pour se diffuser de plus en plus largement dans nos fermes. Fait révélateur, les systèmes d’autoguidage devraient cette année être utilisés dans plus de la moitié des exploitations et les robots assurant la traite laitière équipent à présent une exploitation laitière sur dix et ont vu leur nombre doubler en 5 ans. En matière d’élevage, les robots d’alimentation automatisée ont récemment fait leur apparition. Contrôlables à distance par smartphone, ils permettent la distribution en continu de rations optimisées pour le bétail et font gagner un temps précieux aux agriculteurs. Il faut également souligner l’arrivée récente des robots désherbeurs, comme celui que vient de présenter l’entreprise toulousaine Naïo Technologies.

Baptisée Dino, cette machine de 600 kg mesure 2,20 m x 2,10 x 1,30. Elle  a été spécialement conçue pour la culture des légumes. Cet automate à propulsion électrique est capable de « travailler » jusqu’à huit heures par jour en pleine autonomie, ce qui lui permet de traiter en moyenne quatre hectares par jour. Particulièrement efficaces pour les cultures maraîchères, ce robot effectue un travail méthodique de désherbage mécanique, grâce à sa panoplie d’outils modulables. Ce désherbage robotisé régulier fait non seulement gagner un temps précieux à l’exploitant mais réduit également sensiblement le recours aux produits chimiques. Naio ne compte pas s’arrêter en si bon chemin et devrait bientôt présenter un robot capable de désherber mécaniquement les vignes.

Autre exemple de cette révolution robotique en cours dans l’agriculture : le robot EffiBOT, conçu par l’entreprise clermontoise Effidence pour assister les horticulteurs, viticulteurs et maraîchers. Cette machine, installable sur tout type de véhicule et équipée d’un système de navigation autonome, suit son utilisateur pour le chargement d’une récolte (jusqu’à 300 kg) et, une fois plein, il se déleste de son chargement et revient travailler.

CNH industrial propose pour sa part un nouveau tracteur autonome bardé de différents types de capteurs, de caméras vidéos et infrarouge et muni d’un radar. Son GPS ultra-précis lui permet d’évoluer avec une précision de moins de deux centimètres. D’ici 2020, CNH industrial proposera un système de pilotage à distance qui intégrera la communication entre engins et permettra la formation et la gestion de véritables convois de machines autonomes, capables de travailler la nuit et par tout temps.

À Montpellier, une équipe de recherche en robotique agricole, dirigée par Thomas Schiex, travaille pour sa part sur un robot-vendangeur très sophistiqué qui sera capable de distinguer les différentes qualités de raisin et de les trier lors du ramassage. A Toulouse, un robot pépiniériste unique en Europe est en cours d’expérimentation dans le cadre du projet Sunrise. Cette machine, qui fait le travail d’une bonne dizaine de techniciens, parcourt inlassablement, trois fois par jour, les rangées de plantes et relève, pour chaque tournesol, la quantité d’eau consommée, la hauteur, le diamètre de la tige et la surface foliaire.

Si l'agriculture de précision se développe grâce à de nouvelles générations de robots beaucoup plus autonomes et polyvalents, elle bénéficie également de la montée en puissance des drones agricoles. Airinov, qui revendique aujourd’hui plus de 10.000 utilisateurs et 150.000 hectares couverts en France, a présenté récemment un nouveau drone de surveillance de parcelles agricoles eBee SQ. Très performant, ce drone est équipé du pilotage automatique et peut voler en pleine autonomie pendant 45 minutes. Il permet à l’exploitant de cartographier lui-même plusieurs centaines d’hectares en un seul vol et peut, par exemple, calculer le poids du colza ou le taux de chlorophylle du blé grâce aux longueurs d'onde émises par la plante. Il est alors possible d’évaluer de manière très précise les besoins en azote de chaque parcelle. Avec cette nouvelle génération de drones, plus fiables, plus « intelligents et surtout trois fois moins chers qu’il y a 5 ans, chaque euro investi par l’agriculteur va générer jusqu’à 7 euros de bénéfices supplémentaires, en termes de rendements et de gains de productions…

En fonction du type et de la taille de l’exploitation, l’agriculteur peut, dorénavant, recourir à la demande aux services de sociétés de conseils et d’expertise qui vont recouper images et données provenant de multiples sources (avions, drones, satellites, capteurs terrestres) et proposer à l’exploitant un état des lieux complet de ses productions et un scénario prospectif de ses récoltes à venir et de ses revenus potentiels.

L’extraordinaire succès de FARMSTAR, service créé en 2002, illustre parfaitement l’ampleur et la rapidité de cette mutation agricole et agraire en cours. Ce système d’analyse et de pilotage des cultures associe l’IA en agronomique et des images satellitaires HD pour fournir aux agriculteurs des informations en temps réel sur le niveau et le potentiel de croissance des plantes au niveau de chaque parcelle. En 15 ans, ce service, qui s’étend à présent aux principales cultures céréalières, n’a cessé de se perfectionner. Il devrait dépasser cette année le cap des 20 000 exploitations utilisatrices et couvre aujourd’hui 800 000 d’hectares.

Ces systèmes de modélisation et d’aides à la décision, qui intègrent bien sûr les prévisions météorologiques les plus pointues, vont également permettre à l’agriculteur de réorienter ses actions vers la prévention et d’anticiper la prise en charge des différents problèmes qui peuvent venir menacer la productivité de ses récoltes : intempéries, sécheresse, humidité excessive, présence de parasites ou de nuisibles etc.…  

Cette gestion et cette prévision numérique intégrée vont par ailleurs aider l’agriculteur à maîtriser et à réduire sensiblement ses charges et coûts d’exploitation en optimisant en permanence le ratio énergie-produits-production agricole et valeur ajoutée finale. Mais cette agriculture numérique provoque également une révolution en aval de la production, au niveau de la commercialisation des productions. L’agriculteur peut en effet recourir à présent à de puissants outils de conseils, s’appuyant sur les big data et l’intelligence artificielle, qui vont éclairer ses choix et ses décisions en matière de vente de ses productions sur les marchés mondiaux et vont lui permettre de vendre au meilleur prix et de mieux prévoir et sécuriser ses revenus.

Il faut également évoquer une autre évolution pleine de promesses : celle qui s’appuie sur la synergie entre l’agriculture numérique et l’agriculture biologique, en plein essor. Les ventes de produits biologiques sont en forte progression et le marché du bio représentait 7 milliards d’euros en 2016, contre 5,5 milliards d’euros l’année précédente. Il est vrai que, depuis 10 ans, l’alimentation biologique a cessé d’être une mode de « bobos » pour séduire une majorité de Français : 7 sur 10 en consomment régulièrement… Conséquence de cette évolution : 6 % des surfaces agricoles sont à présent utilisées pour les cultures biologiques et le nombre de producteurs « bio » a dépassé les 32 000 l’an dernier et augmente de 12 % par an.

Mais, paradoxalement, en dépit du plan « Ecophyto » qui prévoit une réduction de moitié de l’usage de ces substances d’ici 2025, l’emploi des produits phytosanitaires (pesticides, désherbants) a continué à progresser de 20 % depuis 10 ans et la France ne parvient pas à diminuer, ni même à stabiliser sa consommation globale de pesticides. Pourtant, une étude de l’INRA publiée il y a quelques semaines dans la revue Nature Plants, et s’appuyant sur l’analyse inédite des données recueillies depuis 3 ans dans un millier d’exploitations, montre qu’il serait possible de réduire au moins de 30 % le recours aux pesticides sans altérer les rendements agricoles et les revenus des agriculteurs. Mais ces recherches précisent toutefois qu’une telle diminution ne sera atteinte qu’en diversifiant dans le temps et l’espace les productions agricoles, ce qui rendra plus complexe le métier d’agriculteur. Or, c’est précisément sur ce point que l’apport de l’agriculture de précision, avec ses outils numériques de prévision, d’exploitation et de distribution, peut changer la donne.

L’agriculture numérique et robotisée, dont le marché mondial pourrait passer de 4 à 40 milliards de dollars entre 2017 et 2030, est donc un puissant catalyseur qui peut permettre, tout en maîtrisant les coûts de production, le développement de l’agriculture durable et raisonnée et accélérer, pour les exploitants qui le souhaitent, l’essor des productions entièrement biologiques dont la demande ne cesse de s’étendre et de se diversifier et qui rencontre un succès croissant auprès des consommateurs.

A plus long terme, cette mutation numérique de notre agriculture et de notre élevage va également rendre obsolète cette vieille opposition entre une agriculture « productiviste » et industrielle et une agriculture biologique ou agroécologique qui serait condamnée, par nature, à rester cantonnée dans des modes artisanaux et traditionnels de production et de gestion.

Pour nourrir correctement, et avec des produits de qualité, les neuf milliards d’hommes et de femmes qui peupleront notre planète dans 30 ans, nos agriculteurs n’auront pas à choisir entre ces deux types d’agriculture car ils devront à la fois être capables d’accroître leurs productions pour répondre à la demande mondiale qui augmentera de 50 % d’ici 2050 (le monde va devoir produire un milliard de tonnes de céréales supplémentaires à cette échéance pour nourrir l’Humanité) et d’apprendre à cultiver la terre de manière durable et respectueuse de l’environnement, non seulement en limitant de manière drastique l’utilisation des produits chimiques mais également en modifiant en profondeur leurs types de productions et leurs pratiques agricoles, de manière à prendre toute leur part dans la réduction des émissions de gaz à effet de serre et la lutte contre le changement climatique.

Enfin, je suis persuadé que cette mutation historique en cours va également changer profondément notre conception même du territoire. Cette révolution de l’agriculture numérique et prédictive, en conférant aux agriculteurs de nouvelles missions en matière de sécurité, de surveillance, d’aménagement et de valorisation touristique, va entraîner un mouvement profond et durable de redynamisation et de revitalisation de nos campagnes et de notre monde rural, qui cessera d’être une simple variable d’ajustement de notre économie nationale et participera pleinement à la création de richesse et au développement d’une ruralité active et innovante, redevenue un moteur essentiel de l’équilibre économique, social et culturel de notre Pays.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Ford annonce des voitures entièrement connectées pour 2018
Mardi, 21/03/2017 - 08:52

Ford a annoncé qu'il comptait équiper tous ses véhicules neufs de cartes 4G dès 2018. Selon Don Butler, en charge des véhicules connectés pour Ford, "Après avoir connecté les gens, dès 2007, avec la commande vocale, puis connecté les terminaux mobiles des passagers, nous allons connecter la voiture elle-même". Une fonctionnalité jusque-là réservée aux véhicules haut de gamme, que Ford va progressivement généraliser à toute sa gamme. D'autres constructeurs devraient le suivre, puisque dès le 31 mars 2018, tous les véhicules devront nativement proposer la fonction d'E call, un appel automatique des secours en cas d'accident.

Il ne s'agit pas uniquement de connecter le système de divertissement de bord, mais bien de distribuer Internet à tous les passagers. La voiture se transformera en hotspot wi-fi roulant sur lequel pourront être connectés dix terminaux. La connectivité s'étendra aussi à un rayon de 10 mètres autour du véhicule. Le signal reçu par l'antenne 4G du véhicule sera transformé en connexion wi-fi haut débit, permettant de streamer des films, de la musique, des jeux en ligne, promet Ford.

La marque proposera gratuitement des services liés au véhicule, comme la possibilité de contrôler certaines fonctions à distance (niveau d'essence, pré-chauffage de l'habitacle, par exemple). Les conducteurs voulant bénéficier du wi-fi devront souscrire un forfait data mensuel auprès du constructeur, qui sera "compétitif par rapport à ce que proposent les opérateurs", annonce John Butler.

En connectant ses véhicules, et bien qu'il promette de respecter la vie privée de ses utilisateurs, Ford disposera de données nouvelles sur l'utilisation de ses véhicules et pourra proposer des services sur mesure. Au CES 2017, il avait d'ailleurs annoncé la possibilité d'effectuer des achats sur Amazon dans son véhicule. Le constructeur entend continuer sur la même voie.

Plutôt dans le commerce et le divertissement que l'économie du partage ; "Ce qui nous disent les conducteurs pour l'instant, c'est qu'ils ne sont pas forcément prêts à partager leur véhicule", affirme Don Butler. "Nous devons poser les bases de cet écosystème, puis écouter nos clients pour voir vers quelles expériences il souhaitent aller".

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Digitale

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots comestibles pour vous soigner de l'intérieur
Vendredi, 17/03/2017 - 13:38

Des chercheurs de l'Ecole Polytechnique Fédérale de Lausanne (Suisse) travaillent sur un nouveau type de "robots comestibles", qui pourraient aider à acheminer des traitements ou des dispositifs de surveillance dans le corps.

Dario Floreano, directeur de l’Intelligence Systems Laboratory, admet que des robots comestibles en gélatine peuvent sembler étranges. Ils se présentent sous la forme de simples barrettes de gélatine mesurant seulement 90 millimètres de long, 20 de large et susceptibles de se plier jusqu'à 170 degrés. Ce sont des actionneurs, la partie d'un système robotique qui permet de le mettre en mouvement. Leur particularité : aucune pression ou courant électrique n'est nécessaire pour qu'ils se déplacent. Ils sont remplis d'air ou de liquides qui réagissent à la présence d'autres produits chimiques dans le corps, ce qui leur permet d'avancer.

Selon les chercheurs, "l'utilisation de matériaux comestibles en robotique demeure très limitée". Et les rares autres cas d'une telle utilisation s'étaient faits à l'aide de champs électriques ou magnétiques pour leur permettre de se déplacer. Avec la méthode proposée, ils espèrent aussi remplacer les élastomères silicone, souvent utilisés pour réaliser des robots mous. 

En combinant leur création aux progrès des composants électroniques comestibles, il serait ainsi possible de créer des robots entièrement comestibles "biodégradables, biocompatibles et respectueux de l'environnement avec une toxicité inexistante ou plus faible," que ce qui se fait aujourd'hui. Parmi les applications envisagées : l'administration précise des médicaments prescrits et la surveillance de certains paramètres biologiques de l’organisme.

Article rédigé par Georges Simmonds pour RT Flash

Express

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
-Not Like Dad- : découverte d’un gène majeur pour la sélection végétale
Jeudi, 23/03/2017 - 07:33

En 1959, un scientifique américain découvrait une plante de maïs dont le pollen mâle, déposé sur l’épi femelle, déclenche le développement de grains dits haploïdes, comportant uniquement la moitié du matériel génétique, celui de la mère. Pour pallier l'absence de l'information génétique du père, les gènes provenant de la mère sont alors dupliqués à l'identique. Le sélectionneur obtient ainsi des lignées « pures » en une seule génération, alors que ce processus nécessite normalement plusieurs années. Chez le maïs, ces lignées « pures » servent comme parents des hybrides, c'est-à-dire de plantes possédant des caractères d’intérêt agronomique sélectionnés, et de performance supérieure aux deux plantes parents.

Des travaux de chercheurs de l’Inra, en collaboration avec le CNRS, l’ENS de Lyon, l’Université Claude Bernard Lyon 1 et Limagrain, ont permis d’identifier un gène majeur responsable de l’induction de plantes haploïdes et l’ont baptisé « Not Like Dad » (en français « pas comme papa »). Ce résultat, fruit de 8 années de recherche, a été rendu possible par le séquençage du génome du maïs en 2009 et le développement de techniques notamment dans le champ de la génomique. L’induction d’haploïdie est un outil puissant de sélection qui, chez des espèces autres que le maïs, nécessite des systèmes de culture in vitro assez laborieux et coûteux.

Cette découverte du gène responsable de l'induction naturelle chez le maïs ouvre des pistes pour l’application à d’autres plantes, incluant des espèces -comme le tournesol- réfractaires à l'induction par culture in vitro.

Cette découverte majeure ouvre aussi la voie à l’acquisition de nouvelles connaissances de la fécondation et de la reproduction des plantes, notamment pour mieux comprendre le dialogue entre les gamètes mâle et femelle chez les plantes. Ces résultats, fruit de 8 années de recherche, ouvrent notamment des perspectives importantes dans la compréhension de la fécondation des plantes et dans le transfert de cet outil de sélection vers d'autres espèces cultivées.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

Atlantique Nord : le risque d'un refroidissement rapide revu à la hausse
Mardi, 21/03/2017 - 08:59

La possibilité d'un changement important du climat autour de l'Atlantique est connue depuis longtemps et a été exploitée avec succés au cinéma par le fim "Le jour d'après". Pour en évaluer le risque, des chercheurs du laboratoire Environnements et paléoenvironnements océaniques et continentaux (CNRS/Université de Bordeaux) ont développé un nouvel algorithme pour analyser les 40 projections climatiques prises en compte dans le dernier rapport du GIEC. Cette nouvelle étude montre que la probabilité d'un refroidissement rapide de l'Atlantique Nord au cours du XXIe siècle approcherait des 50 %.

Dans le cadre du projet européen EMBRACE, une équipe d'océanographes a réexaminé ces 40 projections climatiques en se focalisant sur un point névralgique au nord-ouest de l'Atlantique Nord : la mer du Labrador. Cette mer est le siège d'un phénomène de convection, qui nourrit à plus grande échelle la circulation océanique de retournement.

Ses eaux de surface se refroidissent fortement en hiver, deviennent plus denses que les eaux de profondeur et plongent vers le fond. La chaleur des eaux profondes est transférée vers la surface et empêche la formation de banquise. Choisissant d'étudier ce phénomène de convection en détail, les chercheurs ont développé un algorithme capable de repérer les variations rapides des températures à la surface de l'océan.

Résultat : 7 des 40 modèles climatiques étudiés projettent un arrêt complet de la convection engendrant des refroidissements abrupts – 2 ou 3 degrés en moins de dix ans – de la mer du Labrador, induisant de fortes baisses des températures dans les régions côtières de l'Atlantique Nord.

Mais un tel refroidissement rapide, simulé seulement par quelques modèles, est-il vraisemblable ? Pour répondre à cette question, les chercheurs se sont penchés sur la variable clé du déclenchement de la convection hivernale : la stratification océanique. Ces variations verticales de la densité des masses d'eau sont bien reproduites dans 11 des 40 modèles. Parmi ces 11 modèles, qui peuvent être considérés comme les plus fiables, 5 simulent une baisse rapide des températures de l'Atlantique Nord, soit 45 % !

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Epilepsie réfractaire : le régime cétogène est une option thérapeutique pour certains patients
Jeudi, 23/03/2017 - 15:12

Un petit essai clinique I réalisé par des chercheurs de la Johns Hopkins Médecine (Maryland) a montré que, chez certains patients épileptiques, un régime adapté parvenait à quasiment éliminer le statut épileptique et réduire considérablement la fréquence des crises.

On connaît déjà bien l’efficacité du régime cétogène dans le traitement des patients atteints d’épilepsie. Au-delà, le lien entre le régime alimentaire et donc le métabolisme et l’activité du cerveau devient de mieux en mieux documenté, tout comme les thérapies qui consistent à cibler le métabolisme via le microbiote pour contrôler ou à inhiber certains des processus cérébraux.

Ce petit essai clinique de phase I et II permet de constater que l’efficacité du régime cétogène s’applique aussi dans cette forme rare d’épilepsie "hyper-réfractaire". Ce régime est commenté comme "une option réalisable" pour ces patients atteints de la forme considérée comme la plus sévère d’épilepsie. Pour l’étude, l’équipe a recruté 15 patients âgés de 18 à 82 ans, diagnostiqués avec épilepsie super-réfractaire à l’hôpital Johns Hopkins, à la Mayo Clinic, et autres centres spécialisés. 5 de ces patients étaient des hommes, 6 avaient des antécédents d’épilepsie avant le développement de cette forme hyper-réfractaire.

Chez ces patients, et après plusieurs tentatives infructueuses de réduire la sévérité et la fréquence des crises par médicaments, les médecins utilisent des anesthésiques pour mettre le patient en coma artificiel, pour protéger ses muscles, ses reins, son corps et son cerveau de dommages encore plus sévères. Après 24 heures, le patient est réveillé pour vérifier si les crises reviennent. Si oui, alors les saisies sont considérées comme super-réfractaires. Ensuite, le médecin verra en fonction de l’histoire du patient car il n’y a pas de protocole de traitement standard. Dans l’essai, les participants avaient pris en moyenne 8 anti-épileptiques différents avant de passer au régime cétogène.

Le régime cétogène, riche en graisses, accélère le métabolisme des graisses du corps, comme pourrait le faire le jeûne, ce qui réduit l’excitabilité des cellules nerveuses dans le cerveau. Lorsque la plupart des calories ou de l’énergie proviennent de la graisse, le corps accumule des composés métabolites de la graisse, les cétones. Dans l’essai, le régime cétogène consistait en une boisson nutritive composée de 4 unités de lipides pour 1 unité de glucides et 1 de protéines (en grammes).

Chaque patient plongé en coma artificiel a reçu le régime par alimentation entérale, durant plus de 72 heures, les besoins caloriques ayant été calculés sur la base du poids. Après 72 heures d’alimentation artificielle, les médecins ont réduit progressivement les anesthésiques pour vérifier que les crises s’étaient arrêtées. En cas de non-récurrence, les patients ont continué à être alimentés par nutrition artificielle et par régime cétogène plusieurs jours jusqu’à pouvoir s’alimenter par eux-mêmes et, à ce stade, sont passés au régime modifié Atkins, un régime alimentaire riche en graisses et pauvre en glucides. En cas de récurrence des crises, le patient poursuivait le régime alimentaire cétogène par voie artificielle et recevait en plus des anti-épileptiques.

Résultat : après deux jours, tous les patients avaient des niveaux détectables de cétones, marqueurs du métabolisme de la graisse. Chez 79 % des patients ayant achevé l’étude, les crises super-réfractaires ont cessé et 8 patients ont totalement récupéré. 10 patients ont présenté des effets indésirables dont la constipation, la perte de poids, une hypoglycémie, une hausse du taux de cholestérol et une baisse des niveaux de sodium dans le sang.

Au final, 6 des 11 patients ayant achevé le régime cétogène à l’hôpital sont passés au régime Atkins modifié, plus facile à suivre que le régime cétogène. A 6 mois, pour ces 11 patients, 4 étaient toujours au régime Atkins modifié. Cet essai démontre que le régime cétogène constitue bien une option efficace pour réduire la fréquence et la sévérité des crises chez certains patients souffrant de la forme grave de l'épilepsie.

Article rédigé par Georges Simmonds pour RT Flash

Neurology

Hellocare : un nouvel outil pour généraliser la télémédecine
Jeudi, 23/03/2017 - 08:02

81 % des médecins estiment que la e-santé est une opportunité pour la qualité des soins et 75 % des Français se disent disposés à prendre contact avec les praticiens par voie numérique. Cependant, le décret de 2010 qui encadre l’activité de télémédecine n’en précise pas les contours et contraint sa démocratisation.

Selon une étude de la Pipame, menée par le Pôle interministériel de prospective et d’anticipation des mutations économiques, la France accuse un retard en matière d’e-santé. Cofondée par un médecin généraliste, la start-up Hellocare entend contribuer à lever les freins et à démocratiser le télé-conseil médical et, par extension, la télé-consultation. Hellocare lance une application mobile permettant la mise en relation audio ou vidéo des médecins et des patients, sept jours sur sept.

En France, les médecins font face à un système de consultation qui souffre de plusieurs maux. Comment faire lorsque la salle d’attente du cabinet médical se remplit à une vitesse folle, augmentant, pour les patients, les délais d’accès à un médecin ? Suite aux désistements, comment les médecins peuvent-ils mettre leur temps disponible au profit d’autres patients ? Comment accompagner le mieux possible les patients atteints de maladies chroniques sans leur demander de se déplacer ? Comment inciter ceux pour qui la visite d’un médecin est dissuasive, à prendre leur santé en main ?

L’application Hellocare franchit une première étape : elle offre un service de télé-conseil médical mobile, permettant aux médecins de répondre aux questions des patients, de les orienter et de les rassurer, en les mettant en relation audio ou vidéo. Les médecins généralistes peuvent désormais, via l’application, proposer leurs disponibilités en vue de réaliser du télé-conseil médical.

En permettant à tous les médecins d’assurer du conseil via leur mobile en audio ou en vidéo, l’application Hellocare veut mettre un terme aux problèmes de temps, de distance et d’attente qui entourent la consultation médicale. Hellocare apporte une réponse aux problématiques des déserts médicaux, à la surcharge des urgences et à la saturation des salles d’attente, auxquelles les médecins sont confrontés chaque jour.

Article rédigé par Georges Simmonds pour RT Flash

Caducée

Découverte d'une protéine-clé dans la formation des métastases
Jeudi, 23/03/2017 - 07:53

Un groupe de chercheurs franco-américain conduit par le Docteur Géraldine Guasch du Centre de Recherche en Cancérologie de Marseille (CRCM/INSERM) a démontré pour la première fois le rôle déterminant d'une protéine dans le processus métastatique de certains cancers.

Les zones de transition (TZs pour transition zones en anglais) sont des régions particulières de notre organisme où deux tissus épithéliaux distincts se rencontrent, créant une transition abrupte composée de populations cellulaires particulières. Ces TZs se retrouvent au niveau de l'oeil à la jonction de la cornée et de la conjonctive, au niveau du col de l'utérus entre l'endo et l'ectocervix, dans le tube digestif entre l'oesophage et l'estomac, l'estomac et duodénum, l'iléon et le coecum et enfin entre l'anus et le rectum, cette dernière appelée zone de transition ano-rectale ayant servi de modèle d'étude aux chercheurs de cette étude.

Chez l'homme et la souris, ces régions sont susceptibles de développer des cancers agressifs, responsables de l'apparition de tumeurs (carcinomes des cellules squameuses pour la zone anorectale, néoplasie squameuse à la surface de l'oeil...) qui, à leur tour, sont capables d'aller envahir d'autres organes secondaires pour former des métastases, derniers paramètres du système international classification TNM (Tumor, Node, Metastasis) et synonymes de mauvais pronostic pour les patients.

A l'origine de cette découverte, les chercheurs ont montré que la voie de signalisation du TGF-ß (pour transforming growth factor en anglais) était impliquée dans la formation de tumeurs. Le TGF-ß est une protéine impliquée dans la régulation de la réponse immunitaire. Lorsque notre organisme est confronté à la menace d'un antigène, cette voie de signalisation est activée pour déclencher les mécanismes de défense. Si cette voie est supprimée dans certaines régions spécifiques des épithéliums, comme l'ont testé les chercheurs dans un modèle de souris au niveau d'un épithélium stratifié (contenant plusieurs couches de cellules) de la zone anorectale, des tumeurs apparaissent.

Pour proliférer et se déplacer, les tumeurs présentes dans ces zones de transition s'appuient sur la présence de "super cellules" aux propriétés de cellules souches, seules capables de se multiplier à l'infini en milieu de culture, de former de nouvelles tumeurs et d'induire des métastases lorsqu'elles sont transplantées dans une souris saine.

Les chercheurs se sont donc intéressés de près au fonctionnement de ces cellules en comparant leur profil transcriptionnel à celui de cellules peuplant d'autres épithéliums squameux également à l'origine de la formation de métastases. "Nos travaux permettent d'établir une corrélation claire entre le niveau d'expression d'une protéine particulière, ELMO-1 responsable de la migration des cellules, et le niveau d'agressivité de la tumeur" explique le Docteur Heather McCauley, premier auteur de la publication.

En effet, les chercheurs ont montré qu'en diminuant le niveau d'expression de cette protéine, les tumeurs produites par ces "super cellules" conservent leur faculté de prolifération, mais sont incapables de migrer vers les organes secondaires pour former des métastases. "Le gène ELMO1 est un acteur clé dans l'exil des cellules tumorales et, de ce fait, constitue une excellente cible à visée diagnostique et thérapeutique pour prévenir et traiter les métastases, un champ encore peu exploré dans le traitement des cancers" conclut le Docteur Géraldine Guasch. 

Article rédigé par Georges Simmonds pour RT Flash

NCBI

Première mondiale : une prothèse trachéo-bronchique 3D sur-mesure
Jeudi, 23/03/2017 - 07:41

En 2015, un patient du service pneumologie du CHU de Toulouse a bénéficié d’une greffe d’un poumon. Mais depuis, il souffrait de difficultés respiratoires, à cause d’un rétrécissement (sténose) de la bronche survenue après la transplantation. Pour surmonter ce problème classique pour les greffés du poumon, la solution habituelle est d'installer une prothèse trachéo-bronchique standardisée, courante sur le marché. Mais pour ce patient, proche de la soixantaine, aucune prothèse ne convenait, les taille et diamètre n'étant pas adaptés à sa propre anatomie. Or une prothèse mal ajustée entraîne des risques de migration de l’implant, de réaction inflammatoire ou de perforation.

C'est pourquoi l’équipe médicale de pneumologie du CHU de Toulouse a collaboré avec une start-up locale spécialisée dans la création d'implants en 3D (AnatomikModeling), pour mettre au point une prothèse en silicone anatomiquement identique à la trachée et aux bronches du patient. Celle-ci a été mise en place chez ce patient fin 2016.

Cette nouvelle prothèse est fabriquée sur mesure en trois temps : reconstruction 3D réalisée à partir du scanner du patient, usinage d’un moule à partir de cette reconstruction virtuelle puis fabrication de la prothèse en élastomère de silicone médical. L’implantation de la prothèse s’effectue de manière classique, par bronchoscopie (une intervention qui permet d’examiner la trachée et les bronches par un bronchoscope, un type d'endoscope) et à l’aide d’un pousse prothèse, au bloc opératoire, sous anesthésie générale.

Ce nouvel implant, qui fait l’objet d’une étude clinique toujours en cours, a déjà permis à trois autres patients de ressentir une nette amélioration de la qualité de vie et, pour l'heure, aucune complication n’a été observée.

Article rédigé par Georges Simmonds pour RT Flash

ATS

Maladie d'Alzheimer et sucre : le lien se confirme...
Jeudi, 23/03/2017 - 06:47

Une étude réalisée au sein de l’Université de Bath révèle pour la première fois un lien moléculaire entre la glycémie et la maladie d’Alzheimer. Ces scientifiques britanniques montrent en effet comment l’excès de glucose endommage une enzyme vitale impliquée dans une réaction inflammatoire aux premiers stades de la maladie. Ainsi, une glycémie anormalement élevée, bien connue comme une caractéristique du diabète et de l’obésité, peut être aussi caractéristique de la maladie d’Alzheimer.

Les patients diabétiques ont un risque accru de développer la maladie d’Alzheimer par rapport aux personnes en bonne santé. L’association entre le diabète et la maladie d’Alzheimer a souvent été évoquée, avec des facteurs de risque génétiques communs, des effets d’une glycémie élevée sur la capacité cognitive, un processus d’action complexe de l’amyloïde sur le cerveau mais aussi le pancréas et, déjà, le double effet metformine sur le cerveau dément tout autant que le métabolisme. Bref, de nombreuses associations sont documentées mais le lien moléculaire entre les 2 pathologies reste obscur.

Dans la maladie d’Alzheimer, des protéines amyloïdes anormales s’accumulent pour former des plaques et des enchevêtrements dans le cerveau qui endommagent progressivement le cerveau et conduisent au déclin cognitif. Les scientifiques savent que le glucose et ses métabolites peuvent endommager les protéines dans les cellules via une réaction appelée glycation, mais la liaison moléculaire spécifique entre le glucose et la maladie d’Alzheimer n’est toujours pas comprise.

Les chercheurs de l’Université de Bath ont étudié des échantillons de cerveau de personnes atteintes ou non de la maladie d’Alzheimer en utilisant une technique suffisamment sensible pour détecter la glycation. L’équipe constate que dans les premiers stades d’Alzheimer, la glycation endommage une enzyme appelée MIF (macrophage migration inhibitory factor) qui joue un rôle dans la réponse immunitaire et la régulation de l’insuline.

Avec la maladie d’Alzheimer, l’inhibition et la réduction de l’activité de MIF causée par la glycation semble ce que les auteurs appellent "un point de basculement" dans la progression de la maladie : au fur et à mesure que la maladie progresse, la glycation de ces enzymes augmente. Et non seulement cette enzyme est modifiée par le glucose dans le cerveau aux premiers stades de la maladie d’Alzheimer, mais ces changements sont également détectables dans le sang.

En synthèse, l’excès de sucre réduit certaines fonctions de l’enzyme jusqu’à un point de basculement qui permet à la maladie d’Alzheimer de se développer. Un marqueur donc à ce stade précis de la chronologie de la progression de la maladie qui peut permettre de mieux identifier les patients à risque d’Alzheimer et conduire à de nouveaux traitements ou mode de prévention.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Schizophrénie et polyarthrite rhumatoïde : une troublante symétrie immunitaire...
Jeudi, 23/03/2017 - 06:38

En apparence, la schizophrénie, trouble psychiatrique d’origine inconnue et la polyarthrite rhumatoïde, maladie auto-immune des articulations, n’ont pas de points communs évidents et pourtant… En menant cette analyse des variantes génétiques impliquées dans la schizophrénie et la polyarthrite rhumatoïde à partir de données génomiques sur les 2 maladies, l’équipe de l’Université de Pittsburg confirme une relation inverse dans la prévalence et le risque de ces 2 troubles, une relation déjà suggérée par de précédentes études épidémiologiques. Mais cette fois les chercheurs sont allés plus loin et ont identifié le rôle de variantes génétiques spécifiques aux effets opposés sur le risque de schizophrénie et de polyarthrite rhumatoïde.

Les chercheurs ont d’abord analysé 2 grandes bases de données de variantes génétiques significativement associées à la schizophrénie ou la polyarthrite rhumatoïde. Ils ont pu identifier ainsi 18 variants, également connus sous le nom de polymorphisme d’un seul nucléotide (SNPs) situés dans la région du génome qui héberge des gènes associés à la fonction immunitaire. Ces variantes semblent conférer un risque différent pour la schizophrénie ou la polyarthrite rhumatoïde.

Ces SNPs étant situés près de 8 gènes connus dans cette région du génome, les auteurs suggèrent que ces gènes pourraient être impliqués dans le développement de la schizophrénie et de la polyarthrite rhumatoïde. De plus, les protéines codées par 2 des 8 gènes, HLA-B et HLA-C, sont présentes dans le cerveau et les cellules immunitaires. L’analyse des protéines qui interagissent avec ces 8 gènes permet ensuite d’identifier plus de 25 voies de signalisation faisant intervenir des protéines communes à la polyarthrite rhumatoïde et la schizophrénie. Plusieurs de ces voies s’avèrent associées à la fonction du système immunitaire et à l’inflammation.

L’hypothèse d’une dysfonction immunitaire à l’origine de la schizophrénie : ces résultats soutiennent ainsi les associations du gène HLA et de la fonction immunitaire avec la schizophrénie et la polyarthrite rhumatoïde et suggèrent qu’une dysfonction du système immunitaire pourrait jouer un rôle dans le développement de la schizophrénie. Selon les auteurs, il existe donc bien une relation et des racines communes aux 2 maladies. On retiendra surtout l’hypothèse d’une dysfonction immunitaire à l’origine de la schizophrénie.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La vie intra-utérine influe sur le développement cérébral
Jeudi, 23/03/2017 - 06:29

Une étude sur des jumeaux, réalisée par l’Université Concordia (Canada) a montré que la vie intra-utérine du fœtus peut avoir des répercussions à long terme sur le cerveau et influer sur le développement cérébral. De précédentes études ont montré que le poids de naissance constitue un prédicteur du développement cérébral. Ici, l’équipe de Linda Booij, professeur de psychologie à l’Université Concordia et chercheur au CHU Sainte-Justine montre que, chez les jumeaux génétiquement identiques, les variations de poids à la naissance s’accompagnent de différences structurelles au cortex et que le code génétique ne suffit pas à expliquer cette relation de cause à effet.

L’équipe a suivi des couples de jumeaux génétiquement identiques de la naissance à l’adolescence. Les chercheurs ont pris en compte le poids de naissance, un premier indicateur possible de l’influence de facteurs environnementaux intra-utérins. Parce qu’ils partagent le même milieu prénatal, les fœtus gémellaires partagent des caractéristiques communes mais peuvent avoir un poids de naissance différent.

Cette constatation suggère déjà que tout écart dans le poids de naissance résulte de facteurs précis intra-utérins. Les chercheurs ont réalisé des imageries encéphaliques chez 52 des jeunes participants afin d’examiner la structure de leur cortex.

Des prélèvements d’ADN ont également été effectués pour identifier d’éventuelles différences épigénétiques entre les jumeaux, c’est-à-dire des changements dans l’expression des gènes liés à des facteurs environnementaux. A l’adolescence, le cortex des jumeaux présentait des différences de volume. Enfin, les chercheurs identifient des variations épigénétiques associées aux différences de poids de naissance et de structure corticale.

Cs recherches montrent ainsi que certains facteurs du milieu intra-utérin vont induire des modifications épigénétiques qui vont influer sur le développement du cortex et donc, indirectement sur la régulation émotionnelle et diverses capacités cognitives à l’adolescence.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

Sclérose en plaques : vers la compréhension du processus de régénération de la myéline
Jeudi, 23/03/2017 - 06:20

Pourquoi la sclérose en plaques progresse-t-elle plus rapidement chez certains patients que chez d’autres et pourquoi certains patients atteints de SEP arrivent à régénérer leur myéline et d’autres non ? Des chercheurs de l’Inserm au sein de l’Unité 1127 « Institut du cerveau et de la moelle épinière » (Inserm/CNRS/UPMC) ont mis en évidence le fait que les lymphocytes jouent un rôle majeur dans ce processus de remyélinisation.

La sclérose en plaques (SEP) est une maladie inflammatoire du système nerveux central entraînant une destruction progressive de la gaine de myéline entourant les axones, indispensable à leur protection et à la transmission de l’influx nerveux. La capacité à réparer la myéline efficacement est un facteur clef pour contrer la progression de la maladie. Comprendre pourquoi et comment certains patients parviennent à mieux gérer la maladie que d’autres est essentiel.

Dans la sclérose en plaques, les lymphocytes T attaquent la myéline comme s’il s’agissait d’un virus, ce qui est anormal, mais ce sont également eux qui organisent, plus ou moins bien, la réparation de celle-ci. Les lymphocytes activent les macrophages et la microglie, (d’autres cellules du système immunitaire), qui elles-mêmes vont attirer de nouvelles cellules souches sur le site de la lésion afin de réparer la myéline endommagée. Des études antérieures ont montré que chez certains patients, les lésions sont complétement réparées alors que chez d’autres patients, une fois la lésion apparue, elle ne se répare jamais.

Pour mieux comprendre le phénomène, les chercheurs de I’Inserm ont greffé des lymphocytes provenant de donneurs sains ou de patients atteints de sclérose en plaques au niveau de lésions démyélinisées de la moelle épinière de souris. Grâce à cette technique, les chercheurs ont montré que le problème ne se trouvait pas au niveau de la première phase de recrutement des cellules capables de réparation, mais au niveau de la différenciation de ces cellules pour réparer la myéline.

Dans le cas des patients à forte capacité de remyélinisation, les lymphocytes vont envoyer les signaux appropriés pour activer la microglie, qui passe alors dans un état d’activation et entraîne la différenciation des cellules souches et la réparation de la myéline. Dans le cas de patients à faible capacité de remyélinisation, les lymphocytes T ne permettent pas l’activation de la microglie, affectant l’ensemble de la cascade de réparation.

En comparant les profils de sécrétion des lymphocytes issus de patients à forte ou faible capacité de remyélinisation, les chercheurs ont mis en évidence 3 molécules associées à une bonne remyélinisation et 3 molécules associées à une mauvaise. Parmi elles se trouve la molécule CCL19, associée à une faible capacité de remyélinisation. Les chercheurs proposent l’hypothèse selon laquelle l’inhibition de cette molécule permettrait aux macrophages d’atteindre un état d’activation et pourrait donc agir sur le profil de remyélinisation des patients.

Ces résultats pourraient ouvrir de nouvelles pistes de compréhension dans d’autres pathologies comme la sclérose latérale amyotrophique, la maladie d’Alzheimer et la maladie de Parkinson. "De plus, l’étude systématique de leurs lymphocytes permettrait de proposer une aide au diagnostic et au traitement et de développer une médecine de précision adaptée à chaque patient" explique Violetta Zujovic, chercheuse à l'Inserm et principal auteur de ces travaux.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Oublier ses peurs par une greffe de neurones ?
Mardi, 21/03/2017 - 09:06

La peur est une émotion ressentie lorsque l’on anticipe ou que l’on est confronté à une situation dangereuse ou menaçante. Elle peut être innée, comme la peur du vide, ou acquise, suite à un événement ou une expérience traumatisante. Dans le mécanisme de la peur acquise, l’amygdale cérébrale joue un rôle essentiel. Elle est située dans le lobe temporal du cerveau, zone importante pour les fonctions cognitives.

L’équipe de YU Yongchun, de l’Institut des Sciences du Cerveau (Institutes of Brain Science, IOBS) de l’Université Fudan de Shanghai, a réalisé une greffe de neurones embryonnaires responsables de l’émission du neurotransmetteur GABA (neurones « GABAergiques »), sur les amygdales de souris adultes. Ces souris ont été conditionnées à une peur, en leur faisant associer un son à une faible décharge électrique aux pieds. Après un certain temps, les souris s’immobilisent en entendant le son, par anticipation de la décharge électrique associée.

Deux semaines après la greffe de neurones, les chercheurs leur ont fait suivre un entraînement destiné à leur faire oublier cette peur : ils ont émis le son mais pas de décharge électrique. Les souris greffées ont alors montré une meilleure capacité à oublier la peur que les souris non greffées.

Les neurotransmetteurs sont des substances chimiques produites par les neurones. Ils peuvent être excitateurs, comme le glutamate, ou inhibiteurs, comme le GABA. La greffe des neurones embryonnaires GABAergiques a permis d’inhiber la surexcitation de l’amygdale, en réponse au stimulus auditif. Autre effet observé : la greffe de ces cellules immatures semble avoir rajeuni l’amygdale.

Les cellules greffées ont provoqué un rajeunissement des neurones voisins, restaurant ainsi la plasticité synaptique. La plasticité est la capacité du cerveau à créer, défaire et réorganiser les réseaux de neurones ainsi que leurs connexions. Notre cerveau reste plastique tout au long de notre vie mais cette plasticité décroît avec l’âge, ce qui explique que les enfants apprennent et mémorisent plus facilement que les adultes. Les résultats de ces expériences sont prometteurs, notamment pour le traitement des troubles de stress post-traumatiques.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Comment les protéines sont contrôlées à distance
Mardi, 21/03/2017 - 08:44

Les enzymes sont de grosses protéines qui facilitent une multitude de réactions biochimiques dans nos cellules. C'est pourquoi un des plus grands efforts dans le domaine de la conception des médicaments aujourd'hui vise à contrôler les enzymes sans interférer avec ce qu'on appelle leurs sites actifs – les parties de l'enzyme dans lesquelles se produit la réaction biochimique.

Cette approche « à distance » est appelée « régulation allostérique », et le fait de pouvoir prédire les parcours allostériques pour les enzymes et d'autres protéines a suscité un intérêt considérable. Des scientifiques de l'EPFL, avec des collègues aux Etats-Unis et au Brésil, viennent de développer un nouvel outil mathématique qui permet de meilleures prévisions allostériques.

La régulation allostérique est un mécanisme moléculaire fondamental qui module de nombreux processus cellulaires, les affine et les rend plus efficaces. La plupart des protéines contiennent dans leur structure des parties éloignées de leur site actif, qui peuvent être ciblées pour influencer leur comportement « à distance ». Lorsqu'une molécule modulatrice allostérique – qu'elle soit naturelle ou synthétique – se lie à un tel site, elle modifie la structure 3D de la protéine, affectant de ce fait sa fonction.

La raison principale qui rend les sites allostériques si intéressants pour la conception de médicaments réside dans le fait qu'ils peuvent être utilisés pour inhiber ou améliorer l'activité d'une protéine, par exemple, la force de liaison d'une enzyme ou d'un récepteur.

A titre d'illustration de ces effets, le diazepam (Valium) agit sur un site allostérique du récepteur GABAA dans le cerveau et accroît sa capacité à établir des liaisons. Son antidote, le flumazenil (Lanexat), agit sur le même site, mais inhibe au contraire le récepteur.

D'une manière générale, un médicament allostérique serait utilisé à une dose comparativement plus faible par rapport à un médicament agissant directement sur le site actif de la protéine, offrant ainsi des traitements plus efficaces avec moins d'effets secondaires. Malgré l'importance des processus allostériques, nous ne comprenons toujours pas complètement comment une molécule, en se liant sur une partie distante et apparemment peu importante d'une grosse protéine, peut changer aussi fortement sa fonction. La clé se trouve dans l'architecture générale de la protéine qui détermine quels types de changements 3D provoquera un effet allostérique.

Le laboratoire de Matthieu Wyart à l'EPFL s'est efforcé de répondre à plusieurs questions concernant notre compréhension actuelle des architectures allostériques. Les scientifiques les classent en deux types : les charnières, qui provoquent des changements de structure à la manière de ciseaux, et les cisaillements, qui comprennent deux plans se déplaçant côte à côte.

Bien qu'ils soient clairs sur le plan mécanique, les deux modèles n'englobent pas l'ensemble des cas d'effets allostériques, où certaines protéines ne peuvent pas être classifiées comme ayant des architectures charnière ou cisaillement. Les chercheurs ont exploré des architectures allostériques alternatives. En particulier, ils ont examiné la structure des protéines comme des sphères réparties de manière aléatoire capables d'évoluer pour accomplir une fonction donnée. Lorsqu'une sphère bouge d'une certaine manière, ce modèle peut aider les scientifiques à repérer son impact structurel sur l'ensemble de la protéine.

Au moyen de cette approche, les scientifiques ont développé un nouveau modèle qui peut prédire le nombre d'architectures 3D possibles pour les enzymes et les protéines. Chaque solution peut même être imprimée avec une imprimante 3D pour créer un modèle physique. Le modèle propose une nouvelle hypothèse pour les architectures allostériques, qui introduit l'idée que certaines régions dans la protéine peuvent agir comme des leviers. Ces leviers amplifient la réponse induite en attachant un ligand et permettent une action à distance.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Un nouveau médicament contre la malaria et la toxoplasmose
Mardi, 21/03/2017 - 08:32

Une équipe internationale coordonnée par Mohamed-Ali Hakimi à l'Institut pour l'avancée des biosciences, associant des chercheurs de l'EMBL-Grenoble et de la société ANACOR pharmaceutical, a découvert une nouvelle molécule, AN3661, qui stoppe la prolifération des parasites du paludisme et de la toxoplasmose. La molécule permet une guérison complète de souris infectées par ces parasites.

Le paludisme est une cause de mortalité importante dans les pays du Sud. Aujourd'hui, l'un des médicaments les plus efficaces pour combattre le paludisme est l'artémisinine, molécule issue d'une plante trouvée en Chine. Sa découverte, par la professeure Youyou Tu, a été récompensée par le prix Nobel de physiologie-médecine 2015.

Toxoplasma menace le foetus lors d'une primo-infection de la mère ou encore les patients immunodéprimés. Une faible efficacité des médicaments existants et des effets secondaires compliquent le contrôle de ces infections. Cette situation souligne le besoin urgent de nouvelles classes de candidats-médicaments et la découverte de nouvelles cibles pour lutter contre ces parasitoses humaines.

Les chercheurs ont testé la molécule benzoxaborole AN3661 développée par la société ANACOR. Les résultats montrent qu'elle bloque la prolifération intracellulaire de Toxoplasma avec la même efficacité que les médicaments actuels utilisés en clinique comme la sulfadiazine et la pyriméthamine. Ils apportent la preuve que des souris traitées par voie orale avec AN3661 survivent à une toxoplasmose aiguë. Enfin, ils identifient par génétique la cible moléculaire de AN3661, la protéine CPSF3, une enzyme impliquée dans la régulation des ARN messagers. Les chercheurs estiment que cette enzyme est donc un candidat sérieux pour le développement d'un médicament contre la toxoplasmose ou le paludisme.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Bientôt un vaccin contre la peste ?
Mardi, 21/03/2017 - 08:25

La peste, maladie qui a tué un tiers de la population européenne à la fin du Moyen-Age, sévit encore dans le monde de façon endémique, notamment à Madagascar, en République Démocratique du Congo et au Pérou.

En 2013, l’OMS a répertorié 783 cas dont 126 mortels et, en 2015, 16 cas ont été rapportés dans l’Ouest des Etats-Unis dont 4 mortels. Yersinia pestis est très pathogène et est sous haute surveillance par crainte d’une utilisation dans le cadre d’une attaque bioterroriste. Depuis l’attentat avec des lettres « empoisonnées » par le bacille du charbon (anthrax) en 2001, les recherches sur les vaccins contre Y pestis se sont accentuées. Certains existent déjà, mais ils ne sont pas approuvés par la FDA car ils engendrent des effets secondaires importants et peuvent même être mortels en cas d’hémochromatose par exemple.

De plus, ils ne protègent que contre la peste bubonique et non contre la peste pulmonaire, plus dangereuse. La bactérie responsable de la peste est en tête de liste dans les préoccupations du Center for Disease Control and Prevention (CDC), côte à côte avec l’anthrax, le virus de Ebola, de la variole et de Marburg notamment. Rappelons que la peste peut être bubonique, septicémique ou pulmonaire selon le mode de transmission.

Non traitée, la forme bubonique a un taux de mortalité de 40 à 70 % et les formes pulmonaire et septicémique sont quasiment toujours fatales en cas de retard de prise en charge. Cependant, l’utilisation de la streptomycine, de la gentamycine, des tétracyclines et des fluoroquinolones a permis une diminution de la mortalité.

Une équipe américaine de Houston, dirigée par l'immunlogiste Bethany L Tiner, a travaillé sur plusieurs modèles de Yersinia pestis soit en mutant certains gènes soit en supprimant des gènes de virulence. Après vaccination de souris et de rats avec ces différents mutants, les auteurs ont observé un pic d’IgG spécifique de Yersinia pestis entre J35 et J56.

Chez toutes les souris immunisées, les résultats ont montré une augmentation des cellules B mémoires, de CD4+ et de cytokines pro-inflammatoires comme l’IL-17 ou l’IFN gamma. À  J120, ces animaux ont été exposés à une souche sauvage de Yersinia par voie nasale. Avec certains mutants, la réponse humorale et cellulaire prolongée est efficace à 100 % contre la peste pulmonaire.

Bien sûr, des études supplémentaires sont nécessaires mais ces vaccins vivants atténués sont une avancée encourageante pour d’une part éradiquer définitivement ce germe mais surtout pour une protection potentielle en cas de guerre biologique…

Article rédigé par Georges Simmonds pour RT Flash

Nature

Un herpès génital chez une femme enceinte doublerait le risque d'autisme de l'enfant
Vendredi, 17/03/2017 - 13:46

Selon une étude américaine réalisée à l'Université Columbia de New York, les femmes infectées par le virus de l'herpès génital pendant leur grossesse courent deux fois plus de risques de donner naissance à un enfant autiste. "Nous pensons que la réponse immunitaire de la mère au virus HSV-2 de l'herpès pourrait affecter le développement du système nerveux central du foetus, accroissant le risque d'autisme", explique la principale auteure de cette étude publiée dans la revue mSphere.

Les chercheurs ne pensent pas que le risque soit directement lié à l'infection du foetus car celle-ci lui serait probablement fatale. Ils avancent plutôt une réaction de l'organisme de la mère ou une réactivation de l'infection par l'herpès, accompagnée d'une inflammation à proximité de l'utérus.

Environ une Américaine sur cinq est porteuse du virus HSV-2 responsable de l'herpès génital, qui est très contagieux et se transmet sexuellement. Après une flambée infectieuse initiale, le virus subsiste latent dans les cellules nerveuses. Des poussées se produisent de temps à autre mais leur fréquence diminue à mesure que l'organisme développe une immunité.

Pour ces travaux, les scientifiques ont étudié les liens éventuels entre cinq agents pathogènes connus collectivement comme les "Torch" et le trouble du spectre autistique. Les "Torch" sont le parasite Toxoplasma gondii, la rubéole, les virus de l'herpès (HVS 1 et 2), et celui du cytomégalovirus, dont une infection pendant la grossesse peut provoquer fausse-couche ou malformations congénitales.

Des échantillons sanguins de 412 mères et de leurs enfants diagnostiqués d'autisme ont été étudiés, ainsi que ceux de 463 autres femmes dont les enfants ne souffraient pas de ce syndrome.

L'étude de ces deux groupes a été supervisée par l'Institut norvégien de santé publique.

Les échantillons de sang ont été prélevés deux fois, vers dix-huit semaines de gestation et à la naissance, pour analyser les niveaux d'anticorps contre chacun de ces cinq agents pathogènes. Les chercheurs ont constaté une corrélation entre des niveaux élevés d'anticorps aux virus de l'herpès et l'autisme, mais pas avec les autres virus du groupe "Torch".

Ces résultats confortent aussi des données épidémiologiques d'études précédentes indiquant que l'activation du système immunitaire maternel entre le début et le milieu de la grossesse est liée, à long terme, à des problèmes de développement et de comportement des enfants.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

La créativité : une affaire de connexion entre les deux hémisphères du cerveau ?
Vendredi, 17/03/2017 - 13:42

Une étude italo-américaine vient de montrer que la qualité de la connexion entre les hémisphères du cerveau semble être un bon indicateur de la créativité chez l'homme. D'ailleurs, une précédente étude, publiée elle dans la revue Brain, avait montré que le cerveau d'Einstein était doté d'hémisphères droit et gauche particulièrement bien connectés l’un à l’autre.

Les statisticiens David Dunson (université Duke) et Daniele Durante (université de Padoue) ont analysé le réseau de connexions de la matière blanche entre 68 régions cérébrales distinctes chez des étudiants en bonne santé.

La matière blanche est l'ensemble des fibres des neurones connectant les différentes aires du cerveau. Elle jouerait un rôle important dans l'intelligence.

En amont, une équipe dirigée par le neuroscientifique Rex Jung de l'université du Nouveau-Mexique a d'abord utilisé une technique particulière d'IRM permettant aux chercheurs d'observer l'intérieur du cerveau d'une personne vivante et de tracer les chemins de tous les axones. Ces réseaux ont ensuite été modélisés par informatique et l'équipe de Jung a en parallèle utilisé divers tests pour évaluer la créativité (résoudre des problèmes de "pensée divergente", donner un maximum de réponses à des questions ouvertes, réaliser le plus de dessins géométriques possibles en cinq minutes, trouver des usages alternatifs à des objets du quotidien...).

Les participants ont également rempli un questionnaire sur leurs réalisations dans dix domaines, comprenant les arts visuels, la musique, l'écriture, la danse, la cuisine et la science. En combinant toutes ces données, les scientifiques ont attribué à chacun un score de créativité.

David Dunson et Daniele Durante ont créé des algorithmes capables d'analyser ces informations, d'identifier des différences entre les structures cérébrales des sujets étudiés et de les combiner avec le score de créativité. Résultat : ceux qui avaient un score de créativité beaucoup plus élevé possédaient davantage de connexions entre les deux hémisphères, et cela était d'autant plus marqué dans le lobe cérébral.

Article rédigé par Georges Simmonds pour RT Flash 

Project Euclid

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top