|
|
Edito
La France prépare l’usine du futur
On l’oublie souvent, la désindustrialisation qui frappe nos économies développées est bien antérieure à l’apparition de l’Internet et de l’économie numérique, au début des années 1990. En France, la part de l'industrie dans la valeur ajoutée est ainsi passée de 30 %, au lendemain de la seconde guerre mondiale, à 24 % en 1980, pour descendre à 10 % aujourd'hui. Cette désindustrialisation a pour corollaire une croissance continue de la part des services marchands, qui passe de 35 % au début des années 1950 à 57 % aujourd'hui.
L’une des conséquences de cette évolution est que plus de 8,8 millions d'emplois ont été créés dans le tertiaire entre 1975 et 2010, tandis que l'industrie, l'agriculture et la construction en perdaient respectivement 2,5 millions, 1,4 million et 117.000.
Ce déclin industriel et cette tertiarisation croissante de notre économie ont été accélérés depuis une vingtaine d’années par la forte croissance de l’économie numérique qui représente aujourd’hui 5,5 % du PIB français (124 milliards d’euros) et 1,5 million d’emplois, ce qui équivaut à environ 25 % de la croissance nationale.
C’est dans ce contexte économique, marqué par le reflux inexorable de l’industrie traditionnelle et la montée en puissance de l’économie numérique et cognitive, que l’Allemagne a lancé en 2013, le concept d'industrie 4.0, à présent repris dans le monde entier. A l’origine de ce nouveau concept, on trouve une réflexion économique implacable bien formulée par Eric Payan, responsable en France du programme industrie 4.0 de Bosch qui développe 150 projets d'usine connectée, « Pour conserver sa puissance industrielle, l’Europe ne doit pas se battre sur le prix bas, mais sur la qualité, la technologie et des services parfaitement adaptés aux consommateurs ».
Pendant ce temps, la France continue d’accuser un retard persistant en matière de « densité robotique » (nombre de robots industriels pour 10 000 salariés). Elle ne compte toujours que 125 robots pour 10 000 salariés de l'industrie et n’arrive qu’au 11ème rang des pays de l’OCDE, loin derrière ses voisins allemands et italiens. En valeur absolue, le retard français en matière de robotique industrielle est encore plus grand : l’Allemagne compte cinq fois plus de robots industriels – plus de 167 000. Le Japon, avec 304 000 robots en utilisation, est dix fois plus robotisé que la France. La Chine, qui prend le tournant de la robotisation, a déjà quatre fois plus de robots industriels que nous.
Heureusement, nos entreprises ont à présent bien pris conscience de l’importance majeure de cette mutation industrielle en cours. Elles intègrent à tous les niveaux de la production le concept de « Cobots », c’est-à-dire de robot-collaborateur, capable de seconder activement l’homme dans son travail. Un nouveau programme de recherche commun, lancé en février dernier par le groupe Airbus et le Laboratoire franco-japonais de robotique (JRL), vise à développer des robots humanoïdes dédiés aux lignes de montage aéronautiques. « Étant donné la spécificité des lignes d’assemblage aéronautiques et des tâches qu’elles requièrent, le groupe Airbus a des besoins bien définis », explique Abderrahmane Kheddar, directeur du JRL. Dans ce cas précis, les robots doivent savoir évoluer dans des espaces réduits tels qu’un fuselage, et accomplir des tâches complexes dans de nombreuses positions. Et c’est précisément ce que parviennent à faire ces « cobots » de nouvelle génération qui, en combinant l’expertise japonaise en électronique et en robotique à l’excellence française en mathématiques et en informatique, ont appris à travailler non seulement debout mais également à genoux et couchés, comme le font déjà leurs collègues humains…
Mais ces chercheurs veulent à présent aller plus loin et franchir une nouvelle étape en concevant des programmes qui permettront à ces cobots de savoir s’adapter très rapidement à certaines situations imprévues qui peuvent survenir tout au long du processus de production et d’aménagement des avions. Le défi n’est pas mince car pour acquérir une réelle autonomie et savoir prendre instantanément des initiatives adaptées à la situation ce nouveau type de robot doit être capable d’apprendre en permanence pour mieux comprendre son environnement.
Parallèlement à cette nouvelle forme de collaboration intelligente entre l’homme et le robot, le processus de production très complexe des milliers de pièces qui composent ce type d’avion est également en train d’être totalement révolutionné par l’intégration des technologies numériques et de la robotique. Dans le cadre de ce concept d’usine du futur, l’équipementier aéronautique Daher est en train de mettre en place trois lignes flexibles et automatisées de production de pièces aéronautiques de petites dimensions. Lorsque ces lignes seront totalement opérationnelles, en 2017, elles seront capables de produire à la demande des dizaines de milliers de pièces différentes, chacune parfaitement étalonnée et conforme au cahier des charges rigoureux défini par Airbus.
Dans le cadre du plan « Usine du Futur », lancé en 2012, Fives et Dassault Systèmes ont pour leur part identifié six thématiques : le numérique, la robotique de process, la fabrication additive et autres procédés, les composites, le contrôle non destructif et la place de l’homme dans l’usine. L’objectif avoué de ce plan est de lever les obstacles technologiques et de mettre en place un système de production et de contrôle global entièrement numérisé.
Cette révolution productique est rendue possible par l’arrivée sur le marché d’une nouvelle génération de robots industriels dont les performances n'ont plus rien à voir avec celles, encore très limitées, de leurs congénères de la fin du siècle dernier. ABB (leader mondial dans les technologies de l’énergie et de l’automation) a par exemple présenté l’année dernière son nouveau robot, le YuMi (« Toi et moi »). Il s’agit du premier véritable robot collaboratif au monde qui dispose de deux bras. Contrairement à la quasi-totalité des robots industriels existants, YuMi peut travailler avec l’homme sans cage autour de lui. Il a la capacité de voir et de ressentir, ce qui lui permet d’une part de travailler en collaboration avec l’homme et d’autre part de manipuler avec une très grande précision n’importe quel objet de petite taille, le tout avec un niveau de sécurité extrêmement élevé pour l’homme.
Autre exemple de la révolution industrielle en cours : le nouveau robot industriel intelligent qui est fabriqué par l’entreprise Japonaise Fanuc. Ce robot utilise les nouvelles techniques d’apprentissage profond (Deep Reinforcement Learning), ce qui va lui permettre de développer rapidement un chemin heuristique pertinent pour résoudre une tâche nouvelle. Après 8 heures d’entraînement en moyenne, ce robot obtient une précision supérieure à 90 % et devient alors pleinement opérationnel. Mais, selon les chercheurs de Fanuc, cette révolution de l’apprentissage profond appliqué aux robots ne fait que commencer car si l’on combine cette méthode avec les nouvelles technologies de partage des connaissances, via le cloud, on peut parvenir à créer une véritable « intelligence collective robotique ». Ken Goldberg, professeur de robotique à l’Université de Californie, est d’ailleurs persuadé que, d’ici quelques années l’ensemble des robots présents dans une unité de production sauront communiquer et collaborer entre eux et fonctionneront simultanément au niveau individuel et au niveau collectif, un peu à la manière d’une ruche ou d’une termitière…
Mais le concept d’usine du futur vise également à améliorer drastiquement l’efficacité énergétique et à réduire l’empreinte écologique des processus de production. La société Triballat Noyal (900 salariés, 242 millions d’euros de chiffre d’affaires en 2014), qui fabrique des produits alimentaires à base de lait et de soja, est déjà en pointe en matière d’utilisation d’énergies renouvelables (elle utilise une éolienne, des panneaux photovoltaïques et une chaudière à biomasse) mais elle a décidé d’aller plus loin et de réduire, d’ici trois ans, sa consommation énergétique globale de 20 %.
Pour atteindre cet objectif, cette entreprise va poursuivre ses investissements importants (20 millions d’euros par an, soit 8 % du chiffre d’affaires) dans l’amélioration de son efficacité énergétique à tous les niveaux, y compris en termes de réduction des pertes de matières. Elle est également parvenue à recycler entièrement ses flux de lait de brebis sur son site de fabrication de yaourts, en Lozère.
Autre exemple de cette mutation vers l’usine du futur : le projet développé par le motoriste Safran et visant à produire des pièces complexes de différentes tailles en métal, en recourant aux technologies habituellement utilisées dans la plasturgie. Grâce au savoir-faire de la société Alliance, fondée il y a 20 ans, qui a su développer une remarquable technologie du moulage par injection de métal (MIM), Safran est sur le point de gagner son pari qui vise à produire un plus grand nombre de pièces complexes rapidement et à moindre coût (jusqu’à 40 % d’économies). Le procédé consiste à injecter un granulé plastique chargé de poudres métalliques dans un moule avant de retirer le plastique, puis de fritter la pièce moulée. Après avoir maîtrisé la production de petites pièces, Safran cherche à présent à utiliser cette technologie très innovante pour fabriquer des pièces de plus grande taille, destinées notamment au secteur en plein essor de l’aéronautique.
D’autres domaines, comme celui de la chimie fine, sont également touchés par cette mutation industrielle sans précédent. Air Liquide a ainsi présenté il y a quelques semaines son projet "Connect", labellisé "vitrine technologique" par l'Alliance pour l'Industrie du futur, qui réunit les organisations professionnelles de l’Industrie et du Numérique pour gérer le déploiement du plan "Industrie du Futur" en France.
Air Liquide va investir 20 millions d’euros d’ici 2017 pour rendre opérationnel en 2017, près de Lyon, un centre de pilotage unique dans l’industrie des gaz industriels. Ce centre, en pointe au niveau mondial, sera capable de piloter et d’optimiser la production, l’efficacité énergétique et la fiabilité d’une vingtaine de sites français alimentant par canalisation des clients industriels en oxygène, azote, argon et hydrogène. Mais cette unité sera également capable de déclencher des actions de maintenance prédictives. Ce projet collaboratif associe une centaine d’entreprises locales, dont une dizaine de start-up, et vise à tester et introduire les dernières technologies digitales (scan 3D, réalité augmentée, tablettes tactiles, tutoriels vidéo, etc.) dans le travail quotidien des équipes des sites. Il s’agit, selon Air liquide « d’adapter la production de chaque site aux besoins des clients en temps réel, grâce à l’analyse des données de masse ».
Parmi les nombreux outils technologiques du futur qui seront utilisés dans cette usine high-tech d’Air liquide, on trouvera notamment des lunettes de réalité augmentée semblables à celles mises au point récemment par Bosh. Cet équipementier a en effet conçu les lunettes intelligentes destinées à simplifier de manière drastique la gestion des contrôles qualité. Au lieu d’utiliser un classique formulaire papier ou une tablette, l'opérateur voit l'image virtuelle de la pièce à contrôler qu'il compare à la pièce réelle. Il lui suffit alors d’émettre ses instructions vocalement et les lunettes font le reste du travail : elles photographient les pièces défectueuses et transmettent ces images aux différents services impliqués dans le contrôle. Ces lunettes communicantes à réalité augmentée ouvrent également la voie vers la maintenance prédictive qui permet de détecter les pièces défectueuses et de les changer avant que la panne survienne, ce qui entraîne des gains évidemment considérables en matière d’entretien et permet une sécurité améliorée.
Mais ces technologies virtuelles ne permettent plus seulement de concevoir beaucoup plus rapidement des produits et systèmes physiques d’une grande complexité, elles savent également simuler le comportement d’un logiciel en situation réelle, ce qui permet la détection et la correction virtuelle de défauts de conception dommageables qui seraient apparus dans certaines conditions particulières, mais bien réelles celles-ci, d’utilisation de ces produits dans la "vraie" vie.
Reste que, dans cette usine du futur, le pouvoir ultime reviendra finalement aux agents humains qui auront la possibilité de reconfigurer à volonté et en temps réel les différents éléments physiques constituant le système de production. C’est en tout cas la perspective ouverte par une équipe de recherches du MIT qui a développé Reality Editor, une application disponible sur iOS, capable aujourd’hui de donner le pouvoir à l’utilisateur de connecter et de manipuler les fonctionnalités des objets physiques qui l’entourent.
Concrètement, par l’intermédiaire de l’application qui utilise la réalité augmentée, l’appareil dont les fonctionnalités apparaissent à l’écran dès lors qu’on le vise avec la caméra du smartphone, devient contrôlable. Il devient alors possible d’interconnecter de façon intuitive des objets en dessinant une ligne virtuelle entre deux éléments depuis l’écran du téléphone…
Cette industrie du futur qui est en train de naître sous nos yeux est d’autant plus fascinante qu’elle efface les frontières séculaires entre production de matière, d’énergie et d’information et qu’elle rend également caduque la vieille séparation conceptuelle qui distingue depuis plus de deux siècles, en matière économique, le secteur de la production de celui des services. Demain, les entreprises devront être capables de s’adapter en temps réel à une infinité de nouveaux besoins exprimés par les clients et consommateurs. Pour parvenir à relever ce défi, elles devront concevoir, produire et commercialiser des offres totalement personnalisées qui intégreront de manière totalement indiscernable ces dimensions physiques, énergétiques et informationnelles.
Dans cette mutation industrielle sans précédent depuis l’invention de la machine à vapeur par James Watt, il y a bientôt deux siècles et demi, la France et l’Europe, si elles agissent conjointement sur les leviers que sont la culture de l’innovation et l’excellence de la formation, possèdent toutes les compétences et tous les atouts économiques, technologiques et culturels pour prendre la tête des acteurs planétaires de cette nouvelle économie.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs du laboratoire de photovoltaïque de l’EPFL à Neuchâtel, de Berkeley et de l'Australian National University, sont parvenus à simplifier la fabrication de cellules solaires en silicium cristallin – les plus répandues dans le monde – sans nuire à leur efficacité.
Plus du 90 % du marché mondial des panneaux photovoltaïques sont basés sur le silicium cristallin. Les cellules au silicium sont fiables, et leur coût de fabrication est en baisse permanente, mais des progrès sont encore possibles. La majorité des cellules solaires en silicium cristallin utilisent actuellement un procédé appelé « dopage », dans lequel des atomes étrangers sont ajoutés au silicium, ce qui permet de réaliser ensuite les contacts électriques.
L'équipe internationale de chercheurs dirigée par l’équipe d'Ali Javey, de UC Berkeley, a montré qu'il était possible de supprimer tout dopage dans le silicium, tout en atteignant un rendement de près de 20 % et une tension de plus de 700 mV, un résultat remarquable pour ce type d’approche. Le procédé de fabrication consiste à recouvrir la plaquette de silicium tout d’abord de couches ultra-fines de silicium amorphe, et ensuite de créer une asymétrie des contacts électriques sur la cellule en déposant à l’avant de l’oxyde de molybdène et à l’arrière du fluorure de Lithium. Une couche d’aluminium est ensuite déposée à l’arrière de la cellule, et une couche d’oxyde transparent conducteur à l’avant. Ces nouveaux résultats permettent d’imaginer, basée sur une simplification de cette première génération de procédés, toute une palette de nouveaux procédés pour réaliser des cellules en silicium cristallin à haut rendement.
Article rédigé par Georges Simmonds pour RT Flash
CHEMEUROPE
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'hiver 2015-2016 en France a été le plus chaud depuis le début du 20e siècle, selon Météo-France. Cet établissement national base ses conclusions sur les température enregistrées en décembre 2015, janvier et février 2016. La température moyenne sur ces trois mois a été de 8°C, soit 2,6°C au-dessus de la normale, un écart énorme qui place cet hiver loin devant les précédents records. "Cette valeur place l'hiver 2015-2016 au 1er rang des hivers les plus doux depuis le début des mesures", au début du 20e siècle, écrit Météo-France jeudi 3 mars, en relevant que le pays n'a pas "connu de vague de froid ni de véritables conditions hivernales" cette année et qu'aucune région "n'a été épargnée" par la douceur.
2015-2016 arrive "loin devant" 1989-1990 (+2°C), 2006-2007 et 2013-2014 (+1,8°C). Les écarts sont établis par rapport à la moyenne enregistrée sur la période 1981-2000. Il n'est pas possible d'imputer avec certitude cette clémence au réchauffement de la planète, car la variabilité naturelle du climat, qui peut être de plusieurs degrés d'une année sur l'autre, est le facteur déterminant, expliquent les spécialistes. Mais le changement climatique favorise des hivers doux plus fréquents en Europe du Nord, soulignent les climatologues.
C'est à Biarritz (13,3°C, +4,3°C par rapport à la normale) qu'il a fait le plus doux en moyenne. Marseille et Brest affichent 12,1°C, Paris 10°C. La moyenne de décembre à Strasbourg a été de 7,3°C et de 8,7°C à Lyon. Dans toutes ces villes, les écarts par rapport à la normale dépassent les 4°C. "Dans la continuité, janvier et février ont conservé en moyenne des températures très supérieures à la normale, malgré trois périodes plus fraîches", souligne Météo-France. Autre indicateur de la douceur des mois passés : des gelées "peu fréquentes en plaine", souvent deux fois moins que la normale.
Article rédigé par Georges Simmonds pour RT Flash
Météo France
|
|
|
|
|
|
|
|
Selon une étude réalisée par des chercheurs de l'Université de Bristol et parue dans Nature Climate Change, les émissions de gaz à effet de serre se produisent actuellement à un rythme inédit, dix fois supérieur à celui constaté lors de périodes de réchauffement des 66 millions d'années passées. Cette vitesse pousse le monde en terrain dangereux, mettent en garde les chercheurs. Elle excède même la perturbation climatique qui avait marqué le passage de l'ère Paléocène à l'Eocène, il y a 56 millions d'années, pointe l'étude.
A l'époque, les températures mondiales avaient crû de plus de 5°C sous l'effet de gaz à effet de serre (GES), mais sur quelques milliers d'années, provoquant pourtant l'extinction de nombreuses espèces, notamment océaniques. Or les émissions actuelles, d'origine humaine (utilisation d'énergies fossiles en particulier), ont déjà fait gagner 1°C à la Terre depuis la Révolution industrielle, et annoncent une hausse de 3 à 4°C d'ici 2100 si aucune mesure drastique n'est prise. "Le rythme des émissions est absolument critique," explique Andy Ridgwell, paléo-climatologue à l'Université de Bristol, co-auteur de l'étude avec deux confrères de l'Université de Hawaii et de l'Université de Californie à Santa Cruz.
Pour estimer le rythme des émissions d'il y a 56 millions d'années (du CO2 mais plus probablement du méthane venu du fond des océans), les chercheurs ont étudié des sédiments marins recueillis au large du New Jersey. Au centre de leurs analyses, les isotopes de l'oxygène (marqueurs de température) et du carbone (marqueurs des GES) montrant que les émissions il y a 56 millions d'années se sont faites assez lentement. En l'occurrence en au moins 4000 ans, soit environ un milliard de tonnes de carbone par an.
Par comparaison, les activités humaines dégagent actuellement dans l'atmosphère environ 10 milliards de tonnes de carbone annuellement, soit dix fois plus. "Nous assistons au changement climatique le plus rapide de ces 66 millions d'années", note M. Ridgwell, relevant que les écosystèmes sont plus sensibles "au rythme qu'à l'importance même du changement de température". Selon lui, ce qui se passe aujourd'hui est à rapprocher, en termes de rythme et de vitesse, des événements de la fin du Crétacé, quand de nombreuses espèces de dinosaures ont disparu après la chute d'une comète.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Un test sanguin conçu par des chercheurs du National Heart Research Institute Singapore et du NIHR Cardiovascular Biomedical Research Unit (Royaume-Uni) serait capable d'identifier en 4 jours le risque de développer 17 maladies cardiovasculaires héréditaires. Testé sur 348 malades et 8 échantillons d'ADN, ce nouvel outil de détection a montré un niveau élevé de précision, et une analyse sanguine à large spectre. Il couvre 174 gènes identifiés comme responsables de 17 maladies cardiaques héréditaires.
Autre intérêt de ce test, son coût. En effet, les méthodes aujourd'hui utilisées valent entre 800 et 4 800 euros, celui-ci serait disponible à 180 euros. Améliorer le dépistage de ces pathologies est fondamentale car les maladies cardiovasculaires provoquent en Europe deux fois plus de décès que les cancers et tuent environ 4 millions de personnes par an. 1,8 million souffrent de maladies coronariennes, un million des suites d'un AVC et 1,2 d'autres maladies cardiaques. En France, selon les données de la Haute autorité de santé (HAS) environ 100 000 personnes sont touchées chaque année par un infarctus.
Article rédigé par Georges Simmonds pour RT Flash
MNT
|
|
|
|
|
|
|
|
Des chercheurs de l’Institut Pasteur, du CNRS et du Vaccine Research Institute (ANRS/Inserm), viennent de montrer que certains anticorps très performants peuvent reconnaître les cellules infectées par le virus du sida (VIH) et entraîner leur destruction par le système immunitaire. Cette découverte permet de mieux comprendre le mécanisme d’action de ces anticorps particuliers qui sont en cours d’essai clinique.
Le sida est une maladie infectieuse causée par le virus de l’immunodéficience humaine (VIH). On estime que 1,2 million de personnes sont décédées du sida l’année dernière et que près de 35 millions sont aujourd’hui infectées par le virus, plaçant le sida en tête des maladies infectieuses les plus meurtrières au monde. Pour combattre cette maladie, des traitements antirétroviraux existent mais, faute de moyens, seulement 16 millions de personnes y ont eu accès en 2015.
De plus, le virus n’est pas complètement éliminé par ces traitements et subsiste dans des "réservoirs", même après de nombreuses années de thérapie. Il est donc important de mieux comprendre les mécanismes qui régulent la formation de ces réservoirs et de déterminer des stratégies pour les éliminer.
Chez certains patients infectés, des anticorps particuliers ont été identifiés pour leur capacité à bloquer la réplication de très nombreuses souches de VIH-1. En étudiant le mécanisme d’action de ces anticorps dits « neutralisants à large spectre » (bNAbs), les chercheurs de l’équipe d’Olivier Schwartz de l’unité « Virus et immunité » (Institut Pasteur / CNRS) et du groupe « Réponse humorale aux pathogènes » (Institut Pasteur / CNRS), dirigé par Hugo Mouquet, en collaboration avec l’équipe d’Olivier Lambotte (Hôpital Bicêtre), ont démontré qu’ils agissent de façon complémentaire.
Tout d’abord, les bNAbs neutralisent la propagation du virus, et notamment son passage de cellule à cellule. Mais ils sont également capables, pour les plus efficaces d’entre eux, de reconnaître directement les cellules infectées et d’entraîner leur destruction par les cellules Natural Killer (NK), cellules du système immunitaire chargées d’éliminer les cellules anormales de l’organisme.
Les scientifiques ont observé que l’exposition de ces différentes parties de l’enveloppe est très variable à la surface des cellules infectées, et dépend de la souche de VIH, modulant donc la réponse des cellules immunitaires. Ils ont aussi observé que la combinaison de différents bNAbs permet d’augmenter leur efficacité pour recruter des cellules NK. La connaissance de ces anticorps bNAbs est très importante car comprendre la façon dont ils reconnaissent l’enveloppe virale donne en effet des informations précieuses pour la conception de candidats vaccins.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des travaux américains, présentés à la réunion annuelle de la Society for Maternal-Fetal Medicine d’Atlanta, montrent que le microbiome du lait maternel joue un rôle majeur sur la santé de l'enfant.
De précédentes études avaient déjà montré que l’alimentation maternelle pendant la grossesse et l’allaitement maternel pouvaient, indépendamment, modifier le microbiome et microbiote des enfants, et donc leur susceptibilité ou leur protection contre la maladie ; ces chercheurs ont fait l'hypothèse que le microbiome du lait maternel pouvait aussi réguler ou influencer cet impact alimentaire. Le lait maternel contient un microbiome diversifié qui colonise le tractus gastro-intestinal du nourrisson et contribue ainsi à la mise en place du microbiote infantile.
Ici, 2 "cohortes" de femmes allaitant leurs bébés ont suivi 2 régimes alimentaires différents. L'idée étant de pouvoir évaluer le rôle joué par l'alimentation maternelle dans la composition taxonomique et métagénomique du microbiome du lait maternel. Dans la première cohorte, 7 femmes allaitantes ont reçu 60 % de leur apport calorique quotidien en glucose ou en galactose, avec une période de sevrage d’une semaine. Dans la seconde, 7 femmes allaitantes ont reçu soit un régime riche en graisses (55 % de matières grasses, 30 % de glucides, 15 % de protéines), soit riche en glucides (25 % de matières grasses, 60 % de glucides, 15 % de protéines) avec une période de sevrage thérapeutique de 1à 2 semaines.
Des échantillons de lait ont été collectés après la fin de chaque régime. L'ADN du lait a été soumis à une analyse metagénomique rigoureuse. Cette analyse montre que la capacité fonctionnelle du microbiome du lait maternel varie considérablement selon l'alimentation maternelle.
Autre enseignement : le microbiome du lait « s’aligne » avec le métabolisme de l'alimentation consommée. Ces résultats incitent à un régime alimentaire équilibré, varié et adapté de la mère durant la grossesse et l’allaitement maternel, car le microbiome du lait maternel non seulement détermine le microbiome infantile mais accentue encore l'impact du régime alimentaire de la mère, durant la grossesse, sur la santé et l’immunité de l’enfant.
Article rédigé par Georges Simmonds pour RT Flash
SMFM
|
|
|
|
|
|
|
|
Des chercheurs britanniques de Harvard, du MIT et de l'University College London, ont publié une étude portant sur une découverte majeure pouvant mener à des traitements révolutionnaires "sur mesure" pour les patients atteints de cancer.
Depuis plusieurs années, l'immunothérapie suscite de grands espoirs en matière de lutte contre le cancer. Mais le problème est la capacité des cellules tumorales à échapper au système immunitaire "naturel" de notre corps. Les antigènes à leur surface, ces fragments de molécules reconnus comme appartenant ou non à notre organisme, peuvent notamment muter de manière rapide et sont en constante évolution afin de ne pas être détectés.
Mais, pour la première fois, les chercheurs ont découvert un marqueur commun à la surface de toutes les cellules tumorales, où qu'elles soient dans le corps humain. Des défauts d'ADN qui font figure de "tronc commun" à tous les embranchements génétiques pris par les antigènes à la surface des cellules cancéreuses. Une "cible idéale" pour les thérapies faisant appel au système immunitaire. Une fois que cette cible omniprésente chez les cellules tumorales est identifiée, les lymphocytes T, ces "défenseurs" de notre système immunitaire, peuvent être utilisés comme des missiles à tête chercheuse visant à détruire le cancer.
Deux méthodes sont alors envisagées. La première consiste à développer des "vaccins" à lymphocytes T basés sur ces antigènes spécifiques pour chaque patient. L'autre serait de dresser le profil génétique de la tumeur à l'aide d'une biopsie, de repérer le petit nombre de lymphocytes T qui sont naturellement capables de reconnaître ces antigènes, présents à l'intérieur même des tumeurs, de les multiplier en laboratoire, et de les réinjecter au patient.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Une équipe internationale de chercheurs, coordonnée par Alexandre Charlet de l'Institut des neurosciences cellulaires et intégratives du CNRS, s'est penchée sur le processus de libération d'ocytocine lorsqu'une douleur est perçue. Elle a découvert que le centre de contrôle, dans le cerveau, qui coordonne la libération de l'ocytocine, n'est constitué que d'une petite trentaine de neurones de l'hypothalamus.
Jusqu'à présent, le processus de libération de cette ocytocine (qui est notamment synthétisé par l'hypothalamus, dans le cerveau), était mal connu. Les chercheurs sont parvenus à identifier un "centre de contrôle de la douleur" constitué d'une trentaine de neurones qui coordonnent la libération d'ocytocine dans le sang et la moelle épinière.
Lors de douleurs aiguës ou d'une sensibilisation inflammatoire (brûlure, pincement, coupure, etc.), l'information est acheminée par les nerfs périphériques jusqu'aux neurones de la moelle épinière. Ce qu'a découvert l'équipe d'Alexandre Charlet, c'est que l'information est alors adressée à d'autres neurones, parmi lesquels une petite population de 30 cellules de petite taille, situées dans l'hypothalamus. En retour, ils activent une famille de gros neurones dans une autre région de l'hypothalamus, qui libèrent l'ocytocine dans la circulation sanguine. L'ocytocine vient alors "endormir" les neurones périphériques (situés près de la zone douloureuse) qui envoient au cerveau le message responsable de la douleur.
Parallèlement, le prolongement de ces trente neurones (appelés axones et mesurant jusqu'à un mètre) atteint la plus profonde des dix couches de la moelle épinière. "C'est précisément à cet endroit, où le message sensoriel est codé en intensité, qu'ils libèrent l'ocytocine. Ils diminuent donc, par deux voies simultanées, la reconduction du message douloureux au cerveau", selon les chercheurs.
Les chercheurs espèrent à présent trouver des marqueurs génétiques capables d'activer ou inhiber de manière spécifique ces trente neurones, afin de mieux atténuer les symptômes de patients souffrant de douleurs pathologiques, tout en limitant les effets secondaires, a commenté Alexandre Charlet. Outre son rôle antalgique, l'ocytocine est impliquée notamment dans le processus de l'accouchement, et la sociabilité.
Article rédigé par Georges Simmonds pour RT Flash
Neuron
|
|
|
|
|
|
|
|
Selon une étude réalisée par des chercheurs de l'Inserm (Unité Inserm U894) dans les hôpitaux Necker et Sainte-Anne et dirigée par Sophie Georgin-Lavialle, certaines dépressions seraient liées à la suractivation de cellules immunitaires nommées mastocytes.
Ces chercheurs savaient déjà que près de la moitié des patients atteints de mastocytose souffraient justement de symptômes dépressifs. Cette étude a porté sur 54 adultes atteints de mastocytose, comparés à 54 adultes sains de même profil (âge, sexe...).
L'équipe a mesuré leurs éventuels troubles dépressifs, puis analysé leur sang. C'est ainsi que les chercheurs ont d'abord découvert que les plus dépressifs possédaient des concentrations sanguines plus faibles en tryptophane... Or de précédentes études suspectaient justement une perturbation du métabolisme de cet acide aminé dans les dépressions possiblement induites par une inflammation. Dans le cerveau, le tryptophane est le précurseur métabolique de la sérotonine, un neurotransmetteur qui est la cible des antidépresseurs actuels, visant à augmenter la concentration de sérotonine dans le cerveau.
En suivant cette piste, l'équipe a ensuite découvert que ces malades atteints de mastocytose présentaient effectivement des taux sanguins plus faibles de sérotonine par rapport aux sujets sains... mais des taux plus élevés de dérivés neurotoxiques du tryptophane tel l'acide quinolinique.
Cette découverte ouvre de nouvelles pistes thérapeutiques pour les dépressifs réfractaires aux antidépresseurs actuels. Parmi elles, le recours à la kétamine, un anesthésiant doté d'une qualité qui tombe à pic : il bloque les effets de l'acide quinolinique. Menées sur des patients dépressifs, certaines études ont d'ailleurs déjà montré des effets antidépresseurs spectaculaires de la kétamine. Deuxième grande piste : tester l'effet de molécules capables d'empêcher les mastocytes de relarguer leurs molécules inflammatoires.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Malgré une nette diminution depuis deux décennies, l'incidence des maladies cardiovasculaires reste élevée. Ainsi, bien qu’elle reste indispensable, l'action contre les facteurs de risques traditionnels - hypertension artérielle, hypercholestérolémie, obésité, tabac, inactivité physique... - ne semble plus suffisante. "Depuis quelques années a émergé le concept de prévention primordiale, une approche plus en amont qui vise à prévenir l’apparition de ces facteurs de risque" explique Jean-Philippe Empana, responsable d'une équipe Inserm au Centre de recherche cardiovasculaire de Paris.
Parmi les causes possibles, son équipe s'est intéressée à la dépression, faisant l'hypothèse que les personnes présentant des symptômes dépressifs ont du mal à adopter des comportements bénéfiques pour leur santé cardiovasculaire. Il est bien connu que les patients dépressifs souffrent plus de maladies cardiovasculaires que le reste de la population. Une étude américaine récente suggère qu'il s'agirait bien d'un effet amont, la dépression semblant entraîner un mauvais bilan en termes de facteurs de risques. Cette étude porte cependant sur une population particulière, présentant un risque cardiovasculaire élevé. "Nous avons voulu l'étendre au contexte européen - et au système de santé français - avec des sujets en meilleure santé" précise le chercheur.
L'équipe française a donc utilisé les données d'inclusion de son enquête PPS3 (Paris prospective study III), qui suit pour plusieurs années la santé cardiovasculaire d'une dizaine de milliers de volontaires sains. Ayant retenu 9 417 personnes âgées de 50 à 75 ans (moyenne environ 60 ans), les chercheurs ont évalué leur santé cardiovasculaire avec une méthode proposée en 2010 par l'American Heart Association. Celle-ci repose sur sept critères faciles à mesurer ou évaluer : trois indices biologiques (cholestérolémie, glycémie et pression artérielle) et quatre facteurs comportementaux (consommation de tabac, régime alimentaire, activité physique et indice de masse corporelle).
Première constatation : seuls 10 % des volontaires ont une santé cardiovasculaire idéale (au moins 5 critères sur 7 au niveau idéal), un chiffre comparable aux résultats d'autres études européennes ou américaines. Les autres se répartissent en 40 % présentant un bilan médiocre (0-2 critères au niveau idéal) et 50 % un bilan intermédiaire (3-4 critères au niveau idéal). Par ailleurs, parmi les personnes retenues, environ 10 % montraient un niveau élevé de symptômes dépressifs au moment de l’inclusion (dont 5 % étaient traités aux antidépresseurs), un chiffre là encore conforme aux études déjà publiées. Confirmant leur hypothèse, les chercheurs ont bel et bien constaté que ces personnes dépressives ont 30 % de chances en moins que les autres d'être en santé cardiovasculaire idéale, et que la différence porte essentiellement sur les facteurs de risques "comportementaux".
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Une équipe de l’Institut de recherches cliniques de Montréal (IRCM), dirigée par Frédéric Charron, a découvert un mécanisme qui empêche la formation du médulloblastome, la tumeur cérébrale la plus commune chez les enfants.
Le médulloblastome est la forme de tumeur cérébrale la plus répandue chez les enfants. Les thérapies actuellement disponibles – la chirurgie, la radiothérapie et la chimiothérapie – se révèlent très agressives pour les jeunes patients et, lorsque les patients survivent, elles laissent des séquelles neurologiques permanentes. Afin de limiter le recours à ces traitements, l’équipe du Docteur Charron cherche à prévenir l’apparition du médulloblastome en élucidant le mécanisme qui mène à sa formation.
"Le problème est qu'il est très difficile de détecter les tumeurs au cerveau avant qu’elles deviennent cancéreuses. D’autre part, même dans les rares cas où l’on y parviendrait, il serait délicat d’aller faire un prélèvement dans le cervelet, là où se développe cette tumeur", poursuit celui qui est également premier auteur de l’article.
Ces chercheurs ont donc observé des souris qui développaient spontanément des tumeurs précancéreuses. Leur étude a révélé que ces tumeurs ne menaient pas systématiquement à la formation de médulloblastomes avancés. En effet, chez une majorité de souris, les cellules précancéreuses cessaient de se diviser avant de pouvoir former une tumeur, un processus qu’on appelle la « sénescence cellulaire ».
L’équipe a découvert que la différence entre le groupe présentant une sénescence cellulaire et celui dont les tumeurs progressaient pour devenir un médulloblastome avancé résidait dans un seul gène, le gène p53. La mutation de ce gène empêche la sénescence cellulaire, conduisant ainsi à la formation du médulloblastome.
A présent que ces chercheurs ont montré que cette forme de tumeur a la capacité de régresser et de disparaître, il vont essayer de trouver une manière de favoriser ce mécanisme pour empêcher la formation de médulloblastomes.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Certains facteurs psychologiques sont-ils susceptibles de prédire le risque de décès prématuré ? Peut-être, si l'on en croit une récente étude de l'Université de Genève. Celle-ci, réalisée sur 6 203 adultes, montre que penser vite et se sentir en forme sont deux prédicteurs extrêmement forts d’une vie plus longue et en meilleure santé. Au-delà de l’impact évident du bien-être cognitif et émotionnel sur la santé et la longévité, ces conclusions pourraient conduire à élargir le spectre de critères d’évaluation de la longévité, au-delà des facteurs médicaux ou physiologiques.
Ces chercheurs de l’Unige se sont intéressés à étudier l'influence relative des variables cognitives, recueillies dans le cadre de Manchester Longitudinal Study of Cognition, une cohorte avec durée de suivi de 29 ans. Les données de performance cognitive ont été recueillies sur la base de 15 tâches différentes et dans 5 domaines de compétence : l'intelligence, la capacité d’adaptation, la mémoire verbale, la mémoire visuelle et la vitesse de traitement.
Les participants ont effectué ces tâches à 4 reprises sur une période de 12 ans, ce qui a permis aux chercheurs de suivre leurs scores cognitifs au fil du temps. Enfin, la santé des participants a été évaluée avec l’échelle Cornell Medical Index qui couvre, au total, 195 symptômes pathologiques liés aux différents troubles physiques et psychologiques.
L'étude a également pris en compte les facteurs de mode de vie, la santé perçue, les traitements suivis, les habitudes de sommeil, les loisirs, les niveaux d’activité et les interactions sociales des participants. L’analyse statistique de toutes ces données a permis d’évaluer l'importance relative d'un total de 65 variables différentes permettant de prédire le risque de mortalité prématurée des participants.
Mais le grand enseignement de cette étude est que certains de ces facteurs psychologiques semblent aussi importants que les traditionnels facteurs de risque médicaux connus, tels que les symptômes cardiovasculaires par exemple : « Que ces variables psychologiques soient si fortement liées au risque de mortalité est très surprenant, car beaucoup de preuves soutiennent l'hypothèse de prédicteurs de survie de nature médicale ou physiologique », conclut l’auteur principal, le Docteur Aichele.
Article rédigé par Georges Simmonds pour RT Flash
Psychological Science
|
|
|
|
|
|
|
|
La chirurgie "by-pass" consiste à réduire par dix la partie de l'estomac qui reçoit les aliments, soit par la pose d'agrafes, soit en réalisant une découpe de l'estomac. Cette petite poche d'estomac est directement reliée à l'intestin. Le reste de l'estomac, qui continue à produire des sucs digestifs, est également relié à l'intestin, pour aider à la digestion. L'objectif est d'atteindre rapidement la satiété, sans trop perturber l'assimilation des nutriments.
Ce type de chirurgie non-réversible est de plus en plus proposée aux patients obèses diabétiques. L’objectif premier est de réduire le taux de cellules graisseuses, car celles-ci produisent des molécules inflammatoires favorisant la résistance à l'insuline (les cytokines). Mais des travaux menés depuis le début de la décennie montrent que la correction du diabète s’initie quelques jours seulement après la sortie de l'hôpital… c'est-à-dire avant même la perte de poids.
De récents travaux français dirigés par François Pattou permettent de mieux comprendre ce phénomène et révèlent un surprenant mécanisme : après une opération de by-pass gastrique, l’intestin nouvellement remodelé détournerait le glucose alimentaire et sanguin pour sa propre consommation.
Des by-pass ont été réalisés sur des "mini-porcs" (dont la physiologie digestive, proche de celle de l’homme, est bien connue des biologistes). Ils ont découvert après une chirurgie by-pass que le glucose ne franchit la paroi intestinale pour pénétrer dans l’organisme que dans la partie basse de l’intestin, et uniquement après avoir été mélangé à la bile. Ce liquide digestif, sécrété par le foie, se concentre dans la vésicule biliaire, à la sortie de l’estomac. En cas de by-pass gastrique, le mélange de bile et de sucs digestifs n’interagit avec le glucose qu’au niveau du point de raccord avec l’intestin.
En menant leurs expériences sur le mini-porc, les chercheurs ont découvert qu’il était possible de forcer le glucose à être absorbé dans la partie haute de l’intestin. À en croire les données de leur étude, la recette est simple : ajouter du sodium au repas des animaux. Le même sodium qui entre dans la composition… du sel (chlorure de sodium).
"Nos résultats invitent à explorer des interventions alternatives, d’ordre diététique ou pharmacologique, pour prévenir ou traiter le diabète de type 2, par exemple en réduisant l’intégration simultanée de glucose et de sodium, en modulant de la circulation du sodium apporté par les sucs digestifs, ou en limitant le transport du glucose au niveau de l’intestin."
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
|
|
|
|
|
|
C'est bien connu, en matière de santé les petites causes peuvent souvent produire de grands effets. Et pour les sceptiques, voilà une étude qui mérite réflexion. Des chercheurs de plusieurs universités américaines ont suivi 3029 participants, âgés de 50 à 79 ans, dans le cadre du National Health and Nutrition Examination Survey (NHANES). Cette enquête, chapeautée par l'Agence nationale de santé américaine CDC, visait à évaluer la santé d'enfants et d'adultes à travers les États-Unis.
Les participants à l'enquête devaient porter des accéléromètres très sensibles, plus performants que ceux utilisés dans les études précédentes, pour suivre leur activité sept jours d'affilée. Les données ont été recueillies par le CDC, qui a ensuite suivi les taux de mortalité des participants au cours des huit années suivantes.
Après avoir analysé les données en prenant en compte d'autres facteurs de mortalité comme les maladies chroniques, le tabagisme, l'âge et le sexe, les résultats ont montré qu'il suffisait de remplacer seulement quelques minutes de sédentarité par de l'activité pour réduire sensiblement son risque de mortalité. Les mêmes résultats ont été enregistrés par les personnes déjà habituées à faire régulièrement de l'exercice.
Les scientifiques ont également montré que, pendant l'étude, les participants les moins actifs étaient cinq fois plus susceptibles de mourir que les plus actifs, et trois fois plus susceptibles de décéder que les personnes qui figuraient dans la catégorie des personnes plutôt actives.
Mais la bonne nouvelle est que l'activité n'a même pas besoin d'être soutenue pour produire des effets. "Les personnes qui marchaient dans leur maison, faisaient la vaisselle ou passaient le balai, enregistraient une espérance de vie plus longue que celles qui restaient assises à leur bureau", a commenté Ezra Fishman, en charge de cette étude. Et de préciser que "l'activité n'a pas besoin d'être particulièrement vigoureuse pour être bénéfique".
Selon cette étude, il suffirait en fait de faire 10 minutes supplémentaires par jour de faible activité pour réduire ses risques de mortalité. En augmentant l'activité à 30 minutes par jour, les résultats étaient encore plus probants.
Article rédigé par Georges Simmonds pour RT Flash
Medicine & Science in Sports & Exercise
|
|
|
|
|
|
|
|
Une équipe de recherche internationale composée de chercheurs américains, australiens, écossais, allemands et italiens a réussi à identifier 4 sous-types très distincts du cancer du pancréas, ce qui ouvre donc un immense espoir de pouvoir mieux traiter ce cancer à mauvais pronostic, de manière bien plus personnalisée.
Les chercheurs ont effectué une analyse de l'ensemble complet de l'ADN de 456 tumeurs du pancréas prélevées chirurgicalement chez 382 patients atteints. Puis ils ont également pris en compte des données provenant de 74 autres biopsies de cancer du pancréas déjà séquencées. Ils ont ensuite cherché les mutations dans différents gènes liées aux différentes voies de développement de la tumeur.
Ils ont pu identifier ainsi 32 gènes mutés de façon significative et liés à 10 voies moléculaires connues pour « provoquer » ce cancer. L’identification de ces mutations et de ces voies de développement cellulaire permet de diviser les tumeurs analysées en 4 formes : épidermoïde, immunogène, progénitrice ou « ADEX » (aberrantly differentiated endocrine exocrine), un sous-type de tumeur progénitrice, avec surexpression de certains gènes spécifiques.
Pourvoir identifier des différences d'évolution moléculaire de ces sous-types de cancer du pancréas va permettre aux médecins de cibler ces causes de manière plus efficace avec un traitement mieux personnalisé. En particulier, les tumeurs immunogènes pourraient être mieux prises en charge par de nouvelles molécules qui vont cibler spécifiquement les mécanismes par lesquels la tumeur se soustrait à la défense immunitaire. Et certains de ces médicaments sont déjà en cours d’essais cliniques pour d'autres cancers…
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|