|
|
|
|
|
NUMERO 875 |
|
|
|
|
|
|
|
Edition du 25 Novembre 2016
|
|
|
|
|
Edito
L'homme est-il violent par nature ?
Depuis bientôt trois siècles, une querelle sans fin oppose ceux qui considèrent, avec Locke et Rousseau, que l'homme est par nature bon et pacifique et ne devient violent que contraint par la société, et ceux qui croient au contraire, avec Machiavel et Hobbes, que 'L'homme est un loup pour l'homme" et que l'état naturel des sociétés humaines, gouvernées par les instincts, les passions et les désirs individuels, est celui de la "Guerre de tous contre tous" (Bellum omnium contra omnes).
Dans une étude publiée il y a quelques semaines par la revue Nature, une équipe espagnole vient de publier une remarquable étude, intitulée "Les racines phylogénétiques de la violence humaine létale" qui a fait grand bruit au sein de la communauté scientifique et semble conforter sérieusement l'hypothèse d'une violence humaine qui plonge ses racines dans la théorie de l’évolution (Voir Nature).
Dans cette étude qui fera date en matière d’approche transdisciplinaire globale de la violence, José Maria Gomez, écologue à la station des zones arides d’Almeria, et ses collègues de trois autres universités espagnoles ont réalisé un travail colossal d’accumulation de données en passant au crible, d’une part, environ 3 500 articles scientifiques, s’étalant sur un demi-siècle et analysant la violence entre membres d’une même espèce chez les mammifères et, d’autre part, 1 000 articles portant sur les causes de la mortalité parmi les humains, soit au total l’analyse de plus de quatre millions de décès. De l’avis de plusieurs spécialistes, dont Michel Raymond, directeur de recherche au CNRS et responsable de l’équipe de biologie évolutive humaine de l’université de Montpellier, cette étude est la plus vaste et la plus complète réalisée à ce jour sur la question de la violence chez les mammifères.
En ce qui concerne la violence exercée par l’homme sur ses semblables (l’étude n’aborde pas la question de la violence exercée par l’homme sur les autres espèces animales), les chercheurs ont diversifié au maximum leurs sources, utilisant des relevés ethnographiques, des analyses bio-archéologiques ou paléontologiques, des comptes-rendus d’autopsies et, bien entendu, les registres indiquant les causes de décès, disponibles depuis plus de trois siècles dans certains pays. Première surprise de taille, qui va contre bien des idées reçues, sur les 1 024 espèces de mammifères étudiées (soit environ un cinquième de l’ensemble des espèces de mammifères repertoriées), 40 % exercent une violence létale sur leurs congénères, ce qui fait dire à José Maria Gomez que « La violence létale est loin d’être limitée aux espèces connues pour être violentes, comme les carnivores ; elle existe également chez beaucoup d’autres espèces, pourtant considérées comme paisibles, par exemple chez les marmottes, certains singes, certains rongeurs ou encore les chevaux… ».
L’étude souligne que, même si l’agression intraspécifique ne représente, en moyenne, que 0,3 % des causes de mortalité chez l’ensemble des mammifères, elle est bien plus répandue que prévu. Ces recherches confortent également l’hypothèse selon laquelle la position d’une espèce dans l’arbre phylogénétique des espèces détermine la propension de celle-ci à tuer ses congénères. Autre enseignement de ce travail, au-delà du taux moyen de 0,3 % de violence létale au sein des mammifères (soit environ un décès sur 300), certaines espèces se distinguent particulièrement dans leur tendances à tuer leurs semblables : c’est notamment le cas des grands-singes, chez lesquels environ 1,8 % des décès ont été causés par des violences physiques, un chiffre proche de celui de la violence létale des premiers humains, estimée à 2 %, soit six fois plus que la moyenne de l’ensemble des mammifères.
Reste que le mécanisme fondamental de l’évolution des espèces, s'il est bien à l'œuvre dans les comportements agressifs et violents, est loin d'expliquer, à lui seul, cette étonnante propension des mammifères à tuer leurs congénères. L'étude souligne notamment qu'au sein des primates, le niveau de violence létale (conduisant à la mort de l'agressé) est très élevé, alors qu'il est au contraire très faible chez les bonobos, des singes étonnamment paisibles. Cette très grande disparité au sein d'un même ordre animal montre bien, selon les chercheurs, que le niveau de violence d'une société animale ou humaine ne se réduit pas à des causes biologiques ou génétiques, aussi puissantes soient-elles, mais dépend également d'autres facteurs qui peuvent s'avérer décisifs, comme le cadre de vie et l'organisation sociale et territoriale.
Mais si cette étude est si passionnante et suscite autant de débats, c'est aussi parce qu'elle ne se contente pas de dresser un état des lieux de la violence au sein de notre espèce ; elle tente également d'éclairer l'évolution de la violence, dans son intensité et ses formes, chez l'homme à travers les âges, en faisant ressortir les liens de causalité entre l'usage de la violence et le mode d'organisation politique des quelque 600 populations étudiées.
Dans les sociétés organisées en « bandes » de chasseurs-cueilleurs ou en « tribus » regroupant plusieurs bandes, environ 3 à 4 % des décès étaient dû à des attaques entre humains, selon les sources archéologiques. Selon cette étude, l'homme moderne (Sapiens) aurait fait preuve, dès son apparition il y a plus de 40 000 ans, d'un niveau de violence élevé mais finalement "en accord avec la place de notre espèce dans l’arbre phylogénétique de l'évolution", comme le souligne José Maria Gomez, principal responsable de ce travail qui fera date. C'est donc également le vieux mythe du Paradis perdu et d'une époque lointaine où l'homme primitif aurait vécu en harmonie avec ses semblables et la Nature qui est mis à mal par cette étude. Cette violence plongeant ses racines dans la nuit des temps est également confirmée par des chercheurs comme Jean Guilaine, professeur honoraire au Collège de France qui rappelle que « L’homme n’a pas attendu l’accumulation des richesses au néolithique pour être violent ».
Loin de se pacifier, les sociétés humaines auraient connu, après être sorties de la préhistoire et en entrant dans l’âge du fer en Europe et en Asie (à partir de - 1100), une nouvelle vague de violence létale qui se serait poursuivie jusqu' à la Renaissance. L'étude souligne que le Moyen Âge a été caractérisé par un niveau de violence, y compris létale, très élevée - de l'ordre de 12 % - qui serait largement explicable par la prédominance du tryptique fief-suzerain-vassal comme type d'organisation sociopolitique.
Cette analyse de la violence et de son évolution dans les sociétés humaines montre de manière convaincante que, même si l’on tient compte des guerres, le niveau de violence létale est sensiblement inférieur au sein des populations vivant dans des structures politiques de type étatique ou impérial États (entre 0,24 et 1,33 % des décès dus à des agressions entre humains), qu’il s’agisse de l’Égypte pharaonique, des cités-états grecques ou de l’Empire romain. En revanche, l’étude souligne que les organisations tribales ou claniques connaissent un niveau de violence bien plus élevé que les sociétés étatiques, ce qui permet aux auteurs d’écrire « Il est bien établi que la monopolisation de l'usage de la force, dans les États modernes, diminue grandement la violence dans ces sociétés ».
Commentant cette étude, la primatologue Elise Huchard souligne que, « quelle que soit l’approche utilisée pour comprendre et expliquer l’intensité et les motifs de notre violence, il ne faut pas oublier que l’homme est un mammifère et que sa dimension biologique irréductible contribue à expliquer son comportement social ». L’anthropologue Mike Wilson partage ce point de vue mais le nuance en soulignant que l'homme est "Un mammifère ni plus ni moins violent que les autres, mais bien plus flexible dans son agressivité, car plus adaptable que n'importe quelle autre espèce à son environnement et plus innovant en matière d’organisation sociale".
A ce stade de la réflexion, il est difficile de ne pas éclairer cette étude si riche d'enseignements à la lumière des travaux et des découvertes de ce grand scientifique que fut Konrad Lorenz, l'un des fondateurs de l'éthologie. Articulant invention théorique et finesse de l'observation animale, Lorenz contribua de manière décisive à une compréhension plus riche des comportements agressifs en observant les espèces dans leurs milieux naturels et en restituant les liens complexes et enchevêtrés qui relient biologie, société et culture dans la genèse et les manifestations de la violence.
Pour Lorentz, l'agressivité est un instinct fondamental chez tous les mammifères, homme compris, et doit être appréhendée en utilisant une approche comparative entre espèces, dans le cadre de la théorie de l'évolution des espèces de Darwin. Konrad Lorentz, à l'issue d'une extraordinaire et longue œuvre scientifique qu'il poursuivit jusqu'à sa mort en 1989, montra de manière remarquable que l’agressivité jouait en réalité, dans les sociétés animales, un rôle structurant et constructif de régulation et d'organisation sociale et territoriale.
Il est également très intéressant d’essayer d’articuler cette étude avec une autre tendance historique incontestable, bien qu’allant à l’encontre de beaucoup d’idées reçues : celle d’une diminution constante depuis plusieurs décennies du nombre d’homicides dans le monde, si l’on compare évidemment ce nombre à l’évolution démographique. A cet égard, les derniers rapports de l’ONU sont éclairants et montrent clairement que le nombre de meurtres est en recul dans le monde (Voir Rapport de l'ONU). Dans sa dernière étude, l'Office des Nations unies contre la drogue et le crime (UNUDC) a recensé 437.000 meurtres en 2012, contre 468.000 en 2010, l'année où cette organisation a mené sa première étude mondiale sur les homicides. L’ONU constate donc une diminution de plus de 6 % du nombre d’homicides en deux ans, alors que, dans cet intervalle, la population mondiale a augmenté de 3 %. L’ONU souligne que, parmi les 88 pays possédant des statistiques fiables, 67 ont connu un déclin ces quinze dernières années. Au niveau mondial, le niveau d'homicides (hors conflits) serait également en diminution avec 6,2 homicides en 2012, contre 7,1 homicides en 2002.
Cette tendance à une diminution du nombre d’homicides se retrouve dans tous les grands pays de la planète : aux États-Unis par exemple, le nombre de meurtres (qu’il faut distinguer du nombre de tués par armes à feu) est passé de 18 253 en 1993 à 11 078 en 2010, soit une diminution de 39 %… En terme de ratio, par rapport à la population, il y avait ainsi sept homicides par armes à feu pour 100.000 personnes en 1993 aux USA et ce nombre est descendu à 3,6 en 2013 selon une étude du Pew Research Center, (Voir Pew Research Center). Quant au nombre de crimes impliquant des armes mais sans meurtre, il a encore plus diminué aux Etats-Unis, passant sur cette même période de 725 pour 100.000 à 175 pour 100 000).
Bien sûr, cette moyenne générale masque une très grande disparité de situations entre les différents pays du monde et on observe un écart de 1 à 50 entre les états les moins criminogènes (comme les pays d’Europe occidentale) et ceux les plus violents, comme le Venezuela et les pays d’Amérique centrale ou certains pays d’Afrique. Pourtant, même dans des pays qui nous apparaissent, vus d'Europe, comme très violents, comme le Mexique par exemple, cette étude montre qu'en dépit de l'augmentation de la violence observée depuis 40 ans et principalement liée au trafic de drogue, ce pays a connu depuis 1940, une baisse comparable du nombre d'homicides (ramenés à sa population), comparable à celles observées en Europe au cours du siècle précédent.
Même évolution dans un pays comme la Colombie où le taux d’homicides pour 100 000 habitants a été évalué en 2015 à 25,9, le chiffre le plus bas enregistré au cours des 40 dernières années. Au Brésil, pays qui détient pourtant le triste record du monde du nombre annuel de meurtres (près de 60 000 en 2014), le nombre d’homicides pour 100 000 habitants, qui avait régulièrement augmenté dans la dernière moitié du XXe siècle, a également légèrement diminué depuis 2002, passant de 31 à 29 pour 100 000.
La France connaît également une diminution constante et importante de la violence létale : entre 1995 et 2012, le nombre de meurtres a ainsi était divisé par deux, passant de 1600 à moins de 800. Au niveau européen, la violence létale a également diminué régulièrement depuis un siècle et le nombre annuel d’homicides se situe à présent autour de 1,5 pour 100 000 habitants. On mesure mieux le chemin parcouru quand on sait qu’au Moyen-Age et jusqu’au XVe siècle, le taux d’homicides en Europe était de l’ordre de 50 pour 100 000 - et dépassait même les 100 pour 100000 dans l’Angleterre du XIVe siècle -, ce qui correspond au niveau actuel des pays les plus violents de la planète, comme le Salvador, le Venezuela, la Jamaïque, la Côte d’Ivoire, le Lesotho ou la Zambie…
Cette diminution constante de la violence létale et du nombre de meurtres en Europe au cours des derniers siècles a été bien analysé par le livre de Laurent Mucchielli et Pieter Spierenburg « l'Histoire de l'homicide en Europe » (2009) et cette tendance historique a fait l’objet de multiples tentatives d’explications, dont la plus brillante reste sans doute celle du sociologue allemand Norbert Elias qui, dans son célèbre essai, intitulé « La Civilisation des mœurs », publié en 1973, a posé l'hypothèse de l'existence d'un long processus de civilisation qui serait à l’œuvre depuis la Renaissance dans l’ensemble des sociétés européennes et expliquerait cette diminution remarquable de la violence extrême et du nombre de meurtres sur notre continent mais également dans d’autres régions du monde.
Cette « pacification des mœurs », passant par une maîtrise croissante des instincts et des pulsions violentes serait pour Elias la conséquence de la propagation des philosophies de la raison et de la « curialisation » progressive de la société, c’est-à-dire de l’adoption, par l’ensemble de la population des règles de civilité et de relations interpersonnelles en vigueur dans les cours royales.
Plus récemment, le psychologue cognitiviste canadien Steven Pinker, professeur à Harvard, a publié en 2011 un vaste essai très remarqué intitulé "une histoire de la violence à travers les âges". Prolongeant les travaux d’Elias, Pinker montre lui aussi de manière rigoureuse et convaincante que, contrairement aux idées reçues, le nombre d’homicides n’a cessé de diminuer partout depuis deux siècles. Il souligne également que toutes les formes de violence ont décliné, y compris la cruauté envers les animaux, et affirme que notre époque est de loin la moins violente et la moins cruelle de toute la longue l’histoire de l’Humanité, même en prenant en compte les guerres et les récents attentats terroristes.
Comme vient également de le faire l’étude espagnole de José Maria Gomez, Pinker réfute les mythes du « bon sauvage » et des sociétés primitives paradisiaques dans lesquelles tout n’aurait été que paix et harmonie avec la nature. S’appuyant sur de récentes découvertes archéologiques, il montre notamment que les morts violentes étaient monnaie courante dans les temps préhistoriques et qu’il a fallu attendre la sédentarisation des nomades pour que s’amorce un lent processus de pacification.
La seconde rupture, selon Pinker, a eu lieu vers la fin du Moyen-Age, avec l’affirmation d’états forts, disposant du monopole de la violence légale. Survient ensuite une troisième rupture provoquée par l’esprit des Lumières et la révolution industrielle, à la fin du XVIIIe siècle puis une quatrième rupture, commençant à la fin de la seconde guerre mondiale et se poursuivant jusqu’à nos jours.
S’agissant des moteurs de la violence, Pinker met en avant cinq causes : la prédation, la volonté de domination, le ressentiment et la revanche, le sadisme et enfin les idéologies, définies comme système de croyance et de représentations qui peuvent malheureusement justifier la violence, sans limite, comme nous en avons l’effrayante illustration avec le terrorisme islamique.
Pinker considère que cette évolution à long terme de notre espèce vers des sociétés bien plus pacifiques que par le passé résulte de cinq grandes forces historiques : la première est la monopolisation de la violence dite légitime par les états, la seconde est le développement du commerce mondial, qui remplace la notion d’adversaires à éliminer par le concept de concurrent à surclasser. Troisième facteur, la féminisation progressive mais irrésistible des sociétés qui favorise l’émergence de valeurs d’attention et de coopération. Le quatrième facteur selon Pinker est le cosmopolitisme, qu’il définit comme la propension croissante des individus et des peuples à se connaître, à s’apprécier et à se respecter. Enfin, le cinquième et dernier facteur à l’œuvre dans ce processus de pacification mondial est pour Pinker le triomphe progressif de la raison qui permet de déconstruire méthodiquement la croyance en l’efficacité de la violence pour parvenir à ses fins.
Au final, ces différentes approches, ethno-biologique pour l’étude espagnole, sociologique pour le travail d’Elias et psycho-cognitive pour celle de Pinker, s’avèrent remarquablement complémentaires et révèlent dans toute sa complexité ce grand mystère anthropologique que constitue, à travers le temps et l’espace, la violence chez l’homme. Ce que nous disent ces études passionnantes, c’est que la compréhension scientifique et conceptuelle de l’agressivité et la violence humaine s’inscrit de manière puissante dans le processus de l’évolution darwinienne et dans nos structures biologiques mais ne s’y réduit en aucun cas.
Toute l’histoire de l’homme, au moins depuis l’apparition de Sapiens, il y a au moins 170 000 ans en Afrique, se caractérise par l’existence d’une violence constante et universelle qui n’a cessé de se manifester sous une multitude de formes, allant des comportements simplement brutaux ou humiliants aux meurtres interindividuels, massacres, guerres, génocides et extermination de masse, dont le siècle dernier a marqué le paroxysme.
Pourtant, si l’on parvient à dépasser le niveau purement émotionnel de la perception de la violence, considérablement amplifié par notre société médiatique et numérique et à analyser de manière méthodique, rationnelle et objective, sur de très longues périodes, l’évolution de cette violence humaine, un phénomène anthropologique fondamental apparaît et se développe au fil du temps, celui de l’indéniable et constante progression de la pacification des sociétés humaines et, corrélativement, celui d’une diminution tout aussi incontestable sur le long terme de la violence la plus extrême.
En se civilisant, c’est-à-dire en s’arrachant à la nature toute puissante et à la seule loi du plus fort, pour devenir un être de culture et construire des sociétés et des états d’un niveau d’organisation et de complexité toujours plus grand, l’homme, même s’il demeure - ce qu’il refuse souvent de voir - un animal intrinsèquement surdoué pour imaginer et exercer les pires violences sur ses semblables, a lentement mais surement appris à dompter ses instincts et à régler et prévenir les conflits de toute nature en recourant à une multitude de moyens et d’outils sociaux, économiques, politiques et juridiques nouveaux qui se sont finalement avérés plus efficaces et moins coûteux que la violence brute, tant pour l’individu que pour la société.
La grande question qui se pose depuis 2001 et les attentats du World Trade Center, marquant le début de l’ère du terrorisme de masse permanent et mondial, est de savoir si l'Humanité saura juguler cette nouvelle forme de violence extrême qui échappe au contrôle des états et déferle sur la planète, afin que puisse se poursuivre ce lent processus de pacification et de civilisation des mœurs et des instincts, à l’œuvre dans nos sociétés depuis des siècles.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Une équipe de Microsoft Research, spécialisée en intelligence artificielle, annonce avoir accompli une avancée majeure en matière de reconnaissance vocale, en concevant un système capable de transcrire une conversation aussi bien qu’un professionnel humain.
Microsoft affirme avoir réalisé une « performance historique » avec son système de reconnaissance vocale qui transcrit la parole conversationnelle aussi bien que des humains spécialisés dans cet exercice. Pour confirmer cette avancée, l'équipe d'Harry Shum a demandé à des transcripteurs professionnels de travailler à partir de la base de données Switchboard.
Elle a été créée dans les années 1990 par le National Institute of Standards and Technology (NIST) afin de servir de maître-étalon aux travaux sur la reconnaissance vocale. Switchboard contient des échantillons de conversations téléphoniques en anglais, espagnol et chinois mandarin, qui ont l'avantage de recréer des conditions réelles où les gens peuvent parfois marmonner, bafouiller, tousser, s'éclaircir la voix...
Confronté à ce test, le logiciel de reconnaissance vocale de Microsoft a obtenu un taux d'erreur de 5,9 % qui, selon le géant nord-américain, est, d'une part, égal à celui que les transcripteurs humains ont atteint et, d'autre part, le taux le plus bas jamais enregistré sur Switchboard.
Pour réaliser cette performance, l'équipe de Microsoft Research s'est appuyée sur un réseau neuronal d'apprentissage profond, à l'instar de Google qui a récemment fait de gros progrès en matière de traduction instantanée grâce à cette méthode. Du côté de Microsoft, l'une des clés de la réussite tient à l'optimisation du fonctionnement de l'infrastructure de son IA nommée Computational Network Toolkit (CNTK).
Cette plate-forme d'apprentissage profond, par ailleurs disponible en open source viaGitHub, peut exécuter ses algorithmes sur plusieurs ordinateurs équipés de processeurs graphiques dont la capacité à traiter des centaines de milliards d'opérations par seconde a joué un rôle déterminant dans l'avènement des réseaux neuronaux ces dernières années.
L'intelligence artificielle de Microsoft est capable de rapprocher ces deux mots et pour le coup d'être nettement plus rapide dans son traitement. La firme nord-américaine prévoit d'exploiter cette technologie dans sa console de jeu vidéo Xbox, avec l'assistant virtuel Cortana qui est intégré à ses smartphones et ordinateurs Windows 10 ainsi que pour des logiciels de transcription vocale en texte.
Malgré cette percée majeure, il ne s'agit que d'une étape. En effet, Microsoft Research explique que ses spécialistes vont désormais s'atteler à faire fonctionner leur système de reconnaissance vocale dans diverses conditions réelles, avec notamment un bruit de fond élevé (circulation automobile, brouhaha d'une fête...). Ils veulent également que leur IA soit en mesure de reconnaître différents types de voix en fonction de l'âge ou de l'accent mais aussi d'identifier chaque interlocuteur lorsque plusieurs personnes s'expriment en même temps.
Article rédigé par Georges Simmonds pour RT Flash
Cornell
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs d'IFP Energies nouvelles (IFPEN) ont mis au point une méthodologie innovante pour concevoir par CFD (Computational Fluid Dynamics) et fabriquer par impression 3D un réacteur chimique en métal destiné à la production de carburants propres. Si l'impression 3D en métal est déjà utilisée par l'industrie aéronautique et automobile, il s'agit d'une première et d'une véritable prouesse technique pour un réacteur chimique opéré à de hautes conditions de pression et température, et qui met en jeu des réactions entre du gaz, du liquide et du solide.
Pour mettre au point et tester les procédés de production de carburants et d'intermédiaires pour la chimie, les chercheurs d'IFPEN conçoivent des réacteurs pour leurs unités pilotes. Ils ont notamment développé un réacteur chimique agité qui permet l'obtention de réactions entre un gaz et un liquide, en présence d'un catalyseur solide à haute température et pression.
Pour ce type de réacteur complexe et miniaturisé, les méthodes traditionnelles de fabrication ne permettent pas d'obtenir des géométries adaptées. Une équipe de recherche d'IFPEN en génie chimique a proposé une nouvelle manière de concevoir et fabriquer ce réacteur en faisant appel à la fabrication additive.
Pour concevoir le design des internes du réacteur, IFPEN a adopté une démarche scientifique innovante, encore très peu présente dans le domaine du génie chimique, qui associe des outils de modélisation numérique simulant les écoulements des fluides (CFD) à des techniques de validation expérimentale utilisant la fabrication additive.
Une fois la géométrie du réacteur modélisée, un prototype en résine transparente, peu coûteux et de fabrication rapide, est imprimé en 3D pour réaliser les tests hydrodynamiques. Des géométries optimales d'internes ont pu être conçues grâce à des allers-retours rapides entre simulation, fabrications de prototypes et expérimentation. Enfin, le réacteur final en métal a été fabriqué par impression 3D.
IFPEN a ainsi pu concevoir un design de réacteur mieux adapté à ses besoins expérimentaux, à moindre coût et de façon très réactive. Le temps entre la conception scientifique et la fabrication est fortement réduit par rapport aux approches conventionnelles. Par ailleurs, l'impression 3D rend possible la mise au point de réacteurs aux formes plus complexes et de taille plus petite.
Dans ce projet, l'IFPEN s'est associé avec différents acteurs de l'impression 3D et prototypage rapide en Rhône-Alpes. IFPEN a fait appel à Additive3D pour la réalisation des prototypes en résine transparente et à 3D&P, le « spin-off technologique » du groupe industriel Aubry Finance spécialisé dans la fabrication additive, pour la réalisation de la pièce en métal.
Le succès de cette première expérimentation révèle le potentiel de la fabrication additive dans le domaine de la chimie et offre des perspectives à plus long terme. Appliquée aujourd'hui à un outil expérimental, elle pourrait demain s'étendre à des outils de taille industrielle.
Article rédigé par Georges Simmonds pour RT Flash
Europétrole
|
|
|
|
|
|
|
|
Des chercheurs de l’école Polytechnique de Montréal travaillent à la mise au point d'une nouvelle technique dynamique de lutte contre le cancer, à l'aide d’agents nanorobotiques auto-propulsés, chargés de médicaments et capables d’emprunter le chemin le plus direct entre le point d’injection du médicament et la zone du corps à traiter.
Ces scientifiques de l'Ecole Polytechnique de Montréal, de l’Université de Montréal et de l’Université McGill ont mis au point ces nouveaux agents nanorobotiques capables de naviguer à travers le système sanguin pour administrer avec précision un médicament en visant spécifiquement les cellules actives des tumeurs cancéreuses. Le ciblage optimal de la tumeur est ainsi garanti, ce qui évite de compromettre l’intégrité des organes et des tissus sains environnants. Grâce à cette nouvelle approche ciblée, la dose de médicament peut ainsi être largement réduite.
Une armée d’agents nanorobotiques constituée de plus de 100 millions de bactéries flagellées : ces agents sont ainsi autopropulsés, expliquent les chercheurs dans leur communiqué. Chargés de médicaments et conçus pour cibler les zones d’hypoxie ou de développement des tumeurs.
Lorsqu’ils parviennent à l’intérieur d’une tumeur, les agents nanorobotiques peuvent, de manière entièrement autonome, détecter les zones tumorales appauvries en oxygène (dites "hypoxiques" (en brun foncé sur la vignette), et y livrer le médicament. Cette hypoxie est causée par l’importante consommation d’oxygène engendrée par la prolifération rapide des cellules tumorales. Les zones hypoxiques sont reconnues comme étant résistantes à la plupart des traitements, incluant la radiothérapie.
Accéder aux tumeurs en empruntant des voies aussi petites qu’un globule rouge et en traversant des microenvironnements physiologiques complexes comporte toutefois plusieurs défis. Pour se déplacer, les bactéries utilisées par l’équipe exploitent 2 systèmes naturels : "un genre de boussole", créée par la synthèse d’une chaîne de nanoparticules magnétiques, qui leur permet de se déplacer dans le sens d’un champ magnétique ainsi qu’un capteur de concentration d’oxygène qui leur permet d’atteindre et de demeurer dans les zones actives de la tumeur.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Actuellement testés dans deux hôpitaux au Danemark, les robots de Blue Ocean Robotics, une société danoise, sont capables de détecter les bactéries dans les chambres et de les détruire grâce à des rayons ultraviolets.
Blue Ocean Robotics a conçu un robot qui utilise des rayons ultraviolets pour désinfecter les chambres. Ce robot est destiné aux hôpitaux, un environnement à haut risque en termes d'infections. Selon le co-CEO de l'entreprise, John Erland Ostergaard, il pourrait être commercialisé comme un service plutôt qu'un achat de matériel. Pour l'heure, il est en test dans deux établissements hospitaliers au Danemark.
Dans une enquête datant de 2011, les centres américains du contrôle des maladies (Centers for Disease Control) ont établi que les patients avaient attrapé 722 000 infections au cours de leur traitement dans des établissements de santé aux Etats-Unis et que 75 000 de ces patients étaient morts à l'hôpital. Pour tenter de réduire ce dramatique bilan, les robots désinfectants de Blue Ocean Robotics utilisent de larges lampes à ultraviolets pour tuer les bactéries. Dans le détail, ils suppriment les acides nucléiques au coeur de la bactérie et dérèglent leur ADN, ce qui rend impossible leur capacité à se reproduire et les fait mourir.
Actuellement, le nettoyage des chambres d'hôpitaux est un processus très manuel mais de tels robots sont à même de les désinfecter de façon autonome avec peu d'intervention humaine. Blue Ocean Robotics n'est pas la seule société à s'être lancée sur le créneau des robots désinfectants. Xenex, à San Antonio au Texas, a également conçu son propre modèle, tout comme Tru-D dans le Tennessee.
Article rédigé par Georges Simmonds pour RT Flash
Le Monde Informatique
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La start-up Koniku, fondée par Oshirenoya Agabi, a présenté un prototype de puce hybride qui intègre 64 neurones vivants, à l'occasion du Hello Tomorrow Challenge, une compétition dédiée aux start-up qui s'est déroulée à Paris. Capable de réaliser de nombreux calculs en parallèle avec une consommation énergétique inférieure à celle d’une ampoule de 25 watts, le cerveau humain se présente comme un super ordinateur. Oshirenoya Agabi, fondateur de la start-up californienne Koniku, ne s’est pas contenté de s’inspirer du fonctionnement de notre organe.
Avec son équipe, l’entrepreneur a directement intégré 64 neurones vivants dans une puce. Ces neurones ont été obtenus à partir de la culture de cellules souches en laboratoire. Tout l’enjeu a consisté à créer un environnement bien spécifique pour rendre ces neurones fonctionnels et pouvoir les contrôler. « Nous voyons les neurones comme un matériel à part entière. C’est un mécanisme qui a besoin d’un environnement programmé particulier pour fonctionner », explique Oshirenoya Agabi. La start-up a donc mis au point des enveloppes pour encapsuler individuellement les neurones et apporter à chacun la bonne température, le bon niveau de pH et suffisamment de nutriments.
Les capsules sont combinées à des électrodes recouvertes d’ADN et de protéines enrichies pour inciter les neurones à créer des liens artificiels entre elles. Grâce à ces électrodes propriétaires, il est possible de lire et d’écrire des informations à l’intérieur des neurones.
Le premier prototype de la start-up fait la taille d’un iPad. L’infrastructure du dispositif est faite à partir d’un mélange spécifique de matériaux biocompatibles. A terme, l’objectif de Koniku n’est pas d’augmenter le nombre de neurones intégrés à sa puce, mais de rallonger leur durée de vie (qui s’élève à quelques mois pour le moment) et de réduire le dispositif à la taille d’une pièce de monnaie. La jeune pousse ambitionne de proposer un produit commercialisable d’ici un an.
Coté applications, Koniku souhaite explorer les capacités sensorielles des neurones pour permettre à des machines, comme des drones, de détecter différents éléments, comme des fuites de méthane dans les raffineries de pétrole par exemple. « Les possibilités sont infinies » assure l’entrepreneur.
Outre des applications de surveillance et de défense, d’autres cas d’usage sont à l’étude. Une entreprise s’est notamment montrée intéressée pour utiliser la puce afin de modéliser l’effet de certains médicaments sur le cerveau humain. La start-up est également en discussions avancées avec plusieurs acteurs du véhicule autonome.
Article rédigé par Georges Simmonds pour RT Flash
Industrie & Technologies
|
|
|
|
|
|
|
|
Une batterie à flux de 10 kW a été mise au point par la start-up rennaise Kemwatt, pour les applications de stockage des énergies renouvelables. Les batteries à flux – ou « batteries redox-flow » - stockent et génèrent l’électricité par une réaction d’oxydoréduction. Deux solutions électrolytiques successivement réduites et oxydées sont séparées par une membrane échangeuse d’ions, qui permet l'échange des protons. La réaction d’oxydo-réduction n’a plus lieu au niveau des électrodes, mais au niveau de l’électrolyte, si bien que la quantité d’énergie que l’on peut stocker dépend de la taille des réservoirs d’électrolyte, que l’on peut agrandir selon les besoins.
La puissance est indépendante de la capacité de stockage, contrairement à une batterie classique. Pourtant, elles n'ont jamais réussi à s’imposer jusqu’à présent car leurs électrolytes reposaient sur la chimie au vanadium, un milieu acide corrosif qui attaquait les autres composants. La batterie mise au point par Kemwatt est basée sur un électrolyte organique – la quinone- biodégradable, et non corrosif pour les métaux des électrodes. En outre, la batterie à flux n’est pas sujette à un risque d’incendie, car le liquide aqueux circule en permanence. Enfin, il est possible de changer l’électrolyte sans avoir à modifier les équipements.
La batterie à flux s’avère particulièrement intéressante pour stocker les énergies renouvelables en raison de sa capacité de stockage flexible et de sa durée de vie au-delà de 10 000 cycles. "Jusqu’à présent, le marché n’avait pas besoin de cette solution", justifie François Hubert. " Aujourd’hui, avec la baisse des coûts de l’éolien et du photovoltaïque, le coût de production de la solution devient intéressant". En effet, l’inconvénient principal de la batterie à flux, sa faible densité de stockage, ne l’est plus lorsqu’il s’agit de stockage stationnaire. La start-up mettra en démonstration une batterie de 20 kW l’année prochaine. Selon François Hubert, la batterie est aussi plus simple à industrialiser que le lithium, ses composants étant faciles à fabriquer.
Article rédigé par Georges Simmonds pour RT Flash
Industrie & Technologies
|
|
|
|
|
|
|
|
Réduire notre dépendance aux combustibles fossiles implique de se tourner vers les biocarburants dérivés des plantes et les produits chimiques. Mais produire des biocarburantss rentables à partir de la biomasse est un défi technologique majeur. La plus grande part de la biomasse se trouve sous la forme de plantes non comestibles comme les arbres, l’herbe et les algues. Elles contiennent des sucres qui peuvent être mis en fermentation pour produire du carburant.
Mais la biomasse contient aussi de la lignine, un polymère organique massif et complexe qui remplit le bois, l’écorce et, d’une manière générale, donne leur rigidité aux plantes. Parce qu’elle est difficile à traiter, la lignine est généralement rejetée lors de la production de biocarburant. Or des scientifiques de l’EPFL viennent de faire passer la lignine de l’état de nuisance à celui d’importante source de biocarburant, simplement en y ajoutant un produit chimique courant, qui la convertit jusqu’à 80 % en molécules précieuses pour les biocarburants et le plastique. La méthode, brevetée, qui peut être démultipliée à l’échelle industrielle, est publiée dans Science.
La lignine est un polymère extrêmement complexe, qui remplit la paroi rigide entourant chaque cellule d’une plante. En fait, la lignine constitue près d’un tiers de la biomasse de la plante et sa structure moléculaire lui confère une densité énergétique supérieure de 30 % à celle des sucres qui sont traditionnellement transformés en biocarburant. Le problème est que la lignine est difficile à extraire et à transformer. La plupart des chercheurs ont échoué dans leurs tentatives pour la briser et la valoriser en carburants ou en produits chimiques.
Une équipe internationale de chercheurs, conduite par Jeremy Luterbacher de l’EPFL, vient de montrer qu’ils peuvent facilement casser la molécule de lignine en ajoutant du formaldéhyde au processus. Le formaldéhyde est un des produits chimiques les plus largement utilisés dans l’industrie et sa production est simple et bon marché. Les chercheurs ont découvert que le formaldéhyde stabilise la lignine et l’empêche de se dégrader, ce qui conduit à des rendements élevés d’éléments constitutifs qui peuvent être utilisés pour produire des substituts de produits pétrochimiques. Ces rendements ont été de 3 à 7 fois plus élevés que ceux obtenus sans formaldéhyde.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Selon une étude réalisée par l'équipe du professeur Christopher Conselice, de l'Université de Nottingham, notre Univers compterait au moins 2.000 milliards de galaxies, c'est-à-dire "dix fois plus" que ne le pensaient les scientifiques jusqu'alors. Ces dernières années, les astronomes pensaient en effet que l'Univers contenait entre 100 milliards et 200 milliards de galaxies.
Ces chercheurs britanniques ont travaillé longuement à partir des données du télescope spatial Hubble développé par la Nasa avec l'Agence spatiale européenne, mais aussi d'autres télescopes. L'équipe de chercheurs a ensuite construit laborieusement des images en 3D et extrapolé le nombre de galaxies présentes à différentes époques de l'histoire de l'Univers. Plus les galaxies sont distantes, plus leur lumière peine à nous parvenir. Les télescopes actuels ne permettent d'étudier que 10 % des galaxies.
"C'est sidérant que penser que 90 % des galaxies du Cosmos doivent encore être étudiées", déclare Christopher Conselice. "Qui sait ce que nous allons découvrir quand nous serons en mesure d'étudier ces galaxies grâce à la nouvelle génération de télescopes ?", souligne-t-il.
L'équipe d'astronomes a utilisé des méthodes de type statistique et s'est servi de ce que l'on connaît de l'Univers proche pour deviner ce qui se passe plus loin. "L'étude est très intéressante même si on peut avoir quelques réserves sur le nombre précis de galaxies", a déclaré François Hammer, astronome de l'Observatoire de Paris et spécialiste de la formation des galaxies.
"Le professeur Conselice a fait ce qu'on peut faire de mieux à notre époque. Mais son résultat ne peut pas être considéré comme le dernier mot", a dit l'astrophysicien. "C'est un travail qui ne pourra être confirmé que lorsque nous aurons des télescopes géants qui nous permettront de voir beaucoup mieux dans ces régions lointaines", relève François Hammer.
Le Télescope géant européen E-ELT (European Extremely Large Telescope) est en train d'être construit au Chili par l'Observatoire européen austral (ESO). Son miroir primaire aura un diamètre de 39 mètres. Il doit entrer en service "en 2024/2025", précise François Hammer, responsable scientifique du spectrographe multi-objets (MOS) de ce télescope. Cet instrument permettra notamment d'observer des galaxies extrêmement lointaines. Les Etats-Unis, eux, projettent de construire le Thirty Meter Telescope (TMT), qui aura un miroir segmenté de 30 mètres, à Hawaï.
Autre intérêt de l'étude : elle renforce le scénario selon lequel les galaxies se construisent en fusionnant les unes avec les autres, relève François Hammer. "Au départ, il y a beaucoup de petites galaxies puis elles fusionnent, devenant de plus en plus grosses", dit-il. "Dans 3 à 4 milliards d'années, notre galaxie, la Voie Lactée, va rencontrer Andromède et former une autre galaxie", note-t-il.
Article rédigé par Georges Simmonds pour RT Flash
HUBBLE SITE
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Selon les Centers for disease Control and Prevention (CDC), l’incidence de l’autisme atteint 1 enfant sur 50, une incidence qui grimpe en flèche non seulement sous l’effet d’un meilleur diagnostic mais aussi de facteurs environnementaux, qui augmentent réellement le risque de ces troubles du spectre autistique (TSA).
Des scientifiques de l’Université Ben Gourion du Néguev ont analysé les séquences de plus de 650 gènes associés à l’autisme et les caractéristiques qui peuvent les distinguer des autres gènes et, notamment de gènes impliqués dans d’autres troubles neurologiques. L’auteur principal de la recherche, le Docteur Idan Menashe, décrit l’aboutissement de ces travaux : "Cette étude nous apporte une signature génétique donc un nouvel outil d’identification de l’autisme. À partir de là, nous espérons être en mesure de diagnostiquer l’autisme de manière plus précoce".
Une caractéristique particulièrement spécifique des gènes de l’autisme, c’est ce qu’on retiendra de cette étude : les chercheurs découvrent ici leur longueur génomique exceptionnelle, bien plus élevée que celle d’autres gènes du cerveau, y compris les gènes exprimés dans d’autres maladies neurologiques, comme la maladie d’Alzheimer et la schizophrénie.
Et lorsque les chercheurs font cette analyse chez des familles ayant un enfant atteint de TSA, ils identifient alors une signature génomique unique, façonnée selon un processus évolutif spécifique de "sélection négative" qui élimine les mutations de certains gènes perturbateurs et les empêche de se répliquer au fil des générations.
L’absence de processus de sélection positive dans les gènes de l’autisme : un tel processus de sélection positive dans les gènes pourrait contribuer à expliquer une augmentation de la fréquence d’incidence dans la population générale. Mais, dans les gênes de l’autisme, les chercheurs ne trouvent aucune preuve de l’existence d’un tel processus. Cela suggère que les gènes "de susceptibilité" identifiés dans cette signature se doivent d’être combinés avec d’autres facteurs génétiques, non-génétiques ou environnementaux pour déclencher le développement du trouble.
Article rédigé par Georges Simmonds pour RT Flash
Behavior Genetics
|
|
|
|
|
|
|
|
La myopathie de Duchenne, qui touche un enfant sur 3500, est la plus courante et la plus sévère des myopathies. Cette pathologie entraîne une paralysie générale progressive. La plupart des patients meurent de détresse respiratoire. Cette maladie a pour origine une mutation génétique, qui empêche que soit produite une protéine indispensable au maintien des cellules musculaires.
La plupart des recherches visent donc à réparer le gène défectueux. Or, des chercheurs de l'EPFL ont élaboré une autre stratégie. Dans le cadre de travaux sur la nutrition et le vieillissement, ils ont découvert que de hautes doses d'une vitamine appelée nicotinamide riboside déploient chez des animaux de spectaculaires effets contre le développement de la maladie.
Les patients souffrant de la myopathie de Duchenne sont incapables de produire de la dystrophine. Cette protéine sert principalement à maintenir entre eux des éléments de la cellule musculaire. Sans elle, les cellules ne peuvent s'étirer correctement. Les mouvements provoquent mécaniquement une inflammation, qui entraîne une destruction progressive des muscles.
L'équipe de Johan Auwerx a pu montrer comment la maladie entraîne, au cœur des cellules, un second cycle d'événements. Une cascade de réactions qui contribue à renforcer encore les effets destructeurs de la maladie.
Dans ce second cycle, plusieurs acteurs sont à l'œuvre. Tout d'abord, l'inflammation "première" va sur-activer un gène, qui consomme une grande quantité d'un élément essentiel de nos cellules, la NAD+. La cellule connaît donc une pénurie de NAD+. Or ce dernier sert également de carburant aux usines énergétiques des cellules, particulièrement sollicitées dans les tissus musculaires : les mitochondries.
Et s'il était possible de réduire l'inflammation - et donc la destruction - du muscle en nourrissant les mitochondries épuisées ? Il s'agirait d'administrer la vitamine précurseur du NAD+, soit de la nicotinamide riboside. C'est l'hypothèse qu'ont voulu éprouver les chercheurs, qui ont déjà investigué avec succès les effets de cette vitamine sur le vieillissement musculaire dans le cadre de travaux sur la nutrition.
Les scientifiques ont testé leur approche sur des animaux : des vers C. elegans et des souris, génétiquement modifiés pour développer la maladie. L'effet est spectaculaire. Soumis à de fortes doses de nicotinamide riboside, les vers ne développent aucun des symptômes de la maladie, tandis que les souris présentent une inflammation musculaire fortement réduite et récupèrent même d'anciennes lésions. "Nous avons de bonnes raisons de penser que l'humain réagira également au traitement et que nous pourrons réduire l'inflammation", explique Johan Auwerx, auteur principal.
"Mais nous ignorons dans quelle mesure. Il faut garder à l'esprit que la cause première de la maladie n'est pas traitée : la dystrophine reste défectueuse". Difficile donc de conjecturer sur l'effet d'un tel traitement. "Quoi qu'il en soit, il serait déjà extraordinaire que nous puissions prolonger la vie du malade de quelques années et améliorer son confort."
Le nicotinamide riboside est une vitamine, précurseur du NAD+. Cette molécule, disponible dans le commerce, ne présente aucune toxicité connue, même à haute dose. Hydrosoluble, elle est évacuée par les urines lorsque présente en trop grande quantité.
Selon Johan Auwerx, la disponibilité et l'innocuité du nicotinamide riboside laissent envisager des essais cliniques dans un avenir très proche, deux ans peut-être. "Il nous faudra tester les dosages. Chez les animaux testés, les quantités étaient telles qu'aucun régime alimentaire ne pourrait y suppléer. Que notre stratégie fonctionne ou non sur l'humain, il nous faudra utiliser des doses massives de molécules de synthèse".
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Les scientifiques ont-ils trouvé une nouvelle voie innovante vers l’élimination des déchets nucléaires ? Peut-être, selon une étude de l’EPFL qui a découvert une communauté microbienne constituée de sept espèces de bactéries. Celles-ci vivent naturellement à des centaines de mètres sous la surface du sol, dans les couches de roche qui ont précisément été choisies pour héberger les déchets nucléaires en Suisse.
Ces bactéries sont loin de constituer une menace pour ce stockage : les scientifiques ont même découvert qu’on pouvait les utiliser pour en accroître la sécurité, moyennant un ajustement dans la conception des sites de dépôts des déchets nucléaires. Ces bactéries consomment l’hydrogène qui s’accumule lorsque les conteneurs en acier où sont stockés les déchets rouillent. Or, en l’absence de tout contrôle, l’hydrogène pourrait endommager l’intégrité de la roche hôte.
Il faut environ 200.000 ans pour que la radioactivité du combustible nucléaire usagé revienne au niveau de l’uranium naturel. Par conséquent, l’essentiel de la recherche dans le domaine du stockage des déchets nucléaires s’est concentrée jusqu’ici sur une horloge géologique lente : d’une part, sur la mécanique des couches de roche du site de stockage, d’autre part, sur la solidité de ses barrières protectrices, conçues pour contenir les radiations. Ces études ont négligé toutefois un facteur-clé : la biologie.
On trouve des bactéries partout, même à des centaines de mètres sous terre. Et selon Rizlan Bernier-Latmani, auteure principale de l’étude, elles vont se jeter sur n’importe quelle source d’énergie disponible. « Dans des échantillons d’eau prélevés à 300 mètres sous terre, au Mont Terri Rock Laboratory, nous avons déniché une communauté de bactéries formant une chaîne alimentaire fermée. Beaucoup d’entre elles n’avaient encore jamais été observées. Dans ces conditions idéales, les espèces qui sont à la base de cette chaîne alimentaire bactérienne tirent leur énergie de l’hydrogène et des sulfates de la roche hôte. Elles alimentent ainsi les espèces restantes », explique-t-elle.
Le fait d’ajouter des déchets nucléaires dans le milieu change complètement la donne. Vitrifiés, scellés dans des conteneurs en acier, entourés d’une épaisse couche de bentonite auto-obturante, puis enterrés à des centaines de mètres de profondeur dans des couches d’argile à Opalinus, les déchets radioactifs sont isolés de l’environnement local de manière étanche. Mais la corrosion, inévitable, des conteneurs en acier conduit à la production d’hydrogène.
Il y a cinq ans, Rizlan Bernier-Latmani et ses chercheurs ont transporté leur hypothèse sur le terrain. « Pendant deux ans, nous avons soumis des bactéries souterraines à des niveaux d’hydrogène croissants, en plein milieu de la roche d’argile à Opalinus, sur le site du Mont Terri, dans le canton du Jura », explique Rizlan Bernier-Latmani. Tout au long de ce laps de temps, ils ont examiné la composition de la population de bactéries et les changements individuels chez celles-ci. Autant quant à leur capacité à maintenir des voies biochimiques qu’aux protéines qu’elles produisent réellement.
Une fois que les bactéries eurent consommé tout l’oxygène et le fer disponibles, les chercheurs ont observé un changement dans leurs effectifs de population et dans leur métabolisme. Les deux critères étaient déterminés par la disponibilité croissante d’hydrogène. « Deux des espèces de bactéries capables d’utiliser l’hydrogène pour actionner leur métabolisme ont proliféré, alors que les autres espèces ont profité de leur croissance », explique Rizlan Bernier-Latmani. C’était une bonne nouvelle, puisque la prolifération de la communauté bactérienne contribuait à empêcher l’accumulation d’hydrogène. Pour rendre les dépôts de déchets nucléaires plus sûrs, on pourrait donc ajouter un quatrième confinement, biologique cette fois.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Les équipes de Laurent Fasano et de Lydia Kerkerian-Le Goff à l'Institut de biologie du développement de Marseille, en collaboration avec les équipes de Pierre Roubertoux (Marseille) et de Joris Andrieux (Lille), et en partenariat avec plusieurs laboratoires européens et américains, ont identifié TSHZ3 comme un nouveau gène lié aux troubles du spectre autistique et essentiel pour le développement des neurones de projection du cortex cérébral.
Les troubles du spectre autistique (TSA) sont des troubles neurologiques qui se manifestent précocement au cours de l'enfance par des anomalies dans les interactions sociales ainsi que par des intérêts restreints et des comportements répétitifs. Leur étiologie est multifactorielle, avec une composante génétique, incluant des gènes impliqués dans le fonctionnement des synapses.
Les travaux princeps de l'équipe de Laurent Fasano concernant TSHZ3 avaient décrit ce facteur de transcription à doigts de zinc comme indispensable pour la myogenèse de l'uretère ainsi que pour la structuration des circuits neuronaux contrôlant la respiration.
Le consortium de recherche international, réuni autour des équipes de Laurent Fasano et de Lydia Kerkerian-Le Goff, apporte un faisceau d'arguments convergents, à partir d'études menées chez l'homme et sur des modèles murins, en faveur de l'existence d'un lien direct entre déficience de TSHZ3 et un sous-type de TSA, associant notamment traits autistiques et anomalies congénitales de l'appareil urinaire.
Ainsi, ce syndrome est caractéristique de patients porteurs de microdélétions hétérozygotes dans la région chromosomique minimale commune 19q12 dont TSHZ3 est identifié comme le gène critique. De plus, les souris hétérozygotes Tshz3 présentent des anomalies comportementales de type autistique.
Chez l'homme et la souris, TSHZ3 est fortement exprimé dans les couches profondes du cortex cérébral embryonnaire. La délétion de Tshz3 chez la souris affecte l'expression corticale d'un ensemble de gènes dont une proportion majeure des orthologues humains est associée aux TSA, incluant des marqueurs de l'identité moléculaire des neurones des couches profondes du cortex cérébral.
Chez ces souris, des altérations de la transmission et de la plasticité au niveau des synapses établies par ces neurones sont mises en évidence, alors que l'organisation en couches du cortex cérébral est préservée et que les principales voies de projection corticales sont présentes. Ces résultats confortent la piste d'une association entre TSA et défauts de la formation et/ou du fonctionnement des synapses et incitent à une analyse approfondie du lien entre TSHZ3 et communication entre neurones.
Article rédigé par Georges Simmonds pour RT Flash
NCBI
|
|
|
|
|
|
|
|
Les chercheurs du Walter and Eliza Hall Institute à Melbourne et de Servier ont montré qu'une nouvelle molécule, découverte conjointement par Servier, laboratoire pharmaceutique international dont le siège se trouve en France, et par la société britannique Vernalis (R&D), bloque une protéine essentielle à la survie des cellules tumorales de près d'un quart des cancers.
Ces travaux offrent un nouveau moyen d'induire la mort des cellules cancéreuses et sont prometteurs pour le traitement des hémopathies malignes telles que les leucémies myéloïdes aigües, les lymphomes et les myélomes multiples, ainsi que des tumeurs solides telles que les mélanomes et les cancers du poumon et du sein. Les résultats de ces recherches ont été publiés dans la revue Nature. La molécule Servier - S63845 - cible une protéine de la famille BCL2, appelée MCL1, qui joue un rôle essentiel dans la survie de ces cellules cancéreuses.
Le Professeur Guillaume Lessene, qui a dirigé l'équipe de recherche du Walter and Eliza Hall Institute à Melbourne (Australie), a souligné que ces travaux fournissent les premières preuves précliniques de l'efficacité de l'inhibition de la protéine MCL1 contre plusieurs types de cancers.
« MCL1 joue un rôle important dans de nombreux cancers car cette protéine permet aux cellules cancéreuses de survivre en échappant au processus de mort cellulaire programmée, normalement en charge de l'élimination de ces cellules », a précisé le Professeur Lessene. « Des études approfondies sur différents modèles de cancer ont montré que S63845 agit efficacement sur les cellules cancéreuses qui dépendent de MCL1 pour leur survie ».
L'équipe du Professeur Lessene a travaillé avec le Professeur Andrew Wei, hématologue, le Docteur Donia Moujalled de l'Alfred Hospital et des scientifiques de Servier pour démontrer que non seulement la molécule S63845 est efficace contre plusieurs types de cancers mais qu'elle peut également être administrée à des doses qui sont bien tolérées par les cellules saines. Dans le cadre de la collaboration en cours entre Servier et Novartis sur cette famille de cibles, le développement clinique d'un inhibiteur de MCL1 devrait être lancé prochainement.
Le Professeur Lessene souligne que ces travaux de recherche apportent des preuves supplémentaires de l'utilité d'une nouvelle classe de médicaments anticancéreux appelés BH3 mimétiques. « Les BH3 mimétiques inhibent un groupe de protéines identifiées comme les protéines de survie BCL-2. MCL1 appartient à cette famille de protéines et le fait de l'inhiber active le processus de mort cellulaire programmée. Les chercheurs du Walter and Eliza Hall Institute ont révélé le rôle de BCL-2 dans les cancers, il y a plus de 28 ans, et le rôle essentiel de MCL1 dans la survie des cellules malignes il y a 4 ans », rappelle-t-il.
Article rédigé par Georges Simmonds pour RT Flash
Medical Xpress
|
|
|
|
|
|
|
|
Les quadruplexes d’ADN n'avaient pas été prévus par les pères de la génétique, Watson et Crick. Pourtant, ils pourraient s’avérer capitaux dans la lutte contre plusieurs maladies graves, cancer en tête. Une chose est sûre : depuis la démonstration de l’existence de ces éléments dans les cellules humaines en 2013, la recherche dans ce domaine explose ! « Grâce à l’étude des quadruplexes, on est littéralement en train de redéfinir le code génétique. Ce sont comme des interrupteurs génétiques qui offrent un nouveau niveau de régulation des gènes », s’enthousiasme le chercheur David Monchaud, de l’Institut de chimie moléculaire de l’Université de Bourgogne.
Concrètement, les quadruplexes sont des structures non usuelles de l’ADN. Cette molécule est classiquement constituée de deux brins enroulés l’un sur l’autre, formés chacun d’un enchaînement de « bases nucléiques » (guanine, G ; adénine, A ; cytosine, C ; et thymine, T), et maintenus ensemble grâce à des liaisons faibles entre les bases. Les quadruplexes d’ADN, eux, sont des structures d’ADN composées non pas de 2, mais de 4 brins tournant les uns sur les autres. « Ils se forment par repliement de l’ADN quand il est riche en G : en s’auto-assemblant entre elles, les bases G conduisent à une structure à 4 brins riches en G. D’où l’autre nom des quadruplexes : G4 », précise le chercheur.
Autre caractéristique importante des G4 : contrairement à la double hélice d’ADN – qui est, elle, une structure permanente –, ce sont des structures très dynamiques, voire furtives. « C’est une des raisons pour lesquelles leur existence dans les cellules humaines n’a été démontrée que depuis peu », souligne David Monchaud. Les données les plus récentes suggèrent que les G4 peuvent se former au niveau de pas moins de… 716 000 endroits de notre génome ! Cela dit, il semble qu'ils soient plus fréquents au niveau des télomères, ces zones situées aux extrémités des chromosomes et qui en assurent la stabilité. Et aussi au niveau des promoteurs de gènes (régions à proximité des gènes et indispensables à leur expression), notamment des promoteurs d’oncogènes, dont la surexpression favorise le développement des cancers.
Par ailleurs, d’autres molécules génétiques peuvent également former des G4 quand elles sont riches en G : les ARN, des molécules proches chimiquement de l’ADN mais constituées d’un seul brin, indispensables à la fabrication des protéines. Enfin, l’existence des G4 est maintenant suspectée dans tous les types de cellules vivantes : celles des humains, mais aussi celles des plantes, ou encore des virus et des bactéries.
Si les G4 intéressent tant les chercheurs, c’est à cause de leur possible implication dans plusieurs processus biologiques clés, indispensables au bon fonctionnement de la cellule. Parmi ceux-ci : la stabilité des chromosomes ; la « réplication » de l’ADN, mécanisme survenant avant la division des cellules, permettant d’obtenir, à partir d’une molécule d’ADN, deux molécules identiques ; la « transcription » où un brin de l’ADN est copié en une molécule d’ARN ; la « traduction », processus où l’ARN est utilisé pour permettre la synthèse de protéines ; etc.
A cause de leurs possibles rôles dans les processus biologiques clés cités plus haut, les G4 pourraient être impliqués dans le développement de plusieurs maladies graves : les cancers, certaines maladies rares (syndrome de l’X fragile, etc.), neurodégénératives (maladie de Charcot, démences fronto-temporales, etc.), ou infectieuses (herpès, sida, etc.). D’où l’idée de tenter de développer des traitements les ciblant pour lutter contre ces différentes pathologies.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Selon une étude néerlandaise du Centre médical Erasmus, l’hypotension orthostatique, définie par une chute de la pression artérielle systolique au passage en position debout, avec une sensation de malaise ou de vertige, pourrait constituer un signe annonciateur du risque de démence, des conclusions présentées dans la revue PLoS Medicine, plausibles compte-tenu du lien entre les troubles cardio-cérébro-circulatoires et le risque de démence, mais qui restent néanmoins à confirmer.
Ces travaux rappellent que notre système circulatoire est conçu pour compenser les changements de posture et maintenir un flux sanguin constant dans le corps. Ainsi, lorsque nous nous levons, notre cœur pompe automatiquement plus vite pour maintenir la pression artérielle et assurer l’irrigation du cerveau. Cependant, ce système fonctionne parfois moins bien avec l’âge et de courtes baisses de pression artérielle ou hypotension peuvent intervenir lors de brusques changements de posture. Ces moments d’hypotension peuvent entraîner de courtes périodes de vertige.
Les chercheurs ont suivi, durant une moyenne de 15 ans, 6.204 personnes âgées de 60 à 70 ans, exemptes de démence à l’inclusion. Leur pression artérielle a été mesurée en position couchée, puis 1, 2 et 3 minutes après le passage en position debout pour identifier une éventuelle hypotension. La fréquence cardiaque a été évaluée avant et après le passage en position debout. La démence a été doublement diagnostiquée, à l’aide du test Mini-Mental State Examination et par évaluation clinique par des médecins spécialistes. Enfin, les chercheurs ont pris en compte les facteurs de confusion, dont la tension artérielle normale, le taux de cholestérol, les antécédents de maladies, les traitements médicamenteux, les antécédents de tabagisme…
L’analyse constate que les participants à épisodes d’hypotension orthostatique au début de l’étude ont un risque de démence à 15 ans accru de 40 %. Cette étude suggère que ces événements d’hypotension orthostatique conduisent à des épisodes courts mais répétés d’insuffisance du flux sanguin vers le cerveau, ce qui pourrait favoriser le développement de la démence.
Article rédigé par Georges Simmonds pour RT Flash
PLOS
|
|
|
|
|
|
|
|
Une étude dirigée par le Docteur Etienne Puymirat, du département de cardiologie de l'Hôpital européen Georges Pompidou AP-HP et de l'Université Paris-Descartes, en lien avec l'ensemble des services de cardiologie de l'AP-HP, a été menée sur l'intérêt des bétabloquants et les conséquences de leur arrêt sur la mortalité après un infarctus. Ces travaux ont été réalisés à partir des données de l'enquête FAST-MI 2005.
Depuis une quinzaine d'années, l'ensemble de la prise en charge de l'infarctus, de la période pré-hospitalière jusqu'à la sortie de l'hôpital, a beaucoup évolué (réduction du délai de prise en charge par le SAMU/SMUR, amélioration des techniques de réouverture de l'artère coronaire occluse, développement de nouvelles thérapeutiques ...), conduisant à une diminution nette de la taille des infarctus et à une baisse spectaculaire de la mortalité.
Les données de FAST-MI, publiées en 2012, montrent une diminution de la mortalité en France chez les patients hospitalisés pour un infarctus du myocarde d'environ 50 % (entre 1995 et 2010) à 30 jours de l'épisode. Cette diminution de la mortalité précoce se traduit également par une amélioration importante de la survie à plus long terme.
A la suite d'un infarctus, 4 classes de médicaments sont recommandées. L'intérêt d'une d'entre elles, les bétabloquants, est aujourd'hui discuté d'autant que ces traitements sont responsables d'effets indésirables fréquents (fatigabilité, ralentissement psychomoteur, impuissance ...).
L'étude dirigée par le Docteur Etienne Puymirat a porté sur 2 679 patients ayant été hospitalisés pour un infarctus du myocarde, sans antécédent d'insuffisance cardiaque et avec une fonction myocardique conservée.
Afin d'évaluer l'intérêt des bétabloquants et les conséquences de leur arrêt sur la mortalité après un infarctus, les données de FAST-MI 2005 ont été utilisées. Ce registre national, mis en place par la Société Française de Cardiologie et coordonné par le Proesseur Nicolas Danchin du département de cardiologie de l'Hôpital européen Georges Pompidou AP-HP et de l'Université Paris-Descartes, et par le Professeur Tabassome Simon, du département de pharmacologie clinique de l'hôpital Saint-Antoine AP-HP, a permis de suivre 3670 patients inclus dans 223 centres actifs, entre octobre et décembre 2005.
Cette étude montre que l'utilisation de bétabloquants garde un intérêt probable au cours de la première année (et notamment pendant le premier mois après la sortie de l'hôpital, période au cours de laquelle les circuits électriques du coeur restent encore plus ou moins perturbés), où elle est associée à une réduction de 23 % de la mortalité. En revanche, au-delà de cette période, la survie des patients est similaire à long terme, que les patients aient poursuivi ou arrêté leur traitement bétabloquant.
Ces nouvelles données suggèrent donc que le traitement par bétabloquant après un infarctus du myocarde pourrait être interrompu au-delà de la première année chez certains patients, sans risque de surmortalité.
Article rédigé par Georges Simmonds pour RT Flash
Medwire News
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|