| 
				|  |  
					| 
							|  |  
								| 
      										
      											| Edito La Vie serait venue de l’Espace
 
 
  
 
 Je reviens cette semaine sur une question passionnante que nous abordons régulièrement dans RT Flash et qui vient d’être relancée par plusieurs découvertes récentes : celle du rôle de l’Espace dans l’apparition et la propagation de la vie. Il y a 50 ans, les astrophysiciens découvraient les premières molécules polyatomiques dans l’Espace : l’eau, l'ammoniac NH3, le formaldéhyde H2CO. L'accès à la frange des ondes millimétriques et submillimétriques, à partir des années 1970, allait ensuite permettre la découverte d’une véritable moisson de molécules interstellaires, plus de 180 identifiées à ce jour… En 2012, une équipe de chercheurs danois du Niels Bohr Institute, dirigée par l'astronome Jes Jorgensen, est parvenue à détecter, grâce au super-télescope ALMA, la présence de sucre - un élément considéré comme l'une des briques élémentaires de la vie - à proximité du système binaire d’étoiles IRAS 16293-2422, situé à 400 années-lumière de la Terre (Voir The Astrophysical Journal Letters). Le sucre détecté est un  glycolaldéhyde, composé de deux atomes de carbone, deux d'oxygène et quatre d'hydrogène (C2H4O2). Fait très intéressant, ce sucre est l’un des composants de l'acide ribonucléique (ARN), lui-même proche parent de l'ADN. Bien que ce type de molécule ait déjà été décelé dans l'espace interstellaire, jamais ce type de molécule n’avait été repéré à proximité d'une jeune étoile, dans le disque de gaz et de poussière où naissent les planètes. En juin 2017, une équipe internationale de recherche a découvert grâce, une fois encore, au radiotélescope ALMA (Atacama Large Millimiter/submillimeter Array) situé au Chili, que les proto-étoiles de ce même système IRAS 16293-2422, produisaient d’autres  molécules nécessaires à l’apparition de la vie, et notamment de l'isocyanate de méthyle, un composé organique impliqué dans la synthèse d'acides aminés. Cette découverte est capitale car jamais cette molécule n’avait encore été détectée dans de jeunes étoiles en formation. En outre, ce système IRAS 16293-2422 ressemble beaucoup à la nébuleuse qui a donné naissance à notre système solaire. La détection de ces molécules prébiotiques vient donc éclairer d’une lumière nouvelle la question des conditions d’émergence de la vie sur Terre. Enfin, il y a quelques jours, des chercheurs de l’Université Queen Mary de Londres, en travaillant sur les données issues du télescope ALMA, ont découvert, toujours à proximité de ces mêmes proto-étoiles du système IRAS 16293-2422, la présence de glycolonitrile (HOCH2CN), une molécule prébiotique organique qui existait avant l’émergence de la vie (Voir Queen Mary University of London). Cette découverte constitue un nouveau pas important en avant pour l’astrochimie prébiotique, car le glycolonitrile est un précurseur essentiel de la formation de l’adénine, l’une des bases nucléiques formant à la fois l’ADN et l’ARN chez les organismes vivants. « Nous avons montré que cette importante molécule prébiotique peut être formée dans le matériau à partir duquel les étoiles et les planètes émergent, ce qui nous rapproche encore plus des processus ayant conduit à l’origine de la vie sur Terre » a déclaré l’auteur principal de l’étude, Shaoshan Zeng, de l’Université Queen Mary. En juillet 2017, une équipe internationale de recherche, dirigée par Chin-Fei Lee de l'Institut d'astronomie et d'astrophysique de l'Académie Chinoise à Taïwan, a détecté, toujours grâce à l’extraordinaire sensibilité du réseau d'antennes d'ALMA, des molécules organiques complexes, essentielles à l'apparition de la vie, dans le disque de gaz et de poussières entourant Herbig-Haro 212, une toute jeune étoile en cours de formation, qui se situe à environ 1300 années-lumière dans la constellation d'Orion. Ces scientifiques ont identifié, autour de cette étoile âgée de seulement 40.000 ans, la présence d’amides et d’alcools, composants de base pour de nombreuses biomolécules comme les sucres et les acides aminés. Là encore, c’est la première fois que ce type de molécule est découvert autour d'une étoile aussi jeune. Il y a quelques mois, une équipe d’astronomes s’appuyant sur le Green Bank Telescope, en Virginie-Occidentale, a pour sa part identifié, dans la constellation du Taureau, à 430 années-lumière de la Terre, les signatures de la molécule benzonitrile (C6H5CN), présente dans une masse de gaz et de poussière appelée nuage moléculaire 1 du Taureau. La molécule de benzonitrile possède une structure hexagonale à six atomes de carbone appelée benzène. Elle appartient à la famille des hydrocarbures aromatiques polycycliques, ou HAP, un type de molécule connue pour sa très grande stabilité, ce qui lui permet de résister pendant de très longues périodes aux conditions extrêmes qui règnent dans l’Espace (Voir Scientific American). En juin 2016, une autre équipe de scientifiques américains utilisant de nouveaux radiotélescopes extrêmement sensibles a découvert la première molécule chirale, l'oxyde de propylène (CH 3 CHOCH 2) qui n'est pas interchangeable, un peu comme la chaussure du pied droit et celle du pied gauche. La chiralité est une propriété fondamentale dans les structures des molécules organiques et les processus biologiques. Cette molécule a été trouvée dans un vaste nuage de poussière et de gaz près du centre de la Voie Lactée, notre galaxie (Voir NRAO). « C'est la première molécule détectée dans l'espace interstellaire qui possède cette propriété de chiralité, essentielle pour l’apparition de la vie, ce qui constitue une étape majeure dans la compréhension de la manière dont les molécules prébiotiques sont fabriquées dans l'univers et peuvent ensuite s’assembler et se combiner pour former des organismes vivants », a déclaré Brett McGuire, l’un des chercheurs à l'Observatoire national de radioastronomie (NRAO) à Charlottesville, en Virginie. Parallèlement à ces découvertes majeures concernant la présence d’une chimie prébiotique complexe et abondante dans le Cosmos et l’espace interstellaire, les avancées scientifiques se sont également multipliées depuis quelques années dans la recherche de possibles formes de vie élémentaire au sein de notre système solaire. En février 2017, les données transmises par la sonde Dawn ont prouvé la présence de molécules organiques sur la planète naine Cérès, située dans la ceinture principale d'astéroïdes orbitant autour de notre soleil entre Mars et Jupiter (Voir article Science). Ces molécules organiques, constituées de longues chaînes carbonées, ont été principalement retrouvées sur une surface de 1000 kilomètres carrés autour du cratère Ernutet, situé dans l'hémisphère nord de Cérès. Cette découverte est d’autant plus importante que les scientifiques pensent que ces molécules organiques ont bien été produites sur la planète et ne proviennent pas d'un impact avec un météorite ou une comète. Autre découverte importante : en juillet 2017, une équipe d’astronomes américains dirigés par Maureen Palmer a découvert, grâce à la sonde Cassini, des molécules carbonées chargées négativement dans la haute atmosphère de Titan, la plus grande lune de Saturne. En dépit d’une température moyenne de -180°, Titan possède, dans son atmosphère composée d’azote et de méthane une chimie très complexe, rendue possible par l’énergie fournie par les particules solaires et les particules de la magnétosphère de Saturne. Toujours en juillet 2017, la sonde Cassini a également détecté la présence de cyanure de méthyle, un composé chimique susceptible de constituer des membranes stables et flexibles de cellules vivantes adaptées aux conditions très particulières qui règnent sur ce satellite. Cette présence de cyanure de vinyle en grande quantité a été confirmée par le radiotélescope ultrasensible ALMA. La NASA prépare actuellement son projet Dragonfly, visant à lancer en 2024 une mission d’exploration robotique vers Titan. Cette mission devrait permettre, à l’horizon 2038, d’explorer en détail la surface de Titan, et son atmosphère à l’aide d’un robot-drone spécialement conçu pour évoluer dans l’environnement pour le moins extrême de cette fascinante lune de Saturne. En mars 2018, une équipe internationale de recherche dirigée par Sanjay Limaye, planétologue à l’Université du Wisconsin, a publié une étude qui n'exclut pas la possibilité de l'existence de formes de vie microbienne dans la haute atmosphère de Vénus, entre 40 et 60 km d’altitude, une zone où règnent des conditions thermiques et biochimiques compatibles avec la vie (Voir University of Wisconsin-Madison News). Ces chercheurs sont très intrigués par la présence, à l'intérieur des nuages de Vénus, de curieuses taches sombres, détectées dans le spectre ultraviolet, et qui pourraient être constituées de nappes de bactéries extrêmophiles. Ces dernières se seraient adaptées aux conditions très sévères de leur environnement, comme ont su parfaitement le faire leurs homologues sur Terre, que l'on retrouve parfois dans l'atmosphère, à plusieurs dizaines de km au-dessus des geysers de Yellowstone, aux Etats-Unis... Une mission d'exploration de la NASA, reposant sur l'envoi d'une sonde, puis d'un avion gonflable (Venus Atmospheric Maneuverable Platform) pouvant voler un an dans l'atmosphère de Venus, devrait permettre d'ici une dizaine d'années de détecter l'éventuelle existence de ces étranges formations microbiennes vénusiennes... Autre découverte particulièrement intéressante : en juin 2018, des scientifiques dirigés par le planétologue allemand Frank Postberg ont identifié, en analysant les dernières données transmises par la sonde Cassini, la présence sur Encelade (petite Lune de Saturne) de macromolécules organiques complexes, composées d’une centaine d’atomes dont au moins 15 atomes de carbone ainsi que des atomes d’azote et d’hydrogène. « Des molécules d’une taille aussi importante peuvent être créées par des processus chimiques complexes, comme ceux associés à la vie, ou venir de matériaux primordiaux contenus dans certaines météorites », souligne la Nasa. La présence de molécules organiques aussi complexes dans cet environnement a priori peu propice à la vie résulterait d’une cascade de réactions chimiques entre le coeur rocheux d’Encelade et l’eau chauffée par des cheminées hydrothermales similaires à celles qu’on peut trouver dans les fonds océaniques terrestres (Voir NASA JPL). Il est frappant de constater que de nombreuses études et analyses réalisées depuis une dizaine d’années, grâce aux nouveaux outils d’observation spatiale, et à partir des nombreuses données transmises par les différentes missions d’exploration spatiale lancées dans notre système solaire, sont venues conforter l’hypothèse d’une possible apparition de la vie (à un stade rudimentaire) sur d’autres planètes que la Terre. Mais ces travaux scientifiques ont également, et de manière encore plus surprenante, montré que l’espace interstellaire recelait, en grande quantité, de très nombreuses molécules complexes nécessaires à l’apparition de la vie, telle que nous la connaissons. Des chercheurs de l’Université de Sherbrooke, au Québec, ont réalisé, fin 2017, une remarquable expérience qui montre que certaines molécules organiques constituant les éléments constitutifs de la vie pourraient se développer sur des surfaces glacées soumises à des radiations dans le vide. Ces chercheurs ont créé des fines couches de glace contenant du méthane et/ou de l’oxygène, avant de les irradier avec des faisceaux d’électrons (Voir AIP). Ils ont alors pu observer l’apparition de nombreuses molécules, telles que l’acide acétique, le formaldéhyde, le méthanol l’éthanol, le propylène, l’éthane et l’acétylène, qui se sont développées dans des films de méthane et d’oxygène congelés. Une autre équipe américaine de l'Ames’ Astrophysics and Astrochemistry La en Californie, a publié en décembre dernier une étude aux conclusions passionnantes qui confortent les conclusions de l’équipe de Sherbrooke (Voir Nature). Ces chercheurs ont introduit un mélange gazeux de vapeur d'eau et de méthanol dans une chambre avec un vide poussé de 10-8 millibars où des températures de 4 à 15 K peuvent être reproduites. La glace ainsi obtenue a été bombardée par des photons UV similaires à ceux des jeunes étoiles dans les nuages interstellaires. Les chercheurs ont alors constaté que cette glace contenait du 2-désoxyribose, un pentose dérivé du ribose, et qui constitue la charpente de l'acide désoxyribonucléique, c'est-à-dire l'ADN, alors que le ribose est la charpente de l'ARN. Cette découverte confirme la présence d'acides aminés et d'une véritable base azotée de l'ADN dans des météorites. Signalons, pour terminer ce trop court tour d’horizon concernant la moisson de découvertes récentes dans les domaines de l’astrophysique et de l’exobiologie qu’en février 2018, des chercheurs américains ont pu confirmer que l'explosion des étoiles en supernovæ  propulse dans l'espace des quantités astronomiques de matières, dont celles nécessaires à la fabrication de l'ADN. En observant du télescope Chandra le nuage de matière Cassiopée A, résultat de l'explosion d'une supergéante rouge, à 11 100 années-lumière de la Terre, ces chercheurs ont réussi à détecter la nature, mais également la quantité d’éléments projetés dans l'Espace par l'onde de choc de cette gigantesque explosion. Ils ont alors eu la surprise d’identifier la présence de silicium, de sulfure, de calcium, de fer et d'oxygène. Les scientifiques ont ensuite déterminé que l'explosion de la supernova avait expulsé des quantités proprement phénoménales d’éléments chimiques nécessaires à la constitution de molécules d’ADN et à l’apparition de la vie : l'équivalent de 20 000 fois la masse de la Terre en silicium, 10 000 masses terrestres de sulfure, 70 000 de fer, mais aussi près d'un million de masses terrestres d'oxygène. Grâce à cette moisson extraordinaire d’observations de découvertes scientifiques réalisée au cours de ces dix dernières années, notre regard sur le Cosmos, mais également sur le vivant, a radicalement changé. Contrairement à ce que nous avons longtemps pensé, il semble en effet que les conditions nécessaires, sinon suffisantes, à l’émergence de la vie telle que nous les connaissons, existent un peu partout dans l’Univers, non seulement sur un grand nombre de planètes, d’astéroïdes et de comètes, mais, de manière beaucoup plus étonnante dans le vide interstellaire. À mesure que se dévoilent les lois extraordinairement précises et subtiles qui gouvernent notre Univers, nous découvrons qu’il semble bien exister un continuum qui va du big-bang, il y a 13,7 milliards d’années, à l’apparition de structures physiques et chimiques de plus en plus complexes, pour aboutir finalement, au moins sur notre Terre, à cet extraordinaire événement que fut l’apparition de la vie, il y a un peu moins de 4 milliards d’années. A la lumière de ce nouveau paysage cosmique totalement renouvelé par ces récentes avancées de la connaissance, la position scientifique et philosophique consistant à croire que l’apparition de la vie est un phénomène si improbable et si « miraculeux » qu’il n’a eu probablement lieu que sur notre planète, semble de moins en moins tenable. À partir du moment où il apparaît que la plupart des composants chimiques complexes nécessaires à l’apparition de la vie sont produits en grande quantité, un peu partout dans l’Univers, il devient possible de poser raisonnablement l’hypothèse que la vie a dû presque nécessairement apparaître ailleurs que sur Terre, même si notre niveau technologique actuel ne nous permet pas encore - compte tenu des distances immenses qui nous séparent des autres étoiles - de la détecter avec certitude. On sait à présent qu’il y a dans notre seule galaxie, la Voie Lactée, environ 140 milliards d’étoiles et, entre 240 milliards et 1000 milliards de planètes, selon les estimations. Quant aux galaxies, leur nombre dans l’Univers observable dépasserait les 2000 milliards (un nombre également considérablement réévalué au cours de ces dernières années, grâce aux progrès des techniques d’observation et de calcul). Confrontés à cette nouvelle réalité cosmique vertigineuse et à cette présence foisonnante de molécules prébiotiques dans l’Univers, la question qui se pose n’est plus de savoir si l’on trouvera une vie extraterrestre, mais quand, et bon nombre de scientifiques sont aujourd’hui persuadés que cette découverte, qui serait la plus importante et la plus bouleversante de toute l’histoire de l’Humanité, a de bonnes chances d’avoir lieu avant la fin de ce siècle… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat 
 |  |  |  |  
								| 
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Information et Communication
                                    								|  |  |  
                                    								|  | TIC |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Révolutionner le           métier des assureurs, c’est l’objectif de la start-up           parisienne Zelros, fondée en 2016 par Christophe Bourguignat           (CEO), Fabien Vauchelles (CTO) et Damien Philippon (COO). La           jeune pousse a mis au point un assistant virtuel utilisant des           technologies d’intelligence artificielle afin d’accompagner           les employés des compagnies d’assurance sur deux segments           spécifiques : l’aide à la vente et la gestion des sinistres. Un choix           stratégique : “A terme, l’ensemble des processus de             l’assurance sera amené à être réinventé par l’IA", assure           Christophe Bourguignat. "Si nous avons choisi de nous             concentrer sur l’aide à la vente et la gestion des sinistres             aujourd’hui, c’est parce que le calcul du prix et             l’estimation du risque restent la chasse gardée des             actuaires. Pour la détection des fraudes, d’importants             acteurs occupent déjà le secteur”. L’assistant           virtuel proposé par Zelros prend la forme d’un chatbot qui           s’intègre naturellement dans l’environnement de travail du           collaborateur. Il s’appuie sur deux briques technologiques :           le traitement du langage naturel (NLP) et l’apprentissage           statistique (machine learning). Concrètement, l’employé est           connecté à la solution via son ordinateur, sa tablette ou son           smartphone, et est accompagné tout au long de sa tâche par           l’assistant. Il échange avec           lui grâce aux technologies de NLP qui permettent à la solution           de décrypter et répondre aux questions posées par l’employé.           Les propositions formulées sont calculées grâce à des           algorithmes de machine learning continuellement nourris de           données (scores, prédictions métier…). Elles permettent de           livrer en temps réel au conseiller les options les plus           susceptibles de répondre aux besoins de ses clients. Dans le cas de           l’aide à la vente, le conseiller peut ainsi, en cliquant sur           la fiche du client avec qui il est en rendez-vous, lancer le           processus de scoring qui lui recommandera de proposer à son           client une assurance habitation par exemple. “Une aide             précieuse dans un contexte réglementaire de plus en plus             complexe [loi Hamon, directive sur la distribution             d’assurance…]”, souligne Christophe Bourguignat.           Concernant la gestion de sinistres, “l’assistant doit             faciliter la tâche des employés en diminuant le temps de             traitement des dossiers des assurés”, ajoute le CEO.           Natixis Assurances, qui a mis à disposition de ses           collaborateurs ce chatbot pour les aider dans leurs recherches           documentaires, en janvier 2018, relève ainsi des gains de           temps de 40 % en moyenne sur deux journées d’observation           menées. "Notre             solution est conçue pour augmenter la productivité des             employés. Elle ne vise pas à remplacer ces derniers, mais à             leur libérer davantage de temps à consacrer à la relation             client", insiste Christophe Bourguignat. "L’assistant             reste un outil d’aide à la décision. C’est l’employé qui             valide ou non les propositions formulées”. Afin d’apporter           de la transparence au procédé et d’emporter l’adhésion des           employés amenés à l’utiliser, Zelros a fait en sorte que ces           derniers puissent comprendre les propositions formulées par           l’algorithme. “A tout moment, l’employé peut soulever le             capot et demander au robot de justifier sa décision. En             cliquant sur l’option proposée, il accède ainsi, parmi la             cinquantaine de variables prises en compte, aux cinq plus             pertinentes. Celles qui ont permis d’emporter la décision du             robot”, explique le CEO. Article rédigé par Georges Simmonds pour RT Flash L'Usine Digitale |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Chematica pourrait bouleverser le           développement de médicaments dans les prochaines années. Cette           intelligence artificielle peut trouver de nouvelles manières           de réaliser des médicaments existants qui ne porte pas           atteinte aux brevets déposés par les laboratoires           pharmaceutiques. Pour réussir ces opérations, Chematica           utilise une immense base de données de plus de 70 000 règles           de synthèse chimique, ainsi que des milliers d'autres cas           particuliers de réactions obtenues en associant telle ou telle           molécule. Cette collection représente près de 250 années           d'études pharmaceutiques. Des algorithmes piochent ensuite dans toutes ces informations           pour mettre au point un nouveau processus de création d'un           médicament. Pour évaluer la réussite d'une réaction           moléculaire, le système utilise un système de scoring,           qui évalue à chaque tentative le taux de réussite d'une           combinaison avant de continuer à progresser dans son           raisonnement. « En principe, on peut toujours affirmer             qu'un expert humain explorerait également telle ou telle             voie de recherche », déclare Bartosz Grzybowski           directeur de ce projet de recherche à l'Institut national des           sciences et de la technologie d'Ulsan (UNIST) en Corée du Sud.           « Cela est tout à fait possible, mais Chematica fait le             travail à une échelle de temps de seulement quelques minutes             à une heure. C'est comme essayer de multiplier 468 383,83 x             25 405 avec du papier et un crayon ou d'utiliser une             calculatrice ». Chematica est le fruit d'une vingtaine d'années de travail           pour ses concepteurs. L'outil et sa technologie ont été           achetés en 2017 par le groupe pharmaceutique Merck en 2017,           qui pourra l'utiliser dans ses prochains projets de recherche           afin de gagner du temps et de l'argent dans le développement           d'une nouvelle molécule, tout en respectant la propriété           intellectuelle de ses concurrents. Article rédigé par Georges Simmonds pour RT Flash Clubic |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Nanotechnologies et Robotique
                                    								|  |  |  
                                    								|  | Avenir |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Une entreprise           française, Stanley Robotics, a mis au point des robots appelés           Stan, programmés pour garer les voitures des usagers des           aéroports à leur place. L’idée est de faire gagner du temps           aux voyageurs et d’obtenir un agencement optimal de l’espace           sur les parkings. Le service va prochainement être mis en           place sur l’un des parkings de l’aéroport de Gatwick à           Londres. Ces robots construits par Stanley Robotics,           une entreprise française, sont une petite révolution dans le           monde des aéroports. Les voyageurs n’auront plus qu’à laisser           leur voiture dans un box dédié confirmant leur réservation de           parking via un écran dans la cabine. La réservation de la           place est liée au numéro de vol et par conséquent à la date du           retour du voyageur. Le robot Stan, doté d’une intelligence           artificielle, peut ainsi ramener la voiture dans le box en           temps voulu. Une fois la voiture placée dans la cabine, la           voiture est scannée et le robot calcule dans quel espace il va           pouvoir la ranger. Pas besoin de laisser vos clés, le robot           Stan est capable de soulever la voiture pour aller la garer           dans un espace adapté. Si ce système facilite l’arrivée et le           départ des voyageurs, cela permet surtout d’optimiser l’espace           sur les parkings souvent saturés des grands aéroports. En           effet, ce service permettrait de stocker 50 % de voitures           supplémentaires sur un même parking. La zone B de l’aéroport           de Gatwick peut actuellement accueillir 2 350 voitures quand           elles sont garées par leur propriétaire. L’idée est de supprimer 170 places normales           pendant la période d’essai, ce qui laisserait l’espace pour 270           places automatisées. L’expérience débutera en avril pour           s’achever fin août. Si l’opération est un succès, elle sera           étendue aux parkings C et D de l’aéroport. Notons, cependant,           que l’expérience n’est pas inédite puisqu’elle avait déjà été           testée à l’aéroport de Roissy-Charles de Gaulle à Paris ainsi           que dans celui de Düsseldorf. Article rédigé par Georges Simmonds pour RT Flash JDG |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs           de l’Université du Michigan ont mis au point un nouveau procédé           d’impression 3D par photopolymérisation qui fait           appel en effet non-pas à une seule, mais plutôt à deux sources           lumineuses distinctes. Ce procédé utilise des sources           lumineuses à des longueurs d’onde différentes. La projection           d’un motif par le bas au travers d’une vitre transparente           amorce la polymérisation de la résine, alors que l’éclairage à           une seconde longueur d’onde inhibe la réaction de           polymérisation qui se produit à proximité de la vitre,           éliminant [ainsi] l’adhésion et permettant un fonctionnement           en continu. Résultat, la           méthode permet à la fois de pallier l’un des principaux           inconvénients des techniques pionnières – la lenteur – et           d’obtenir une très grande souplesse d’impression,           contrairement aux autres systèmes modernes de fabrication           additive, qui sont mal adaptés pour produire des objets 3D           aléatoires sans avoir à manœuvrer la plate-forme de           construction. Cent fois plus           rapide, le procédé de fabrication additive permet d’atteindre           une vitesse d’impression de deux mètres à l’heure, avec comme           avantage supplémentaire, celui de fonctionner avec de nombreux           types de résines : acrylates, méthacrylates ou encore éthers           vinyliques. Ultime raffinement : l’intensité lumineuse peut           être ajustée individuellement pour chacun des « pixels » du           motif d’impression. De quoi permettre une structuration en           bas-relief de la résine sans même avoir à déplacer           verticalement le support d’impression. Article rédigé par Georges Simmonds pour RT Flash Science Advances |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Le travail d'adaptation à une prothèse           mécanique est souvent long et fastidieux. Mais cela pourrait           changer, grâce à une intelligence artificielle incorporée en son sein. Des chercheurs des universités de l’Arizona et de           Caroline du Nord ont en effet développé un nouvel outil d'IA           par renforcement. C’est une version automatisée de           l’apprentissage par l’essai et l’erreur qu’exploitent les           algorithmes. Des tests ont été réalisés sur des personnes           amputées au niveau du genou afin que leur prothèse mécanique           s’adapte à leur style de marche. Le résultat est qu’en une           dizaine de minutes à peine, les handicapés pouvaient marcher           doucement. Cependant, comme le précise Helun Huang,           l’une des chercheuses, il y a encore beaucoup d’étapes à           franchir avant que cette IA puisse être utilisée efficacement           à des fins cliniques. Néanmoins, cette découverte ouvre déjà           la voie à des changements majeurs. Car généralement, un grand           nombre de rendez-vous sont nécessaires avant de pouvoir           utiliser une prothèse mécanique. En effet, il convient de la           régler manuellement après diverses analyses pour qu’elle soit           vraiment efficace. Avec l’évolution de cette intelligence           artificielle, les handicapés récupéreront rapidement leur           mobilité. Par ailleurs, on peut imaginer que les prothèses           seront capables de se réajuster automatiquement quand           l’utilisation les aura déréglées. L’entraînement d’un membre           robotique est un processus complexe qui nécessite une           coadaptation du cerveau et du membre artificiel. Pour fonctionner, l’IA prend en compte           simultanément une douzaine de paramètres propres au           déplacement d’un genou robotique. Ce n’est pas suffisant pour           que les handicapés puissent se mouvoir pleinement. Cela permet           juste de marcher calmement. Par ailleurs, l’algorithme doit           s’entraîner pour être efficace. Or, les handicapés munis d’une           prothèse peuvent difficilement marcher plus d’une vingtaine de           minutes sans pause. Malheureusement, c’est la multiplication           des expériences qui permet de rapprocher le fonctionnement           d’une IA de la perfection. L’IA qui avait battu un champion           d’échec avait par exemple dû réaliser des millions de           simulations avant de devenir championne. Dernière limite au développement de           cette IA, la protection contre les chutes. Les chercheurs ont           intégré certaines contraintes à l’algorithme afin qu’il ne           mette pas les prothèses dans une situation où elles pourraient           faire chuter leurs usagers. Tout en intégrant des capacités           anti-chutes, l’algorithme a réussi à développer plusieurs           modèles de marche plus que correcte. La suite du projet va           consister maintenant à lui apprendre à monter et descendre des           marches. Par ailleurs, les chercheurs espèrent le développer           de telle sorte que les patients puissent se servir de la           prothèse en dehors de leur laboratoire. Article rédigé par Georges Simmonds pour RT Flash IEEE |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Matière et Energie
                                    								|  |  |  
                                    								|  | Matière |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  L'électron est une particule élémentaire           qui porte une charge électrique, elle aussi élémentaire et           donc a priori insécable. Pourtant, en 1997, l'équipe de           l'Iramis mettait en évidence pour la première fois l'existence           de charges électriques fractionnaires dans un conducteur           bidimensionnel soumis à un champ magnétique intense. Ce           résultat faisait suite à la découverte fondamentale, en 1980,           de l'effet Hall quantique fractionnaire. Les porteurs de ces           charges fractionnaires ont alors été appelés « anyons » car           ils semblent ne se comporter ni comme des fermions           (électrons), ni comme des bosons (photons) : any-ons ! Comment les chercheurs de l'Iramis ont-ils           procédé ? Ils ont analysé le « bruit » (ou les fluctuations)           d'un très faible courant électrique. En effet, pour un courant           fort, le bruit est proportionnel à l'intensité du courant mais           pour un très faible courant à très basse température, il en va           autrement. Les charges sont transportées individuellement et           le bruit recèle des informations comme la granularité de la           charge. Comme si écouter la pluie nous disait quelque chose           sur la taille des gouttes… Plus concrètement, ils ont étudié les           électrons confinés à l'interface entre deux couches           semi-conductrices (GaAs et AlGaAs), soumis à un champ voisin           de dix teslas et refroidis à 20 millikelvins. Ils ont conçu un           circuit permettant aux charges électriques de s'écouler une           par une et ont enregistré leurs passages au fil du temps. Ils           ont analysé les fluctuations observées et en ont déduit la           valeur des charges transportées : e/3. Aujourd'hui, l'équipe montre qu'il est           possible de manipuler les anyons avec des photons. Pour cela,           elle a réitéré la même expérience, en superposant un champ           micro-ondes à la tension continue appliquée au circuit. Ces photons micro-ondes induisent un bruit           supplémentaire au-delà d'une tension électrique dont la valeur           est reliée très simplement à la charge fractionnaire           transportée. Non seulement cette expérience confirme et           renforce les résultats publiés en 1997 par l'observation de la           fraction e/5 mais elle démontre surtout la capacité des anyons           à absorber ou émettre des photons micro-ondes. La découverte de cette interaction a           plusieurs implications. Il devient possible de produire des           anyons à la demande et de les manipuler, ce qui ouvre la voie           à une exploration tout à fait inédite de leurs propriétés. Ni           fermion, ni boson : à quelle statistique ces particules           obéissent-elles ? Il doit maintenant être possible de répondre           à cette question très fondamentale.  Article rédigé par Georges Simmonds pour RT Flash CEA |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Sciences de la Terre, Environnement et Climat
                                    								|  |  |  
                                    								|  | Terre |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Des           chercheurs américains du Laboratoire national de l’Université           de Pittsburgh et Lawrence Livermore (LLNL) ont mis au point un           nouveau procédé qui utilise une technologie de micro-capsules,           afin de permettre un captage du carbone postcombustion moins           coûteux, plus sûr et plus efficace. "Notre           approche est très différente de la méthode traditionnelle de           captage du dioxyde de carbone dans une centrale électrique",           a déclaré Katherine Hornbostel, professeure adjointe en génie           mécanique à la Swanson School of Engineering de Pitt. "Au           lieu de faire couler un solvant chimique dans une tour (comme           de l’eau dans une chute d’eau), nous mettons le solvant dans           de minuscules microcapsules". "Dans notre           proposition de conception d’un réacteur de capture du carbone,           nous conditionnons un tas de micro-capsules dans un conteneur           et faisons passer les gaz d’échappement de la centrale           électrique à travers ce conteneur", explique M. Hornbostel. "La chaleur requise pour les réacteurs classiques est élevée,           ce qui se traduit par des coûts d’exploitation plus élevés.           Notre structure sera plus petite et nécessitera moins           d’électricité pour fonctionner, ce qui réduira les coûts". Les           conceptions conventionnelles utilisent également un solvant           d’amine agressif qui est coûteux et peut être dangereux pour           l’environnement. La conception de micro-capsule créée par           Hornbostel et ses collaborateurs chez LLNL utilise une           solution qui est faite à partir d’un article ménager courant. "Nous           utilisons du bicarbonate de soude dissous dans l’eau comme           solvant", a déclaré M. Hornbostel. "C’est moins cher,           meilleur pour l’environnement et plus abondant que les           solvants conventionnels. Le coût et l’abondance sont des           facteurs critiques lorsqu’il s’agit d’une vingtaine de           réacteurs d’au moins 20 mètres de large installés dans des           centaines de centrales électriques". Hornbostel           explique que la petite taille de la micro-capsule donne au           solvant une grande surface pour un volume donné. Cette grande           surface spécifique accélère l’absorption du dioxyde de carbone           par le solvant, ce qui permet d’utiliser des solvants à           absorption plus lente. "C’est une bonne nouvelle, dit M.           Hornbostel, parce que cela donne aux solvants moins chers           comme le bicarbonate de soude une chance de concurrencer les           solvants plus chers et corrosifs". "Notre technologie et notre conception           de micro-capsule sont prometteuses pour le captage du carbone           en postcombustion parce qu’elles aident à rendre les solvants           à réaction lente plus efficaces", a déclaré M. Hornbostel. "Nous croyons que la diminution du coût des solvants, combinée           à une structure plus petite et à des coûts d’exploitation           moins élevés, peut aider les centrales au charbon et au gaz           naturel à maintenir leurs profits à long terme sans nuire à           l’environnement". Article rédigé par Georges Simmonds pour RT Flash Science Direct |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Santé, Médecine et Sciences du Vivant
                                    								|  |  |  
                                    								|  | Vivant |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude           réalisée par l'école de médecine de l'Université de           Washington, les personnes qui avaient pour habitude de           consommer de l'alcool et qui ont continué à boire modérément           même après l'annonce de leur maladie, ont survécu plus           longtemps que ceux ayant décidé d'arrêter de consommer de           l'alcool. Pour parvenir à           de telles conclusions, l'équipe de recherche a analysé les           résultats d'une étude menée entre 1989 et 1993 sur un           échantillon de 5.888 personnes. Parmi ces dernières, 393           avaient développé une insuffisance cardiaque. L'équipe de           scientifiques a dispatché les dossiers de ces 393 patients en           quatre catégories : les personnes qui ne buvaient jamais, les           patients qui buvaient dans le passé et avaient arrêté après           l'annonce de la maladie, les personnes qui buvaient au maximum           sept verres par semaine et les personnes qui buvaient plus de           huit verres par semaine. Les chercheurs           ont pris en compte différents facteurs tels que l'âge, le           sexe, la race, le niveau d'éducation, le tabagisme ou la           pression artérielle. Après avoir évalué ces variables, les           chercheurs ont pu établir un lien entre une consommation           modérée d'alcool (c'est-à-dire maximum sept verres par           semaine) et une vie prolongée, pour les personnes qui buvaient           initialement. Les chercheurs           ont estimé cette augmentation de la longévité à 383 jours en           moyenne, variant de 17 à 748 jours. Les résultats établissent           donc que les personnes qui continuent à consommer de l'alcool           modérément ont une espérance de vie significativement plus           élevée que celles qui arrêtent après l'annonce de la maladie.           Prudente, l'étude ne vas pas toutefois jusqu'à recommander aux           non-buveurs de commencer à consommer de l'alcool après un           diagnostic d'insuffisance cardiaque… Article rédigé par Georges Simmonds pour RT Flash Eurekalert |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs           américains du MIT ont montré que les tumeurs pulmonaires sont           capables de perturber le microbiote pulmonaire afin de           créer un contexte immunitaire localement favorable à leur           prolifération. Le cancer du           poumon est étroitement lié avec l'inflammation chronique et           c'est en tentant de comprendre cette relation que les équipes           du Professeur James Fox (département d'ingénierie médicale du MIT) et           Tyler Jacks (Institut médical Howard Hughes du MIT) ont           compris que la présence d'un carcinome ou d'un adénocarcinome           pulmonaire se caractérisait par une dysbiose pulmonaire dont           la conséquence directe est l'induction d'un état           inflammatoire, via l'activation des lymphocytes T gamma           delta (γδ). Au cours de           leurs travaux, les chercheurs ont observé un moindre           développement des adénomes et adénocarcinomes pulmonaires chez           des souris transgéniques traitées par une antibiothérapie           intensive, malgré les mutations des gènes Kras ou la           perte de fonction du gène p53 dont elles étaient           porteuses. À l'âge de 8           semaines, les souris mutées pour Kras et p53 du           groupe contrôle présentaient une moyenne de 40 lésions           cancéreuses pulmonaires contre moins de 20 pour celles           traitées par une combinaison de 4 antibiotiques (ampicilline,           néomycine, métronidazole et vancomycine). À 15 semaines, ces           nombres étaient de 80 et 40, respectivement. Les auteurs           précisent également que les grades histologiques étaient, en           moyenne, moins élevés chez les souris sous antibiothérapie. Les chercheurs           ont également constaté que les antibiotiques n'affectaient pas           la croissance tumorale in vitro, ce qui les a conduit à           éliminer la piste d'un effet cytotoxique direct des           antibiotiques. Le microbiote pulmonaire des souris atteintes           de cancer du poumon présentait un microbiote plus abondant que celui de souris non mutées et non porteuses           de tumeurs. Les chercheurs           ont notamment détecté la présence de staphylocoques (environ           15 % de la masse bactérienne), de streptocoques (15 %), de           lactobacilles (15 %) ainsi que diverses bactéries appartenant           aux familles des Pasteurellaceae, des Herbaspirillum et           des Sphingomonadaceae. Dans le détail,           ces bactéries commensales stimulent la production           d'interleukines IL-1β et d'IL-23 par les cellules de la lignée           myéloïde. Ce cocktail d'interleukines induit la prolifération           de lymphocytes T gamma delta (γδ) qui plonge localement le           poumon dans un état inflammatoire propice à la prolifération           tumorale. Article rédigé par Georges Simmonds pour RT Flash Cell |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Timothy Ray Brown, appelé le         "patient berlinois", et considéré par la communauté scientifique         comme la seule personne au monde guérie du SIDA, a finalement         trouvé de la compagnie. Dix ans après la rémission complète de         Brown, provoquée par une greffe de moelle osseuse, une         transplantation similaire sur un donneur atteint du SIDA a         également entraîné une rémission totale de la maladie chez ce         nouveau malade, baptisé "Le patient londonien". Cette seconde rémission           complète constitue un événement scientifique de premier           ordre ; elle a été révélée par des chercheurs du Collège           Universitaire de Londres, à l’occasion de la conférence           annuelle sur les rétrovirus et les maladies opportunistes qui           vient d’avoir lieu à Seattle aux Etats-Unis. Ces scientifiques ont pu montrer         que c'est la mutation de la molécule CCR5, présente chez         seulement 1 % de la population mondiale, qui a permis aux deux         patients d'interrompre leur traitement et de connaître une         rémission durable du VIH. Selon ces chercheurs, le "patient de         Londres" n'a toujours pas montré le moindre signe de la maladie         depuis près de 19 mois. Le patient de Londres a, comme         celui de Berlin, subi une greffe de moelle osseuse et ces deux         malades ont ainsi reçu des transplantations de cellules souche         de donneurs ayant une mutation génétique qui bloque un         récepteur-clé du VIH, la molécule CCR5. Celle-ci se trouve à la         surface des globules blancs et permet de réguler les réponses         immunitaires de l’hôte contre les pathogènes. Mais elle permet         également au VIH de pénétrer dans les cellules immunitaires pour         les infecter. La molécule CCR5 était déjà         connue comme cible thérapeutique dans la lutte contre le VIH. La         mutation du gène commandant la production de CCR5 transmise aux         deux patients, Londres et Berlin, a empêché le virus de pénétrer         dans les cellules hôtes, ce qui rend les porteurs de cette         mutation résistants au virus du sida. Ces deux patients ont tous         deux contracté le sida, puis un cancer du sang ; ils ont         bénéficié d’un traitement rétroviral classique, puis d’une         transplantation de moelle osseuse pour lutter contre leur         cancer. Le "patient de Londres" a été         diagnostiqué comme atteint du VIH en 2003 et a suivi une         thérapie antirétrovirale depuis 2012. Il a ensuite été atteint         par la maladie de Hodgkin, un cancer du système lymphatique.         Après une transplantation de moelle osseuse, il a suivi une         thérapie antirétrovirale pendant seize mois puis le traitement         a été interrompu. Des examens réguliers ont alors confirmé que         la charge virale du patient était indétectable depuis la fin de         son traitement. Le "patient de Berlin" était,         pour sa part, soigné pour une leucémie ; Il avait subi deux         transplantations, suivie d’une radiothérapie. En revanche, le         "patient de Londres" a reçu une seule transplantation et une         chimiothérapie moins agressive. Rappelons que, selon l’OMS, il y         aurait environ 40 millions de personnes dans le monde infectés         par le virus HIV et plus de         35 millions sont mortes du SIDA depuis 40 ans. Mais, comme le         souligne Ravindra Gupta, chercheur à l’Université de Cambridge «         Bien qu’il ne soit pas           envisageable, en raison des risques encourus, de recourir à           des greffes de moelle osseuse pour traiter des malades du sida,         nous avons enfin la           preuve que le VIH             est curable et peut être entièrement éradiqué, notamment en             recourant à de nouvelles stratégies thérapeutiques, telles             que la thérapie génique ou l’utilisation d'anticorps             ciblés ». Article rédigé par Georges Simmonds pour RT Flash Science Nature |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs           écossais ont réussi à modifier génétiquement des poules dans           le but de leur faire pondre des œufs contenant des médicaments           contre l’arthrite, ou encore contre le cancer. Ces dernières           années, différentes recherches ont démontré que le fait de           modifier génétiquement des animaux permettait de produire des           thérapies protéiques dans leur lait ou leurs œufs. Reprenant           ce principe, la nouvelle approche mise au point par une équipe           de scientifiques de l’Université d’Edimbourg se révèlerait           largement plus efficace que les précédentes tentatives. Comme           l’a expliqué le Docteur Lissa Herron : « Ce procédé devrait             nous permettre d’atteindre un coût de fabrication global 10             fois plus bas que celui d’une production industrielle dans             des salles hautement stériles ». De nombreuses           maladies sont causées par une production insuffisante de           certaines protéines par le corps humain. Produits           synthétiquement, les médicaments contenant ce type de           protéines sont extrêmement coûteux. Partant de ce constat, les           scientifiques écossais ont inséré un gène humain dans la           partie de l’ADN des poules impliquée dans la production du           blanc des œufs, afin de leur faire produire deux protéines           essentielles au système immunitaire : l’interféron alpha-2a,           ayant de puissants effets antiviraux et anticancéreux, et le           macrophage-CSF, qui stimule la réparation des tissus           endommagés. Selon les           chercheurs, trois œufs suffisent pour produire une dose de           médicament, à savoir que les poules peuvent pondre jusqu’à 300           œufs par an. De ce fait, les chercheurs pensent qu’avec un           nombre suffisant de poules, ils pourraient produire, d'ici une           dizaine d'années, des médicaments en quantités suffisantes. Article rédigé par Georges Simmonds pour RT Flash BMC |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude rétrospective américaine, le dépistage par tomosynthèse, un procédé d'imagerie numérique en 3D à haute résolution, permettrait de détecter davantage de cancers du sein que la mammographie classique. La tomosynthèse est une technique de mammographie qui permet d'obtenir une image plus nette du sein que la mammographie classique en 2D. « La tomosynthèse calcule une projection 3D à partir de plusieurs images 2D acquises selon des angles différents. Cette technique est disponible depuis quelques années dans certains centres. Toutefois, elle n'est pas incluse dans le dépistage organisé, elle est donc utilisée en complément de la mammographie 2D. » Au total, 96 269 femmes ont été incluses dans l'étude entre janvier 2011 et septembre 2014. Elles étaient âgées de 40 à 74 ans (en moyenne 55,9 ans) – en France, le dépistage organisé concerne les femmes de 50 à 74 ans. Parmi les 180 340 examens de dépistage réalisés, 71,7 % ont été faits par tomosynthèse et 28,3 % par mammographie classique. Par rapport à la mammographie 2D, la tomosynthèse était associée à une meilleure spécificité, à un taux de détection de cancer plus important (odds ratio de 1,41) et à un taux de rappel moins important (OR 0,64), et ce quels que soient l'âge et la densité mammaire des femmes. De plus, la tomosynthèse a permis de détecter davantage de cancers invasifs de petite taille et sans atteinte ganglionnaire (73,7 versus 65,4 %). L'intérêt de la tomosynthèse était particulièrement marqué chez les femmes de 40 à 49 ans. Les cancers détectés par la tomosynthèse étaient par ailleurs considérés comme étant de meilleur pronostic que ceux détectés par la mammographie classique (OR 2,28). Concernant le risque de surdiagnostic, la Doctoresse El Bejjani estime que « ce risque est largement contrebalancé par la diminution du taux de rappel et du taux de faux négatifs ». Au vu de ces résultats, les auteurs estiment que le dépistage de routine par la tomosynthèse des femmes de 40 à 49 ans est associé à un rapport bénéfice-risque favorable. Cette étude qui confirme, sur un effectif de grande taille, des résultats déjà mis en évidence par des études précédentes et qui fournit ainsi un argument supplémentaire en faveur de la tomosynthèse.  Article rédigé par Georges Simmonds pour RT Flash JAMA |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  L’édition d’ARN           est une forme de modification qui altère des séquences d’acide           ribonucléique (ARN), une molécule biologique, par permutation.           Ce processus est très important dans le développement du           système nerveux, particulièrement, pour la formation des           connexions entre les cellules nerveuses, appelées synapses.           Cependant, le développement synaptique présente des           particularités chez les personnes atteintes de troubles du           spectre autistique (TSA). Des           scientifiques du laboratoire de Xinshu Xiao à l’UCLA ont           examiné l’édition de l’ARN dans des cerveaux d’autistes. Ils           ont découvert qu’elle était réduite dans plusieurs zones du           cerveau et que plusieurs gènes en étaient aussi affectés. Pour           effectuer leur étude, les chercheurs ont examiné le cerveau de           50 personnes atteintes d’autisme qui ont fait don de leur           cerveau à la science après leur mort. Les scientifiques ont           particulièrement analysé les régions pouvant être affectées           par les TDA, à savoir, le cervelet, le cortex préfrontal et le           cortex temporal. Cette étude a           révélé que les cerveaux autistes présentaient de faibles           niveaux d’édition d’ARN. Selon les chercheurs, cette réduction           d’édition d’ARN provoque le développement anormal des           synapses. Pour comprendre la raison de cette diminution de           l’édition d’ARN, les chercheurs ont recherché les causes dans           les gènes régulateurs et les changements d’activité qui ont pu           affecter l’édition d’ARN. Les chercheurs           ont découvert deux protéines. La première est FMRP1, une           protéine fragile de retard mental X et la seconde, FXR1P, est           une protéine liée au syndrome de retard mental liée à l’X           fragile. L’étude a révélé que les niveaux de FMRP1 sont           réduits chez les personnes souffrantes de TSA. Le syndrome de           l’X fragile se caractérise par des troubles d’apprentissage et           des déficiences cognitives. C’est une maladie héréditaire           causée par les mutations du gène de FMRP1. Or, la protéine           FMRP1 est importante pour maintenir les niveaux de synapses           et réduire les risques de TSA. Même si la           combinaison des gènes et d’autres facteurs peuvent entraîner           des TSA, ces derniers peuvent aussi être causés par la           duplication d’une partie du chromosome 15. D’ailleurs, cette           duplication représente jusqu’à 3 % des diagnostics de TSA et           peut même entraîner d’autres maladies plus graves comme plus           de déficiences intellectuelles et plus de déficiences           motrices. Article rédigé par Georges  Simmonds pour RT Flash Nature |  |  |  |  |  |  |  
	
		|  |  
		| Des chercheurs de l’Université de San           Diego (Californie, États-Unis) sont parvenus à réaliser un           implant en hydrogel permettant de soigner les lésions de la           moelle épinière chez le rat. Celui-ci, décrit dans la revue «           Nature Medicine », mesure deux millimètres. Grâce à un système           d’impression 3D mis au point par les chercheurs, le dispositif           a été fabriqué en un temps record de 1,6 seconde. Sa structure est constituée de trous de           200 micromètres, deux fois le diamètre d’un cheveu humain. Ces           orifices guident la croissance des cellules-souches placées           sur la structure afin de reconstituer les nerfs abîmés. Sans           cette structure, les nerfs grandiraient de manière anarchique. En quelques mois, certaines connexions           se sont rétablies et le rongeur a retrouvé une partie de ses           fonctions motrices. Les chercheurs travaillent à l’élaboration           d’implants pour de plus grands animaux en vue d’éventuels           tests cliniques chez l’homme. Article rédigé par Georges Simmonds pour RT Flash L'Usine Nouvelle |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Anthropologie et Sciences de l'Homme
                                    								|  |  |  
                                    								|  | Homme |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Il y a environ deux millions d’années en           Afrique, les forêts denses ont laissé place aux grandes           plaines puis à la savane. Impossible dès lors de sauter           d’arbre en arbre. Pour chasser, il a donc fallu s’aventurer           au sol. Peu à peu, certains primates ont commencé à se           relever, pour voir au-dessus des herbes et repérer leurs           proies et l'arrivée d'éventuels prédateurs. Nos ancêtres développèrent alors de           longues jambes élancées, de grands pieds, de puissants muscles           fessiers et un système expansif de glandes sudoripares           permettant de dissiper la chaleur africaine beaucoup plus           efficacement que les autres mammifères. Mais sur ce terrain           découvert, l'homme a dû apprendre à courir longtemps après ses           proies, pour les fatiguer. Selon une récente étude, c’est justement           à cette époque qu’une mutation dans un seul gène – appelé CMAH           – s’est répandue. Le biologiste Ajit Varki, de l’Université de           Californie à San Diego, a passé plusieurs années à étudier des           souris génétiquement modifiées pour les amener à présenter la           même inactivation du gène CMAH que les humains. À la base, ses travaux portaient sur           l’effet de cette inactivation sur le diabète, le cancer et la           dystrophie musculaire. Mais ce chercheur a également pu           montrer chez la souris que le fait d'inactiver le gène CMAH           permettait d'augmenter de manière significative l'endurance de           ces animaux. Les muscles des souris qui présentaient           l’inactivation du gène – en particulier ceux des membres           postérieurs – utilisaient en effet l’oxygène plus           efficacement. Ils étaient ainsi plus résistants à la fatigue.           Plus précisément, les souris porteuses de la mutation           couraient 12 % plus vite, et sur une distance 20 % supérieure           par rapport à leurs congénères. Ainsi, de tels changements ont contribué           à l’émergence de la capacité humaine à parcourir de longues           distances. Nos ancêtres pouvaient également chasser sous la           chaleur du jour, tandis que les proies et d’autres carnivores           devaient se reposer à l’ombre : un avantage compétitif décisif           qui a été sélectionné par la Nature et a permis à l'homme           d'imposer sa domination aux autres espèces. Article rédigé par Georges Simmonds pour RT Flash The Royal Society |  |  |  
			| ^ Haut |  |  |  |  |  |  
							
								|  | 
										
											| VOTRE INSCRIPTION |  |  |  
											| Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire.
 Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
 
 |  |  |  |  |  |