| 
				|  |  
					| 
							|  |  
								| 
      										
      											| Edito LE VIEILLISSEMENT : le nouveau défi mondial !
 
 
  
 
 Si l’on considère l’évolution de la population mondiale depuis l’apparition de notre espèce, on observe cinq grands «moments» démographiques. Le premier est de loin le plus long et dure plus de 40 000 ans. Au cours de cette période qui va des premiers Homo sapiens à l’Antiquité, le nombre d’êtres humains sur Terre évolue extrêmement lentement. Il passe de quelques milliers d’individus à probablement moins de 100 millions au début de l’ère chrétienne. Il faudra ensuite encore 18 siècles pour que la population mondiale atteigne le milliard d’habitants vers 1800. Au cours du XIXe siècle, la démographie mondiale commence à s’accélérer mais en 1900, il n’y a encore qu’1,7 milliard d’habitants sur terre. Entre 1900 et 1960, la population mondiale va pratiquement doubler pour atteindre les 3 milliards d’habitants. Mais c’est surtout au cours du cinquième « temps » démographique qu’on assiste à une augmentation sans précédent du nombre d’humains sur Terre qui va progresser de 4 milliards d’habitants en à peine un demi-siècle pour atteindre les 7 milliards en 2011. Face à cette évolution assez vertigineuse, un nouveau concept commence à se répandre et à s’imposer dans les esprits à partir des années 1960, celui de « surpopulation ». En 1968, le livre de Paul R. Ehrlich, « la bombe P », fait sensation et il est de bon ton, dans les cercles intellectuels, d’évoquer la menace liée à « l’explosion démographique » qui menacerait à court terme notre planète, incapable de nourrir sa population grandissante et de lui fournir les services essentiels, santé, éducation et travail… Ces prévisions catastrophistes franchirent un nouveau cap en 1970 avec le fameux rapport du Club de Rome qui évoquait le spectre d’un futur apocalyptique marqué par un épuisement des ressources alimentaires et énergétiques à l’échelle mondiale. Parallèlement à cette envolée démographique mondiale, deux autres phénomènes eurent lieu. Le premier fut une accélération sans précédent de l’urbanisation : un terrien sur 10 vivait dans les villes en 1900 et en 2007 la moitié de la population mondiale habitait en zone urbaine. L’autre phénomène, que nous avons déjà évoqué à plusieurs reprises dans nos éditoriaux, concerne l’augmentation sans précédent de l’espérance de vie moyenne à la naissance au niveau mondial. Au cours du seul dernier demi-siècle, comme le montrent toutes les études démographiques, et notamment celles de l’ONU et de l’OMS, l’espérance de vie à la naissance au niveau mondial a connu un bond spectaculaire, passant de 46 ans à 68 ans aujourd’hui (soit + 22 ans d’espérance de vie en 50 ans !) Contrairement à de nombreuses idées reçues, l’espérance de vie a progressé dans toutes les régions du monde (à l’exception des zones de guerre), y compris dans les pays en voie de développement où elle a également augmenté d’une vingtaine d’années, passant de 36 à 56 ans. Quant aux famines mondiales catastrophiques qui devaient décimer l’espèce humaine et à l’effondrement économique planétaire qui devait être la conséquence de cette évolution démographique, elles n’ont heureusement pas eu lieu, démentant une fois de plus les prévisions alarmistes et confirmant que la prospective est un art bien difficile ! Au contraire, grâce aux progrès techniques dans tous les domaines et notamment en agriculture et en agronomie, la ration alimentaire moyenne dans le monde a augmenté de plus de 30 % depuis 50 ans pour atteindre les 2 500 calories au début du 21e siècle. Un seul exemple mais de taille illustre ces progrès incontestables, bien que souvent décriés, dus à la révolution verte. En 50 ans, l’Inde a multiplié sa productivité agricole par 3,5 et sa production de blé par 3 et cet immense pays, qui ne parvenait pas à être autosuffisant en céréales dans les années 60, est devenu exportateur de blé aujourd’hui, alors qu’au cours de cette période, sa population a triplé ! S’agissant de la malnutrition au niveau mondial, il faut également battre en brèche certaines idées reçues et rappeler, comme l’a fait la FAO en octobre 2012, que le nombre total de personnes sous-alimentées dans le monde a diminué de 132 millions entre 1990 et 2010, passant en pourcentage de 18,5 à 12,5 % au cours de cette période. On voit donc que, non seulement les prévisions catastrophistes des années 60 et 70 ne se sont pas vérifiées, mais que le prétendu lien entre « surpopulation » et malnutrition n’existe pas, puisque le pourcentage de la population mondiale souffrant de malnutrition a été divisé par trois en 50 ans alors que dans le même temps la population mondiale a doublé ! Il reste que la question de l’évolution démographique mondiale est évidemment capitale, compte tenu de l’impact de cette évolution sur le plan économique, social et politique. Dans sa dernière hypothèse « médiane », l’ONU table à présent sur une population mondiale de 9,3 milliards de personnes en 2050 et 10,1 milliards en 2100. Selon ces dernières prévisions de l’ONU, la croissance démographique mondiale va non seulement poursuivre sa décélération mais atteindre son maximum dans la fin de ce siècle, après quoi la population mondiale commencera lentement à décliner. Il est vrai que depuis 40 ans, le taux de fécondité mondial a été divisé par deux, passant de 5 à 2,5 enfants par femme. On estime qu’à présent plus de la moitié des pays du monde ont un taux de fécondité inférieur ou égal au seuil de remplacement des générations (environ 2,1 enfants par femme). C’est le cas en Europe mais également, de manière plus surprenante, au Brésil, en Chine, au Bangladesh et dans la plupart des pays d’Afrique du Nord. Les travaux de l’ONU montrent bien que le rythme d’augmentation de la population mondiale ne cesse de diminuer depuis un demi-siècle : il est passé de 2 % par an dans les années 60 à un peu plus de 1 % aujourd’hui et devrait continuer à baisser au cours de ce siècle. On le voit, nous sommes très loin des sombres prévisions que faisaient certains démographes ou économistes il y a encore quelques années. Le vrai défi n’est donc plus de faire face à une prétendue « explosion démographique » mais d’affronter un problème autrement plus redoutable et réel, le vieillissement inéluctable et accéléré de la population mondiale. En effet, selon les dernières prévisions de l’ONU, l’espérance de vie devrait continuer à augmenter au niveau mondial et passer de 68 ans en 2010 à 81 ans à la fin de ce siècle (sans doute près de 90 ans dans les pays développés, compte tenu des progrès médicaux prévisibles), ce qui se traduira par un vieillissement considérable de la population mondiale, tant en valeur relative qu'en valeur absolue. Les personnes de plus de 60 ans qui ne représentaient que 8 % de la population mondiale en 1955 en représentent 12 % aujourd’hui et en représenteront 20 % en 2050, soit près de 2 milliards de personnes ! Quant aux personnes de plus de 80 ans, elles seront au moins 400 millions en 2050, c’est-à-dire presque quatre fois plus qu’aujourd’hui et 25 fois plus qu’en 1950. L’âge médian de la population mondiale devrait, pour sa part, gagner 10 ans d’ici le milieu de ce siècle pour arriver à 36 ans. Les conséquences de ce vieillissement démographique mondial vont être incalculables. En premier lieu, comme l’ont calculé certains économistes, l’expérience humaine accumulée (qui prend en compte le nombre d’habitants de la planète ayant plus de 40 ans d’expérience professionnelle) va doubler au cours de ce siècle, passant de 200 à 420 milliards d’années. Pour la première fois dans l’histoire de l’Humanité, quatre générations vont coexister durablement, dont trois dans la sphère économique et professionnelle. L’espèce humaine va donc disposer d’un capital vivant de savoir et d’expérience d’une richesse extraordinaire. Mais cela suffira-t-il à compenser l’impact du vieillissement mondial sur les économies et les sociétés ? Personne ne peut le dire aujourd’hui. Les fameux BRICS (Brésil, Russie, Inde, Chine et Afrique du Sud) qui représentent déjà un quart de l’économie mondiale et en représenteront la moitié à l’horizon 2050, risquent en effet d’être confrontés à des problèmes gigantesques pour « absorber » ce choc démographique sans précédent et, comme le soulignent, non sans cynisme, certains économistes, ils risquent, d’ici deux générations, de « devenir vieux avant d’être riches ». Dans ces régions du monde en plein développement économique, la priorité est en effet à la croissance et il n’existe pour l’instant aucun système global de protection sociale et de retraite qui puisse assurer une vie décente aux personnes âgées dont le nombre va pourtant exploser au cours des 50 prochaines années. Mais d’une manière plus générale encore, personne ne sait aujourd’hui comment le monde, y compris les pays les plus développés comme le nôtre, va prendre en charge sur le plan économique, social et médical les 400 ou 500 millions de personnes de plus de 80 ans qui vivront sur Terre au cours de la deuxième moitié de ce siècle. Cette question constitue sans doute, avec la lutte contre le réchauffement climatique et la transition énergétique, le plus grand défi de civilisation que nous allons devoir relever. Il s’agit d’un problème d’autant plus redoutable que, si le rythme de progression de l’espérance de vie se maintient depuis des décennies et devait, selon toute probabilité, se poursuivre dans les années à venir, il ne semble pas en aller de même en ce qui concerne la progression de l’espérance de vie sans incapacité, indicateur qui mesure combien d’années de vie autonome en moyenne peut espérer disposer une personne de plus de 60 ans. Selon de récentes études, cette espérance de vie sans incapacité, après avoir constamment augmenté depuis des décennies, connaîtrait une légère diminution dans certains pays, dont la  France, sans que l'on puisse savoir si cette diminution est « accidentelle » ou exprime une tendance plus fondamentale. Face à cette situation pour le moins préoccupante, nous devons d’abord accentuer notre effort de recherche au niveau national et européen, afin de trouver de nouvelles solutions thérapeutiques aux grandes pathologies liées à l’âge (en particulier, le cancer, les démences liées aux maladies neurodégénératives et les maladies cardio-vasculaires), grâce aux thérapies cellulaires et géniques. Mais cela ne suffira pas et nous devons également généraliser le plus rapidement possible toute une panoplie de « Gérontechnologies » sans lesquelles il ne sera pas possible pour nos sociétés de prendre en charge à un coût supportable l’indispensable accompagnement médico-social de nos aînés. Deux axes technologiques vont devoir être développés avec force pour permettre aux personnes très âgées de conserver leur autonomie et une bonne qualité de vie jusqu’au terme de leur vie. En premier lieu, il va falloir utiliser toutes les ressources de la télémédecine, bio-implants, télésurveillance médicale, systèmes domotiques spécialement conçus pour aider les seniors. Mais il faudra également, de manière complémentaire, généraliser la robotique d’assistance personnelle qui deviendra un outil irremplaçable d’accompagnement et d’assistance pour les personnes très âgées. A cet égard, le Japon, très en avance sur le reste du monde, constitue un exemple dont nous ferions bien de nous inspirer davantage. Malheureusement, nous n’avons pas encore pris toute la mesure de ce défi du vieillissement mondial. Nous devons comprendre que nous ne pourrons pas le surmonter en y appliquant les solutions d’aujourd’hui mais qu’il nous faudra innover radicalement dans tous les domaines, pour que la vieillesse ne soit plus seulement synonyme de déclin et de charges supplémentaires pour la collectivité mais devienne pour tous une période de plénitude existentielle, d’épanouissement et de créativité. René TRÉGOUËT Sénateur Honoraire Fondateur du Groupe de Prospective du Sénat 
 |  |  |  |  
								| 
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Information et Communication
                                    								|  |  |  
                                    								|  | TIC |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Les innombrables mots de passe informatiques avec lesquels  nous devons jongler à longueur de journée seront-ils bientôt relégués aux  oubliettes ? Peut-être, si l'on en croit une étude américaine. Des chercheurs de l'Université de Californie, à Berkeley,  affirment en effet qu'il est possible de remplacer le traditionnel mot de passe  par une identification à l'aide de "l'empreinte cérébrale". Selon ces chercheurs, un casque utilisant un seul capteur  pouvant recueillir un signal électroencéphalographique provenant de l'hémisphère  gauche de notre cerveau pourrait, dans un proche avenir, permette de  s'identifier pour accéder à ses données informatiques. Les chercheurs précisent  qu'un tel casque serait en apparence absolument identique à ceux utilisés pour  écouter de la musique ou aux oreillettes Bluetooth qui servent à  téléphoner. Ces recherches ont montré que les capteurs actuels sont déjà  capables de recueillir un signal cérébral exploitable et permettant un bon  niveau d'identification des utilisateurs. "L'utilisation de signaux provenant des ondes cérébrales est  envisageable dans le cadre d'une d'identification informatique à haut niveau  de sûreté" soulignent ces chercheurs, qui ont présenté leurs travaux à l'occasion  de la Conférence internationale sur la cryptographie et la sécurité des données  financières à Okinawa, au Japon. Article rédigé par Georges Simmonds pour RT Flash UPI |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une équipe de recherche regroupant des scientifiques de  l'université catholique de Louvain et du MIT vient de montrer qu'il était facile  d'identifier l'utilisateur d'un téléphone mobile à partir de quelques données  simples liées à ses déplacements. Quand nous utilisons notre mobile, nous savons qu'il est  possible de localiser sa position et ses déplacements mais nous considérons qu'a  priori, ces informations sont anonymes. Mais une étude réalisée par les chercheurs de l'UCL, sous la  direction d'Yves-Alexandre de Montjoye, a montré, à partir de l'analyse de 15  mois de données concernant 1,5 million d'utilisateurs, qu'il était bien plus  facile qu'on pouvait l'imaginer d'identifier un possesseur de téléphone mobile  uniquement sur la base de ses déplacements spécifiques. Selon ces travaux, avec seulement quatre points de données, il  est possible d'identifier dans une base de données un utilisateur de téléphone  mobile, même si cette base ne contient ni noms, ni numéros de téléphone ! Comme le souligne, non sans malice cette étude : "En 1930,  le savant français Edmond Locard avait montré que 12 points étaient nécessaires  pour identifier une empreinte digitale. Nous montrons dans nos travaux que, dans  la majorité des cas, quatre points seulement suffisent dans une vaste population  pour identifier le propriétaire d'un téléphone portable". Cette étude, qui a eu un certain retentissement dans la  communauté scientifique, ne va pas manquer d'alimenter le débat sur la  protection de la vie privée et de l'anonymat dans le cadre de l'utilisation des  technologies numériques. Article rédigé par Georges Simmonds pour RT Flash Nature UCL |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Un chercheur japonais travaillant à l'université Paul  Sabatier (Toulouse) a mis au point un système informatique qui permet non  seulement de reconnaître avec une précision sans précédent un visage humain mais  est également capable d'évaluer l'âge de la personne filmée. Pour atteindre une telle précision, ce chercheur a développé  de nouveaux types d'algorithmes et de nouveaux outils mathématiques. Ce système  utilise notamment la technique de l’analyse en composantes principales qui  divise l'image autour de deux axes et mesure ensuite la distance qui sépare les  différents pixels situés part et d'autre de ces axes. Cet outil permet  d'atteindre un taux de reconnaissance de 95 %. Mais ce chercheur est allé plus loin et a imaginé un autre  algorithme s'appuyant sur la distance entre les pixels formant une image, ainsi  que l'intensité lumineuse émanant de ceux-ci. Avec cet outil, il est possible d'atteindre un taux de  reconnaissance faciale de 99 % car le système parvient à recomposer un nuage de  points à partir de la totalité des images et à calculer l'écart entre le visage  « moyen » obtenu par cette technique et les visages réels contenus dans la base  de données. Autre avantage décisif, ce nouveau système permet d'évaluer  en temps réel l'âge de la personne avec une précision de 68 %. Un outil d'une telle puissance et d'une telle précision  devrait trouver de nombreuses applications dans de multiples secteurs : la  surveillance et la sécurité, l'identification biométrique, les interfaces  homme-machine ou encore le commerce virtuel. Article rédigé par Georges Simmonds pour RT Flash "La reconnaissance de visage humain par âge et genre" |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  On sait depuis longtemps que les fourmis savent choisir le  chemin le plus court pour accéder à une source de nourriture. Comment se comportent-elles quand le chemin le plus court  n'est pas le plus rapide ? Cette situation se produit par exemple lorsque les  fourmis sont obligées de se déplacer sur deux surfaces différentes, où leurs  vitesses de déplacement ne sont pas les mêmes. Une récente étude américaine montre que, dans ce cas de  figure, les fourmis se comportent de la même manière que la lumière quand elle  se propage à travers différents supports : dans les deux cas, l'itinéraire choisi  obéit au principe de Fermat et privilégie la rapidité. Les chercheurs ont travaillé sur trois colonies de fourmis,  comportant chacune plusieurs milliers d'individus. Ils ont ensuite placé les fourmis dans des boîtes en plastique étanches  puis ont relié chaque boîte à des réservoirs de nourriture à l'aide de  passerelles ayant des vitesses de déplacement différentes liées aux types de  surfaces utilisées. En intégrant plusieurs facteurs, comme la vitesse moyenne de  déplacement sur les différents matériaux, la distance totale à parcourir et les  trajets intermédiaires, les chercheurs ont prédit l'angle sous lequel les  fourmis devaient passer d'une surface à l'autre pour emprunter l'itinéraire le  plus rapide. Conformément au principe de Fermat, cet angle est lié à  l'indice de réfraction, qui gouverne la propagation de la lumière lorsqu’elle se déplace dans les milieux  différents. L'expérience a montré que les fourmis finissaient toujours  par se comporter dans leurs déplacements selon le principe de Fermat,  c'est-à-dire en empruntant non pas le chemin le plus court mais le plus  rapide. Pour parvenir à observer ce principe, les fourmis combinent  deux moyens parfaitement efficaces : un système dynamique qui se fonde sur  la communication par les phéromones et un  mode de coopération sociale. Ainsi, les fourmis peuvent faire preuve d'une grande  flexibilité dans leur comportement et choisir en permanence le trajet le plus  rapide pour accéder à la nourriture, quelles que soient les modifications de  leur environnement. Ces travaux montrent que les fourmis sont capables d’exploiter collectivement de manière tout à fait  remarquable les informations dont elle disposent en établissant des réseaux de  communication souples et dynamiques. Ces résultats pourraient permettre des avancées dans la  résolution de problèmes complexes en matière de robotique, de flux logistiques  et de gestion de réseaux d'information. Article rédigé par Georges Simmonds pour RT Flash Phys.org |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Nanotechnologies et Robotique
                                    								|  |  |  
                                    								|  | Avenir |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs de l'université du Minnesota dirigés par le  professeur He Bin, ont mis au point un dispositif qui permet de télécommander  par la pensée de petits hélicoptères virtuels. Les chercheurs pensent que cette interface homme-machine  pourrait contribuer à restaurer la mobilité et l'autonomie des personnes  paralysées et handicapées et pourrait également permettre d'améliorer les  capacités motrices dans certaines professions, comme les pilotes d'avion ou les  chirurgiens. Des progrès récents ont permis aux patients tétraplégiques de  contrôler par la pensée leur fauteuil roulant mais, jusqu'à présent, la  quasi-totalité de ces interfaces reposait sur l'implantation chirurgicale de  microélectrodes dans le cerveau. La raison en est simple : l'activité électrique  spécifique générée par une pensée précise est extrêmement faible et noyée dans  un « bruit de fond » qui la rend difficilement exploitable. Il est donc  nécessaire de recourir à ces électrodes implantées pour parvenir à récupérer les  signaux cérébraux utiles. Le problème est que les risques médicaux associés à cette  implantation intracérébrale ne sont pas négligeables, d'où l'intérêt de  développer des interfaces non-invasives. En combinant les informations fournies par différentes  technologies, les chercheurs sont parvenus, à l'aide de capteurs très sensibles,  à extraire les signaux cérébraux pertinents qui correspondent à des commandes et  des actions. L'interface ainsi mise au point a permis aux participants à cette  expérience de diriger par la pensée des hélicoptères virtuels évoluant sur un  écran informatique. Le système s'est avéré assez précis et fiable pour atteindre  un taux de réussite de 85 % dans l'épreuve qui consiste à faire évoluer  l'hélicoptère virtuel à travers une succession d'anneaux. "Ces résultats sont très encourageants. C'est en effet la  première fois qu'une interface non-invasive de ce type permet la commande et la  simulation d'un mouvement complexe dans un espace à trois dimensions", explique  He Bin. Cette expérimentation apporte la preuve du concept dans  l'utilisation d'interfaces non-invasives destinées à la commande cérébrale d'un  enchaînement d'actions et de mouvements complexes. "Le champ d'application de ce type d'interface est considérable et je suis persuadé que dans  quelques années ces systèmes de commande mentale changeront la vie de nombreuses  personnes souffrant de différents types de handicap", ajoute le professeur He  Bin. Article rédigé par Georges Simmonds pour RT Flash Phys |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  La société britannique Vivid digital Retail, spécialisée dans  les solutions numériques innovantes à finalité commerciale, vient de présenter  un système baptisé Wi/Sh qui transforme les vitrines des magasins traditionnels  en véritable portail interactif d'accès à un  magasin virtuel. Cette technologie très innovante a pour ambition d'associer  l'attractivité des magasins physiques et le potentiel d'exploration commerciale  de l'Internet et des technologies numériques. Concrètement, tout est transparent pour l'utilisateur :  celui-ci n'a qu'à appuyer sa main sur une zone active de cette vitrine  interactive, correspondant au produit ou au  service qui l'intéresse. Mais la grande nouveauté, c'est que le client peut se rendre  compte en temps réel de l'effet du produit demandé en le voyant sur un mannequin  virtuel qui apparaît dans la vitrine. Il a ensuite la possibilité de le faire  porter par un mannequin virtuel présent sur la vitrine. Ce système va encore plus  loin et permet également aux clients de modifier ou d'affiner la présentation du  produit par un avatar. Bien entendu, si le  client désire acheter ainsi "essayé", il peut le faire directement à partir de  cette vitrine en plaçant ce produit dans un panier virtuel. Les clients ont également la possibilité de visualiser et de modifier leurs achats virtuels en utilisant  leur mobile qui, par l'intermédiaire d'un tag radio d'un code QR, les renvoie  automatiquement sur leur panier où ils peuvent consulter les produits  choisis. Ce système permet non seulement à un magasin physique d'être  "ouvert " et virtuellement accessible en permanence mais il crée, par le simple  fait de son fonctionnement dans des rues très animées, son propre spectacle, ce  qui attire de nouveaux clients. Article rédigé par Georges Simmonds pour RT Flash M2mnow Vivid Youtube |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Sigmund Freud en aurait sans doute rêvé ! Des chercheurs  japonais ont réussi, en utilisant l'IRM, couplée à un système d'analyse des  ondes cérébrales, à prédire le type d'image qui se formait dans le cerveau  au moment où nous nous mettons à rêver. Selon cette étude, le taux de prédiction de ses images  atteindrait 60 %… L'équipe du Professeur Yukiyasu Kamitani, du laboratoire de  recherche en neurosciences de Kyoto, veut à présent essayer de voir s'il est  possible, en analysant de manière sophistiquée l'activité du cerveau,  d'identifier et de prévoir non seulement les images mais également les émotions ressenties au cours  des rêves. Les chercheurs, dans leurs expériences, ont utilisé l'IRM  pour étudier trois personnes dans leur sommeil. À chaque fois que les patients  s'endormaient, ils étaient réveillés et racontaient en détail ce qu'ils avaient  vu au cours de leurs rêves. Chaque image a été soigneusement décrite et répertoriée. Les  chercheurs ont ainsi pu constituer une vaste base de données contenant 600  images. Celles-ci ont ensuite été classées par catégories  visuelles. En comparant l'activité spécifique du cerveau enregistrée par  l'IRM quand une personne voyait dans son rêve telle ou telle image et les  images enregistrées dans la base de données, les scientifiques ont pu établir  des corrélations entre certaines modulations de l'activité cérébrale et certains  types d'images. C'est ainsi que les chercheurs ont pu « deviner » avec un  taux de réussite de 60 %, ce qui est assez remarquable, quel type d'image, en particulier, avait vu une personne au cours de son rêve. Les chercheurs vont à présent aller plus loin et essayer  d'analyser les rêves qui ont lieu pendant le sommeil profond pour tenter  d'identifier et de prédire les émotions, les odeurs, les couleurs et les actions  qui constituent nos rêves. Mais qu'on se rassure, comme le souligne Mark Stokes,  chercheur en neurosciences cognitives à l'Université d'Oxford, "Ce travail est  très intéressant mais les rêves sont intimement liés à la personnalité et à la  vie du rêveur. Il ne sera donc sans doute jamais possible, avec un système  d'analyse univoque, de prédire le contenu exact des rêves d'une personne. Tout au  plus pourrons-nous identifier quelques types  d'images ou d'émotions ressenties par le rêveur". Article rédigé par Georges Simmonds pour RT Flash BBC |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Matière et Energie
                                    								|  |  |  
                                    								|  | Matière |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  À Igiugig, un village reculé de l'Alaska, des chercheurs du  Caltech dirigés par John Dabiri, testent actuellement un nouveau type d'éolienne  à axe vertical. Jusqu'à présent, le modèle de développement de l'éolien a  reposé sur la taille croissante des machines et de leurs pales, afin de réduire  le coût de production de l'électricité tout en augmentant la quantité globale  d'énergie fournie. La nouvelle génération d'éoliennes qui s'annonce table ainsi  sur des machines gigantesques de plus de 200 m de haut, équipées de pales  pouvant atteindre 80 m de long ! L'équipe du Caltech fait pour sa part le pari que d'autres  voies technologiques sont possibles pour réduire le coût de l'énergie éolienne.  C'est dans ce but que ces chercheurs ont conçu une petite éolienne à axe  vertical très efficace qui présente en outre la particularité de pouvoir  fonctionner en synergie avec ses voisines, ce qui augmente la puissance des  parcs éoliens composés de ce type de machine. Ces chercheurs ont déjà démontré la faisabilité de ce type  d'éolienne en testant 24 turbines de ce genre en Californie. Dans ce nouveau  test, ils veulent installer une soixantaine d'éoliennes à axe vertical et  produire une quantité d'électricité équivalente à celle obtenue à partir des  générateurs diesel utilisés dans ce village. Avec les éoliennes classiques, le vent produit des  turbulences de part et d'autre des machines, ce qui oblige à les espacer en  prévoyant une distance d'autant plus grande que la taille de ces machines est  importante. Mais dans le cas des éoliennes à axe vertical, des  turbulences produites par le vent peuvent au contraire être utilisées et  amplifiées pour accroître la puissance des autres machines, à condition que ces  éoliennes soient très précisément positionnées en fonction d'un modèle de  simulation informatique. Ces éoliennes "Dabiri" ne font que 10 m de haut et génèrent  une puissance moyenne de 4 kWh. Par rapport à leurs cousines gigantesques, elles  sont peu coûteuses à fabriquer et à entretenir, ne font pratiquement pas de  bruit et ont un impact visuel réduit. Ce type d'éolienne pourrait donc constituer une solution  alternative intéressante en termes de production d'énergie autonome dans les  endroits isolés.  Article rédigé par Georges Simmonds pour RT Flash MIT |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  L'un des principaux reproches adressés au solaire  photovoltaïque est qu'il est gros consommateur d'énergie et gros émetteur de CO2 pendant la phase de  fabrication des panneaux solaires, ce qui annulerait les bénéfices écologiques  liés à la production d'électricité sans émissions de gaz à effet de serre. Mais selon une étude de l'université de Stanford,  l'électricité produite par l'ensemble des installations solaires photovoltaïques  du monde aurait dépassé en 2012 la quantité totale d'énergie dépensée pour  fabriquer ces panneaux solaires. Cette étude précise que « Malgré un très fort taux de  croissance, le solaire photovoltaïque permet à présent, même en intégrant tout  son processus de fabrication et d'installation, une réduction nette des  émissions de gaz à effet de serre au niveau mondial ». Si ce résultat a pu être atteint, c'est parce que des progrès  considérables ont été accomplis dans la conception et la fabrication des  cellules solaires photovoltaïques. Ces avancées ont permis de diminuer  sensiblement la consommation d'énergie nécessaire à cette filière énergétique.  En outre, ajoute l'étude, l'efficacité des cellules solaires à couches minces  utilisant des matériaux abondants, tels que le cuivre, le zinc, l'étain et le  carbone, permettent d'espérer d'importants gains énergétiques dans les années à  venir. Au rythme de croissance actuelle, plus de 10 % de la  production mondiale d'électricité pourraient être assurés par le solaire  photovoltaïque à l'horizon 2020. Avec le bilan énergétique global actuel, la  filière photovoltaïque consommerait à cette échéance environ 9 % d'électricité  mondiale. Mais si l'intensité énergétique des installations photovoltaïques  continue à diminuer au rythme actuel, il  faudra à peine 2 % de la production  électrique mondiale pour alimenter cette filière industrielle. Selon cette étude, l'avenir appartient aux technologies  photovoltaïques à basse intensité énergétique n'utilisant pas de silicium. Il  s'agit notamment des cellules à base de tellurure de cadmium, de cuivre et  d'indium. Enfin, cette analyse montre que le temps de retour  énergétique peut également être réduit en choisissant d'installer  préférentiellement les installations photovoltaïques dans les régions à très  fort ensoleillement.  Article rédigé par Georges Simmonds pour RT Flash EST |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  En adoptant une approche similaire à celle utilisée pour la  découverte de nouveaux médicaments, les chimistes de l'Université de Californie  ont découvert plusieurs composés qui peuvent stimuler la production de pétrole  et de biocarburants à partir d'algues microscopiques. Les microalgues sont des organismes unicellulaires qui, comme  les plantes, utilisent la photosynthèse pour capturer le dioxyde de carbone et  le transformer en composés organiques complexes, parmi lesquels on trouve de  nombreux acides gras et lipides. Les algues marines présentent l'avantage de  pouvoir être cultivées dans des bassins  d'eau salée et ne sont donc pas en concurrence avec les cultures  vivrières. Les chercheurs ont identifié plusieurs composants  susceptibles d'accélérer sensiblement la production de biocarburants à partir de  quatre familles de microalgues. Parmi ces composants se trouvent notamment  l'épigallocatéchine gallate, présente dans le thé vert et le butylhydroxyanisol  (BHA), un conservateur alimentaire commun. Ces travaux montrent qu'avec cette méthode, la production de biocarburants à partir de microalgues pourrait être rentable  dans des bassins d'au moins 50.000 litres. En outre, une fois les huiles  extraites des algues, la masse restante peut être utilisée pour l'alimentation  animale ou encore l'industrie cosmétique. Cette étude montre qu'il est possible d'utiliser les  techniques de criblage à haut débit issues de la recherche pharmaceutique pour  identifier rapidement parmi des milliers de molécules celles qui peuvent  accélérer la croissance des microalgues et la production des biocarburants qui  en sont issus. Article rédigé par Georges Simmonds pour RT Flash UC Davis |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une équipe de chercheurs du Virginia Tech a découvert un  moyen d'extraire de grandes quantités d'hydrogène à partir d'une plante, une  percée qui pourrait avoir des conséquences  considérables sur la transition énergétique mondiale. "L'hydrogène est une des sources d'énergie de l'avenir et  notre nouveau procédé pourrait contribuer à mettre fin à notre dépendance aux  combustibles fossiles", a déclaré YH Percival Zhang, qui dirige ces recherches. Zhang et son équipe ont réussi à utiliser le xylose, une  sucre végétal présent dans la plupart des plantes, pour produire une grande  quantité d'hydrogène et cette méthode est théoriquement applicable à partir de  n'importe quelle source de biomasse. Cette nouvelle méthode de production d'hydrogène présente des  avantages décisifs puisqu'elle n'utilise que des ressources naturelles  renouvelables et n'émet pas de gaz à effet de serre. "Le développement de l'hydrogène, que ce soit dans le secteur  des transports, de l'industrie ou l'énergie représente un marché colossal qu'on  peut estimer à au moins 1 milliard de dollars par an, rien qu'aux États-Unis",  précise Zhang. Cette percée technologique est le fruit de sept ans de  recherches qui ont permis à l'équipe de Zhang d'explorer les voies non  conventionnelles de production d'hydrogène à faible coût, notamment à partir de  plantes. Le procédé mis au point par ces chercheurs permet une  production d'hydrogène à faible température et  à la pression atmosphérique normale. Les biocatalyseurs utilisés pour  libérer l'hydrogène sont constitués par un groupe d'enzymes artificiellement  extraits de différents micro-organismes qui vivent à des températures extrêmes.  Les chercheurs ont choisi d'utiliser le xylose car ce sucre, très commun dans la  nature, représente au moins 30 % des parois des cellules végétales. Grâce à leur technique, les chercheurs ont pu produire de  l'hydrogène avec un rendement trois fois  supérieur à celui des autres méthodes biochimiques connues. En outre, hydrogène  ainsi obtenu est très pur et peut être directement utilisé par les membranes des  piles à combustible. On estime que le marché mondial de l'hydrogène est  aujourd'hui d'environ 100 milliards de dollars. Mais pour l'instant, hydrogène  est essentiellement produit à partir de gaz naturel, un procédé coûteux et  fortement émetteur de CO2. La possibilité de produire industriellement de l'hydrogène à  faible coût, sans émissions de gaz à effet de serre et à partir de biomasse  renouvelable, pourrait changer la donne énergétique mondiale au cours des 20  prochaines années. Article rédigé par Georges Simmonds pour RT Flash Phys.org |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs du Laboratoire Ames, de l'université de l'Iowa  et leurs collègues grecs de l'université de Crète ont mis au point un nouveau  mode de commutation magnétique térahertz (un térahertz est égal à 1000 milliards  de hertz) 1000 fois plus rapide que celui couramment utilisé dans les mémoires  magnétiques actuelles. La commutation magnétique est un principe physique qui permet  d'enregistrer les informations sur les disques durs et les mémoires vives de nos  ordinateurs. L'équipe gréco-américaine, dirigée par Jigang Wang et E.  Perakis, a utilisé des impulsions laser courtes pour créer très rapidement des  modifications dans la structure magnétique. L'ordre de grandeur de ces  impulsions est la femtoseconde (10-15  secondes). "Le grand défi de l'écriture, de la lecture et du stockage magnétique est la vitesse et nous avons montré que ce défi  pouvait être surmonté avec nos interrupteurs magnétiques ultrarapides qui  basculent en moins d'un milliardième de seconde" souligne Jigang  Wang. La technique mise au point par ces chercheurs permet, grâce  à une utilisation en continu du faisceau laser, une écriture et une lecture magnéto-optique ultrarapide des  informations numériques sur des matériaux ferromagnétiques. Cette technologie pulvérise la barrière du gigahertz qui  constitue la limite de vitesse de commutation magnétique aujourd'hui. Cette  avancée s'est appuyée sur l'utilisation de la magnétorésistance colossale (CMR)  de certains matériaux qui présentent la propriété d'être très sensibles aux  champs magnétiques extérieurs utilisés pour écrire des données, sans avoir  besoin de chaleur pour déclencher la commutation magnétique. Mais à une telle vitesse, ces mémoires magnétiques du futur devront intégrer  les contraintes spécifiques liées aux lois de la physique quantique. Cette  nouvelle technologie a d'ailleurs été baptisée "Femto-magnétisme quantique" par  les chercheurs. "Avec notre procédé, la commutation se fait par la  manipulation du spin et de la charge quantique", précise Wang qui ajoute : "Notre stratégie consiste à utiliser toutes les ressources  de l'optique quantique pour parvenir à maîtriser une commutation magnétique  térahertz en utilisant les matériaux CMR. Mais le but de ces recherches est très  concret : révolutionner l'électronique et l'informatique en produisant de  manière industrielle des mémoires d'une puissance à peine imaginable  aujourd'hui". Article rédigé par Georges Simmonds pour RT Flash Phys.org |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Espace et Cosmologie
                                    								|  |  |  
                                    								|  | Espace |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs américains du Space Telescope Science  Institute à Baltimore, dans le Maryland, et de l'Université Johns  Hopkins ont découvert, grâce au  télescope Hubble, la supernova la plus  lointaine jamais observée à ce jour. Baptisée Wilson (en hommage au président américain du même  nom), cette supernova, qui  a explosé il y a plus de 10 milliards d'années,  appartient à une catégorie particulière de supernova, appelée  1a. Ce type de supernova est particulièrement recherché par les  astronomes et les physiciens car elles émettent un niveau de luminosité qui peut  être utilisé pour mesurer l'expansion de l'Univers. Ce genre de supernova peut  également aider les scientifiques dans leurs recherches sur la nature de  l'énergie sombre, la force mystérieuse qui accélère l'accélération l'expansion  du cosmos. "Cette découverte va nous permettre de mieux comprendre  l'évolution de l'Univers et son expansion et de vérifier un certain nombre de  prévisions théoriques prévues par le modèle standard cosmologique", précise  David O. Jones de l'Université Johns Hopkins, auteur principal de  l'article. C'est dans le cadre du  programme de trois ans lancé en 2010 et destiné à étudier les supernova de type 1a et grâce à la sensibilité  extrême de la caméra en infrarouge qui équipe le télescope Hubble que les  astronomes américains ont pu réaliser cette observation. Jusqu'à présent, ces mêmes chercheurs ont déjà identifié une  centaine de supernovas de différent type qui  s'échelonnent dans le passé, de 2,4 milliards d'années à plus de 10  milliards d'années. Cette supernova "Wilson" est plus éloignée de 4 % que la précédente étoile détentrice du  record, ce qui représente un nouveau bon de 350 millions d'années en arrière  dans le temps. Identifiant une supernova de ce type si ancienne, des  astrophysiciens espèrent mieux comprendre les deux types d'explosion - selon  qu'il y a ou non fusion de deux naines blanches - qui mettent fin à la vie de  ces étoiles. Cette connaissance est en effet importante car elle permet de  mieux mesurer la vitesse avec laquelle l'Univers s'est enrichi d'éléments  lourds, comme le fer. Ces supernovas produisent environ la moitié du fer dans  l'Univers, or ce fer constitue la matière première pour la formation des  planètes. Article rédigé par Georges Simmonds pour RT Flash NASA |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Dans le cadre d'un  programme de recherche financé par la NASA, des chercheurs de l'université de  Washington travaillent actuellement sur la conception d'un moteur ionique à  plasma, alimenté par un micro réacteur à fusion thermonucléaire, qui pourrait  propulser un engin spatial vers Mars en quelques semaines. Comme le souligne le chef de ce projet John Slough, "avec les  modes de propulsion existants, l'homme ne pourra pas aller très loin dans  l'exploration spatiale car la durée des voyages spatiaux avec les moyens actuels  se compte en années, ce qui pose de multiples problèmes humains, psychologiques  et économiques. Nous devons donc trouver de nouvelles sources d'énergie beaucoup  plus puissantes de manière à pouvoir aller beaucoup plus vite". Le projet de cette équipe a été retenu, avec 15 autres  propositions, parmi plus de 700 dossiers de recherche proposés. Avec la  technologie actuellement disponible, la NASA estime qu'un aller-retour vers Mars  prendrait plus de quatre ans. Hormis les risques et dangers inhérents à un  voyage d'une telle durée, cette expédition nécessiterait une énorme quantité de  carburant chimique et serait très coûteuse : les coûts de lancement  représenteraient à eux seuls plus de 12 milliards de dollars. Slough et son équipe proposent pour leur part de développer un  moteur à propulsion ionique qui consommerait bien moins d'énergie que la  propulsion chimique et permettrait surtout de raccourcir le voyage vers Mars  à quelques semaines. Ces chercheurs ont déjà réussi à mettre au point un type de  plasma qui reste confiné dans son propre champ magnétique. Un processus de  fusion nucléaire s'enclenche lorsque ce plasma est brusquement comprimé par ce  champ magnétique à une pression très élevée. L'équipe a testé avec succès cette  technique en laboratoire. Avec un tel moteur, les chercheurs soulignent que l'équivalent  d'un grain de sable d’hydrogène possède le  même potentiel énergétique qu'un galon de carburant (3,8 litres). Concrètement, l'équipe a mis au point un système dans lequel  un puissant champ magnétique agit sur des anneaux métalliques qui compriment  le plasma pour le mettre en état de  fusion. Même si le temps de compression est très court, l'énergie  libérée par la réaction de fusion est suffisante pour ioniser le métal, qui peut être du lithium ou de l'aluminium. Ces ions sont alors éjectés à  très grande vitesse, ce qui propulse le vaisseau spatial. "Contrairement à ce qu'on pourrait penser, la partie  mécanique de ce système de propulsion est relativement simple, ce qui vaut mieux  car dans l'Espace, tout doit fonctionner de manière très fiable et la moindre  défaillance peut avoir des conséquences gravissimes" souligne John Slough. Quant au risque d'explosion liée au processus de fusion  thermonucléaire, les chercheurs soulignent qu'il est très faible car l'énergie  embarquée dans un tel vaisseau serait 1 milliard de fois moins importante que  celle libérée lors de l'explosion d'une bombe H. En outre, le concept sur lequel travaille cette équipe repose sur l'utilisation d'un  champ magnétique extrêmement puissant pour confiner le combustible de fusion et protéger les astronautes. Article rédigé par Georges Simmonds pour RT Flash Science Daily |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Sciences de la Terre, Environnement et Climat
                                    								|  |  |  
                                    								|  | Terre |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude réalisée par le Centre océanographique  national de Grande-Bretagne, basé à Southampton, l'évolution des niveaux de  concentration de micro nutriments dans les océans pourrait constituer un  indicateur précieux concernant les changements climatiques et environnementaux. Ces travaux démontrent que le cycle des micro-organismes et  micro-nutriments marin exerce une influence majeure sur le climat par ses effets  biologiques et biochimiques et notamment par sa capacité de séquestration  sous-marine du dioxyde de carbone. Comme le souligne le Professeur Mark Moore, de l'Université  de Southampton qui a dirigé l'étude, "Nous avons mobilisé une équipe d'experts  internationaux dans le but d'essayer d'y voir plus clair sur cette question  fondamentale du rôle et de l'impact des écosystèmes marins sur l'environnement  et l'évolution climatique". Ces travaux montrent que les éléments nutritifs et les micro-organismes jouent un rôle capital, non  seulement dans l'activité biologique des océans mais également dans le cycle du  carbone, qui se manifeste par des échanges complexes de flux entre  l'atmosphère, les océans et la terre. À cet égard, le professeur Moore souligne que "En dépit de  plusieurs décennies de recherche, nous ne comprenons toujours pas toute la  subtilité des nombreuses interactions entre les micro-organismes marins, les cycles des nutriments et le stockage du carbone. Grâce à ces travaux, nous  commençons à mieux comprendre à quel point les activités humaines influent sur  la biologie des océans et de ses écosystèmes, ce qui entraîne, dans une chaîne  complexe de rétroactions, des conséquences importantes pour l'évolution du  climat de notre planète". Article rédigé par Gaël Orbois pour RT Flash Phys NOC |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une étude réalisée par des chercheurs de la Northwestern  University et de la Carnegie Institution de Washington montre la façon avec laquelle le carbone migre des couches  profondes d'une planète vers sa surface  pour jouer un grand rôle dans l'évolution future de son  atmosphère. Selon ces travaux, lorsque le manteau fond pour former le  magma, il piège de carbone du sous-sol. Comme le magma se déplace vers la  surface, sa pression diminue et ce carbone est finalement libéré sous forme de  gaz. Sur Terre, le carbone est piégé dans le magma avant de ressortir dans  l'atmosphère sous forme de dioxyde de carbone, principal gaz à effet de serre,  responsable du réchauffement climatique. Ces recherches permettent de penser que, sur Mars, le carbone  du sous-sol a pu libérer de grandes quantités de méthane à cause de l'activité  volcanique très intense qui régnait sur la planète rouge dans le passé. Compte tenu du potentiel radiatif du méthane en matière  d'effet de serre, il est donc possible qu'à  un moment de son histoire, Mars, même avec une atmosphère ténue, ait  connu une température suffisamment élevée pour qu'il puisse y avoir à sa surface  d'importantes quantités d'eau à l'état liquide. Article rédigé par Gaël Orbois pour RT Flash Brown University |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une étude américaine de l'université de l'Ohio a montré  que le plus grand glacier tropical du monde, le glacier péruvien de Quelccaya,  situé à plus de 5000 m d'altitude dans les Andes et vieux de 1 600 ans, a connu  une fonte accélérée au cours des 25 dernières années. Pendant cette période récente, le glacier a en effet reculé  en moyenne de plus de 60 m par an,  c'est-à-dire 10 fois plus vite qu'au cours de la période  précédente. L'évolution de ce glacier et son histoire ont pu être  reconstituées en analysant les isotopes radioactifs carbone contenus dans les  plantes ainsi que la composition chimique des carottes de glace qui ont été forées sur ce site  glaciaire. Selon le docteur Thompson qui a dirigé ces recherches, "ce glacier qui existe depuis plus de 6000 ans, a perdu autant de glace au cours  des 25 dernières années qu'il en avait gagnée depuis 1600 ans". Les scientifiques incriminent directement le réchauffement  climatique provoqué par l'augmentation des émissions de gaz à effet de serre  comme le principal acteur responsable de  cette fonte accélérée du plus grand réservoir d'eau douce d'Amérique du Sud. Ce glacier tropical est très sensible aux variations de  température et sa fonte rapide inquiète la population locale car il joue un rôle capital dans l'approvisionnement en eau  potable des communautés et des villes  andines pendant la saison sèche. Comme le souligne Douglas R. Hardy, chercheur à Université  de Massachusetts qui connaît bien cette région, "A ce rythme de fonte, des  grandes villes comme Lima ou La Paz risquent, d'ici quelques décennies, d'être  privées de la moitié de leurs ressources en eau potable, ce qui serait une  catastrophe pour les populations concernées". Article rédigé par Gaël Orbois pour RT Flash The New York Times |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude néerlandaise, alors que la banquise  arctique a perdu plus de 15 % de sa surface au  cours de ces dernières années, le  réchauffement climatique a paradoxalement provoqué une extension de plus de 5 %  de la banquise en l'Antarctique. D'après l'étude, publiée dans la revue Nature Geoscience,  l'eau douce provenant de la fonte des "langues de glace", qui prolongent la  calotte continentale dans l'océan, s'accumule en une couche plus froide à la surface de la mer. C'est ce phénomène qui  expliquerait l'extension de la banquise dans le continent  Antarctique. "Contrairement à ce qu'on observe puis plusieurs années en  Arctique, la glace de mer entourant l'Antarctique s'est étendue, avec un record  en 2010", souligne cette étude qui précise que ce mécanisme pourrait constituer  une "puissante rétroaction négative au réchauffement atmosphérique de  l'hémisphère sud". Ces travaux devraient permettre de mieux comprendre et de  mieux prévoir l'évolution de la banquise en Antarctique dont la fonte contribue  (avec la calotte du Groenland) pour un tiers  à la hausse globale du niveau des mers, les deux autres tiers relevant  respectivement des glaciers terrestres et de la dilatation thermique des  océans. Article rédigé par Gaël Orbois pour RT Flash New Scientist |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une étude du Centre national de recherche sur l'atmosphère  des Etats-Unis vient de faire le point sur l'évolution temporelle du contenu  thermique des océans de la planète depuis 1958, à partir d'une multitude de  données d'origines diverses. Ces travaux prennent notamment en compte, en les reconsidérant, le rôle des  éruptions volcaniques et des phénomènes El  Niño qui tendent à refroidir le climat mondial. Ces recherches montrent que le  réchauffement global supérieur océanique s'est poursuivi au cours de la dernière  décennie et que cette chaleur excédentaire a été absorbée plus profondément dans  les océans. Ce phénomène pourrait expliquer pourquoi, alors que les  émissions humaines de gaz à effet de serre s'accentuent, la température moyenne  de l'atmosphère semble se stabiliser depuis une dizaine d'années. On sait en effet que cette chaleur alimente le système thermodynamique mondial, comme le  montrent les observations satellitaires portant sur le rayonnement thermique. Il  restait donc à comprendre pourquoi cet apport d'énergie supplémentaire ne  s'était pas traduit par un réchauffement de l'atmosphère. C'est à cette question très importante que cette étude  apporte des éléments de réponse sérieux. Comme le souligne Kevin Trenberth,  coauteur de cette étude, "L'énergie supplémentaire qui est venue alimenter le  système climatique peut se manifester de bien des façons :  élévation des  températures, fonte de la banquise arctique, modification du cycle de l'eau ou  augmentation de la fréquence des épisodes météorologiques extrêmes comme les  ouragans. Mais nous ne devons pas oublier qu'in fine 90 % de cette chaleur est  réabsorbée par les océans." Selon cette étude, reposant essentiellement sur les  données fournies par le réseau de bouées immergées Argol, au cours de la  dernière décennie, au moins 30 % du réchauffement océanique s'est produit en  dessous de 700 m, ce qui contribue de manière significative à une accélération  de la tendance au réchauffement. L'étude précise que la variabilité du vent de  surface est en grande partie responsable de l'évolution dans la distribution de  la chaleur océanique. Cette réévaluation du rôle thermique des océans pourrait  avoir comme conséquence un moindre réchauffement de l'atmosphère à court terme  mais un réchauffement plus important à long terme, ce qui devrait se traduire  notamment par une élévation encore plus forte que prévu du niveau des mers. Article rédigé par Gaël Orbois pour RT Flash Wiley |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Santé, Médecine et Sciences du Vivant
                                    								|  |  |  
                                    								|  | Vivant |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude américaine de l'université du Colorado, les  récepteurs androgènes constituent le quatrième grand marqueur dans le cancer du  sein, qui s'ajoute aux trois autres : les récepteurs d'œstrogènes, les  récepteurs de progestérone et le gène HER2. « Nous avons à présent les preuves scientifiques que les  récepteurs androgènes constituent bien un nouveau marqueur important dans tous  les principaux types de cancer du sein », explique Jennifer Richer, qui a dirigé  cette étude. Ces travaux montrent que les  récepteurs d'androgènes constituent une nouvelle cible thérapeutique de choix  contre le cancer du sein, notamment pour les patientes dont le cancer n'exprime  pas d'autres cibles ou pour celles dont les récepteurs hormonaux aux œstrogènes  ont développé une résistance au traitement. Dans l'ensemble, environ 77 % des cancers du sein sont liés aux  récepteurs androgènes et cette étude renforce l'hypothèse d'une efficacité  thérapeutique des anti-androgènes, dans certains types de cancer du sein. Les chercheurs ont pu montrer in vitro que l'enzalutamide,  un médicament anti-androgènes bien connu, peut avoir des effets comparables  dans certains cas à ceux du tamoxifène, un médicament anti-œstrogènes utilisé  pour traiter certains cancer du sein. Cette étude souligne que les patientes présentant un haut  ratio de récepteurs d'androgènes sur récepteurs d'œstrogènes pourraient être de  bons candidats pour ce type de thérapie ciblant les récepteurs  d'androgènes. Article rédigé par Georges Simmonds pour RT Flash SC |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Décidément, le vieil adage romain "Mens sana in corpore sano"  semble se vérifier. Des chercheurs de l'Université de Grenade ont en effet  démontré que les personnes pratiquant régulièrement une activité sportive  réalisent de meilleures performances cognitives que les personnes sédentaires ou  pratiquant peu d'exercice physique. Ces travaux montrent que les personnes actives possèdent à la  fois une capacité de concentration et d'attention plus grande lors d'une action ponctuelle et une capacité de  réflexion et de planification également plus importante, lorsqu’elles s’engagent dans un ensemble de tâches  cognitives s'inscrivant dans la durée. L'étude a été réalisée sur  28 adultes divisés en deux  groupes. Le premier avait un faible niveau d'activité physique alors que le  second pratiquait de manière intensive une activité sportive, en l'occurrence le  vélo. Ces recherches confirment la pratique régulière d'un sport  améliorant sensiblement le tonus vagal et le  fonctionnement du système nerveux. Il semble également qu'une activité physique  soutenue et fréquente exerce un effet bénéfique sur le système nerveux, à la fois  sur le plan structurel et fonctionnel. Concrètement, l'exercice physique  ralentirait sensiblement les processus de neuro dégénérescence en favorisant la  neurogenèse (production de nouveaux neurones) et l'angiogenèse (production de  nouveaux vaisseaux sanguins) dans plusieurs aires cérébrales et notamment  l'hippocampe, le cortex et le  cervelet. "Il est important de souligner que le principal bénéfice  cognitif résultant d'une bonne condition physique semble être lié à une  meilleure capacité de concentration", précise le Professeur Antonio Luque  Casado, auteur principal de l'étude. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Un lien biologique et moléculaire fondamental entre  croissance cellulaire du fœtus et prolifération anarchique des cellules  cancéreuses a été découvert par deux chercheurs américains. "Nous savions déjà que certains gènes à l’origine de la  croissance rapide des cellules lors de la formation de l'embryon sont réactivés  dans les cellules cancéreuses", précisent Julian C.Lui et Jeffrey Baron, qui  ajoutent : "Mais cette fois, nous avons franchi un pas supplémentaire et pu  identifier le mécanisme moléculaire commun à ces deux processus, ce qui devrait  nous permettre de progresser considérablement dans la compréhension intime des  mécanismes complexes de la croissance cellulaire". L'étude souligne que, in utero, un ensemble de plus de 200  gènes est à l'œuvre pour commander et réguler la croissance cellulaire  nécessaire à la formation du fœtus. De manière logique, après la naissance, ces  gènes, après avoir rempli leur rôle, cessent progressivement leur  action. Ce qu'ont découvert ces chercheurs, c'est que certains de ces  gènes se remettent à fonctionner en cas de cancer, comme le gène IGF2 qui joue  un rôle majeur dans le développement embryonnaire et retrouve une intense  activité dans certains cancers. Ces chercheurs ont pu également montrer que c'est la  protéine E2F3 qui commande l’activation du gène IGF2, que ce soit dans les  processus de croissances cellulaires normaux ou dans la prolifération cellulaire  cancéreuse. Selon ces auteurs, la protéine E2F3 régule non seulement IGF2  mais agit également sur beaucoup d'autres gènes, parmi les 200 répertoriés qui  sont impliqués dans la croissance cellulaire. Cette protéine E2F3 pourrait donc être une sorte "d'interrupteur" fondamental en matière de régulation cellulaire et son ciblage  constitue une nouvelle voie de recherche prometteuse en cancérologie. Article rédigé par Georges Simmonds pour RT Flash PNAS HC |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une étude britannique réalisée sur plus de 2 000 malades par  l'Institut de recherche sur le cancer de Londres et dirigée par le  Professeur Ros Eeles a montré que les hommes porteurs d'une mutation spécifique sur le  gène BRCA2, déjà impliqué dans le cancer du sein et l'ovaire, ont beaucoup plus  de risques de développer une tumeur agressive et un mauvais pronostic de la  prostate. "Cette étude montre que nous devons envisager de traiter les  patients porteurs de cette mutation sur le gène BRCA2 le plus tôt possible avec  un traitement spécifique plus puissant", souligne le Professeur Eeles. Selon ces  travaux, ces malades devraient bénéficier d'une chirurgie ou d'une radiothérapie  immédiate, même si leur cancer en est encore à un stade précoce. Pour parvenir à ces conclusions, les chercheurs ont examiné  les dossiers médicaux de 2 019 patients atteints de cancer de la prostate parmi  lesquels 61 étaient porteurs de la mutation sur le gène BRCA2. Ces recherches ont permis de montrer que le taux moyen de  survie chez les patients porteurs de cette mutation n'était que de 6,5 ans,  contre 12,9 pour les malades ne présentant pas cette mutation. À la suite de ces travaux, les autorités médicales  britanniques envisagent de proposer un traitement précoce spécifique aux hommes  atteints d'un cancer de la prostate qui sont porteurs de cette mutation  génétique. Article rédigé par Georges Simmonds pour RT Flash BBC |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  À l'occasion de la grande réunion annuelle de l'association  américaine pour la recherche contre le cancer (AACR), des chercheurs du Virginia  G. Piper Cancer Center à Scottsdale (Arizona) ont présenté les premiers  résultats encourageants d'une étude clinique de phase 1 portant sur  l'utilisation thérapeutique d'un ARN interférent (ARNi) contre le cancer. Baptisé TKM-PLK1, ce médicament est développé par Tekmira  Pharmaceuticals Corporation. Il agit en bloquant l'ARNi du gène PLK1 impliqué  dans la croissance tumorale et peut être administré en toute sécurité chez  l'homme. « Les thérapies par ARNi constituent une voix thérapeutique  nouvelle et prometteuse dans le traitement  du cancer car elles permettent de désactiver  les gènes codant pour des protéines impliquées dans la division des cellules  cancéreuses », souligne le Professeur Ramesh K. Ramanathan, responsable de ces  essais. Le médicament expérimenté, le TKM-PLK1, cible un gène  spécifique appelé polo-like kinase 1 (PLK1), qui commande la production d'une  protéine impliquée dans la croissance de cellules tumorales. De précédentes  recherches ont montré que des niveaux élevés de PLK1 sont présents dans de  nombreux types de cancer. « Nos résultats précliniques ont montré qu'en diminuant les  niveaux de Plk1 dans les cellules cancéreuses, on peut stopper la croissance  tumorale et tuer les cellules cancéreuses », souligne le professeur  Ramanathan. Cet essai, qui a duré six mois,  portait sur 23 patients atteints de tumeurs solides et de lymphome. Il a  permis de montrer "des réponses encourageantes sur le plan thérapeutique". Par  ailleurs, en dépit des doses élevées administrées à certains patients, les effets  secondaires sont restés acceptables. « Les thérapies ARNi, comme celles que nous avons utilisées  dans notre essai, vont prendre une place croissante dans la nouvelle panoplie  thérapeutique qui se met en place contre le cancer. Nous avons à présent la  possibilité de cibler par cette méthode de nombreuses protéines impliquées dans  la maladie », ajoute le Professeur Ramanathan. Article rédigé par Georges Simmonds pour RT Flash Science Codex |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude internationale publiée par le British médical  journal et réalisée par des chercheurs américains, espagnols et cubains, une  légère diminution de l'apport calorique global dans l'alimentation pourrait  avoir des effets très bénéfiques en matière de diabète et de maladies  cardio-vasculaires. À la suite de la crise économique qui a frappé Cuba de 1990 à  1995, la consommation énergétique globale dans l'alimentation des Cubains a  diminué (entraînant une perte moyenne de poids de 4,5kg par adulte) et les  habitants ont également été obligés de pratiquer davantage d'exercice physique à  la suite des pénuries de carburant. Une des conséquences de cette situation a été une forte  diminution de l'incidence du diabète de type 2 et des maladies  cardio-vasculaires et cette étude montre de manière saisissante qu'une perte de  poix moyenne, même modeste, dans l'ensemble de la population entraîne assez  rapidement des effets très bénéfiques sur le plan  cardio-vasculaire. Selon ces recherches, une perte de poids moyenne de seulement  5 kg par habitant pourrait permettre de réduire de moitié la mortalité liée au diabète et de diminuer d'un tiers la  mortalité provoquée par les maladies  cardiovasculaires. Dans l'éditorial d'accompagnement de cette étude, rédigé par  le professeur Willett de l'Ecole de santé publique d'Harvard, on peut lire que  ce travail "apporte des preuves très convaincantes que la réduction de la  surcharge pondérale et de l'obésité peut avoir un impact très positif sur la  santé globale de toute une population". Article rédigé par Georges Simmonds pour RT Flash Science Codex |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une vaste étude réalisée aux Pays-Bas sur plus de 6 000 personnes suivies  pendant 16 ans et publiée dans le journal européen de cardiologie montre que,  si la mortalité cardio-vasculaire a diminué grâce aux progrès médicaux et  scientifiques, l'exposition au risque des maladies cardiovasculaires est, quant  à elle, en augmentation. Cette étude montre de manière claire qu'en  dépit d'une plus grande espérance de vie, les adultes d'aujourd'hui sont  globalement en moins bonne santé que ceux des générations précédentes. Pour parvenir à cette conclusion peu réjouissante, les  chercheurs ont analysé différents facteurs de risque, dont le poids, la pression artérielle, le taux de cholestérol  total et le niveau de bon cholestérol (HDL). Les participants à cette étude ont été ventilés par sexe et  par génération dans des groupes d'âges de 10 ans. Cette méthode a permis de  constater que, si le surpoids et l'hypertension augmentent assez logiquement  avec l'âge dans toutes les générations, ces facteurs de risque sont présents, à  âge égal, de manière sensiblement plus importante chez les adultes vivant  actuellement. Les résultats de cette étude pourraient avoir des  conséquences majeures en matière de santé publique. Comme le souligne Gerben  Hulsegge, qui a dirigé ces travaux,  « Il est frappant de constater que la  prévalence de l'obésité dans notre plus jeune génération d'hommes et de femmes à  l'âge moyen de 40 ans est similaire à celle de notre génération la plus âgée à  l'âge moyen de 55 ans. Cela signifie que cette jeune génération est exposée, avec 15  ans d'avance, aux différentes pathologies associées au surpoids. Il faut donc  nous interroger sur l'efficacité de nos politiques publiques d'information et de  prévention en matière de santé ». Rappelons qu'en France, en dix  ans, la proportion d'obèses par rapport à la population totale est  passée de 8,2 à 12,4 %, soit une augmentation de plus de 50 % ! Par ailleurs,  selon une étude réalisée fin 2012, presque un jeune sur cinq (19 %) est en  surpoids ou obèse. Mais ce qui est frappant, c'est que plus d'un tiers de ces jeunes en surpoids n'ont pas conscience de  leur état et se considèrent comme minces. Cette étude nous indique par ailleurs  qu'un tiers des jeunes Français ne pratiquent aucune activité physique. L'obésité entraînerait le décès prématuré de près de 3  millions de personnes par an dans le monde, dont 55 000 en  France. Article rédigé par Georges Simmonds pour RT Flash WN |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Selon  une étude publiée par la revue américaine "cancer", l'amiodarone, un médicament  utilisé contre l'arythmie cardiaque, augmenterait le risque de  cancer. L'étude  réalisée par des chercheurs du Taipei Veterans General Hospital à Taïwan,  précise que cette augmentation de risque de cancer concerne principalement les  hommes ainsi que les patients prenant de fortes doses de ce  médicament. Selon  ces travaux, ce médicament qui se dégrade  très lentement pourrait s'accumuler dans l'organisme, augmentant ainsi le  risque de cancer chez certains patients. De précédentes études avaient déjà  montré que l'amiodarone pouvait augmenter le risque de certains  cancers. Dans  ces travaux, les chercheurs ont analysé, sur  une période de deux ans et demi, les  dossiers médicaux de 6 418 patients traités à l'amiodarone. Ils ont constaté que  4,3 % des patients (280 patients) avaient développé un  cancer. Les  chercheurs ont également observé que les patients qui prenaient les plus fortes  doses de ce médicament voyaient, après ajustement des différents facteurs de  risque, leur risque de cancer augmenter de 46 % par rapport aux patientx  prenant des doses plus faibles de ce traitement. Compte  tenu de ces résultats, le Docteur Su, qui a dirigé cette étude, recommande que  les cas de cancers chez ces patients soient systématiquement mentionnés dans les  futures études cliniques portant sur l'amiodarone. Article rédigé par Georges Simmonds pour RT Flash Wiley |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une étude américaine a montré que l'utilisation de cuivre  anti-bactérien dans les établissements de soins et hôpitaux peut contribuer à  diminuer sensiblement le nombre d'infections nosocomiales. Selon ces travaux, à précautions hygiéniques et chimiques  équivalentes, l'utilisation du cuivre réduit de 58 % le nombre de ces infections  très dangereuses pour les patients dont les défenses immunitaires sont souvent  affaiblies. Aux États-Unis, on estime qu'un patient sur 20 développera une  infection nosocomiale, ce qui entraîne environ 100 000 décès par  an. Bien que des efforts considérables aient été déployés dans  les hôpitaux pour prévenir et réduire ce type d'infections, l'étude rappelle que  l'utilisation du cuivre antibactérien est la seule stratégie de lutte contre les  infections nosocomiales scientifiquement démontrée qui ne dépende pas du  comportement humain. L'étude, financée par le Ministère américain de la Défense, a  été réalisée dans les unités de soins intensifs de trois grands hôpitaux :  l'Université médicale de Caroline du Sud, le Centre Memorial Sloan-Kettering  Cancer à New York et le Ralph H. Johnson Affaires Medical Center à Charleston,  en Caroline du Sud. Dans ces établissements, 650 patients ont été répartis de  manière aléatoire dans des chambres qui étaient ou non équipées de poignées et  surfaces en cuivre. Les résultats de cette étude ont montré que le pourcentage  de patients contractant une infection nosocomiale était sensiblement plus faible  dans les chambres équipées de cuivre. Selon ces travaux, le cuivre pourrait tuer  83 % des bactéries qui causent ces infections nosocomiales. Cette étude a eu un grand retentissement dans le milieu  scientifique et médical américain et, à la suite de sa publication, de nombreux  établissements de santé ont décidé d'équiper leurs unités de soins intensifs de  matériel en cuivre antibactérien. Article rédigé par Georges Simmonds pour RT Flash KPTV |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude réalisée par des chercheurs de l'université  de Wisconsin-Madison, l'âge à partir duquel un enfant atteint d'autisme est  diagnostiqué est corrélé au type de symptômes comportementaux. Comme le souligne l'auteur de l'étude, Matthew Maenner, "Le  diagnostic précoce est très important dans la bonne prise en charge de  l'autisme. Plus tôt nous pouvons déceler des troubles autistiques chez un  enfant, plus la prise en charge médico-psychologique pourra être efficace". Cette étude constate que, sur le terrain, à peine la moitié  des enfants souffrant de troubles autistiques sont détectés avant l'âge de cinq  ans. L'une des raisons principales qui explique la difficulté d'un dépistage  précoce de cette affection est l'extrême diversité des symptômes qui  caractérisent cette pathologie. Selon la classification américaine officielle des troubles  psychiatriques, l'ensemble des troubles du spectre autistique regrouperait en  effet plus de 600 syndromes différents. Dans ce travail, les chercheurs ont analysé les dossiers de 2  757 enfants de 8 ans et ont ainsi établi des associations significatives entre  la présence de douze caractéristiques comportementales et l'âge de ces enfants  au moment du diagnostic. Dans la population étudiée, l'âge médian au moment du  diagnostic d'autisme était de 8,2 ans pour les enfants présentant seulement sept  des facteurs répertoriés. Mais cet âge médian tombe à 3,8 ans pour les enfants  présentant l'ensemble des 12 symptômes. L'étude montre également que la fréquence de manifestations  de certains symptômes spécifiques constitue un facteur important dans  l'établissement d'un diagnostic précoce. Par exemple, les enfants souffrant de  déficiences dans la communication non verbale ou de comportements répétitifs  peuvent être diagnostiqués à un plus jeune âge. En revanche, les enfants  souffrant d’un déficit du langage seront en  moyenne diagnostiqués de manière plus tardive. Ces résultats suggèrent que les enfants présentant moins  de caractéristiques comportementales ou dont l'autisme se caractérise par des  symptômes généralement identifiés à des âges plus avancés, posent plus de  problèmes pour l'établissement d'un diagnostic précoce. Ces travaux montrent également que l'amélioration du  dépistage de l'autisme pourrait permettre non seulement de détecter précocement  les enfants présentant des troubles autistiques mais pourrait également  identifier les personnes beaucoup plus âgées n'étant pas considérées comme  autistes, alors qu'elles présentent les symptômes de cette pathologie. Selon les dernières statistiques des services de santé  américains, le pourcentage d'enfants autistes n'a cessé d'augmenter au cours de  ces dernières décennies et il serait passé d'un enfant sur 110 à un enfant sur  88 au cours des cinq dernières années. Plus d'un million d'enfants et  d'adolescents américains seraient aujourd'hui touchés par cette  pathologie. Article rédigé par Elisa Tabord pour RT Flash Eurekalert |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  La dépression est une pathologie grave qui touche, selon  l'OMS, plus de 350 millions de personnes dans le monde, soit 5 % de la  population mondiale. La France est particulièrement touchée par cette affection  puisque, toujours selon l'OMS, 21 % de nos concitoyens connaîtraient, à un moment ou un autre de leur existence, un  épisode dépressif. Le principal traitement contre la dépression reste de loin la  prescription de médicaments antidépresseurs malgré leurs effets secondaires et  les phénomènes d'accoutumance que ces médicaments peuvent provoquer à long  terme. Il existe pourtant d'autres voies thérapeutiques dans le  traitement de la dépression, comme la psychanalyse et les psychothérapies et  notamment les thérapies comportementale et cognitive. Une étude publiée en 2000 avait d'ailleurs montré que les  thérapies cognitives avaient une efficacité supérieure de 30 % au traitement par  antidépresseurs, dans les cas de dépression modérée. Une nouvelle étude, réalisée par l'université de psychologie  de Maastricht, vient de montrer que la thérapie dite "d'activation  comportementale" peut s'avérer efficace contre la dépression. Cette thérapie est  articulée autour de la construction d'un calendrier prévisionnel d'activité a  réaliser par le patient ainsi que sur l’analyse des processus cognitifs  participant à l'entretien et à la perduration de l'état  dépressif. Comparativement à la thérapie cognitivo-comportementaliste  classique, l’intérêt de cette technique contre la dépression consiste dans la  plus grande facilité de formation des professionnels devant l’appliquer et dans  son utilisation possible en milieu ambulatoire ou hospitalier. L’activation  comportementale pourrait donc offrir une alternative valable aux antidépresseurs  dans le trouble dépressif majeur. Un essai réalisé sur 100 patients divisés en deux groupes,  l'un, traité par activation comportementale et l'autre soigné avec des  antidépresseurs, a montré que l'activation comportementale s'avérait plus  efficace que les antidépresseurs dans le traitement des dépressions sévères. Selon ces travaux, il serait donc souhaitable, compte tenu de  la simplicité de mise en œuvre de cette thérapie d'activation comportementale,  de proposer à tous les patients souffrant de graves dépressions cette solution  thérapeutique comme alternative aux antidépresseurs. Article rédigé par Elisa Tabord pour RT Flash NCBI |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des  chercheurs de l’Institut de neuroscience de Louvain ont montré l'existence d'un  lien puissant entre le cholestérol, l’activité neuronale et la maladie  d’Alzheimer. Cette  équipe, dirigée par le professeur Jean Noël Octave, a découvert un mécanisme  impliqué dans la perturbation du fonctionnement des neurones qui caractérise la  maladie d'Alzheimer. Selon  ces travaux, notre cerveau qui contient plus de 20 % du cholestérol total de  l'organisme, contrôle ce taux de façon autonome. De précédentes recherches ont  montré qu’un contrôle efficace de la production et de la dégradation du  cholestérol par les neurones était indispensable à leur fonctionnement  normal. Dans  ces travaux, il a pu être démontré que les patients produisant une  protéine spécifique de transport du cholestérol multipliaient par dix leur  risque de développer la maladie d’Alzheimer. Il  semblerait en effet que, chez des malades atteints de la maladie d'Alzheimer, le  fonctionnement anormal de cette protéine vienne dérégler l’équilibre entre la  synthèse et l'élimination du cholestérol et perturber ainsi le bon  fonctionnement des neurones. La  protéine impliquée dans ce processus a été baptisée APP (Protéine Précurseur de  l'Amyloïde). Il s'agit d'une protéine transmembranaire, que l'on trouve à  travers la membrane des neurones. Ces chercheurs ont découvert que le  fonctionnement de l'APP est étroitement lié au niveau de  cholestérol. L'étude  conclut que cette protéine APP joue un rôle-clé dans le contrôle et la  régulation du cholestérol dans le cerveau et dans l'activité neuronale. Ces  chercheurs testent à présent des médicaments capables de rétablir cet équilibre  métabolique. Les résultats obtenus in vitro et sur des souris porteuses de la  maladie d'Alzheimer sont très encourageants et les essais cliniques sur l'homme  pourraient commencer dès cette année. Article rédigé par Georges Simmonds pour RT Flash EMBO |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs de l'université Khulna, au Bangladesh, ont mis  au point un outil portable innovant et accessible à tous, permettant de mesurer  le rythme cardiaque et la température du corps. Ce système utilise une technologie infrarouge qui lui permet  de mesurer le rythme des battements cardiaques. Ce petit dispositif se fixe sur  le doigt de l’utilisateur et émet un  faisceau lumineux dont l'indice de réfraction est ensuite analysé, ce qui permet  de calculer le débit sanguin dans une phalange. Chaque minute environ, l'appareil calcule une moyenne de  rythme cardiaque qui s'affiche sur un petit écran LCD. L'appareil peut également  mesurer en temps réel la température corporelle grâce à un autre capteur  spécialisé. L'ensemble de ces données est routé, via une connexion Ethernet,  vers un serveur Internet. Ce système, simple et léger, est d'une grande précision : sa  marge d'erreur est de l'ordre de 1 pour  cent, bien inférieure à celle de ses concurrents. L'article précise que cet appareil portable est spécialement  conçu pour une utilisation en milieu rural, loin des centres hospitaliers et  permet une télésurveillance très fiable et peu coûteuse des patients à risque,  ce qui correspond aux besoins sanitaires d'un pays encore largement rural, comme  le Bangladesh. Article rédigé par Georges Simmonds pour RT Flash Cornell University |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  À l'occasion des rencontres britanniques des neurosciences,  des chercheurs anglais ont montré pour la première fois que le cycle cardiaque  affectait la façon dont notre cerveau traite les stimuli relatifs à la peur. Le docteur Sarah Garfinkel qui travaille à l'école médicale du  Sussex (Brighton), précise que "Ces recherches montrent que de nombreux organes  du corps interagissent avec le fonctionnement du cerveau pour façonner et  influencer nos perceptions, nos émotions et nos pensées. Pour la première fois,  nous avons pu démontrer que la façon dont nous traitons la peur dépend en partie de notre activité cardiaque". Pour parvenir à ces  conclusions, les chercheurs ont équipé 20 volontaires de moniteurs cardiaques  puis ont été exposés à des images effrayantes. Pendant ces  expériences, un programme informatique analysait en temps réel les corrélations  entre l'évolution des électrocardiographies et la visualisation de ces images. Ce dispositif expérimental a permis de montrer que, lorsque  les participants visualisaient une image effrayante pendant la systole (quand le  cœur se contracte), ces images étaient perçues de  manière plus intense que les mêmes images visualisées pendant la diastole  (quand le cœur se relâche). Selon ces chercheurs, des observations complémentaires  réalisées par IRM et scanner montreraient qu’une  aire cérébrale spécifique,  l'amygdale, serait responsable de cette perception différenciée des émotions en  fonction du cycle cardiaque. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Un composé abondant dans la viande rouge et présent dans les   boissons énergisantes pourrait favoriser l'athérosclérose, selon une étude  réalisée par la Cleveland Clinic. L'étude montre que les bactéries qui vivent dans le tube  digestif humain métabolisent ce composé, la carnitine, le transformant en  triméthylamine-N-oxyde (OTMA), un métabolite déjà identifié depuis 2011 comme  promoteur de l'athérosclérose chez l'homme. En outre, ces travaux montrent qu'une alimentation trop riche  en carnitine favorise la croissance des bactéries qui métabolisent cette  substance : un parfait exemple de rétroaction positive aux conséquences  néfastes. L'étude a testé les niveaux de carnitine et d'OTMA chez  plusieurs types de populations, omnivores, végétaliens et végétariens regroupant  au total 2 595 personnes. Les chercheurs ont également examiné les effets sur le  système cardio-vasculaire des souris d'un régime riche en carnitine. Ces travaux ont montré que l'augmentation des niveaux de  carnitine chez les patients constitue un bon prédicteur des risques accrus de  maladies cardiovasculaires et d'AVC, mais seulement chez les sujets présentant  simultanément des niveaux élevés d'OTMA. En outre, ces recherches montrent que  certains types de bactéries intestinales, associées aux niveaux d'OTMA étaient  significativement plus faibles chez les végétaliens et les végétariens. L'étude montre que les végétaliens et les végétariens, même  après avoir consommé une grande quantité de carnitine, ne produisent pas de  métabolite  OTMA, ce qui n'est pas le cas des omnivores consommant la même  quantité de carnitine. Il semblerait donc, selon ces travaux, qu'une alimentation  riche en carnitine influe sur la composition de notre microbiote intestinal, ce  qui rend les mangeurs de viande encore plus sensibles à la formation de l'OTMA  et avec un risque plus grand d'athérosclérose. En revanche, les  végétaliens et végétariens parviennent à réduire de manière significative la  synthèse de la carnitine, ce qui pourrait  expliquer en partie les bienfaits des  bénéfices de ce type d'alimentation en matière cardio-vasculaire. En conclusion, cette étude souligne que ce mécanisme nouveau  pourrait expliquer pourquoi la consommation  de viande rouge est souvent associée à un risque  accru de maladie cardiovasculaire, alors  que le taux de cholestérol et de graisses saturées de la viande rouge ne  suffisent pas à expliquer l'augmentation de  ce risque. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une équipe de recherche franco-polonaise vient de montrer  que, contrairement à ce qui était admis jusqu'à présent, la spécialisation  fonctionnelle de certaines aires cérébrales n'était pas toujours innée et  pouvait entièrement résulter d'un apprentissage. Pour arriver à cette conclusion, les chercheurs ont travaillé  sur une faculté cognitive particulière : l'aptitude à la lecture. Comme le  souligne le neurobiologiste Stanislas  DEHANE, "le cerveau humain n'est pas  programmé pour être capable de lire, contrairement par exemple à la capacité à  reconnaître des visages qui résultent d'une longue évolution biologique. Mais la  lecture a été inventée il y a moins de 6000 ans, ce qui est trop court pour que  l'évolution ait eu le temps de créer une aire cérébrale spécifiquement dédiée à  la lecture". Une série d'expériences menées sur des patients  épileptiques au CHU de Grenoble, dans le laboratoire de physiopathologie de  l'épilepsie, dirigé par le Professeur Philippe KAHANE, a montré, au grand étonnement  des scientifiques, que les cellules nerveuses de cette zone cérébrale impliquée  dans la reconnaissance des objets (Aire de Déjerine) réagissaient fortement et  uniquement lorsque le patient voyait un mot, ou une chaîne de lettres, à  l'exclusion de tout autre type d'information. Les chercheurs ont ainsi pu démontrer que la région cérébrale responsable de la  reconnaissance des objets pouvait développer  une attitude spécifique à la lecture grâce à l'apprentissage. Il semblerait donc  que, même des régions les plus spécialisées du cerveau puissent être le fruit  d'un apprentissage, ce qui montre à quel point la plasticité de cet organe est extraordinaire et ouvre des  perspectives thérapeutiques intéressantes pour la rééducation de patients  souffrant de lésions cérébrales dues à  l'âge ou à la maladie. Article rédigé par Georges Simmonds pour RT Flash Neurology |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Augmenter la durée moyenne de sommeil chez les adolescents  permettrait de réduire sensiblement la prévalence de l'obésité chez les  adolescents, selon une nouvelle étude publiée par l'Université de  Pennsylvanie. Ces travaux qui ont porté sur plus de 1000 élèves de la  région de Philadelphie, montrent en effet que la diminution tendancielle du  temps de sommeil chez les adolescents s'est accompagnée d'une augmentation  corrélée de leur indice de masse corporelle (IMC). Selon cette étude, il serait  souhaitable que les adolescents en surpoids dorment au moins 10 heures par jour,  ce qui les aiderait à retrouver plus facilement un poids normal. "Le taux d'obésité a plus que triplé chez les adolescents au  cours des quatre dernières décennies", explique l'auteur principal de cette  étude, Jonathan A. Mitchell. "Nous avons découvert que chaque heure  supplémentaire de sommeil était associée à une réduction de l'IMC pour tous les  participants de cette étude. En outre, la perte de poids était plus importante  pour les adolescents ayant un IMC plus élevé", ajoute le professeur Mitchell. Selon ces travaux, une simple augmentation du temps de  sommeil journalier de deux heures pourrait se traduire par une réduction de 4  % du nombre d'adolescents ayant un IMC supérieur à 25 kg/m2, soit 500 000  adolescents de moins en surpoids. L'étude souligne qu'il serait souhaitable de retarder le  début de la journée scolaire dans les établissements secondaires afin permettre  un allongement du temps de sommeil et de contribuer ainsi à réduire l'obésité  chez les adolescents.  Article rédigé par Elisa Tabord pour RT Flash Pediatrics |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs du centre de recherche vétérinaire de Maryland  ont identifié un virus de poulet qui pourrait s'avérer très efficace pour  combattre le cancer de la prostate chez l'homme. Les chercheurs ont découvert que le virus génétiquement  modifié de la maladie de Newcastle, une affection dangereuse pour les poulets  mais inoffensive pour l'homme, est capable  de tuer in vitro les cellules cancéreuses de la prostate, y compris dans le cas  de cancers hormono-résistants. Un homme sur six développera au cours de sa vie un cancer de  la prostate. Aujourd'hui, ce cancer se traite relativement bien mais les  traitements disponibles ont des effets secondaires importants. L'utilisation de  ce virus permettrait donc d'ouvrir une nouvelle voie thérapeutique préservant la  qualité de vie du malade. "Nous avons modifié le virus pour qu'il se réplique  uniquement en présence d'un antigène prostatique spécifique. Nous avons  également testé son efficacité dans un modèle de tumeur in vitro et avons  constaté que ce vecteur viral permettait de tuer uniquement les cellules  cancéreuses", souligne le professeur Subbiah qui dirige ces recherches. Le professeur Subbiah est persuadé que ce virus génétiquement  modifié pourrait, à des doses très faibles, éliminer efficacement les cancers de  la prostate et peut-être même prévenir les métastases. Cette équipe a reçu un financement de l'Institut national de  la santé pour poursuivre ses recherches et voir s'il est possible d'utiliser ce  virus modifié de la maladie de Newcastle contre d'autres types de cancer, sein,  pancréas et cerveau notamment. Article rédigé par Georges Simmonds pour RT Flash Virginia Tech |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une étude réalisée par l'université de Floride a montré  qu'une famille de protéines végétales impliquées dans la régulation de la  floraison chez les plantes, les facteurs de transcription AP2, semble jouer un  rôle-clé dans le cycle de reproduction du parasite toxoplasma gondii, à  l'origine de la toxoplasmose. Ces travaux montrent que ces facteurs de transcription  peuvent ralentir ou bloquer, via le facteur AP2IX-9, le développement la  toxoplasmose, en empêchant le parasite de coloniser différents organes du corps  et notamment le cerveau. "Une meilleure compréhension de la façon dont fonctionne  ce mécanisme de contrôle pourrait nous permettre de bloquer la reproduction et  le développement de ce parasite", souligne Michael White, auteur principal de  l'étude. Actuellement, il n'existe ni médicament ni vaccin pour  traiter ou prévenir la phase chronique de la toxoplasmose. Le parasite  responsable de cette maladie peut en effet rester invisible au système  immunitaire pendant des années, avant de se réveiller à la faveur d'un  affaiblissement des défenses naturelles du patient. Comme le souligne le professeur White, "l’histoire évolutive de ce parasite est fascinante. Nous avons été stupéfaits de constater que les facteurs contrôlant son  développement sont identiques à certaines protéines végétales, comme l'AP2,  impliquées notamment dans l'adaptation des plantes au stress hydrique. Nous  pensons que les lointains ancêtres de ce parasite ont dû à un moment fusionner  avec une plante primitive, ce qui expliquerait cette surprenante parenté". La toxoplasmose se propage notamment par l'exposition aux  excréments d'animaux infectés, en mangeant de la viande insuffisamment cuite ou  en buvant de l'eau potable contaminée par le parasite. Près de 30 % de la population mondiale pourrait être  infectée par cette maladie parasitaire qui peut s'avérer très dangereuse, voire  fatale pour le fœtus et pour les patients dont le système immunitaire est  affaibli. Article rédigé par Georges Simmonds pour RT Flash PNAS |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs américains de l'Université Johns Hopkins  Bloomberg et du Centre pour enfants Johns Hopkins ont montré que l'exposition à  la fumée du tabac altérait la fonction rénale chez les  adolescents. Selon cette étude, réalisée sur 7 516 adolescents âgés de 12  à 17 ans, l'exposition à la fumée de cigarette pourrait perturber la fonction  rénale à partir de la petite enfance. « L'usage du tabac et l'exposition à la fumée de cigarette  sont des problèmes majeurs de santé pour les adolescents et entraînent des  effets néfastes pour le reste de leur vie », souligne Ana Navas-Acien, auteur  principal de l'étude. Les chercheurs ont constaté l'existence d'une corrélation  entre les concentrations sériques de cotinine, un marqueur biologique de  l'exposition au tabac, et le rapport albumine-créatinine. Des études antérieures portant sur l'exposition au tabac chez  les adolescents américains ont par ailleurs montré que plus de 600.000  collégiens et 3 millions de lycéens fument régulièrement, ce qui provoque  l'exposition un tabagisme passif pour 15 % des adolescents américains. Chez les adolescents, le tabagisme actif a été associé à un  risque accru d'asthme, de bronchite, d'athérosclérose et de cancer ainsi qu'à  une mortalité prématurée à l'âge adulte. Selon le Centre américain de contrôle et de prévention des  maladies, le tabagisme est également un facteur de risque pour plusieurs  maladies auto-immunes, dont la maladie de Crohn et la polyarthrite  rhumatoïde. « Le tabac peut à présent  être considéré comme un facteur de risque dans les maladies chroniques du rein.  Prévenir le tabagisme chez les jeunes est essentiel car nous savons que les  trois quarts des adultes qui fument ont commencé la cigarette avant 18 ans »,  ajoute Ana Navas-Acien. Article rédigé par Elisa Tabord pour RT Flash Eurekalert |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs dirigés par Martin Liebensteiner de  l'Université de Wageningen aux Pays-Bas ont montré pour la première fois qu'Archaeoglobus fulgidus, une bactérie extrêmophile de la famille des Archea, est  capable de survivre et de se développer dans les profondeurs océaniques en  synthétisant son énergie à partir du chlorate et du perchlorate. Le plus étonnant est que ces chlorates et perchlorates ne se  trouvent pas couramment dans l'environnement de cette bactérie qui vit à  proximité des sources chaudes océaniques d'origine volcanique. En général, pour réduire les chlorates et les perchlorates,  le métabolisme des bactéries produit de la chlorite toxique, qui est ensuite  décomposée en chlorure et oxygène. Mais dans le cas de cette bactérie Archaeoglobus fulgidus,  cette réaction chimique n'est pas possible car elle ne possède pas l'enzyme  nécessaire à sa catalyse. Au cours de sa longue  évolution, cet organisme a donc "innové". Elle  a appris à dégrader le chlorite par  une chaîne de réactions chimiques impliquant des composés soufrés. Le chlorite  réagit avec les sulfures pour produire des molécules plus fortement oxydées telles que les sulfates. Selon le professeur Liebensteiner, cette remarquable capacité  d'adaptation à un milieu hostile montre  qu'il n'est pas impossible que des bactéries similaires aient réussi à se  développer et soient peut-être encore présentes sur Mars. Article rédigé par Georges Simmonds pour RT Flash Phys.org |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Après plus de 10 ans de recherches, c'est peut-être une  découverte révolutionnaire qui vient d'être annoncée par des scientifiques  américains de l'École de Médecine de Stanford. Ceux-ci viennent en effet de montrer qu'il était possible,  en utilisant un anticorps spécifique nommé CD47, de bloquer chez l'animal le  développement de la plupart des cancers. À l'origine de cette découverte, on trouve un biologiste,  Irving Weissman, qui avait déjà montré il y a plusieurs années le rôle-clé de  cet anticorps CD47 dans la mobilisation du système immunitaire contre certains  types de lymphomes et de leucémies. Mais ce que montrent ces nouvelles recherches, c'est que cet  anticorps CD47, qui bloque une protéine essentielle au développement des  cellules tumorales, semble être en mesure de mobiliser efficacement le système  immunitaire contre une grande variété de cancers différents. Des expérimentations sur la souris ont confirmé, pour une  grande variété de cancers, l'efficacité thérapeutique de cet anticorps. Dans le  cas des souris ayant développé un cancer de la vessie, toutes les souris n’ayant pas été traitées avec cet anticorps ont vu leur tumeur s'étendre plus rapidement. En  revanche, les souris de l'autre groupe auxquelles on avait injecté cet anticorps  ont vu, dans neuf cas sur 10, leur cancer se stabiliser  durablement. Encore plus encourageant, dans le cas des souris souffrant  d'un cancer du côlon, le traitement à l'aide du CD 47 a permis de ramener la  tumeur au tiers de sa taille initiale. D'autres souris souffrant d'un cancer du sein ont vu leur  tumeur disparaître complètement et n'ont pas connu de récidive à leur maladie  quatre mois après l'arrêt du traitement. « Ces multiples expérimentations sur l'animal sont  particulièrement encourageantes et montrent que le CD 47 semble être non seulement capable de bloquer le  développement d'une grande variété de  cancers mais également en mesure de  prévenir les métastases » précise le Professeur Weissman. Compte tenu de ces résultats, l'institut de Californie vient de  débloquer un budget de 20 millions de dollars pour commencer le plus rapidement  possible des essais cliniques de ce traitement chez l'homme. Article rédigé par Georges Simmonds pour RT Flash Science PNAS MD |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une vaste méta-analyse, réalisée sur plus de 120 000  participants en bonne santé par des  chercheurs de l'Imperial College de Londres et de la Warwick Medical School a  montré qu'une augmentation du niveau de concentration du potassium dans  l'alimentation, combinée à une diminution de la consommation de sel, permet à la  fois de réduire sensiblement la pression artérielle et le risque d'accident  vasculaire cérébral. Cette étude montre que la consommation supplémentaire  quotidienne de deux à trois portions de fruits et légumes frais, riches en  potassium, s'avère très bénéfique dans la prévention des accidents vasculaires  cérébraux. L'augmentation du potassium dans l'alimentation semble  d'autant plus indiquée qu'elle ne s'accompagne d'aucun effet secondaire connu, que  ce soit au niveau rénal ou hormonal. S'appuyant sur cette étude, l'Organisation Mondiale de la  Santé préconise à présent une consommation quotidienne de plus de 4 g de  potassium (ou de 90 à 100 mmol) par jour, ce qui correspond à une consommation de  cinq portions de fruits et légumes par jour. Le potassium se trouve dans la plupart des types  d'aliments, mais surtout dans les fruits, comme les bananes, les légumes  secs, les noix, les graines, le lait, le  poisson, le poulet et le pain. L'étude souligne que nos ancêtres avaient un régime  alimentaire riche en potassium mais la transformation industrielle des aliments  a nettement réduit cette teneur en potassium. Aujourd'hui, on estime que la  consommation quotidienne moyenne de potassium dans la plupart des pays  développés est inférieure à 3 g par jour. L'étude précise également qu'une augmentation du niveau de  potassium à 4 g par jour diminuerait de 24 % le risque d'accident vasculaire  cérébral chez l'adulte. S'agissant de la consommation de sel, les chercheurs  britanniques ont analysé les résultats de 34 études impliquant plus de 3.000  personnes. Ils ont constaté qu'une réduction, même modeste, de la  consommation de sel pendant un mois entraîne une baisse significative de la  tension chez les personnes souffrant d'hypertension artérielle. Fait  intéressant, cette diminution de la tension est obtenue indépendamment du sexe,  de l'origine ethnique et de l'âge des personnes. Selon le Professeur Graham MacGregor, impliqué dans cette  étude, l'idéal serait de réduire pratiquement de moitié notre consommation  quotidienne de sel et de descendre à 5 g par jour, contre 9,5 aujourd'hui. Mais  ce chercheur souligne que cet objectif sera difficile à atteindre car la majeure  partie du sel que nous consommons est directement incorporé dans les produits et  préparations alimentaires que nous mangeons. Article rédigé par Georges Simmonds pour RT Flash BBC |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs américains des universités de l'Alabama et de  Cincinnati, dirigés par le professeur Szaflarski, ont éclairci les raisons  pour lesquelles certains patients victimes d'AVC récupèrent bien de  l'aphasie consécutive à cet accident (dans un tiers des AVC) alors que d'autres  n'y parviennent pas. Selon cette étude, il semblerait que la réorganisation de la  fonction du langage dans l'hémisphère droit soit de mauvais augure pour une  bonne récupération de cette fonction. Les chercheurs ont en effet constaté que les patients qui  parviennent à récupérer correctement de leur aphasie après un AVC sont ceux dont  les fonctions du langage se réactivent dans l'hémisphère gauche. On sait qu'après un AVC le niveau et le temps de récupération  des fonctions cérébrales et cognitives varient  très sensiblement d'un individu à l'autre. Ce processus de récupération  est modulé par plusieurs facteurs assez bien connus. Mais le degré de la  contribution à ce processus des aires cérébrales non touchées par cette  pathologie est beaucoup moins clair. Ces travaux ont porté sur 27 adultes droitiers victimes d'un  infarctus cérébral dans l'hémisphère gauche au moins un an avant le début de  l'étude. Les patients ont subi une batterie de tests cognitifs et ont  été suivis par IRM fonctionnelle (IRMf) afin de cartographier leur activité  cérébrale liée au langage. Les auteurs ont constaté que, dans ce domaine du langage,  les performance étaient sensiblement meilleures chez les patients qui présentaient les signes  les plus intenses d’activité cérébrale  dans l'hémisphère gauche. En revanche, ces  performances étaient les plus mauvaises chez les patients présentant une  forte activité cérébrale dans l'hémisphère droit. Ces travaux montrent donc que, même si la restauration de la  fonction du langage dans l'hémisphère droit est possible chez les enfants, une  telle restructuration semble au contraire constituer un obstacle très difficile  à surmonter chez les adultes pour lesquels l'activation de l'hémisphère gauche  semble indispensable pour une bonne récupération du langage. Article rédigé par Georges Simmonds pour RT Flash Eurekalert |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs de l'Inserm (Institut du cerveau et la  moelle épinière, Hôpital de la Pitié-Salpêtrière) viennent de montrer le rôle majeur  d'un seul gène qui semble fortement impliqué dans le déclenchement de plusieurs  types d'épilepsie focale. Les épilepsies focales représentent environ les deux tiers  de l'ensemble des épilepsies. Elles comprennent notamment les épilepsies  familiales du lobe temporal et les épilepsies familiales à foyer  variable. En travaillant sur 16 familles dont les membres sont  atteints de différentes formes d'épilepsie et en utilisant les nouvelles  techniques de séquençage d'ADN à très haut débit, ces chercheurs ont pu établir  le rôle majeur du gène DEPDC5 dans le déclenchement de ces pathologies. Ces  travaux ont notamment montré qu'une mutation altérait expression du gène dans la  production d'une protéine dont la fonction reste à élucider. Ces recherches ont également montré que cinq mutations  différentes de ce seul gène étaient retrouvées dans 37 % des cas. En s'appuyant sur  ces avancées fondamentales, des progrès en termes de diagnostic et de traitement  sont envisageables. "Ces travaux démontrent que ce gène est un dénominateur  commun à des syndromes épileptiques longtemps considérés comme distincts du fait  de la localisation cérébrale différente du foyer et de l’expression  électro-clinique différente observée lors des crises", précise l'étude. Article rédigé par Georges Simmonds pour RT Flash Nature |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une vaste étude espagnole publiée le 3 avril dans le  prestigieux New England Journal of Medicine confirme les bienfaits du régime  méditerranéen en matière de protection cardio-vasculaire. Cette étude qui a duré cinq ans portait sur près de 7500  personnes âgées de 55 à 80 ans. Elle a permis de confirmer que l'adoption d'un  régime méditerranéen complété par une consommation régulière d’huile d’olive et d’huile de noix permettait de diminuer de 30 % le  risque de maladies cardio-vasculaires. Ces travaux ont été effectués dans le cadre de l'étude à long  terme PREDIMED, destinée à évaluer les effets du régime méditerranéen sur la  prévention primaire des maladies cardiovasculaires chez les sujets à haut  risque. Commentant ces recherches, le Professeur Jordi Salas-Salvadó,  Président du Forum mondial pour la recherche sur la nutrition, a souligné que "Pour  la première fois, une étude scientifique de grande envergure a pu démontrer  l'efficacité du régime méditerranéen dans la prévention primaire des pathologies cardio-vasculaires. Ce travail  confirme le rôle protecteur des acides gras contenus dans l'huile d'olive et  l'huile de noix et doit nous conduire à revoir nos recommandations  nutritionnelles". Article rédigé par Georges Simmonds pour RT Flash NEJM |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Les chercheurs de l'université d'Oxford en Grande-Bretagne  ont réussi, en utilisant une émulsion composée de gouttelettes d’eau et d'huile, à produire à l'aide d'une  imprimante 3D, un tissu synthétique qui reproduit certaines fonctions  biologiques. Pour l'instant, ces structures peuvent contenir jusqu'à 35 000  gouttelettes mais elles pourraient dans l'avenir servir « d'échafaudage » pour  produire des tissus synthétiques capables de se substituer aux tissus  vivants. Pour réussir cette prouesse, les chercheurs ont conçu une  imprimante à double buse qui peut simultanément projeter des types de  gouttelettes différentes. Grâce à cette technique, les micro-gouttelettes aqueuses  s'auto assemblent en formant des couches lipidiques et en constituant finalement  un matériau pouvant remplir certaines fonctions biologiques. Ces réseaux de gouttelettes peuvent notamment intégrer des  protéines membranaires et véhiculer des signaux électriques le long d'une voie  spécifique. Ces structures pourraient servir d'interface avec les tissus vivants  et ouvrent une nouvelle voie en ingénierie tissulaire. Article rédigé par Georges Simmonds pour RT Flash Nature Science |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude de la Rand corporation, un institut privé de  recherche, le coût des démences pathologiques aux États-Unis serait  actuellement compris entre 157 et 215 milliards de dollars par an, soit environ  2000 $ par foyer américain et par an. Cette dépense considérable pourrait  doubler d'ici 2040 et elle est déjà supérieure à celle consacrée au traitement  du cancer ou des maladies cardio-vasculaires. C'est la prise en charge dans des institutions spécialisées  qui représente la dépense la plus importante, suivie par les prestations et  services médicaux, souligne cette étude réalisée à la demande de l'Institut  national du vieillissement. "Le fardeau économique de la prise en charge des personnes  atteintes de démence aux Etats-Unis est lourd et s'alourdit de plus en plus",  souligne Michael Hurd, principal auteur de l'étude qui rappelle que Medicaid, le  principal fonds public d'aide aux dépenses de santé prend en charge environ 11  milliards de dollars par an au titre des soins de la démence. "Nos travaux confirment que notre pays doit accroître son  effort et prendre à bras-le-corps ce problème qui va ne faire  que progresser au cours des prochaines  années à cause du vieillissement de notre population", ajoute Michael  Hurd. En 2011, le Président Obama a promulgué le "National  Alzheimer's Project Act", une loi qui prévoit une meilleure prise en charge  médico-sociale de la maladie d'Alzheimer. Selon ce rapport, cette évaluation financière de la  dégénérescence mentale doit être considérée comme un minimum car elle ne prend  pas en compte le coût des autres pathologies induites dont souffrent les malades  d'Alzheimer. En revanche, le rapport prend en compte l'évolution du degré  de gravité de cette démence et l'aggravation de la perte d'autonomie qui en  résulte. On estime qu'à l'heure actuelle, 15 % des Américains de plus de 70 ans seraient atteints de démence, soit environ 5 millions de  personnes et ce nombre pourrait atteindre 13 millions d'ici 2040. Article rédigé par Georges Simmonds pour RT Flash UOF NEJM |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des chercheurs de l’Inserm et du CEA ont montré qu'en  bloquant l'action de la molécule TGFβ, il était possible d'augmenter  sensiblement la production de nouveaux neurones chez la souris. Ces résultats prometteurs ouvrent la voie à des outils  thérapeutiques ciblés permettant d'accélérer la production de neurones pour  compenser l'altération des facultés cognitives chez les personnes âgées. La neurogenèse (formation de nouveaux neurones dans un  cerveau adulte) peut être ralentie ou  stoppée par différents facteurs, tels que l'âge, certaines pathologies, comme  des tumeurs ou les maladies dégénératives. Ces recherches ont permis de montrer que, contrairement à ce  qu'on pensait jusqu'à présent, le vieillissement ou les radiothérapies  n'entraînent pas une destruction complète des cellules-souches neurales d'où  sont issus les nouveaux neurones. Les chercheurs ont en effet découvert que ces  cellules-souches restent présentes en petite quantité dans une ère cérébrale  spécifique, la zone sous ventriculaire. Le  problème est que ces cellules-souches « survivantes » semblent être désactivées et ne sont plus capables de  fonctionner correctement. Les chercheurs ont pu constater que l'augmentation du niveau  de concentration de la cytokine TGFβ entraînait une désactivation de ces  cellules-souches et un arrêt progressif de la production de nouveaux neurones. Comme le souligne Marc-André Mouthon, l’un des responsables  de ces recherches, « nos travaux montrent que la neurogenèse diminue pendant le  vieillissement et après une irradiation à forte dose, mais que beaucoup de  cellules-souches survivent pendant plusieurs mois. Nous avons également établi  que le blocage de la TGFβ pouvait restaurer la production de nouveaux neurones  chez des souris irradiées ou âgées. » Les chercheurs vont à  présent essayer de trouver le moyen de bloquer la TGFβ chez l'homme, ce qui  permettrait de limiter sensiblement les lésions cérébrales et le déclin cognitif  provoqués par la radiothérapie ou le vieillissement. Article rédigé par Georges Simmonds pour RT Flash EMBO |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Pour la première fois, des chercheurs de l'université de  Caroline du Nord ont réussi à isoler des cellules-souches adultes provenant de  tissu intestinal humain. Cette avancée devrait permettre d'ouvrir de nouvelles voies  thérapeutiques pour traiter les pathologies et maladies inflammatoires de  l'intestin mais également pour atténuer les effets secondaires souvent très  lourds de la chimiothérapie et la radiothérapie utilisées pour soigner les  cancers qui touchent cet organe. Comme le souligne le principal auteur de l'étude, le  professeur Scott T. Magness, "la possibilité enfin offerte de produire et  d'isoler les cellules-souches issues de l'intestin devrait sensiblement  accélérer les recherches que nous menons". Pour mettre au point  cette technique, les chercheurs ont  transposé le savoir-faire qu'ils avaient acquis  en matière de cellules-souches chez la souris. Ils ont notamment établi  que des marqueurs membranaires spécifiques, appelés CD24  et CD44 étaient les  mêmes chez la souris et chez l'homme. Ils sont ensuite parvenus, après avoir marqué les cellules-souches par fluorescence, à isoler ces cellules dans le tissu intestinal humain  et à distinguer deux types de cellules-souches différents. "Maintenant que nous franchi cette première étape importante,  nous allons aller plus loin et essayer d'évaluer le potentiel de ces cellules-souches dans différentes thérapies cellulaires. Nous allons également essayer de  voir si nous pouvons modifier génétiquement ces cellules pour traiter plus  efficacement les nombreuses pathologies qui touchent l'intestin" souligne le professeur Magness. Article rédigé par Georges Simmonds pour RT Flash Eurekalert |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Anthropologie et Sciences de l'Homme
                                    								|  |  |  
                                    								|  | Homme |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Selon une étude réalisée par l'université autonome de Madrid,  la population mondiale pourrait se stabiliser vers le milieu de ce siècle. Ces résultats concordent avec les dernières prévisions à la  baisse publiées par l'ONU. Selon les estimations des Nations Unies, la  population mondiale en 2100 se situerait dans une fourchette comprise entre 6,2 et 15,8 milliards de personnes. L'étude espagnole confirme la tendance basse de ces prévisions et prévoit une stabilisation et même une légère diminution de la  population mondiale vers 2050. Comme le souligne le professeur Muñoz, responsable de cette  étude, "jusqu'au milieu du XXe siècle, nous avions à la fois un taux de natalité  et un taux de mortalité élevés. Mais le taux de mortalité a fortement baissé  dans la seconde moitié du 20ème siècle, grâce aux progrès médicaux et à  l'amélioration des conditions de vie dans de vastes parties du monde. Enfin,  depuis 30 ans, nous assistons à une forte diminution globale des naissances au  niveau mondial." Cette étude souligne que le spectre de la surpopulation,  souvent redouté au cours des années 60 et  70, s'éloigne de plus en plus. En 1992, l'ONU avait prévu qu'il y aurait  7,17 milliards de personnes sur Terre d'ici 2010, alors que nous n'en sommes  encore qu'à 6,9 milliards. Une des raisons de cette décélération démographique  est que le taux de fécondité a diminué de  plus de 40 % depuis 1950. Ces travaux soulignent qu'il faut dès à présent prendre en  compte ces projections et en tirer les conséquences sur le plan économique,  social et politique. « Il est clair à présent que le défi qui nous attend dans  la deuxième moitié de ce siècle n'est pas la surpopulation mais bien le  vieillissement accéléré de la population mondiale » ajoute le professeur Munoz. Article rédigé par Georges Simmonds pour RT Flash Science News |  |  |  
			| ^ Haut |  |  |  |  |  |  
							
								|  | 
										
											| VOTRE INSCRIPTION |  |  |  
											| Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire.
 Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
 
 |  |  |  |  |  |