RTFlash

RTFLASH Recherche & Technologie
NUMERO 697
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Avril 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Sécurité informatique : les empreintes cérébrales vont-elles remplacer les mots de passe ?
Il est facile d'identifier le propriétaire d'un mobile à partir de ses déplacements
Vers une reconnaissance faciale presque parfaite
Pour se déplacer, les fourmis appliquent le principe de Fermat !
Avenir
La télécommande cérébrale franchit un nouveau pas
Des vitrines interactives pour accéder à des magasins virtuels !
Pourra-t-on un jour lire dans nos rêves ?
Matière
Energie du vent : la voie des éoliennes à axe vertical semble prometteuse
L'énergie solaire photovoltaïque affiche enfin un solde positif
Produire du bio pétrole à partir d'algues
La production industrielle d'hydrogène à partir de végétaux pourrait devenir une réalité
Vers une commutation magnéto optique térahertz en électronique
Espace
Découverte de la plus lointaine supernova de l'Univers
Un moteur ionique utilisant la fusion nucléaire pour aller sur Mars
Terre
La concentration en nutriments des océans est un indicateur clé du changement climatique
Le carbone souterrain influe sur la composition de l'atmosphère des planètes
Un glacier andin vieux de 1 600 ans a fondu en 25 ans
Le réchauffement climatique… augmente la banquise en Antarctique !
Réchauffement climatique : la chaleur stockée dans les océans a été sous-évaluée
Vivant
Les récepteurs d'androgènes : quatrième marqueur du cancer du sein
Le cerveau des sportifs fonctionne mieux que celui des sédentaires
Cancer et développement embryonnaire : un lien biologique fondamental ?
Vers un traitement précoce des cancers de la prostate les plus agressifs
Les ARN interférents, nouvelle arme contre le cancer
Maladies cardio-vasculaires et diabète : quand les petites causes produisent de grands effets !
Les générations adultes d'aujourd'hui sont en moins bonne santé que les générations précédentes
Un médicament utilisé contre l'arythmie cardiaque augmenterait le risque de cancer
Le cuivre permet de lutter efficacement contre les infections nosocomiales
Autisme : l'âge du diagnostic dépend des symptômes spécifiques
Prise en charge de la dépression : l'activation comportementale plus efficace que les antidépresseurs ?
Maladie d'Alzheimer et cholestérol : un lien qui se confirme
La technologie infrarouge au service de la télésurveillance médicale
Emotions : le cœur et le cerveau sont inséparables !
Découverte d'un nouveau lien entre consommation de viande rouge et maladies cardio-vasculaires
Une expérience qui repousse les limites de la plasticité du cerveau humain
Adolescents : le manque de sommeil augmente le risque d'obésité
Un virus prometteur contre le cancer de la prostate
Des protéines végétales pour contrôler la toxoplasmose
Fumer altère la fonction rénale chez les adolescents
Des bactéries extrêmophiles qui se nourrissent de substances toxiques !
A-t-on découvert l'anticorps ultime contre le cancer ?
Le potassium alimentaire diminuerait les risques d'AVC
AVC : la récupération du langage doit privilégier l'hémisphère gauche
Un gène commun à la source de plusieurs formes d'épilepsie
Prévention cardio-vasculaire : le régime méditerranéen confirme ses vertus
Des chercheurs britanniques réussissent l’impression en 3D d'un tissu biologique
Le coût de la maladie d'Alzheimer aux États-Unis dépasse celui du cancer et des maladies cardio-vasculaires
Produire de nouveaux neurones : un rêve qui pourrait devenir réalité
Des cellules-souches adultes obtenues à partir de tissu intestinal
Homme
La population mondiale pourrait se stabiliser en 2050
Edito
LE VIEILLISSEMENT : le nouveau défi mondial !



Si l’on considère l’évolution de la population mondiale depuis l’apparition de notre espèce, on observe cinq grands «moments» démographiques.

Le premier est de loin le plus long et dure plus de 40 000 ans. Au cours de cette période qui va des premiers Homo sapiens à l’Antiquité, le nombre d’êtres humains sur Terre évolue extrêmement lentement. Il passe de quelques milliers d’individus à probablement moins de 100 millions au début de l’ère chrétienne.

Il faudra ensuite encore 18 siècles pour que la population mondiale atteigne le milliard d’habitants vers 1800.

Au cours du XIXe siècle, la démographie mondiale commence à s’accélérer mais en 1900, il n’y a encore qu’1,7 milliard d’habitants sur terre.

Entre 1900 et 1960, la population mondiale va pratiquement doubler pour atteindre les 3 milliards d’habitants. Mais c’est surtout au cours du cinquième « temps » démographique qu’on assiste à une augmentation sans précédent du nombre d’humains sur Terre qui va progresser de 4 milliards d’habitants en à peine un demi-siècle pour atteindre les 7 milliards en 2011.

Face à cette évolution assez vertigineuse, un nouveau concept commence à se répandre et à s’imposer dans les esprits à partir des années 1960, celui de « surpopulation ».

En 1968, le livre de Paul R. Ehrlich, « la bombe P », fait sensation et il est de bon ton, dans les cercles intellectuels, d’évoquer la menace liée à « l’explosion démographique » qui menacerait à court terme notre planète, incapable de nourrir sa population grandissante et de lui fournir les services essentiels, santé, éducation et travail…

Ces prévisions catastrophistes franchirent un nouveau cap en 1970 avec le fameux rapport du Club de Rome qui évoquait le spectre d’un futur apocalyptique marqué par un épuisement des ressources alimentaires et énergétiques à l’échelle mondiale.

Parallèlement à cette envolée démographique mondiale, deux autres phénomènes eurent lieu. Le premier fut une accélération sans précédent de l’urbanisation : un terrien sur 10 vivait dans les villes en 1900 et en 2007 la moitié de la population mondiale habitait en zone urbaine.

L’autre phénomène, que nous avons déjà évoqué à plusieurs reprises dans nos éditoriaux, concerne l’augmentation sans précédent de l’espérance de vie moyenne à la naissance au niveau mondial.

Au cours du seul dernier demi-siècle, comme le montrent toutes les études démographiques, et notamment celles de l’ONU et de l’OMS, l’espérance de vie à la naissance au niveau mondial a connu un bond spectaculaire, passant de 46 ans à 68 ans aujourd’hui (soit + 22 ans d’espérance de vie en 50 ans !)

Contrairement à de nombreuses idées reçues, l’espérance de vie a progressé dans toutes les régions du monde (à l’exception des zones de guerre), y compris dans les pays en voie de développement où elle a également augmenté d’une vingtaine d’années, passant de 36 à 56 ans.

Quant aux famines mondiales catastrophiques qui devaient décimer l’espèce humaine et à l’effondrement économique planétaire qui devait être la conséquence de cette évolution démographique, elles n’ont heureusement pas eu lieu, démentant une fois de plus les prévisions alarmistes et confirmant que la prospective est un art bien difficile !

Au contraire, grâce aux progrès techniques dans tous les domaines et notamment en agriculture et en agronomie, la ration alimentaire moyenne dans le monde a augmenté de plus de 30 % depuis 50 ans pour atteindre les 2 500 calories au début du 21e siècle.

Un seul exemple mais de taille illustre ces progrès incontestables, bien que souvent décriés, dus à la révolution verte. En 50 ans, l’Inde a multiplié sa productivité agricole par 3,5 et sa production de blé par 3 et cet immense pays, qui ne parvenait pas à être autosuffisant en céréales dans les années 60, est devenu exportateur de blé aujourd’hui, alors qu’au cours de cette période, sa population a triplé !

S’agissant de la malnutrition au niveau mondial, il faut également battre en brèche certaines idées reçues et rappeler, comme l’a fait la FAO en octobre 2012, que le nombre total de personnes sous-alimentées dans le monde a diminué de 132 millions entre 1990 et 2010, passant en pourcentage de 18,5 à 12,5 % au cours de cette période.

On voit donc que, non seulement les prévisions catastrophistes des années 60 et 70 ne se sont pas vérifiées, mais que le prétendu lien entre « surpopulation » et malnutrition n’existe pas, puisque le pourcentage de la population mondiale souffrant de malnutrition a été divisé par trois en 50 ans alors que dans le même temps la population mondiale a doublé !

Il reste que la question de l’évolution démographique mondiale est évidemment capitale, compte tenu de l’impact de cette évolution sur le plan économique, social et politique.

Dans sa dernière hypothèse « médiane », l’ONU table à présent sur une population mondiale de 9,3 milliards de personnes en 2050 et 10,1 milliards en 2100. Selon ces dernières prévisions de l’ONU, la croissance démographique mondiale va non seulement poursuivre sa décélération mais atteindre son maximum dans la fin de ce siècle, après quoi la population mondiale commencera lentement à décliner.

Il est vrai que depuis 40 ans, le taux de fécondité mondial a été divisé par deux, passant de 5 à 2,5 enfants par femme.

On estime qu’à présent plus de la moitié des pays du monde ont un taux de fécondité inférieur ou égal au seuil de remplacement des générations (environ 2,1 enfants par femme). C’est le cas en Europe mais également, de manière plus surprenante, au Brésil, en Chine, au Bangladesh et dans la plupart des pays d’Afrique du Nord.

Les travaux de l’ONU montrent bien que le rythme d’augmentation de la population mondiale ne cesse de diminuer depuis un demi-siècle : il est passé de 2 % par an dans les années 60 à un peu plus de 1 % aujourd’hui et devrait continuer à baisser au cours de ce siècle.

On le voit, nous sommes très loin des sombres prévisions que faisaient certains démographes ou économistes il y a encore quelques années. Le vrai défi n’est donc plus de faire face à une prétendue « explosion démographique » mais d’affronter un problème autrement plus redoutable et réel, le vieillissement inéluctable et accéléré de la population mondiale.

En effet, selon les dernières prévisions de l’ONU, l’espérance de vie devrait continuer à augmenter au niveau mondial et passer de 68 ans en 2010 à 81 ans à la fin de ce siècle (sans doute près de 90 ans dans les pays développés, compte tenu des progrès médicaux prévisibles), ce qui se traduira par un vieillissement considérable de la population mondiale, tant en valeur relative qu'en valeur absolue.

Les personnes de plus de 60 ans qui ne représentaient que 8 % de la population mondiale en 1955 en représentent 12 % aujourd’hui et en représenteront 20 % en 2050, soit près de 2 milliards de personnes !

Quant aux personnes de plus de 80 ans, elles seront au moins 400 millions en 2050, c’est-à-dire presque quatre fois plus qu’aujourd’hui et 25 fois plus qu’en 1950.

L’âge médian de la population mondiale devrait, pour sa part, gagner 10 ans d’ici le milieu de ce siècle pour arriver à 36 ans.

Les conséquences de ce vieillissement démographique mondial vont être incalculables. En premier lieu, comme l’ont calculé certains économistes, l’expérience humaine accumulée (qui prend en compte le nombre d’habitants de la planète ayant plus de 40 ans d’expérience professionnelle) va doubler au cours de ce siècle, passant de 200 à 420 milliards d’années.

Pour la première fois dans l’histoire de l’Humanité, quatre générations vont coexister durablement, dont trois dans la sphère économique et professionnelle. L’espèce humaine va donc disposer d’un capital vivant de savoir et d’expérience d’une richesse extraordinaire.

Mais cela suffira-t-il à compenser l’impact du vieillissement mondial sur les économies et les sociétés ? Personne ne peut le dire aujourd’hui. Les fameux BRICS (Brésil, Russie, Inde, Chine et Afrique du Sud) qui représentent déjà un quart de l’économie mondiale et en représenteront la moitié à l’horizon 2050, risquent en effet d’être confrontés à des problèmes gigantesques pour « absorber » ce choc démographique sans précédent et, comme le soulignent, non sans cynisme, certains économistes, ils risquent, d’ici deux générations, de « devenir vieux avant d’être riches ».

Dans ces régions du monde en plein développement économique, la priorité est en effet à la croissance et il n’existe pour l’instant aucun système global de protection sociale et de retraite qui puisse assurer une vie décente aux personnes âgées dont le nombre va pourtant exploser au cours des 50 prochaines années.

Mais d’une manière plus générale encore, personne ne sait aujourd’hui comment le monde, y compris les pays les plus développés comme le nôtre, va prendre en charge sur le plan économique, social et médical les 400 ou 500 millions de personnes de plus de 80 ans qui vivront sur Terre au cours de la deuxième moitié de ce siècle.

Cette question constitue sans doute, avec la lutte contre le réchauffement climatique et la transition énergétique, le plus grand défi de civilisation que nous allons devoir relever.

Il s’agit d’un problème d’autant plus redoutable que, si le rythme de progression de l’espérance de vie se maintient depuis des décennies et devait, selon toute probabilité, se poursuivre dans les années à venir, il ne semble pas en aller de même en ce qui concerne la progression de l’espérance de vie sans incapacité, indicateur qui mesure combien d’années de vie autonome en moyenne peut espérer disposer une personne de plus de 60 ans.

Selon de récentes études, cette espérance de vie sans incapacité, après avoir constamment augmenté depuis des décennies, connaîtrait une légère diminution dans certains pays, dont la France, sans que l'on puisse savoir si cette diminution est « accidentelle » ou exprime une tendance plus fondamentale.

Face à cette situation pour le moins préoccupante, nous devons d’abord accentuer notre effort de recherche au niveau national et européen, afin de trouver de nouvelles solutions thérapeutiques aux grandes pathologies liées à l’âge (en particulier, le cancer, les démences liées aux maladies neurodégénératives et les maladies cardio-vasculaires), grâce aux thérapies cellulaires et géniques.

Mais cela ne suffira pas et nous devons également généraliser le plus rapidement possible toute une panoplie de « Gérontechnologies » sans lesquelles il ne sera pas possible pour nos sociétés de prendre en charge à un coût supportable l’indispensable accompagnement médico-social de nos aînés.

Deux axes technologiques vont devoir être développés avec force pour permettre aux personnes très âgées de conserver leur autonomie et une bonne qualité de vie jusqu’au terme de leur vie. En premier lieu, il va falloir utiliser toutes les ressources de la télémédecine, bio-implants, télésurveillance médicale, systèmes domotiques spécialement conçus pour aider les seniors.

Mais il faudra également, de manière complémentaire, généraliser la robotique d’assistance personnelle qui deviendra un outil irremplaçable d’accompagnement et d’assistance pour les personnes très âgées. A cet égard, le Japon, très en avance sur le reste du monde, constitue un exemple dont nous ferions bien de nous inspirer davantage.

Malheureusement, nous n’avons pas encore pris toute la mesure de ce défi du vieillissement mondial. Nous devons comprendre que nous ne pourrons pas le surmonter en y appliquant les solutions d’aujourd’hui mais qu’il nous faudra innover radicalement dans tous les domaines, pour que la vieillesse ne soit plus seulement synonyme de déclin et de charges supplémentaires pour la collectivité mais devienne pour tous une période de plénitude existentielle, d’épanouissement et de créativité.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Sécurité informatique : les empreintes cérébrales vont-elles remplacer les mots de passe ?
Jeudi, 11/04/2013 - 07:29

Les innombrables mots de passe informatiques avec lesquels nous devons jongler à longueur de journée seront-ils bientôt relégués aux oubliettes ? Peut-être, si l'on en croit une étude américaine.

Des chercheurs de l'Université de Californie, à Berkeley, affirment en effet qu'il est possible de remplacer le traditionnel mot de passe par une identification à l'aide de "l'empreinte cérébrale".

Selon ces chercheurs, un casque utilisant un seul capteur pouvant recueillir un signal électroencéphalographique provenant de l'hémisphère gauche de notre cerveau pourrait, dans un proche avenir, permette de s'identifier pour accéder à ses données informatiques. Les chercheurs précisent qu'un tel casque serait en apparence absolument identique à ceux utilisés pour écouter de la musique ou aux oreillettes Bluetooth qui servent à téléphoner.

Ces recherches ont montré que les capteurs actuels sont déjà capables de recueillir un signal cérébral exploitable et permettant un bon niveau d'identification des utilisateurs.

"L'utilisation de signaux provenant des ondes cérébrales est envisageable dans le cadre d'une d'identification informatique à haut niveau de sûreté" soulignent ces chercheurs, qui ont présenté leurs travaux à l'occasion de la Conférence internationale sur la cryptographie et la sécurité des données financières à Okinawa, au Japon.

Article rédigé par Georges Simmonds pour RT Flash

UPI

Il est facile d'identifier le propriétaire d'un mobile à partir de ses déplacements
Mercredi, 10/04/2013 - 21:51

Une équipe de recherche regroupant des scientifiques de l'université catholique de Louvain et du MIT vient de montrer qu'il était facile d'identifier l'utilisateur d'un téléphone mobile à partir de quelques données simples liées à ses déplacements.

Quand nous utilisons notre mobile, nous savons qu'il est possible de localiser sa position et ses déplacements mais nous considérons qu'a priori, ces informations sont anonymes. Mais une étude réalisée par les chercheurs de l'UCL, sous la direction d'Yves-Alexandre de Montjoye, a montré, à partir de l'analyse de 15 mois de données concernant 1,5 million d'utilisateurs, qu'il était bien plus facile qu'on pouvait l'imaginer d'identifier un possesseur de téléphone mobile uniquement sur la base de ses déplacements spécifiques.

Selon ces travaux, avec seulement quatre points de données, il est possible d'identifier dans une base de données un utilisateur de téléphone mobile, même si cette base ne contient ni noms, ni numéros de téléphone !

Comme le souligne, non sans malice cette étude : "En 1930, le savant français Edmond Locard avait montré que 12 points étaient nécessaires pour identifier une empreinte digitale. Nous montrons dans nos travaux que, dans la majorité des cas, quatre points seulement suffisent dans une vaste population pour identifier le propriétaire d'un téléphone portable".

Cette étude, qui a eu un certain retentissement dans la communauté scientifique, ne va pas manquer d'alimenter le débat sur la protection de la vie privée et de l'anonymat dans le cadre de l'utilisation des technologies numériques.

Article rédigé par Georges Simmonds pour RT Flash

Nature

UCL

Vers une reconnaissance faciale presque parfaite
Mercredi, 10/04/2013 - 21:41

Un chercheur japonais travaillant à l'université Paul Sabatier (Toulouse) a mis au point un système informatique qui permet non seulement de reconnaître avec une précision sans précédent un visage humain mais est également capable d'évaluer l'âge de la personne filmée.

Pour atteindre une telle précision, ce chercheur a développé de nouveaux types d'algorithmes et de nouveaux outils mathématiques. Ce système utilise notamment la technique de l’analyse en composantes principales qui divise l'image autour de deux axes et mesure ensuite la distance qui sépare les différents pixels situés part et d'autre de ces axes. Cet outil permet d'atteindre un taux de reconnaissance de 95 %.

Mais ce chercheur est allé plus loin et a imaginé un autre algorithme s'appuyant sur la distance entre les pixels formant une image, ainsi que l'intensité lumineuse émanant de ceux-ci. Avec cet outil, il est possible d'atteindre un taux de reconnaissance faciale de 99 % car le système parvient à recomposer un nuage de points à partir de la totalité des images et à calculer l'écart entre le visage « moyen » obtenu par cette technique et les visages réels contenus dans la base de données. Autre avantage décisif, ce nouveau système permet d'évaluer en temps réel l'âge de la personne avec une précision de 68 %.

Un outil d'une telle puissance et d'une telle précision devrait trouver de nombreuses applications dans de multiples secteurs : la surveillance et la sécurité, l'identification biométrique, les interfaces homme-machine ou encore le commerce virtuel.

Article rédigé par Georges Simmonds pour RT Flash

"La reconnaissance de visage humain par âge et genre"

Pour se déplacer, les fourmis appliquent le principe de Fermat !
Lundi, 08/04/2013 - 08:22

On sait depuis longtemps que les fourmis savent choisir le chemin le plus court pour accéder à une source de nourriture. Comment se comportent-elles quand le chemin le plus court n'est pas le plus rapide ? Cette situation se produit par exemple lorsque les fourmis sont obligées de se déplacer sur deux surfaces différentes, où leurs vitesses de déplacement ne sont pas les mêmes.

Une récente étude américaine montre que, dans ce cas de figure, les fourmis se comportent de la même manière que la lumière quand elle se propage à travers différents supports : dans les deux cas, l'itinéraire choisi obéit au principe de Fermat et privilégie la rapidité.

Les chercheurs ont travaillé sur trois colonies de fourmis, comportant chacune plusieurs milliers d'individus. Ils ont ensuite placé les fourmis dans des boîtes en plastique étanches puis ont relié chaque boîte à des réservoirs de nourriture à l'aide de passerelles ayant des vitesses de déplacement différentes liées aux types de surfaces utilisées.

En intégrant plusieurs facteurs, comme la vitesse moyenne de déplacement sur les différents matériaux, la distance totale à parcourir et les trajets intermédiaires, les chercheurs ont prédit l'angle sous lequel les fourmis devaient passer d'une surface à l'autre pour emprunter l'itinéraire le plus rapide. Conformément au principe de Fermat, cet angle est lié à l'indice de réfraction, qui gouverne la propagation de la lumière lorsqu’elle se déplace dans les milieux différents.

L'expérience a montré que les fourmis finissaient toujours par se comporter dans leurs déplacements selon le principe de Fermat, c'est-à-dire en empruntant non pas le chemin le plus court mais le plus rapide. Pour parvenir à observer ce principe, les fourmis combinent deux moyens parfaitement efficaces : un système dynamique qui se fonde sur  ​​la communication par les phéromones et un mode de coopération sociale. Ainsi, les fourmis peuvent faire preuve d'une grande flexibilité dans leur comportement et choisir en permanence le trajet le plus rapide pour accéder à la nourriture, quelles que soient les modifications de leur environnement.

Ces travaux montrent que les fourmis sont capables d’exploiter collectivement de manière tout à fait remarquable les informations dont elle disposent en établissant des réseaux de communication souples et dynamiques.

Ces résultats pourraient permettre des avancées dans la résolution de problèmes complexes en matière de robotique, de flux logistiques et de gestion de réseaux d'information.

Article rédigé par Georges Simmonds pour RT Flash

Phys.org

^ Haut
Avenir
Nanotechnologies et Robotique
La télécommande cérébrale franchit un nouveau pas
Jeudi, 11/04/2013 - 14:07

Des chercheurs de l'université du Minnesota dirigés par le professeur He Bin, ont mis au point un dispositif qui permet de télécommander par la pensée de petits hélicoptères virtuels. Les chercheurs pensent que cette interface homme-machine pourrait contribuer à restaurer la mobilité et l'autonomie des personnes paralysées et handicapées et pourrait également permettre d'améliorer les capacités motrices dans certaines professions, comme les pilotes d'avion ou les chirurgiens.

Des progrès récents ont permis aux patients tétraplégiques de contrôler par la pensée leur fauteuil roulant mais, jusqu'à présent, la quasi-totalité de ces interfaces reposait sur l'implantation chirurgicale de microélectrodes dans le cerveau. La raison en est simple : l'activité électrique spécifique générée par une pensée précise est extrêmement faible et noyée dans un « bruit de fond » qui la rend difficilement exploitable. Il est donc nécessaire de recourir à ces électrodes implantées pour parvenir à récupérer les signaux cérébraux utiles.

Le problème est que les risques médicaux associés à cette implantation intracérébrale ne sont pas négligeables, d'où l'intérêt de développer des interfaces non-invasives.

En combinant les informations fournies par différentes technologies, les chercheurs sont parvenus, à l'aide de capteurs très sensibles, à extraire les signaux cérébraux pertinents qui correspondent à des commandes et des actions. L'interface ainsi mise au point a permis aux participants à cette expérience de diriger par la pensée des hélicoptères virtuels évoluant sur un écran informatique.

Le système s'est avéré assez précis et fiable pour atteindre un taux de réussite de 85 % dans l'épreuve qui consiste à faire évoluer l'hélicoptère virtuel à travers une succession d'anneaux. "Ces résultats sont très encourageants. C'est en effet la première fois qu'une interface non-invasive de ce type permet la commande et la simulation d'un mouvement complexe dans un espace à trois dimensions", explique He Bin.

Cette expérimentation apporte la preuve du concept dans l'utilisation d'interfaces non-invasives destinées à la commande cérébrale d'un enchaînement d'actions et de mouvements complexes.

"Le champ d'application de ce type d'interface est considérable et je suis persuadé que dans quelques années ces systèmes de commande mentale changeront la vie de nombreuses personnes souffrant de différents types de handicap", ajoute le professeur He Bin.

Article rédigé par Georges Simmonds pour RT Flash

Phys

Des vitrines interactives pour accéder à des magasins virtuels !
Mercredi, 10/04/2013 - 21:36

La société britannique Vivid digital Retail, spécialisée dans les solutions numériques innovantes à finalité commerciale, vient de présenter un système baptisé Wi/Sh qui transforme les vitrines des magasins traditionnels en véritable portail interactif d'accès à un magasin virtuel. Cette technologie très innovante a pour ambition d'associer l'attractivité des magasins physiques et le potentiel d'exploration commerciale de l'Internet et des technologies numériques.

Concrètement, tout est transparent pour l'utilisateur : celui-ci n'a qu'à appuyer sa main sur une zone active de cette vitrine interactive, correspondant au produit ou au service qui l'intéresse. Mais la grande nouveauté, c'est que le client peut se rendre compte en temps réel de l'effet du produit demandé en le voyant sur un mannequin virtuel qui apparaît dans la vitrine. Il a ensuite la possibilité de le faire porter par un mannequin virtuel présent sur la vitrine.

Ce système va encore plus loin et permet également aux clients de modifier ou d'affiner la présentation du produit par un avatar. Bien entendu, si le client désire acheter ainsi "essayé", il peut le faire directement à partir de cette vitrine en plaçant ce produit dans un panier virtuel. Les clients ont également la possibilité de visualiser et de modifier leurs achats virtuels en utilisant leur mobile qui, par l'intermédiaire d'un tag radio d'un code QR, les renvoie automatiquement sur leur panier où ils peuvent consulter les produits choisis.

Ce système permet non seulement à un magasin physique d'être "ouvert " et virtuellement accessible en permanence mais il crée, par le simple fait de son fonctionnement dans des rues très animées, son propre spectacle, ce qui attire de nouveaux clients.

Article rédigé par Georges Simmonds pour RT Flash

M2mnow

Vivid

Youtube

Pourra-t-on un jour lire dans nos rêves ?
Vendredi, 05/04/2013 - 17:30

Sigmund Freud en aurait sans doute rêvé ! Des chercheurs japonais ont réussi, en utilisant l'IRM, couplée à un système d'analyse des ondes cérébrales, à prédire le type d'image qui se formait dans le cerveau au moment où nous nous mettons à rêver. Selon cette étude, le taux de prédiction de ses images atteindrait 60 %…

L'équipe du Professeur Yukiyasu Kamitani, du laboratoire de recherche en neurosciences de Kyoto, veut à présent essayer de voir s'il est possible, en analysant de manière sophistiquée l'activité du cerveau, d'identifier et de prévoir non seulement les images mais également les émotions ressenties au cours des rêves.

Les chercheurs, dans leurs expériences, ont utilisé l'IRM pour étudier trois personnes dans leur sommeil. À chaque fois que les patients s'endormaient, ils étaient réveillés et racontaient en détail ce qu'ils avaient vu au cours de leurs rêves. Chaque image a été soigneusement décrite et répertoriée. Les chercheurs ont ainsi pu constituer une vaste base de données contenant 600 images. Celles-ci ont ensuite été classées par catégories visuelles.

En comparant l'activité spécifique du cerveau enregistrée par l'IRM quand une personne voyait dans son rêve telle ou telle image et les images enregistrées dans la base de données, les scientifiques ont pu établir des corrélations entre certaines modulations de l'activité cérébrale et certains types d'images. C'est ainsi que les chercheurs ont pu « deviner » avec un taux de réussite de 60 %, ce qui est assez remarquable, quel type d'image, en particulier, avait vu une personne au cours de son rêve.

Les chercheurs vont à présent aller plus loin et essayer d'analyser les rêves qui ont lieu pendant le sommeil profond pour tenter d'identifier et de prédire les émotions, les odeurs, les couleurs et les actions qui constituent nos rêves.

Mais qu'on se rassure, comme le souligne Mark Stokes, chercheur en neurosciences cognitives à l'Université d'Oxford, "Ce travail est très intéressant mais les rêves sont intimement liés à la personnalité et à la vie du rêveur. Il ne sera donc sans doute jamais possible, avec un système d'analyse univoque, de prédire le contenu exact des rêves d'une personne. Tout au plus pourrons-nous identifier quelques types d'images ou d'émotions ressenties par le rêveur".

Article rédigé par Georges Simmonds pour RT Flash

BBC

^ Haut
Matière
Matière et Energie
Energie du vent : la voie des éoliennes à axe vertical semble prometteuse
Jeudi, 11/04/2013 - 07:23

À Igiugig, un village reculé de l'Alaska, des chercheurs du Caltech dirigés par John Dabiri, testent actuellement un nouveau type d'éolienne à axe vertical.

Jusqu'à présent, le modèle de développement de l'éolien a reposé sur la taille croissante des machines et de leurs pales, afin de réduire le coût de production de l'électricité tout en augmentant la quantité globale d'énergie fournie. La nouvelle génération d'éoliennes qui s'annonce table ainsi sur des machines gigantesques de plus de 200 m de haut, équipées de pales pouvant atteindre 80 m de long !

L'équipe du Caltech fait pour sa part le pari que d'autres voies technologiques sont possibles pour réduire le coût de l'énergie éolienne. C'est dans ce but que ces chercheurs ont conçu une petite éolienne à axe vertical très efficace qui présente en outre la particularité de pouvoir fonctionner en synergie avec ses voisines, ce qui augmente la puissance des parcs éoliens composés de ce type de machine.

Ces chercheurs ont déjà démontré la faisabilité de ce type d'éolienne en testant 24 turbines de ce genre en Californie. Dans ce nouveau test, ils veulent installer une soixantaine d'éoliennes à axe vertical et produire une quantité d'électricité équivalente à celle obtenue à partir des générateurs diesel utilisés dans ce village.

Avec les éoliennes classiques, le vent produit des turbulences de part et d'autre des machines, ce qui oblige à les espacer en prévoyant une distance d'autant plus grande que la taille de ces machines est importante. Mais dans le cas des éoliennes à axe vertical, des turbulences produites par le vent peuvent au contraire être utilisées et amplifiées pour accroître la puissance des autres machines, à condition que ces éoliennes soient très précisément positionnées en fonction d'un modèle de simulation informatique.

Ces éoliennes "Dabiri" ne font que 10 m de haut et génèrent une puissance moyenne de 4 kWh. Par rapport à leurs cousines gigantesques, elles sont peu coûteuses à fabriquer et à entretenir, ne font pratiquement pas de bruit et ont un impact visuel réduit. Ce type d'éolienne pourrait donc constituer une solution alternative intéressante en termes de production d'énergie autonome dans les endroits isolés.

 Article rédigé par Georges Simmonds pour RT Flash

MIT

L'énergie solaire photovoltaïque affiche enfin un solde positif
Mardi, 09/04/2013 - 17:09

L'un des principaux reproches adressés au solaire photovoltaïque est qu'il est gros consommateur d'énergie et gros émetteur de CO2 pendant la phase de fabrication des panneaux solaires, ce qui annulerait les bénéfices écologiques liés à la production d'électricité sans émissions de gaz à effet de serre. Mais selon une étude de l'université de Stanford, l'électricité produite par l'ensemble des installations solaires photovoltaïques du monde aurait dépassé en 2012 la quantité totale d'énergie dépensée pour fabriquer ces panneaux solaires.

Cette étude précise que « Malgré un très fort taux de croissance, le solaire photovoltaïque permet à présent, même en intégrant tout son processus de fabrication et d'installation, une réduction nette des émissions de gaz à effet de serre au niveau mondial ».

Si ce résultat a pu être atteint, c'est parce que des progrès considérables ont été accomplis dans la conception et la fabrication des cellules solaires photovoltaïques. Ces avancées ont permis de diminuer sensiblement la consommation d'énergie nécessaire à cette filière énergétique. En outre, ajoute l'étude, l'efficacité des cellules solaires à couches minces utilisant des matériaux abondants, tels que le cuivre, le zinc, l'étain et le carbone, permettent d'espérer d'importants gains énergétiques dans les années à venir.

Au rythme de croissance actuelle, plus de 10 % de la production mondiale d'électricité pourraient être assurés par le solaire photovoltaïque à l'horizon 2020. Avec le bilan énergétique global actuel, la filière photovoltaïque consommerait à cette échéance environ 9 % d'électricité mondiale. Mais si l'intensité énergétique des installations photovoltaïques continue à diminuer au rythme actuel, il  faudra à peine 2 % de la production électrique mondiale pour alimenter cette filière industrielle.

Selon cette étude, l'avenir appartient aux technologies photovoltaïques à basse intensité énergétique n'utilisant pas de silicium. Il s'agit notamment des cellules à base de tellurure de cadmium, de cuivre et d'indium.

Enfin, cette analyse montre que le temps de retour énergétique peut également être réduit en choisissant d'installer préférentiellement les installations photovoltaïques dans les régions à très fort ensoleillement. 

Article rédigé par Georges Simmonds pour RT Flash

EST

Produire du bio pétrole à partir d'algues
Mardi, 09/04/2013 - 16:34

En adoptant une approche similaire à celle utilisée pour la découverte de nouveaux médicaments, les chimistes de l'Université de Californie ont découvert plusieurs composés qui peuvent stimuler la production de pétrole et de biocarburants à partir d'algues microscopiques.

Les microalgues sont des organismes unicellulaires qui, comme les plantes, utilisent la photosynthèse pour capturer le dioxyde de carbone et le transformer en composés organiques complexes, parmi lesquels on trouve de nombreux acides gras et lipides. Les algues marines présentent l'avantage de pouvoir être cultivées dans des bassins d'eau salée et ne sont donc pas en concurrence avec les cultures vivrières.

Les chercheurs ont identifié plusieurs composants susceptibles d'accélérer sensiblement la production de biocarburants à partir de quatre familles de microalgues. Parmi ces composants se trouvent notamment l'épigallocatéchine gallate, présente dans le thé vert et le butylhydroxyanisol (BHA), un conservateur alimentaire commun.

Ces travaux montrent qu'avec cette méthode, la production de biocarburants à partir de microalgues pourrait être rentable dans des bassins d'au moins 50.000 litres. En outre, une fois les huiles extraites des algues, la masse restante peut être utilisée pour l'alimentation animale ou encore l'industrie cosmétique.

Cette étude montre qu'il est possible d'utiliser les techniques de criblage à haut débit issues de la recherche pharmaceutique pour identifier rapidement parmi des milliers de molécules celles qui peuvent accélérer la croissance des microalgues et la production des biocarburants qui en sont issus.

Article rédigé par Georges Simmonds pour RT Flash

UC Davis

La production industrielle d'hydrogène à partir de végétaux pourrait devenir une réalité
Lundi, 08/04/2013 - 08:16

Une équipe de chercheurs du Virginia Tech a découvert un moyen d'extraire de grandes quantités d'hydrogène à partir d'une plante, une percée qui pourrait avoir des conséquences considérables sur la transition énergétique mondiale.

"L'hydrogène est une des sources d'énergie de l'avenir et notre nouveau procédé pourrait contribuer à mettre fin à notre dépendance aux combustibles fossiles", a déclaré YH Percival Zhang, qui dirige ces recherches. Zhang et son équipe ont réussi à utiliser le xylose, une sucre végétal présent dans la plupart des plantes, pour produire une grande quantité d'hydrogène et cette méthode est théoriquement applicable à partir de n'importe quelle source de biomasse.

Cette nouvelle méthode de production d'hydrogène présente des avantages décisifs puisqu'elle n'utilise que des ressources naturelles renouvelables et n'émet pas de gaz à effet de serre.

"Le développement de l'hydrogène, que ce soit dans le secteur des transports, de l'industrie ou l'énergie représente un marché colossal qu'on peut estimer à au moins 1 milliard de dollars par an, rien qu'aux États-Unis", précise Zhang.

Cette percée technologique est le fruit de sept ans de recherches qui ont permis à l'équipe de Zhang d'explorer les voies non conventionnelles de production d'hydrogène à faible coût, notamment à partir de plantes.

Le procédé mis au point par ces chercheurs permet une production d'hydrogène à faible température et à la pression atmosphérique normale. Les biocatalyseurs utilisés pour libérer l'hydrogène sont constitués par un groupe d'enzymes artificiellement extraits de différents micro-organismes qui vivent à des températures extrêmes. Les chercheurs ont choisi d'utiliser le xylose car ce sucre, très commun dans la nature, représente au moins 30 % des parois des cellules végétales.

Grâce à leur technique, les chercheurs ont pu produire de l'hydrogène avec un rendement trois fois supérieur à celui des autres méthodes biochimiques connues. En outre, hydrogène ainsi obtenu est très pur et peut être directement utilisé par les membranes des piles à combustible.

On estime que le marché mondial de l'hydrogène est aujourd'hui d'environ 100 milliards de dollars. Mais pour l'instant, hydrogène est essentiellement produit à partir de gaz naturel, un procédé coûteux et fortement émetteur de CO2.

La possibilité de produire industriellement de l'hydrogène à faible coût, sans émissions de gaz à effet de serre et à partir de biomasse renouvelable, pourrait changer la donne énergétique mondiale au cours des 20 prochaines années.

Article rédigé par Georges Simmonds pour RT Flash

Phys.org

Vers une commutation magnéto optique térahertz en électronique
Lundi, 08/04/2013 - 08:08

Des chercheurs du Laboratoire Ames, de l'université de l'Iowa et leurs collègues grecs de l'université de Crète ont mis au point un nouveau mode de commutation magnétique térahertz (un térahertz est égal à 1000 milliards de hertz) 1000 fois plus rapide que celui couramment utilisé dans les mémoires magnétiques actuelles.

La commutation magnétique est un principe physique qui permet d'enregistrer les informations sur les disques durs et les mémoires vives de nos ordinateurs.

L'équipe gréco-américaine, dirigée par Jigang Wang et E. Perakis, a utilisé des impulsions laser courtes pour créer très rapidement des modifications dans la structure magnétique. L'ordre de grandeur de ces impulsions est la femtoseconde (10-15 secondes).

"Le grand défi de l'écriture, de la lecture et du stockage magnétique est la vitesse et nous avons montré que ce défi pouvait être surmonté avec nos interrupteurs magnétiques ultrarapides qui basculent en moins d'un milliardième de seconde" souligne Jigang  Wang.

La technique mise au point par ces chercheurs permet, grâce à une utilisation en continu du faisceau laser, une écriture et une lecture magnéto-optique ultrarapide des informations numériques sur des matériaux ferromagnétiques.

Cette technologie pulvérise la barrière du gigahertz qui constitue la limite de vitesse de commutation magnétique aujourd'hui. Cette avancée s'est appuyée sur l'utilisation de la magnétorésistance colossale (CMR) de certains matériaux qui présentent la propriété d'être très sensibles aux champs magnétiques extérieurs utilisés pour écrire des données, sans avoir besoin de chaleur pour déclencher la commutation magnétique.

Mais à une telle vitesse, ces mémoires magnétiques du futur devront intégrer les contraintes spécifiques liées aux lois de la physique quantique. Cette nouvelle technologie a d'ailleurs été baptisée "Femto-magnétisme quantique" par les chercheurs.

"Avec notre procédé, la commutation se fait par la manipulation du spin et de la charge quantique", précise Wang qui ajoute : "Notre stratégie consiste à utiliser toutes les ressources de l'optique quantique pour parvenir à maîtriser une commutation magnétique térahertz en utilisant les matériaux CMR. Mais le but de ces recherches est très concret : révolutionner l'électronique et l'informatique en produisant de manière industrielle des mémoires d'une puissance à peine imaginable aujourd'hui".

Article rédigé par Georges Simmonds pour RT Flash

Phys.org

^ Haut
Espace
Espace et Cosmologie
Découverte de la plus lointaine supernova de l'Univers
Lundi, 08/04/2013 - 07:16

Des chercheurs américains du Space Telescope Science Institute à Baltimore, dans le Maryland, et de l'Université Johns Hopkins ont découvert, grâce au télescope Hubble, la supernova la plus lointaine jamais observée à ce jour. Baptisée Wilson (en hommage au président américain du même nom), cette supernova, qui  a explosé il y a plus de 10 milliards d'années, appartient à une catégorie particulière de supernova, appelée 1a.

Ce type de supernova est particulièrement recherché par les astronomes et les physiciens car elles émettent un niveau de luminosité qui peut être utilisé pour mesurer l'expansion de l'Univers. Ce genre de supernova peut également aider les scientifiques dans leurs recherches sur la nature de l'énergie sombre, la force mystérieuse qui accélère l'accélération l'expansion du cosmos.

"Cette découverte va nous permettre de mieux comprendre l'évolution de l'Univers et son expansion et de vérifier un certain nombre de prévisions théoriques prévues par le modèle standard cosmologique", précise David O. Jones de l'Université Johns Hopkins, auteur principal de l'article.

C'est dans le cadre du programme de trois ans lancé en 2010 et destiné à étudier les supernova de type 1a et grâce à la sensibilité extrême de la caméra en infrarouge qui équipe le télescope Hubble que les astronomes américains ont pu réaliser cette observation. Jusqu'à présent, ces mêmes chercheurs ont déjà identifié une centaine de supernovas de différent type qui s'échelonnent dans le passé, de 2,4 milliards d'années à plus de 10 milliards d'années.

Cette supernova "Wilson" est plus éloignée de 4 % que la précédente étoile détentrice du record, ce qui représente un nouveau bon de 350 millions d'années en arrière dans le temps.

Identifiant une supernova de ce type si ancienne, des astrophysiciens espèrent mieux comprendre les deux types d'explosion - selon qu'il y a ou non fusion de deux naines blanches - qui mettent fin à la vie de ces étoiles. Cette connaissance est en effet importante car elle permet de mieux mesurer la vitesse avec laquelle l'Univers s'est enrichi d'éléments lourds, comme le fer. Ces supernovas produisent environ la moitié du fer dans l'Univers, or ce fer constitue la matière première pour la formation des planètes.

Article rédigé par Georges Simmonds pour RT Flash

NASA

Un moteur ionique utilisant la fusion nucléaire pour aller sur Mars
Vendredi, 05/04/2013 - 17:04

Dans le cadre d'un programme de recherche financé par la NASA, des chercheurs de l'université de Washington travaillent actuellement sur la conception d'un moteur ionique à plasma, alimenté par un micro réacteur à fusion thermonucléaire, qui pourrait propulser un engin spatial vers Mars en quelques semaines.

Comme le souligne le chef de ce projet John Slough, "avec les modes de propulsion existants, l'homme ne pourra pas aller très loin dans l'exploration spatiale car la durée des voyages spatiaux avec les moyens actuels se compte en années, ce qui pose de multiples problèmes humains, psychologiques et économiques. Nous devons donc trouver de nouvelles sources d'énergie beaucoup plus puissantes de manière à pouvoir aller beaucoup plus vite".

Le projet de cette équipe a été retenu, avec 15 autres propositions, parmi plus de 700 dossiers de recherche proposés. Avec la technologie actuellement disponible, la NASA estime qu'un aller-retour vers Mars prendrait plus de quatre ans. Hormis les risques et dangers inhérents à un voyage d'une telle durée, cette expédition nécessiterait une énorme quantité de carburant chimique et serait très coûteuse : les coûts de lancement représenteraient à eux seuls plus de 12 milliards de dollars.

Slough et son équipe proposent pour leur part de développer un moteur à propulsion ionique qui consommerait bien moins d'énergie que la propulsion chimique et permettrait surtout de raccourcir le voyage vers Mars à quelques semaines.

Ces chercheurs ont déjà réussi à mettre au point un type de plasma qui reste confiné dans son propre champ magnétique. Un processus de fusion nucléaire s'enclenche lorsque ce plasma est brusquement comprimé par ce champ magnétique à une pression très élevée. L'équipe a testé avec succès cette technique en laboratoire. Avec un tel moteur, les chercheurs soulignent que l'équivalent d'un grain de sable d’hydrogène possède le même potentiel énergétique qu'un galon de carburant (3,8 litres).

Concrètement, l'équipe a mis au point un système dans lequel un puissant champ magnétique agit sur des anneaux métalliques qui compriment le plasma pour le mettre en état de fusion. Même si le temps de compression est très court, l'énergie libérée par la réaction de fusion est suffisante pour ioniser le métal, qui peut être du lithium ou de l'aluminium. Ces ions sont alors éjectés à très grande vitesse, ce qui propulse le vaisseau spatial.

"Contrairement à ce qu'on pourrait penser, la partie mécanique de ce système de propulsion est relativement simple, ce qui vaut mieux car dans l'Espace, tout doit fonctionner de manière très fiable et la moindre défaillance peut avoir des conséquences gravissimes" souligne John Slough.

Quant au risque d'explosion liée au processus de fusion thermonucléaire, les chercheurs soulignent qu'il est très faible car l'énergie embarquée dans un tel vaisseau serait 1 milliard de fois moins importante que celle libérée lors de l'explosion d'une bombe H.

En outre, le concept sur lequel travaille cette équipe repose sur l'utilisation d'un champ magnétique extrêmement puissant pour confiner le combustible de fusion et protéger les astronautes.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La concentration en nutriments des océans est un indicateur clé du changement climatique
Jeudi, 11/04/2013 - 14:13

Selon une étude réalisée par le Centre océanographique national de Grande-Bretagne, basé à Southampton, l'évolution des niveaux de concentration de micro nutriments dans les océans pourrait constituer un indicateur précieux concernant les changements climatiques et environnementaux. Ces travaux démontrent que le cycle des micro-organismes et micro-nutriments marin exerce une influence majeure sur le climat par ses effets biologiques et biochimiques et notamment par sa capacité de séquestration sous-marine du dioxyde de carbone.

Comme le souligne le Professeur Mark Moore, de l'Université de Southampton qui a dirigé l'étude, "Nous avons mobilisé une équipe d'experts internationaux dans le but d'essayer d'y voir plus clair sur cette question fondamentale du rôle et de l'impact des écosystèmes marins sur l'environnement et l'évolution climatique".

Ces travaux montrent que les éléments nutritifs et les micro-organismes jouent un rôle capital, non seulement dans l'activité biologique des océans mais également dans le cycle du carbone, qui se manifeste par des échanges complexes de flux entre l'atmosphère, les océans et la terre.

À cet égard, le professeur Moore souligne que "En dépit de plusieurs décennies de recherche, nous ne comprenons toujours pas toute la subtilité des nombreuses interactions entre les micro-organismes marins, les cycles des nutriments et le stockage du carbone. Grâce à ces travaux, nous commençons à mieux comprendre à quel point les activités humaines influent sur la biologie des océans et de ses écosystèmes, ce qui entraîne, dans une chaîne complexe de rétroactions, des conséquences importantes pour l'évolution du climat de notre planète".

Article rédigé par Gaël Orbois pour RT Flash

Phys

NOC

Le carbone souterrain influe sur la composition de l'atmosphère des planètes
Mardi, 09/04/2013 - 16:43

Une étude réalisée par des chercheurs de la Northwestern University et de la Carnegie Institution de Washington montre la façon avec laquelle le carbone migre des couches profondes d'une planète vers sa surface pour jouer un grand rôle dans l'évolution future de son atmosphère.

Selon ces travaux, lorsque le manteau fond pour former le magma, il piège de carbone du sous-sol. Comme le magma se déplace vers la surface, sa pression diminue et ce carbone est finalement libéré sous forme de gaz. Sur Terre, le carbone est piégé dans le magma avant de ressortir dans l'atmosphère sous forme de dioxyde de carbone, principal gaz à effet de serre, responsable du réchauffement climatique.

Ces recherches permettent de penser que, sur Mars, le carbone du sous-sol a pu libérer de grandes quantités de méthane à cause de l'activité volcanique très intense qui régnait sur la planète rouge dans le passé.

Compte tenu du potentiel radiatif du méthane en matière d'effet de serre, il est donc possible qu'à un moment de son histoire, Mars, même avec une atmosphère ténue, ait connu une température suffisamment élevée pour qu'il puisse y avoir à sa surface d'importantes quantités d'eau à l'état liquide.

Article rédigé par Gaël Orbois pour RT Flash

Brown University

Un glacier andin vieux de 1 600 ans a fondu en 25 ans
Lundi, 08/04/2013 - 07:54

Une étude américaine de l'université de l'Ohio a montré que le plus grand glacier tropical du monde, le glacier péruvien de Quelccaya, situé à plus de 5000 m d'altitude dans les Andes et vieux de 1 600 ans, a connu une fonte accélérée au cours des 25 dernières années. Pendant cette période récente, le glacier a en effet reculé en moyenne de plus de 60 m par an, c'est-à-dire 10 fois plus vite qu'au cours de la période précédente.

L'évolution de ce glacier et son histoire ont pu être reconstituées en analysant les isotopes radioactifs carbone contenus dans les plantes ainsi que la composition chimique des carottes de glace qui ont été forées sur ce site glaciaire.

Selon le docteur Thompson qui a dirigé ces recherches, "ce glacier qui existe depuis plus de 6000 ans, a perdu autant de glace au cours des 25 dernières années qu'il en avait gagnée depuis 1600 ans".

Les scientifiques incriminent directement le réchauffement climatique provoqué par l'augmentation des émissions de gaz à effet de serre comme le principal acteur responsable de cette fonte accélérée du plus grand réservoir d'eau douce d'Amérique du Sud.

Ce glacier tropical est très sensible aux variations de température et sa fonte rapide inquiète la population locale car il joue un rôle capital dans l'approvisionnement en eau potable des communautés et des villes andines pendant la saison sèche.

Comme le souligne Douglas R. Hardy, chercheur à Université de Massachusetts qui connaît bien cette région, "A ce rythme de fonte, des grandes villes comme Lima ou La Paz risquent, d'ici quelques décennies, d'être privées de la moitié de leurs ressources en eau potable, ce qui serait une catastrophe pour les populations concernées".

Article rédigé par Gaël Orbois pour RT Flash

The New York Times

Le réchauffement climatique… augmente la banquise en Antarctique !
Lundi, 08/04/2013 - 07:40

Selon une étude néerlandaise, alors que la banquise arctique a perdu plus de 15 % de sa surface au cours de ces dernières années, le réchauffement climatique a paradoxalement provoqué une extension de plus de 5 % de la banquise en l'Antarctique.

D'après l'étude, publiée dans la revue Nature Geoscience, l'eau douce provenant de la fonte des "langues de glace", qui prolongent la calotte continentale dans l'océan, s'accumule en une couche plus froide à la surface de la mer. C'est ce phénomène qui expliquerait l'extension de la banquise dans le continent Antarctique.

"Contrairement à ce qu'on observe puis plusieurs années en Arctique, la glace de mer entourant l'Antarctique s'est étendue, avec un record en 2010", souligne cette étude qui précise que ce mécanisme pourrait constituer une "puissante rétroaction négative au réchauffement atmosphérique de l'hémisphère sud".

Ces travaux devraient permettre de mieux comprendre et de mieux prévoir l'évolution de la banquise en Antarctique dont la fonte contribue (avec la calotte du Groenland) pour un tiers à la hausse globale du niveau des mers, les deux autres tiers relevant respectivement des glaciers terrestres et de la dilatation thermique des océans.

Article rédigé par Gaël Orbois pour RT Flash

New Scientist

Réchauffement climatique : la chaleur stockée dans les océans a été sous-évaluée
Samedi, 06/04/2013 - 18:07

Une étude du Centre national de recherche sur l'atmosphère des Etats-Unis vient de faire le point sur l'évolution temporelle du contenu thermique des océans de la planète depuis 1958, à partir d'une multitude de données d'origines diverses.

Ces travaux prennent notamment en compte, en les reconsidérant, le rôle des éruptions volcaniques et des phénomènes El Niño qui tendent à refroidir le climat mondial. Ces recherches montrent que le réchauffement global supérieur océanique s'est poursuivi au cours de la dernière décennie et que cette chaleur excédentaire a été absorbée plus profondément dans les océans.

Ce phénomène pourrait expliquer pourquoi, alors que les émissions humaines de gaz à effet de serre s'accentuent, la température moyenne de l'atmosphère semble se stabiliser depuis une dizaine d'années.

On sait en effet que cette chaleur alimente le système thermodynamique mondial, comme le montrent les observations satellitaires portant sur le rayonnement thermique. Il restait donc à comprendre pourquoi cet apport d'énergie supplémentaire ne s'était pas traduit par un réchauffement de l'atmosphère.

C'est à cette question très importante que cette étude apporte des éléments de réponse sérieux. Comme le souligne Kevin Trenberth, coauteur de cette étude, "L'énergie supplémentaire qui est venue alimenter le système climatique peut se manifester de bien des façons :  élévation des températures, fonte de la banquise arctique, modification du cycle de l'eau ou augmentation de la fréquence des épisodes météorologiques extrêmes comme les ouragans. Mais nous ne devons pas oublier qu'in fine 90 % de cette chaleur est réabsorbée par les océans."

Selon cette étude, reposant essentiellement sur les données fournies par le réseau de bouées immergées Argol, au cours de la dernière décennie, au moins 30 % du réchauffement océanique s'est produit en dessous de 700 m, ce qui contribue de manière significative à une accélération de la tendance au réchauffement. L'étude précise que la variabilité du vent de surface est en grande partie responsable de l'évolution dans la distribution de la chaleur océanique.

Cette réévaluation du rôle thermique des océans pourrait avoir comme conséquence un moindre réchauffement de l'atmosphère à court terme mais un réchauffement plus important à long terme, ce qui devrait se traduire notamment par une élévation encore plus forte que prévu du niveau des mers.

Article rédigé par Gaël Orbois pour RT Flash

Wiley

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les récepteurs d'androgènes : quatrième marqueur du cancer du sein
Vendredi, 12/04/2013 - 07:29

Selon une étude américaine de l'université du Colorado, les récepteurs androgènes constituent le quatrième grand marqueur dans le cancer du sein, qui s'ajoute aux trois autres : les récepteurs d'œstrogènes, les récepteurs de progestérone et le gène HER2.

« Nous avons à présent les preuves scientifiques que les récepteurs androgènes constituent bien un nouveau marqueur important dans tous les principaux types de cancer du sein », explique Jennifer Richer, qui a dirigé cette étude.

Ces travaux montrent que les récepteurs d'androgènes constituent une nouvelle cible thérapeutique de choix contre le cancer du sein, notamment pour les patientes dont le cancer n'exprime pas d'autres cibles ou pour celles dont les récepteurs hormonaux aux œstrogènes ont développé une résistance au traitement.

Dans l'ensemble, environ 77 % des cancers du sein sont liés aux récepteurs androgènes et cette étude renforce l'hypothèse d'une efficacité thérapeutique des anti-androgènes, dans certains types de cancer du sein.

Les chercheurs ont pu montrer in vitro que l'enzalutamide, un médicament anti-androgènes bien connu, peut avoir des effets comparables dans certains cas à ceux du tamoxifène, un médicament anti-œstrogènes utilisé pour traiter certains cancer du sein.

Cette étude souligne que les patientes présentant un haut ratio de récepteurs d'androgènes sur récepteurs d'œstrogènes pourraient être de bons candidats pour ce type de thérapie ciblant les récepteurs d'androgènes.

Article rédigé par Georges Simmonds pour RT Flash

SC

Le cerveau des sportifs fonctionne mieux que celui des sédentaires
Jeudi, 11/04/2013 - 14:19

Décidément, le vieil adage romain "Mens sana in corpore sano" semble se vérifier. Des chercheurs de l'Université de Grenade ont en effet démontré que les personnes pratiquant régulièrement une activité sportive réalisent de meilleures performances cognitives que les personnes sédentaires ou pratiquant peu d'exercice physique.

Ces travaux montrent que les personnes actives possèdent à la fois une capacité de concentration et d'attention plus grande lors d'une action ponctuelle et une capacité de réflexion et de planification également plus importante, lorsqu’elles s’engagent dans un ensemble de tâches cognitives s'inscrivant dans la durée.

L'étude a été réalisée sur  28 adultes divisés en deux groupes. Le premier avait un faible niveau d'activité physique alors que le second pratiquait de manière intensive une activité sportive, en l'occurrence le vélo.

Ces recherches confirment la pratique régulière d'un sport améliorant sensiblement le tonus vagal et le fonctionnement du système nerveux. Il semble également qu'une activité physique soutenue et fréquente exerce un effet bénéfique sur le système nerveux, à la fois sur le plan structurel et fonctionnel. Concrètement, l'exercice physique ralentirait sensiblement les processus de neuro dégénérescence en favorisant la neurogenèse (production de nouveaux neurones) et l'angiogenèse (production de nouveaux vaisseaux sanguins) dans plusieurs aires cérébrales et notamment l'hippocampe, le cortex et le cervelet.

"Il est important de souligner que le principal bénéfice cognitif résultant d'une bonne condition physique semble être lié à une meilleure capacité de concentration", précise le Professeur Antonio Luque Casado, auteur principal de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Medical Xpress

Cancer et développement embryonnaire : un lien biologique fondamental ?
Jeudi, 11/04/2013 - 14:02

Un lien biologique et moléculaire fondamental entre croissance cellulaire du fœtus et prolifération anarchique des cellules cancéreuses a été découvert par deux chercheurs américains.

"Nous savions déjà que certains gènes à l’origine de la croissance rapide des cellules lors de la formation de l'embryon sont réactivés dans les cellules cancéreuses", précisent Julian C.Lui et Jeffrey Baron, qui ajoutent : "Mais cette fois, nous avons franchi un pas supplémentaire et pu identifier le mécanisme moléculaire commun à ces deux processus, ce qui devrait nous permettre de progresser considérablement dans la compréhension intime des mécanismes complexes de la croissance cellulaire".

L'étude souligne que, in utero, un ensemble de plus de 200 gènes est à l'œuvre pour commander et réguler la croissance cellulaire nécessaire à la formation du fœtus. De manière logique, après la naissance, ces gènes, après avoir rempli leur rôle, cessent progressivement leur action. Ce qu'ont découvert ces chercheurs, c'est que certains de ces gènes se remettent à fonctionner en cas de cancer, comme le gène IGF2 qui joue un rôle majeur dans le développement embryonnaire et retrouve une intense activité dans certains cancers.

Ces chercheurs ont pu également montrer que c'est la protéine E2F3 qui commande l’activation du gène IGF2, que ce soit dans les processus de croissances cellulaires normaux ou dans la prolifération cellulaire cancéreuse.

Selon ces auteurs, la protéine E2F3 régule non seulement IGF2 mais agit également sur beaucoup d'autres gènes, parmi les 200 répertoriés qui sont impliqués dans la croissance cellulaire.

Cette protéine E2F3 pourrait donc être une sorte "d'interrupteur" fondamental en matière de régulation cellulaire et son ciblage constitue une nouvelle voie de recherche prometteuse en cancérologie.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

HC

Vers un traitement précoce des cancers de la prostate les plus agressifs
Jeudi, 11/04/2013 - 11:11

Une étude britannique réalisée sur plus de 2 000 malades par l'Institut de recherche sur le cancer de Londres et dirigée par le Professeur Ros Eeles a montré que les hommes porteurs d'une mutation spécifique sur le gène BRCA2, déjà impliqué dans le cancer du sein et l'ovaire, ont beaucoup plus de risques de développer une tumeur agressive et un mauvais pronostic de la prostate.

"Cette étude montre que nous devons envisager de traiter les patients porteurs de cette mutation sur le gène BRCA2 le plus tôt possible avec un traitement spécifique plus puissant", souligne le Professeur Eeles. Selon ces travaux, ces malades devraient bénéficier d'une chirurgie ou d'une radiothérapie immédiate, même si leur cancer en est encore à un stade précoce.

Pour parvenir à ces conclusions, les chercheurs ont examiné les dossiers médicaux de 2 019 patients atteints de cancer de la prostate parmi lesquels 61 étaient porteurs de la mutation sur le gène BRCA2. Ces recherches ont permis de montrer que le taux moyen de survie chez les patients porteurs de cette mutation n'était que de 6,5 ans, contre 12,9 pour les malades ne présentant pas cette mutation.

À la suite de ces travaux, les autorités médicales britanniques envisagent de proposer un traitement précoce spécifique aux hommes atteints d'un cancer de la prostate qui sont porteurs de cette mutation génétique.

Article rédigé par Georges Simmonds pour RT Flash

BBC

Les ARN interférents, nouvelle arme contre le cancer
Jeudi, 11/04/2013 - 11:07

À l'occasion de la grande réunion annuelle de l'association américaine pour la recherche contre le cancer (AACR), des chercheurs du Virginia G. Piper Cancer Center à Scottsdale (Arizona) ont présenté les premiers résultats encourageants d'une étude clinique de phase 1 portant sur l'utilisation thérapeutique d'un ARN interférent (ARNi) contre le cancer.

Baptisé TKM-PLK1, ce médicament est développé par Tekmira Pharmaceuticals Corporation. Il agit en bloquant l'ARNi du gène PLK1 impliqué dans la croissance tumorale et peut être administré en toute sécurité chez l'homme.

« Les thérapies par ARNi constituent une voix thérapeutique nouvelle et prometteuse dans le traitement du cancer car elles permettent de désactiver les gènes codant pour des protéines impliquées dans la division des cellules cancéreuses », souligne le Professeur Ramesh K. Ramanathan, responsable de ces essais.

Le médicament expérimenté, le TKM-PLK1, cible un gène spécifique appelé polo-like kinase 1 (PLK1), qui commande la production d'une protéine impliquée dans la croissance de cellules tumorales. De précédentes recherches ont montré que des niveaux élevés de PLK1 sont présents dans de nombreux types de cancer.

« Nos résultats précliniques ont montré qu'en diminuant les niveaux de Plk1 dans les cellules cancéreuses, on peut stopper la croissance tumorale et tuer les cellules cancéreuses », souligne le professeur Ramanathan.

Cet essai, qui a duré six mois, portait sur 23 patients atteints de tumeurs solides et de lymphome. Il a permis de montrer "des réponses encourageantes sur le plan thérapeutique". Par ailleurs, en dépit des doses élevées administrées à certains patients, les effets secondaires sont restés acceptables.

« Les thérapies ARNi, comme celles que nous avons utilisées dans notre essai, vont prendre une place croissante dans la nouvelle panoplie thérapeutique qui se met en place contre le cancer. Nous avons à présent la possibilité de cibler par cette méthode de nombreuses protéines impliquées dans la maladie », ajoute le Professeur Ramanathan.

Article rédigé par Georges Simmonds pour RT Flash

Science Codex

Maladies cardio-vasculaires et diabète : quand les petites causes produisent de grands effets !
Jeudi, 11/04/2013 - 10:55

Selon une étude internationale publiée par le British médical journal et réalisée par des chercheurs américains, espagnols et cubains, une légère diminution de l'apport calorique global dans l'alimentation pourrait avoir des effets très bénéfiques en matière de diabète et de maladies cardio-vasculaires.

À la suite de la crise économique qui a frappé Cuba de 1990 à 1995, la consommation énergétique globale dans l'alimentation des Cubains a diminué (entraînant une perte moyenne de poids de 4,5kg par adulte) et les habitants ont également été obligés de pratiquer davantage d'exercice physique à la suite des pénuries de carburant.

Une des conséquences de cette situation a été une forte diminution de l'incidence du diabète de type 2 et des maladies cardio-vasculaires et cette étude montre de manière saisissante qu'une perte de poix moyenne, même modeste, dans l'ensemble de la population entraîne assez rapidement des effets très bénéfiques sur le plan cardio-vasculaire.

Selon ces recherches, une perte de poids moyenne de seulement 5 kg par habitant pourrait permettre de réduire de moitié la mortalité liée au diabète et de diminuer d'un tiers la mortalité provoquée par les maladies cardiovasculaires.

Dans l'éditorial d'accompagnement de cette étude, rédigé par le professeur Willett de l'Ecole de santé publique d'Harvard, on peut lire que ce travail "apporte des preuves très convaincantes que la réduction de la surcharge pondérale et de l'obésité peut avoir un impact très positif sur la santé globale de toute une population".

Article rédigé par Georges Simmonds pour RT Flash

Science Codex

Les générations adultes d'aujourd'hui sont en moins bonne santé que les générations précédentes
Jeudi, 11/04/2013 - 10:40

Une vaste étude réalisée aux Pays-Bas sur plus de 6 000 personnes suivies pendant 16 ans et publiée dans le journal européen de cardiologie montre que, si la mortalité cardio-vasculaire a diminué grâce aux progrès médicaux et scientifiques, l'exposition au risque des maladies cardiovasculaires est, quant à elle, en augmentation.

Cette étude montre de manière claire qu'en dépit d'une plus grande espérance de vie, les adultes d'aujourd'hui sont globalement en moins bonne santé que ceux des générations précédentes. Pour parvenir à cette conclusion peu réjouissante, les chercheurs ont analysé différents facteurs de risque, dont le poids, la pression artérielle, le taux de cholestérol total et le niveau de bon cholestérol (HDL).

Les participants à cette étude ont été ventilés par sexe et par génération dans des groupes d'âges de 10 ans. Cette méthode a permis de constater que, si le surpoids et l'hypertension augmentent assez logiquement avec l'âge dans toutes les générations, ces facteurs de risque sont présents, à âge égal, de manière sensiblement plus importante chez les adultes vivant actuellement.

Les résultats de cette étude pourraient avoir des conséquences majeures en matière de santé publique. Comme le souligne Gerben Hulsegge, qui a dirigé ces travaux,  « Il est frappant de constater que la prévalence de l'obésité dans notre plus jeune génération d'hommes et de femmes à l'âge moyen de 40 ans est similaire à celle de notre génération la plus âgée à l'âge moyen de 55 ans. Cela signifie que cette jeune génération est exposée, avec 15 ans d'avance, aux différentes pathologies associées au surpoids. Il faut donc nous interroger sur l'efficacité de nos politiques publiques d'information et de prévention en matière de santé ».

Rappelons qu'en France, en dix ans, la proportion d'obèses par rapport à la population totale est passée de 8,2 à 12,4 %, soit une augmentation de plus de 50 % ! Par ailleurs, selon une étude réalisée fin 2012, presque un jeune sur cinq (19 %) est en surpoids ou obèse. Mais ce qui est frappant, c'est que plus d'un tiers de ces jeunes en surpoids n'ont pas conscience de leur état et se considèrent comme minces. Cette étude nous indique par ailleurs qu'un tiers des jeunes Français ne pratiquent aucune activité physique.

L'obésité entraînerait le décès prématuré de près de 3 millions de personnes par an dans le monde, dont 55 000 en France.

Article rédigé par Georges Simmonds pour RT Flash

WN

Un médicament utilisé contre l'arythmie cardiaque augmenterait le risque de cancer
Jeudi, 11/04/2013 - 10:33

Selon une étude publiée par la revue américaine "cancer", l'amiodarone, un médicament utilisé contre l'arythmie cardiaque, augmenterait le risque de cancer. L'étude réalisée par des chercheurs du Taipei Veterans General Hospital à Taïwan, précise que cette augmentation de risque de cancer concerne principalement les hommes ainsi que les patients prenant de fortes doses de ce médicament.

Selon ces travaux, ce médicament qui se dégrade très lentement pourrait s'accumuler dans l'organisme, augmentant ainsi le risque de cancer chez certains patients. De précédentes études avaient déjà montré que l'amiodarone pouvait augmenter le risque de certains cancers.

Dans ces travaux, les chercheurs ont analysé, sur une période de deux ans et demi, les dossiers médicaux de 6 418 patients traités à l'amiodarone. Ils ont constaté que 4,3 % des patients (280 patients) avaient développé un cancer.

Les chercheurs ont également observé que les patients qui prenaient les plus fortes doses de ce médicament voyaient, après ajustement des différents facteurs de risque, leur risque de cancer augmenter de 46 % par rapport aux patientx prenant des doses plus faibles de ce traitement.

Compte tenu de ces résultats, le Docteur Su, qui a dirigé cette étude, recommande que les cas de cancers chez ces patients soient systématiquement mentionnés dans les futures études cliniques portant sur l'amiodarone.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

Le cuivre permet de lutter efficacement contre les infections nosocomiales
Jeudi, 11/04/2013 - 07:50

Une étude américaine a montré que l'utilisation de cuivre anti-bactérien dans les établissements de soins et hôpitaux peut contribuer à diminuer sensiblement le nombre d'infections nosocomiales.

Selon ces travaux, à précautions hygiéniques et chimiques équivalentes, l'utilisation du cuivre réduit de 58 % le nombre de ces infections très dangereuses pour les patients dont les défenses immunitaires sont souvent affaiblies. Aux États-Unis, on estime qu'un patient sur 20 développera une infection nosocomiale, ce qui entraîne environ 100 000 décès par an.

Bien que des efforts considérables aient été déployés dans les hôpitaux pour prévenir et réduire ce type d'infections, l'étude rappelle que l'utilisation du cuivre antibactérien est la seule stratégie de lutte contre les infections nosocomiales scientifiquement démontrée qui ne dépende pas du comportement humain.

L'étude, financée par le Ministère américain de la Défense, a été réalisée dans les unités de soins intensifs de trois grands hôpitaux : l'Université médicale de Caroline du Sud, le Centre Memorial Sloan-Kettering Cancer à New York et le Ralph H. Johnson Affaires Medical Center à Charleston, en Caroline du Sud.

Dans ces établissements, 650 patients ont été répartis de manière aléatoire dans des chambres qui étaient ou non équipées de poignées et surfaces en cuivre. Les résultats de cette étude ont montré que le pourcentage de patients contractant une infection nosocomiale était sensiblement plus faible dans les chambres équipées de cuivre. Selon ces travaux, le cuivre pourrait tuer 83 % des bactéries qui causent ces infections nosocomiales.

Cette étude a eu un grand retentissement dans le milieu scientifique et médical américain et, à la suite de sa publication, de nombreux établissements de santé ont décidé d'équiper leurs unités de soins intensifs de matériel en cuivre antibactérien.

Article rédigé par Georges Simmonds pour RT Flash

KPTV

Autisme : l'âge du diagnostic dépend des symptômes spécifiques
Jeudi, 11/04/2013 - 07:43

Selon une étude réalisée par des chercheurs de l'université de Wisconsin-Madison, l'âge à partir duquel un enfant atteint d'autisme est diagnostiqué est corrélé au type de symptômes comportementaux. Comme le souligne l'auteur de l'étude, Matthew Maenner, "Le diagnostic précoce est très important dans la bonne prise en charge de l'autisme. Plus tôt nous pouvons déceler des troubles autistiques chez un enfant, plus la prise en charge médico-psychologique pourra être efficace".

Cette étude constate que, sur le terrain, à peine la moitié des enfants souffrant de troubles autistiques sont détectés avant l'âge de cinq ans. L'une des raisons principales qui explique la difficulté d'un dépistage précoce de cette affection est l'extrême diversité des symptômes qui caractérisent cette pathologie.

Selon la classification américaine officielle des troubles psychiatriques, l'ensemble des troubles du spectre autistique regrouperait en effet plus de 600 syndromes différents.

Dans ce travail, les chercheurs ont analysé les dossiers de 2 757 enfants de 8 ans et ont ainsi établi des associations significatives entre la présence de douze caractéristiques comportementales et l'âge de ces enfants au moment du diagnostic. Dans la population étudiée, l'âge médian au moment du diagnostic d'autisme était de 8,2 ans pour les enfants présentant seulement sept des facteurs répertoriés. Mais cet âge médian tombe à 3,8 ans pour les enfants présentant l'ensemble des 12 symptômes.

L'étude montre également que la fréquence de manifestations de certains symptômes spécifiques constitue un facteur important dans l'établissement d'un diagnostic précoce. Par exemple, les enfants souffrant de déficiences dans la communication non verbale ou de comportements répétitifs peuvent être diagnostiqués à un plus jeune âge. En revanche, les enfants souffrant d’un déficit du langage seront en moyenne diagnostiqués de manière plus tardive.

Ces résultats suggèrent que les enfants présentant moins de caractéristiques comportementales ou dont l'autisme se caractérise par des symptômes généralement identifiés à des âges plus avancés, posent plus de problèmes pour l'établissement d'un diagnostic précoce.

Ces travaux montrent également que l'amélioration du dépistage de l'autisme pourrait permettre non seulement de détecter précocement les enfants présentant des troubles autistiques mais pourrait également identifier les personnes beaucoup plus âgées n'étant pas considérées comme autistes, alors qu'elles présentent les symptômes de cette pathologie.

Selon les dernières statistiques des services de santé américains, le pourcentage d'enfants autistes n'a cessé d'augmenter au cours de ces dernières décennies et il serait passé d'un enfant sur 110 à un enfant sur 88 au cours des cinq dernières années. Plus d'un million d'enfants et d'adolescents américains seraient aujourd'hui touchés par cette pathologie.

Article rédigé par Elisa Tabord pour RT Flash

Eurekalert

Prise en charge de la dépression : l'activation comportementale plus efficace que les antidépresseurs ?
Jeudi, 11/04/2013 - 07:35

La dépression est une pathologie grave qui touche, selon l'OMS, plus de 350 millions de personnes dans le monde, soit 5 % de la population mondiale. La France est particulièrement touchée par cette affection puisque, toujours selon l'OMS, 21 % de nos concitoyens connaîtraient, à un moment ou un autre de leur existence, un épisode dépressif.

Le principal traitement contre la dépression reste de loin la prescription de médicaments antidépresseurs malgré leurs effets secondaires et les phénomènes d'accoutumance que ces médicaments peuvent provoquer à long terme. Il existe pourtant d'autres voies thérapeutiques dans le traitement de la dépression, comme la psychanalyse et les psychothérapies et notamment les thérapies comportementale et cognitive.

Une étude publiée en 2000 avait d'ailleurs montré que les thérapies cognitives avaient une efficacité supérieure de 30 % au traitement par antidépresseurs, dans les cas de dépression modérée.

Une nouvelle étude, réalisée par l'université de psychologie de Maastricht, vient de montrer que la thérapie dite "d'activation comportementale" peut s'avérer efficace contre la dépression. Cette thérapie est articulée autour de la construction d'un calendrier prévisionnel d'activité a réaliser par le patient ainsi que sur l’analyse des processus cognitifs participant à l'entretien et à la perduration de l'état dépressif.

Comparativement à la thérapie cognitivo-comportementaliste classique, l’intérêt de cette technique contre la dépression consiste dans la plus grande facilité de formation des professionnels devant l’appliquer et dans son utilisation possible en milieu ambulatoire ou hospitalier. L’activation comportementale pourrait donc offrir une alternative valable aux antidépresseurs dans le trouble dépressif majeur.

Un essai réalisé sur 100 patients divisés en deux groupes, l'un, traité par activation comportementale et l'autre soigné avec des antidépresseurs, a montré que l'activation comportementale s'avérait plus efficace que les antidépresseurs dans le traitement des dépressions sévères.

Selon ces travaux, il serait donc souhaitable, compte tenu de la simplicité de mise en œuvre de cette thérapie d'activation comportementale, de proposer à tous les patients souffrant de graves dépressions cette solution thérapeutique comme alternative aux antidépresseurs.

Article rédigé par Elisa Tabord pour RT Flash

NCBI

Maladie d'Alzheimer et cholestérol : un lien qui se confirme
Mercredi, 10/04/2013 - 21:56

Des chercheurs de l’Institut de neuroscience de Louvain ont montré l'existence d'un lien puissant entre le cholestérol, l’activité neuronale et la maladie d’Alzheimer. Cette équipe, dirigée par le professeur Jean Noël Octave, a découvert un mécanisme impliqué dans la perturbation du fonctionnement des neurones qui caractérise la maladie d'Alzheimer.

Selon ces travaux, notre cerveau qui contient plus de 20 % du cholestérol total de l'organisme, contrôle ce taux de façon autonome. De précédentes recherches ont montré qu’un contrôle efficace de la production et de la dégradation du cholestérol par les neurones était indispensable à leur fonctionnement normal.

Dans ces travaux, il a pu être démontré que les patients produisant une protéine spécifique de transport du cholestérol multipliaient par dix leur risque de développer la maladie d’Alzheimer. Il semblerait en effet que, chez des malades atteints de la maladie d'Alzheimer, le fonctionnement anormal de cette protéine vienne dérégler l’équilibre entre la synthèse et l'élimination du cholestérol et perturber ainsi le bon fonctionnement des neurones.

La protéine impliquée dans ce processus a été baptisée APP (Protéine Précurseur de l'Amyloïde). Il s'agit d'une protéine transmembranaire, que l'on trouve à travers la membrane des neurones. Ces chercheurs ont découvert que le fonctionnement de l'APP est étroitement lié au niveau de cholestérol.

L'étude conclut que cette protéine APP joue un rôle-clé dans le contrôle et la régulation du cholestérol dans le cerveau et dans l'activité neuronale. Ces chercheurs testent à présent des médicaments capables de rétablir cet équilibre métabolique. Les résultats obtenus in vitro et sur des souris porteuses de la maladie d'Alzheimer sont très encourageants et les essais cliniques sur l'homme pourraient commencer dès cette année.

Article rédigé par Georges Simmonds pour RT Flash

EMBO

La technologie infrarouge au service de la télésurveillance médicale
Mercredi, 10/04/2013 - 21:46

Des chercheurs de l'université Khulna, au Bangladesh, ont mis au point un outil portable innovant et accessible à tous, permettant de mesurer le rythme cardiaque et la température du corps. Ce système utilise une technologie infrarouge qui lui permet de mesurer le rythme des battements cardiaques. Ce petit dispositif se fixe sur le doigt de l’utilisateur et émet un faisceau lumineux dont l'indice de réfraction est ensuite analysé, ce qui permet de calculer le débit sanguin dans une phalange.

Chaque minute environ, l'appareil calcule une moyenne de rythme cardiaque qui s'affiche sur un petit écran LCD. L'appareil peut également mesurer en temps réel la température corporelle grâce à un autre capteur spécialisé. L'ensemble de ces données est routé, via une connexion Ethernet, vers un serveur Internet.

Ce système, simple et léger, est d'une grande précision : sa marge d'erreur est de l'ordre de 1 pour cent, bien inférieure à celle de ses concurrents.

L'article précise que cet appareil portable est spécialement conçu pour une utilisation en milieu rural, loin des centres hospitaliers et permet une télésurveillance très fiable et peu coûteuse des patients à risque, ce qui correspond aux besoins sanitaires d'un pays encore largement rural, comme le Bangladesh.

Article rédigé par Georges Simmonds pour RT Flash

Cornell University

Emotions : le cœur et le cerveau sont inséparables !
Mardi, 09/04/2013 - 17:56

À l'occasion des rencontres britanniques des neurosciences, des chercheurs anglais ont montré pour la première fois que le cycle cardiaque affectait la façon dont notre cerveau traite les stimuli relatifs à la peur.

Le docteur Sarah Garfinkel qui travaille à l'école médicale du Sussex (Brighton), précise que "Ces recherches montrent que de nombreux organes du corps interagissent avec le fonctionnement du cerveau pour façonner et influencer nos perceptions, nos émotions et nos pensées. Pour la première fois, nous avons pu démontrer que la façon dont nous traitons la peur dépend en partie de notre activité cardiaque".

Pour parvenir à ces conclusions, les chercheurs ont équipé 20 volontaires de moniteurs cardiaques puis ont été exposés à des images effrayantes. Pendant ces expériences, un programme informatique analysait en temps réel les corrélations entre l'évolution des électrocardiographies et la visualisation de ces images.

Ce dispositif expérimental a permis de montrer que, lorsque les participants visualisaient une image effrayante pendant la systole (quand le cœur se contracte), ces images étaient perçues de manière plus intense que les mêmes images visualisées pendant la diastole (quand le cœur se relâche).

Selon ces chercheurs, des observations complémentaires réalisées par IRM et scanner montreraient qu’une aire cérébrale spécifique, l'amygdale, serait responsable de cette perception différenciée des émotions en fonction du cycle cardiaque.

Article rédigé par Georges Simmonds pour RT Flash

Medical Xpress

Découverte d'un nouveau lien entre consommation de viande rouge et maladies cardio-vasculaires
Mardi, 09/04/2013 - 17:51

Un composé abondant dans la viande rouge et présent dans les  boissons énergisantes pourrait favoriser l'athérosclérose, selon une étude réalisée par la Cleveland Clinic. L'étude montre que les bactéries qui vivent dans le tube digestif humain métabolisent ce composé, la carnitine, le transformant en triméthylamine-N-oxyde (OTMA), un métabolite déjà identifié depuis 2011 comme promoteur de l'athérosclérose chez l'homme. En outre, ces travaux montrent qu'une alimentation trop riche en carnitine favorise la croissance des bactéries qui métabolisent cette substance : un parfait exemple de rétroaction positive aux conséquences néfastes.

L'étude a testé les niveaux de carnitine et d'OTMA chez plusieurs types de populations, omnivores, végétaliens et végétariens regroupant au total 2 595 personnes. Les chercheurs ont également examiné les effets sur le système cardio-vasculaire des souris d'un régime riche en carnitine.

Ces travaux ont montré que l'augmentation des niveaux de carnitine chez les patients constitue un bon prédicteur des risques accrus de maladies cardiovasculaires et d'AVC, mais seulement chez les sujets présentant simultanément des niveaux élevés d'OTMA. En outre, ces recherches montrent que certains types de bactéries intestinales, associées aux niveaux d'OTMA étaient significativement plus faibles chez les végétaliens et les végétariens.

L'étude montre que les végétaliens et les végétariens, même après avoir consommé une grande quantité de carnitine, ne produisent pas de métabolite  OTMA, ce qui n'est pas le cas des omnivores consommant la même quantité de carnitine.

Il semblerait donc, selon ces travaux, qu'une alimentation riche en carnitine influe sur la composition de notre microbiote intestinal, ce qui rend les mangeurs de viande encore plus sensibles à la formation de l'OTMA et avec un risque plus grand d'athérosclérose. En revanche, les végétaliens et végétariens parviennent à réduire de manière significative la synthèse de la carnitine, ce qui pourrait  expliquer en partie les bienfaits des bénéfices de ce type d'alimentation en matière cardio-vasculaire.

En conclusion, cette étude souligne que ce mécanisme nouveau pourrait expliquer pourquoi la consommation de viande rouge est souvent associée à un risque accru de maladie cardiovasculaire, alors que le taux de cholestérol et de graisses saturées de la viande rouge ne suffisent pas à expliquer l'augmentation de ce risque.

Article rédigé par Georges Simmonds pour RT Flash

Medical Xpress

Une expérience qui repousse les limites de la plasticité du cerveau humain
Mardi, 09/04/2013 - 17:44

Une équipe de recherche franco-polonaise vient de montrer que, contrairement à ce qui était admis jusqu'à présent, la spécialisation fonctionnelle de certaines aires cérébrales n'était pas toujours innée et pouvait entièrement résulter d'un apprentissage.

Pour arriver à cette conclusion, les chercheurs ont travaillé sur une faculté cognitive particulière : l'aptitude à la lecture. Comme le souligne le neurobiologiste Stanislas DEHANE, "le cerveau humain n'est pas programmé pour être capable de lire, contrairement par exemple à la capacité à reconnaître des visages qui résultent d'une longue évolution biologique. Mais la lecture a été inventée il y a moins de 6000 ans, ce qui est trop court pour que l'évolution ait eu le temps de créer une aire cérébrale spécifiquement dédiée à la lecture".

Une série d'expériences menées sur des patients épileptiques au CHU de Grenoble, dans le laboratoire de physiopathologie de l'épilepsie, dirigé par le Professeur Philippe KAHANE, a montré, au grand étonnement des scientifiques, que les cellules nerveuses de cette zone cérébrale impliquée dans la reconnaissance des objets (Aire de Déjerine) réagissaient fortement et uniquement lorsque le patient voyait un mot, ou une chaîne de lettres, à l'exclusion de tout autre type d'information.

Les chercheurs ont ainsi pu démontrer que la région cérébrale responsable de la reconnaissance des objets pouvait développer une attitude spécifique à la lecture grâce à l'apprentissage. Il semblerait donc que, même des régions les plus spécialisées du cerveau puissent être le fruit d'un apprentissage, ce qui montre à quel point la plasticité de cet organe est extraordinaire et ouvre des perspectives thérapeutiques intéressantes pour la rééducation de patients souffrant de lésions cérébrales dues à l'âge ou à la maladie.

Article rédigé par Georges Simmonds pour RT Flash

Neurology

Adolescents : le manque de sommeil augmente le risque d'obésité
Mardi, 09/04/2013 - 17:38

Augmenter la durée moyenne de sommeil chez les adolescents permettrait de réduire sensiblement la prévalence de l'obésité chez les adolescents, selon une nouvelle étude publiée par l'Université de Pennsylvanie.

Ces travaux qui ont porté sur plus de 1000 élèves de la région de Philadelphie, montrent en effet que la diminution tendancielle du temps de sommeil chez les adolescents s'est accompagnée d'une augmentation corrélée de leur indice de masse corporelle (IMC). Selon cette étude, il serait souhaitable que les adolescents en surpoids dorment au moins 10 heures par jour, ce qui les aiderait à retrouver plus facilement un poids normal.

"Le taux d'obésité a plus que triplé chez les adolescents au cours des quatre dernières décennies", explique l'auteur principal de cette étude, Jonathan A. Mitchell. "Nous avons découvert que chaque heure supplémentaire de sommeil était associée à une réduction de l'IMC pour tous les participants de cette étude. En outre, la perte de poids était plus importante pour les adolescents ayant un IMC plus élevé", ajoute le professeur Mitchell.

Selon ces travaux, une simple augmentation du temps de sommeil journalier de deux heures pourrait se traduire par une réduction de 4 % du nombre d'adolescents ayant un IMC supérieur à 25 kg/m2, soit 500 000 adolescents de moins en surpoids.

L'étude souligne qu'il serait souhaitable de retarder le début de la journée scolaire dans les établissements secondaires afin permettre un allongement du temps de sommeil et de contribuer ainsi à réduire l'obésité chez les adolescents.

 Article rédigé par Elisa Tabord pour RT Flash

Pediatrics

Un virus prometteur contre le cancer de la prostate
Mardi, 09/04/2013 - 17:30

Des chercheurs du centre de recherche vétérinaire de Maryland ont identifié un virus de poulet qui pourrait s'avérer très efficace pour combattre le cancer de la prostate chez l'homme.

Les chercheurs ont découvert que le virus génétiquement modifié de la maladie de Newcastle, une affection dangereuse pour les poulets mais inoffensive pour l'homme, est capable de tuer in vitro les cellules cancéreuses de la prostate, y compris dans le cas de cancers hormono-résistants.

Un homme sur six développera au cours de sa vie un cancer de la prostate. Aujourd'hui, ce cancer se traite relativement bien mais les traitements disponibles ont des effets secondaires importants. L'utilisation de ce virus permettrait donc d'ouvrir une nouvelle voie thérapeutique préservant la qualité de vie du malade.

"Nous avons modifié le virus pour qu'il se réplique uniquement en présence d'un antigène prostatique spécifique. Nous avons également testé son efficacité dans un modèle de tumeur in vitro et avons constaté que ce vecteur viral permettait de tuer uniquement les cellules cancéreuses", souligne le professeur Subbiah qui dirige ces recherches.

Le professeur Subbiah est persuadé que ce virus génétiquement modifié pourrait, à des doses très faibles, éliminer efficacement les cancers de la prostate et peut-être même prévenir les métastases.

Cette équipe a reçu un financement de l'Institut national de la santé pour poursuivre ses recherches et voir s'il est possible d'utiliser ce virus modifié de la maladie de Newcastle contre d'autres types de cancer, sein, pancréas et cerveau notamment.

Article rédigé par Georges Simmonds pour RT Flash

Virginia Tech

Des protéines végétales pour contrôler la toxoplasmose
Mardi, 09/04/2013 - 16:26

Une étude réalisée par l'université de Floride a montré qu'une famille de protéines végétales impliquées dans la régulation de la floraison chez les plantes, les facteurs de transcription AP2, semble jouer un rôle-clé dans le cycle de reproduction du parasite toxoplasma gondii, à l'origine de la toxoplasmose. Ces travaux montrent que ces facteurs de transcription peuvent ralentir ou bloquer, via le facteur AP2IX-9, le développement la toxoplasmose, en empêchant le parasite de coloniser différents organes du corps et notamment le cerveau.

"Une meilleure compréhension de la façon dont fonctionne ce mécanisme de contrôle pourrait nous permettre de bloquer la reproduction et le développement de ce parasite", souligne Michael White, auteur principal de l'étude.

Actuellement, il n'existe ni médicament ni vaccin pour traiter ou prévenir la phase chronique de la toxoplasmose. Le parasite responsable de cette maladie peut en effet rester invisible au système immunitaire pendant des années, avant de se réveiller à la faveur d'un affaiblissement des défenses naturelles du patient.

Comme le souligne le professeur White, "l’histoire évolutive de ce parasite est fascinante. Nous avons été stupéfaits de constater que les facteurs contrôlant son développement sont identiques à certaines protéines végétales, comme l'AP2, impliquées notamment dans l'adaptation des plantes au stress hydrique. Nous pensons que les lointains ancêtres de ce parasite ont dû à un moment fusionner avec une plante primitive, ce qui expliquerait cette surprenante parenté".

La toxoplasmose se propage notamment par l'exposition aux excréments d'animaux infectés, en mangeant de la viande insuffisamment cuite ou en buvant de l'eau potable contaminée par le parasite. Près de 30 % de la population mondiale pourrait être infectée par cette maladie parasitaire qui peut s'avérer très dangereuse, voire fatale pour le fœtus et pour les patients dont le système immunitaire est affaibli.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Fumer altère la fonction rénale chez les adolescents
Mardi, 09/04/2013 - 16:19

Des chercheurs américains de l'Université Johns Hopkins Bloomberg et du Centre pour enfants Johns Hopkins ont montré que l'exposition à la fumée du tabac altérait la fonction rénale chez les adolescents. Selon cette étude, réalisée sur 7 516 adolescents âgés de 12 à 17 ans, l'exposition à la fumée de cigarette pourrait perturber la fonction rénale à partir de la petite enfance.

« L'usage du tabac et l'exposition à la fumée de cigarette sont des problèmes majeurs de santé pour les adolescents et entraînent des effets néfastes pour le reste de leur vie », souligne Ana Navas-Acien, auteur principal de l'étude. Les chercheurs ont constaté l'existence d'une corrélation entre les concentrations sériques de cotinine, un marqueur biologique de l'exposition au tabac, et le rapport albumine-créatinine.

Des études antérieures portant sur l'exposition au tabac chez les adolescents américains ont par ailleurs montré que plus de 600.000 collégiens et 3 millions de lycéens fument régulièrement, ce qui provoque l'exposition un tabagisme passif pour 15 % des adolescents américains. Chez les adolescents, le tabagisme actif a été associé à un risque accru d'asthme, de bronchite, d'athérosclérose et de cancer ainsi qu'à une mortalité prématurée à l'âge adulte.

Selon le Centre américain de contrôle et de prévention des maladies, le tabagisme est également un facteur de risque pour plusieurs maladies auto-immunes, dont la maladie de Crohn et la polyarthrite rhumatoïde.

« Le tabac peut à présent être considéré comme un facteur de risque dans les maladies chroniques du rein. Prévenir le tabagisme chez les jeunes est essentiel car nous savons que les trois quarts des adultes qui fument ont commencé la cigarette avant 18 ans », ajoute Ana Navas-Acien.

Article rédigé par Elisa Tabord pour RT Flash

Eurekalert

Des bactéries extrêmophiles qui se nourrissent de substances toxiques !
Lundi, 08/04/2013 - 08:01

Des chercheurs dirigés par Martin Liebensteiner de l'Université de Wageningen aux Pays-Bas ont montré pour la première fois qu'Archaeoglobus fulgidus, une bactérie extrêmophile de la famille des Archea, est capable de survivre et de se développer dans les profondeurs océaniques en synthétisant son énergie à partir du chlorate et du perchlorate.

Le plus étonnant est que ces chlorates et perchlorates ne se trouvent pas couramment dans l'environnement de cette bactérie qui vit à proximité des sources chaudes océaniques d'origine volcanique.

En général, pour réduire les chlorates et les perchlorates, le métabolisme des bactéries produit de la chlorite toxique, qui est ensuite décomposée en chlorure et oxygène. Mais dans le cas de cette bactérie Archaeoglobus fulgidus, cette réaction chimique n'est pas possible car elle ne possède pas l'enzyme nécessaire à sa catalyse.

Au cours de sa longue évolution, cet organisme a donc "innové". Elle a appris à dégrader le chlorite par une chaîne de réactions chimiques impliquant des composés soufrés. Le chlorite réagit avec les sulfures pour produire des molécules plus fortement oxydées telles que les sulfates.

Selon le professeur Liebensteiner, cette remarquable capacité d'adaptation à un milieu hostile montre qu'il n'est pas impossible que des bactéries similaires aient réussi à se développer et soient peut-être encore présentes sur Mars.

Article rédigé par Georges Simmonds pour RT Flash

Phys.org

A-t-on découvert l'anticorps ultime contre le cancer ?
Lundi, 08/04/2013 - 07:36

Après plus de 10 ans de recherches, c'est peut-être une découverte révolutionnaire qui vient d'être annoncée par des scientifiques américains de l'École de Médecine de Stanford. Ceux-ci viennent en effet de montrer qu'il était possible, en utilisant un anticorps spécifique nommé CD47, de bloquer chez l'animal le développement de la plupart des cancers.

À l'origine de cette découverte, on trouve un biologiste, Irving Weissman, qui avait déjà montré il y a plusieurs années le rôle-clé de cet anticorps CD47 dans la mobilisation du système immunitaire contre certains types de lymphomes et de leucémies.

Mais ce que montrent ces nouvelles recherches, c'est que cet anticorps CD47, qui bloque une protéine essentielle au développement des cellules tumorales, semble être en mesure de mobiliser efficacement le système immunitaire contre une grande variété de cancers différents.

Des expérimentations sur la souris ont confirmé, pour une grande variété de cancers, l'efficacité thérapeutique de cet anticorps. Dans le cas des souris ayant développé un cancer de la vessie, toutes les souris n’ayant pas été traitées avec cet anticorps ont vu leur tumeur s'étendre plus rapidement. En revanche, les souris de l'autre groupe auxquelles on avait injecté cet anticorps ont vu, dans neuf cas sur 10, leur cancer se stabiliser durablement.

Encore plus encourageant, dans le cas des souris souffrant d'un cancer du côlon, le traitement à l'aide du CD 47 a permis de ramener la tumeur au tiers de sa taille initiale. D'autres souris souffrant d'un cancer du sein ont vu leur tumeur disparaître complètement et n'ont pas connu de récidive à leur maladie quatre mois après l'arrêt du traitement.

« Ces multiples expérimentations sur l'animal sont particulièrement encourageantes et montrent que le CD 47 semble être non seulement capable de bloquer le développement d'une grande variété de cancers mais également en mesure de prévenir les métastases » précise le Professeur Weissman.

Compte tenu de ces résultats, l'institut de Californie vient de débloquer un budget de 20 millions de dollars pour commencer le plus rapidement possible des essais cliniques de ce traitement chez l'homme.

Article rédigé par Georges Simmonds pour RT Flash

Science

PNAS

MD

Le potassium alimentaire diminuerait les risques d'AVC
Lundi, 08/04/2013 - 07:29

Une vaste méta-analyse, réalisée sur plus de 120 000 participants en bonne santé par des chercheurs de l'Imperial College de Londres et de la Warwick Medical School a montré qu'une augmentation du niveau de concentration du potassium dans l'alimentation, combinée à une diminution de la consommation de sel, permet à la fois de réduire sensiblement la pression artérielle et le risque d'accident vasculaire cérébral.

Cette étude montre que la consommation supplémentaire quotidienne de deux à trois portions de fruits et légumes frais, riches en potassium, s'avère très bénéfique dans la prévention des accidents vasculaires cérébraux. L'augmentation du potassium dans l'alimentation semble d'autant plus indiquée qu'elle ne s'accompagne d'aucun effet secondaire connu, que ce soit au niveau rénal ou hormonal.

S'appuyant sur cette étude, l'Organisation Mondiale de la Santé préconise à présent une consommation quotidienne de plus de 4 g de potassium (ou de 90 à 100 mmol) par jour, ce qui correspond à une consommation de cinq portions de fruits et légumes par jour.

Le potassium se trouve dans la plupart des types d'aliments, mais surtout dans les fruits, comme les bananes, les légumes secs, les noix, les graines, le lait, le poisson, le poulet et le pain.

L'étude souligne que nos ancêtres avaient un régime alimentaire riche en potassium mais la transformation industrielle des aliments a nettement réduit cette teneur en potassium. Aujourd'hui, on estime que la consommation quotidienne moyenne de potassium dans la plupart des pays développés est inférieure à 3 g par jour. L'étude précise également qu'une augmentation du niveau de potassium à 4 g par jour diminuerait de 24 % le risque d'accident vasculaire cérébral chez l'adulte.

S'agissant de la consommation de sel, les chercheurs britanniques ont analysé les résultats de 34 études impliquant plus de 3.000 personnes. Ils ont constaté qu'une réduction, même modeste, de la consommation de sel pendant un mois entraîne une baisse significative de la tension chez les personnes souffrant d'hypertension artérielle. Fait intéressant, cette diminution de la tension est obtenue indépendamment du sexe, de l'origine ethnique et de l'âge des personnes.

Selon le Professeur Graham MacGregor, impliqué dans cette étude, l'idéal serait de réduire pratiquement de moitié notre consommation quotidienne de sel et de descendre à 5 g par jour, contre 9,5 aujourd'hui. Mais ce chercheur souligne que cet objectif sera difficile à atteindre car la majeure partie du sel que nous consommons est directement incorporé dans les produits et préparations alimentaires que nous mangeons.

Article rédigé par Georges Simmonds pour RT Flash

BBC

AVC : la récupération du langage doit privilégier l'hémisphère gauche
Lundi, 08/04/2013 - 07:22

Des chercheurs américains des universités de l'Alabama et de Cincinnati, dirigés par le professeur Szaflarski, ont éclairci les raisons pour lesquelles certains patients victimes d'AVC récupèrent bien de l'aphasie consécutive à cet accident (dans un tiers des AVC) alors que d'autres n'y parviennent pas. Selon cette étude, il semblerait que la réorganisation de la fonction du langage dans l'hémisphère droit soit de mauvais augure pour une bonne récupération de cette fonction. Les chercheurs ont en effet constaté que les patients qui parviennent à récupérer correctement de leur aphasie après un AVC sont ceux dont les fonctions du langage se réactivent dans l'hémisphère gauche.

On sait qu'après un AVC le niveau et le temps de récupération des fonctions cérébrales et cognitives varient très sensiblement d'un individu à l'autre. Ce processus de récupération est modulé par plusieurs facteurs assez bien connus. Mais le degré de la contribution à ce processus des aires cérébrales non touchées par cette pathologie est beaucoup moins clair.

Ces travaux ont porté sur 27 adultes droitiers victimes d'un infarctus cérébral dans l'hémisphère gauche au moins un an avant le début de l'étude. Les patients ont subi une batterie de tests cognitifs et ont été suivis par IRM fonctionnelle (IRMf) afin de cartographier leur activité cérébrale liée au langage.

Les auteurs ont constaté que, dans ce domaine du langage, les performance étaient sensiblement meilleures chez les patients qui présentaient les signes les plus intenses d’activité cérébrale dans l'hémisphère gauche. En revanche, ces performances étaient les plus mauvaises chez les patients présentant une forte activité cérébrale dans l'hémisphère droit.

Ces travaux montrent donc que, même si la restauration de la fonction du langage dans l'hémisphère droit est possible chez les enfants, une telle restructuration semble au contraire constituer un obstacle très difficile à surmonter chez les adultes pour lesquels l'activation de l'hémisphère gauche semble indispensable pour une bonne récupération du langage.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Un gène commun à la source de plusieurs formes d'épilepsie
Samedi, 06/04/2013 - 18:17

Des chercheurs de l'Inserm (Institut du cerveau et la moelle épinière, Hôpital de la Pitié-Salpêtrière) viennent de montrer le rôle majeur d'un seul gène qui semble fortement impliqué dans le déclenchement de plusieurs types d'épilepsie focale.

Les épilepsies focales représentent environ les deux tiers de l'ensemble des épilepsies. Elles comprennent notamment les épilepsies familiales du lobe temporal et les épilepsies familiales à foyer variable.

En travaillant sur 16 familles dont les membres sont atteints de différentes formes d'épilepsie et en utilisant les nouvelles techniques de séquençage d'ADN à très haut débit, ces chercheurs ont pu établir le rôle majeur du gène DEPDC5 dans le déclenchement de ces pathologies. Ces travaux ont notamment montré qu'une mutation altérait expression du gène dans la production d'une protéine dont la fonction reste à élucider.

Ces recherches ont également montré que cinq mutations différentes de ce seul gène étaient retrouvées dans 37 % des cas. En s'appuyant sur ces avancées fondamentales, des progrès en termes de diagnostic et de traitement sont envisageables.

"Ces travaux démontrent que ce gène est un dénominateur commun à des syndromes épileptiques longtemps considérés comme distincts du fait de la localisation cérébrale différente du foyer et de l’expression électro-clinique différente observée lors des crises", précise l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Prévention cardio-vasculaire : le régime méditerranéen confirme ses vertus
Samedi, 06/04/2013 - 18:01

Une vaste étude espagnole publiée le 3 avril dans le prestigieux New England Journal of Medicine confirme les bienfaits du régime méditerranéen en matière de protection cardio-vasculaire.

Cette étude qui a duré cinq ans portait sur près de 7500 personnes âgées de 55 à 80 ans. Elle a permis de confirmer que l'adoption d'un régime méditerranéen complété par une consommation régulière d’huile d’olive et d’huile de noix permettait de diminuer de 30 % le risque de maladies cardio-vasculaires.

Ces travaux ont été effectués dans le cadre de l'étude à long terme PREDIMED, destinée à évaluer les effets du régime méditerranéen sur la prévention primaire des maladies cardiovasculaires chez les sujets à haut risque.

Commentant ces recherches, le Professeur Jordi Salas-Salvadó, Président du Forum mondial pour la recherche sur la nutrition, a souligné que "Pour la première fois, une étude scientifique de grande envergure a pu démontrer l'efficacité du régime méditerranéen dans la prévention primaire des pathologies cardio-vasculaires. Ce travail confirme le rôle protecteur des acides gras contenus dans l'huile d'olive et l'huile de noix et doit nous conduire à revoir nos recommandations nutritionnelles".

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Des chercheurs britanniques réussissent l’impression en 3D d'un tissu biologique
Samedi, 06/04/2013 - 17:46

Les chercheurs de l'université d'Oxford en Grande-Bretagne ont réussi, en utilisant une émulsion composée de gouttelettes d’eau et d'huile, à produire à l'aide d'une imprimante 3D, un tissu synthétique qui reproduit certaines fonctions biologiques.

Pour l'instant, ces structures peuvent contenir jusqu'à 35 000 gouttelettes mais elles pourraient dans l'avenir servir « d'échafaudage » pour produire des tissus synthétiques capables de se substituer aux tissus vivants.

Pour réussir cette prouesse, les chercheurs ont conçu une imprimante à double buse qui peut simultanément projeter des types de gouttelettes différentes.

Grâce à cette technique, les micro-gouttelettes aqueuses s'auto assemblent en formant des couches lipidiques et en constituant finalement un matériau pouvant remplir certaines fonctions biologiques.

Ces réseaux de gouttelettes peuvent notamment intégrer des protéines membranaires et véhiculer des signaux électriques le long d'une voie spécifique. Ces structures pourraient servir d'interface avec les tissus vivants et ouvrent une nouvelle voie en ingénierie tissulaire.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Science

Le coût de la maladie d'Alzheimer aux États-Unis dépasse celui du cancer et des maladies cardio-vasculaires
Vendredi, 05/04/2013 - 17:23

Selon une étude de la Rand corporation, un institut privé de recherche, le coût des démences pathologiques aux États-Unis serait actuellement compris entre 157 et 215 milliards de dollars par an, soit environ 2000 $ par foyer américain et par an. Cette dépense considérable pourrait doubler d'ici 2040 et elle est déjà supérieure à celle consacrée au traitement du cancer ou des maladies cardio-vasculaires.

C'est la prise en charge dans des institutions spécialisées qui représente la dépense la plus importante, suivie par les prestations et services médicaux, souligne cette étude réalisée à la demande de l'Institut national du vieillissement.

"Le fardeau économique de la prise en charge des personnes atteintes de démence aux Etats-Unis est lourd et s'alourdit de plus en plus", souligne Michael Hurd, principal auteur de l'étude qui rappelle que Medicaid, le principal fonds public d'aide aux dépenses de santé prend en charge environ 11 milliards de dollars par an au titre des soins de la démence.

"Nos travaux confirment que notre pays doit accroître son effort et prendre à bras-le-corps ce problème qui va ne faire que progresser au cours des prochaines années à cause du vieillissement de notre population", ajoute Michael Hurd.

En 2011, le Président Obama a promulgué le "National Alzheimer's Project Act", une loi qui prévoit une meilleure prise en charge médico-sociale de la maladie d'Alzheimer.

Selon ce rapport, cette évaluation financière de la dégénérescence mentale doit être considérée comme un minimum car elle ne prend pas en compte le coût des autres pathologies induites dont souffrent les malades d'Alzheimer. En revanche, le rapport prend en compte l'évolution du degré de gravité de cette démence et l'aggravation de la perte d'autonomie qui en résulte.

On estime qu'à l'heure actuelle, 15 % des Américains de plus de 70 ans seraient atteints de démence, soit environ 5 millions de personnes et ce nombre pourrait atteindre 13 millions d'ici 2040.

Article rédigé par Georges Simmonds pour RT Flash

UOF

NEJM

Produire de nouveaux neurones : un rêve qui pourrait devenir réalité
Vendredi, 05/04/2013 - 17:15

Des chercheurs de l’Inserm et du CEA ont montré qu'en bloquant l'action de la molécule TGFβ, il était possible d'augmenter sensiblement la production de nouveaux neurones chez la souris. Ces résultats prometteurs ouvrent la voie à des outils thérapeutiques ciblés permettant d'accélérer la production de neurones pour compenser l'altération des facultés cognitives chez les personnes âgées.

La neurogenèse (formation de nouveaux neurones dans un cerveau adulte) peut être ralentie ou stoppée par différents facteurs, tels que l'âge, certaines pathologies, comme des tumeurs ou les maladies dégénératives.

Ces recherches ont permis de montrer que, contrairement à ce qu'on pensait jusqu'à présent, le vieillissement ou les radiothérapies n'entraînent pas une destruction complète des cellules-souches neurales d'où sont issus les nouveaux neurones. Les chercheurs ont en effet découvert que ces cellules-souches restent présentes en petite quantité dans une ère cérébrale spécifique, la zone sous ventriculaire. Le problème est que ces cellules-souches « survivantes » semblent être désactivées et ne sont plus capables de fonctionner correctement.

Les chercheurs ont pu constater que l'augmentation du niveau de concentration de la cytokine TGFβ entraînait une désactivation de ces cellules-souches et un arrêt progressif de la production de nouveaux neurones.

Comme le souligne Marc-André Mouthon, l’un des responsables de ces recherches, « nos travaux montrent que la neurogenèse diminue pendant le vieillissement et après une irradiation à forte dose, mais que beaucoup de cellules-souches survivent pendant plusieurs mois. Nous avons également établi que le blocage de la TGFβ pouvait restaurer la production de nouveaux neurones chez des souris irradiées ou âgées. »

Les chercheurs vont à présent essayer de trouver le moyen de bloquer la TGFβ chez l'homme, ce qui permettrait de limiter sensiblement les lésions cérébrales et le déclin cognitif provoqués par la radiothérapie ou le vieillissement.

Article rédigé par Georges Simmonds pour RT Flash

EMBO

Des cellules-souches adultes obtenues à partir de tissu intestinal
Vendredi, 05/04/2013 - 17:09

Pour la première fois, des chercheurs de l'université de Caroline du Nord ont réussi à isoler des cellules-souches adultes provenant de tissu intestinal humain. Cette avancée devrait permettre d'ouvrir de nouvelles voies thérapeutiques pour traiter les pathologies et maladies inflammatoires de l'intestin mais également pour atténuer les effets secondaires souvent très lourds de la chimiothérapie et la radiothérapie utilisées pour soigner les cancers qui touchent cet organe.

Comme le souligne le principal auteur de l'étude, le professeur Scott T. Magness, "la possibilité enfin offerte de produire et d'isoler les cellules-souches issues de l'intestin devrait sensiblement accélérer les recherches que nous menons".

Pour mettre au point cette technique, les chercheurs ont transposé le savoir-faire qu'ils avaient acquis en matière de cellules-souches chez la souris. Ils ont notamment établi que des marqueurs membranaires spécifiques, appelés CD24  et CD44 étaient les mêmes chez la souris et chez l'homme. Ils sont ensuite parvenus, après avoir marqué les cellules-souches par fluorescence, à isoler ces cellules dans le tissu intestinal humain et à distinguer deux types de cellules-souches différents.

"Maintenant que nous franchi cette première étape importante, nous allons aller plus loin et essayer d'évaluer le potentiel de ces cellules-souches dans différentes thérapies cellulaires. Nous allons également essayer de voir si nous pouvons modifier génétiquement ces cellules pour traiter plus efficacement les nombreuses pathologies qui touchent l'intestin" souligne le professeur Magness.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La population mondiale pourrait se stabiliser en 2050
Samedi, 06/04/2013 - 17:53

Selon une étude réalisée par l'université autonome de Madrid, la population mondiale pourrait se stabiliser vers le milieu de ce siècle. Ces résultats concordent avec les dernières prévisions à la baisse publiées par l'ONU. Selon les estimations des Nations Unies, la population mondiale en 2100 se situerait dans une fourchette comprise entre 6,2 et 15,8 milliards de personnes.

L'étude espagnole confirme la tendance basse de ces prévisions et prévoit une stabilisation et même une légère diminution de la population mondiale vers 2050.

Comme le souligne le professeur Muñoz, responsable de cette étude, "jusqu'au milieu du XXe siècle, nous avions à la fois un taux de natalité et un taux de mortalité élevés. Mais le taux de mortalité a fortement baissé dans la seconde moitié du 20ème siècle, grâce aux progrès médicaux et à l'amélioration des conditions de vie dans de vastes parties du monde. Enfin, depuis 30 ans, nous assistons à une forte diminution globale des naissances au niveau mondial."

Cette étude souligne que le spectre de la surpopulation, souvent redouté au cours des années 60 et 70, s'éloigne de plus en plus. En 1992, l'ONU avait prévu qu'il y aurait 7,17 milliards de personnes sur Terre d'ici 2010, alors que nous n'en sommes encore qu'à 6,9 milliards. Une des raisons de cette décélération démographique est que le taux de fécondité a diminué de plus de 40 % depuis 1950.

Ces travaux soulignent qu'il faut dès à présent prendre en compte ces projections et en tirer les conséquences sur le plan économique, social et politique. « Il est clair à présent que le défi qui nous attend dans la deuxième moitié de ce siècle n'est pas la surpopulation mais bien le vieillissement accéléré de la population mondiale » ajoute le professeur Munoz.

Article rédigé par Georges Simmonds pour RT Flash

Science News

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top