RTFlash

RTFLASH Recherche & Technologie
NUMERO 695
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Mars 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le premier ordinateur quantique commercial va-t-il bientôt voir le jour ?
Avenir
Un robot capable d'exprimer des émotions humaines
Quand les robots apprennent à gérer les obstacles…
Matière
Plus fort que les rayons X : le laser térahertz
La vitesse de la lumière est-elle vraiment fixe ?
Comment mieux intégrer l'énergie éolienne dans les réseaux électriques
Cellules solaires : les nanofils pourraient repousser les limites du rendement énergétique
Le CO2, nouvelle matière première pour la chimie fine ?
IBM invente le transistor liquide !
Espace
L'Univers prend un coup de vieux !
Terre
Le réchauffement accéléré de l'Antarctique se confirme
Une éruption volcanique à l'origine de l'extinction des espèces
Vivant
Vers des vaccins entièrement synthétiques grâce au Synchrotron
Découverte d'un gène qui double le risque d'hypertension artérielle pulmonaire
Folates et vitamine B12 pourraient réduire les symptômes de la schizophrénie
Le gras est-il une sixième saveur ?
Se souvenir qu'on a bien mangé aide à moins manger
Les métastases n'aiment pas la morue !
Cancer du poumon : le soja prolonge la survie !
Nos oreilles entendent, notre cerveau écoute !
L'omni-tomographie veut fusionner l'IRM et le scanner
Les enfants actifs auront moins de risque de fracture quand ils grandiront
Le scanner : nouvel outil de prévention de la récidive criminelle ?
L'isolement social réduit l'espérance de vie
Grande-Bretagne : le décès par cancer des enfants et adolescents a été divisé par deux depuis 30 ans
Un nouveau mécanisme intervenant dans la mémoire à long terme a été identifié
La Grande-Bretagne entre dans l'ère de la médecine génomique contre le cancer
Une nouvelle approche pour traiter les métastases du cancer du poumon
Découverte d'un nouveau mécanisme immunitaire qui contrôle le virus du sida
Une nouvelle famille de médicaments contre le paludisme
L'activité normale du cerveau peut entraîner une destruction de l'ADN
Mélanome : un traitement prometteur par thérapie cellulaire
Une nouvelle technologie d'imagerie pour détecter les petites tumeurs
Produire du cartilage à volonté grâce aux cellules-souches
L'atrophie du thalamus, marqueur précoce de la Sclérose En Plaques ?
Certaines modifications de l'activité cérébrale pourraient annoncer la schizophrénie
Régénérer les nerfs : un rêve qui pourrait devenir réalité
Les sept mesures qui repoussent le cancer !
Homme
Avoir l'embarras du choix… est parfois risqué !
Edito
Prenons-nous nos décisions à « l’insu de notre plein gré ? »



Beaucoup d’entre vous se souviennent sans doute d’une phrase prononcée par un célèbre coureur cycliste des années 90 et qui avait fait rire la France entière : « Je me suis dopé à l'insu de mon plein gré ».

Si cette phrase produisait un tel effet comique, c’est parce qu’elle portait en elle-même sa propre incohérence : comment en effet pourrions-nous décider de nos actes si nous n’en étions pas, au moins à un certain niveau, conscients et si les décisions que nous prenions ne résultaient pas de notre propre volonté ?

Pourtant, à y regarder de plus près, la réalité est plus subtile qu’elle n’y paraît et les récentes avancées des neurosciences et des sciences cognitives ont montré, tant sur le plan conceptuel qu'expérimental, que nous ne choisissons pas toujours en conscience et que nous n’avons pas toujours conscience de nos choix !

Sur cette question tout à fait passionnante, qui se situe au carrefour de la neurobiologie, de la philosophie et de la morale, il faut lire l’essai absolument remarquable qu’a écrit le regretté Marc Jeannerod (qui dirigeait le centre des neurosciences de Lyon) en 2009, peu de temps avant sa disparition, et qui s’intitule « Le cerveau volontaire ».

S’appuyant sur les dernières avancées dans le fonctionnement du cerveau et dans la connaissance des mécanismes qui vont de la production des pensées abstraites à la prise de décision puis à l’action elle-même, Marc Jeannerod propose un modèle neurobiologique original qui distingue, d’une part, le désir et la volonté et, d’autre part l’action proprement dite.

Selon Jeannerod, s’il existe bien évidemment une cohérence et une articulation entre « vouloir » et « faire », ces deux facultés humaines fondamentales ne sont pas subordonnées l’une à l’autre ; elles possèdent chacune une large autonomie et dialoguent entre elles de façon permanente et complexe dans un processus dynamique qui nous conduit, en tant que sujet, à nous reconnaître comme libre et responsable de nos actes.

Cette théorie est d’autant plus intéressante qu’elle renvoie dos à dos deux conceptions réductrices de la conscience, de l’action et de la responsabilité.

La première conception considère que la conscience n’est finalement qu’une illusion et que le choix de nos actes est entièrement dicté par des mécanismes automatiques et inconscients qui, par définition, nous échappent.

L’autre conception considère au contraire que la conscience est tout, qu’elle est omniprésente, omnipotente et qu'elle dirige et contrôle tous nos actes et décisions.

Marc Jeannerod propose une théorie dans laquelle, au contraire, conscience et action fonctionnent à la fois de manière autonome et coordonnée. Par exemple, quand nous sommes au volant de notre voiture, nous effectuons une grande partie des actes de conduite sans en avoir véritablement conscience, ce qui ne signifie pas pour autant que nous ne « pensons » pas, à un certain niveau, à ce que nous faisons.

A contrario, nous sommes tout à fait capables, allongés sur la plage en train de ne rien faire, de nous représenter très concrètement un travail à accomplir, d’en décomposer les différentes séquences et d'en imaginer les résultats.

Dans cet exemple simple, on voit donc bien que nos actions ne sont jamais entièrement et constamment soumises à notre conscience et que cette dernière peut fonctionner de façon autonome, indépendamment de toute action particulière.

Comme le rappelle Marc Jeannerod, des expérimentations récentes ont montré de façon rigoureuse que, contrairement à ce que nous pensons, nous prenons conscience de nos décisions après le déclenchement de l'action.

À cet égard, il faut évoquer une remarquable expérience menée en 2008 par deux chercheurs britanniques, Mathias Pessiglione et Crith Frith (Voir article). Cette expérience consistait pour les sujets à choisir, à plusieurs reprises, sur un écran une image parmi les trois qui leur étaient proposées furtivement. Selon le choix qu’ils faisaient, les sujets pouvaient perdre de l’argent, en gagner ou rester dans la même situation. Les chercheurs avaient indiqué aux participants qu’ils devaient, pour chaque série de trois images, choisir l’une de ces images à l’intuition.

Ce que ne savaient pas les participants, c’est que la deuxième image de chaque série contenait un indice leur indiquant qu’ils avaient choisi l’image correspondant au gain. Mais comme ces images leur étaient proposées très rapidement, les sujets n’avaient pas le temps de prendre conscience de cet indice. Pourtant, à la fin de l’expérience, les participants étaient systématiquement bénéficiaires, ce qui prouve que leur cerveau avait réussi à détecter l’indice gagnant sans qu’ils en soient conscients.

Il a également été démontré sur le plan expérimental en 2004 par des chercheurs néerlandais que, lorsque nous commettons une erreur, notre cortex produit en moins d’un dixième de seconde une onde cérébrale spécifique, l'ERN (Error Related Negativity), même si nous n’avons absolument pas pris conscience de notre erreur (Voir Nature).

On retrouve d’ailleurs le même phénomène en ce qui concerne nos réponses émotionnelles. Nous savons à présent que nos émotions se manifestent automatiquement, avant que nous en soyons conscients.

Le grand scientifique américain William James, l’un des pères de la psychologie moderne, avait compris, avec son collègue Carl Lange, ce mécanisme fondamental en 1884 en exprimant la conviction que ce ne sont pas les réactions émotionnelles qui gouvernent nos réactions physiques mais précisément le contraire !  

Ces deux pionniers avaient alors pu écrire « Nous nous sentons tristes parce que nous pleurons, en colère parce que nous frappons quelqu'un et effrayés parce que nous tremblons. »

Il reste que, dans la vie quotidienne, c’est bien notre conscience qui prend les décisions, quelques jours, quelques heures ou quelques minutes avant leur accomplissement. Mais ensuite l’action proprement dite peut se déclencher avant que nous en ayons conscience. Tout se passe alors comme si notre conscience, pour pouvoir se consacrer à d'autres tâches, déléguait en quelque sorte sa décision à des instances spécialisées d'exécution.

Ce processus explique qu'une action s'effectue de manière plus lente quand nous l’avons décidée par nous-mêmes et plus rapide quand nous l’accomplissons en réponse à une information externe, provenant de l’environnement.

Il est probable que notre capacité à percevoir, via nos sens, des informations utiles en provenance de l’environnement avant même que nous en soyons conscients, soit liée à la présence persistante de notre cerveau reptilien, hérité du fond des âges, qui a permis à notre espèce de s’adapter de manière extraordinaire à l’évolution de son milieu.

Quant à la conscience, loin d’être réduite à une illusion ou au contraire érigée en instance toute-puissante, les dernières découvertes en neurobiologie nous montrent qu’il faudrait plutôt la concevoir comme un processus dynamique qui nous permet, dans une cohérence spatio-temporelle, de construire des liens conceptuels et existentiels entre ce que nous voulons (Spinoza dirait ce que nous désirons) et ce que nous accomplissons effectivement.

C’est là que science, philosophie et éthique se rejoignent : comme l’avaient bien pressenti Spinoza et, un siècle et demi plus tard, James et comme le conjecturent aujourd’hui Marc Jeannerod mais également le grand neurobiologiste américain Antonio Damasio, nous pensons aussi avec notre corps et agissons aussi avec notre esprit et l’ensemble de nos actes et décisions sont inséparables de leur dimension émotionnelle et affective.

Comme l’avait bien vu Rousseau, c'est bien notre conscience réflexive et spéculative qui fonde notre humanité et nous permet de nous arracher à la nature et de conquérir notre liberté. Ce grand penseur écrit dans "L'Emile" « Bien que toutes nos idées nous viennent du dehors, nos sentiments sont au-dedans de nous, et c’est par eux seuls que nous connaissons la convenance ou disconvenance qui existe entre nous et les choses que nous devons respecter ou fuir ».

Ce que nous confirment les neurosciences mais que nous avaient déjà appris les grands philosophes, c'est qu'en nous regardant agir, nous nous construisons comme sujets, apprenons à nous connaître et finalement à nous reconnaître comme responsables de nos actes et libres de nos choix, même si nous sommes conscients que cette liberté est toujours relative et que de nombreux déterminismes s’exercent sur nous.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le premier ordinateur quantique commercial va-t-il bientôt voir le jour ?
Dimanche, 24/03/2013 - 18:24

Depuis les origines de l'informatique, dans les années 40, les ordinateurs fonctionnent selon la logique binaire, en manipulant des 0 et des 1.

Mais cette réalité va peut-être changer plus tôt qu'on ne le pense. Partout dans le monde les grands centres de recherche, les universités et les géants du secteur numérique travaillent sur la mise au point d'ordinateurs quantiques. Microsoft, IBM et Hewlett-Packard, pour ne citer que ces firmes, consacrent d'importants moyens de recherche pour progresser dans cette voie prometteuse mais déroutante.

En effet, un ordinateur quantique n'est pas une amélioration de l'ordinateur binaire mais fonctionne selon des principes physiques radicalement différents. Cette machine exploite les étranges propriétés de la physique quantique qui ne s'exprime qu'au niveau atomique et sont extrêmement difficiles à contrôler. Pour le dire simplement, l'ordinateur quantique n'utilise plus des bits, mais des "qbits", c'est-à-dire qu'il manie des entités physiques et mathématiques qui peuvent simultanément prendre plusieurs états.

Selon le New York Times, Lockheed Martin, qui s'est associé à la société canadienne D-Wave Systems il y a deux ans, serait sur le point de commercialiser le premier ordinateur quantique opérationnel.

Ray Johnson, directeur technique de Lockheed, a précisé que son entreprise comptait utiliser ce type de machine pour concevoir et tester des systèmes aéronautiques et spatiaux complexes. Avec un ordinateur quantique, Lockheed pourrait par exemple prévoir instantanément comment le logiciel de gestion d'un réseau de satellites réagira à une éruption solaire ou à une explosion nucléaire. Une telle prévision serait aujourd'hui tout simplement impossible car elle demanderait des semaines sinon des mois de calcul informatique.

Comme le souligne Ray Johnson, « Cette révolution qui s'annonce n'est pas sans rappeler les débuts de l'informatique car elle représente une rupture dans la manière même dont nous calculons et mettons le monde sous forme de représentations mathématiques numériques ».

Parmi les nombreux secteurs qui pourraient être bouleversés par l'arrivée de l'informatique quantique, il faut citer le domaine de la biologie et de la génétique. En cancérologie par exemple, les ordinateurs quantiques pourraient concevoir très rapidement, à partir de gigantesques bases de données, de nouvelles molécules thérapeutiques. Plus largement, en biologie ce type de machine serait assez rapide pour prévoir et simuler le comportement de l'ensemble des protéines produites par le génome humain.

Les chercheurs de Google sont également très intéressés par ce type de machine qui leur permettrait notamment de faire des pas de géant dans leur projet de voiture intelligente et autonome.

Le secteur bancaire et financier, gros consommateur de données numériques, pourrait également remplacer ces dizaines de milliers de gros systèmes informatiques par quelques machines quantiques qui pourraient faire le même travail et même plus, pour un coût bien inférieur.

Article rédigé par Georges Simmonds pour RT Flash

The New York Times

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot capable d'exprimer des émotions humaines
Mardi, 26/03/2013 - 22:06

Des chercheurs britanniques de l'Université de Cambridge au Royaume-Uni ont mis au point un « visage numérique » capable d'exprimer de façon très convaincante une large palette d'expressions humaines.

Cette interface humanoïde a été baptisée Zoé. Elle est capable, à partir de six modules de base exprimant les émotions fondamentales (joie, tristesse, affection, colère, peur, neutralité), d'exprimer avec une grande finesse la plupart des sentiments humains, en combinant les différents mouvements du visage et les intonations de la voix.

Pour atteindre cette performance, les chercheurs ont demandé à une actrice, Zoé Lister, de leur « prêter » ces expressions visuelles et vocales. Ils ont ensuite conçu des algorithmes sophistiqués qui combinent de manière presque infinie ces différents modules émotionnels de façon à exprimer de la manière la plus réaliste possible une attitude ou un sentiment.

Le système a finalement été testé sur des volontaires et ceux-ci, quand ils regardaient Zoé sur un écran mais sans le son, ont pu reconnaître dans 52 % des cas l'émotion exprimée. Avec l'image et le son, le taux de reconnaissance des sentiments est monté à 77 %, alors que dans la vie réelle cette reconnaissance, avec l'actrice en chair et en os n'était que de 73 % !

"Cette technologie, qui va permettre de concevoir de nouvelles interfaces bien plus attractives et bien plus conviviales, a donné envie à de nombreuses personnes, aujourd'hui réticentes, de communiquer avec les cinq ordinateurs et les robots", souligne le professeur Roberto Cipolla, du Département de génie de l'Université de Cambridge.

Article rédigé par Georges Simmonds pour RT Flash

Cambridge

Quand les robots apprennent à gérer les obstacles…
Mardi, 26/03/2013 - 13:21

Quand un robot se déplace dans l'espace, son comportement peut être modélisé par quelques équations simples. Mais dès qu'il rencontre un obstacle ou veut attraper un objet, tout se complique.

Le Laboratoire d'intelligence artificielle du MIT, conscient de ce problème qui limite les capacités d'action des robots, essaye d'élaborer un nouveau cadre mathématique qui unifie les règles d'évolution dans un espace libre et les règles de réaction face à un obstacle ou en cas de préhension d'un objet.

Ces travaux visent à rendre les robots plus souples, plus efficace et plus autonome dans leurs actions. Dans plusieurs articles récents, les scientifiques de ce centre de recherche ont fait part de leurs progrès dans ce domaine. Ils ont notamment montré comment de nouvelles approches mathématiques pouvaient sensiblement améliorer les calculs de trajectoire de robots complexes, comme le "Fast Runner", un robot autruche bipède en cours de construction à l'Institut pour la cognition humaine et la machine en Floride.

Parallèlement, ce nouveau cadre mathématique doit améliorer les conditions de stabilité et les capacités de rétablissement de l'équilibre des robots exposés à des chutes ou à des coalitions.

Ces travaux ont par exemple montré que, dans le cas du robot Fast Runner, la programmation classique de la marche (poser d'abord le talon au sol puis la pointe du pied) n'était pas pertinente et qu'il fallait revoir cette programmation en fonction de la forme et des degrés de liberté de la machine.

Le problème est qu'une telle démarche se heurte à ce que les spécialistes appellent « l'explosion combinatoire ». Dans le cas du Fast Runner, il y aurait en théorie 4 millions de combinaisons possibles à explorer avant de déterminer la meilleure façon de marcher.

Mais comme l'explique Michael Posa et Mark Tobenkin, tous deux chercheurs au MIT, le problème se corse encore davantage quand on prend en compte la non unicité des solutions. Ceux-ci soulignent en effet que pour assurer la stabilité d'un robot en quatre collisions, il est nécessaire d'évaluer non seulement toutes les configurations possibles du point de contact, mais également toutes les solutions possibles des équations qui en résultent.

Pour surmonter cet obstacle, ces deux chercheurs ont eu l'idée de s'attaquer à ce problème mathématique en recourant à des expressions algébriques simples. Cette méthode leur permet, à l'aide de seulement quelques équations, d'obtenir des informations suffisantes sur la façon dont le robot va réagir face à telle ou telle situation imprévue.

Bien entendu il ne s'agit pas d'une description précise de la réaction que le robot aura dans un cadre donné, mais cette approximation s'avère suffisante pour gérer la plupart des situations rencontrées dans le monde réel par la machine.

Les chercheurs soulignent toutefois que cette approche est plus facile à mettre en œuvre pour faire réagir le robot à des situations simples. Néanmoins, comme le souligne Posa et Tobenkin, « Rien en théorie n'empêche l'utilisation de notre approche mathématique pour permettre au robot de faire face à des situations plus complexes sans se heurter immédiatement à l'obstacle de l'explosion combinatoire en matière de calcul des solutions d'équations. »

Article rédigé par Georges Simmonds pour RT Flash

MIT

^ Haut
Matière
Matière et Energie
Plus fort que les rayons X : le laser térahertz
Jeudi, 28/03/2013 - 16:09

Une équipe de recherche américaine de l'Université du Michigan a développé une source laser térahertz, associée à un système de détection. Ce nouveau binôme technologique permet de focaliser les flux d'énergie 50 fois plus intenses et de détecter des éléments avec une sensibilité 30 fois plus grande que les technologies existantes.

« Avec notre système terahertz, il devient possible d'explorer en profondeur un matériau ou un tissu et de détecter d'infimes quantités de drogue ou d'explosifs » souligne Mona Jarrahi, qui dirige ces recherches.

Cette nouvelle technologie utilise des électrons libres à la surface d'électrodes métalliques pour former un type particulier d'ondes de surface appelées  plasmons.

Ces recherches montrent qu'il est possible d'accroître encore sensiblement la puissance et la sensibilité de cette technologie térahertz en améliorant sa focalisation.

Les lasers térahertz devraient trouver une multitude de champs d'application dans de nombreux domaines : sécurité, biologie, électronique, informatique nouveau matériau notamment.

Article rédigé par Gaël Orbois pour RT Flash

Phys Org

La vitesse de la lumière est-elle vraiment fixe ?
Mercredi, 27/03/2013 - 17:10

Des chercheurs français de l'Université de Paris-Sud, à Orsay, ont identifié un mécanisme quantique qui permet d'interpréter le vide comme un réceptacle rempli de particules virtuelles avec des valeurs d'énergie fluctuantes. Selon cette théorie, il serait donc possible que la vitesse de la lumière ne soit plus une constante invariante et puisse fluctuer.

Le vide est l'un des concepts les plus fascinants de la physique. Quand on l'observe au niveau quantique, le vide est tout sauf le néant. Il est rempli d'une multitude de particules virtuelles qui apparaissent et disparaissent en permanence et dont les manifestations correspondent à des fluctuations quantiques.

Dans son étude, l'équipe française présente un cadre théorique quantique cohérent qui pourrait expliquer la polarisation du vide ainsi que la vitesse finie de la lumière. Cette constatation est pertinente car elle suggère l'existence d'un nombre limité de particules éphémères par unité de volume dans le vide.

Selon cette hypothèse, il existerait une possibilité théorique que la vitesse de la lumière ne soit pas fixe, comme la physique postule jusqu'à présent, et puisse varier. La vitesse de la lumière pourrait en fait fluctuer de manière indépendante au niveau d'énergie de chaque photon et serait dépendante des variations des propriétés spatio-temporelles du vide.

Bien que ces fluctuations de la vitesse de la lumière soient très faibles - de l'ordre de 50 attosecondes par mètre carré de vide - elles pourraient être décelées à l'aide de nouveaux lasers ultra-rapides…

Article rédigé par Gaël Orbois pour RT Flash

Science Daily

Comment mieux intégrer l'énergie éolienne dans les réseaux électriques
Mercredi, 27/03/2013 - 16:14

L'intégration de l'énergie éolienne dans les réseaux électriques existants est difficile car la vitesse du vent connaît des fluctuations considérables et difficilement prévisibles, ce qui entraîne des écarts de production électrique importants de la part des parcs éoliens.

Ce phénomène, combiné à l'évolution permanente de la demande des clients, complique singulièrement la gestion des installations éoliennes, alourdit leurs coûts d'exploitation et réduit leur durée de vie car certaines machines ne peuvent pas être débrayées à temps, en cas de vent trop violent.

Dans un article publié par le journal américain des énergies renouvelables et du développement durable, des chercheurs proposent une nouvelle stratégie pour optimiser la puissance disponible grâce aux installations éoliennes. Cette nouvelle stratégie se fonde sur des prévisions continues des fluctuations du vent et de l'impact de celles-ci sur la capacité de production maximale de chaque turbine.

Cette nouvelle approche intègre également un plus grand nombre de facteurs, tels que le différentiel de production d'énergie entre machines, les fluctuations réelles de capacité de production d'électricité, les erreurs de prévision, les ruptures de charge et bien entendu les machines à l'arrêt.

En comparant leurs prévisions à partir du nouveau modèle, aux données brutes provenant des éoliennes, les chercheurs ont ensuite affiné leurs calculs et leur simulation à partir de données provenant d'un parc éolien de 33 machines.

Les résultats obtenus sont encourageants et montrent que cette nouvelle stratégie de gestion énergétique pourrait sensiblement améliorer la capacité de production et le rendement des installations éoliennes. Cependant, les chercheurs soulignent qu'avant la mise en œuvre de ce nouvel outil, chaque gestionnaire de parc éolien doit ajuster les paramètres de simulation de manière précise, en fonction des conditions géoclimatiques locales.

Article rédigé par Georges Simmonds pour RT Flash

PhysOrg

Cellules solaires : les nanofils pourraient repousser les limites du rendement énergétique
Mardi, 26/03/2013 - 21:49

Des scientifiques du Centre de Nanosciences à l'Institut Niels Bohr (Danemark) et de l'Ecole Polytechnique Fédérale de Lausanne, en Suisse, ont montré qu'un seul nanofil peut concentrer la lumière du soleil jusqu'à un niveau 15 fois supérieur aux technologies actuelles.

"En raison des propriétés physiques uniques d'absorption de la lumière que possèdent ces nanofils, ils pourraient bien devenir les constituants de base des cellules solaires photovoltaïques de demain" souligne Peter Krogstrup, qui dirige ces recherches.

Ces chercheurs n'ont cessé au cours de ces dernières années d'améliorer la qualité de la structure cristalline de ces nanofils qui se présentent comme de minuscules tubes, d'un diamètre environ 10 000 fois inférieur à celui d'un cheveu humain. Ces nanofils possèdent un grand potentiel de développement, non seulement dans le domaine de la production et du stockage de l'énergie mais également dans le secteur informatique et électronique.

Si ces nanofils parviennent à concentrer les rayons lumineux sur une toute petite zone cristalline et à amplifier ces derniers d'un facteur 15, c’est parce que le diamètre d'un nanofil est si minuscule qu'il est plus petit que la longueur d'onde de la lumière provenant du soleil, ce qui permet un phénomène de résonance et d'amplification de l'intensité lumineuse à l'intérieur de ces nanofils.

Grâce à ce phénomène, les physiciens ont pu franchir la limite d'efficacité théorique "Shockley-Queisser", qui semblait un plafond indépassable en matière de rendement des cellules solaires.

L'étude précise cependant que ces travaux en sont encore à un stade fondamental et que plusieurs années seront nécessaires avant d'envisager une production industrielle de cellules solaires composées de nanofils.

Article rédigé par Gaël Orbois pour RT Flash

Science Daily

Le CO2, nouvelle matière première pour la chimie fine ?
Lundi, 25/03/2013 - 14:00

Des chercheurs américains des universités de Yale et Brown ont mis au point une nouvelle technique qui pourrait permettre d'utiliser le CO2 pour produire de l'acrylate, un produit chimique indispensable dans la chimie fine pour la production de nombreux produits et matériaux, des tissus aux couches jetables.

La chimie mondiale utilise des milliards de tonnes d'acrylate chaque année, une substance obtenue par chauffage de propylène, un composé dérivé du pétrole brut. Depuis les années 1980, les chercheurs se sont penchés sur la possibilité de produire de l'acrylate en combinant le dioxyde de carbone avec de l'éthylène, moins coûteux que le propylène et pouvant être obtenu à partir de biomasse végétale. Mais jusqu'à présent les chimistes n'étaient pas parvenus à surmonter les difficultés permettant la production industrielle fiable et peu coûteuse d'acrylate par cette nouvelle voie.

Ces chercheurs ont pu montrer qu'une classe de composés chimiques appelés acides de Lewis, peuvent, en raison de leurs propriétés physico-chimiques, permettre une production facile d'acrylate en combinant le dioxyde de carbone et l'éthylène.

Ces travaux s'inscrivent dans le cadre d'un programme soutenu par la National Science Foundation pour l'innovation chimique qui vise à valoriser le CO2 pour la fabrication de toutes sortes de produits chimiques de base.

Article rédigé par Gaël Orbois pour RT Flash

NB

IBM invente le transistor liquide !
Dimanche, 24/03/2013 - 18:15

Les chercheurs d’IBM ont dévoilé un nouveau type de transistor, encore expérimental, qui utilise pour fonctionner un liquide ionique. Ce liquide a la capacité de changer l’état d’un oxyde métallique de conducteur à isolant, et vice-versa. De ce point de vue, il remplit les fonctions d'un transistor « classique » pour lequel une tension électrique est appliquée à sa grille afin de contrôler le courant qui le parcourt (entre drain et source) et moduler ainsi son état (ouvert ou fermé).

Mais la comparaison s'arrête là car ce nouveau type de transistor pourrait entraîner une véritable révolution en électronique et en informatique, compte tenu de ses propriétés extraordinaires. Ce transistor ne repose pas sur le même principe physique dans sa transition de l’état conducteur à l’état isolant et ce changement d'état n’a pas besoin d'énergie.

Comme le souligne Stuart Parkin, responsable de ces recherches, « Ce type de transistor va permettre de produire des appareils électroniques bien plus performants et consommant très peu d'énergie. »

Pour parvenir à ce résultat, les chercheurs ont utilisé une micro goutte d’un électrolyte liquide ionique d’environ un millimètre cube. Ces ions sont des atomes chargés positivement ou négativement et ils confèrent cette charge à la goutte de liquide.

« En faisant descendre l’électronique à l'échelle moléculaire et atomique, grâce à la maîtrise combinée de nouveaux matériaux, nous allons une fois de plus pouvoir repousser les limites prévues par la loi de Moore et poursuivre la miniaturisation des composants et des systèmes électroniques même lorsque l'ère du silicium sera achevée », déclare Stuart Parkin. Celui-ci précise toutefois que cette technologie ne sera pas commercialisée avant 2020.

Il est frappant de constater que le fonctionnement de ce nouveau composant se rapproche de celui des neurones et des éléments qui constituent le cerveau. Stuart Parkin précise d'ailleurs à ce sujet que « dans nos recherches, nous nous inspirons de plus en plus des systèmes biologiques et du cerveau humain qui fonctionne à base de fluide et de courants ioniques. »

Article rédigé par Georges Simmonds pour RT Flash

The New York Times

^ Haut
Espace
Espace et Cosmologie
L'Univers prend un coup de vieux !
Samedi, 23/03/2013 - 11:46

Grâce aux nouvelles données du satellite Planck, les scientifiques de l'Agence spatiale européenne viennent d'affiner leurs connaissances de l'Univers. Même si ces données ne constituent pas un bouleversement par rapport au paysage cosmique général dépeint par les physiciens, elle révèle tout de même quelques surprises.

Tout d'abord, notre Univers est plus vieux que prévu. Son âge est à présent fixé à 13,8 milliards d'années : 80 millions d'années de plus que les estimations précédentes. Autre découverte qui découle de la première, la circonférence de l'Univers est plus grande de 3 %.

Globalement, ces résultats restent compatibles avec la théorie dominante, celle de l'inflation cosmique. Selon cette théorie, peu de temps après le Big-bang originel, l'Univers serait passé en une fraction de seconde de la taille d'un atome à sa taille actuelle, ce qui défie notre entendement.

Quels sont les principaux enseignements que nous apportent ces nouvelles mesures plus précises et plus complètes fournies par le satellite Planck ?

En premier lieu, nous l'avons vu, l'Univers est un peu plus âgé que prévu. Ensuite, la masse de matière ordinaire (celle dont nous sommes composés), représente 4,9 % de la masse totale. La matière noire représenterait, pour sa part, 26,8 % de la masse totale, soit 20 % de plus qu’avant. La part de l’énergie noire se trouve légèrement réduite mais reste dominante. Enfin, la vitesse de l’expansion de l’Univers est plus faible de 7 %.

Mais l'observation la plus intéressante est ailleurs. L’ESA note en effet une curieuse « asymétrie des températures moyennes ». Concrètement, la partie droite de la nouvelle carte de l'Univers apparaît nettement différente de la partie gauche. Sur cette question, l’ESA précise que ces anomalies « sont réelles et n'ont pas d'explication satisfaisante pour l'instant ».

Certains physiciens soulignent déjà qu'il n'est pas impossible que ces curieuses fluctuations et cette asymétrie conduisent finalement à une remise en cause du modèle standard actuel. Mais nous n'en sommes pas encore là et, pour l'instant, la communauté scientifique reste émerveillée par la précision et le foisonnement de ces observations cosmiques.

Comme le souligne Brian Greene, physicien réputé à l'Université de Colombia et auteur de nombreux livres de vulgarisation scientifique, «Quel triomphe pour l'esprit. Ces observations sont d'une précision à couper le souffle et elles montrent à l'évidence que notre Univers obéit à des lois mathématiques. Mais ce qui est tout aussi extraordinaire, c'est que l'esprit humain puisse comprendre ces lois en les confrontant à l'observation et à l'expérience ».

Article rédigé par Georges Simmonds pour RT Flash

WP

ESA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement accéléré de l'Antarctique se confirme
Jeudi, 28/03/2013 - 16:00

Une étude américaine publiée dans le journal des recherches géophysiques montre que la période annuelle de fonte en Antarctique atteint une durée inégalée.

Selon ces recherches, le Pôle Sud se réchaufferait plus rapidement que n'importe quel autre endroit de la planète. En 50 ans, la température moyenne aurait augmenté de plus de 3°C sur ce continent blanc.

« En analysant les données sur plusieurs décennies de 30 stations météorologiques, nous avons constaté une augmentation significative de la durée de la saison de fonte en Antarctique et avons observé que la durée moyenne de la saison de fonte a presque doublé depuis 60 ans », souligne Nick Barrand, principal auteur de cette étude.

Ces recherches montrent que l'augmentation de la fonte des glaces accélère la rupture des grandes plates-formes glaciaires accrochées au continent, ce qui risque de provoquer une accélération de l'élévation générale du niveau des mers qui pourraient dépasser 1 mètre d'ici la fin de ce siècle.

Article rédigé par Gaël Orbois pour RT Flash

LS

Une éruption volcanique à l'origine de l'extinction des espèces
Samedi, 23/03/2013 - 11:36

Selon une étude américaine, l'extinction brutale de plus de la moitié des espèces vivant sur terre il y a 200 millions d'années aurait été provoquée par des éruptions volcaniques cataclysmiques. Selon ces travaux, cette grande extinction se serait produite il y a exactement 201 564 000 ans, à la suite des éruptions phénoménales de plusieurs volcans qui auraient relâché pendant 600 000 ans plus de 10 millions de kilomètres cubes de lave et plusieurs dizaines de milliards de tonnes de CO2 dans l'atmosphère, entraînant une brusque rupture climatique.

Cette catastrophe planétaire aurait permis l'apparition des dinosaures, une espèce qui serait restée dominante pendant 135 millions d'années avant d'être elle-même exterminée à la suite d'un autre bouleversement climatique majeur provoqué par la chute d'un énorme astéroïde de plusieurs dizaines de kilomètres de diamètre.

Cette nouvelle datation est 150 fois plus précise que les estimations précédentes et la marge d'erreur n'est que de 20 000 ans, ce qui est très peu à l'échelle des temps géologiques.

Pour parvenir à des estimations aussi précises, les scientifiques ont procédé à de multiples analyses d'échantillons de basalte qui ont été récoltés dans plusieurs régions du monde.

Blackburn et ses collègues ont réussi à déterminer l'âge de ces basaltes en fonction de leur teneur en minéraux. En effet, dans les coulées de lave, les régions centrales restent chaudes et certains éléments chimiques, comme le zircon, ne parviennent pas à se cristalliser. Or le Zircon intègre de grandes quantités d'uranium, qui se transforme en plomb à une vitesse parfaitement connue. En mesurant ce rapport uranium/ plomb dans les roches volcaniques, les scientifiques ont pu déterminer avec une grande précision à quel moment ces éruptions s'étaient produites.

Ces travaux ont également utilisé deux autres méthodes pour confirmer cette datation. D'une part, le renversement du champ magnétique terrestre, repérable dans les couches de sédiments par l'analyse de certains minéraux et, d'autre part, l'analyse fine des oscillations de la terre autour de son axe qui entraîne des fluctuations de la quantité d'énergie qu'elle reçoit du soleil. Ces variations correspondent à des périodes climatiques différentes et s'enchaînent à un rythme régulier, ce qui permet une datation précise des fossiles à l'intérieur des couches géologiques.

Comme le dit Terrence Blackburn, l'un des auteurs de l'étude, "La compréhension des causes de cette extinction massive va nous donner des informations sur les conséquences d'un doublement rapide des émissions de CO2 sur le climat, une situation qui ressemble, d'une certaine façon, à celle que nous vivons actuellement."

Article rédigé par Gaël Orbois pour RT Flash

Nature

Science

LS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vers des vaccins entièrement synthétiques grâce au Synchrotron
Jeudi, 28/03/2013 - 16:05

Des scientifiques britanniques ont développé une nouvelle méthode qui devrait permettre de créer, contre de nombreux virus, des vaccins entièrement synthétiques qui ne reposent plus sur l'utilisation de virus vivants et qui sont donc intrinsèquement bien plus simples à utiliser.

Ces recherches ont permis de créer un vaccin expérimental entièrement synthétique contre la fièvre aphteuse, une maladie virale qui touche les bovins. Ce type de vaccin présente le grand avantage de pouvoir être conservé sans réfrigération pendant plusieurs heures, ce qui le rend particulièrement utilisable dans les pays en voie de développement.

Ces résultats ont pu être obtenus grâce à une collaboration entre des biologistes et des physiciens travaillant sur le synchrotron "Diamond Light Source", près d'Oxford.

Ce synchrotron est un accélérateur de particules qui propulsent des électrons dans un anneau magnétique à une vitesse proche de celle de la lumière. Ces électrons émettent de l'énergie sous forme de rayons X à haute intensité qui peuvent être utilisés en laboratoire pour analyser la structure du vivant à un niveau de résolution atomique.

"Contrairement aux vaccins traditionnels, le vaccin synthétique que nous allons produire ne peut en aucun cas être porteur de propriétés infectieuses" précises Dave Stuart, Professeur de biologie structurale à l'Université d'Oxford qui ajoute : «Ce travail aura un impact large et durable sur le développement de vaccins de prochaine génération et notre technologie devrait pouvoir être étendue à de nombreux autres virus. »

Article rédigé par Georges Simmonds pour RT Flash

BBC

Découverte d'un gène qui double le risque d'hypertension artérielle pulmonaire
Jeudi, 28/03/2013 - 15:55

Des chercheurs français de l'Inserm et de l'université Pierre et Marie Curie, en collaboration avec leurs collègues américains, ont identifié un marqueur génétique localisé sur le chromosome 18, qui est associé à un doublement du risque d’hypertension artérielle pulmonaire (HTAP).

L’HTAP est une maladie rare mais grave qui touche les artères du poumon et provoque des altérations de la fonction cardiaque. Cette pathologie concerne principalement les jeunes femmes et son origine reste mal connue.

En procédant à l'aide de puces ADN à une vaste analyse des génomes de plus de 2000 patients, les chercheurs ont pu repérer une anomalie dans la production de la protéine CBLN2, associée à une mutation du gène 18q22.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Folates et vitamine B12 pourraient réduire les symptômes de la schizophrénie
Jeudi, 28/03/2013 - 15:52

La schizophrénie est une pathologie neuropsychiatrique lourde dont les origines multifactorielles restent encore mal cernées et qui se traduit par une perte de contact progressive avec la réalité.

Une étude américaine réalisée sur 140 patients schizophrènes, âgés de 18 à 68 ans a montré qu’une supplémentation en acide folique, à raison de 2 mg par jour et en vitamine B12, permettait une diminution sensible des symptômes liés à la schizophrénie.

Selon ces recherches, il a été constaté, après quatre mois de consommation d’acide folique et de vitamine B12, "une « amélioration significative des symptômes négatifs » de la schizophrénie, comparativement au groupe de patients sous placebo". Mais l'étude précise que, s'agissant des folates, cet effet bénéfique n'est observé que chez les patients porteurs de mutations spécifiques du gène FOLH1.

En conclusion, les chercheurs soulignent que la prise conjointe de folates et de vitamine B12 constitue une indication thérapeutique intéressante pour diminuer la gravité des troubles schizophréniques mais à condition de bien tenir compte du profil génétique des patients qui détermine leur degré de sensibilité aux folates.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Le gras est-il une sixième saveur ?
Jeudi, 28/03/2013 - 15:37

En 2012, des chercheurs français dirigés par Philippe Besnard avaient découvert qu'une protéine, la CD 36, de la famille des transporteurs d'acides gras (FAT), présente dans les papilles gustatives, jouait un rôle-clé dans la perception du gras. Cette protéine nous permettrait de percevoir des acides gras poly et mono insaturées, bénéfique sur le plan cardio-vasculaire.

Cette découverte est très importante car elle pourrait permettre de grandes avancées thérapeutiques dans la prévention et le traitement du surpoids et de l'obésité.

Les scientifiques ont d'abord cru que l'attirance pour les aliments gras était uniquement provoquée par leur odeur et leur texture. Mais les récentes recherches du Professeur Besnard et d'autres équipes aux États-Unis montrent qu'il y aurait bien, indépendamment de ces facteurs d'attirance, un "goût" du gras.

Quand on demande au Professeur Besnard en quoi consiste ce "goût du gras", celui-ci répond qu'il correspond à une capacité spécifique chez l'homme de perceptions sensorielles de certains types de lipides. Mais ce qui distingue selon ce chercheur ce "goût" du gras des cinq saveurs primaires (sucré, salé, amer, acide et umami), c'est le fait que le gras ne provoque pas le même type de sensation, bien déterminée, dans notre cerveau.

Selon Philippe Besnard, "le goût du gras" relèverait d'un mécanisme spécifique qui permettrait à l'homme de détecter inconsciemment certains aliments en fonction d'un critère de valeur énergétique.

Cette aptitude viendrait du fond des âges et aurait été sélectionnée par l'évolution. Elle aurait aidé l'homme à survivre pendant les très longues périodes de son histoire où il a dû faire face aux restrictions alimentaires. Mais à présent, cette faculté serait en train de se retourner contre notre espèce puisqu'elle contribuerait au développement de l'obésité et de son cortège de pathologies associées.

Article rédigé par Georges Simmonds pour RT Flash

NCBI

Se souvenir qu'on a bien mangé aide à moins manger
Jeudi, 28/03/2013 - 15:31

Décidément, les neurosciences n'en finissent pas de redécouvrir à quel point le corps et l'esprit sont indissociables. Des chercheurs britanniques de l'Université de Liverpool viennent ainsi de réaliser une étude qui montre que se souvenir de ses repas permet de mieux maîtriser la quantité de nourriture consommée.

En revanche, avoir l'impression de rester sur sa faim ne semble pas le meilleur moyen de contrôler son poids. Selon le Docteur Robinson qui a dirigé cette étude, plus nous mangeons "sur le pouce", de manière distraite et en faisant autre chose, plus nous risquons de prendre du poids car nous aurons tendance à manger davantage.

Ce travail montre de façon très convaincante que des repas non savourés et remplis d'activités se traduisent immanquablement par une surconsommation alimentaire.

Cette étude confirme une autre recherche qui montrait également que le souvenir d'un bon repas permettait d'atteindre plus facilement la sensation de satiété et que celle-ci semblait davantage liée au plaisir que nous avions eu à manger les aliments qu'à la quantité réelle de nourriture que nous avions consommée.

Article rédigé par Georges Simmonds pour RT Flash

AJCN

PLOS

Les métastases n'aiment pas la morue !
Jeudi, 28/03/2013 - 14:55

Des chercheurs américains de l’Université du Maryland viennent de découvrir que des protéines présentes dans certains poissons peuvent inhiber les métastases du cancer. Présent notamment dans la morue, ce peptide, par un mécanisme qui vient d'être élucidé, possède une activité anticancéreuse originale et pourrait être utilisé comme « Alicament », en association thérapeutique avec les traitements anticancéreux classiques, chimiothérapie et immunothérapie notamment.

On le sait, ce sont principalement les métastases qui s'avèrent mortelles dans le cancer, c'est pourquoi bloquer ce processus de dissémination des cellules cancéreuses vers différents organes constitue l'un des grands enjeux actuels de la cancérologie.

Ces chercheurs ont montré que la galectine-3 (GAL3) reconnaît le disaccharide Thomsen-Friedenreich (TFD), un antigène présent à la surface de la plupart des cellules cancéreuses et permet la promotion de l'angiogenèse de la tumeur et la formation de métastases en déjouant la vigilance des cellules T. Mais ces scientifiques sont parvenus à bloquer cette promotion des cellules cancéreuses par la voie GAL3 en isolant et purifiant un glycopeptide de la morue (baptisé provisoirement TFD 100) qui possède également le pouvoir de restaurer l'efficacité des cellules T du système immunitaire.

En bloquant de manière puissante cette interaction GAL3-TFD, le TFD-100 pourrait devenir une voie thérapeutique efficace pour empêcher les métastases dans différents cancers, dont celui de la prostate.

Comme le souligne le professeur Ahmed, qui dirige ces recherches, « L'utilisation thérapeutique de substances présentes dans notre alimentation est un domaine de recherche en plein essor et ouvre de grandes perspectives dans la prévention et la lutte contre le cancer. C'est pourquoi il est si important de comprendre comment ces molécules agissent au niveau cellulaire et aident le système immunitaire à éliminer les cellules malignes. »

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Cancer du poumon : le soja prolonge la survie !
Jeudi, 28/03/2013 - 14:29

Selon une étude américaine réalisée sur plus de 80 000 femmes, une forte consommation de soja avant un diagnostic de cancer du poumon permet de prolonger la survie. C'est la première fois qu'une étude scientifique démontre la réalité de l'effet protecteur de la consommation de soja pour les femmes atteintes d'un cancer du poumon.

Ces recherches ont analysé les données provenant de 80 000 patientes chinoises atteintes d’un cancer du poumon. Les scientifiques ont découvert que les isoflavones du soja, qui s'apparente à des œstrogènes végétaux, jouait un rôle bénéfique en freinant le développement du cancer du poumon. Selon des travaux antérieurs réalisés par cette même équipe de recherches, une consommation régulière de soja pourrait diminuer de 40 % le risque de cancer du poumon chez les fumeuses.

Cette étude a notamment montré que les patientes qui consommaient le plus de soja avaient une survie moyenne sensiblement plus importante que celles en consommant peu, en l'occurrence 60 % de taux de survie à 12 mois, contre 50 %.

La diminution du risque de décès par cancer du poumon semble directement proportionnelle à la quantité de soja consommé par ces femmes et plafonne à 100 g par jour. Au-delà de ce niveau de consommation, on ne constate en effet aucun bénéfice supplémentaire en termes de survie.

Article rédigé par Georges Simmonds pour RT Flash

JCO

Nos oreilles entendent, notre cerveau écoute !
Jeudi, 28/03/2013 - 14:25

Nous en avons tous fait l'expérience. Nous arrivons dans un endroit bruyant, un bar ou un restaurant par exemple. Nous captons d'abord un brouhaha informe. Mais très rapidement, nous sommes capables de nous focaliser sur une conversation particulière et de la suivre sans être gênés par le bruit ambiant pourtant important.

Depuis plus de 50 ans, les scientifiques essayent de comprendre comment notre cerveau parvient à accomplir quotidiennement cette prouesse. Des scientifiques américains de l'Université de Columbia viennent peut-être d'éclaircir ce mystère. Ces chercheurs ont enregistré l'activité cérébrale de six patients, à l'aide d'électrodes intracrâniennes. Les participants ont ensuite été invités à visionner deux films dans lesquels ils pouvaient voir et entendre un homme (dans le premier film) puis une femme (dans le deuxième film) leur raconter une histoire. Ensuite, ils devaient regarder en même temps ces deux films en essayant de se concentrer sur une seule voix.

Comme le souligne Charles Schroeder, responsable de cette étude, "nous savons que les aires sensorielles du cerveau ne filtrent pas les voix, mais les traitent simultanément. Il nous restait à comprendre comment, malgré tout, le cerveau parvient à filtrer très efficacement les informations sonores provenant de l'environnement pour se focaliser uniquement sur une voix".

L'étude montre que l'analyse de l'ensemble des informations sonores parvenant au cerveau s'effectue grâce à des groupes spécialisés de neurones des aires sensorielles, chacun de ces groupes prenant en charge le traitement de l'information correspondant à une voix.

Concrètement, chaque groupe de neurones, après un temps assez court d’adaptation, va synchroniser son activité sur le rythme du signal sonore interprété, en l'occurrence dans cette expérience, une voix humaine. C'est seulement ensuite que d'autres centres cérébraux vont prendre le relais pour trier et hiérarchiser cette information en fonction des critères que notre cerveau aura formulés.

L'étude américaine montre que les groupes de neurones spécialisés qui reçoivent les informations sonores ont la capacité de se "caler" très rapidement sur les caractéristiques physiques et le rythme de la voix qui nous intéresse. C'est cette capacité qui leur permet d'extraire avec une grande efficacité le signal intéressant, même lorsqu'il est noyé dans un fort bruit ambiant.

Ces travaux confirment également que la diminution de la capacité auditive qui accompagne souvent le vieillissement est également liée à la perte de cette faculté cérébrale qui nous permet de nous focaliser très vite sur une voix.

Ces recherches pourraient donc déboucher sur la conception de prothèses auditives beaucoup plus performantes permettant aux personnes malentendantes de filtrer et sélectionner les informations auditives qui les intéressent dans un environnement fortement bruité, ce qui n'est pas possible avec les systèmes actuels.

Article rédigé par Georges Simmonds pour RT Flash

Neuron

L'omni-tomographie veut fusionner l'IRM et le scanner
Mercredi, 27/03/2013 - 17:04

Des chercheurs américains ont mis au point une nouvelle technologie, baptisée omni-tomographie, qui combine les avantages de l'I.R.M. et du scanner.

Ge Wang, directeur du Cluster Rensselaer Polytechnic Institute d'imagerie biomédicale (New York) et ses collègues ont eu l'idée d'essayer d'associer les techniques d'imagerie les plus performantes, telles que la tomodensitométrie, imagerie par résonance magnétique, le scanner et la tomographie par émission de positon.

Pour utiliser simultanément ces différentes techniques, ces chercheurs ont mis au point une technologie appelée tomographie intérieure. Dans les systèmes actuels d’imagerie, les rayons X balayent le corps et le découpent en fines tranches à deux dimensions. Un traitement informatique permet ensuite de reconstituer une image complète de l'organe à examiner. Mais l'inconvénient de ce procédé, c'est que pour obtenir une image de l'aorte par exemple, il faut exposer aux rayons X l'ensemble de la poitrine.

En revanche, avec la technique de tomographie intérieure, le système informatique calcule les limites de l'image dont il a besoin et la tomographie se concentre uniquement sur les structures à l'intérieur du corps, ce qui réduit considérablement l'exposition aux radiations du patient. Autre avantage, cette nouvelle technique est même applicable aux anciennes radiographies du patient.

Cette technique permet à la fois de visualiser en détail les structures, grâce au scanner et les fonctions, grâce à l'IRM. Cette approche permet également de combiner la Tododensimétrie et l'IRM.

La technologie de tomographie intérieure serait particulièrement adaptée par exemple à la détection et au suivi des plaques d'athérome sur les parois des artères car, pour évaluer la dangerosité de ces plaques et leurs risques de rupture, il faut combiner les informations structurelles et fonctionnelles.

Article rédigé par Georges Simmonds pour RT Flash

Spectrum

Les enfants actifs auront moins de risque de fracture quand ils grandiront
Mercredi, 27/03/2013 - 16:56

Une récente étude suédoise, présentée dans le cadre d'un colloque de médecine sportive à Chicago, montre que les enfants physiquement actifs auront moins de risque de fracture quand ils seront plus âgés.

L'étude a été menée par Bjorn Rosengren et ses collègues de l'Hôpital Skane. Afin de vérifier leur hypothèse, les chercheurs ont mené pendant six ans une étude sur 2.395 enfants suédois âgés de sept à neuf ans au début de l'étude. Sur cette population, deux groupes ont été formés, le premier regroupant 362 filles et le deuxième 446 garçons, et ont été soumis à 40 minutes d'exercice physique quotidien à l'école.

Le groupe témoin était constitué de 780 filles et 807 garçons, qui pratiquaient 60 minutes d'éducation physique par semaine. Pendant la durée de cette étude, les chercheurs ont enregistré 72 fractures dans le groupe d'intervention et 143 fractures dans le groupe témoin. Les scientifiques ont pu constater une augmentation de la densité osseuse dans les deux groupes.

Comme le souligne le Docteur Rosengren, "L'activité physique accrue au cours de l'enfance permet incontestablement de se constituer une masse osseuse plus importante et des os plus résistants, ce qui réduit globalement le risque de fracture. C'est une raison supplémentaire pour inciter les enfants à pratiquer régulièrement un sport".

Article rédigé par Elisa Tabord pour RT Flash

SWR

Le scanner : nouvel outil de prévention de la récidive criminelle ?
Mercredi, 27/03/2013 - 16:49

Dans le film "Minority Report", de Spielberg, tiré d'un roman de science-fiction de l'écrivain Philip K. Dick, on pouvait voir des cyberpoliciers arrêter des suspects avant qu'il passent à l'acte et commettent des crimes !

Comme souvent, la réalité pourrait bien rejoindre la fiction plus vite que prévu. Des neurobiologistes américains affirment en effet qu'ils peuvent prédire, en analysant les scanners du cerveau des criminels condamnés, si ces derniers sont susceptibles de récidiver et de commettre de nouveaux crimes.

Ces chercheurs, dirigés par Kent Kiehl, ont étudié un groupe de 96 détenus de sexe masculin, juste avant leur libération. Les scientifiques ont utilisé l'imagerie par résonance magnétique fonctionnelle (IRMf) pour numériser les cerveaux des prisonniers pendant que ceux-ci étaient soumis à différents tests psychologiques.

Les analyses se sont focalisées sur l'activité d'une région particulière du cerveau, le cortex cingulaire antèrieur (CCA). À la suite de ces tests, les chercheurs ont suivi les ex-détenus pendant quatre ans pour examiner leur parcours.

Parmi les sujets de l'étude, les hommes qui avaient eu une faible activité du CCA pendant les tests de prise de décision rapide présentaient un risque multiplié par 2,6 de récidive, même après ajustement des autres facteurs de risque, tels que l'âge, la consommation de drogue et d'alcool et les troubles psychiatriques.

Les auteurs de cette étude soulignent toutefois qu'il reste beaucoup de travail à faire pour rendre cette technique fiable et cohérente en tant qu'outil d'évaluation des risques de récidive chez les délinquants criminels déjà condamnés.

Certains scientifiques, tout en reconnaissant l'intérêt de cette étude, rappelle que la faible activité du cortex cingulaire antérieur peut avoir de multiples causes, comme la santé vasculaire, la faible motivation ou un fonctionnement particulier des neurones, et n'est pas obligatoirement liée au comportement criminel.

En tout état de cause, les auteurs de l'étude soulignent que l'utilisation d'un tel outil par la justice aurait des conséquences juridiques, sociales et morales qui méritent d'être bien évaluées.

Article rédigé par Georges Simmonds pour RT Flash

Nature

L'isolement social réduit l'espérance de vie
Mercredi, 27/03/2013 - 16:41

On savait déjà que l'isolement social combiné à un sentiment de solitude pouvait augmenter le risque de maladie et de décès chez les personnes âgées. Mais il restait à déterminer si l'isolement social à lui seul était un facteur suffisant pour altérer la santé. Pour tenter de répondre à cette question, des chercheurs britanniques ont analysé les données médico-sociales provenant de 6.500 personnes âgées de plus de 52 ans et couvrant la période 2004-2012.

Les chercheurs ont évalué l'isolement social sur la base de la quantité de contacts que les participants déclaraient avoir avec la famille, des amis ou des associations. Le résultat est net : il y a bien une corrélation entre l'isolement social et le risque de mortalité, même après ajustement des différents facteurs de risque (tabac, alcool, alimentation, sédentarité, hypertension et cholestérol notamment).

L'étude souligne cependant que seul l’isolement social accroît le risque de maladie et de décès chez la personne âgée mais que cela n'est pas le cas pour la solitude. «Quand on pense à la solitude et à l'isolement social, on les envisage souvent de manière indissociable, un peu comme les deux faces d'une même médaille», souligne Andrew Steptoe, le psychologue de l'University College de Londres, qui a dirigé l'étude.

Pourtant, ces travaux montrent clairement que c'est bien uniquement le manque d'interaction sociale qui est néfaste pour le bien-être et la santé et pas le fait de vivre seul. Ces résultats sont d'autant plus intéressants qu'ils contredisent deux autres études récentes qui suggèrent que la solitude est associée à des risques accrus de problèmes de santé chez les personnes âgées.

L'auteur d'une de ces études antérieures, John Cacioppo, psychologue à l'Université de Chicago, reconnaît cette incohérence et pense qu'elle est liée aux difficultés à intégrer dans ce type d'étude les facteurs culturels qui jouent un rôle important sur la façon dont les personnes âgées supportent plus ou moins bien la  solitude.

Artile rédigé par Georges Simmonds pour RT Flash

Nature

Grande-Bretagne : le décès par cancer des enfants et adolescents a été divisé par deux depuis 30 ans
Mercredi, 27/03/2013 - 16:26

Selon un récent rapport gouvernemental, le nombre d'enfants et d'adolescents décédés par cancer en Grande-Bretagne a été divisé par deux depuis 1980.

Ce rapport souligne toutefois qu'après les accidents de la circulation, le cancer demeure la principale cause de décès chez les adolescents anglais. Selon cette étude, 2.100 jeunes âgés de 15 à24 ans sont touchés par le cancer chaque année au Royaume-Uni.

Mais au cours des 30 dernières années, les taux de mortalité sont passés de 88 décès par million (pour la période 1975-1977) à 44 décès par million (pour la période 2008-2010) chez les jeunes hommes. Chez les jeunes femmes, ces décès par cancer sont passés de 61 à 31 par million au cours de la même période.

Les décès par leucémie chez les adolescents et jeunes adultes ont connu une baisse particulièrement sensible puisqu'ils sont passés, en moyenne annuelle, de 54 par million à 39 par million entre 95 et 2010. Les tumeurs cérébrales sont restées la cause la plus fréquente de décès par cancer dans ce groupe d'âge.

Le Docteur Harpal Kumar, du Centre britannique de recherche contre le cancer, souligne que "C'est fantastique de voir une telle baisse du nombre de jeunes qui meurent de certains types de cancer. Mais cela ne doit pas nous faire oublier que pour la plupart des cancers rares qui touchent les jeunes, comme les sarcomes, les progrès thérapeutiques n'ont pas été très grands. Il est donc important de permettre un meilleur accès aux essais cliniques de nouveaux médicaments pour les jeunes atteints de cancer".

L'étude précise enfin que, bien que les taux de mortalité par cancer des enfants et adolescents soient en diminution constante, l'incidence des cancers pour cette tranche d'âge a augmenté depuis les années 1990.

Article rédigé par Elisa Tabord pour RT Flash

BBC

Un nouveau mécanisme intervenant dans la mémoire à long terme a été identifié
Mercredi, 27/03/2013 - 16:05

Des neurobiologistes du Centre Irvine (Université de Californie) ont découvert un nouveau mécanisme moléculaire qui permet de déclencher la formation de la mémoire à long terme. Les chercheurs pensent que la découverte de ce mécanisme inconnu devrait permettre de mieux comprendre les mystères de la mémoire et de sa dégradation.

Ces chercheurs ont étudié le rôle de ce mécanisme, organisé autour du gène Baf53b, dans la formation de la mémoire à long terme. Baf53b commande la production de plusieurs protéines qui forment un complexe moléculaire appelé nBAF.

On sait par ailleurs que certaines mutations dans les protéines de ce complexe nBAF ont été associées à plusieurs troubles intellectuels, dont le syndrome de Coffin-Siris et l'autisme. L'une des questions clés abordées par ces recherches était de savoir comment ces mutations pouvaient entraîner des déficiences cognitives sévères.

Ces recherches ont pu montrer, grâce à l'utilisation de souris transgéniques possédant ces mutations génétiques sur le gène Baf53b, que ces altérations de l'ADN n'avaient pas d'incidence sur la capacité d'apprentissage de ces souris mais les rendaient en revanche incapables de fixer des souvenirs à long terme à cause d'un dysfonctionnement dans leur fonction synaptique.

Les chercheurs ont par ailleurs montré que le mécanisme de régulation de l'expression du gène nécessaire à la formation de la mémoire à long terme était lié au processus de compactage mis en œuvre par la chromatine. Ce mécanisme de compactage réprime l'expression du gène Baf53b et du complexe nBAF, ce qui a pour effet d'empêcher la formation de la mémoire à long terme.

"Les résultats de cette étude révèlent un nouveau mécanisme puissant et éclaire notre compréhension de la façon dont les gènes sont régulés pour la formation de la mémoire", souligne le professeur Wood qui dirige ces recherches. Celui-ci ajoute : "Notre prochaine étape sera d'identifier les principaux gènes qui interviennent dans le contrôle et la régulation du complexe nBAF. Nous pourrons ensuite ouvrir des voies thérapeutiques en nous appuyant sur ces nouvelles connaissances".

Article rédigé par Georges Simmonds pour RT Flash

UCI

La Grande-Bretagne entre dans l'ère de la médecine génomique contre le cancer
Mercredi, 27/03/2013 - 15:58

Le premier test ADN par multi-séquençage des gènes intervenant dans la réponse des patients aux traitements anticancéreux a été lancé par le service national de santé britannique (NHS), grâce à un partenariat entre l'Université d'Oxford et le NHS.

Ce test utilise les dernières techniques de séquençage d'ADN pour détecter les mutations présentes dans 46 gènes qui y sont impliqués dans l'apparition et le développement des tumeurs cancéreuses solides. La présence d'une mutation spécifique dans un gène peut potentiellement déterminer quel traitement un patient doit recevoir. Ce nouvel outil développé par Life Technologies Corporation, ne nécessite qu'une infime quantité d'ADN (5 nanogrammes), un avantage supplémentaire pour sa généralisation clinique.

Ce nouveau test, qui ne coûte que 400 €, pourrait à la fois améliorer sensiblement l'efficacité des traitements proposés aux malades, diminuer les effets secondaires souvent lourds associés à ces médicaments et enfin réduire le coût unitaire des traitements en permettant de choisir pour chaque patient la meilleure combinaison chimiothérapique possible.

"C'est la première fois dans ce pays que nous pratiquons un test multigénique à grande échelle pour le profilage des tumeurs en utilisant la dernière technologie de séquençage de l'ADN", explique le Docteur Jenny Taylor du Centre Wellcome Trust pour la génétique humaine à l'Université d'Oxford.

Concrètement, un patient atteint d'un cancer du poumon devait jusqu'à présent subir une biopsie pour vérifier les mutations présentes dans son gène EGFR, ces mutations conditionnant l'efficacité thérapeutique de certains médicaments avancés.

Avec les méthodes classiques, le NHS ne peut au mieux que repérer les mutations présentes dans une dizaine de gènes impliqués dans différents cancers. Mais, grâce au saut technologique réalisé par les scientifiques d’Oxford, il est à présent envisageable, avec ces nouveaux tests multigénétiques, de rechercher simultanément des mutations dans 46 gènes et dans un futur proche, dans 150 gènes.

C'est donc véritablement une nouvelle ère qui s'ouvre en cancérologie avec la généralisation de la médecine génomique qui va permettre de caractériser très précisément d'une manière personnalisée le profil génétique de la tumeur de chaque patient. La connaissance bien plus précise de cette « signature génétique » de chaque cancer, permettra de proposer à chaque malade la combinaison de molécules les plus efficaces pour lui.

Ces travaux ont montré que ce nouveau test portant sur l'analyse simultanée de 46 gènes était plus précis, plus efficace, plus rapide et moins coûteux que les méthodes d'analyse génétique actuelles par biopsie. Ce nouveau test a notamment permis de détecter les mutations inconnues qui n'avaient pas été identifiées par les méthodes actuelles.

Selon ces chercheurs, ce nouvel outil de multiséquençage de l'ADN mérite d'être rapidement généralisé, en attendant que, d'ici quelques années, le coût du séquençage des génomes entiers des patients descende à un niveau beaucoup plus bas. Il est en outre possible d'utiliser de manière combinée ce nouvel outil, par exemple pour identifier une mutation génétique très rare.

Le Ministre de la santé britannique, Lord Howe, a déclaré à propos de ces recherches : «Nous voulons que notre pays soit à la pointe dans le traitement contre le cancer et cet outil va permettre une approche thérapeutique sur mesure qui rendra de grands services aux malades et leur permettra de bénéficier très rapidement des meilleurs traitements disponibles. »

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Une nouvelle approche pour traiter les métastases du cancer du poumon
Mardi, 26/03/2013 - 22:00

Le cancer du poumon est devenu le plus meurtrier au niveau mondial. En Autriche, environ 4.000 personnes développent ce type de cancer chaque année et le problème est qu'il s'accompagne souvent du développement de métastases cérébrales difficiles à traiter. Jusqu'à présent, les seuls outils thérapeutiques contre ces métastases étaient la chirurgie ou la radiothérapie.

Mais une étude réalisée par le Comprehensive Cancer Center à Vienne et dirigée par Matthias Preusser et Peter Birner, a montré, en collaboration avec l'Université de Heidelberg, que des mutations portant sur le gène gène ALK jouent un rôle clé dans l'apparition des métastases cérébrales des cancers du poumon.

Quand ce gène ALK mute, il provoque une production incontrôlée de cellules tumorales. Et, dans ce cas, le gène ALK fonctionne « en couple » avec un gène partenaire, le gène EML4. "Ces résultats montrent qu'il est envisageable de concevoir une thérapie génétique spécifique ciblant ce gène ALK, pour bloquer la formation de métastases cérébrales issues d'un cancer du poumon", souligne le professeur Preusser, qui est également coordinateur du programme de recherche européen sur les métastases cérébrales.

En 2012, le même centre de recherche viennois a déjà remporté une victoire dans le traitement des lymphomes agressifs de type ALCL impliquant un traitement ciblé sur un gène ALK (NPM-ALK) avec un inhibiteur du PDGFR spécifique.

Article rédigé par Elisa Tabord pour RT Flash

News Medical Net

Découverte d'un nouveau mécanisme immunitaire qui contrôle le virus du sida
Mardi, 26/03/2013 - 21:54

Des chercheurs français associant l'Inserm, l'Université Pierre et Marie Curie, et l'hôpital Pitié-Salpêtrière, ont réussi à identifier le mécanisme moléculaire spécifique grâce auquel certains lymphocytes T parviennent à détecter et à contrôler le virus du sida dans toutes ses versions mutantes.

En dépit des progrès thérapeutiques accomplis, le sida reste un véritable enjeu de santé mondiale avec plus de 35 millions de personnes touchées et à peine plus d'un million de malades soignés.

Comme tous les virus, le virus du sida possède une grande capacité d'adaptation et met en œuvre de nombreuses stratégies pour échapper à la vigilance du système immunitaire. Néanmoins, les chercheurs ont observé que, pour certains malades, le système immunitaire possédait la capacité de contrôler l'ensemble des variants mutants du virus.

Poussant plus loin leurs investigations, les chercheurs ont découvert que les cellules qui possédaient cette remarquable propriété étaient un type particulier de lymphocytes T CD8+, appelés « cross réactifs ». Cette famille de lymphocytes présente à sa surface un récepteur polyvalent qui est capable de reconnaître non seulement le virus mais toutes ses versions mutées.

Les patients qui possèdent ce type de cellules parviennent donc à contrôler la réplication du virus du sida mais également de toutes ses variations génétiques.

Ces recherches montrent à quel point il est important de comprendre dans le détail le fonctionnement du système immunitaire pour pouvoir prévenir et combattre plus efficacement le virus du sida. Cette découverte devrait également permettre d'avancer plus vite dans la réalisation d'un vaccin efficace contre cette maladie.

Article rédigé par Georges Simmonds pour RT Flash

Cell

Une nouvelle famille de médicaments contre le paludisme
Mardi, 26/03/2013 - 21:44

Des chercheurs américains de l'Université de l'Oregon ont développé une nouvelle famille de médicaments contre le paludisme qui touche plus de 200 millions de personnes par an dans le monde, occasionnant plus d'un million de décès, dont 90 % en Afrique.

Le médicament essayé avec succès chez la souris dérive d'une famille d'antibiotiques, les quinolones, et porte pour l'instant le nom de ELQ-300. Cette molécule est si efficace qu'elle agit à des doses très faibles : il suffit de moins d'un milligramme par kilo pour obtenir une guérison complète chez un individu. Autre avantage très important, ce médicament agit à plusieurs stades de développement du parasite et il permet de casser la chaîne de propagation de la maladie.

"Cette belle molécule est en tout point remarquable et représente la voie de l'avenir dans le traitement du paludisme" souligne Timothy Wells, Directeur scientifique de Medicines for Malaria Venture, une organisation suisse qui supervise ces recherches. "Ce médicament est non seulement particulièrement efficace mais il agit de surcroît à très faible dose, ce qui signifie moins d'effets secondaires pour les patients et un coût de production moins élevé que pour les médicaments actuels" ajoute Timothy Wells.

Il existe certes une panoplie de médicaments antipaludéens, mais les principaux médicaments employés actuellement contre cette maladie ont perdu une partie de leur efficacité thérapeutique car ce parasite possède une redoutable capacité d'adaptation et développe une résistance aux médicaments.

L'ELQ-300, pour sa part, cible le parasite plus en amont, quand il est encore dans le foie, et son action et si efficace qu'il est envisageable d'administrer un traitement d'une seule dose, ce qui constitue un progrès considérable pour le patient et une énorme simplification dans le suivi médical pour le personnel soignant.

Le paludisme est un problème de santé majeur dans les régions tropicales. Il représente à lui seul plus de 40 % de l'ensemble des dépenses de santé en Afrique.

Article rédigé par Georges Simmonds pour RT Flash

SDM

OHSU

L'activité normale du cerveau peut entraîner une destruction de l'ADN
Mardi, 26/03/2013 - 13:29

Des scientifiques de l'Institut Gladstone ont découvert qu'un certain type de dommages à l'ADN, considéré comme particulièrement préjudiciable aux cellules du cerveau peut s'inscrire dans le cadre du fonctionnement cérébral normal. L'équipe a également deux stratégies thérapeutiques visant à réduire ces perturbations.

Les scientifiques savent depuis longtemps que l'ADN subit des altérations et des dommages qui tendent à s'accumuler avec l'âge. Mais un type particulier de dommages à l'ADN, la "Cassure du double-brin", ou DSB, a longtemps été considéré comme une manifestation biologique exclusive liée à certaines pathologies du vieillissement, comme la la maladie d'Alzheimer. Ces recherches, publiées dans la revue "Nature Neuroscience", montrent que ce type d'altérations des cellules cérébrales peut également avoir lieu dans le cadre des fonctions normales du cerveau telles que l'apprentissage.

"Il est troublant de constater que l'accumulation et la réparation des CDB peuvent faire partie des processus normaux d'apprentissage dans le cerveau", souligne Fred H. Gage, de l'Institut Salk en commentant cette étude.

Pour lutter contre l'accumulation de ces CDB, les chercheurs ont développé une approche thérapeutique qui repose sur deux études récentes, dont l'une, dirigée par le Docteur Mucke et son équipe, a montré que le lévétiracétam, médicament largement utilisé contre l'épilepsie, pourrait améliorer la communication neuronale et la mémoire pour les patients atteints de la maladie d'Alzheimer à un premier stade.

La deuxième stratégie thérapeutique s'est fondée sur l'observation de souris génétiquement modifiées pour ne pas produire la protéine Tau dans leur cerveau, une protéine fortement impliquée dans la maladie d'Alzheimer. Les chercheurs ont constaté que cette absence de protéine Tau empêchait également l'accumulation excessive des cassures du double brin de l'ADN.

Conclusion, ces travaux suggèrent que la restauration d'une bonne communication neuronale constitue un objectif thérapeutique souhaitable pour lutter contre les effets de la maladie d'Alzheimer. Tel objectif suppose toutefois le contrôle d'un équilibre délicat entre les processus de lésions de l'ADN et les mécanismes de réparation de cette molécule fondamentale du vivant.

"Actuellement, nous ne disposons pas de traitement véritablement efficace pour combattre ou prévenir la maladie d'Alzheimer qui touche plus de 5 millions d'Américains", souligne le Docteur Mucke, qui dirige ces recherches à l'institut Gladstone.

Celui-ci ajoute : "nous somme lancés dans une véritable course contre la montre et nous devons absolument identifier les causes fondamentales de la maladie d'Alzheimer et proposer rapidement à nos malades de meilleures solutions thérapeutiques. Nos résultats suggèrent que certains médicaments déjà disponibles contre d'autres pathologies pourraient contribuer à protéger nos neurones contre les dommages spécifiques provoqués par cette maladie. Nous allons donc creuser cette voie thérapeutique".

Article rédigé par Georges Simmonds pour RT Flash

Medical Xpress

Mélanome : un traitement prometteur par thérapie cellulaire
Mardi, 26/03/2013 - 13:15

Des chercheurs de l'Université de Californie (UCLA), dirigés par James Heath, viennent de réaliser une avancée dans le traitement par immunothérapie du mélanome, un grave cancer de la peau.

Ces scientifiques ont utilisé des lymphocytes T - cellules immunitaires qui jouent un rôle majeur dans la lutte contre l'infection - prélevés sur des patients atteints de mélanome. Ils ont ensuite modifié génétiquement ces cellules puis les ont réintroduites chez les patients, dans l'espoir qu'elles s'attaquent spécifiquement aux cellules cancéreuses du mélanome.

C'est effectivement ce qui s'est produit mais le problème est que ces cellules T perdent assez rapidement leur pouvoir destructeur.

Les chercheurs de l'UCLA et du Caltech ont en effet constaté que ces cellules perdaient leur efficacité en trois semaines environ. En utilisant des Nanopuces, les chercheurs ont pu examiner en détail le fonctionnement de ces cellules T tout au long des phases de la thérapie.

Les scientifiques ont compris que la « mémoire » des cellules T et leur efficacité dans le temps à combattre les cellules cancéreuses, étaient liés à l'origine et au mode de culture de ces cellules. Selon ces travaux, l'une des approches possibles pour résoudre le problème de la perte de mémoire de ces cellules T serait d'utiliser des cellules-souches du sang.

L'un des auteurs de cette étude, Chao Ma, souligne l'importance des nouveaux outils d'anneaux technologiques en recherche clinique. "Cette étude souligne la valeur de ces analyses mono-cellulaires fonctionnelles pour évaluer la pertinence d'une immunothérapie sophistiquée", précise-t-il.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Une nouvelle technologie d'imagerie pour détecter les petites tumeurs
Mardi, 26/03/2013 - 13:10

Bien connu en astrophysique où ils se manifestent sous forme de sursaut d'explosion d'une puissance phénoménale, les rayons gamma sont en train de trouver une nouvelle application dans le domaine de l'imagerie médicale appliquée à la détection précoce du cancer.

Des chercheurs américains en physique des particules et en médecine nucléaire ont en effet développé un système d’imagerie qui utilise les mêmes détecteurs que ceux conçus pour les expérimentations en physique des particules.

Ces caméras à rayons gammas doivent leur précision à l’utilisation de détecteurs en cadmium-zinc-telluride. Grâce à cette technologie, on obtient une haute résolution, avec une taille de pixel de 1,6 millimètre, soit deux fois mieux qu’une caméra gamma traditionnelle. Il devient alors possible, en utilisant un traceur radioactif injecté dans la région explorée, de détecter des tumeurs de seulement 5 mm. Or on sait que les chances de guérison, notamment pour le cancer du sein, sont directement liées à la taille de la tumeur au moment du diagnostic.

Des essais cliniques ont montré que que ce nouveau type de caméra permettait de détecter 10 cancers du sein pour 1000 femmes ayant une première mammographie négative.

Article rédigé par Georges Simmonds pour RT Flash

Symmetry

Produire du cartilage à volonté grâce aux cellules-souches
Lundi, 25/03/2013 - 14:05

Des chercheurs néerlandais de l'Université de Twente MIRA (Institut de technologie de biomécanique et de la médecine technique) ont montré que l'utilisation de cellules-souches adultes constitue une voie prometteuse pour produire en grande quantité un cartilage de haute qualité pouvant être utilisé pour réparer les articulations des hanches et des genoux.

Plus d'un million de personnes aux Pays-Bas souffrent de douleurs chroniques dans les hanches et les genoux, liées à l'arthrose, une grave maladie inflammatoire qui détruit le cartilage.

Pour beaucoup de ces patients, la seule solution thérapeutique définitive reste la prothèse qui suppose une intervention avec tous les risques inhérents. Dans ces travaux, les chercheurs ont travaillé sur des cellules-souches mésenchymateuses (MSC), isolées à partir de moelle osseuse. Les scientifiques ont constaté que ce type de cellules-souches adultes permettait de stimuler la formation de la matrice cartilagineuse. La qualité du cartilage ainsi formé peut être considérablement améliorée en cultivant les cellules-souches mésenchymateuses dans un milieu faiblement oxygéné.

Des résultats encore meilleurs ont été obtenus en combinant ces cellules-souches avec un petit nombre de chondrocytes (cellules du cartilage). Les cellules souches, non seulement peuvent se différencier plus facilement en chondrocytes mais, en outre peuvent stimuler les chondrocytes pour former une meilleure matrice élastique.

Les chercheurs pensent qu'il est envisageable, avec cette méthode, de réparer le cartilage en une seule opération en extrayant les cellules souches nécessaires à partir de la moelle osseuse, en les combinant avec des chondrocytes et en injectant très rapidement ce mélange dans l'articulation régénérée.

Article rédigé par Georges Simmonds pour RT Flash

NMN

L'atrophie du thalamus, marqueur précoce de la Sclérose En Plaques ?
Dimanche, 24/03/2013 - 19:05

Des chercheurs de l'Université de Buffalo viennent de montrer qu'une modification du thalamus constituait probablement un bon marqueur précoce dans la détection de la sclérose en plaques.

"L'étude du thalamus éclaire d'une lumière nouvelle la sclérose en plaques", souligne Robert Zivadinov, le neurobiologiste qui dirige ces recherches. "Dans nos travaux, nous avons pu montrer en utilisant un grand nombre de données, l'existence d'un lien fort entre l'évolution de l'atrophie du thalamus et l'apparition de la sclérose en plaques à ses premiers stades. Nos recherches montrent que le thalamus, en raison de sa fonction cérébrale particulière, pourrait constituer un baromètre très fiable des dégâts provoqués par la sclérose en plaques dans cerveau".

"Cette étude, qui comprenait plus de 200 patients, montre que l'atrophie thalamique est l'un des plus importants prédicteurs de la sclérose en plaques cliniquement définie", confirme pour sa part Dana Horakova, chercheuse à l'Université Charles.

"Sur la base de ces résultats, nous pensons que l'IRM devrait être utilisée pour déterminer quels sont les patients qui présentent le plus de risques de faire une seconde poussée", souligne le docteur Zivadinov. Jusqu'à présent, la sclérose en plaques était traditionnellement considérée comme une maladie de la substance blanche du cerveau, dans lequel la myéline, une protéine qui gaine les neurones, était progressivement détruite. Et ces travaux montrent la façon dont le thalamus et d'autres régions dans la matière grise du cerveau jouent également un rôle important dans le déclenchement de cette maladie neurologique.

Le thalamus est impliqué dans les fonctions motrices et sensorielles, la mémoire, l'émotion, la conscience et l'attention. Il fonctionne comme une sorte de centre de relais dans le cerveau, en passant par l'information sensorielle, il traite également des informations provenant du cortex.

Ces travaux confirment une autre étude récente qui a montré, sur 81 patients, que l'atrophie du cortex et certaines aires sous-corticales profondes, dont le thalamus, était liée à la diminution des capacités cognitives des malades. "Nous avons constaté que le dysfonctionnement cognitif apparaît précocement après l'apparition de la sclérose en plaques et que l'atrophie du thalamus joue un rôle central dans la prédiction de la détérioration cognitive à long terme", précise le docteur Zivadinov.

Article rédigé par Georges Simmonds pour RT Flash

News Medical Net

Certaines modifications de l'activité cérébrale pourraient annoncer la schizophrénie
Dimanche, 24/03/2013 - 18:48

Des chercheurs américains de l'Université de Caroline du Nord ont montré que les enfants ayant le plus de risque de développer une schizophrénie présentent des différences fonctionnelles cérébrales spécifiques par rapport aux enfants normaux.

Ces travaux ont montré, grâce au recours à l'imagerie, que le cerveau des enfants qui ont des parents ou des frères et sœurs atteints de schizophrénie, présente certains circuits neuronaux suractivés, ce qui n'est pas le cas chez les enfants n'ayant aucuns antécédents familiaux de la maladie.

Dans la mesure où ces particularités dans le fonctionnement du cerveau apparaissent avant la manifestation des premiers symptômes neuropsychiatriques de la schizophrénie : difficultés de concentration, croyances paranoïdes, hallucinations, les scientifiques pensent que le dépistage précoce de ces singularités fonctionnelles pourrait constituer l'un des signes avant-coureurs ou «marqueurs de vulnérabilité» de la schizophrénie.

Comme le souligne Aysenil Belger, professeur de psychiatrie à l'École de médecine de l'UNC et principal auteur de cette étude, "En nous appuyant sur ces résultats, nous espérons mettre au point des méthodes de détection qui permettent d'identifier les enfants particulièrement vulnérables au risque de la schizophrénie afin d'intervenir le plus précocement possible pour contrecarrer ce risque".

Il a été démontré en effet que les sujets ayant un membre de leur famille atteint de schizophrénie ont un risque 8 à 12 fois plus élevé de développer la maladie. Cependant, il n'y a aujourd'hui aucun moyen de savoir avec certitude qui va devenir schizophrène avant que les symptômes de cette maladie apparaissent.

Certains des premiers signes de la schizophrénie sont une baisse de la mémoire verbale, du QI et d'autres fonctions cognitives dont les chercheurs pensent qu'ils résultent d'une perturbation dans le traitement cortical des informations, ce qui entraîne une moindre capacité du cerveau à traiter des tâches complexes.

Dans cette étude, réalisée sur 42 enfants et des adolescents de 9 à 18 ans, dont la moitié avait des parents souffrant de schizophrénie, Belger et ses collègues ont cherché à identifier si des changements fonctionnels se produisaient dans le cerveau des adolescents avec de forts risques  de développer la schizophrénie.

Les participants à l'étude ont été soumis à des tests consistant à identifier une image spécifique - un simple cercle - dans une liste d'images émotionnellement évocatrices, telles que des animaux sympathiques ou effrayants. Pendant ces tests, l'activité du cerveau des sujets était suivie par IRM. Les chercheurs ont constaté que les circuits impliqués dans l'émotion et la prise de décision a été suractivée chez les personnes ayant des antécédents familiaux de schizophrénie, ce qui suggère que la tâche a été de stresser ces zones du cerveau chez les sujets étudiés.

Selon les chercheurs, cette découverte montre que cette hyperactivation endommage probablement ces zones spécifiques du cerveau, à tel point qu'elle deviennent hyperactives chez ces patients et que leur cerveau « sature ». Il n'est plus capable de traiter d'autres informations.

Bien que toutes les personnes ayant des antécédents familiaux de schizophrénie ne développent pas cette maladie, Belger pense qu'il est important de repérer les personnes les plus vulnérables le plus tôt possible pour pouvoir les aider.

"Nous devons admettre que les sujets sont différents dans leur façon de gérer le stress", explique Belger qui ajoute que "leur apprendre des stratégies pour contrôler ce stress pourrait les rendre moins vulnérables, non seulement à la schizophrénie, mais aussi à d'autres troubles neuropsychiatriques."

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Régénérer les nerfs : un rêve qui pourrait devenir réalité
Dimanche, 24/03/2013 - 18:34

Des chercheurs américains dirigés par le docteur Jeffery Twiss, professeur de biologie à l'Université Drexel, ont éclairci les mécanismes par lesquels se régénèrent les cellules nerveuses à la suite d'une lésion.

Ces chercheurs se sont particulièrement intéressés à la façon dont les cellules nerveuses, et notamment les axones, se reconfigurent après un accident ou une lésion. Les axones constituent le prolongement des neurones et transmettent le signal électrique du corps cellulaire vers les zones synaptiques. Ils peuvent atteindre 1 m de long !

Restaurer ses axones est indispensable pour établir la fonction nerveuse mais la coordination de ces réparations à une grande distance du noyau de la cellule implique une combinaison de processus complexes au sein de chaque cellule. Dans ce mécanisme, les chercheurs ont montré que des protéines de réparation sont créées localement à proximité des sites de la lésion de l'axone.

Ces scientifiques ont montré que deux molécules d'ARN messager (ARNm), impliqués dans l'orientation de la réparation des axones lésés, semblent entrer en compétition pour réparer ces dommages aux cellules nerveuses. En jouant sur ce mécanisme, ces chercheurs ont montré que l'utilisation d'ARNm permettait d'accélérer la production des protéines de réparation bêta-actine et GAP-43.

Selon Jeffery Twiss, "ce résultat est encourageant pour le développement de nouvelles thérapies car actuellement, quand un nerf est détruit ou lésé, il n'existe aucun moyen de contrôler ou d'accélérer sa régénération. Néanmoins, nous sommes certains qu'il est possible d'accélérer la production des protéines spécifiques qui permettront une régénération rapide des nerfs lésés et une bien meilleure récupération pour les patients, après une blessure."

Le point-clé découvert par ces recherches est qu'il faut que les ARNm agissent de manière très localisée, en produisant certains types de protéines à certains endroits, pour permettre la régénération des nerfs. "Si vous appliquez une recette standard qui consiste à utiliser des ARNm qui vont tous agir sur les mêmes protéines dans le corps cellulaire, vous n'obtenez aucun résultat intéressant".

Cette technique a été validée in vitro, sur des neurones de rats mais également confirmés in vivo en accélérant le développement de la moelle épinière d'embryons de poulet.

"Nous avons à présent suffisamment progressé dans des connaissances fondamentales pour passer à l'étape suivante qui est d'envisager d'utiliser ces mécanismes pour contrôler et accélérer la régénération nerveuse", précise le docteur Twiss qui ajoute que "d'autres essais cliniques sur des mammifères seront toutefois nécessaires avant de pouvoir commencer les expérimentations sur l'être humain".

Article rédigé par Georges Simmonds pour RT Flash

Drexel

JN

Les sept mesures qui repoussent le cancer !
Dimanche, 24/03/2013 - 18:08

On sait depuis longtemps que le mode de vie joue un rôle déterminant dans l'augmentation du risque dans la prévention du cancer.

Certaines études déjà très anciennes, réalisées notamment auprès de communautés qui se conforment à un mode de vie strict en raison de leurs croyances religieuses, avaient déjà montré que ces populations avaient un risque de cancer qui pouvait être divisé par deux. C'est notamment le cas des mormons aux États-Unis qui, non seulement ont beaucoup moins de cancers, en  moyenne, que le reste de de la population américaine mais ont une espérance de vie qui est presque de 10 ans supérieure à leurs concitoyens !

Une nouvelle étude américaine, menée sur plus de 13000 personnes âgées de 47 à 64 ans, a voulu aller plus loin et évaluer précisément le cas, en termes de réduction de risque de cancer, que permettait l'adoption de différentes habitudes liées au mode de vie.

Pour que l'étude reste lisible, sept facteurs ont été retenus : l'abstinence en matière de tabac, le maintien d'un poids normal (avec un indice de masse corporelle <24), une alimentation saine et variée incluant une faible consommation d'alcool, une activité physique régulière (75 minutes par semaine d'activité physique vigoureuse, ou 150 minutes d'activité plus modérée), un taux de cholestérol normal (moins de 200mg/dl), un taux de sucre normal  (moins de 100mg/dl) et une tension artérielle normale (inférieure à 14 sur 7).

Les résultats de cette étude sont édifiants et méritent d'être détaillés. Les sujets remplissant 6 ou 7 facteurs (2,7 %) avaient un risque de cancer réduit de 51 %. Les sujets remplissant 5 facteurs (8,8 %) avaient un risque de cancer réduit de 39 %. Ceux remplissant 4 facteurs (17,8 %) avaient un risque de cancer réduit de 33 %. Ceux remplissant 3 facteurs (26,3 %) avaient un risque de cancer réduit de 26 %. Enfin, les personnes remplissant 1 ou 2 facteurs (41,6 %) avaient tout de même un risque de cancer réduit de 21 %.

On mesure mieux l'importance de cette étude quand on rappelle que le nombre de nouveaux cas de cancer devrait passer dans le monde de 13 millions aujourd'hui, à 20 millions en 2030, sous le double effet de l'augmentation de la population mondiale et de son vieillissement (un cancer sur deux survient en effet après 65 ans).

Si l'on extrapole ces résultats en imaginant un monde vertueux dans lequel chaque personne adulte observerait ces sept règles, on constate que le nombre annuel de nouveaux cas de cancer, au lieu d'augmenter de 50 % d'ici 2030, diminuerait de plus de 20 % !

Article rédigé par Georges Simmonds pour RT Flash

AHA

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Avoir l'embarras du choix… est parfois risqué !
Mercredi, 27/03/2013 - 15:46

Des chercheurs des Universités de Warwick et Lugano ont réalisé une étude pour comprendre comment se comportent des sujets confrontés à une quantité croissante d'informations pour effectuer leur choix. Ces scientifiques ont imaginé une expérimentation qui utilise un jeu de hasard, ce qui leur a permis d'observer et d'analyser de quelle façon les sujets prenaient leur décision lorsqu'ils avaient le choix de miser entre un grand nombre de paris.

Dans le cadre de cette étude, 64 participants ont pris part à un jeu où ils devaient choisir une boîte à partir d'un espoir de gain présenté sur un écran d'ordinateur. Chaque boîte contenait une somme différente et avait sa propre probabilité de payer son gain.

Les participants avaient la possibilité de tester le gain potentiel permis par chacune des boîtes en l'ouvrant autant de fois qu'ils le souhaitaient afin de déterminer le montant du paiement et d'essayer d'en déduire la probabilité de gain. Une fois que les sujets considéraient qu'ils possédaient suffisamment d'informations, ils effectuaient leur choix final qui devait se porter sur une seule boîte.

Les résultats de cette expérience ont montré que les sujets avaient bien rassemblé plus d'informations sur la valeur de la somme potentielle qu'ils pouvaient gagner. Ils étaient donc parfaitement informés du fait objectif que certaines boîtes offraient des gains plus élevés.

Pourtant, l'étude a montré clairement que plus les sujets devaient traiter une grande quantité d'informations, plus ils faisaient des choix risqués au moment de miser. Les chercheurs ont qualifié ce comportement de « recherche de risque amplifié ».

Dans cette expérience, tout se passe comme si les sujets, lorsqu'ils sont confrontés à un grand nombre de choix, associés à des probabilités différentes de se réaliser, avaient tendance à surestimer de plus en plus les probabilités de survenue des événements les plus rares.

L'étude montre que cette tendance à prendre de plus en plus de risques se fonde sur une perception erronée selon laquelle les sujets pensent avoir une probabilité raisonnable de gagner « le gros lot ».

Commentant ces résultats, le docteur Thomas Hills du Département de psychologie de l'Université de Warwick précise « il ne faudrait pas croire que les sujets, confrontés à un grand nombre d'options, se mettent à prendre brusquement des décisions aléatoires. En fait, ils continuent à prendre des décisions rationnelles, mais celle-ci sont fondées sur des informations erronées et une mauvaise évaluation de la réalité. »

Article rédigé par Georges Simmonds pour RT Flash

Warwick

PBR

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top