RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 661
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Juillet 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les tablettes, nouveau moteur de l'économie numérique ?
Un milliard d’abonnés au très haut débit d’ici quatre ans
Avenir
Combattre le cancer de la prostate avec des nanoparticules d'or !
Paro, le nouvel animal de compagnie japonais robotisé
Matière
Le MIT invente une puce "multi-énergie"
L'Europe fait progresser la recherche sur les énergies renouvelables
Une pile à combustible microbienne capable de produire de l'électricité et dépolluer l'eau
La transition énergétique mondiale s'accélère !
Un liquide de refroidissement efficace pour batteries de véhicules électriques
Espace
Découverte par des astronomes américains d’une cinquième lune de Pluton
Terre
Le génome du bananier séquencé
Le réchauffement climatique se poursuit selon le rapport de la NOAA !
Les poissons pourraient s'adapter au réchauffement des océans
Vivant
Découverte d'un gène favorisant le mélanome malin
Comment mobiliser les globules blancs contre le Sida
Des avancées dans la compréhension des leucémies
Cancer : vers la nouvelle ère des multi-thérapies
Dépression : une nouvelle voie thérapeutique ?
Le diagnostic précoce du cancer colorectal en une goutte de sang
Maladie d'Alzheimer: nouvelles avancées dans la détection précoce
Découverte d’un nouveau mécanisme de propagation du cancer
Des liens complexes entre dépression et démence
Les smartphones pourraient servir aux diagnostics oculaires
Le rôle des neurones nés chez l'adulte se précise
Des emballages alimentaires comestibles bientôt dans les rayons !
Cancer de l'utérus: une avancée majeure en matière de dépistage
Cancer : améliorer l’efficacité de la chimiothérapie
Une détection ultra sensible des cellules tumorales circulantes
Le choc des images : une réalité
Des chercheurs étudient l'anxiété post-traumatisme
Homme
Un squelette de 2 millions d'années le «plus complet jamais découvert»
Le peuplement de l'Amérique vu par la génétique
Recherche
Quand l'innovation peut se prédire automatiquement
Bilan positif pour l'expérimentation "Kleber" de mise en libre service de voitures hybrides
Edito
Il faut totalement repenser la commercialisation de la voiture électrique : sinon les constructeurs vont vers un échec



Il faut se rendre à l'évidence : en dépit des effets d'annonces des différents constructeurs automobiles, la voiture électrique peine à décoller. En France, les immatriculations de véhicules électriques ont chuté en juin avec un peu plus de 100 véhicules électriques, contre 500 en mai. En Allemagne, la situation n'est pas plus brillante avec à peine 5 000 véhicules électriques sur plus de 42 millions de véhicules en circulation outre-Rhin. A ce rythme, on voit mal comment seraient atteints les objectifs allemands et français qui visent plus d'un million de voitures électriques d'ici 2020.

Pourquoi la voiture électrique, en dépit de réels progrès en matière d'autonomie et de fiabilité et des différentes aides accordées par l'Etat et les collectivités locales, ne parvient-elle pas à séduire le grand public ? Au-delà du handicap de son prix plus élevé malgré le soutien des pouvoirs publics, la voiture électrique a été mal pensée. En effet, les constructeurs automobiles et l'Etat se sont trop focalisés sur le véhicule et n'ont pas compris que le consommateur attendait d'abord un service global, intégrant non seulement la voiture électrique mais l'ensemble des infrastructures et services indispensables à son bon fonctionnement.

Le premier obstacle à lever concerne le coût de la mise à disposition des batteries (hors coût d’achat, malgré les prix actuels des carburants, une voiture électrique revient chaque mois plus chère qu’une petite voiture à essence !) : selon une récente étude du cabinet Mac Kinsley,  il est indispensable que le coût des batteries diminue des deux tiers d'ici 2025 pour que la voiture électrique devienne réellement compétitive par rapport à la voiture thermique. Cette étude prévoit que le coût d'une batterie lithium-ion passe de 500 euros par kilowatt/heure (kWh/h) aujourd'hui à environ 160 euros en 2020 et 120 euros en 2025.

Mais un autre verrou technologique doit également être levé pour que la voiture électrique puisse enfin décoller : celui la disponibilité immédiate. Avec une voiture classique à moteur thermique, si vous n'avez plus d'essence, vous pouvez faire le plein facilement et très rapidement. Avec une voiture électrique, la situation est très différente ; il faut disposer d'une prise adaptée et recharger son véhicule pendant plusieurs heures avant de disposer de la pleine capacité énergétique. En dépit des avancées importantes réalisées depuis 5 ans pour accroître l'autonomie des voitures électriques (celle-ci peut atteindre dans certaines conditions 300 km sur les modèles les plus évolués), ce temps de charge reste un handicap rédhibitoire pour de nombreux utilisateurs potentiels.

De plus, malheur à celui qui oublie le soir en arrivant dans son garage de connecter sa voiture au réseau électrique ! Le lendemain matin il sera fort dépité quand il constatera qu’aujourd’hui, il ne pourra pas se servir de son véhicule électrique…

Pour répondre rapidement à ce problème fondamental de la disponibilité immédiate des véhicules électriques, les constructeurs devront proposer aux acquéreurs de voitures électriques des systèmes de recharge qu’ils placeront dans leur garage et qui pourront, sans intervention manuelle, recharger automatiquement les batteries pendant le temps de stationnement du véhicule électrique dans le garage. Cette simple mesure pratique et de bon sens est nécessaire si les constructeurs ont une réelle volonté de voir décoller leurs ventes de véhicules électriques !

Mais au-delà de cette mesure ponctuelle qui ne peut répondre à toutes les attentes car elle nécessite que le véhicule rentre chaque soir dans son garage, il est nécessaire de trouver d’autres réponses à ce problème de recharge des batteries sur un véhicule électrique.

Pour surmonter cet obstacle, plusieurs solutions techno-économiques sont en cours d'expérimentation. La première, mise au point par une société israélienne, consiste à remplacer très rapidement la batterie de manière automatique. Dans ce système, baptisé «Better Place», il suffit de placer sa voiture électrique sur des rails, comme pour le lavage, et un robot vient alors intervenir sous le véhicule pour retirer la  batterie vide et la remplacer par une batterie pleine.

Ce système a séduit Renault qui l'expérimente au Danemark. Concrètement, l'utilisateur choisit un abonnement qui comprend un accès illimité aux stations de recharge Better Place et une assistance technique permanente. Les tarifs varient de 200 à 400 euros par mois en fonction du kilométrage annuel effectué. Cet abonnement donne également droit à une station de recharge personnelle pour pouvoir recharger sa voiture électrique de manière classique, chez soi. En théorie, ce système très astucieux doit permettre de faire "le plein" d'électricité avec sa voiture aussi facilement qu'on fait le plein d'essence dans une station-service.

Mais "Better Place" qui n'est pas encore opérationnel en France a déjà un concurrent sérieux. Il s'agit du système "Modulowatt" de borne de recharge pour véhicules électriques, mis en service à Paris fin 2011. Le concept de Modulowatt repose sur un constat de bon sens : l'essor des voitures électriques passe par la généralisation des infrastructures permettant leur utilisation.

Mais Modulowatt est très différent dans sa logique économique et commerciale du système israélien de changement robotisé et automatique de batteries. Ce système très sophistiqué nécessite en effet une borne automatisée et une place de stationnement. Modulowatt utilise une liaison radio pour communiquer avec les véhicules électriques abonnés qui se voient équipés de capteurs spécifiques. Cette borne intelligente est capable, en théorie, de gérer de manière souple et automatique (gestion du stationnement, de la recharge et de la facturation) la reconnaissance de cinq véhicules en parallèle.

Cette expérimentation en cours est destinée à mieux évaluer l'intérêt du public et à perfectionner encore ce système sur le plan technique. Le PDG de Modulowatt, Alain Bernard, croit dur comme fer à son concept mais reconnaît que son modèle économique ne fonctionnera que si tous les acteurs concernés - constructeurs, collectivités locales et utilisateurs – acceptent de voir la voiture électrique non comme un objet que l'on possède mais bien comme un service payant que l'on utilise à la demande. Reste que le pari n'est pas gagné car pour Better Place comme pour Modulowatt, il faudra convaincre l'utilisateur de la parfaite fiabilité des prestations proposées avant qu'il accepte de dépenser plusieurs centaines d'euros par mois d'abonnement.

A plus long terme (5 à 10 ans), des ruptures technologiques majeures devraient permettre de recharger instantanément ou presque les véhicules électriques et partout dans le monde les chercheurs travaillent sur des solutions innovantes dans ce domaine.

Parmi les technologies en compétition, la recharge sans contact, par induction électromagnétique, semble tenir la corde et a réalisé des progrès remarquables au cours de ces dernières années. En Allemagne, les chercheurs de l'IAV ont notamment montré qu'il était tout fait faisable d'enfouir des émetteurs sous les voies de circulation ou les aires de stationnement et de recharger à distance les véhicules munis de récepteurs appropriés placés dans le plancher des véhicules. Des tests ont montré que ce système présentait un excellent niveau de sécurité pour les utilisateurs et qu'il était pratiquement insensible aux conditions météorologiques.

En utilisant un système statique (le véhicule est à l'arrêt à proximité de l'émetteur), des chercheurs du MIT sont récemment parvenus à transférer une charge de 3 kW à une voiture en stationnement. Une autre équipe de Stanford a montré à l'aide d'une simulation numérique qu'il était possible de "télécharger" 10 kW à deux mètres de distance, ce qui pourrait suffire pour recharger une voiture qui circulerait sur une route spécialement équipée.

Une autre innovation remarquable vient d'être présentée à San Gabriel Valley, près de Los Angeles. Il s'agit d'un nouveau type de bus urbain baptisé "Ecoliner" et développé par la société AeroVironment, une filiale de Veolia. Grâce à des batteries lithium-titane et à un système de recharge révolutionnaire, ce bus peut se recharger à 85 % en 10 minutes en se raccordant automatiquement sur une des bornes implantées le long de son trajet. L''Ecoliner coûte aujourd'hui deux fois plus cher qu'un bus diesel mais permet d'économiser plus de 300 000 euros de carburant tout au long de sa durée d'utilisation, ce qui compense en grande partie ce surcoût. En outre, sous réserve que l'électricité employée soit d'origine renouvelable, ce bus n'émet pas de gaz à effet de serre et contribue donc à lutter contre le changement climatique et à diminuer la pollution urbaine considérable de cette mégapole américaine.

On le voit, si nous voulons que la voiture électrique séduise enfin un large public et représente dans 10 ans une part significative des véhicules en circulation dans nos villes, contribuant ainsi à réduire la consommation d'énergie fossile et à diminuer les émissions de gaz à effet de serre considérables dues aux transports, nous devons complètement repenser l'équation économique du véhicule électrique et imaginer des modèles d'utilisation axés sur les infrastructures et sur un bouquet de services "intelligents" et personnalisés associés à ce mode de déplacement propre qui devra répondre en temps réel aux besoins en déplacement de l'utilisateur.

En ces temps de restriction budgétaire et de crise financière, il faudra également que l'Etat et les collectivités locales raisonnent à long terme et fassent preuve d'une volonté politique sans faille en soutenant fiscalement l'essor des véhicules électriques et en investissant massivement dans la recherche afin de provoquer les ruptures technologiques qui rendront le transport électrique non seulement compétitif, mais parfaitement fiable et sûr.

Quand on sait que le nombre de véhicules en circulation atteint 32 millions en France, 300 millions en Europe et a franchi la barre du milliard au niveau mondial et que l'ensemble de ce parc est responsable d'un bon quart des émissions humaines de CO2, soit environ 8 milliards de tonnes de CO2 par an (presque deux fois les émissions de CO2 de l'Union européenne), on mesure mieux le défi que représente la généralisation des voitures propres.

Or, tous les spécialistes s'accordent à reconnaître que la voiture à hydrogène (utilisant une pile à combustible) ne sera pas compétitive et d'un prix abordable avant 2025. Il est donc vital pour nos villes et notre planète de concevoir un nouveau partenariat entre pouvoirs publics et entreprises privées, de manière à pouvoir proposer rapidement aux consommateurs, non un "véhicule électrique" en tant qu'objet, mais un ensemble cohérent de services intelligents et sur mesure de transports propres qui sache répondre à leurs attentes.

René  TREGOUET

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les tablettes, nouveau moteur de l'économie numérique ?
Vendredi, 13/07/2012 - 05:20

Le PC n’est plus le centre de votre vie numérique : aprés la montée en puissance des smartphones, l’arrivée de tablettes vraiment utilisables et séduisantes semble marquer une nouvelle étape vers la société numérique.

Des tablettes déjà plus populaires que les PC de bureau, à en croire des chiffres GfK lâchés en début d’année 2012.

Selon la dernière étude NPD DisplaySearch, la tendance ne va faire que s’accentuer. Ainsi, en 2016, selon ces dernières projections, les ventes de tablettes excéderont celles d’ordinateurs portables. Le total des ventes d’appareils mobiles (tablettes et PC) devrait atteindre 809 millions d’unités en 2017, contre 347 millions cette année. Les ventes de PC portables pourraient passer de 208 millions d’unités en 2012 à 393 millions en 2017, tandis que les tablettes s’écouleraient à 416 millions d’unités en 2017, contre 121 millions cette année, soit une hausse annuelle de 28 %.

60 % des utilisateurs passent au moins 30 minutes par jour à accéder à des contenus médias à partir de celles-ci, mais ils seraient également 52 % à l'utiliser dans le but de combler ce qui aurait pu s'apparenter à une période creuse de leur journée. Celles-ci s'adaptent donc parfaitement au rythme de vie dynamique des Américains qui délaissent ainsi petit à petit les ordinateurs portables et les PC fixes.

 L'étude révèle en effet qu'ils sont 29 % d'utilisateurs à négliger ces appareils au profit de leur tablette lorsqu'il s'agit de se connecter sur Internet. La raison ? Un peu moins de la moitié des utilisateurs, soit 48 % précisément, s'accordent à dire que le design attirant et l'accessibilité de cet outil rendent plus facile l'accès à des contenus médias que sur un ordinateur portable ou un PC. Mais l'étude confirme que celui-ci avantagerait beaucoup plus les commerces en ligne que les magasins physiques.

Et cela se constate notamment dans la propension d'individus affirmant avoir arrêté de lire des livres papier (29 %) au profit de leur équivalent numérique. Mais également le nombre grandissant d'individus déclarant se rendre moins souvent en magasin depuis l'achat de leur tablette (22 %).

La montée en puissance des tablettes devrait continuer de modifier le marché de l’électronique grand public, directement ou par ricochet, en induisant le développement des différentes « variantes » du cloud, par exemple, et une nouvelle répartition des fonctions de nos appareils, du téléphone à l’ordinateur en passant par le téléviseur.

01net

L'Atelier

Un milliard d’abonnés au très haut débit d’ici quatre ans
Vendredi, 13/07/2012 - 05:10

Dans le cadre des Assises du très haut fébit, l’Idate a dressé les perspectives de développement du très haut débit (THD) dans le monde. Désormais, il ne s’agit plus simplement de surveiller la montée en puissance des réseaux filaires mais bien, également, de prendre en compte le développement de réseaux sans fil de type LTE (FDD ou TDD LTE).

C’est d’ailleurs cette technologie qui connaîtra la croissance la plus forte et représentera d’ici 2016 plus de 900 millions d’abonnés dans le monde. Plus qu’une augmentation, c’est une explosion que prédit, études régionales et nationales à l’appui, l’Idate. Pour comparaison, fin 2011, on comptait environ 9 millions d’utilisateurs LTE… et seulement 142 000 en 2010.

De plus, selon Frédéric Pujol, directeur de la Practice « Réseaux Mobiles » à l’Idate, « une part significative des terminaux LTE [supporteront] les deux modes FDD et TDD, dès la fin 2013. » Ce qui devrait favoriser une utilisation globale de ces deux solutions, complémentaires dans leurs atouts et défauts. D’ailleurs, les déploiements de la LTE devraient être nombreux « en Asie-Pacifique, Amérique latine et Moyen-Orient, ainsi, mais à un moindre niveau, qu’en Europe ».

Le Vieux Continent – où la situation se décante d’abord en Allemagne et en Suède –, comptait près de 100 000 abonnés fin 2011. La France, l’Espagne, l’Italie et le Royaume-Uni devraient voir se matérialiser leurs premiers déploiements en fin d’année, pour un lancement commercial en 2013.

Si l’Europe a tardé à prendre le train de la « 4G », c’est à cause d’un retard dans l’arrivée des « smartphones et tablettes compatibles avec ses spectres de fréquences ». Conséquence directe de ce délai, l’Europe ne représentera que 150 millions d’utilisateurs de LTE sur les 900 millions dans le monde.

L’étude dénombre ainsi plus de 220 millions d’abonnés au niveau mondial à la fibre optique. 56 % se trouvant en Chine avec une architecture de type FTTX/LAN. Chaque pays a en fait ses spécificités, héritées de son historique d’infrastructures. Ainsi, la fibre jusqu’à l’immeuble ou jusqu’au logement (FTTH ou B) est majoritaire en Europe « mais pas en Amérique du Nord » où on compte près de « 78 millions de foyers couverts par les architectures câble FTTLA + Docsis 3.0 ». Autrement dit, un réseau fibré jusqu’au dernier amplificateur, puis l’utilisation du câble, classique, avec des débits montants et descendants dopés.

Si la fibre ne connaîtra pas une croissance aussi vive que la « 4G », la marge de progression est encore énorme. « Fin 2011, on comptait ainsi 77 millions d’abonnés FTTH/B dans le monde pour un total d’environ 250 millions de foyers raccordables via FTTH/B », selon Roland Montagne, directeur de la Business Unit « Télécom » de l’Idage.

01net

^ Haut
Avenir
Nanotechnologies et Robotique
Combattre le cancer de la prostate avec des nanoparticules d'or !
Mercredi, 18/07/2012 - 01:10

Dans les pays développés, le cancer de la prostate est le cancer le plus fréquent chez l’homme. En France, il touche plus de 71 000 hommes chaque année et arrive au 3ème rang des causes de décès par cancer avec près de 9 000 morts par an, derrière le cancer du poumon (21 000 décès par an) et le cancer colorectal (9 200 décès par an).

En avril dernier, la Haute Autorité de santé a rendu un avis qui a fait grand bruit et remet en cause, en s'appuyant sur l'ensemble de la littérature scientifique, l'intérêt du dépistage généralisé du cancer de la prostate après 50 ans et du dosage systématique du PSA (antigène spécifique de la prostate) chez tous les hommes de cette tranche d'âge. Dans ses conclusions, la HAS souligne que "Après avoir recherché la littérature sur le sujet et examiné les rapports et recommandations des sociétés savantes et organismes d'évaluation en santé au niveau national et international, la HAS a conclu qu'il n'y a pas de preuve suffisante pour justifier la mise en place d'un tel dépistage dans ces sous-populations".

On sait cependant qu'à 60 ans, un homme sur trois a des foyers microscopiques de cancer dans la prostate, mais le problème est qu'une grande majorité de ces micro-foyers cancéreux n'évolueront pas ou très lentement et que les malades finiront par décéder d'autre chose !

En outre, certains traitements contre le cancer de la prostate sont lourds et laissent parfois des séquelles. Il est donc très important de développer de nouvelles thérapies qui permettent de traiter les différents types de tumeurs de la prostate en entraînant le moins d'effets secondaires possibles pour le malade.

C'est dans ce but que le Professeur Kattesh Katti, professeur de radiologie à l'école de médecine de l'université Missouri-Columbia, a eu l'idée de combiner un composant du thé et des nanoparticules d'or radioactif pour éliminer sélectivement et efficacement certains cancers de la prostate.

« Nous avons pu montrer qu'un composé présent dans les feuilles de thé avait la propriété de se lier de manière très spécifique avec les cellules cancéreuses de la prostate" souligne le docteur Katti qui poursuit "L'étape suivante de nos recherches a consisté à combiner ce composé du thé avec des nanoparticules d'or radioactif dont nous avons pu déterminer la taille optimale ; le composé sert de guide pour acheminer les nanoparticules vers la tumeur et, une fois sur place, ces nanoparticules peuvent détruire très efficacement les cellules cancéreuses sans effets secondaires". L'autre avantage de cette méthode de téléguidage est qu'elle  peut être envisagée pour véhiculer des médicaments classiques et des molécules chimiques qui pourraient alors être employés à des doses 100 à 1000 fois moins importantes qu'aujourd'hui pour éliminer les cellules cancéreuses.

Quant au choix de l'or radioactif, il obéit tout simplement aux lois de la physique : l'isotope d'or a une demi-vie (temps au terme duquel la moitié des particules perdent leur radioactivité) de deux jours et demi. En utilisant ces nanoparticules d'or, la radioactivité disparait totalement au bout d'un mois, ce qui est suffisant pour éliminer ou réduire très sensiblement la taille des tumeurs, avec seulement une ou deux injections de nanoparticules, comme l'ont montré les essais sur la souris. A l'issue de ces essais encourageants, le docteur Cutler, co-auteur de ces travaux a déclaré «Nous sommes convaincus que ces nanoparticules sont capables de réduire ou d' éliminer complètement, ce type de tumeurs, qu'elles aient un profil génétique à évolution lente ou agressive».

Brève rédigée par Mark Furness pour RTFlash

PNAS du 16-07-2012

Phys.org

Nanomedicine

Paro, le nouvel animal de compagnie japonais robotisé
Lundi, 16/07/2012 - 01:10

C'est un robot japonais, entre animal de compagnie et outil thérapeutique. Son nom : "le paro" (voir le site Parorobots), une abréviation de "personal robot". Son créateur, Takanori Shibata, qui travaille pour un institut de recherche japonais, est venu en France en faire la promotion à l'occasion de Japan Expo, le rendez-vous des férus de culture nippone, les 7 et 8 juillet près de Paris. Le paro ressemble à un petit phoque, avec une fourrure artificielle blanche qui lui donne des airs d'ours en peluche. Pesant 2,7 kilogrammes - "il est un peu plus léger que les bébés" souligne son "père" - le robot est vendu 4 600 euros. Disposant de nombreux capteurs, il réagit à la voix et aux caresses.

Le paro a été inventé en 2003 à Nanto, dans une région réputée pour sa tradition d'artisanat. "Il est fabriqué à la main individuellement, j'ai été inspiré par cette culture traditionnelle", dit M. Shibata. Le créateur en est à sa huitième génération et son robot est utilisé non seulement au Japon mais dans plusieurs pays européens, en particulier pour les personnes âgées souffrant de la maladie d'Alzheimer. "On a obtenu des résultats positifs", indique M. Shibata. La stimulation provoquée par le robot permet d'apaiser les tensions et de diminuer, voire interrompre, l'usage de médicaments, assure l'inventeur japonais. "Avec le paro, on réduit les charges psychologiques et physiques des personnes soignées mais aussi du personnel soignant", explique-t-il.

Dans le Japon vieillissant, 60 % des 1 800 exemplaires sont aux mains de particuliers, alors qu'au Danemark, les 200 paros ont été achetés par des municipalités pour un usage médical. Après le tsunami et l'accident nucléaire de Fukushima en 2011, 70 exemplaires du paro ont été envoyés dans une soixantaine de centres de soins temporaires des régions touchées, à la fois pour les personnes âgées mais aussi pour les enfants.

Le Monde

^ Haut
Matière
Matière et Energie
Le MIT invente une puce "multi-énergie"
Jeudi, 19/07/2012 - 01:40

Dans le cadre d'un programme associant la DARPA (Agence de Recherche pour les Projets Avancés en matière de Défense), deux chercheurs du MIT ont mis au point une étonnante puce capable de capter l'énergie à partir de la lumière, des vibrations et de la chaleur. Depuis plusieurs années, les physiciens sont parvenus à produire de l'énergie à partir de nouvelles sources comme le mouvement, grâce aux matériaux piézo-électriques ou la chaleur, grâce aux matériaux thermo électrique.

Cette fois, deux chercheurs du MIT, Anantha Chandrakasan et  Saurav Bandyopadhyay, ont inventé une puce révolutionnaire qui sait récupérer simultanément l'énergie de trois sources différentes. Cette puce peut produire 0,15 volts à partir de la chaleur, 0,7 volts grâce à la lumière naturelle et 5 volts grâce aux vibrations. Comme le précise le Docteur Chandrakasan "Notre grande innovation a été d'associer de manière nouvelle et particulièrement efficace trois sources d'énergie complémentaires, ce qui permet une production stable et prévisible d'énergie".

En outre, cette puce ne contient ni batterie, ni condensateur, ce qui la rend particulièrement fiable et économique. Selon les chercheurs du MIT, cette puce "multi-énergie" pourrait avoir de multiples applications dans de nombreux domaines : télésurveillance médicale, alertes environnementales, sécurité incendie et bien entendu recharge portable et rapide de nos terminaux et appareils numériques.

Brève rédigée par Mark Furness pour RTFlash

MIT

L'Europe fait progresser la recherche sur les énergies renouvelables
Dimanche, 15/07/2012 - 01:40

Le besoin de développer des sources d'énergie renouvelables est important pour l'Europe. S'assurer d'un approvisionnement plus sûr et renforcer la concurrence sur le marché régional renforce davantage ce besoin. Dans ce contexte, le projet SCALENANO («Development and scale-up of nanostructured-based materials and processes for low-cost high-efficiency chalcogenide-based photovoltaics»), soutenu à hauteur de 7,5 millions d'euros au titre du thème Énergie du septième programme-cadre (7e PC) de l'UE, vise à faire de cet objectif une réalité. Les partenaires du projet SCALENANO travaillent dans le développement de l'électricité photovoltaïque (PV), notamment en utilisant des panneaux de cellules solaires pour transformer les rayons solaires en électricité selon une technologie de films fins.

Les chercheurs et les acteurs industriels fabriquent actuellement les cellules solaires en silicium grâce à un équipement complexe, dont des processus de vide, des températures et des chambres propres. L'un des désavantages d'un tel équipement est qu'il s'agit d'un investissement cher.

Ainsi, la production de cellules solaires peu onéreuses est la clé. Le regroupement Novel Nanostructured Thin/Thick Film Processing Group de l'université de Notthingham au Royaume-Uni participe au projet SCALENANO.

«À mesure que l'approvisionnement mondial de combustibles fossiles décline, la capacité de développer une énergie durable devient absolument vitale», commente le professeur Kwang-Leong Choy, responsable du groupe pour l'université britannique. «La génération d'électricité en transformant les rayons solaires en électricité nous offrirait une source énergétique illimitée.

Actuellement, la production des cellules solaires en silicium implique un équipement compliqué, les processus de mise sous vide et de chambres propres contribuent au prix élevé des cellules de PV. En collaborant avec les partenaires universitaires et industriels d'Europe, nous sommes confiants que nous parviendrons à trouver le moyen de fabriquer des cellules solaires efficaces et rentables, qui constitueront un avantage important pour les entreprises et ménages du monde entier.»

Selon les chercheurs, les problèmes associés aux cellules solaires à fines couches actuellement dans le commerce résultent des matériaux qui se déposent sur les cellules sur une grande surface, ainsi que l'approvisionnement limité d'indium, utilisé dans le processus de production.

Les chercheurs de Nottingham expliquent qu'ils tentent de s'appuyer sur les accomplissements précédents dans le domaine des technologies de cellules solaires. Ils accordent également une attention particulière à la résolution de problème d'uniformité et l'application d'alternatives à l'indium pour développer des cellules solaires durables garantissant une performance élevée.

«Les travaux que le professeur Choy et son équipe accomplissent dans la technologie photovoltaïque sont une bonne illustration de la manière dont les innovations développées par des chercheurs de l'université de Nottingham peuvent avoir d'énormes bénéfices dans l'industrie», reconnaît Mike Carr, directeur de l'engagement commercial de l'université britannique, à propos du projet SCALENANO. «Nous sommes toujours heureux lorsque l'opportunité de rencontrer des entreprises intéressées à explorer de nouvelles voies de collaboration pour la commercialisation d'idées et le lancement de nouveaux produits sur le marché.»

SCALENANO a été lancé en début de 2012 et se clôturera en 2015. Un total de 13 partenaires issus d'instituts de recherche, d'universités et d'entreprises d'Europe composent le consortium.

Cordis

Une pile à combustible microbienne capable de produire de l'électricité et dépolluer l'eau
Dimanche, 15/07/2012 - 01:10

Encore au stade de prototype, la pile à combustible microbienne (PCM) permettrait de produire de l’électricité et dépolluer les eaux usées. Elle représente une solution pour deux problématiques cruciales : produire une énergie verte et renouvelable et accroître l’accès à l’eau potable. L’intérêt étant plus qu’évident, les recherches sur le sujet avancent.

Le principe est celui d’une pile à combustible et repose sur l’activité bactérienne. L’hydrogène est oxydé au contact de l’anode, ce qui libère un électron. L’ion hydrogène qui en résulte est ensuite récupéré au niveau de la cathode, avec l’électron. L'électricité résulte donc d’un transfert d’électrons entre deux électrodes, à savoir de l’anode vers la cathode.

Dans le cas présent, les bactéries ne se contentent pas de produire du courant, mais se nourrissent d'eaux usées. Les matières organiques présentes dans les eaux polluées sont ainsi dissoutes par des micro-organismes appelés « électricigènes ». De fait, l'eau est purifiée. Les piles à combustible microbiennes pourraient bien se révéler fort utiles dans les stations d'épuration. Cette nouvelle technologie offre en effet de multiples avantages dans le traitement de l'eau. Notamment, au niveau de l'utilisation des ressources, telles que l'oxygène ou divers produits chimiques, nécessaires au traitement de l'eau. Mais aussi concernant la réduction de la production de gaz à effet de serre.

Ces bactéries pourraient même être utiles à la mesure de la pollution. Selon une interview accordée à Ouest-France par Frédéric Barrière, responsable du projet de PCM à l'université de Rennes, le taux de pollution des eaux usées serait proportionnel à la quantité d'électricité produite. Cela serait un baromètre de pollution novateur.

Les recherches se poursuivent dans divers pays et universités. En France, Rennes, Lyon et Toulouse se démarquent par leurs travaux. Et bien que la pile à combustible microbienne ne soit pas encore en service, ce processus naturel d'élimination des déchets inspire. En Australie par exemple, quelques prototypes ont été installés par l'université de Queensland pour le traitement des eaux usées et l'alimentation en électricité dans une brasserie. Les piles sont encore en phase de test. Pas d'emballement donc. D'autant que plusieurs difficultés sont apparues aux yeux des chercheurs, dont celle de collecter l'énergie et celle de gérer une concentration de matières organiques sans cesse différente dans les eaux usées.

Pour l'heure, l'utilisation de ce système au niveau industriel n'est pas prévue. Mais cette nouvelle technologie est très prometteuse. À l'avenir, les stations d'épuration seront probablement autonomes. Et qu'en sera-t-il du voyage spatial ? La pile à combustible microbienne gérera-t-elle le renouvellement de l'eau et la production d'électricité dans les fusées ?

Techniques de l'Ingénieur

INRIA

La transition énergétique mondiale s'accélère !
Dimanche, 15/07/2012 - 01:00

Selon le dernier rapport de l'AIE, l’essor des énergies vertes à travers le monde va s’accélérer au cours de ces  cinq prochaines années.

L'AIE prévoit en effet plus de 40 % de croissance en cinq ans. Une prévision qui ne porte pas sur la puissance installée mais bien sur l’électricité produite. Cette progression de 40 % tient donc compte de l’intermittence des énergies éolienne et solaire. La production d’électricité verte devrait donc passer de 4540 térawattheures (TWh) en 2011 à 6400 Twh en 2017. Soit environ une fois et demie la consommation totale de courant des Etats-Unis en 2011 ou encore 30 % de la production mondiale d'électricité prévue en 2017 (22 000 TWh), contre 18 % en 2005 !

Sans surprise, l’hydroélectricité reste majoritaire avec 80 % des kilowattheures renouvelables produits en 2011. L’éolien viendra en deuxième position en 2017, avec 16 % de l'électricité verte, suivi par la biomasse (8 %) et le photovoltaïque (4 %). Précision : le rapport ne porte que sur l’électricité, par sur le chauffage où la biomasse (bois, déchets végétaux) qui est une source importante.

La géographie des énergies vertes va continuer de s’étendre. Le nombre de pays disposant d’un parc éolien terrestre de plus de 100 mégawatts (MW) va passer, de 2011 à 2017, d’une quarantaine à 70 ; de 35 à 45 pour la biomasse, d’une vingtaine à 45 pour le photovoltaïque.

La plus forte croissance en puissance installée proviendra de la Chine qui accueillera 40 % des nouveaux mégawatts verts installés dans le monde d'ici 2017, suivie par les Etats-Unis, l’Inde, l’Allemagne et le Brésil.

AIE

Un liquide de refroidissement efficace pour batteries de véhicules électriques
Samedi, 14/07/2012 - 01:00

Les batteries des voitures électriques possèdent une température de fonctionnement optimale comprise entre 20 et 35°C, nécessitant un système de refroidissement performant pour empêcher leur surchauffe. Deux principaux systèmes de refroidissement, par air et par eau, sont déjà disponibles sur le marché. Néanmoins, les systèmes de refroidissement par air ne permettent pas d'absorber la chaleur de manière optimale. De plus, les cellules à l'intérieur des modules de batterie doivent être suffisamment espacées les unes des autres afin d'assurer une bonne circulation de l'air, d'où une perte de place importante. Les refroidissements par eau sont, quant à eux, plus efficaces, mais nécessitent de grandes quantités de liquide, impliquant une augmentation de la masse des véhicules et donc une réduction de leur autonomie.

Dans ce contexte, des chercheurs de l'Institut Fraunhofer des technologies de l'environnement, de la sécurité et de l'énergie (UMSICHT) d'Oberhausen (Rhénanie du Nord-Westphalie) ont développé un matériau à changement de phase aux propriétés réfrigérantes dénommé "CryoSolplus". Ce dernier est constitué d'un mélange d'eau et de paraffine, de tensioactifs stabilisants et d'un produit antigel, le glycol. Lorsque le liquide absorbe de la chaleur, les boulettes de paraffine contenues dans ce dernier fondent. Une fois le liquide refroidi, les boulettes de paraffine reprennent leur forme solide initiale. Ainsi, le CryoSolplus permet d'absorber trois fois plus de chaleur que l'eau, réduisant la quantité de liquide nécessaire dans le circuit de refroidissement. De plus, le CryoSolplus est un bon conducteur de chaleur, permettant d'évacuer celle-ci rapidement des cellules de batterie. Les coûts supplémentaires par rapport à un système de refroidissement par eau sont de l'ordre de 50 à 100 euros.

"Lors de la phase de développement du CryoSolplus, le problème principal consistait à assurer la stabilité de la dispersion", explique Tobias Kappels, chercheur à l'Institut Fraunhofer UMSICHT. Ainsi, les boulettes de paraffine ne doivent ni s'agglomérer, ni se concentrer à la surface du liquide, leur densité étant plus faible que celle de l'eau. Pour empêcher ce phénomène, les tensioactifs stabilisent la dispersion en se fixant sur les boulettes de paraffine et en formant une couche protectrice autour de celles-ci. Le choix des tensioactifs appropriés, résistant aux contraintes mécaniques lors du pompage du liquide et stables lors des changements de phase, a fait l'objet d'études approfondies.

Bulletins Electroniques

^ Haut
Espace
Espace et Cosmologie
Découverte par des astronomes américains d’une cinquième lune de Pluton
Mardi, 17/07/2012 - 01:10

Un nouveau corps a été découvert en orbite autour de Pluton. Une 5ème lune que la sonde spatiale New Horizons devra contourner !

Grâce aux données collectées par le télescope spatial Hubble, des astronomes américains ont découvert une 5ème lune autour de Pluton. Mesurant environ 10 km sur 24 km de large, cet astre tourne autour de Pluton en suivant une orbite circulaire de 93.000 km de diamètre, sur le même plan que les autres lunes, expliquent Mark Showalter (SETI Institute, Californie) et ses collègues.

La première lune découverte autour de Pluton est Charon, en 1978. Ensuite c’est en 2006 que deux autres lunes, Nix et Hydra, ont été repérées toujours avec Hubble. En 2011 un quatrième corps est découvert dans les données de Hubble. Il attend son nom de baptême définitif, tout comme la 5ème lune, qui s’appelle pour l’instant S/2012(134340). Ces lunes pourraient être le résultat d'une collision entre Pluton et un objet de la ceinture de Kuiper, riche en petits corps rocheux et glacés.

Jusqu’en 2006, Pluton était la 9ème planète du système solaire. Cependant la découverte d’autres objets de taille comparable, dans cette région éloignée du système solaire, a amené l’Union astronomique internationale à reconsidérer son statut (Lire Nom: Pluton, numéro 134340). Désormais, Pluton fait partie d’une nouvelle catégorie d’objets trans-neptuniens (au-delà de l’orbite de Neptune) dont elle est l’archétype : les planètes naines.

Le fait d’avoir des lunes ne change rien à cette définition : L’un des critères majeurs retenus en 2006 par l’UAI est le fait qu’une planète doit avoir fait «place nette» autour d’elle, grâce à son influence gravitationnelle. Ce qui n’est pas le cas de Pluton. Le duo avec Charon est même considéré par certains astronomes comme un système double.

L’exploration du voisinage de Pluton continue, afin de préparer l’arrivée de la sonde New Horizons en juillet 2015. À 53.000 km/h, une collision est fatale… Les observations permettent d’ajuster la trajectoire de la sonde envoyée par la Nasa pour explorer Pluton, Charon et au-delà.

Sciences et Avenir

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le génome du bananier séquencé
Lundi, 16/07/2012 - 01:20

Le bananier vient de livrer aux généticiens les secrets de ses 520 millions de bases. Le Cirad et le CEA-Genoscope, avec le soutien financier de l’ANR, viennent d’achever, en deux ans, le séquençage de l’espèce Musa acuminata, qui entre dans la composition de toutes les variétés comestibles (bananes desserts ou à cuire). Avancée majeure pour la compréhension de la génétique et l’amélioration des variétés de bananes, ce travail a été réalisé dans le cadre du Global Musa Genomics Consortium. Les résultats ont été publiés en ligne le mercredi 11 juillet 2012 dans la prestigieuse revue scientifique Nature.

Capital pour la sécurité à la fois alimentaire et économique de plus de 400 millions de personnes des pays du Sud, le bananier est soumis à des menaces parasitaires constantes. La pression est particulièrement forte dans les plantations qui produisent les bananes « export » retrouvées sur les étals de nos supermarchés. La création de nouvelles variétés plus résistantes est donc une nécessité même si elle est compliquée de par la très faible fertilité des bananiers cultivés.

La séquence désormais disponible permet d’accéder à l’ensemble des gènes de cette plante - plus de 36 000 – et à leur position le long de ses onze chromosomes. Cette connaissance facilitera considérablement l’identification des gènes responsables de caractères tels que la résistance aux maladies et la qualité des fruits. Elle fournira au final une aide essentielle à l’amélioration des variétés de bananiers à partir des nombreuses ressources génétiques disponibles dans le monde.

Le bananier est la première plante de sa classe botanique (les monocotylédones), à côté des céréales, pour laquelle un séquençage abouti (ancré sur les chromosomes) a été obtenu. Il constitue à ce titre une référence de grande valeur pour étudier l’évolution des génomes. Les chercheurs ont ainsi pu établir que le bananier a connu trois épisodes de duplication complète du génome indépendant de celles constatées dans la lignée des graminées. Si la plupart des gènes issus de ces événements de duplication sont ensuite perdus, certains persistent et permettent l’émergence de nouvelles fonctions biologiques. Les chercheurs ont déjà repéré certains facteurs de régulation (les facteurs de transcription) qui sont particulièrement abondants chez le bananier et concourent à des processus importants comme la maturation des fruits.

Cirad

Le réchauffement climatique se poursuit selon le rapport de la NOAA !
Lundi, 16/07/2012 - 01:00

Selon le dernier rapport de l’Agence américaine océanique et atmosphérique (NOAA), l'inexorable montée des températures se poursuit.  Au niveau mondial, 2011 restera en effet une des quinze années les plus chaudes depuis plus d'un siècle. ce rapport repose sur 43 indicateurs climatiques, comme la concentration de gaz à effet de serre, le niveau et la salinité des océans, la fonte des glaces ou la couverture nuageuse.

Le rapport, réalisé par près de 400 scientifiques de 48 pays, évoque pour la première fois les liens entre le changement climatique et les phénomènes météorologiques extrêmes. il admet qu'il est difficile d'isoler les causes intriquées de ces événements mais précise que 2011 a été marquée par des phénomènes météorologiques extrêmes, tant en Amérique du nord que dans le reste du monde.

Selon cette étude, le mois de novembre 2011, anormalement chaud en Grande-Bretagne, a soixante fois plus de chances d'avoir été provoqué par le changement climatique mondial que par des variations naturelles. En revanche, l’hiver très froid de 2010-2011 en Grande-Bretagne ne serait pas le résultat du changement climatique mais serait dû à d’autres facteurs océaniques.

Ces perturbations et épisodes météorologiques violents semblent liés au retour cyclique du courant froid "La Nina" dans les eaux équatoriales de surface de l’océan Pacifique. La Nina obéit à un cycle d'environ cinq ans et dure généralement un à deux ans.

Le rapport évoque également les sécheresses sans précédent en Afrique de l’Est, dans le Sud-Ouest des Etats-Unis et dans le Nord du Mexique. La Nina a également contribué à une saison d’ouragans tropicaux plus intenses que la moyenne dans l’Atlantique Nord ainsi qu’à une moyenne saisonnière de cyclones plus basse dans le Nord-Est du Pacifique.

En Arctique, les changements climatiques ont été particulièrement rapides en 2011. La banquise a fondu durant l’été, atteignant sa deuxième superficie la plus petite. Autre indication alarmante, l'ensemble des glaciers du globe ont continué à se réduire en 2011.

L’Antarctique a  connu pour sa part, en décembre 2011, sa plus haute température jamais enregistrée avec -12 degrés  (1,1 degré de plus que le précédent record). Enfin, ce rapport confirme également que la concentration dans l’atmosphère des principaux gaz à effet de serre comme le dioxyde de carbone (CO2) avait continué à augmenter en 2011 et dépasse à présent les 400 ppm, soit une hausse de la concentration en CO2 de 43 % depuis deux siècles.

Brève rédigée par Mark Furness pour RTFlash

NOAA

Les poissons pourraient s'adapter au réchauffement des océans
Samedi, 14/07/2012 - 01:20

Les poissons pourraient s'adapter mieux que prévu à des températures et à une acidité plus élevées des océans, conséquences attendues du changement climatique, estime une étude publiée dimanche 1er juillet dans la revue Nature Climate Change.

Des études menées en Australie sur des poissons clown montrent que les juvéniles résistent mieux à une température et une acidité plus élevée de l'eau si leurs parents ont eux-mêmes fait face à des conditions similaires.

Depuis plusieurs années, des études montrent les conséquences négatives du changement climatique sur nombre d'organismes marins, mais la façon dont les espèces pourraient s'adapter d'une génération à l'autre est plus rarement examinée, soulignent les chercheurs de l'Université James Cook, à Townsville, en Australie.

Pour les océans, qui absorbent le quart du CO2 émis dans l'atmosphère, nos émissions polluantes toujours plus importantes ont deux types d'impacts : un réchauffement de la température de l'eau, lié au réchauffement global, et une acidification liée à la concentration plus importante de CO2. Lors de cette expérience australienne, menée en aquarium, les chercheurs ont constitué trois groupes de poissons clown adultes soumis, pour le premier groupe, aux concentrations de CO2 actuelles, et pour les deux autres à des concentrations plus élevées. Et les ont laissés se reproduire.

Les juvéniles ont été élevés dans les mêmes conditions de CO2 que leurs parents, avec une exception : une partie de la progéniture des poissons du premier groupe (concentration actuelle de CO2) a été élévée dans des conditions de CO2 plus importantes. Ces jeunes élevés dans des conditions de CO2 différentes avaient une taille et un poids "sensiblement inférieurs" aux jeunes poissons élevés dans les mêmes conditions que leurs parents, ont constaté les chercheurs.

En conséquence, souligne l'étude, "l'influence parentale pourrait être très efficace pour atténuer les conséquences de l'acidification des océans". Pour les chercheurs, cette adaptation d'une génération sur l'autre pourrait s'expliquer par une "hérédité épigénétique", c'est-à-dire les caractères que des parents transmettent à leurs enfants au-delà de leurs gènes.

Le Monde

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte d'un gène favorisant le mélanome malin
Jeudi, 19/07/2012 - 01:30

Des chercheurs de l'université de Zurich, en Suisse, ont annoncé avoir découvert un gène qui favorise l'apparition d'un mélanome, ce cancer de la peau particulièrement agressif et de plus en plus fréquent. Leur étude a été publiée dans la revue «Nature Cell Biology» du 8 juillet. À l'aide de souris, les chercheurs zurichois ont mis en évidence un gène qui, s'il est réprimé, empêche l'apparition du mélanome. Actuellement, on ne connaît pas de traitement de la maladie à un stade avancé, et cette découverte ouvre la voie à de nouvelles perspectives de traitement.

Jusqu'à maintenant, les spécialistes pensaient qu'une tumeur était constituée de cellules semblables qui se multipliaient de façon anormale pour former une tumeur. Selon de nouvelles hypothèses, il se pourrait qu'une tumeur comprenne non seulement des cellules malignes, mais aussi des cellules moins agressives. De la même façon que les cellules souches sont à la base de la formation des organes, des cellules tumorales peuvent se diviser et s'agglomérer de manière à former une tumeur. Un traitement efficace devrait donc s'attaquer d'abord aux cellules cancéreuses originelles.

Les biologistes spécialistes des cellules souches réunis autour du professeur Lukas Sommer ont voulu savoir si les mécanismes à l'oeuvre dans les cellules normales se retrouvaient également dans les cellules cancéreuses. Les cellules du mélanome sont des cellules pigmentaires dégénérées provenant à l'origine de cellules souches neurales. L'équipe du professeur Sommer a cherché à déterminer, avec des dermatologues et des pathologistes, s'il y avait dans les tissus tumoraux humains des cellules avec des caractéristiques de cellules souches neurales.

«C'était effectivement le cas. Nous avons pu le montrer avec les tissus de nombreuses biopsies de patients», a déclaré le professeur Sommer. Dans tous les tissus analysés, ils ont retrouvé un gène très actif qui dirige dans les cellules normales le programme «cellule-souche». Ce gène, baptisé Sox10, est essentiel à la division et à la survie des cellules souches. Les chercheurs zurichois ont ensuite cherché à comprendre comment Sox10 fonctionne dans les cellules humaines du mélanome. Il ont alors mis en évidence le fait qu'il pilote également dans les cellules cancéreuses un programme essentiel à la division des cellules souches. Ils ont ensuite utilisé des souris porteuses des mêmes mutations que l'on trouve dans le mélanome humain et qui sont donc atteintes spontanément d'un mélanome. Or, la répression du Sox10 a réussi à empêcher complètement l'extension du cancer.

Selon le professeur Sommer, les travaux ont montré qu'une tumeur peut probablement être traitée si l'on combat ses cellules souches. Les résultats montrent aussi la nécessité de lier étroitement la recherche fondamentale à la clinique.

98,5 fm - AP

Comment mobiliser les globules blancs contre le Sida
Jeudi, 19/07/2012 - 01:20

Le VIH a pour cible principale les lymphocytes T CD4. Au niveau de l'intestin, ces lymphocytes en permanence activés par le voisinage des bactéries intestinales deviennent la cible de l'infection par le virus? ce qui induit leur destruction. La paroi intestinale, fragilisée, laisse alors passer des produits bactériens comme le lipopolysaccharide (LPS) dans le sang.

Ces produits bactériens induisent une hyperactivation du système immunitaire, avec la production de cytokines inflammatoires, qui à leur tour induisent davantage d'activation des lymphocytes T CD4. Cela induit un cercle vicieux difficile à contrôler par les antirétroviraux même quand ils sont efficaces sur la charge virale plasmatique.

Les chercheurs de l'Institut Cochin ont confirmé que les patients qui avaient du VIH détectable dans leur plasma avaient une plus forte réponse de leurs cellules sanguines au LPS que ceux qui n'avaient plus de virus dans leur plasma grâce à un traitement antirétroviral. Ils ont analysé toutes les populations susceptibles de produire des cytokines inflammatoires en réponse au LPS. Ils ont trouvé qu'une petite population de globules blancs, des monocytes porteurs de la molécule MDC-8, était plus abondante chez ces patients, et qu'elle était la principale responsable de la production exagérée d'une cytokine inflammatoire, le TNF-α.

Les monocytes MDC-8 sont déjà bien connus dans les lésions d'une maladie inflammatoires chronique de l'intestin, la maladie de Crohn, et d'autres maladies inflammatoires chroniques. Les chercheurs suggèrent qu'une destruction spécifique de cette population pourrait être induite par l'injection d'anticorps spécifiques. Cette stratégie permettrait de compléter l'action des antirétroviraux en interrompant d'une manière très ciblée le cercle vicieux d'hyperactivation du système immunitaire.

Ces travaux font l'objet d'un brevet. Ils sont issus d'une étroite collaboration entre une équipe de recherche de l'Institut Cochin, le Centre d'investigation Clinique de Vaccinologie Cochin-Pasteur, l'Unité Inserm 1018 au Kremlin-Bicêtre, l'Institut Pasteur et l'Assistance Publique. Ils ont été financés par l'ANRS, le Sidaction, l'Inserm et la DHOS du Ministère de la Santé.

CNRS

Des avancées dans la compréhension des leucémies
Jeudi, 19/07/2012 - 01:10

Une équipe de scientifiques internationaux, dirigés par le chercheur principal, le Docteur Mak Tak au Centre du cancer Princess Margaret à Toronto (Canada), a identifié un lien de causalité entre le produit d’une enzyme métabolique mutée et l’apparition de la leucémie myéloïde aiguë (AML), l'un des types les plus courants de leucémie chez l'adulte.

La metabolite2-hydroxyglutarate (2HG) est un sous-produit issu d’une mutation du gène controlant une enzyme baptisée isocitrate déshydrogénase (IDH). L'équipe du Docteur Mak a réalisé cette découverte en travaillant sur des souris génétiquement modifiées et porteuses d'une mutation sanguine spécifique qui reproduit la leucémie myéloïde aiguë.

Publiée le 4 juillet dans Nature, ces recherches démontrent que cette métabolite peut causer l'un des types de leucémie les plus fréquents chez les adultes. Selon le Docteur Mak, « Cette découverte ouvre la voie vers le développement d'inhibiteurs pour bloquer la mutation et prévenir de cet enzyme qui initie la maladie".

Une autre avancée (publiée le 7 juin dans Nature oncogene) laisse espérer un nouveau traitement pour un autre type de leucémie. Elle a été réalisée par des chercheurs américains de  l'Université de Californie à San Diego. Ceux-ci sont parvenus à éliminer les cellules souches-cancéreuses initiatrices en inhibant l'action du NOTCH1, une voie de signalisation impliquée dans les cas de leucémie lymphoblastique aigüe qui, sous l'effet d'une d'une mutation génétique particulière, entraîne la réplique du cancer.

Cette découverte est prometteuse car 50 % des personnes souffrant de ce type de leucémie présentent une mutation de la voie de signalisation en question. En bloquant cette dernière, on peut donc espérer réduire considérablement les risques de récidives intervenant à l'origine de la chimio-résistance des cellules-souches cancéreuses.

Brève rédigée par Mark Furness pour RTFlash

Nature du 4 juillet 2012

Nature oncogene du 7 juin 2012

Cancer : vers la nouvelle ère des multi-thérapies
Mercredi, 18/07/2012 - 01:40

Le Professeur Nowak est l’un des auteurs d'un document, publié dans l’édition du 28 juin de Nature, qui décrit en détail comment la résistance à des médicaments ciblés émerge dans les cancers colorectaux et comment une multi-thérapie pourrait permettre de contrôler de nombreux cancers, voire les traiter définitivement.

« Beaucoup de gens meurent du cancer, et notre recherche offre une nouvelle voie stratégique dans cette bataille contre la maladie », explique Martin Nowak, professeur de mathématiques et de biologie de l’Université d’Harvard. « Il y a cent ans, des millions de personnes mourraient d'infections bactériennes. Aujourd’hui, nous savons traiter ces infections. Je pense que nous approchons de cette ère pour le cancer ».

La clé, changer la façon dont les cliniciens combattent la maladie, selon Nowak : Médecins et chercheurs se tournent de plus en plus vers des thérapies ciblées ces dernières années. Il s’agit de médicaments qui luttent contre le cancer en bloquant ou réduisant sa capacité à se développer et à se propager. Mais il s’avère que nombre de ces thérapies ciblées ne sont efficaces que durant quelques mois puis le cancer développe une résistance aux médicaments.

Dans le cas du traitement du cancer du côlon traité dans l'article de Nature, le gène KRAS, responsable de la production d'une protéine de régulation de la division cellulaire, une fois activé, permet aux cellules cancéreuses de développer une résistance aux médicaments de thérapie ciblée, rendant au bout de quelques semaines le traitement inefficace. Pour mieux comprendre le rôle du gène KRAS dans la résistance, une équipe de chercheurs de l'Université Johns Hopkins a lancé une étude sur quelques patients pour déterminer si le gène KRAS était activé dans leurs tumeurs. Les patients sans gène KRAS activé ont reçu un cycle de traitement de thérapie ciblée, et les premiers résultats, comme prévu, se sont avérés positifs.

Mais les tests effectués après la fin de l’efficacité du traitement, montrent un résultat surprenant : le gène KRAS a été activé. Les chercheurs ont ensuite analysé les mutations qui peuvent mener à l'activation du gène KRAS puis ont travaillé avec  des mathématiciens. Les chercheurs sont parvenus ainsi à décrire mathématiquement la croissance exponentielle du cancer et à comprendre si la mutation responsable de la résistance était préexistante, ou si elle se produisait après le début du traitement.

Leur modèle s’avère capable de prédire, avec une précision surprenante, la fenêtre de temps entre le moment où le médicament est administré et le moment où la résistance commence à se développer. Et en analysant ces résultats mathématiquement, les chercheurs ont pu déterminer de façon concluante que la résistance était déjà là, de sorte que le traitement était condamné dès le départ.

En bref, les chercheurs ont compris pourquoi certaines de ces thérapies ciblées sont, dès le départ, vouées à l’échec. « En d'autres termes », explique le Professeur Nowak, nos résultats suggèrent que, parmi les milliards de cellules cancéreuses qui existent chez un patient, seul un infime pourcentage - environ un sur un million - est résistant aux médicaments utilisés en thérapie ciblée. Lorsque le traitement commence, les cellules non résistantes sont anéanties. Les cellules résistantes, elles, pourtant peu nombreuses, parviennent à « repeupler » le cancer, ce qui provoque en fin de compte, l'échec du traitement.

La question de l’existence de la résistance avant même le début du traitement est l’une des grandes questions laissées en suspens liées à ce type de traitements ciblés ; cette recherche aboutit à une compréhension quantifiée de la façon dont la résistance évolue et montre que, parce que la résistance est là, tout au début, la monothérapie ne pourra pas fonctionner. Conclusion, déjà appliquée en pratique clinique, les traitements doivent impliquer au moins deux médicaments. Mais en plus, le traitement doit être adapté au patient, et doit être basé sur la constitution génétique du cancer du patient. Et, ajoute le Professeur Nowak, les deux médicaments utilisés simultanément ne doivent pas se chevaucher car si une seule mutation permet au cancer de devenir résistant aux 2 médicaments à la fois, le traitement échouera tout comme une monothérapie.

Santé Log

Dépression : une nouvelle voie thérapeutique ?
Mercredi, 18/07/2012 - 01:30

Des chercheurs américains viennent de mettre en évidence chez la souris "le circuit" de l’anhédonie, cette difficulté à ressentir des émotions positives et expérimenter le plaisir. Cette découverte laisse envisager la possibilité de nouveaux traitements pour certaines dépressions sévères.

En France, 3 millions de personnes seraient touchées par la dépression. Cette maladie affecte de nombreux aspects de la vie quotidienne dont la joie de vivre, perdue chez de nombreuses personnes. La découverte de Rob Malenka, dont l’étude est publiée dans Nature, pourrait peut-être changer la vie des malades. L'équipe de ce neuroscientifique de l’Université de Stanford  a mis en évidence le circuit de l’anhédonie, cette incapacité à ressentir des émotions positives lors de situations plaisantes. Il semblerait qu’il soit possible de jouer sur ce sentiment particulier. Cette découverte rend envisageable la mise au point de traitements spécifiques avec l’immense avantage d’être déconnectés des autres symptômes liés à la dépression.

  • Le manque de plaisir identifié dans le cerveau

C’est en cherchant à mieux comprendre les circuits cérébraux impliqués dans l’apparition de symptômes dépressifs induits par un stress chronique que Rob Malenka et son équipe ont fait cette découverte.  En effet, le stress chronique induit la production de mélanocortines, hormones impliquées dans la pigmentation de la peau mais aussi dans la modulation de la prise alimentaire. Or, il existe de nombreux récepteurs de mélanocortine dans le noyau accumbens, une région du cerveau impliquée dans le "mécanisme de récompense". Quand ce circuit fonctionne normalement, il permet de ressentir du plaisir suite à l’accomplissement d’un objectif ou d’expériences agréables (liées à la nourriture, au sexe…). A l’inverse, quand ce circuit est défectueux, pas de plaisir. On parle alors d'anhédonie. Mais jusqu’à présent, on ne savait pas si la modulation  de l’activité de mélanocortine pouvait influer sur ce circuit de récompense et donc sur la "joie de vivre".

  • Vers de nouveaux traitements de la dépression ?

Pour tester leur hypothèse, les chercheurs ont donc travaillé avec deux types de souris : des souris dites "normales et heureuses" et d’autres chez qui un stress chronique a été induit (en les confinant dans un tube 3 à 4 heures par jour durant 8 jours). Pour tester leur "joie de vivre", il leur a donc été proposé de l’eau sucrée – généralement appréciée des souris - ou normale. Logiquement, les souris stressées étaient moins attirées par l’eau sucrée que les autres. Par ailleurs, ces souris stressées avaient perdu en moyenne 5 à 10 % de leurs poids corporel, symptôme fréquemment observé chez les dépressifs.

Au-delà de ce simple test comportemental, les chercheurs ont utilisé diverses techniques  pour savoir exactement ce qu’il se passait au niveau moléculaire. Ils ont ainsi observé que le stress chronique et l’administration directe de mélanocortines dans le noyau accumbens provoquaient une diminution de la force du signal synaptique (jonction entre deux neurones). Et quand le noyau accumbens était dépouillé des récepteurs à mélanocortine, le stress n’arrivait plus à induire les changements synaptiques observés "normalement". Par ailleurs, l’appétence des souris stressées pour le sucre était redevenu normal, tout comme leur poids.

Enfin, d’autres expériences (remplacer le sucre dans l’eau par de la cocaïne, jeter les souris dans une piscine et les forcer à nager jusqu’à ce qu’elles abandonnent...) ont également confirmé l’hypothèse de base des auteurs : le stress chronique réduit la force des signaux synaptiques des récepteurs de mélanocortine du noyau accumbens. Ainsi, les symptômes d’anhédonie disparaissent quand ces récepteurs sont bloqués.

Rob Malenka et ses collègues seraient les premiers à avoir mis en évidence le rôle de la mélanocortine dans les symptômes liés à la dépression. Leur découverte ouvre de nombreuses perspectives thérapeutiques, d’autant plus que de nombreux analogues et inhibiteurs de mélanocortine ont été développés par divers laboratoires. Néanmoins, quelques biais méthodologiques liés à la difficulté des expérimentations animales dans le domaine des sciences cognitives (on peut s'interroger sur la pertinence des critères utilisés pour déterminer l’anhédonie comme le fait d’abandonner la nage forcée...) nous conduisent à rester prudents.

Doctissimo

Le diagnostic précoce du cancer colorectal en une goutte de sang
Mercredi, 18/07/2012 - 01:20

Les travaux de recherche de l'équipe du professeur Masaru YOSHIDA de la faculté de médecine de l'Université de Kobe ont récemment permis la mise au point d'une technique de diagnostic précoce du cancer colorectal à partir de l'analyse des composants moléculaires présents dans une goutte de sang.

Un biomarqueur est un paramètre biologique constituant un indicateur des processus normaux ou pathologiques chez un patient. Suscitant un intérêt croissant des établissements hospitaliers pour la détection de certains cancers, les biomarqueurs peuvent également renseigner sur les réactions de l'organisme face à certains traitements. De nombreuses compagnies pharmaceutiques ont également recours à la détection de biomarqueurs dans leur processus de développement de médicaments.

Les scientifiques du professeur YOSHIDA ont concentré leurs efforts sur l'étude du métabolome correspondant à l'ensemble des métabolites (intermédiaires chimiques, hormones, cytokines...) d'un organisme ou contenus dans un échantillon biologique. Dans ce but, des échantillons de sérum sanguin appartenant à un groupe de 60 personnes en bonne santé et de 60 patients atteints de cancer colorectal ont été analysés avec précision grâce à la technique très sensible de la chromatographie en phase gazeuse couplée à la spectrométrie de masse. Parmi l'ensemble des molécules contenues dans chaque échantillon, quatre acides aminés ont été retrouvés en quantité deux à trois fois plus importantes chez les patients atteints de ce cancer.

Un protocole de dosage spécifique de ces acides aminés a par la suite été mis au point par les chercheurs. L'efficacité de ce dosage permettrait une détection rapide des cancers colorectaux dans 85 % des cas contre 10 % avec les méthodes de diagnostic classiques. En outre, sa grande précision ne nécessiterait qu'une seule goutte de sang. D'après les chercheurs, la durée de l'examen pourrait être optimisée afin d'atteindre les 30 minutes pour un coût ne dépassant pas les 500 yens (5 euros environ). Un grand nombre d'entreprises de biotechnologies ont déjà pris contact avec les scientifiques qui espèrent développer dans les cinq prochaines années les premiers kits de diagnostic. Le professeur YOSHIDA a également fait part de son intention de mettre au point d'autres techniques similaires de détection des cancers de l'estomac et du pancréas.

Bulletins Electroniques

Maladie d'Alzheimer: nouvelles avancées dans la détection précoce
Mardi, 17/07/2012 - 07:11

Deux études américaines publiées respectivement dans le New England Journal of Medicine et dans Nature viennent éclairer d'une lumière nouvelle les connaissances sur la maladie d'Alzheimer et pourraient conduire à terme vers de nouveaux médicaments et vers une une détection précoce de cette redoutable affection neurodégénérative.

La première étude a porté sur 128 personnes venant du Royaume-Uni, des Etats-Unis et d'Australie, toutes prédisposées à développer la maladie d'Alzheimer à un âge précoce. Elle montre que les premières modifications provoquées par la maladie d'Alzheimer apparaissent chez les sujets génétiquement prédestinés vingt-cinq ans avant les premiers troubles de la mémoire et les altérations cognitives. Cette étude montre également que la hausse des niveaux de béta-amyloïdes dans le liquide céphalo-rachidien est l'événement qui survient en premier. Ces protéines, qui siègent entre les cellules du cerveau, sont une des causes principales de la maladie d'Alzheimer.

D'autres changements apparaissent quinze ans avant ces troubles : les protéines béta-amyloïdes deviennent visibles sur un scanner du cerveau, les niveaux de protéine tau, qui entraînent une dégénérescence neurofibrillaire, augmentent dans le liquide céphalo-rachidien, et enfin, certaines zones du cerveau rétrécissent. Une réduction de l'utilisation du glucose par le cerveau et des problèmes de mémoire légers peuvent être détectés, eux, dix ans avant l'arrivée des symptômes complets.

Néanmoins, les auteurs de l'étude soulignent qu'ils ne savent pas si cette chronologie est identique pour les patients qui sont atteints de la forme la plus commune et tardive de la maladie d'Alzheimer, qui se développe généralement après l'âge de 65 ans et touche 98 % des malades.

La seconde étude concerne la découverte d'une mutation génétique rare de la protéine précurseur de l'amyloïde (APP), protégeant certaines personnes d'Alzheimer. Les scientifiques de la société islandaise deCODE, menés par le chercheur Kari Stefansson, l'ont repérée chez environ 1 % des 1 795 Islandais qui ont participé à cette recherche.

Cette étude confirme la cause principale d'Alzheimer : l'APP, qui forme la bêta-amyloïde, et devient un composé pathogène. La mutation du gène APP découverte par l'équipe islandaise diminue de près de 40 % la production de protéine bêta-amyloïde, caractéristique de la maladie. Un traitement anti-bêta-amyloïde pourrait donc être efficace. Les porteurs de ce gène auraient aussi 47 % de chance en plus d'atteindre 85 ans par rapport aux personnes qui en sont dépourvues, cette mutation prémunissant également de la baisse générale des performances du cerveau, courante avec la vieillesse.

NEJM

Nature

Découverte d’un nouveau mécanisme de propagation du cancer
Mardi, 17/07/2012 - 01:20

Cette étude de l’Ohio State University Comprehensive Cancer Center, révèle un nouveau mécanisme qui favorise la croissance du cancer et sa propagation dans le corps. Inconnu auparavant, ce mécanisme implique de petites molécules régulatrices appelées microARN. Ces résultats, publiés dans l’édition du 2 juillet des Comptes-rendus de l’Académie des Sciences américaine (PNAS), suggèrent une nouvelle stratégie pour traiter le cancer et peut-être les maladies du système immunitaire.

Ce sont de minuscules vésicules libérées par les cellules tumorales qui sont récupérées par les cellules immunitaires saines, ce qui entraîne la libération de substances chimiques qui favorisent la croissance et la propagation des cellules cancéreuses. L'étude montre, sur des cellules de cancer du poumon, que ces vésicules contiennent de puissantes molécules régulatrices, appelées microARN et qu’en absorbant ces molécules, les cellules immunitaires modifient leur comportement. Ce processus chez l'homme implique un récepteur du système immunitaire fondamental appelé Toll-like receptor 8 (TLR8).

«Cette étude révèle une nouvelle fonction des microARN », explique le Docteur Carlo Croce, directeur du programme génétique et cancer de l'Ohio State et auteur principal de l’étude. « Certains microARN libérés par le cancer, peuvent se lier et activer un récepteur dans un mode de type hormonal ». Les microARN contribuent à contrôler le type et la quantité de protéines libérées par les cellules en liaison avec l’ARN messager qui code pour la protéine. Les cellules tumorales du poumon sécrètent ainsi les microARN-21 et microARN-29a dans des vésicules appelées exosomes, et ces exosomes sont absorbés par les cellules immunitaires appelées macrophages situés là où le tissu tumoral est proche du tissu normal. Dans les macrophages humains, les microARN-29a et microARN-21 se lient avec TLR8, incitant les macrophages à sécréter deux cytokines qui favorisent l'inflammation et dont des niveaux accrus ont été associés à une augmentation de la tumeur du poumon sur un modèle animal, alors qu'une baisse de ces niveaux est associée à une baisse du nombre de tumeurs par poumon.

C’est un mécanisme entièrement nouveau utilisé par le cancer pour se développer et se propager, qui suggère la possibilité de développer de nouveaux médicaments qui ciblent cette « brèche », ajoute le Docteur Muller Fabbri, professeur de pédiatrie et de biologie moléculaire et d'immunologie à l'Université de Californie du Sud, co-auteur de l’étude. Et comme ce mécanisme implique un récepteur fondamental du système immunitaire (TLR8), cette découverte pourrait s'étendre à d'autres maladies comme les maladies auto-immunes et inflammatoires. C’est donc une ouverture vers une nouvelle stratégie pour contrer le cancer et les maladies du système immunitaire, concluent les chercheurs mais aussi, la découverte d’un nouveau rôle des microARN dans l’immunité.

Santé Log

Des liens complexes entre dépression et démence
Mardi, 17/07/2012 - 01:00

On ignore dans quelle mesure la dépression constitue un facteur de risque en matière de démence, mais ces deux pathologies –fréquentes au cours du vieillissement– se trouvent souvent associées. Réalisée en Californie sur une cohorte de plus de 13 000 sujets suivis pour une dépression du « milieu de la vie » (entre 40 et 55 ans) ou plus tardive (late-life depression, survenant une trentaine d’années plus tard), une étude rétrospective a évalué l’incidence éventuelle des antécédents dépressifs sur l’apparition d’une maladie d’Alzheimer ou d’une démence vasculaire.

D’un âge moyen de 81 ans, cette cohorte comporte environ 58 % de femmes et –précision interdite dans les études françaises– 24 % des intéressés « n’étaient pas des Blancs. » Environ 14 % des sujets étaient affectés par une dépression du milieu de la vie, 9 % par une dépression à manifestation tardive, et 4 % par ces deux types de troubles successivement.

Les auteurs observent une association significative des symptomatologies dépressives avec un risque accru de démence, et cette relation diffère selon l’époque particulière où se manifeste la dépression : débutant plus tôt dans l’existence, et se reproduisant de façon récurrente, un trouble dépressif multiplie le risque de démence vasculaire par 3,5 (Hazard Ratio [HR] = 3,51 ; intervalle de confiance à 95 % [IC95] de 2,44 à 5,05]), alors qu’une dépression se cantonnant seulement sur le tard est plutôt associée à une maladie d’Alzheimer dont elle double approximativement le risque (HR = 2,06 ; IC95 de 1,67 à 2,55).

Une dépression d’installation tardive pourrait donc avoir valeur de « signe prodromique de démence, en particulier de maladie d’Alzheimer. » Mais des recherches ultérieures sont nécessaires pour déterminer si un « traitement efficace de la dépression » (quelles que soient les modalités diachroniques de celle-ci) pourrait « contribuer à maintenir les fonctions cognitives et à retarder l’apparition d’une démence. » Et vu l’incidence accrue (actuelle et prévisible) des pathologies démentielles, « même une petite réduction d’un facteur de risque » reconnu aurait, estiment les auteurs, un « impact remarquable en termes de santé publique. »

JIM

Les smartphones pourraient servir aux diagnostics oculaires
Lundi, 16/07/2012 - 01:40

Une étude menée aux États-Unis a démontré que les ophtalmologistes ont jugé la qualité de photos oculaires vues sur un iPhone supérieure à celle d’un écran d’ordinateur.

Envoyer des images oculaires de patients à des ophtalmologistes via un smartphone pourrait devenir une option viable pour les services d’urgence qui ont besoin d’obtenir un diagnostic rapide. C’est ce que suggère une étude menée par l’université Emory d’Atlanta.

350 photos oculaires de patients souffrant de maux de tête ou de problèmes de vision ont été réalisées. Les clichés ont ensuite été soumis à deux ophtalmologistes qui les ont consultés sur un ordinateur puis ensuite sur un iPhone. Résultat, ils ont régulièrement classé les mêmes images vues sur le smartphone Apple comme étant de qualité égale ou supérieure à la consultation sur le PC.

Cela signifie par exemple que les services d’urgence pourraient utiliser un smartphone pour prendre des photos oculaires et les envoyer à un ophtalmologiste lorsque ce type de spécialiste n’est pas disponible sur place. Une option valable pour les diagnostics d’affections les plus courantes qui ne saurait remplacer un examen approfondi de la personne.

CNET

Le rôle des neurones nés chez l'adulte se précise
Lundi, 16/07/2012 - 01:30

Les nouveaux neurones générés par le cerveau à l’âge adulte facilitent l’apprentissage et la mémoire des tâches difficiles, d'après une équipe de neurobiologistes français.

A tout âge de la vie, même le plus avancé, des milliers de nouveaux neurones sont créés chaque jour dans certaines régions de notre cerveau. La découverte de ce phénomène en 2003 a mis fin à un dogme séculaire en neurosciences : on pensait jusque-là que nous disposions d’un stock déterminé de neurones à la naissance et que, passé la puberté, nous ne faisions qu’en perdre. Quelle est la fonction de ces néoneurones produits à l’âge adulte ? Une équipe française vient de montrer chez des souris qu’ils améliorent l’apprentissage et la mémoire des tâches difficiles.

Pierre-Marie Lledo et ses collègues de l’Institut Pasteur et du CNRS à Paris ont voulu vérifier l’hypothèse, avancée par de précédentes études in vitro, selon laquelle les néoneurones joueraient un rôle dans l’apprentissage et la mémoire des odeurs. Pour cela, ils ont utilisé une méthode appelée optogénétique, qui permet de contrôler l’activité de certains neurones chez des animaux à l’aide de la lumière.

Ils ont ainsi manipulé génétiquement des souris afin que leurs neurones nouvellement formés expriment une protéine photosensible. Puis ils ont implanté une diode électroluminescente au niveau de leur bulbe olfactif, la zone cérébrale qui traite les odeurs, afin de pouvoir activer ou désactiver les néoneurones qui s’y trouvaient à l’aide de la lumière.

  • Distinguer les odeurs

L’équipe a ensuite entraîné les souris implantées et des souris normales à distinguer différentes odeurs, associées deux à deux. Dans chaque paire d’odeurs il y en avait une bonne, appréciée par les souris, et une nauséabonde, qu’elles n’aiment pas. L’animal réussissait la tâche lorsqu’il retirait la tête en présence de la mauvaise odeur et l’approchait en présence de la bonne odeur. Au fil des essais, les deux odeurs étaient de plus en plus proches, ce qui rendait la tâche plus difficile.

Pendant l’expérience, les chercheurs ont stimulé les néoneurones des souris implantées avec des flashs lumineux d’une fréquence de 40 hertz, au moment où les odeurs leur étaient présentées. « Cette fréquence permet de moduler l’activité des neurones principaux du bulbe olfactif, les cellules mitrales, qui jouent un rôle essentiel pour distinguer des odeurs relativement proches », précise Serge Laroche, du Centre de neurosciences Paris-Sud. Ainsi, les souris dont les néoneurones ont été stimulés ont appris à discriminer les odeurs plus rapidement que les souris témoins, mais uniquement lorsque la tâche était difficile.

Cinquante jours après la session d’entraînement, les chercheurs ont testé la mémoire olfactive des souris. Là encore, les souris dont les néoneurones avaient été stimulés lors de l’apprentissage ont réalisé de meilleures performances que les souris témoins, mais seulement pour les odeurs qui étaient difficiles à distinguer.

« Cette étude démontre pour la première fois le rôle des néoneurones dans l’apprentissage et la mémoire, par une méthode qui permet de les activer de manière sélective, estime Serge Laroche. Elle montre également que seuls les néoneurones produits à l’âge adulte ont un tel effet : lorsqu’on stimule des néoneurones chez une jeune souris, aucune amélioration des performances n’est observée. »

La Recherche

Des emballages alimentaires comestibles bientôt dans les rayons !
Dimanche, 15/07/2012 - 01:30

Bien que les emballages ménagers ne comptent que pour 1 % des déchets produits en France, conditionnements en plastique, en verre, en papier, en carton ou en métal représentent tout de même chaque année des millions de tonnes à recycler, enfouir ou incinérer. Aussi, les industriels cherchent depuis des dizaines d’années des moyens pour réduire ces quantités, avec plus ou moins de succès.

Mais une partie de la solution a peut-être été trouvée par David Edwards, professeur en biologie et en ingénierie à l’Université de Harvard et créateur du Laboratoire, un centre d’expérimentation mi-artistique mi-scientifique situé à Paris : avec le designer François Azambourg, il a en effet développé des emballages comestibles ! De cette manière, les conditionnements n’iront plus dans le bac jaune, mais dans nos estomacs ! Une innovation singulière mais prometteuse pour la diminution du volume de nos poubelles et les économies de ressources naturelles…

Comment ces emballages se présentent-ils ? « Nous voulons reproduire, grosso modo, l'emballage naturel que l'on voit sur un raisin ou une noix de coco, où le contenant et le contenu sont indissociables », a expliqué M. Edwards au micro d’Europe 1. Cette « membrane alimentaire naturelle » est « maintenue ensemble par des forces électrostatiques, pour y contenir un liquide, une émulsion, une mousse ou une substance alimentaire solide. Cette enveloppe est comestible et biodégradable », a-t-il précisé sur le site de l’Université.

Et d’ajouter dans les colonnes du Parisien : « Ces emballages peuvent être composés de fruits séchés, de chocolat, de noix et de basilic. Il s’agit en fait d’un gel fait avec des particules de calcium et de magnésium et un polymère naturel ». Ainsi, il propose la Wikiboisson, une boule consommable contenant du jus d’orange et fabriquée à partir de la pelure de cet agrume (à laver à l’eau avant de manger, indique-t-il). La sphère peut aussi être remplie avec du gaspacho, dans quel cas elle sera à la saveur tomate. Puis il y a les Wikiapéricubes, des billes de fromage frais enveloppées dans une peau à base d’herbes ou de curry. Ou encore la Wikiglace, qui ne fond pas dans la main car protégée par le gel comestible.

« Evidemment, pour éviter que tout le monde tripote l’emballage, un suremballage est nécessaire, comme c’est de toute façon le cas avec la plupart des produits alimentaires qui sont conditionnés dans un film plastique ou un carton. Mais si ce suremballage, composé d’algues ou de bagasse, n’est pas mangeable, il est biodégradable », a fait savoir le professeur.

Selon lui, plusieurs industriels sont intéressés par son invention qui n’engendrerait de plus pas de surcoût pour le consommateur. Les Wikicells pourraient ainsi se retrouver dans les supermarchés en 2013, aux côtés des Wikicells Machines, des appareils permettant de fabriquer soi-même des emballages consommables. En attendant, vous pourrez tester les Wikiglaces dès cet automne dans le Wikibar, qui ouvrira dans le premier arrondissement de Paris (Quartier des Halles).

Développement durable

Cancer de l'utérus: une avancée majeure en matière de dépistage
Dimanche, 15/07/2012 - 01:20

Environ 510 000 cas de cancers de l'utérus sont rapportés chaque année dans le monde, ce qui en fait la seconde cause majeure de décès dus au cancer chez les femmes à l'échelle mondiale. Pourtant, le cancer de l'utérus est traitable, et souvent curable, lorsqu'il est détecté à un stade précoce. InCellDx, une société de recherche située en Californie, a introduit une nouvelle méthodologie de test appelée HPV OncoTect qui mesure  avec une précision remarquable le risque accru qu'a une femme de développer un futur cancer de l'utérus.

Pratiquement tous les cas de cancer de l'utérus sont provoqués par des types spécifiques de papillomavirus humain (VPH) et les méthodes de test actuelles ne détectent que la présence et le type d'infection au VPH ainsi que les anomalies cellulaires causées par le virus. OncoTect va plus loin en ne se contentant pas de détecter la transformation cellulaire causée par une infection au VPH persistante, mais en quantifiant également les gènes responsables du cancer trouvés dans les cellules qui sont un précurseur nécessaire au développement du cancer de l'utérus.

Le nouveau test a été l'objet de deux études cliniques indépendantes qui ont cherché à comparer les performances de OncoTect par rapport à d'autres tests du commerce disponibles. Les résultats de ces études ont été présentés à la communauté médicale internationale lors de l'EUROGIN 2012, l'un des plus grands forums mondiaux pour l'examen des développements scientifiques en cours dans le champ du cancer de l'utérus et des maladies liées au papillomavirus humain.

La première étude, réalisée en Grèce, évalue la spécificité de HPV OncoTect par rapport au test de l'ADN du VPH couramment utilisé. Après avoir analysé 4 000 échantillons de cellules du col utérin, les chercheurs ont trouvé que OncoTect augmente de manière significative la spécificité de l'affection du col utérin de haut grade par rapport au génotypage de l'ADN du VPH, tout en conservant la sensibilité des tests de l'ADN du VPH fréquemment utilisés. Si un test a une haute spécificité, un résultat positif de ce test indique une forte probabilité de la présence de l'affection.

Des chercheurs italiens ont mené une seconde étude pour comparer OncoTect avec un produit compétitif appelé NucliSens EasyQ. Leurs résultats montrent que, bien que NucliSens EasyQ identifie la présence des gènes responsables du cancer, la signification clinique des conclusions est limitée car le test ne mesure pas l'étendue des modifications de la cellule qui conduisent à l'affection et de plus, il affiche une sensibilité moindre par rapport à OncoTect.

Lors de l'EUROGIN 2012, InCellDx a également été invité à présenter les nouvelles données de la prochaine génération du test HPV OncoTect (appelé OncoTect 3Dx), qui utilise la technologie de dépistage la plus récente qui intègre une morphologie de lames avec des biomarqueurs moléculaires dans une seule technologie de dosage à haut rendement, éliminant ainsi les résultats ambigus du frottis. La nouvelle technologie améliore encore la capacité du test à faire la distinction entre une infection bénigne et des modifications de cellules qui peuvent conduire au développement du cancer. En outre, cette technologie ne s'appuie pas sur une lame de verre, ce qui réduit  de manière significative le coût et le temps nécessaires pour terminer le test.

Plus de 2 000 professionnels de la santé sont attendus à l'EUROGIN 2012, qui se tient cette année à Prague, en République tchèque, du 8 au 11 juillet.  L'événement cherche à accélérer la traduction des découvertes scientifiques en une pratique médicale quotidienne.

Jusqu'à présent, les tests de diagnostic du VPH ne pouvaient identifier que la présence et le type de VPH, mais ne pouvaient pas prédire si l'infection disparaîtrait ou serait susceptible de se transformer en cancer. OncoTect est un outil de diagnostic important, qui aide les médecins à savoir si un test plus agressif est nécessaire, mais aussi à se sentir plus confiant lorsque la meilleure approche consiste à « attendre et voir ». Traditionnellement, lorsque les résultats d'une femme montrent un risque élevé d'infection au VPH, son médecin effectue une coloscopie, un examen amplifié du col de l'utérus lors duquel une biopsie est effectuée. OncoTect aidera à déterminer lorsque des coloscopies ne sont pas médicalement nécessaires.

OncoTect est une percée décisive pour les femmes car Il détecte avec précision la présence de modifications de cellules causée par une infection VPH persistante, permettant aux médecins de faire la distinction entre une infection bénigne et une affection précancéreuse. Un diagnostic précis réduira les tests inutiles. Des cellules échantillons sont collectées depuis le col de l'utérus de la même manière que le test Pap pratiquement sans aucun inconfort. Il peut être administré lors d'une visite au cabinet, souvent en même temps que le test Pap. Le test a un délai d'exécution rapide, similaire au test de l'ADN du VPH.

Boursereflex

Cancer : améliorer l’efficacité de la chimiothérapie
Samedi, 14/07/2012 - 01:30

Le cancer est une maladie complexe qui demeure très difficile à traiter de manière adéquate. Le type de tumeur, sa taille, sa localisation dans l’organisme ainsi que la nature des cellules qui la composent (ce qu’on appelle communément le stade), de même que l’état de santé général du patient sont tous des paramètres importants pour le choix de la meilleure stratégie de traitement.

La chimiothérapie représente une facette essentielle de plusieurs traitements anticancéreux, car l’administration de médicaments par voie intraveineuse permet d’atteindre les cellules cancéreuses disséminées dans l’organisme, ce qui est impossible par la chirurgie ou la radiothérapie. Par contre, les cellules cancéreuses parviennent la plupart du temps à acquérir une résistance à un traitement donné et il devient nécessaire d’utiliser des molécules ayant des mécanismes d’action différents pour attaquer la tumeur sur plus d’un front. Cette combinaison de médicaments permet d’améliorer l’efficacité du traitement en créant une synergie entre deux familles thérapeutiques distinctes, tout en permettant souvent d’augmenter la dose du traitement anticancéreux sans pour autant entraîner d’effets toxiques supplémentaires.

Malgré les avantages de la polychimiothérapie, cette approche demeure impuissante face à plusieurs types de cancer. La plupart des médicaments utilisés en chimiothérapie sont des poisons cellulaires extrêmement puissants qui endommagent l’ADN des cellules cancéreuses et les empêchent ainsi de se reproduire.

Mais, même si la très grande majorité des cellules tumorales meurent en présence de ces molécules, il est fréquent qu’une proportion d’entre elles réussissent à reprogrammer leurs mécanismes de survie et ainsi à résister à leur action toxique. En favorisant l’apparition de récidives ainsi que de métastases, cette résistance à la chimiothérapie est responsable d’une grande partie des décès causés par le cancer. Un des grands défis de la recherche sur le cancer est donc d’identifier les combinaisons de médicaments les plus actives contre les cellules cancéreuses, tout en réduisant au minimum l’apparition d’une résistance au traitement.

Un grand pas dans ce sens vient d’être réalisé par les travaux de chercheurs du MIT et de l’Université Harvard sur le cancer du sein appelé « triple négatif ». Ce type de cancer, qui représente environ 15 % des cancers du sein, se caractérise par une croissance très rapide, une résistance à la chimiothérapie et un faible taux de survie des patientes atteintes. Pour améliorer cette réponse thérapeutique, les chercheurs ont eu l’idée de tester plusieurs dizaines de combinaisons de molécules anticancéreuses, administrées conjointement ou l’une à la suite de l’autre. À leur grande surprise, ils ont obser­vé que le simple fait de décaler légèrement dans le temps l’administration des médicaments provoquait une grande différence dans l’efficacité du traitement.

Par exemple, alors qu’une combinaison d’un médicament anti-EGF (qui cible la croissance incontrôlée des cellules) et de la doxorubicine (un anticancéreux cyto­toxique) n’a que peu d’effet sur les cellules cancéreuses, l’administration de l’anti-EGF suivie, quelques heures plus tard, de la doxorubicine, tue la plupart des cellules tumorales ! Une analyse détaillée de la réponse des cellules à ce traitement a révélé que l’administration initiale de l’anti-EGF induisait une reprogrammation de l’expression des gènes de la tumeur, en particulier la réactivation d’une voie impliquée dans le « suicide » de ces cellules par le processus d’apoptose. En conséquence, la tumeur devient beaucoup plus sensible à des agents cytotoxiques comme la doxorubicine et peut être plus facilement éliminée par l’administration de ce médicament.

Le Journal de Montréal

Une détection ultra sensible des cellules tumorales circulantes
Samedi, 14/07/2012 - 01:10

Des efforts technologiques ne cessent d’être déployés pour tenter de détecter les cellules rares dans un liquide biologique complexe tel que le sang et établir leur profil moléculaire en particulier dans le domaine du cancer. Une méthodologie prometteuse est la détection immunomagnétique de cibles d’intérêt marquées par des particules magnétiques, qui permet dans une grande mesure de s’affranchir de la préparation de l’échantillon, le bruit de fond magnétique des échantillons biologiques étant négligeable.

Des capteurs magnétiques basés sur la magnétorésistance géante ou l'effet Hall ont été développés pour mesurer de façon sensible des biomarqueurs solubles au sein de milieux biologiques complexes. Ces systèmes ont cependant été conçus pour détecter les particules magnétiques statiquement liées à la surface du capteur, d’où une capacité limitée pour analyser une cellule entière.

Une équipe américaine vient de développer une technologie à puce miniaturisée utilisant la microfluidique, le détecteur micro-Hall (µHD), qui peut screener rapidement et quantitativement des cellules individuelles dans des échantillons non transformés. Le système détecte les moments magnétiques de cellules en écoulement dans un canal microfluidique qui ont été immunomarquées par des nanoparticules magnétiques (MNPs). Le marquage et la soumission à un champ magnétique externe permettent en effet à chacune d’elle d’acquérir un moment magnétique directement proportionnel au nombre de biomarqueurs et au moment magnétique des nanoparticules. Les champs magnétiques résultant sont mesurés par des capteurs µHD.

L’ensemble de la technique est effectué sur une seule puce microfluidique, et 107 cellules par minute peuvent être traitées, sans étape de purification ni matériel coûteux ou encombrant, offrant ainsi la possibilité de diagnostics cellulaires sur place en clinique. La large gamme d’immunomarqueurs disponibles permet de détecter de nombreux marqueurs cellulaires d’intérêt clinique, ce qui fait du système µHall une plate-forme de diagnostic.

Les chercheurs testent le système µHD sur des lignées cellulaires de cancers épithéliaux humains, puis d’autres types de cancers, recherchant la surexpression des récepteurs HER2/neu, EGFR (facteur de croissance épidermique) et EpCAM, fréquemment associés au cancer. Le profil moléculaire est en bonne corrélation avec la cytométrie de flux et les reproductibilité et sensibilité de la détection sont meilleures, évitant en particulier les erreurs dues aux faux négatifs. Par ailleurs, la capacité de la méthode à détecter simultanément la présence de plusieurs marqueurs sur une même cellule est un élément crucial, validé sur des cellules de cancer du sein.

Pour confirmer l’intérêt clinique de cette technique, les chercheurs l’appliquent à la détection des cellules tumorales circulantes (CTCs) chez 20 patientes atteintes d’un cancer de l’ovaire, par rapport à 15 témoins sains. Dans cette étude, le µHD est comparé au standard clinique que constitue le système CellSearch (plus sensible que la cytométrie de flux conventionnelle). Ce dernier détecte des CTCs dans seulement 5 cas de cancer de l’ovaire avec une précision de 25 %. Le µHD en décèle chez toutes les patientes, montrant aussi la progression clinique et avec des comptages cellulaires plus élevés. Ces comptages sont également supérieurs en cas de maladie avancée qui n’est plus traitée ou en présence d’autres types de cancer agressif. Pour finir, la possibilité de suivre l’efficacité d’un traitement antitumoral est validée dans un modèle murin.

Au final, un marquage immunomagnétique et la microfluidique ont permis la mise au point d’un laboratoire sur puce d’utilité clinique capable de détecter rapidement et sans préparation de l’échantillon des cellules rares à partir d’un faible échantillon de sang et d’établir leur profil individuel.

JIM

Le choc des images : une réalité
Vendredi, 13/07/2012 - 05:30

Encore peu connu en France, comparativement aux États-Unis où des séquelles psychiatriques lui sont volontiers attribuées chez les vétérans des conflits extérieurs (Vietnam, Irak, Afghanistan), le fameux SSPT (syndrome de stress post-traumatique, en anglais PTSD pour Post-Traumatic Stress Disorder) est régulièrement évoqué dans la littérature médicale. Si l’émergence de troubles réactionnels à un vécu traumatique direct ne paraît guère controversée, une autre forme de SSPT fait par contre débat, comme dans cet article d’Acta Psychiatrica Scandinavica où des auteurs britanniques et pakistanais s’interrogent sur la responsabilité éventuelle d’événements indirects à l’origine d’un SSPT.

En l’occurrence, le fait d’être confronté uniquement à des images traumatisantes à la télévision peut-il entraîner une souffrance analogue à celle d’un stress consécutif à un traumatisme direct ? Cette question se pose surtout depuis les tristement célèbres attaques terroristes du 11 Septembre 2001 dont les images si percutantes ont fait le tour du monde : on ne comptait plus alors, par exemple, les enfants reproduisant les tours jumelles en Lego pour les abattre ensuite…

Les auteurs ont mené une étude au Pakistan où la population a le douteux privilège d’être confrontée à ce type d’images traumatisantes, simultanément à la télévision et « dans la vraie vie », puisque des milliers de personnes sont confrontées aux attentats-suicides (à l’origine de 3 318 victimes en 2009) et aux « bavures » des attaques de drones (faisant aussi des victimes dans la population civile). Depuis 2003, on estime ainsi que près de 35 000 Pakistanais sont morts, suite aux violences des activistes ou aux effets collatéraux de la lutte contre le terrorisme.

Recourant à une échelle sur l’impact des événements (Impact of Event Scale, IES[3]) et à un questionnaire évaluant l’anxiété et la dépression au Pakistan (Pakistan Anxiety and Depression Questionnaire, PADQ), les auteurs ont tenté de comparer l’impact respectif des traumatismes vécus directement, ou par le seul truchement des images, sur une population de 494 participants âgés de 18 à 65 ans (en moyenne 29 ans ; femmes : 53 % et hommes : 47 %) ayant « regardé la télévision plus d’une heure par jour, au moins cinq jours par semaine, durant l’année écoulée. » Environ un sujet sur trois a déjà connu réellement une action violente, une fois dans sa vie (dont 20 % au cours des douze derniers mois).

Comme on pouvait le présumer, la fréquence du SSPT est plus grande (45 %) chez les sujets ayant à la fois un vécu traumatique direct et une (sur)exposition aux images violentes que chez ceux confrontés « simplement » aux traumatismes des images télévisées (21 %). Mais cette proportion élevée de SSPT (un téléspectateur sur cinq) confirme le caractère potentiellement insidieux du petit –ou grand– écran, d’autant plus que d’autres études (conduites aux États-Unis après la tragédie du 11 Septembre 2001) montrent que « la sévérité des symptômes de SSPT est en relation (de proportionnalité) avec le nombre d’heures consacrées à regarder la télévision. »

JIM

Des chercheurs étudient l'anxiété post-traumatisme
Vendredi, 13/07/2012 - 05:00

Est-il possible d'oublier l'angoisse après un événement traumatisant ? Des chercheurs allemands montrent que non.

Dans une nouvelle étude, publiée dans la revue The Journal of Neuroscience, les scientifiques des universités allemandes de Berlin et de Bonn ont identifié un mécanisme capable d'inhiber le processus d'oubli de l'anxiété après un événement stressant. Selon les chercheurs, l'anxiété ne diminue pas si la dynorphine n'est pas suffisamment émise dans le cerveau. Leurs résultats mèneraient au développement de nouveaux traitements pour les patients sujets à un événement traumatisant.

L'anxiété permet d'éviter de nombreux troubles. En effet, pour les personnes ayant connu des situations très stressantes, elle leur permet d'éviter de telles situations. Mais les symptômes de la peur disparaissent en l'absence d'une réelle situation traumatisante.

«Le souvenir d'événements terribles ne s'efface pas», commente l'auteur principal de l'étude, le Docteur Andras Bilkei-Gorzo de l'institut de psychiatrie moléculaire de l'université de Bonn. «Mais les personnes apprennent grâce à un processus d'apprentissage actif qu'ils n'ont plus besoin d'avoir peur lorsque la menace d'un danger est passée.» Toutefois, des troubles d'anxiété chronique peuvent se déclencher suite à un stress physique extrême déclenché par une guerre, une situation de prise d'otage, des accidents ou des catastrophes.

Alors comment un événement peut-il être plus stressant qu'un autre ? Pourquoi certaines situations restent marquées dans notre esprit et d'autres s'effacent graduellement ? «Nous avons pu démontrer par différentes expériences que la dynorphine joue un rôle important dans la répression de l'anxiété», commente le professeur Andreas Zimmer, directeur de l'institution allemande.

Selon les chercheurs, le groupe de substances impliquées sont les composés opioïdes, dans lesquels se trouve l'endorphine. Les athlètes secrètent de l'endorphine car elle a des effets euphoriques et analgésiques. Mais la dynorphine a une action contraire : elle freine les émotions. Les chercheurs ont testé l'impact de la dynorphine sur des sujets et ont découvert que les symptômes d'anxiété persistaient indépendamment de s'ils étaient confrontés à un stimulus négatif pendant une longue période. Ainsi, un sujet n'oubliera pas un incident traumatisant comme se brûler la main au four, mais aura du mal à apprendre un nouveau vocabulaire car cet apprentissage n'est pas associé aux émotions.

«Nous avons profité du fait que les différentes variations du gène de dynorphine entraînent différents niveaux d'émission dans le cerveau pour chaque personne», commente le professeur Henrik Walter, responsable du département de recherche sur l'esprit et le cerveau à la clinique psychiatrique de la Charité de Berlin, qui a déjà mené de telles recherches à la clinique universitaire de Bonn.

L'équipe a réparti 33 sujets sains en deux groupes : l'un avec une émission génétiquement forte de dynorphine et l'autre connaissant une activité génétique moindre. Les sujets du second groupe ont démontré des réactions de stress plus longues que celles des sujets émettant une forte concentration de dynorphine.

Les scans cérébraux ont montré que l'amygdale, une structure des lobes temporaux du cerveau responsable du traitement des émotions, était également active. «Après que le stimulus laser négatif soit interrompu, l'activité du complexe amygdalien s'est graduellement affaiblie», commente le professeur Walter. «Cela signifie que cette réaction d'anxiété acquise suite au stimulus s'oublie. L'effet n'était pas aussi prononcé dans le groupe dans lequel l'activité de la dynorphine était moindre. Mais l'oubli des réactions d'anxiété acquise n'est pas un processus qui disparaît mais plutôt un processus actif qui implique le cortex préfrontal ventromédian. Il semblerait que la dynorphine affecte considérablement l'oubli de la peur par sa structure.»

Cordis

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Un squelette de 2 millions d'années le «plus complet jamais découvert»
Mardi, 17/07/2012 - 07:17

Un squelette datant de 2 millions d’années vient d’être découvert à Johannesbourg. Selon le paléontologue Lee Berger de l'université du Witwatersrand, il s'agit «presque à coup sûr (...) du squelette le plus complet jamais découvert d'un ancêtre de l'homme». The Age révèle que l’individu est un «Australopithecus Sediba», l’espèce à laquelle succèderont les primates du genre «homo». Probablement tombé dans une fosse dont il n’a pas pu sortir, il (ou elle) était âgé de neuf  à treize ans au moment de sa mort.

Le bloc de pierre dans lequel était emprisonné ce squelette a été découvert en 2008, dans la grotte de Malapa, à cinquante kilomètres du nord de Johannesbourg. C’est seulement le mois dernier qu’en transportant le bloc, un membre de l’équipe a remarqué une dent. Les scientifiques ont eu la surprise de découvrir un corps entier au scanner. Le professeur Berger a déclaré : «Nous avons découvert des parties de la mâchoire et du corps : un fémur complet, les côtes, des vertèbres et d'autres éléments des membres importants, dont certains encore jamais vus en si bon état pour un fossile humain.»

Une découverte majeure pour la science, mais également pour l’humanité. Le professeur rappelle : «Il est important que les gens comprennent d'où ils viennent.»

CBS rapporte qu’une fois les ossements trouvés, les scientifiques ont proposé aux enfants d’Afrique du Sud de trouver un nom au squelette. Ils ont choisi Karabo, ce qui signifie «réponse» dans la langue locale tswana.

  • Suivre le travail des paléontologues en direct de son canapé

Afin d’informer le plus grand nombre des avancées dans le «berceau de l’humanité» qu’est le site de Johannesbourg, l'université de Witwatersrand et le gouvernement d’Afrique du Sud se sont unis pour créer un site Internet qui filmera en temps réel le travail des paléontologues.

Avec plusieurs caméras de surveillance, les spectateurs pourront avoir un aperçu de tous les aspects du travail de laboratoire en basculant entre les angles de caméra, y compris des images microscopiques. Ils pourront également poser des questions aux scientifiques via Twitter. Le professeur Berger espère pouvoir mettre ce «laboratoire interactif» en place en novembre.

Slate

Le peuplement de l'Amérique vu par la génétique
Samedi, 14/07/2012 - 01:40

L'étude la plus complète retraçant l'histoire du patrimoine génétique des populations amérindiennes vient d'être réalisée à partir des données génétiques de 500 personnes provenant de 52 populations amérindiennes et 17 sibériennes. L'analyse s'est portée sur 364 470 marqueurs génétiques et a permis de prendre en compte, pour la première fois, les métissages européens et africains au sein de chaque individu. Cette recherche a été menée par un consortium d'une soixantaine de chercheurs provenant d'Europe et des trois Amériques, et notamment du CNRS. Ce travail, publié le 11 juillet 2012 sur le site de la revue Nature, démontre qu'il y a eu trois vagues de peuplement distinctes en provenance de Sibérie et que de vastes échanges génétiques se sont ensuite produits entre ces populations. Ces analyses génétiques pourront être prises en compte dans de futures études anthropologiques et médicales en Amérique.

Grâce aux puces ADN, la technique la plus puissante d'analyse des génomes, les chercheurs ont pu obtenir une vue d'ensemble du patrimoine génétique de plus de 500 personnes provenant de 52 populations amérindiennes et 17 sibériennes. L'analyse de 364 470 marqueurs leur a permis d'établir le degré de différence ou de ressemblance génétique de ces populations. Pour cela, un intense travail de traitement informatique des données a dû être effectué. Notamment, il a fallu correctement détecter et interpréter les traces génétiques du métissage africain et européen qu'ont connu, après l'arrivée de Christophe Colomb, les populations amérindiennes.

Les analyses confirment que la majorité des populations amérindiennes, des Algonquins du Québec aux Yaghans de Terre de Feu, en passant par les Mayas-Kaqchiquel du Guatemala, proviennent d'une vague de migration provenant de Sibérie il y a environ 15 000 ans. L'analyse des génomes montre que la plus grande diversité génétique parmi les individus se situe au Nord de l'Amérique, tandis que les populations les plus homogènes génétiquement sont celles de l'Amérique du Sud, confirmant l'axe Nord-Sud de peuplement du continent.

Par ailleurs, les chercheurs ont montré l'existence de deux autres vagues de peuplement asiatique survenues ultérieurement. Ceci confirme le modèle à trois vagues proposé en 1986 par Greenberg, Turner et Zegura, et qui, à l'époque, n'avait pas su convaincre la communauté de chercheurs. Les deux vagues suivant celle connue sous le nom de « First American » sont toutefois restées cantonnées à l'Alaska, le Canada et le Nord des Etats-Unis. Contrairement à ce qu'affirmait  le modèle de 1986, les données actuelles montrent que les populations arrivantes  se sont mélangées à celles déjà présentes. Ainsi se sont formés les peuples Eskimo-Aléoutes et Chipewyans.

Ce travail de recherche a aussi permis de résoudre une énigme concernant le patrimoine génétique des indiens de langue Chibchan habitant au Panama. Ils seraient en fait issus du métissage entre populations descendant du Mexique et un reflux de populations remontant depuis le Venezuela et la Colombie.

Ces riches données génétiques réunies par le consortium devraient avoir par la suite un grand nombre d'applications, tournées notamment vers les relations Homme/environnement. Par exemple, les deux équipes des laboratoires Anthropologie bio-culturelle, droit, éthique et santé, et Anthropologie moléculaire et imagerie de synthèse s'intéresseront, à partir de ces analyses, à la distribution d'autres marqueurs génétiques des populations dont on pense qu'ils ont pu représenter un avantage sélectif face à certaines maladies infectieuses en Amérique.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Quand l'innovation peut se prédire automatiquement
Jeudi, 19/07/2012 - 01:00

En analysant un nombre conséquent de brevets, il pourrait être possible de déterminer ce qui explique le succès d'une technologie et d'utiliser le système pour donner un avis sur une nouvelle tendance.

Peut-on prédire informatiquement les tendances technologiques ayant le plus de chances de s'imposer ? La question a intéressé un groupe de chercheurs du Center for Complex systems studies, Kalamazoo College aux Etats-Unis, qui travaille sur l'évolution du processus d'innovation technologique. Selon les scientifiques, il reste difficile pour les entreprises de faire des choix d'adoption de technologies ou de process, car beaucoup ont peur qu'une technologie adoptée en avance finalement ne s'impose pas. Et que cela génère des risques au niveau de l'investissement en recherche et développement. Du coup, ils ont mis au point un système qui se base sur l'analyse des citations ou références faites dans la base de données des brevets américains (U.S patent citation network) contenant 37 années de brevets.

  • Une recherche de similitude

L'équipe de chercheurs a pris chaque brevet et calculé le nombre de mention y faisant référence dans la bibliographie des autres brevets, en se basant sur des mots-clés et la classification USPTO (United States Patent and Trademark Office) regroupant 36 sous-catégories technologiques. Cette méthodologie leur a permis d'identifier l'état de la structure de la connaissance dans différents secteurs et de déterminer des groupes technologiques. Puis, ils ont utilisé un "vecteur de citations", un élément quantitatif pour déterminer les similitudes entre certains brevets et les autres grâce à des mots-clés. Cela leur a permis de fournir une cartographie donnant une représentation du paysage de l'innovation. Pour déterminer leur évolution, ils ont effectué ce processus pour les brevets déposés entre 1975 et 2007 représentant l'instant t, et ceux déposés par la suite (t+1).

  • Un outil d'aide à la décision?

Selon eux, ce système fournirait un outil d'observation des tendances technologiques et aiderait les entreprises dans le processus de décision au moment de choisir une technologie. Toutefois, ils reconnaissent que cette méthodologie quantitative possède quelques limitations, notamment sur l'écart de temps entre la naissance d'une nouvelle technologie et son apparition dans les références des brevets. A long terme, les chercheurs espèrent pouvoir systématiquement classer ces brevets par groupe : naissance, mort, croissance, décroissance, désintégration, fusion. Et surtout, ils espèrent pouvoir prédire l'émergence d'une innovation technologique de manière plus microscopique, c’est-à-dire en l'identifiant le plus en amont possible avec un ou plusieurs événements. En cela, l'analyse statistique de l'information contenue dans les réseaux sociaux pourrait permettre de détecter la naissance et le développement d'une innovation et de les classer par groupe.

L'Atelier

Bilan positif pour l'expérimentation "Kleber" de mise en libre service de voitures hybrides
Mercredi, 18/07/2012 - 01:00

Il y a deux ans, Toyota, EDF, la Ville et la Communauté urbaine de Strasbourg lançaient le « projet Kléber » consistant à mettre en circulation 70 véhicules hybrides rechargeables et à examiner le comportement de ces automobilistes bien particuliers. Une démonstration à grande échelle confirmant le rôle central de l’Alsace en général et de Strasbourg en particulier dans ce nouveau mode de transport.

De ces deux premières années d’expérimentation, il ressort, sans véritable surprise étant entendu que le coût d’achat – et donc l’amortissement – n’est pas comptabilisé, que l’utilisation de tels véhicules est source d’économies pour les utilisateurs. « Des économies significatives, pouvant aller jusqu’à 53 % sur la facture totale d’énergie (électricité et essence) ont été réalisées par les utilisateurs, représentant une économie montant jusqu’à 7 € par 100 km, ce pour un prix du litre d’essence de 1,63 € et un prix de l’électricité de 0,12 € le KWh », souligne Michel Gardel, vice-président de Toyota Europe, selon qui « l’économie de carburant peut aller jusqu’à 64 % pour un véhicule essence (40 % pour un diesel) et la réduction des émissions de CO2 jusqu’à 58 % ». Le tout pour une moyenne annuelle de 19 020 km, en légère baisse puisqu’elle s’élevait à 19 300 km lors de la première année.

Et Michel Gardel de résumer : « Le véhicule hybride recharge apporte tous bénéfices aux consommateurs et citoyens car sans rejets polluants en ville. On arrive à la jonction de ce qui est peut-être le meilleur des deux mondes : rouler propre en ville en tout électrique et disposer d’une liberté totale, jusqu’à 1 200 km, pour les loisirs. Ce qui fait que l’on arrive à satisfaire des points de vue difficilement conciliables à première vue », estime le vice-président de Toyota Europe.

Élément majeur de la stratégie de Toyota dans la mesure où Strasbourg est le site d’expérimentation le plus important pour le premier constructeur mondial en matière de véhicules hybrides (11 % de la production totale de Toyota aujourd’hui, 15 % en 2015, 20 % en 2020), le projet Kléber a également fourni de précieux renseignements au constructeur pour améliorer la nouvelle Prius rechargeable qui sera commercialisée au début de l’automne prochain.

Si les consommateurs ont regardé les économies possibles, EDF et les collectivités territoriales ont principalement observé les habitudes de charge. Pour constater que « plus de 97 % des charges sont effectuées sur le lieu de travail et à domicile. Les charges en lieux publics restent peu fréquentes. Pour optimiser l’utilisation en mode électrique du véhicule, et à l’initiative des partenaires, le partage de points de charge inter-entreprises est une pratique qui s’est développée », note Michel Couture, directeur de la mobilité électrique de EDF, pour qui « ces deux années d’expérimentation confirment un intérêt croissant des utilisateurs pour ces nouveaux modes de mobilité ». Enfin, du côté de la Ville de Strasbourg et de la Communauté urbaine, Alain Fontanel a confirmé l’engagement des collectivités pour poursuivre le développement des bornes de charges (aujourd’hui au nombre de 150), notamment dans les lieux publics.

L'Alsace

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top