RTFlash

RTFLASH Recherche & Technologie
NUMERO 648
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Avril 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Sur Twitter, le citoyen est le meilleur porte-parole de son pays
Les plans 3D prennent en compte le bruit et la pollution
Les futures box Internet intégreront toutes des fonctions domotiques
L'éducation mobile a le vent en poupe
Le réseau complexe du jeu de go
Avenir
La carte bancaire du futur ? Votre main !
Jazz, le robot au service des seniors
Matière
La plus grande centrale solaire du Japon est en projet
Le solaire basse concentration prend son envol
Vers des cellules photovoltaïques à 35 % de rendement !
Terre
Climat : un programme sur l'interaction atmosphère-océan lancé par Lyon 1
Une plante chilienne efficace contre les bactéries multirésistantes
Le réchauffement de la planète a commencé depuis au moins un siècle
Vivant
Des antibiotiques au fond d’un lac ?
Un vaccin thérapeutique universel contre le cancer en 2018 ?
Des micro-algues pour capter le CO2 d’une cimenterie
Un pacemaker cérébral contre la dépression sévère
La nanomédecine s'impose dans la lutte contre le cancer
Des scientifiques coréens testent un foie artificiel
Les scientifiques sud-coréens en pointe dans la lutte contre le cancer
Deux gènes de l'obésité infantiles identifiées
Découverte d'une nouvelle règle d'organisation spatiale des chromosomes qui reflète leur fonctionnement
Un aiguillon viral à l'échelle atomique
Autisme : de nouveaux facteurs familaux identifiés
Une nouvelle technique d'observation individuelle des protéines
Cancer : la radiothérapie ne cesse de progresser
Du remodelage des cellules cardiaques
Un nouvel outil informatique de détection extrêmement précoce du cancer du sein
La vitamine K joue un rôle majeur dans le maintien des fonctions cognitives
DMLA : une piste pour retarder le développement de la maladie
Homme
L'eau virtuelle : un baromètre des ressources globales
Recherche
Quand le Grand Lyon facilite la vie des usagers dans leurs déplacements
Edito
Défi énergétique, climatique et alimentaire : mobilisons toutes les ressources technologiques !



Une récente étude rigoureuse réalisée par la célèbre Université américaine d'Harvard et publiée par la prestigieuse revue "Nature" le 5 avril dernier, vient de porter un nouveau coup décisif au principal argument défendu par les "climatosceptiques" qui persistent à nous expliquer qu'il y a eu régulièrement, dans le passé de notre planète, des périodes de réchauffement climatique provoqué par des phénomènes naturels et cosmiques mais que le CO2 n'y serait pas pour grand chose et serait plutôt la conséquence de ce phénomène et non sa cause (Voir article).

S'appuyant sur l'analyse de nombreux échantillons géologiques provenant de toutes les régions du globe, cette étude montre en effet que, si une modification de l'orbite terrestre a probablement constitué l'événement déclencheur de la fin de l'âge de glace et du début du réchauffement planétaire constaté il y a 10 000 ans, c'est bien ensuite l'augmentation considérable de la concentration de CO2 qui a provoqué la fonte des calottes glacières puis, dans un processus de rétroaction positif redoutable, a accéléré les émissions massives de CO2 dans l'atmosphère, provoquant en retour, une nouvelle élévation de la température.

Cette étude qui confirme de manière très rigoureuse le rôle déterminant du CO2 comme cause majeure du réchauffement climatique, survient alors que de nombreux scientifiques tirent à nouveau la sonnette d'alarme en soulignant que notre rythme de diminution des émissions de gaz à effet de serre et notamment de CO2 reste très insuffisant pour atteindre l'objectif d'une limitation à deux degrés de la hausse moyenne de la température sur la terre à l'horizon 2050-2100.

C'est dans ce contexte et en admettant l'hypothèse probable que ni le développement massif et souhaitable des énergies renouvelables, ni les progrès dans les économies et l'efficacité énergétiques ne parviendront à répondre à eux seuls à l'explosion de la demande énergétique mondiale et à diminuer suffisamment nos émissions de CO2 (qui doivent être ramenées de 35 milliards de tonnes aujourd'hui à moins de 10 milliards en 2050), que plusieurs pistes techno-économiques commencent à être prises très au sérieux et fortement explorées. Nous en retiendrons trois particulièrement intéressantes qui pourraient changer la donne énergétique climatique et alimentaire d'ici 20 à 30 ans, à condition d'y consacrer les moyens de recherche suffisants et d'en faire des objectifs politiques majeurs.

Il s'agit, en premier lieu de la production d'hydrogène par les centrales nucléaires de prochaine génération (Réacteurs à Haute Température fonctionnant à des températures de 850 à 1000°) mais également par le parc nucléaire mondial actuel (440 réacteurs en service et 35 en construction). La question de l'utilisation massive de l'hydrogène comme vecteur énergétique se heurte en effet à un défi complexe : il faut parvenir à produire d'énormes quantités d'hydrogène avec le meilleur rendement énergétique possible, à un coût économiquement bas et surtout en émettant un minimum de gaz à effet de serre.

Il faut en effet savoir qu'un réacteur nucléaire de 1200 MW peut, en théorie, produire environ 140 millions de m3 d'hydrogène par an, ce qui est considérable. Mais l'électrolyse qui permet à partir de l’eau ou de la vapeur de séparer les atomes d'oxygène et d'hydrogène, est beaucoup plus efficace et économique lorsqu'elle utilise une vapeur très chaude.

On peut donc imaginer une adaptation de nos centrales nucléaires actuelles et une conception des futurs réacteurs qui intègrent la production d'hydrogène. L'idée est que les centrales actuelles puissent utiliser une électrolyse basse température en périodes creuses pour produire de l'hydrogène de manière particulièrement économique.

En outre, on peut imaginer que la prochaine génération de centrales nucléaires soit conçue pour produire simultanément de l'électricité et de l’hydrogène en étant capable de modifier constamment la part de production de ces deux vecteurs énergétiques complémentaires.

La deuxième piste concerne la capture et la séquestration du CO2 qui devra être utilisé à l'échelle industrielle si nous voulons à la fois répondre à l'augmentation inévitable de la demande énergétique mondiale et réduire massivement nos émissions de carbone pour mieux lutter contre le réchauffement climatique accéléré. Il faut en effet rappeler que, selon l'AIE (Agence internationale de l’énergie), la technologie "CSC" (Capture et Séquestration de Carbone) devrait contribuer pour un cinquième à la réduction des émissions humaines de CO2 d’ici à 2050, soit une contribution aussi importante que celle résultant de l'utilisation massive de l'ensemble des énergies renouvelables à cet horizon. Or, les grands pays développés maîtrisent à présent depuis une dizaine d'années les technologies de capture, de transport et de stockage du CO2 à grande profondeur.

En France, Total utilise depuis un an et demi sur son site de Lacq un système qui permet la capture du CO2 sur l'une de ses centrales à gaz puis son acheminement vers un site profond de stockage à raison d'environ 100 tonnes par jour. Mais la généralisation de ces dispositifs de piégeage et de stockage se heurte à un obstacle majeur : son coût. Le prix de la tonne de CO2 est en effet descendu à un niveau historiquement bas, de l'ordre de 8 euros la tonne en moyenne sur ces derniers mois et, pour que ces technologies de capture et de séquestration du carbone atteignent leur seuil de rentabilité, il faudrait que la tonne de CO2 coûte plus de 50 €. Il reste qu'au rythme d'augmentation actuel du prix des énergies fossiles, il n'est pas exclu que ce niveau des 50 euros la tonne de CO2 soit atteint entre 2015 et 2020, ce qui permettrait alors le véritable décollage économique de ces technologies.

La Commission européenne doit se prononcer dans les mois qui viennent sur son soutien au projet expérimental de capture et de stockage du CO2 sur le site sidérurgique d’Arcelor Mittal à Florange et d'autres projets du même type sont prévus en Pologne, en Grande-Bretagne et en Allemagne.

La Chine, pour sa part, qui est à la fois le premier consommateur d'énergie, le plus gros utilisateur de charbon et le premier émetteur de CO2 de la planète mise clairement sur ces technologies pour pouvoir exploiter ses sources d'énergie fossiles en réduisant très sensiblement ses émissions de CO2. Elle développe actuellement, en partenariat avec une société américaine un projet techno-industriel très ambitieux, "« GreenGen".
 
Dans un premier temps, cette centrale électrique très innovante de 250 mégawatts va produire un mélange de monoxyde de carbone et d’hydrogène, le syngaz. Ce mélange servira de combustible pour alimenter les turbines de cette centrale produisant de l'électricité. A moyen terme, la Chine a également prévu de réaliser une autre centrale pilote qui produira une vapeur d’hydrogène, via des piles à combustible, pour produire de l’électricité. Quant au CO2 produit, il sera récupéré et exploité à des fins industrielles. Enfin, à long terme, vers 2020, la Chine veut construire une centrale électrique de forte puissance (400 MW), d'un type nouveau intégrant un dispositif très performant de capture et de séquestration de CO2 dans le sous-sol. 

La troisième voie technologique très intéressante qui pourrait bouleverser le paysage énergétique mondial est celle de l'exploitation industrielle des fantastiques potentialités des micro-algues. L'objectif est quadruple : premièrement, produire à bas coût et de façon écologique des biocarburants de type biodiesel mais aussi de grandes quantités d'hydrogène pour répondre aux besoins de ce vecteur énergétique dans les transports. Deuxième objectif, utiliser les prodigieuses propriétés biochimiques de ces micro-algues pour utiliser et recycler de grandes quantités de gaz carbonique. Dans des conditions optimales, une tonne de CO2 permet de produire près de deux tonnes de micro-algues et l'on imagine aisément les immenses débouchés industriels que pourraient avoir ces micro-algues dans les secteurs d'activités fortement producteurs de CO2.

Troisième objectif, utiliser ces micro-algues pour assainir et retraiter de façon biologique les eaux usées. Enfin, dernier objectif mais non le moindre, alors que la surface agricole mondiale disponible stagne à cause de la pression démographique et de l'urbanisation et que les besoins alimentaires vont augmenter de 50 % d'ici 40 ans, ces micro-algues constituent une source nouvelle, remarquable et potentiellement immense, de protéines d'excellente qualité et contiennent de surcroît de précieux et utiles acides gras, comme les fameux oméga 3 et 6, nécessaires à une alimentation équilibrée et bénéfiques en terme de prévention cardio-vasculaire et neuro-cérébrale.

Ces trois voies techno-industrielles très novatrices mais encore pleines d'incertitudes et d'inconnues, synergie nucléaire-hydrogène, cogénération hydrogène-CO2 et exploitation industrielle, énergétique et alimentaire des micro-algues pourraient en une génération, de l'avis de nombreux scientifiques reconnus, changer notre monde, non seulement sur le plan énergétique et climatique mais également sur le plan alimentaire. La Chine, les Etats-Unis, la Russie ou le Japon ont parfaitement compris ces enjeux et ont lancé des projets et programmes de recherche ambitieux et à long terme pour aboutir à des ruptures technologiques dans ces voies d'avenir. Il est donc essentiel que la France et l'Europe, face aux défis de ce siècle, mettent également en oeuvre une politique de recherche industrielle et fondamentale, alliant recherche privée et publique, particulièrement volontariste dans ces domaines stratégiques qui seront peut-être au XXIe siècle ce que la vapeur, le pétrole et l'électricité ont été aux deux siècles précédents.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Sur Twitter, le citoyen est le meilleur porte-parole de son pays
Mercredi, 18/04/2012 - 14:37

La Suède propose aux habitants qui le souhaitent de prendre en main le fil officiel Twitter du pays pendant une semaine.

Pour communiquer sur l'attractivité d'un pays, les offices du tourisme ou des organismes gouvernementaux n'hésitent plus à utiliser les médias sociaux, comme n'importe quelle marque. Un exemple étant celui de l'Islande qui, avec InspiredByIceland, propose aux touristes comme aux habitants de proposer des textes sur leur rapport au pays et leur expérience. La Suède a aussi décidé d'utiliser les outils sociaux pour donner la parole aux particuliers. Avec une différence : le pays, qui a misé sur Twitter, a décidé de complètement laisser la main chaque semaine à un de ses concitoyens, qui devient en quelque sorte le community manager du fil. L'initiative, qui peut se suivre sur le compte Twitter officiel du pays, @Sweden, semble fonctionner puisque le nombre de followers a depuis doublé, passant de 8 000 abonnés à 20 000.

  • Des ambassadeurs aux profils divers

Elle a été lancée par l'Institut suédois, un organisme gouvernemental actuellement chargé de la promotion de la Suède, et le site VisitSweden. Parmi les habitants aux styles et modes de vie variés qui se sont déjà passé le flambeau, on peut citer une femme prêtre, un enseignant, un fermier ou encore une camionneuse. Des Suédois triés sur le volet et dont la candidature doit être proposée par leurs amis. Ceux-ci ont alors le contrôle total du compte et peuvent publier du contenu, des tweets, des photos et même des vidéos sur la façon particulière dont ils perçoivent leur pays. Ils n'ont par ailleurs pour seule consigne, en cas de publication à caractère politique, que de préciser que c'est une opinion personnelle grâce au hashtag #myownopinion.

  • Des initiatives qui se doivent d'être modérées

"L'intérêt de cette initiative se trouve dans le fait qu'elle ne donne pas l'impression d'avoir une valeur marchande", souligne à L'Atelier Anthony Poncier, consultant en management et entreprise 2.0. En effet, à la différence d'autres campagnes de promotion d'un pays via les réseaux sociaux, l'interlocuteur principal n'est pas l'office de tourisme mais réellement quelqu'un d’extérieur, "une personne à laquelle on peut s'attacher", ajoute t-il. Un facteur qui peut avoir son revers : "Le risque serait que les internautes s'attachent plus à une personnalité qu'au site et que le but de la manœuvre soit détourné". Pour cela, Anthony Poncier rappelle l'intérêt d'un modérateur dans ce type d'initiative afin de recadrer les conversations et de conserver une cohérence éditoriale d'un porte-parole à un autre.

L'Atelier

Les plans 3D prennent en compte le bruit et la pollution
Mercredi, 18/04/2012 - 14:21

Un plan de ville, aussi précis soit-il, n'est pas aussi facile à interpréter par une personne que si elle se promenait dans celle-ci. Ou s'il la voyait via un écran 3D. C'est la conviction des chercheurs de l'Institut Fraunhofer pour l'ingénierie industrielle IAO et pour le bâtiment IBP, qui ont développé une carte 3D. Avec un avantage : la présence de données utiles à la fois pour les habitants et les urbanistes, comme le niveau de bruit dans une zone ou la pollution. Concrètement, la personne, assise devant son ordinateur, voit la ville comme si elle y était, sans porter de lunettes 3D. S'affichent ensuite, tous les cinq mètres, toutes les informations qui lui sont utiles, colorées du vert au rouge en fonction de l'intensité.

Ces données, elles, sont réglables, et nécessitent d'être récoltées pour être intégrées à la carte 3D. A savoir qu'une personne utilisant cette carte ne trouvera pas l'intégralité des données dont elle aurait besoin, même si elle peut déjà en trouver plusieurs comme le bruit ou la pollution. Aussi, dans les faits, puisqu'il s'agit d'un projet scientifique, il lui faudrait les faire intégrer. Données qui pourraient d'ailleurs êtres récoltées directement par les habitants via leur smartphone. Pour autant, il ne s'agirait pas là d'un gadget puisqu'aujourd'hui, les urbanistes utilisent encore souvent des plans en 2D simulés en fonction des directives européennes - par exemple, un niveau sonore de plus en plus fort en fonction de la distance par rapport à un aéroport.

Simulation qui d'ailleurs peut se révéler erronée. En effet, grâce à leur carte 3D, les chercheurs ont essayé d'imaginer ce que serait la ville sans moteur à combustion, uniquement avec des véhicules électriques. Le niveau de bruit ne changerait pas autant que désiré, contrairement à ce que l'on croit, car ce sont les bruits de roulement qui prennent le dessus. Les mêmes chercheurs ont d'ailleurs développé un autre programme qui gère les modifications dans l'espace, tel que l'agrandissement d'une pièce ou d'un immeuble. Un programme qui, seul, s'adapte à ces changements, en déplaçant, si cela est possible, les fenêtres par exemple.

L'Atelier

Les futures box Internet intégreront toutes des fonctions domotiques
Mercredi, 18/04/2012 - 14:14

Après avoir développé toutes sortes de services associés à la vidéo, les FAI semblent clairement s’orienter vers la domotique. Pour preuve, nombre de box sont déjà équipées en conséquence. Depuis quelques années, en ce qui concerne les Box Internet, la tendance chez les FAI était claire : commercialiser des appareils nettement orientés vers la vidéo avec des services associés toujours plus pointus comme la haute définition, la 3D, les portails de VoD, la diffusion sur le réseau local… Si l’intérêt du public pour ce créneau ne se dément pas, la tendance pour les années à venir chez les FAI pourrait bien s’appeler la domotique.

Ce secteur connaît un développement certain à l’étranger, mais, en France, il n’en est pour le moment qu’à ses balbutiements. Son réel essor pourrait bien passer par le biais des FAI qui prennent désormais le marché et ses débouchés très au sérieux. Pour preuve, depuis quelques années, tous les FAI proposent ce que l’on pourrait qualifier « d‘antichambre » de la domotique : des solutions clés en main de surveillance à distance du domicile, plus ou moins perfectionnées et dont les tarifs varient en fonction des options choisies (enregistrement des images, alertes à distance, etc.). La prestation est, en général, assurée par des sociétés spécialisées.

Depuis peu, le marché a pris un véritable virage : les trois « gros » opérateurs ont dévoilé de véritables systèmes domotiques non seulement capables de surveiller votre habitation, mais aussi de proposer des fonctions que vous auriez eu du mal à imaginer chez vous il y a dix ans. Pour le domicile du particulier, hormis la télésurveillance, les services se divisent en quatre grandes catégories : la sécurité (détection de fumée ou d’intrusion), la consultation de la consommation électrique et la prise de contrôle du système de chauffage, l’activation/désactivation des appareils de confort (interrupteurs, luminaire, volets…), et enfin la prise de contrôle des appareils d’arrosage du jardin. Le tout se pilote bien évidemment du bout des doigts via le Wi-Fi ou Internet, sur un PC distant, un smartphone ou une tablette à l’aide d’une application.

Bouygues Télécom a dégainé le premier en s’alliant avec la société Ijenko. Depuis l’été 2011, l’opérateur et la start-up commercialisent pour les abonnés Bouygues Telecom un boîtier indépendant à relier à la BBox qui offre tous les services – hormis l’arrosage ! – que nous venons de décrire plus haut. Deux offres sont disponibles à 4,90 et à 9,90 €. Tour à tour, Orange et SFR viennent de confirmer la tendance. L’opérateur « historique » a dévoilé il y a peu sa Livebox Pro qui semble équipée en conséquence : elle est pourvue d’un module qui permet la communication à courte distance avec des appareils radiocommandés compatibles tels que des interrupteurs, des volets roulants, des éclairages… Si succès il y a auprès des pros, Orange pourrait choisir d’implémenter un tel dispositif sur sa future Livebox grand public.

De son côté, SFR a laissé entendre qu’une solution baptisée Home by SFR était sur le point de voir le jour. Au programme, un boîtier autonome équipé d’une batterie et d’une carte SIM, compatible avec toutes les box du marché qui permet la surveillance à distance du domicile, ainsi que diverses fonctions domotiques (commande à distance d’interrupteurs, de volets, de thermostat, etc.). Martin Kaiser, directeur Roadmap Service Solutions chez Bouygues Telecom, a confirmé le phénomène : « C’est une véritable tendance de fond. En France, nous n’en sommes qu’au début de l’aventure parce que l’énergie est encore relativement bon marché. Mais au Japon, par exemple, où 95 % des centrales nucléaires sont fermées, je vous garantis que tout le monde s’y intéresse de près. Chez nous, le marché va se développer avec l’augmentation des factures EDF. Pour le moment, la norme la plus pratique est le ZigBee parce qu’elle consomme extrêmement peu. Par ailleurs, les accessoires (interrupteurs, contacteurs…) sont bon marché et on les trouve partout. Seule la centrale reste chère (environ 350 €) et peut constituer un blocage psychologique pour le consommateur. C’est pourquoi, nous autres opérateurs avons notre rôle à jouer en subventionnant le boîtier et le logiciel qui l’anime, comme nous l’avons fait pour l’Internet ou la téléphonie mobile.»

01Net

L'éducation mobile a le vent en poupe
Dimanche, 15/04/2012 - 01:20

5,5% du budget global de l'éducation est dépensé dans la technologie. Et cela devrait croître sensiblement grâce à la technologie mobile. Jusqu'à 70 milliards de dollars de chiffre d'affaires pour les opérateurs mobiles, 38 milliards pour les produits et services d'éducation mobile ou encore 32 milliards de dollars pour les smartphones et tablettes à horizon 2020. En effet, cette technologie serait en passe de changer la façon dont l'éducation est dispensée et en améliorer les résultats à travers le monde, selon un rapport de GSMA et McKinsey & Company.

Cette croissance devrait être la plus importante dans les pays en développement, puisque le marché de la mEducation devrait, sur la période, augmenter de 50-55 % en Amérique Latine, Asie Pacifique, Afrique ou au Moyen Orient du fait de l'accès récent à Internet, du manque de lignes de téléphonie fixe, et d'un déploiement plus rentable des réseaux mobiles. Contre 25 à 30 % dans les pays développés.

Pour ce faire, des essais ont été analysés dans le monde. Par exemple, en Inde, des professeurs ont utilisé un jeu sur mobile pour aider les élèves d'école primaire de familles pauvres à développer leur anglais. Un concept qui a fonctionné puisque le test des élèves s'est amélioré de 60 %. Autre exemple, aux États-Unis, des professeurs du Nouveau Mexique ont utilisé des mobiles pour faire passer des tests aux élèves et évaluer les progrès en matière de lecture en maternelle et développer leurs compétences. Pendant les trois premières années, le pourcentage d'enfants lisant au niveau attendu pour leur âge a augmenté de 29 à 93 %. Néanmoins, si la mEducation semble fonctionner, elle se heurte à des barrières, qu'elles soient matérielles - l'investissement nécessaire pour l'équipement - ou de méthode - certains professeurs encore réticents au changement drastique de la méthode d'enseignement.

Afin de dépasser ces limites, plusieurs opérations doivent être menées. D'abord, un travail de sensibilisation, notamment de la part des gouvernements, pour promouvoir ces méthodes en mettant en lumière les résultats positifs, en développant des projets pilotes ou encore en permettant un meilleur partage des bonnes pratiques. Mais également, en développant l'accessibilité financière des appareils mobiles et des services de mEducation, principal frein à son développement, notamment dans les pays émergents. Un point sur lequel les opérateurs mobiles pourraient trouver la meilleure porte d'entrée sur ce marché. En effet, fournir la connectivité nécessaire pour ces méthodes d'enseignement devrait créer un marché de 4 milliards de dollars pour ces acteurs. Mais une plus grande opportunité se présente, à savoir la création d'un écosystème plus complet comprenant un appui technique et des services de gestion de données ; cela pourrait générer pour les opérateurs un revenu de 20 milliards de dollars.

L'Atelier

Le réseau complexe du jeu de go
Samedi, 14/04/2012 - 01:20

Des ordinateurs capables de battre les meilleurs joueurs de go, jeu stratégique, originaire de Chine ? C'est encore impossible mais la donne pourrait bientôt changer grâce aux travaux de deux théoriciens du CNRS des laboratoires de physique théorique (Université Toulouse III-Paul Sabatier/CNRS) et de physique théorique et modèles statistiques (Université Paris-Sud/CNRS). Pour la première fois, ils ont appliqué la théorie des réseaux à un jeu de stratégie. Leurs résultats, publiés dans la revue Europhysics Letters, devraient améliorer les futurs programmes de simulation.

L'étude des réseaux complexes a connu un intérêt grandissant au cours des dernières années, notamment en raison du développement des réseaux de communication et d'information. Ce nouveau champ de recherche se révèle très utile pour la description des systèmes complexes tels que les réseaux sociaux ou Internet. Par exemple, si on applique la théorie des réseaux à Internet, chaque page est un nœud et les liens hypertextes sont les liens entre les nœuds. Cependant, une telle approche n'avait jamais été envisagée pour l'étude des jeux de stratégie comme le go1 ou les échecs. Ces jeux, riches d'une très longue histoire et forts de millions de joueurs dans le monde, sont très difficiles à modéliser. En effet, les ordinateurs ne sont capables de battre des champions d'échecs que depuis une quinzaine d'années seulement, tandis que le niveau des professionnels reste encore inaccessible aux meilleurs programmes de go actuels.

A partir d'une base de données comportant près de 5 000 parties jouées par des professionnels et amateurs du jeu de go dans des tournois internationaux, Bertrand Georgeot du laboratoire de physique théorique (Université Toulouse III-Paul Sabatier/CNRS) et Olivier Giraud du laboratoire de physique théorique et modèles statistiques (Université Paris-Sud/CNRS) ont appliqué la théorie des réseaux à ce jeu de stratégie. Ils ont construit un graphe dont les nœuds sont les motifs locaux du plateau de jeu et les arêtes (qui représentent les liens) reflètent la succession des coups. Ainsi, ils ont capturé une partie de la stratégie locale du jeu. Dans ce jeu où les joueurs placent leurs pierres aux intersections d'un quadrillage de 19 lignes par 19 (soit 361 intersections), les chercheurs ont étudié des motifs locaux de 9 intersections. Ils ont montré que la distribution statistique de la fréquence de ces motifs est une loi de Zipf, semblable à la distribution de fréquence des mots dans une langue.

Le réseau du jeu de go présente des caractéristiques proches de celles d'autres réseaux réels (réseaux sociaux ou Internet) mais il montre également diverses propriétés spécifiques. Si les programmes de simulation les plus récents intègrent déjà des données statistiques issues de parties réelles mais à un niveau encore rudimentaire, ces nouveaux résultats devraient permettre une meilleure modélisation de ce type de jeux de plateau.

CNRS

^ Haut
Avenir
Nanotechnologies et Robotique
La carte bancaire du futur ? Votre main !
Jeudi, 19/04/2012 - 01:30

Une banque japonaise va proposer à partir du mois de septembre à ses clients d'utiliser leur main comme carte de retrait ou dépôt d'argent auprès de nouveaux distributeurs de billets à authentification biométrique.

Avis aux étourdis : vous n'oublierez bientôt plus votre carte bancaire. A partir de septembre, une banque japonaise va proposer à ses clients d'utiliser leur main comme carte de retrait ou de dépôt d'argent. Ogaki Kyoritsu Bank a en effet décidé d'équiper de nouveaux distributeurs de billets d'une authentification biométrique. Ces "tirettes du futur" seront ainsi dotées d'un lecteur de schéma des veines de la paume, capteur au-dessus duquel il suffit de présenter sa main pour être reconnu.

  • Schéma vasculaire de la paume pré-enregistré

Cette technologie, mise au point par le groupe japonais Fujitsu, est déjà utilisée par plusieurs banques pour reconnaître des clients, mais le dispositif ne sert qu'à remplacer le code numérique pour prouver que la carte bancaire de retrait employée appartient bien à celui qui l'utilise. Mais dans le cas d'Ogaki Kyoritsu Bank, le client n'aura plus besoin de carte. Pour effectuer des opérations simples comme un retrait un dépôt ou une consultation de solde, seule sa main lui sera demandée pour qu'il puisse s'authentifier. La reconnaissance de la personne s'effectuera alors en comparant un schéma vasculaire de la paume pré-enregistré dans le serveur de la banque et celui recueilli par le distributeur.

  • Risque d'erreur infinitésimal

Selon Fujitsu, le risque d'erreur est infinitésimal, plus faible que dans le cas d'empreintes digitales. Ce système biométrique pourrait éviter une redite de la situation difficile vécue par de nombreux Japonais l'an passé, lorsque leurs documents bancaires (cartes, livrets de retrait) ont été emportés par le tsunami qui a dévasté le nord-est le 11 mars. Pendant des jours, il leur a été impossible de retirer du liquide.

  • D'autres évolutions à venir

L'initiative d'Ogaki Kyoritsu Bank pourrait être suivie par des groupes bancaires plus importants. Outre Fujitsu, deux autres géants nippons du secteur de l'électronique, Hitachi et Sony, ont également conçu des systèmes de reconnaissance biométrique basés sur le réseau vasculaire de la main. Hitachi a déjà testé le paiement direct sans argent liquide ni carte, simplement sur présentation d'un doigt au-dessus d'un lecteur, l'identification du client permettant de prélever directement le montant dû sur un compte bancaire ou un porte-monnaie électronique associé.

La Tribune

Jazz, le robot au service des seniors
Vendredi, 13/04/2012 - 06:20

Le "Foyer du romarin" (EHPAD près de Montpellier) a l’esprit d’innovation dans le domaine des nouvelles technologies et l’équipe se montre très vigilante à ne pas laisser se creuser un fossé intergénérationnel dû à la place que celles-ci prennent à toute vitesse dans la vie quotidienne de tout un chacun aujourd’hui. Après Internet, la Wii, l'iPad, l'iPhone, c’est maintenant  un robot  prénommé Jazz qui a fait son entrée dans cet établissement d'hébergement associatif aux côtés des résidents. On découvre, on expérimente, on apprivoise, on est surpris. La curiosité est partagée.

Jazz appartient à la  catégorie de robots dits communicatifs ou de médiation sociale ; il favorise la relation entre personnes éloignée géographiquement. Il met en relation audiovisuelle 2 correspondants. En l’occurrence il permet à un(e) résident(e) d’être en relation de proximité avec un proche ou parent se trouvant à distance.

Il permet aux enfants, petits-enfants, de se "téléporter" au foyer du romarin auprès de leur parent qui y réside. Ainsi,  la fille d’une résidente qui habite près de Londres a pu se retrouver virtuellement auprès de sa mère résidente au Foyer du romarin. Les proches par l’intermédiaire de Jazz sont immergés dans l’ambiance du foyer, peuvent se déplacer avec leur parent âgé, communiquer avec lui par l’image et le son.

  • Pilotage à distance

La différence entre ce que sait faire Jazz le robot et ce que permettent Skype ou Google+ à partir d’un ordinateur ou d’une tablette numérique, c'est que le correspondant à distance pilote le robot et peut ainsi accompagner le résident, le faire évoluer autour de lui, l’aider à lire du courrier, le journal, etc...

Jazz n’a ni bras ni mains mais des roulettes, un écran, une caméra, des hauts parleurs et des lasers qui lui évitent de heurter des obstacles et de risquer de faire tomber les résidents. Dans un rayon de Wifi et sur un sol plan il n'a pas de limite de déplacement. Son autonomie énergétique est d'environ 3 heures au bout desquelles il rejoint  sa base de chargement mais il ne décide pas seul de ses actions ; seul un correspondant peut le piloter.

Le pilote se connecte au robot via Internet et un code d'accès. Pour faire avancer ou reculer Jazz, lui faire faire demi tour, baisser ou lever la tête, il utilise les flèches du clavier ou la souris. Il parle dans un micro-casque. Son image se trouve sur l'écran de Jazz, ce qui permet au résident de voir le visage de son fils ou de sa fille (aux commandes du robot). Le résident n'a pas besoin de connaître la technologie informatique pour utiliser le robot mais il peut donner des "ordres" au pilote, en l’occurrence son fils, sa fille, son petit fils … et demander un service, d’être accompagné où il veut se rendre …

Habitués à ce qu’on leur fasse découvrir les nouvelles technologies, les résidents du Foyer du romarin ont découvert Jazz avec curiosité et intérêt. "Il est intéressant d’observer leurs réactions et d’observer les changements occasionnés" indique Michel Aimonetti, le directeur du "Foyer du romarin". Ils expriment leur surprise par des sourires ou des grimaces, c’est selon. Leur  ton est différent du ton direct. Ils peuvent tutoyer ou vouvoyer Jazz, c’est selon aussi.

Une mère avançant dans le couloir avec son déambulateur et voyant  (sur l'écran du robot) sa fille qui avait des difficultés à piloter et à la suivre s’est mise à crier après sa fille à travers le robot : "tu obéis à ta mère, oui !". Elle n'avait certainement pas grondé sa fille ainsi depuis très longtemps signale Michel Aimonetti. D’autant que, précise-t-il, l’on sait  que dans le (très) grand âge, les rôles s’inversent et que les parents très âgés deviennent souvent les enfants de leurs enfants. Avec ce robot, la parole des parents est plus facile : il n'y a pas contact direct physique mais on peut se dire les choses.

AgeVillage

^ Haut
Matière
Matière et Energie
La plus grande centrale solaire du Japon est en projet
Lundi, 16/04/2012 - 01:20

Un consortium d'entreprises nippones a annoncé le 10 avril un projet de construction de la plus grande centrale solaire du Japon, archipel confronté à une insuffisance d'électricité à cause de l'arrêt de la quasi intégralité de ses réacteurs nucléaires. Le groupe Kyocera fournira les panneaux photovoltaïques pour cette installation de 70 mégawatts qui sera érigée à partir du mois de juillet dans la préfecture de Kagoshima (sud-ouest) avec l'aide de la firme d'industries lourdes IHI et de la banque Mizuho.

Sa surface (1,27 million de mètres carrés) équivaudra à celle de 27 terrains de baseball, pour un coût de construction estimé à 25 milliards de yens (235 millions d'euros). Une entreprise sera créée par les mêmes acteurs pour exploiter le site dont la production sera revendue à la compagnie d'électricité régionale Kyushu Electric Power et devrait permettre d'alimenter quelque 22.000 foyers.

Le Japon souffre actuellement d'un manque d'électricité à cause de l'arrêt brutal d'une quinzaine de réacteurs nucléaires à la suite du séisme et du tsunami du 11 mars 2011 et du non-redémarrage des autres unités entrées en maintenance depuis ou précédemment stoppées pour diverses raisons.

Sur un parc de 54 réacteurs atomiques, un seul est encore actif. Avant l'accident de Fukushima, la part de l'énergie nucléaire dans la production japonaise d'électricité se situait entre 25 % et 30 % du total. Le manque a jusqu'à présent été comblé par des économies de la part des entreprises et particuliers ainsi que par une utilisation accrue des centrales thermiques, mais la dépendance du Japon vis-à-vis des approvisionnements extérieurs s'est élevée de même que sa facture énergétique. La population et les autorités appellent dès lors à un recours plus important aux énergies propres renouvelables, solaire en tête, une technologie que maîtrisent depuis plus de quatre décennies les groupes japonais Kyocera, Sharp, Sanyo ou encore Mitsubishi Electric.

Kyocera

Le solaire basse concentration prend son envol
Lundi, 16/04/2012 - 01:00

La société Sunpartner, installée à Aix-en-Provence (Bouches-du-Rhône) a conclu un partenariat avec le Commissariat à l'énergie atomique (CEA) pour mettre au point et construire un démonstrateur de deuxième génération de centrale solaire à basse concentration. Sunpartner s'est déjà illustré avec la mise au point par sa filiale Wysips d'un film transparent photovoltaïque permettant de recharger son mobile au soleil. Le projet développé par sa filiale Axiosun avec le CEA et l'un de ses laboratoires, l'Institut Liten, spécialisé dans les énergies nouvelles et les nanotechnologies, veut concurrencer les panneaux photovoltaïques classiques dont le marché est aujourd'hui pris en ciseaux entre une concurrence chinoise très vive et la baisse des subventions en France et dans les autres pays européens.

«Les panneaux solaires standards ne sont pas la solution optimale. La concentration permet d'obtenir des coûts inférieurs de 20 % aux coûts des panneux chinois» et donc de devenir compétitif, souligne Ludovic Deblois, le président fondateur de Sunpartner. Les centrales photovoltaïques développées par Axiosun permettent en effet de concentrer avec des miroirs concaves jusqu'à 12 fois les rayons du soleil, ce qui réduit d'autant la taille des cellules mises en œuvre pour une même production d'énergie. En outre, avance Ludovic Deblois, ces modules conservent un rendement élevé, d'environ 19 %, malgré l'augmentation de la température due à la concentration, alors qu'avec les modules standards, le rendement décroît de 1 ou 2 % par degré supplémentaire.

Axiosun se positionne sur le créneau des petites et moyennes centrales (pour alimenter une entreprise, un village ou une petite ville) en zone à fort ensoleillement. Il a installé la première centrale à basse concentration en France à Saint-Cannat près d'Aix-en-Provence et deux autres au Maroc. L'enjeu du partenariat avec le CEA signé pour trois ans avec un budget de 2,2 millions d'euros est d'améliorer la technologie. L'objectif est de parvenir à un coût du kWh jusqu'à 40 % plus faible qu'avec une centrale au sol à panneaux classiques. Une des clés est la mise au point d'un process de fabrication locale à des coûts très inférieurs aux coûts chinois grâce à des investissements dix fois plus faibles.

Axiosun

Le Figaro

CEA

Vers des cellules photovoltaïques à 35 % de rendement !
Samedi, 14/04/2012 - 01:10

Un des fronts de la recherche photovoltaïque actuelle qu'est l'utilisation de puits quantiques pourrait voir une avancée majeure être franchie si les résultats obtenus par une équipe japonaise étaient confirmés. Le groupe du professeur Yoshitaka Okada, du centre de recherche RCAST de l'université de Tokyo en collaboration avec l'université technique de Madrid a réussi à atteindre une efficacité de conversion de 20,3 % (avec un facteur de concentration lumineuse de 100) en utilisant des puits quantiques. Ce résultat, s'il n'est pas un achèvement majeur dans l'absolu, doit surtout être compris dans le contexte de l'incorporation des puits quantiques. Ceux-ci permettent de récupérer une partie de l'énergie issue de photons peu énergetiques, c'est-à-dire de récuperer des photons issus de l'infrarouge du spectre lumineux. Ces derniers ne sont pas suffisamment énergetiques pour provoquer la transition d'un électron de la bande de valence vers la bande de conduction des cellules photovoltaïques actuelles.

En effet, les cellules photovoltaïques utilisées et commercialisées actuellement utilisent du silicium, qui ne permet d'absorber que les photons issus du spectre de la lumière visible et du proche IR, jusqu'à 110nm soit une fraction du spectre lumineux. On comprend bien alors l'interêt de l'incorporation des puits quantiques au sein des cellules solaires.

L'étude a été réalisée sous concentration lumineuse avec un facteur 100, mais aussi avec un facteur 1000, obtenant ainsi une efficacité de conversion de 21,2 %. Les résultats détaillés de l'étude seront annoncés lors de la conférence internationale CPV-8 (Huitième conférence internationale sur les systèmes photovoltaïques concentrés) qui se tiendra à Tolède (Espagne) du 16 au 18 avril 2012.

Enfin, le professeur Okada évoque la possibilité d'atteindre une efficacité de conversion de 35 % avec un facteur de concentration lumineuse de 100 (et de 45 % pour un facteur de 1000). Cette valeur pourrait être atteinte via une densité accrue des puits quantiques couplée à une amélioration de la structure en couches des cellules photovoltaïques et de la structure des électrodes.

De son côté, la société américaine Semprius spécialisée dans le photovoltaïque à haute concentration (HCPV) a annoncé un nouveau record du monde avec un taux de 33,9 % - en zone active - pour ce qui est du rendement de conversion de son module photovoltaïque. Le module en question a été testé en laboratoire dans des conditions standards (850W/m2, température des cellules à 25°C, et un spectre correspondant à AM1.5D) par l'Institut de l'énergie solaire à l'Université Polytechnique de Madrid (IES-UPM).

Ce résultat certifié par l'IES-UPM et corroboré par des mesures extérieures réalisées par l'Institut espagnol des systèmes photovoltaiques à concentration (ISFOC) à Puertollano, Espagne, dépasse "largement" l'annonce précédente de 32,0 %. La société dans laquelle Siemens possède une participation de 16 % a conçu une cellule muticouches qui se compose de 3 niveaux superposés en arséniure de gallium de manière à capter et convertir en électricité toutes les composantes de la lumière du soleil et non seulement la partie visible comme le fait le silicium cristallin. D'ailleurs, le rendement de conversion de ce dernier est en comparaison de l'ordre de 23 %. Semprius propose une conception unique de son module HCPV qui fait appel à une technologie "maison" de transfert par micro-impression. Ce processus a d'ailleurs permis à l'entreprise de produire la plus petite cellule solaire au monde - à peu près la taille d'une pointe de crayon - dans le but ensuite de l'intégrer dans des modules solaires ultra-performants.

Bulletins Electroniques

Enerzine

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat : un programme sur l'interaction atmosphère-océan lancé par Lyon 1
Jeudi, 19/04/2012 - 01:20

L'Institut de recherches sur la catalyse et l’environnement (IRCELYON, CNRS / Université Claude Bernard Lyon 1) a lancé un projet de grande ampleur pour étudier les réactions photochimiques à l’interface océans-atmosphère.

La zone d’interface entre l’atmosphère et les océans est le point de contact entre l’activité biologique océanique (planctons par exemple) et différents composés atmosphériques. Cette zone se caractérise par la présence de nombreux composés organiques dont la capacité de tansformation sous l'effet du Soleil est insuffisamment connue.

Ces réactions peuvent être sources de radicaux atmosphériques et de précurseurs d’aérosols organiques. Ces composés peuvent avoir une incidence importante sur la qualité de l’air et l’évolution du climat.

Le projet scientifique « Air-Sea Exchanges driven by light » (échanges photo-induits à l’interface océan-atmosphère), lancé par l’Institut de recherches sur la catalyse et l’environnement de Lyon va conduire des travaux en laboratoire pour mieux comprendre ce phénomène particulier. Le projet est lauréat 2011 du prestigieux concours ERC Advanced Grant. Ces travaux qui ont débuté le 2 avril sont portés par Christian George, directeur de recherche CNRS, membre de IRCELYON, dans le cadre du prestigieux concours européen ERC Advanced Grant.

IRCEL

Une plante chilienne efficace contre les bactéries multirésistantes
Mercredi, 18/04/2012 - 14:27

Les infections, notamment nosocomiales, par des bactéries résistant à toutes formes d'antibiotiques sont de plus en plus courantes non seulement en France mais dans le monde entier.

Jes Gitz Holler, un doctorant de l'Université de Copenhague a pu isoler une substance naturelle capable de lutter efficacement contre ces souches multirésistantes. Son étude a été publiée dans le Journal of Antimicrobial Chemotherapy.

Ce composé, issu d'une espèce d'avocatier trouvée au Chili, possède une action inhibitrice sur les pompes à efflux, protéines présentes sur la membrane des cellules et servant à excréter les antibiotiques chez les souches résistantes. Utilisée en complément d'un traitement antibiotique classique, cette molécule permettrait, en outre, de réduire par huit, au minimum, la quantité d'antibiotique nécessaire au traitement d'une infection par une souche bactérienne non-multirésistante.

Jes Gitz Holler souhaiterait maintenant s'attacher à optimiser le composé actif de façon à pouvoir le synthétiser directement en laboratoire, permettant ainsi de préserver l'écosystème et les populations locales.

Bulletins Electroniques

Le réchauffement de la planète a commencé depuis au moins un siècle
Lundi, 16/04/2012 - 01:40

Une  étude scientifique menée par la Scripps Institution of Oceanography, à San Diego, vient de montre que le réchauffement de la planète a commencé depuis au moins un siècle. Cette étude s'appuie sur la première comparaison globale de l'évolution de la température depuis le voyage historique du HMS Challenger qui a eu lieu de 1872 à 1876 et les données modernes obtenues grâce à des robots immergés dans l'eau de différentes mers de la planète.

La recherche, dirigée par l'océanographe Dean Roemmich, montre une augmentation de 0,33°C en moyenne dans les parties supérieures de l'océan, jusqu'à 700 mètres de profondeur. La plus forte hausse a été remarquée à la surface de l'océan indien avec 0,59°C de plus. Les scientifiques ont déjà déterminé que près de 90 % de l'excédent de chaleur - ajouté au système climatique de la Terre depuis les années 1960 - ont été stockés dans les océans.

La nouvelle étude avance donc le début du réchauffement des océans. "L'importance de cette étude n'est pas seulement que nous voyons une différence de température qui indique un réchauffement à l'échelle mondiale, mais que l'ampleur de cette variation de température depuis les années 1870 représente le double de celles observées au cours des 50 dernières années. Le réchauffement ne concerne donc pas seulement les 50 dernières années, mais au moins les 100 dernières années".

SIO

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des antibiotiques au fond d’un lac ?
Jeudi, 19/04/2012 - 01:40

La découverte de bactéries résistantes aux antibiotiques dans l'une des grottes les plus isolées du monde pourrait conduire à  l’identification de nouveaux antibiotiques contre les superbactéries.

Des chercheurs de l'Université McMaster (Canada) ont découvert une prévalence remarquable de bactéries résistantes aux antibiotiques dans un lac de la grotte de Lechuguilla, au sein du parc national de Carlsbad Caverns (Nouveau-Mexique). Un endroit isolé de tout contact humain, jusqu'à très récemment. Le fait que ces bactéries aient développé des défenses contre les antibiotiques pourrait indiquer la présence, jusque-là inconnue, d’antibiotiques naturels que les médecins pourraient utiliser pour traiter certaines infections.

Aucune de ces bactéries ne  provoquent de maladie chez l’homme et elles n'ont jamais été exposées à des sources humaines d'antibiotiques, mais les chercheurs ont constaté que la quasi-totalité étaient résistantes à au moins un antibiotique. Certaines étaient même résistantes à 14 antibiotiques différents, c’est-à-dire à pratiquement toutes les substances utilisées actuellement. Or cette grotte, n’est accessible que depuis 1986 et encore avec de façon strictement contrôlée. Seuls quelques spéléologues et chercheurs y pénètrent chaque année.

« Notre étude montre que la résistance aux antibiotiques est codée dans le génome de ces bactéries. Cela pourrait être le cas depuis des milliards d'années, alors que nous essayons de comprendre ce phénomène depuis 70 ans seulement», a déclaré Gerry Wright, principal auteur de l’étude publiée dans PLoS ONE. « Cela a d'importantes implications cliniques et suggère qu'il y a beaucoup d'antibiotiques à découvrir dans l'environnement qui pourraient être utilisés pour traiter les infections actuellement incurables. »

Sciences et Avenir

Un vaccin thérapeutique universel contre le cancer en 2018 ?
Jeudi, 19/04/2012 - 01:10

Un vaccin thérapeutique (à finalité curative et non préventive, comme les vaccins classiques) capable d’agir contre la grande majorité des cancers pourrait être mis sur le marché dans six ans, si les résultats de son essai clinique sont convaincants. À l’heure actuelle, aucune donnée n’a été officiellement publiée mais les scientifiques qui dirigent le travail semblent optimistes. L’injection de l’antigène MUC1 stimule la réponse immunitaire chez les dix patients, et quelques-uns pourraient même être guéris.

Si l’on veut diriger le système immunitaire contre les cellules cancéreuses, il faut lui fournir une cible. Parmi les plus intéressantes figure la glycoprotéine MUC1, déjà utilisée avec succès dans des vaccins chez les souris car elle se retrouve en grande quantité à la surface de 90 %, ou peut-être un peu moins, des cellules tumorales. Plusieurs équipes de recherches tentent de transposer cette réussite à l’Homme. Pour le moment, rien de transcendant n'a surgi. Mais les choses pourraient changer...

L’espoir est ravivé par la firme pharmaceutique Vaxil Biotherapeutics, associée à des chercheurs de l’université de Tel Aviv (Israël). Les scientifiques ont récemment lancé un essai clinique chez dix patients atteints d’un myélome multiple (cancer des cellules hématopoïétiques de la moelle osseuse) pour vérifier que leur vaccin thérapeutique était sans danger pour l’Homme. Ce vaccin  est à usage curatif, et non préventif. Baptisé ImMuccin, il se compose en fait d’un peptide antigénique de 21 acides aminés issu de MUC1. Après administration, le système immunitaire apprend à le reconnaître et à détruire les cellules qui le présentent. Il est conçu pour les personnes déjà atteintes par un cancer afin d’aider leur organisme à se débarrasser de la tumeur, mais pas pour prévenir de leur apparition.

Les chercheurs espèrent que leur vaccin sera efficace contre les cancers les plus fréquents et les plus mortels, incluant ceux du sein (avec des cellules tumorales visibles à l'image), de la prostate, du poumon ou encore du foie. Entre autres. Pour l’heure, sept des volontaires ont terminé le traitement et aucun n’aurait manifesté d’effet secondaire indésirable après avoir reçu 12 doses. Une donnée importante car les cellules saines de l’organisme sont elles aussi pourvues en MUC1, mais en faible quantité. Les défenses de l’organisme les auraient globalement épargnées. La première phase du test clinique devrait pouvoir être validée, mais il faut encore attendre les publications officielles.

  • Le vaccin pourrait faire reculer le cancer

Un autre fait encourageant émerge de l'étude. Bien qu'elles ne soient pas vraiment exploitables, les analyses montrent chez tous ces individus que leur immunité contre le cancer est plus forte après le traitement qu’elle ne l’était avant. Pour cela, deux à quatre doses suffisent. Le laboratoire se vante même que pour trois des patients, on ne décèle plus leur tumeur.

Si les résultats définitifs confirment ces données préliminaires, les scientifiques espèrent que leur vaccin pourra être commercialisé dans six ans.

Vaxil

Futura-Sciences

Des micro-algues pour capter le CO2 d’une cimenterie
Jeudi, 19/04/2012 - 01:00

Une expérimentation pilote est menée à l’usine Ciments Calcia de Gargenville (Yvelines) : afin de réduire les émissions de CO2, des micro-algues sont cultivées et chargées de capter une partie de ce gaz à effet de serre. Une façon de valoriser biologiquement le gaz carbonique qui est plus intéressante que le simple stockage dans le sol. L’industrie cimentière cherche à réduire ses émissions de CO2 par différentes mesures et innovations. La filière fait notamment évoluer ses procédés industriels selon trois axes principaux : tout d’abord en amont, en contrôlant la production de gaz carbonique par des modifications de formulation du clinker et du ciment. Ensuite, en modifiant les process de production. Enfin, plus en aval, en cherchant à traiter ou à capter tout ou partie du gaz.

Si la capture (et le stockage souterrain) du gaz est intéressante, elle est toutefois coûteuse (le gaz nécessitant d’être purifié et mis sous pression) et elle a le désavantage de ne pas valoriser le CO2. Aussi, d’autres pistes sont-elles envisagées par les industriels, notamment l’utilisation du gaz carbonique soit en tant que matière première chimique d’intérêt pour la production d’urée, soit en minéralisant le gaz et en produisant des carbonates ex- et in-situ, soit enfin en le valorisant biologiquement. L’entreprise Ciments Calcia (groupe Italcementi) mène actuellement un projet expérimental de recyclage du gaz, sur son site de Gargenville (Yvelines). Le CO2 y sert de source de carbone pour des espèces végétales à croissance rapide (10 fois plus rapide que des plantes).

L’installation pilote repose sur la culture dans des photo-bioréacteurs (des tubes en verre maintenus éclairés et chauffés à 25°C, contenant de l’eau, des nutriments et du CO2) de micro-algues qui captent le gaz carbonique. Une fois concentrées, filtrées et séchées, elles peuvent être utilisées directement (production de biomasse ou de biocarburant) ou brûlées, afin de fournir une deuxième fois de l’énergie, améliorant ainsi le bilan carbone. Les micro-algues peuvent même, dans le cas de certaines espèces, produire des molécules à haute valeur ajoutée : lipides, protéines, pigments, antioxydants, etc. Des produits qui peuvent représenter jusqu’à 25, voire 50 % du poids de la micro-algue. Mais pour l’instant, l’installation n’en est qu’à ses balbutiements. L’industriel teste actuellement les souches les plus adaptées au captage du CO2. Si les expérimentations ont véritablement démarré avant l’été 2011, les résultats définitifs ne seront toutefois pas connus avant 2013.

Batiactu

Un pacemaker cérébral contre la dépression sévère
Mercredi, 18/04/2012 - 14:32

Il a suffi d'une électrode plantée au cœur du cerveau pour soigner des dépressions qui résistaient jusque-là à tous les traitements. Cinq ans après, l'efficacité perdure.

Stimuler électriquement le circuit cérébral de la récompense pourrait traiter des dépressions sévères. C'est en tout cas l'hypothèse suivie avec succès par le Docteur Thomas Schlaepfer, de l'université de Bonn en Allemagne. «L'anhédonie, l'absence de plaisir ressenti après une expérience positive, est un trait typique de la dépression sévère. Cela suggère une dysfonction du circuit de récompense», explique-t-il. Un petit amas de neurones enfoui à l'intérieur de chaque hémisphère, le noyau accumbens, y joue un rôle. C'est là que les chercheurs ont choisi d'implanter un stimulateur cérébral.

Cette technique est utilisée depuis plus de vingt ans pour traiter les mouvements anormaux de la maladie de Parkinson. Elle consiste à forer un trou d'un demi-centimètre de diamètre, y insérer une électrode, la fixer au crâne pour qu'elle ne puisse plus se déplacer, la brancher à un câble fin glissé sous le cuir chevelu jusque derrière l'oreille et le long du cou et, enfin, la relier à un stimulateur implanté au-dessous de la clavicule. Dans la maladie de Parkinson, les résultats sont immédiats. Dans la dépression sévère, il a fallu attendre un mois, mais l'état des dix patients testés s'est amélioré et, pour la moitié d'entre eux, le score de dépression a baissé de plus de 50 %. «On ne s'attendait pas à une telle réussite car il s'agissait de patients qui avaient déjà essayé en moyenne une trentaine de traitements différents, jusqu'à 61 pour l'un d'entre eux, sans succès», raconte le Docteur Schlaepfer.

  • Une technique réservée aux cas très sévères

Aucun signe d'accoutumance : la stimulation du système de récompense ne fonctionne pas comme une drogue. Et son efficacité se confirme à long terme: les patients qui ont bien répondu au départ répondent encore après de 2 à 5 ans de traitement. Un résultat remarquable car un traitement antidépresseur est rarement efficace si longtemps. «Certains ont même pu reprendre un travail alors qu'il s'agissait de patients qui pouvaient rester toute la journée au fond de leur lit.» Le traitement n'a malheureusement pas empêché l'un des volontaires de se suicider. «Ordinairement, plus de 20 % de ces patients mettent fin à leurs jours, le risque est donc plutôt diminué avec la stimulation», précise le Docteur Schlaepfer.

Des alternatives au noyau accumbens sont déjà explorées. Une étude pilote menée par l'équipe allemande montre que la stimulation d'une petite zone située juste en amont semble plus vite efficace. La stimulation de plusieurs cibles à la fois est aussi envisagée. L'essai préliminaire français Presthym, coordonné par le Professeur Bruno Millet du CHU de Rennes, évalue ainsi la stimulation du noyau accumbens, de la partie limbique du noyau caudé et des deux à la fois. Les résultats devraient être publiés d'ici quelques mois.

Prometteuse, la stimulation cérébrale profonde restera une technique réservée aux cas de dépression résistante et chronique sévère. «Le programme d'évaluation Sthym qui a été lancé en France s'est imposé des règles éthiques extrêmement strictes de sélection des patients, insiste le Docteur Nicolas Baup, du CHU de Sainte-Anne (Paris). La procédure est lourde et n'est pas sans risque. C'est une alternative d'exception.»

Le Figaro

La nanomédecine s'impose dans la lutte contre le cancer
Mardi, 17/04/2012 - 01:20

Il est parfois délicat d'intervenir sur une tumeur mal placée pour un médecin, sans avoir à toucher d'autres organes voisins. Les cellules cancéreuses sont difficiles à atteindre, ont évidemment tendance à ne pas s'exposer facilement. Les chirurgies imposent parfois l'ablation d'autres parties du corps, quand la chimiothérapie soumet les patients aux effets secondaires, avec l'incertitude parfois de ne pas se révéler efficace.

Si la médecine soigne de mieux en mieux les cancers, le taux de guérison chez les malades pourrait s'accroître avec l'arrivée de la nanomédecine. Une nouvelle expérience a mis en place une nouvelle approche de traitement. Il s'agirait de diffuser dans le corps humain des nanoparticules sous forme de médicaments concentrés afin de cibler la tumeur, uniquement dans les régions du corps où elle se situe. La nanoparticule élaborée par les chercheurs de la société BIND Biosciences de Boston, associés à des scientifiques du MIT, est reconnue sous le nom de "Modèle BIND-014". Elle a d'ores et déjà fait ses preuves sur les patients humains volontaires en se montrant notamment toute aussi efficace que les chimiothérapies courantes sans les effets secondaires de ces dernières.

La première phase clinique s'achève, et la seconde s'apprête à commencer dès que la seconde vague de volontaires aura été trouvée. Au cours de cette deuxième étape, il s'agira de trouver le bon dosage du médicament. Après ceci, il faudra attendre qu'une troisième phase clinique s'achève et se révèle concluante pour que le médicament soit commercialisé. Les thérapies nanomédicales prouvent leur utilité et donnent de l'espoir aux malades. Se soigner sans subir des effets secondaires ou des dommages collatéraux sur d'autres parties du corps est le rêve de tous les patients et de leurs proches.

GNT

Des scientifiques coréens testent un foie artificiel
Mardi, 17/04/2012 - 01:10

Une équipe de scientifiques coréens est sur le point d'effectuer les premiers essais cliniques de foies artificiels biologiques qui, en cas de succès, devraient soulager de nombreux patients souffrant de maladies hépatiques. L'équipe, dirigée par les professeurs Kwon Choo-hyuck et Lee Suk-koo de l'université de Sungkyunkwan, a déclaré le 2 mars 2012 n'attendre plus que des patients admissibles se présentent pour commencer les tests.

"Nous avons développé un "système hépatique biologique artificiel" à partir de foies de porcs gnotobiotiques (des porcs de laboratoire spécialement élevés dans un environnement contrôlé) et après avoir élaboré des méthodes de prévention de réponses immunitaires négatives. [...] Nous nous attendons à ce que le système soit bénéfique pour les patients atteints d'insuffisance hépatique aïgue", a dit M. Kwon.

Les porcs gnotobiotiques n'ont jamais été exposés à un environnement externe ou non-contrôlé, et ont été élevés de façon à prévenir toute infection par des germes potentiellement nuisibles pour les êtres humains. Le choix des scientifiques s'est porté sur le porc en raison de sa proximité anatomique et physiologique avec l'homme. "Nous allons effectuer les tests cliniques de stade 1 et 2 avec six patients. Si les résultats le permettent, nous devrions être en mesure de commencer les tests cliniques finaux en 2013 ou 2014", a affirmé M. Kwon.

De nombreux scientifiques, de par le monde, ont déjà tenté de développer des foies biologiques artificiels, mais seule une poignée d'entre eux est arrivée au stade des essais cliniques. Les différents coûts de traitement seront pris en charge par le groupe Samsung, l'Université Sungkyunkwan étant soutenue financièrement par le conglomérat coréen.

Bulletins Electroniques

Les scientifiques sud-coréens en pointe dans la lutte contre le cancer
Mardi, 17/04/2012 - 01:00

La recherche contre le cancer est très dynamique en Corée du Sud. En effet, fin février 2012, des scientifiques sud-coréens ont découvert un nouvel agent anti-cancer susceptible de traiter efficacement et en toute sécurité le cancer, sans entraîner d'éventuels effets secondaires indésirables, comme de nombreux médicaments existants. En effet, ce nouvel agent est une susbstance déjà présente dans le corps humain. L'équipe, dirigée par le professeur Kim Sung-hoo de l'Université nationale de Séoul, a confirmé l'effet anti-cancereux du Glycyl-tRNA synthétase (GRS), une enzyme impliquée dans la synthèse de protéines.

Fin mars, une découverte similaire est à mettre au crédit d'une équipe de recherche de la Konkuk University de Séoul. Celle-ci, dirigée par le professeur An Sung-kwan, s'est rendue compte que l'enzyme dite "Mulan" était capable de supprimer la croissance des tumeurs solides et de traiter les cancers du sang. "L'enzyme Mulan semble agir comme un dissolvant puissant de la protéine Akt (jouant un rôle important dans la croissance du cancer), utilisant les mithochondries des cellules".

Le lien entre le gène Akt et la croissance du cancer est connu depuis les années 1990, mais malgré de nombreuses recherches, peu de progrès avaient été effectués. L'équipe de scientifiques a ajouté que la régulation de l'Akt pourrait conduire à une nouvelle façon de lutter contre les tumeurs solides des cancers du poumon, du sein et de l'utérus, mais également de traiter les lymphomes, leucémies et autres myélomes multiples.

Le ministère de l'Education, de la Science et de la Technologie, qui a financé le projet, a salué la découverte de Mulan comme une percée décisive dans la recherche contre le cancer.

Bulletins Electroniques

Deux gènes de l'obésité infantiles identifiées
Lundi, 16/04/2012 - 01:30

Deux nouveaux gènes, augmentant sensiblement le risque de développer une obésité dans l'enfance, ont été identifiés par un consortium international de généticiens. Des études précédentes ont identifié des mutations génétiques contribuant à l'obésité de l'adulte ou à des formes extrêmes d'obésité de l'enfant, ou encore à des obésités présentes dans de rares syndromes, mais on en sait très peu sur les gènes impliqués dans l'obésité courante de l'enfant, soulignent les chercheurs dont les travaux sont parus récemment en ligne dans la revue américaine spécialisée Nature Genetics.

Pour établir leur analyse, les auteurs ont combiné les résultats de 14 études d'association pangénomique (couvrant l'ensemble du génome) conduites aux Etats-Unis, Canada, Australie et Europe, incluant 5 530 enfants obèses et 8 300 non-obèses (groupe témoin), tous d'ascendance européenne.Les chercheurs du consortium EGG (Early Growth Genetics) pointent ainsi les gènes "OLFM4", situé sur le chromosome 13, et "HOXB5", sur le chromosome 17, qui n'avaient pas été auparavant impliqués dans l'obésité. D'après les données de la littérature scientifique, ces gènes interviennent au niveau des intestins. Des observations ont ainsi établi un lien entre le gène OLFM4 et la flore microbienne intestinale, qui serait impliquée dans la prise de poids et l'obésité.

L'association pangénomique consiste à cribler systématiquement le génome pour rechercher la quasi-totalité des variations génétiques les plus fréquentes dans un groupe d'individus. Les variations de prédisposition peuvent ainsi être identifiées car elles sont plus fréquentes dans le groupe composé de patients comparé au groupe témoin, composé de personnes non atteintes. Il reste encore beaucoup de travail à faire, mais ces résultats pourraient, à terme, aider à concevoir des interventions de prévention (alimentation, activité hysique...) et des traitements pour les enfants, en se basant sur leur génome individuel, note l'un des principaux auteurs, Struan Grant, du Center for Applied Genomics de l'hôpital pour enfants de Philadelphie.

Nature Genetics

Le Monde

Découverte d'une nouvelle règle d'organisation spatiale des chromosomes qui reflète leur fonctionnement
Lundi, 16/04/2012 - 01:10

Découverts en 1882 par Walther Flemming, les chromosomes, supports de l'information génétique, continuent à livrer leurs secrets 130 ans plus tard ! Pour preuve, l'équipe d'Edith Heard du laboratoire Génétique et biologie du développement (Institut Curie/CNRS/Inserm) en collaboration avec celle de Job Dekker (UMass Medical School, Worcester, USA) vient de mettre au jour une nouvelle organisation de ces bâtonnets d'ADN qui se trouvent dans le noyau de nos cellules.

Les chromosomes forment une succession de « pelotes » dans lesquelles se regroupent plusieurs gènes qui peuvent ainsi être régulés de manière coordonnée au cours du développement. En clair, ces « pelotes » isolent des groupes de gènes intervenant de façon concertée lors d'étapes cruciales du développement de l'embryon, mais aussi à l'âge adulte. Nature présente ces travaux innovants en ligne le 11 avril 2012.

Le support du matériel génétique, les chromosomes, confinés dans un espace de quelques micromètres, peuvent mesurer une fois dépliés jusqu'à la longueur d'un bras. Mais ils sont confinés dans un espace de quelques micromètres. Si l'on comparait le noyau d'une cellule à une balle de tennis, un chromosome mesurerait 5 kilomètres. Et il n'y en a pas qu'un seul ! Chez les humains, par exemple on compte 23 paires de chromosomes dans chaque noyau cellulaire. Les chromosomes se compactent, se replient, s'enchevêtrent et s'entremêlent au cœur du noyau.

Alors les chromosomes, un plat de spaghettis dans le noyau des cellules ? « Pas tout à fait » explique Elphège Nora, post-doctorant à l'Institut Curie qui a réalisé ce travail. « Les chromosomes possèdent une réelle organisation spatiale et celle-ci est essentielle à leur fonctionnement. »

L'équipe d'Edith Heard, directrice CNRS du laboratoire Génétique et biologie du développement (Institut Curie/CNRS/Inserm) en collaboration avec celle de Job Dekker (UMass Medical School, Worcester, USA) vient en effet de découvrir une nouvelle règle d'organisation spatiale. « Les chromosomes forment une succession de « globules», des sortes de « pelotes » d'une taille de 100 000 paires de bases à 1 million de paires de bases » explique la chercheuse. Pour mémoire, la paire de base (abrégée par les fameux A, C, G, T) est l'unité du génome et un chromosome et peut, chez les humains, mesurer plus d'une centaine de millions de paires de bases.

« Mais la grande nouveauté, c'est que cette organisation spatiale reflète l'organisation fonctionnelle du chromosome » ajoute Edith Heard. Cette organisation permet de regrouper dans une même « pelote» jusqu'à une dizaine de gènes, voire plus. On trouve également dans ces « pelotes » des séquences dites régulatrices, qui peuvent contrôler - tels des interrupteurs - l'activité des gènes qu'elles contactent physiquement. Ainsi compactés ensemble au sein de la même pelote chromosomique, un groupe de gènes – bien que s'étalant sur plusieurs centaines de milliers de paires de bases – peuvent donc partager les mêmes séquences régulatrices, et leur activité peut ainsi s'en trouver coordonnée.

« Nous savons depuis des décennies que l'ADN est enroulé autour des nucléosomes pour former la structure « classique » dite du collier de perles. Notre nouvelle étude indique que cette structure se replie pour former une nouvelle organisation dans laquelle plusieurs gènes sont regroupés en pelote » explique Job  Dekker, co-directeur du programme de Biologie des Systèmes à l'université du Massachussetts (University of Massachusetts Medical School). « Cette organisation des chromosomes constitue un degré de repliement jusqu'à présent inconnu, et nous pensons qu'elle représente un principe d'organisation fondamental des génomes. »

Cette découverte lève le voile sur une grande inconnue de la génétique, à savoir comment une altération à un endroit du génome peut perturber l'expression de gènes situés à plusieurs dizaines, voire milliers de paires de bases.

Un dommage au sein d'une « pelote » peut en effet avoir des conséquences sur tous les gènes qu'elle contient. Alors, cet agencement ne sensibilise-t-il pas plus la cellule qu'il ne la protège ? « Cette organisation permet de rapprocher plusieurs éléments distants pour les soumettre aux mêmes influences. Ainsi, à certains moments du développement, il devient possible d'orchestrer finement l'activité de gènes très éloignés sur le chromosome linéaire mais qui sont en réalité très proches dans le noyau de la cellule. » explique Elphège Nora.

CNRS

Un aiguillon viral à l'échelle atomique
Dimanche, 15/04/2012 - 01:40

Il s’agit sans doute de l’arme perforante la plus fine du monde biologique. Avec leur aiguillon d’un nanomètre, des virus s’attaquent aux bactéries. Cet appendice a été mesuré par des chercheurs de l’Ecole Polytechnique Fédérale de Lausanne (EPFL).

Il répond au doux nom de φ92. Ce virus de la famille des phages est spécialisé dans l’attaque des bactéries de type salmonelle ou colibacille. Au centre de son dispositif d’agression, une pointe destinée à percer la membrane de sa victime. Des chercheurs de l’EPFL sont parvenus à mesurer cette arme extrêmement fine – un nanomètre à son extrémité, soit à peine 20 fois le diamètre d’un atome d’hélium. Cette découverte, publiée dans la revue Structure de Cell Press, permet de mieux comprendre la stratégie d’attaque des phages, dont le potentiel thérapeutique fait aujourd’hui l’objet de nombreuses recherches.

L’arme perforante du phage φ92 est constituée de trois chaînes de protéines identiques. Ces trois longues molécules tressées forment un appendice pointu, à même de percer la membrane de la bactérie. Une caractéristique commune à toutes les espèces proches de φ92. Inconnue jusqu’alors, cette structure a été découverte à l’EPFL, au sein du laboratoire de biophysique et biologie structurelle dirigé par Petr Leiman.

Le corps des phages est constitué de deux parties principales. La première, appelée «capside», renferme le matériel génétique. La seconde se compose d’un tube, d’un groupe d’appendices analogues à des pattes, et d’un dispositif perfectionné pour percer la membrane de l’hôte – la pointe est située à l’extrémité.

Le phage reconnaît les sucres ou les protéines à la surface de ses bactéries préférées. Ses pattes s’accrochent alors à la victime, et une mécanique complexe se déclenche. Un ressort fait de protéines se détend et pousse le tube d’injection armé de la pointe à travers la membrane. Puis la pointe se détache de l’extrémité du tube et, comme lorsqu’on débouche une bouteille de champagne, le matériel génétique sous pression dans la capside est propulsé dans la bactérie. Le phage peut alors se reproduire dans sa victime.

En déterminant exactement la structure de la pointe, les chercheurs sont parvenus à compléter nos connaissances sur l’arme fatale du phage φ92. Pour parvenir à un tel niveau de détail – une dizaine d’atomes tout au plus à l’extrémité de la pointe – ils ont utilisé la technique de la cristallographie aux rayons X, assez précise pour déterminer la forme d’une molécule.

«Nous sommes parvenus à déterminer non seulement la taille, mais la structure complète de cette pointe», raconte Christopher Browning, auteur de l’article. En outre, les chercheurs ont découvert un atome de fer dans l’appendice. «Nous ne savons pas encore à quoi il sert, mais dans la mesure où cet élément est toxique, nous avons de très bonnes raisons de penser qu’il n’est pas là par hasard.»

Ce travail va bien au-delà de la simple curiosité de naturaliste. Les phages sont en effet pressentis comme solution pour la lutte antibactérienne, en complément ou en remplacement des antibiotiques. Les chercheurs pensent que la forme de la pointe détermine en partie les espèces de bactérie auquel un phage peut s’attaquer.

Parmi les pistes explorées, des phages incomplets appelés piocines. Naturellement produits par certaines bactéries infectées, ils se résument au dispositif d’injection du virus, à l’image d’une pièce mécanique, mais d’origine biologique. Ils sont intéressant précisément parce qu’ils sont dénués de capside, donc de matériel génétique, explique Christopher Browning. «Ces entités pourraient percer la membrane de la bactérie, ce qui aurait pour effet de la tuer, mais sans injecter de matériel génétique. On éviterait ainsi que le phage puisse muter et s’attaquer à de «bonnes» bactéries. C’est une option de plus en plus étudiée, mais il faut connaître le potentiel de chaque espèce de phage par rapport à telle ou telle bactérie. La forme de la pointe est l’un des paramètres.»

EPFL

Autisme : de nouveaux facteurs familaux identifiés
Dimanche, 15/04/2012 - 01:30

Trouble du comportement caractérisé par une inadaptation à l'environnement social ou familial associé à une impossibilité de communiquer avec le monde extérieur, l’autisme se manifeste dès la petite enfance et persiste à l’âge adulte. Avant l’âge de 20 ans, l’autisme et les troubles associés affecteraient un enfant sur 150. En France, on estime qu’entre 400 000 et 600 000 personnes seraient touchées par cette affection. D’après une étude récente rendue publique par les autorités sanitaires américaines, le nombre de cas d’autisme aurait augmenté de 23 % entre 2006 et 2008. Cette progression inquiète les spécialistes qui cherchent à comprendre les différents facteurs susceptibles de l’expliquer.

Dans la revue Nature, trois équipes de chercheurs, respectivement du Harvard-MIT Broard Institute, de l’Université de Yale et de l’Université de Washington, ont publié des travaux qui permettraient de comprendre dans quelle mesure l’âge du père, lors de la conception, influerait sur les risques d’avoir un enfant autiste. En étudiant le génome de 549 familles, ils ont découvert que l’apparition des mutations de novo, qui n’existaient pas chez les parents, pourraient expliquer 15 % des cas d’autisme.

Ils ont aussi montré que les enfants porteurs de ces nouvelles variations génétiques auraient 5 à 20 fois plus de risques d’être touchés par ce trouble du comportement. Enfin, ils ont constaté que la fréquence de ces mutations augmentait avec l’âge du père. En parallèle, dans la revue Pediatrics, l’étude de plus de 1 000 couples "mère-enfant" a permis à Paula Krakowiak et ses collègues de l’Université de Californie, de mettre en évidence une forte corrélation entre le surpoids de la mère et le risque que l’enfant soit autiste ou rencontre des retards du développement.

En effet, par rapport à une femme ayant un IMC (indice de masse corporelle) normal, une mère obèse aurait 67 % plus de risques de mettre au monde un enfant ayant des troubles du comportement. Le même type d’analogie a été observé dans les cas de diabète maternel. Si les différents travaux n’ont pas permis d'établir un lien, il est clair pour les chercheurs que l’état de santé de la mère lors de la grossesse joue sur le développement de l’enfant, et notamment, sur son système neurologique.

Information Hospitalière

Une nouvelle technique d'observation individuelle des protéines
Dimanche, 15/04/2012 - 01:00

Les chercheurs doivent pouvoir être en mesure de déterminer le fonctionnement des protéines pour comprendre les processus biologiques associés se déroulant à l'échelle moléculaire. Ils y parviennent en étiquetant les protéines avec des substances fluorescentes. Le problème de cette méthode est qu'elle altère les protéines et influence les processus biologiques observés.

Une nouvelle étude allemande a développé une méthode innovante capable d'observer individuellement les protéines. Présentée dans la revue Nano Letters, la recherche était financée en partie dans le cadre du projet SINGLESENS («Single metal nanoparticles as molecular sensors»), sous la direction du professeur Carsten Sönnichsen, qui bénéficie d'une subvention de démarrage du CER (Conseil européen de la recherche) d'une valeur de 1,5 million d'euros au titre du 7e PC de l'UE.

Des chercheurs du Johannes Gutenberg University (JGU) à Mayence, en Allemagne, sont responsables de cette nouvelle technique. «Notre méthode nous permet de suivre des protéines individuelles sans avoir à les marquer au préalable», commente le professeur Carsten Sönnichsen de l'Institut de chimie physique du JGU, auteur principal de l'étude. «Nous avons pu obtenir de nouvelles informations sur les processus moléculaires et avons pu observer, par exemple, qu'il y a toujours un processus en cours, même à la plus petite échelle.»

Cette méthode innovante se base sur l'utilisation de nanoparticules d'or, qui agissent comme des nanoantennes qui changent leur fréquence (ou couleur), lorsque des protéines individuelles non marquées sont détectées. «Il s'agit d'un énorme pas en avant technologiquement parlant», commente-t-il. «Nous avons pu obtenir une très haute résolution pour l'observation de molécules individuelles.»

Les chercheurs peuvent désormais observer avec précision la dynamique d'une molécule protéique à la milliseconde près. Ce dernier développement permettra aux scientifiques de progresser dans la recherche sur les protéines, notamment en surveillant la fluctuation des densités de populations de protéines et en suivant les processus d'absorption de protéines en temps réel.

«Nous pouvons observer les molécules en déplacement, leur fixation sur des emplacements particuliers, et leur repliement, nous avons donc une vue sur le monde moléculaire», commente le Docteur Irene Ament, un membre du groupe du professeur Sönnichsen. Cette nouvelle technique aura des avantages en chimie, biologie et en médecine. Ce développement est un élément important dans la recherche sur les phénomènes non équilibrés à l'échelle moléculaire.

Cordis

Cancer : la radiothérapie ne cesse de progresser
Samedi, 14/04/2012 - 01:40

A quelques jours d'intervalle, deux appareils de radiothérapie de dernière génération viennent d'être mis en service, l'un au Centre François-Baclesse de Caen, l'autre à l'Institut Gustave-Roussy à Villejuif. Ces inaugurations témoignent de la volonté des centres de lutte contre le cancer de s'équiper des plateaux de radiothérapie les plus performants. Le recours à la radiothérapie, qui consiste à irradier les cellules cancéreuses pour les détruire, s'est en effet banalisé en raison des progrès considérables réalisés depuis ses balbutiements il y a plus d'un demi-siècle. Elle est utilisée aujourd'hui chez plus de la moitié des patients, seule ou combinée à la chirurgie et à la chimiothérapie.

« L'augmentation progressive de l'énergie des faisceaux, d'une puissance de 6 à 20 mégavolts aujourd'hui, contre seulement 1,2 mégavolt avec la bombe au cobalt dans les années 1950, permet désormais de traiter des tumeurs en profondeur », explique Alain Fourquet, directeur du département de radiothérapie à l'Institut Curie. Outre l'augmentation de la puissance des faisceaux, c'est aussi leur précision croissante et la possibilité de moduler leur intensité qui a permis d'élargir considérablement le champ d'application de la radiothérapie. « Mais la précision des faisceaux ne serait pas opérante si les techniques d'imagerie permettant de localiser la tumeur et les organes voisins à épargner n'avaient aussi considérablement progressé en parallèle », poursuit Alain Fourquet.

C'est à partir d'images de scanner, de plus en plus souvent fusionnées à des images d'IRM ou de PET scan du patient que le protocole de traitement est établi. La machine de radiothérapie intègre donc, elle aussi, un système d'imagerie pour assurer le recalage en temps réel de la position du patient par rapport aux images de référence pendant les 15 à 30 minutes de traitement.

Des machines spécialisées comme le Tomotherapy et le Cyberknife, fabriqués tous deux par la société américaine Accuray, ou adaptées d'appareils polyvalents comme le Novalis de BrainLab et Variant Medical Systems sont l'aboutissement actuel de ces évolutions. Leur capacité à moduler l'intensité du faisceau et à le sculpter ou à en réduire le diamètre à quelques millimètres leur permet de traiter des tumeurs complexes ou localisées à proximité d'organes critiques, ce qui les rendaient inéligibles à la radiothérapie classique.

La hadronthérapie est la prochaine étape. Elle utilise des faisceaux de protons qui ont d'autres propriétés que les électrons. Elle se pratique déjà à Orsay (Ile-de-France) et à Nice. Deux autres sites, Caen pour la recherche et Lyon pour le traitement, sont en projet pour 2015-2016. Outre les faisceaux de protons, ils s'intéresseront aussi à l'exploitation des ions lourds, comme les ions carbone.

Les Echos High Tech

Du remodelage des cellules cardiaques
Samedi, 14/04/2012 - 01:00

Lors d’une attaque cardiaque, les cellules du cœur subissent un stress qui modifie leur structure et leur état. Toutefois, ce phénomène n’est pas définitif. Il est possible en mettant le cœur au repos et à l’aide d’une pompe d’assistance ventriculaire, d’inverser le processus. Afin de mieux comprendre les mécanismes mis en jeu, des chercheurs britanniques ont greffé un cœur malade à un rat sain. Leurs travaux font l’objet d’une publication dans l’European Journal of Heart Failure.

Permettre aux patients ayant subi une attaque cardiaque de retrouver un cœur parfaitement fonctionnel est un des enjeux de la médecine moderne. A cette fin, Cesare Terraciano et ses collègues de l’Imperial College de Londres ont tenté une expérience particulièrement étonnante : greffer un deuxième cœur malade à un rat en parfaite santé.

Après avoir prélevé le cœur d’un rongeur ayant subi une insuffisance ventriculaire gauche, les chercheurs l’ont mis au repos puis l’ont greffé en dérivation sur un rat en bonne santé. Ainsi, le cœur malade était parfaitement irrigué mais ne fonctionnait pas. Au bout d’un certain temps, les chercheurs ont pu constater que les cellules de ce dernier avaient subi des modifications structurelles afin de revenir à leur état premier.

Grâce à cette expérience, l’équipe de Cesare Terraciano espère découvrir les processus moléculaires qui permettent de redonner une nouvelle jeunesse à un cœur après une insuffisance cardiaque et ainsi ouvrir la voie à de nouvelles pistes thérapeutiques…

Information Hospitalière

Un nouvel outil informatique de détection extrêmement précoce du cancer du sein
Vendredi, 13/04/2012 - 06:30

Des chercheurs de l'Université de Calgary en Alberta ont développé un logiciel qui permet de découvrir les signes avant-coureurs du cancer du sein 15 mois avant qu'une tumeur soit détectée. La technologie par imagerie, qui a été développée en collaboration avec le Programme de dépistage du cancer du sein de l'Alberta, permet de détecter des distorsions architecturales dans les tissus mammaires qui passent souvent inaperçues lors des tests de dépistage courants.

Les scientifiques ont étudié 106 mammographies de femmes qui ont développé un cancer plusieurs mois plus tard. Leur logiciel leur a permis de détecter des symptômes avant-coureurs dans 80 % des cas, quinze mois, en moyenne, avant qu'une tumeur ou un autre signe de cancer soit diagnostiqué.

«Cette étude démontre qu'il est possible de développer des méthodes sophistiquées par ordinateur pour détecter les premiers signes d'un cancer du sein. Jusqu'à présent, les diagnostics assistés par ordinateur ne se concentraient principalement que sur la recherche de tumeurs et de calcification des tissus mammaires», a indiqué le professeur Raj Rangayyan de l'Université de Calgary. Avant que la technologie puisse être utilisée régulièrement pour le dépistage du cancer du sein, les scientifiques chercheront à réduire la proportion de «fausses alarmes» en affinant la technologie et en faisant d'autres analyses de mammographies.

Université de Calgary

La vitamine K joue un rôle majeur dans le maintien des fonctions cognitives
Vendredi, 13/04/2012 - 06:10

Si le grand public est maintenant assez familiarisé avec les vitamines A, B, C, D et E, il n'en va pas de même pour la vitamine K, dont on a jusqu'ici peu entendu parler. Découverte à la fin des années 20 à la suite de recherches sur les hémorragies, la vitamine K s'est avérée essentielle à la coagulation du sang. Puis, on s'est aperçu qu'elle jouait un rôle dans la structure osseuse et, plus récemment encore, qu'elle participait à l'échange d'informations entre les neurones.

Guylaine Ferland, professeure au Département de nutrition de l'Université de Montréal, est parmi les pionniers qui étudient l'action de la vitamine K dans les habiletés cognitives. «Cette vitamine participe à la synthèse des sphingolipides, des lipides présents dans les membranes cellulaires et dans la myéline, où ils sont actifs dans la communication entre les cellules, explique-t-elle. La protéine Gas6, qui règle la croissance et la mort cellulaires, est aussi dépendante de la vitamine K. Cette vitamine est donc associée à des molécules très importantes pour le fonctionnement neuronal.»

Les travaux de l'équipe de Guylaine Ferland, réalisés au Centre de recherche de l'Institut universitaire de gériatrie de Montréal et au Centre de recherche de l'Hôpital du Sacré-Cœur, ont montré que la vitamine K semble jouer un rôle majeur dans le maintien de fonctions cognitives à un âge avancé. Une expérience menée avec des rats a montré qu'à l'âge de 20 mois – ce qui équivaut à environ 80 ans chez l'humain – ceux qui avaient été soumis à une diète faible en vitamine K éprouvaient plus de difficulté dans des tâches d'apprentissage et de mémorisation comme celle consistant à se souvenir de l'emplacement d'une plate-forme immergée dans un bassin d'eau opaque.

Dans une autre expérience, le taux de vitamine K a été abaissé par voie pharmacologique à l'aide de la warfarine, un anticoagulant oral plus connu sous le nom commercial de Coumadin. «Administrée à des doses massives, la warfarine a permis de bloquer le recyclage de la vitamine K et de réduire son taux à 30 % dans le cerveau. Même en bas âge, les rats soumis à ce traitement ont éprouvé les mêmes difficultés d'apprentissage que les rats âgés qui avaient toujours suivi une diète pauvre en vitamine K.»

À la lumière de ces expériences, Guylaine Ferland a voulu savoir ce qu'il en était du rôle de la vitamine K chez les personnes âgées. «Nous avons observé que les patients qui sont au premier stade de la maladie d'Alzheimer ont des apports de vitamine K deux fois plus faibles que les gens du même âge en santé», mentionne la chercheuse. Même si les connaissances actuelles ne permettent pas de dire si c'est la maladie qui entraîne une réduction des apports de vitamine K ou si de faibles apports de cette vitamine constituent un facteur de risque, les données montrent que le groupe de patients consommait significativement moins de légumes verts riches en vitamine K que le groupe témoin.

Dans une autre étude effectuée dans le cadre du vaste projet NuAge par Nancy Presse, étudiante au doctorat au Département de nutrition, un groupe de personnes âgées sélectionnées pour leurs très bonnes performances cognitives se sont appliquées à mémoriser des listes de mots qu'elles devaient par la suite répéter à haute voix à trois reprises à l'intérieur d'une période de 20 minutes. «Au premier rappel, tous les sujets réalisaient des performances comparables. Mais aux deuxième et troisième rappels, les participants qui présentaient un taux plus faible de vitamine K avaient de moins bonnes performances mnésiques», affirme Mme Ferland.

L'organisme a besoin de très peu de vitamine K, soit 120 microgrammes par jour pour un homme et 90 pour une femme. Cette faible quantité, comparativement aux autres vitamines dont les besoins se calculent en milligrammes, s'explique par le fait qu'environ 70 % de la vitamine K est recyclée par l'organisme. On trouve principalement cette vitamine dans les légumes verts (plus ils sont foncés, plus ils en contiennent), les huiles de canola, de soya et d'olive, certaines noix (pistaches) et certaines légumineuses (soya, lentilles, haricots mungo). Puisqu'elle est facile à trouver et qu'un faible apport suffit, le fait que certaines personnes souffrent d'une carence est le signe d'une consommation insuffisante de légumes, estime Guylaine Ferland.

Université de Montréal

DMLA : une piste pour retarder le développement de la maladie
Vendredi, 13/04/2012 - 06:00

Un composé inflammatoire présent dans l’œil pourrait contribuer à freiner le développement de la dégénérescence maculaire liée à l’âge.

La dégénérescence maculaire liée à l’âge est une maladie de la rétine -pouvant entraîner la cécité- qui touche essentiellement les seniors. Elle détruit peu à peu le centre de la rétine de l’œil, privant ainsi la personne d’une partie de sa vision centrale. La DMLA existe sous deux grandes formes, la forme humide à évolution rapide et la forme sèche plus lente mais aussi destructrice. Des thérapies existent pour stopper l'évolution de la forme humide mais rien n'existe contre la forme sèche qui affecte la vie et le quotidien de 800.000 personnes.

Des scientifiques au Trinity College de Dublin (Irlande) ont toutefois, peut-être, découvert une piste permettant de freiner l’évolution de cette forme sèche, dont un nombre important de cas progressent vers la forme humide avec apparition de néovaisseaux sur la rétine.

Ils ont identifié une protéine cytokine secrétée par les cellules immunitaires, IL-18, qui joue un rôle dans l’inflammation de la rétine. «Traditionnellement, l'inflammation de la rétine, voire de l'œil en général n'est pas bénéfique et c’est une caractéristique pathologique de nombreuses maladies oculaires, y compris la DMLA. Cependant, nous avons identifié cette cytokine IL-18 qui agit comme un facteur anti-angiogénique, pour prévenir la progression de la DMLA humide», explique le Docteur Matthew  Campbell dans la revue Nature Medicine.

Selon les auteurs, leurs résultats suggèrent que la maîtrise des niveaux d’IL-18 dans la rétine, et l’augmentation de ces niveaux dès la détection des premiers symptômes de la forme sèche, pourrait empêcher la transition vers la forme humide dont l’évolution défavorable est rapide.

Ces données préliminaires doivent être confirmées avec de nouvelles études. En attendant, il est conseillé aux personnes de plus de cinquante ans de se rendre régulièrement chez l’ophtalmologiste, et pour les fumeurs d’essayer d’arrêter, le tabac étant un facteur de risque important de la forme sèche de la DMLA.

Sciences et Avenir

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'eau virtuelle : un baromètre des ressources globales
Samedi, 14/04/2012 - 01:30

La plupart des échanges commerciaux impliquent l’utilisation d’une certaine quantité d’eau dans le pays producteur. Bien que «virtuel», le commerce du précieux liquide donne des indications cruciales sur l’évolution des ressources. D’étonnantes conclusions viennent d’être publiées dans PNAS.

Plus de six fois le volume du lac Léman, soit 567 milliards de litres. Tel a été le bilan, en 2007, des «échange d’eau virtuelle» à l’échelle de la planète. C’est deux fois plus qu’en 1986 !

Tout bien produit à un certain endroit, en particulier les biens agricoles, nécessite de l’eau. L’importer dans un pays étranger revient en quelque sorte à l’importer elle-même, d’où la notion d’«eau virtuelle». «Ce concept prend tout son intérêt lorsqu’on l’observe en terme de flux entre les pays, et surtout d’évolution de ces flux», explique Andrea Rinaldo, directeur du Laboratoire d’écohydrologie (ECHO) de l’EPFL. Il a été développé il y a une vingtaine d’année par un chercheur britannique, John Anthony Allan, du King’s College de Londres.

Le chercheur de l’EPFL a publié dans Proceedings of the National Academy of Science (PNAS) et en partenariat avec l’Université Princeton, une nouvelle étude basée sur cette notion. Celle-ci compare les échanges d’eau virtuelle entre 1986 et 2007, et observe par exemple que l’Asie a fait augmenter ses importations de plus de 170 % durant cette période. La Chine, en particulier, a fait exploser la statistique, surtout à cause d’une décision politique qui s’est traduite, dès 2000, par des achats massifs de soja. Le pays se fournit désormais essentiellement au Brésil. Cela implique certes une moins grande utilisation d’eau d’irrigation que pour la production domestique, mais au prix d’une pression encore plus forte sur la forêt amazonienne… De façon générale, l’Asie trouve désormais en Amérique du Sud ses principaux partenaires commerciaux pour l'eau virtuelle.

«L’un de nos constats les plus remarquables est toutefois que la globalisation alimentaire induit une efficacité accrue dans la gestion globale des ressources en eau», estime Andrea Rinaldo. A l’instar de la Chine pour le soja, les pays moins efficaces du point de vue de l’utilisation de l’eau importent davantage en provenance de pays mieux arrosés. En 2007, cela s’est traduit par une augmentation globale de 9 % du rendement agricole par litre d’eau utilisé.

  • Un réseau auto-organisé

Les chercheurs de Princeton et de l’EPFL observent que chaque pays est connecté à 47 partenaires en moyenne. «Il est intéressant de remarquer que les échanges se sont auto-organisés en réseaux, avec des liens et des nœuds, et que ceux-ci se réarrangent d’eux-mêmes, par exemple en cas d’embargo économique», commente le spécialiste. Environ 6500 de ces liens ont pu être dénombrés en 2007, un nombre qui a doublé entre 1986 et 2001 avant de se stabiliser.

La compréhension de ces réseaux fournit de précieux outils pour établir des prévisions économiques et sociales de portée planétaire. Elles mettent en lumière une utilisation d’eau qui, à l’échelle d’un pays, peut se révéler non durable. «Nous pouvons désormais formuler des hypothèses sur l’évolution future de ces échanges et entrevoir quels seront les pays riches et les pays pauvres du futur. Notre espoir est que cela contribuera à ce que la croissance de la population ne condamne pas certaines régions du monde à la famine.»

Enerzine

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Quand le Grand Lyon facilite la vie des usagers dans leurs déplacements
Dimanche, 15/04/2012 - 01:10

Les enjeux de mobilité se concentrent de plus en plus dans les centres urbains, compte tenu de leur importance croissante dans le monde, et en Europe en particulier (75 % des habitants de l’Union Européenne vivent dans des agglomérations). Ce phénomène de concentration urbaine génère des difficultés marquées dans les zones périurbaines et les centres urbains, avec un usage excessif de la voiture, respectivement pour accéder à la ville centre, compte tenu de l’étalement urbain, mais aussi pour des distances parcourues relativement faibles en voitures particulières (VP) en centre ville.

L’agglomération de Lyon dispose de nombreuses infrastructures de transports et d’offres de services qui s’étoffent sans cesse. Si l’offre de déplacements est très importante et les réseaux maillés, l’information est éclatée en autant de sites que d’organisations (la Région, la SNCF, les conseils généraux, le Sytral, l’Etat, les sociétés d’autoroutes, le Grand Lyon …etc), ce qui ne facilite pas la vie des usagers.

Le projet vise à :

• répondre aux attentes des usagers en matière d’information sur les transports,

• amplifier et accélérer le report modal de la VP vers les autres modes,

• optimiser les opérations de fret urbain en développant une plate-forme d’informations tous modes, intégrant dans un même entrepôt de données l’ensemble des données mobilités du territoire (topologie des réseaux, temps théorique, temps réel, temps prévu à 1h, qualité de l’air…), qui sera la pierre angulaire d’expérimentations de services ITS innovants pour les voyageurs et les professionnels du fret.

Les retombées attendues du projet sont au nombre de quatre :

• Des services de haut niveau au quotidien pour les habitants du Grand Lyon et ceux qui se déplacent dans l’agglomération, avec des services d’information très performants sur les conditions prévisibles et en temps réel de mobilité ;

• Sur le plan environnemental et énergétique : le projet vise des objectifs ambitieux, avec un report de 8 % de la part modale, soit un gain visé de 200 000 tonnes de CO2 économisé annuellement à horizon 2020 sur l’agglomération lyonnaise ;

• Sur le plan socio-économique : le report modal attendu participera à l’amélioration de la qualité de l’air, les usagers particuliers et professionnels réduiront le temps passé dans les transports grâce à l’information et l’optimisation de l’exploitation des réseaux ;

• Sur le plan du développement économique : à travers les synergies développées au sein du projet, les entreprises partenaires concrétiseront des offres commerciales de haut niveau à l’échelle internationale, transférables sur d’autres métropoles européennes. Ce projet au budget de 6,93 millions d’euros sur 3 ans, générera 83 millions d’euros de chiffre d’affaires d’ici 2020, pour une aide attendue de 3,33 millions d’euros, soit un effet de levier considérable.

Ademe

Ademe

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top