RTFlash

RTFLASH Recherche & Technologie
NUMERO 660
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Juillet 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Facebook, évitez d'être laide sur les photos de vos amies
On apprend mieux en ligne que dans un amphithéâtre
Facebook devient opérateur télécoms
Vacances : les Français déconnectent...connectés
TFTLabs invente la messagerie instantanée en 3 D !
La vie quotidienne sera-t-elle un grand terrain de jeu en 2020 ?
Avenir
Des nano-bombes vasodilatatrices à retardement contre l'athérosclérose
Des jambes robotisées pour une marche presque parfaite
La réalité virtuelle au service de la formation : un outil prometteur
Un robot à l'épreuve des chocs
Matière
L’interface entre deux matériaux non conducteurs peut être conductrice
Une nouvelle molécule qui révolutionnerait l'industrie du nucléaire
Des microprocesseurs de taille atomique grâce à des films ultra-minces
Energie osmotique : vers une nouvelle étape
Des nouveaux matériaux composites à base de nanocellulose
Refroidissement et climatisation à partir de la chaleur
ASTRID : signature d’un accord de collaboration entre le CEA et Bouygues Construction
Espace
Entre étoile et planète : une naine brune en formation
Terre
Biodiversité et stockage du carbone : peu de pertes pour les forêts tropicales exploitées
Mieux comprendre l'impact de l'acidification accélérée des océans
Vivant
L'effet « coupe-faim » des protéines élucidé
Le manque de sommeil stresse notre système immunitaire
Des chercheurs zurichois créent un ordinateur cellulaire
H1N1 : une épidémie quinze fois plus meutrière que prévue
Anorexie : la thérapie familiale donne de bons résultats
Le stress, facteur de risque dans la maladie d'Alzheimer ?
Une thérapie cellulaire pour augmenter la durée de vie
Le café réduirait le risque de cancer de la prostate agressif
Une nouvelle étape vers un vaccin anti-tabac
Diagnostiquer la maladie de Parkinson à la voix
Traiter le cancer comme une maladie chronique
Les Européens combattent la tuberculose à l'aide d'une technique innovante
Recherche
Vladivostok inaugure le pont à haubans le plus long du monde
Edito
Autisme : où en est la recherche ?



L'autisme a été déclaré "grande cause nationale" en 2012 mais cette maladie déroutante, dont les origines ne sont pas clairement établies, reste mal connue du grand public. En fait, derrière le terme générique d'autisme, on trouve une grande diversité de situations et d'affections regroupées à présent sous l'appellation de "troubles du spectre autistique" (TSA).

Ces troubles du spectre autistique ont en commun de se traduire par des dysfonctionnements dans le fonctionnement des neurones situés dans le cortex du cerveau humain, ce qui se traduit par une altération plus ou moins importante dans la transmission et le traitement des informations par le cerveau. L'autisme est d'une complexité redoutable car ces dysfonctionnements semblent impliquer simultanément de nombreux niveaux d’organisation dans le cerveau, qu'il s'agisse du cortex, de l'organisation des dendrites (arborescences des neurones), des synapses (connexion entre neurones) ou encore de modifications plus importantes de certaines structures cérébrales. Il est à présent admis par la majorité de la communauté scientifique que ces altérations qui s'expriment par des troubles du comportement et par une perte de capacité à communiquer avec les autres ont de multiples causes, avec une composante génétique dont l'importance varie probablement selon les sujets et de nombreux facteurs de risques intriqués et encore mal identifiés.

On estime aujourd’hui que 600 000 personnes en France sont touchées par ce handicap, dont 150 000 enfants. On estime que plus de la moitié des adultes soignés dans des hôpitaux psychiatriques seraient en fait atteints d’autisme et ne bénéficient pas d'une prise en charge adéquate dans des structures spécifiquement adaptées à leurs troubles autistiques. On comprend mieux le défi que représente l'autisme en matière de santé publique quand on sait que l’Inserm estime qu'un enfant sur 150 naît autiste, soit 8000 enfants par an !

S'agissant des structures d’accueil et de prise en charge et de la détection précoce de cette maladie complexe et multifactorielle, la France est également très en retard par rapport à d’autres pays comme les USA, le Canada ou les pays scandinaves qui on mis en place une détection de l'autisme dès l’âge de 2 ans et demi chez les enfants alors qu'en France le diagnostic de l'autisme n'est établi que vers 5 ou 6 ans.

Ce diagnostic tardif complique la prise en charge précoce des malades, pourtant essentielle mais cette situation va peut-être changer. En mai 2011, le professeur Karen Pierce (Centre d'excellence sur l'autisme, San Diego) a en effet présenté les résultats de ses recherches qui montrent qu'un test simple, rapide et efficace de dépistage de l'autisme est envisageable.

Ce test a été effectué sur 10 000 nourrissons d'environ un an. Il repose sur un questionnaire simple rempli par les parents et portant sur l'aptitude à communiquer des nouveaux nés. Sur ces 10.000 enfants, 200 présentaient des troubles de la communication et parmi ceux-ci 32 souffraient d'une forme d'autisme. Grâce à ce test, les enfants autistes repérés ont pu bénéficier dès l'âge d'un an et demi d'une thérapie (Voir Article).

Une autre étude portant sur 92 nourrissons de six mois à deux ans, qui ont la particularité d'avoir tous une sœur ou un frère aîné atteint d'autisme, a été réalisée par un réseau universitaire nord-américain et publiée récemment dans l'American Journal of Psychiatry (AJP). Elle montre qu'il est possible de détecter, à partir de l'âge de six mois, des différences importantes dans le développement cérébral de nourrissons qui présentent un risque élevé d'autisme. Cette étude montre que le développement cérébral anormal peut être détecté très précocement, avant l'apparition de symptômes d'autisme.

Comme le souligne le Professeur Evans (Hôpital neurologique de Montréal), "nous avons pour la première fois un résultat qui rend possible la détermination de biomarqueurs de risque de l'autisme avant l'apparition de symptômes et avant notre capacité à diagnostiquer l'autisme". Selon Evans, c'est la structure de la substance blanche (des faisceaux de fibres reliant différentes aires cérébrales) qui semble déterminer le risque d'apparition de l'autisme chez les nourrissons observés dans le cadre de cette étude (Voir articles AJP et Université Mc Gill).

On voit donc que la compréhension des bases neurobiologiques de l'autisme a fait des progrès remarquables au cours de ces dernières années, comme le confirment les différentes annonces faites à l'occasion de l'IMFAR, congrès international de la recherche sur l'autisme qui s'est déroulé début juin à Toronto. Au cours de ces rencontres, la firme IntegraGen a annoncé l'identification de 57 nouveaux marqueurs génétiques (SNP - Single Nucleotide Polymorphisms) qui permettent d'évaluer avec un haut niveau de probabilité le risque qu'un frère ou une sœur d'enfant atteint d'un trouble du spectre autistique (TSA) soit également touché par cette affection.

Ces résultats confirment et prolongent la publication en février 2011 d'une étude qui montrait le rôle de 8 SNPs liés à l'autisme (Autism risk assessment in siblings of affected children using sex-specific genetic scores) publiée dans la revue Molecular Autism (Voir Article). Comme l'a souligné l'auteur principal de cette étude, le Docteur François Liebaert, « en étudiant toute un série de marqueurs spécifiques au sexe de l'enfant, garçon ou fille, nous avons pu identifier les frères et sœurs d'enfants autistes présentant un risque sensiblement plus grand d'être eux-mêmes touchés par une forme d'autisme »

Fait remarquable, cette vaste étude a porté sur plus de 1100 familles comportant au moins deux enfants atteints d'une forme d'autisme. Les chercheurs ont pu démontrer le rôle combiné de certains variants génétiques communs (SNPs), associés à l'autisme. Bien qu'aucun de ces variants ne puissent, à lui seul, provoquer l'apparition de l'autisme, cette étude a confirmé que l'association de ces variants permettait bien d'évaluer de manière fine la probabilité de survenue d'un trouble autistique chez ces enfants.

Une autre percée a été récemment réalisée par une étude britannique. Elle s’appuie sur l’imagerie cérébrale par résonance magnétique et confirme le lien de causalité entre certaines modifications neuro-anatomiques et l'apparition de troubles du spectre autistique.

Cette étude très intéressante montre que les autistes présentent bien certaines différences neuro-anatomiques au niveau du cerveau. Elle montre en effet que les autistes semblent présenter une augmentation significative du volume de matière grise dans le lobe temporal mais également dans le cortex préfrontal. A la lumière de cette étude, il semblerait donc que l’autisme soit lié, au moins en partie, à la présence de certains dysfonctionnements particuliers dans la connectivité du cerveau.

En matière de traitements de l'autisme, les choses évoluent également : en avril dernier, une étude américaine a montré qu'une molécule baptisée GRN-529 et ciblant spécifiquement le glutamate, le principal neurotransmetteur, permet de réduire sensiblement certains troubles de l'autisme chez la souris. Le GRN-529 est actuellement en cours d'expérimentation clinique sur des malades souffrant du syndrome de l'X fragile, une forme de retard mental héréditaire qui présente certains points communs avec l'autisme.

Il faut enfin évoquer l'étude réalisée entre 2003 et 2009 par l’Université de Californie sur 700 familles ayant des enfants autistes. Cette étude a révélé que les femmes ayant un déficit de vitamine B9 (acide folique) pendant leur grossesse ont deux fois plus de risque d'avoir des enfants qui développeront une forme d'autisme, ce risque étant multiplié par 7 dans le cas d'un facteur génétique associé.

On savait déjà qu'en début de grossesse, la prise d'acide folique permettait de prévenir les malformations du tube neural et de réduire le risque de fausse-couche. Cette nouvelle étude a montré que les femmes qui prenaient 0,6 gramme d'acide folique par jour avaient sensiblement moins de risques d'avoir un enfant autiste.

La compréhension, le traitement et la prise en charge de l'autisme qui implique de manière inextricable et circulaire de multiples facteurs biologiques, familiaux, sociaux et environnementaux, représentent un enjeu humain, social et médical majeur et passent par une collaboration accrue entre spécialistes des différentes disciplines impliquées : neurobiologistes, généticiens, psychiatres et psychanalystes notamment. Heureusement, cette approche pluridisciplinaire gagne du terrain et doit être encouragée à tous les niveaux de la recherche, de manière à dépasser les querelles stériles qui peuvent opposer certains tenants des différentes approches conceptuelles et scientifiques de cette affection multiforme et complexe.

Face au désarroi et à la souffrance des familles touchées par cette affection, il faut souhaiter que l'ensemble des acteurs sociaux, scientifiques et médicaux concernés parviennent, dans le respect de leurs spécificités et de leurs différences, à s'unir et à collaborer plus efficacement pour pouvoir proposer des perspectives thérapeutiques nouvelles à ces êtres prisonniers de leur "citadelle intérieure".

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Facebook, évitez d'être laide sur les photos de vos amies
Mercredi, 11/07/2012 - 01:10

Une étude montre que les femmes ont tendance à mettre en ligne des photos peu flatteuses de leurs amies, après une déception ou pour se venger.

C’est la sacro-sainte amitié entre filles qui va en prendre un coup ! D’après The Telegraph, une étude menée pour Mymemory.com, site spécialisé dans la création d’albums et de calendriers photo, sur un panel de 1 500 femmes de plus de 18 ans, montre l’impensable. Un quart des sondées reconnaissent poster des photos peu flatteuses de leurs amies en ligne (comprenez où ces dernières sont « laides » pour traduire directement le ugly anglais), principalement sur Facebook. Les raisons de cet acte grave de trahison vont d’une déception amicale, dans la majorité des cas, à la recherche sournoise de la vengeance pour presque un tiers des personnes interrogées.

Une vengeance certainement atteinte quand deux femmes sur cinq annoncent sans frémir avoir publié des clichés de leurs (futures-ex ?) amies sans maquillage ! Ici, les mots nous manquent… Pire encore, un cinquième des vengeresses admettent avoir refusé de retirer une photo après une demande éplorée.

Facebook, bien conscient qu’il ne vaut mieux pas interférer dans une dispute entre deux furies, refuse de supprimer des images si elles ne contreviennent pas à son règlement. Ce qui oblige 75 % des personnes sondées à se « de-tagger » régulièrement d’une photo qui ne leur rend pas hommage. Un travail titanesque !

Pour autant, attention tout de même, si vos amies postent des photos ratées de vous, ne rompez pas immédiatement votre relation, c’est peut-être simplement qu’elles n’ont aucun talent.

01net

On apprend mieux en ligne que dans un amphithéâtre
Lundi, 09/07/2012 - 01:30

L'enseignement en ligne accessible à tous et gratuit est la forme d'éducation de l'avenir, mais elle est aussi... la meilleure. Tandis que l'Unesco souligne que la numérisation de l'enseignement est le meilleur moyen de garantir le développement dans le monde dans les prochaines décennies, une étude menée pendant plusieurs années par l'Université Carnegie Mellon de Pittsburgh montre que cette forme d'enseignement est la… plus efficace. Cela bouscule bien des idées reçues sur la meilleure façon d'apprendre.

Carnegie Mellon a lancé il y 10 ans en 2002 «L'Open Learning Initiative» (L'initiative d'enseignement ouvert). Elle offre gratuitement en ligne les cours d'une des plus prestigieuses universités américaines à ceux qui en font la demande. Des études ont été menées en 2005, 2006 et 2007 sur les performances des étudiants qui ont suivi les cours en ligne par rapport à celles de leurs homologues présents sur le campus de Pittsburgh. Première surprise, les résultats aux examens des uns et des autres ne sont pas différents et surtout les étudiants qui travaillent en ligne apprennent bien plus vite. Il leur faut en moyenne moitié moins de temps pour absorber l'enseignement d'un semestre et ils sont ensuite aussi bons ou meilleurs que les étudiants «traditionnels».

Si le concept de l'OERs (Open education ressources) est simple - mettre à disposition des outils d'enseignement qui sont accessibles et peuvent être utilisés par n'importe qui n'importe où - son potentiel est considérable. L'Unesco qui en est persuadé a tenu il y a quelques jours le premier congrès mondial sur le Open Educational Resources considéré comme la solution à la fois pour résoudre la crise mondiale de l'éducation et de son manque de ressources à l'échelle planétaire et par voie de conséquence pour assurer le développement économique au XXIème siècle. Car sans progrès de l'enseignement, il n'y a pas de développement durable des sociétés et de progrès économique.

L'enseignement en ligne est efficace comme le montre l'étude de Carnegie Mellon mais il est économiquement accessible explique The Guardian. Il réduit considérablement le coût de l'éducation. Dans le nord-ouest des Etats-Unis, la décision de l'Etat de Washington de numériser et de rendre disponibles gratuitement 81 cours de ses meilleurs collèges (Universités) devrait permettre aux étudiants d'économiser 40 millions de dollars par an. Le coût initial de la numérisation (1,8 million de dollars) a été plus que rentabilisé dès la première année.

Une à une, les plus grandes universités du monde comprennent l'avenir de l'enseignement en ligne et l'importance pour elles d'en être. En mai dernier, l'université d'Harvard a annoncé qu'elle s'associait au MIT (Massachusetts Institute of Technology) pour créer edX, une plate-forme qui donne un accès gratuit à des cours de hauts niveaux à des étudiants partout dans le monde. L'université de Stanford en Californie devrait lancer une plate-forme similaire très prochainement.

Slate

Facebook devient opérateur télécoms
Lundi, 09/07/2012 - 01:20

Le géant des réseaux sociaux va investir dans un câble sous-marin pour offrir un meilleur service à ses utilisateurs en Asie. Google avait fait de même il y a quelques années.

On attendait le Facebook phone, on aura plutôt le câble Facebook. Le plus grand réseau social du monde va investir dans un projet à 450 millions de dollars de câble sous-marin de fibre optique en Asie, le consortium Asia Pacific Gateway. Le projet, qui devrait démarrer avant la fin de l'année pour s'achever fin 2014, est de desservir toute la région, connectant directement la Malaisie à la Corée du Sud et au Japon, avec des ramifications vers la Chine, Hong Kong, Singapour, Taïwan et le Vietnam. Révélée par le site spécialisé dans les télécoms Commsday, l'information a été confirmée par Facebook. « Nous réalisons cet investissement pour accompagner notre croissance en Asie du sud et offrir un meilleur service à nos utilisateurs dans cette région » a expliqué une porte-parole du réseau social aux 900 millions de membres.

  • Google dans un câble transpacifique

C'est le premier investissement direct de la firme de Menlo Park dans un tel projet de câble sous-marin. Selon le document officiel d'un des partenaires du consortium, le malaisien Time dotCom, ce câble, long de 10.000 kilomètres, construit par le japonais NEC, serait conçu pour offrir un débit maximal exceptionnel de 54,8 Térabits par seconde, grâce à la technologie de transmission optique 40 Gbits/s. Parmi les autres membres du consortium, figurent les principaux opérateurs télécoms chinois, China Mobile, China Telecom, China Unicom, mais aussi le japonais NTT, les coréens KT et LG Uplus, etc. On ne connaît pas l'investissement précis de Facebook. Le groupe malaisien va dépenser pour sa part 45 millions de dollars.

Facebook, qui construit également ses propres data centers, dont un géant en Suède, suit les traces de Google. Le moteur de recherche avait annoncé en 2008 qu'il investissait dans le consortium du câble sous-marin Unity, de 10.000 km de long dans l'Océan pacifique, entre les Etats-Unis et le Japon, un chantier qui s'est achevé en 2010 pour un coût d'environ 300 millions de dollars. De son côté, France Télécom a participé au déploiement du câble ACE (Africa Coast to Europe), long de 17.000 km entre le Finistère et l'Afrique du Sud, et desservant 23 pays africains en Internet haut débit. Ce câble, qui doit entrer en service au second semestre 2012, a coûté environ 700 millions de dollars, dont 250 millions pris en charge par l'opérateur français et ses filiales.

La Tribune

Vacances : les Français déconnectent...connectés
Dimanche, 08/07/2012 - 01:10

Pour une maj­o­rité de Français il sera plus difficile pendant ces vacances de gérer la déconne­xion que les conne­xions... A moins de se trouver dans un trou pe­rdu. Une étude Re­gus révèle que plus de la moitié des Français proj­ettent de travailler pendant le­urs congés d'été.

Deman­dez à la cantonade, à vos collègues, à vos amis, quels sont le­urs proj­ets de vacances pour cet été, la réponse est quasi unanime : évacuer le stress en ne faisant... Rien ou pre­sque rien. S'agirait-il d'un vœu pieux ? Si l'on en croit une étude menée par Re­gus auprès de 16 000 pe­r­sonnes dans plus de 80 pays afin de savoir s'ils travaille­ront pendant leur break estival, la réponse est....​oui ! Plus de la moitié des actifs français (58 %) de­vraient consacrer plu­sieurs he­ures par jour à leur travail au lieu de se délasser, voire de se prélasser en famille et/ou en­tre amis. 44 % de nos concitoyens prévoient ainsi de travailler de 1 à 3 he­ures par jour cet été du­rant le­urs congés, 48 % des actifs tous pays confon­dus. Et 14 % des français accros au travail travaille­ront eux plus de trois he­ures par jour (20 % au niveau mondial).

  • Plutôt dans les TPE-PME et dans les médias ou le marketing

Mais tous les actifs ne lo­gent pas à la même enseigne. Les collabo­rate­urs des TPE-PME sont 48% à affir­mer qu'ils travaille­ront de 1 à 3 he­ures par jour pendant le­urs vacances, con­tre 37 % des salariés des gran­des en­tre­prises et 19 % de ceux des moyennes en­tre­prises. De même, 17 % des salariés des TPE-PME travaille­ront plus de 3 he­ures par jour au cours de le­urs congés, con­tre res­pective­ment 7 % et 4 % de ceux des gran­des et moyennes en­tre­prises. Les collabo­rate­urs exerçant dans le secteur des médias et du marketing sont 22 % à dire qu'ils travaille­ront plus de 3 he­ures par jour pendant leur pause estivale. Ces pourcentages sont de 15 % pour les salariés de la banque-as­su­rance, de 14 % pour ceux du conseil, et de 9 % pour ceux des TIC.​ Il sem­ble­rait aussi que ceux dotés de climat favo­rable ne rechignent pas à mixer allègre­ment farniente et travail : 50 % des tou­lousains et 48 % des lyonnais travaille­ront jusqu'à 3 he­ures par jour pendant le­urs vacances.

  • Les Français davantage connectés que les An­glais et les Alle­mands

Conséquence des conne­xions à te­mps plein où il est bien rare de ne pas céder à la tentation de jeter un œil sur ses mails chaque jour. Mais certains travaille­urs y voient aussi l'avantage de mieux gérer ainsi le stress du re­tour avec ses centaines de mail en attente...​ Le risque étant bien sûr de céder à la tentation de finir certaines tâches qui en découlent. No­m­breux sont les Français qui re­ste­ront ainsi sco­tchés à le­urs smart­phones et le­urs ne­tbooks pendant le­urs vacances : 39 % d'en­tre eux _37% à l'éche­lle mondiale_  déclarent qu'ils passeront des coups de fils et con­sulte­ront le­urs e-mails, davantage connectés donc que le­urs ho­mo­logues an­glais (25 %) et alle­mands (10 %), mais moins que les américains (42 %).

En France, 43 % des em­ployés des TPE-PME ont affirmé qu'ils re­ste­ront connectés pendant le­urs vacances, con­tre 32 % de ceux des gran­des en­tre­prises et 23 % de ceux des moyennes en­tre­prises. En te­rme de secteur d'activité, les dis­parités sont gran­des : 67 % des collaborateurs exerçant dans les médias et le marketing re­ste­ront connectés, con­tre 41 %, 38 % et 33 % de ceux de la banque-as­su­rance, du conseil et des TIC. A l'éche­lle locale, ce sont les Niçois qui con­sulte­ront le plus le­urs e-mails et seront les plus no­m­breux à passer des appels profe­ssionnels (44 %). Un pourcentage de 41 % pour les Tou­lousains, 40 % pour les Parisiens, 36 % pour les Lyonnais et 33 % pour les Strasbour­geois.

Répondre, ne se­rait-ce qu'à une dizaine de mails, c'est déjà une he­ure pendant laquelle l'univers du bureau débarque toutes voiles dehors sur la plage. Quand ce n'est pas à la table du pe­tit déjeuner familial... ​Finale­ment, pendant ces vacances, il sera plus difficile de gérer la déconne­xion que les connexions...​ Reste à gar­der du te­mps pour les conne­xions avec le genre humain mais aussi avec son co­rps et ses sensations, si on veut un tant soit peu abo­r­der la rentrée avec le sourire...

La Tribune

TFTLabs invente la messagerie instantanée en 3 D !
Samedi, 07/07/2012 - 01:30

La visualisation 3D interactive serait-elle une spécialité lyonnaise ? On peut se poser la question avec la création de TFTLabs qui lance des outils de visualisation 3D fonctionnant à travers le Cloud Computing. En effet, l’équipe de cette start-up avait déjà été à l’origine de Trade & Technologies France (TTF), du logiciel Project Reviewer et du format compressé PRC, passés dans le giron d’Adobe en 2006 et dont la technologie a servi de base au PDF 3D.

« Dans les années 2000, nous avions utilisé l’état de l’art de la technologie pour créer des outils de visualisation s’affranchissant des logiciels de CAO servant à créer les modèles 3D. A tel point que nous pouvions créer à l’écran des assemblages ultralégers composés de modèles issus de systèmes hétérogènes. Aujourd’hui les avancées de la technologie se font sur le Web et le Cloud Computing, c’est pourquoi ils sont au cœur de notre offre », explique Jean-Luc Brocard, directeur général et co-fondateur de TFTLabs.

Et de fait l’équipe d’une quinzaine de développeurs est partie voici deux ans d’une feuille blanche, avec en tête 3 axes directeurs : communication, ouverture et évolutivité.

« Pour bien communiquer, il faut que les données 3D soient accessibles et manipulables par ceux qui en ont besoin à travers n’importe quel navigateur Web, sur n’importe quelle plate-forme, même nomade, avec un bon niveau de sécurité. C’est pourquoi toute notre technologie est basée sur des standards (HTML 5, Javascript, WebGL…), le format compressé JSON (JavaScript Object Notation) éditable textuellement et des API en JavaScript/Representational State Transfer (REST), afin de garantir la pérennité de l’accès aux données des utilisateurs », explique François Chrétien, président et co-fondateur de TFTLabs, qui est responsable du développement.

L’offre de TFTLabs se décline en quatre produits. Les éditeurs d’outils de création de modèles 3D (CAO, calcul…) qui veulent adopter cette nouvelle technologie de visualisation pour l’intégrer à leur offre, doivent utiliser un ‘‘tools kit’’ permettant de sauvegarder directement les modèles 3D en format JSON, c’est TFT4iT. Sa technologie et son accessibilité via le Web leur évitent l’installation et la mise à jour de bibliothèques graphiques avec les sauts de versions que cela suppose pour les clients. Les modèles sont bien évidemment ‘’nettoyables’’ pour ne communiquer que l’information souhaitée aux partenaires.

Mais tout utilisateur d’outils de CAO 3D peut aussi utiliser cette technologie, même si elle n’est pas encore adoptée par l’éditeur. Il lui suffit de se connecter sur le site de TFTLabs, de créer un compte avec login et de lancer TFTWeb. Il peut alors ouvrir tous ses fichiers, plus de 20 formats CAO sont déjà supportés, et les partager en format JSON avec ses partenaires, via le serveur Web TFTSrv qui peut être hébergé soit sur le Cloud soit au sein de l’outil de GDT de l’entreprise. Mais l’utilisateur peut aller bien au-delà du simple partage de fichiers en créant avec TFTWeb des pages Web actives personnalisables incluant des modèles 3D animables (séquence de montage, vue éclatée…), des annotations, des cotations, etc.

Ces pages, partagées en temps réel, peuvent alors servir à conduire des réunions au cours desquelles les modifications apportées au modèle original par son créateur sont visibles par le destinataire dès leur sauvegarde, et dont les traces seront stockées dans l’outil de GDT de l’entreprise. « Nous sommes en face d’un véritable système de messagerie instantanée en 3D », estime Jean-Luc Brocard. Quant au paiement, il ne se fait plus par achat de licence, mais en fonction de la quantité réelle d’informations traitée par l’application, avec un certain nombre de forfaits incluant des volumes et des services progressifs dont les prix devraient se situer entre 60 et 100 € par mois.

Industrie & Technologies

La vie quotidienne sera-t-elle un grand terrain de jeu en 2020 ?
Vendredi, 06/07/2012 - 05:20

La ludification devrait se répandre d'ici 2020 et fera sans doute partie intégrante de notre vie de tous les jours. Ses racines dans la culture pré-digitale des consommateurs suggèrent qu'elle est là pour durer.

Les start-up et fournisseurs de services découvrent sans cesse de nouvelles manières d'implémenter la gamification : des mécaniques de jeu et systèmes de récompense à la mode qu'on voit fleurir partout, de l'enregistrement dans les applications aux suites de productivité au travail. Certains analystes technologiques prévoient que ces outils feront partie intégrante de notre vie d'ici à 2020, mais leurs théories sur la façon dont cela se manifestera diffèrent. Une partie est d'avis que les éléments de jeu peuvent constituer une aide dans les secteurs où ils apparaissent, comme par exemple l'éducation, la santé, l'entreprise et la formation. Une autre partie voit plus loin et y voit une façon de manipuler en douce le comportement des utilisateurs. Un rapport conjoint de l'université d'Elon et de l'Internet & American Life Project de Pew examine les différents points de vue relatifs à la façon dont les « couches de jeux » affecteront ces secteurs dans le futur.

De nombreux experts ayant répondu à l'enquête considèrent 2020 prématuré pour constater un résultat probant de l'influence croissante de la gamification. Ceci dit, le décollage pourrait être affecté de manière significative par la façon dont les organisations culturelles l'utilisent : cela pourrait la faire passer de la tour d'ivoire des start-up à l'homme de la rue. Un des experts interrogés estime que « si les églises, les clubs comme le Rotary et les Kiwanis estiment qu'ils peuvent mieux remplir leur mission en faisant passer certaines activités ludiques de don sur le smartphone de leurs membres, nous aurons dépassé une barrière culturelle importante. »

L’étude suggère par ailleurs que le terme ludification est peut-être relativement inadapté. Les jeux seront de plus en plus ancrés dans les attentes des clients quand ils sont en ligne, font des achats ou utilisent des logiciels, et dans la vie quotidienne. Par conséquent, tout en se banalisant, le terme « ludification » pourrait perdre de son sens, et par conséquent, dans le processus de déploiement de masse, on verra probablement éclore une nouvelle appellation plus précise et plus adaptée, comme par exemple « sociologie inférentielle ». En effet, la ludification elle-même n'est pas si nouvelle : nous adaptons simplement à la sphère digitale des comportements déjà existants. Ce qui est réellement nouveau, c’est l’ampleur du phénomène et son omniprésence.

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Des nano-bombes vasodilatatrices à retardement contre l'athérosclérose
Mercredi, 11/07/2012 - 01:20

Alors que les maladies cardiovasculaires et, en premier lieu, l'athérosclérose sont responsables d’un décès sur 3, un traitement intelligent qui permettrait de cibler juste les zones des vaisseaux malades, permettrait aussi d’éviter tous les effets secondaires des traitements existants qui vont dilater les vaisseaux sains comme malades, entraînant parfois une chute de la pression sanguine. C’est promesse tenue, avec cette recherche suisse présentée dans la revue Nature Nanotechnology qui ouvre une nouvelle voie en médecine vasculaire.

Afin d'accroître l'efficacité des traitements contre l'athérosclérose et limiter les effets secondaires, une équipe de chercheurs de l'UNIGE, des HUG et de l'Université de Bâle a développé la capacité de délivrer le vasodilatateur via de « nanocontainers » et exclusivement dans les zones malades.

Bien qu'aucun biomarqueur spécifique n’ait été identifié pour l'athérosclérose, un phénomène physique inhérent à la sténose ou rétrécissement des vaisseaux sanguins, connu en Physique sous le nom de « contrainte de cisaillement » a donné aux chercheurs un repère possible pour les zones malades. En faisant usage de ce phénomène, l'équipe de chercheurs a pu ainsi développer de micro-bombes à retardement sous forme de nano-réservoirs qui, sous la pression de la contrainte de cisaillement dans les artères sténosées, libèrent le médicament vasodilatateur.

En réorganisant la structure de certaines molécules thérapeutiques en nanocontainers, les scientifiques sont même parvenus à leur donner une forme de lentille, permettant à ces nanocontainers d’un nouveau genre de se déplacer sans encombre dans les artères saines. Ainsi, cette nanostructure s’avère stable sauf lorsqu’elle est soumise à la contrainte de cisaillement des artères sténosées. Le contenu vasodilatateur est donc distribué uniquement aux artères sténosées, augmentant ainsi considérablement l'efficacité du traitement et réduisant les effets secondaires.

« Une recherche qui ouvre de réelles nouvelles perspectives dans le traitement des maladies cardiovasculaires », explique Andreas Zumbuehl du Département de chimie organique de l'UNIGE.

Santé Log

Eurekalert

Des jambes robotisées pour une marche presque parfaite
Mercredi, 11/07/2012 - 01:00

Des scientifiques américains assurent avoir conçu la paire de jambes biomécaniques la plus performante du monde, un pas de géant vers la création de robots "doux", mieux à même d'aider et de fréquenter des humains selon eux. Ces jambes robotiques, moitié moins grandes que des jambes humaines, sont les premières du genre à imiter fidèlement la marche de l'homme et à reproduire son mode de déplacement si économe en énergie. Elles possèdent le même léger mouvement vertical grâce à des détecteurs placés dans les pieds, qui aident un petit ordinateur à ajuster le déplacement en fonction de la surface.

"L'une de nos idées, c'est de construire ce que j'appelle des robots doux, qui peuvent être utilisés à proximité des êtres humains", explique Anthony Lewis, qui a travaillé sur cette invention avec Theresa Klein, tous deux du Département d'ingénierie électrique et informatique de l'Université d'Arizona. "Avec ce robot, si vous poussez contre les jambes, il ne résiste pas. A l'inverse, les robots conventionnels sont issus des robots industriels et ils sont très raides : il ne serait pas prudent d'en laisser au voisinage de votre grand-mère", déclare le chercheur.

Selon l'étude publiée dans le Journal of Neural Engineering, les détecteurs placés dans les pieds ne sont que l'un des trois systèmes qui permettent à ces jambes artificielles d'imiter si bien la démarche de l'homme, bijou de mécanique et d'efficacité énergétique poli au fil de millions d'années d'évolution de notre espèce.

Le "squelette" des jambes reproduit les trois articulations des membres inférieurs - hanches, genoux et chevilles - et les muscles sont quant à eux simulés par des sangles, qui montent et descendent.

Mais tous les mouvements sont déterminés et coordonnés par une réplique électronique d'une partie du système nerveux humain, qui dicte le rythme des signaux musculaires après avoir collecté les informations fournies par différentes parties du corps sur son environnement. Raison pour laquelle nous parvenons à marcher sans y penser. "Lorsque nous avons combiné tous ces éléments, le mouvement qui en a résulté était très semblable à celui d'un être humain (...) particulièrement la hanche et le genou", souligne Anthony Lewis.

La prochaine étape consistera à inclure un système de vision pour contrôler la démarche, ainsi que d'autres détecteurs tactiles "de façon à ce que s'il trébuche, le système se corrige lui-même et ne tombe pas". Ces jambes sont destinées à la recherche fondamentale pour l'étude de la marche humaine, mais elles pourraient un jour aider les médecins dans la rééducation des patients souffrant de paralysie, espèrent les chercheurs.

Le Parisien - Sciences

Journal of Neural Engineering du 06.07.2012

La réalité virtuelle au service de la formation : un outil prometteur
Dimanche, 08/07/2012 - 01:30

Au sein du Département Intelligence Ambiante et Systèmes Interactifs (DIASI) du CEA/LIST, les chercheurs du Laboratoire de Simulation Interactive (LSI) développent des travaux autour de la simulation. Autrement dit, ils reproduisent des phénomènes physiques de manière interactive, l'objectif étant de permettre à un opérateur humain non seulement de visualiser ces phénomènes mais de pouvoir interagir avec eux. Aussi la simulation interactive présente-t-elle un grand intérêt dans le domaine de la réalité virtuelle.

C'est ainsi que dans le cadre du projet Descartes, piloté par Thales, labellisé par le pôle de compétitivité Systematic Paris Région et financé en partie par le Fonds Unique Interministériel (FUI), un projet d'une durée de 42 mois qui vient de s'achever, les chercheurs du LSI ont développé, en collaboration les pompiers du centre CEA de Fontenay-aux-Roses, un outil qui permet à celui qui l'utilise d'être en immersion dans une rame de RER accidentée, et de s'y déplacer à la lueur de la lampe frontale fixée sur son casque afin d'effectuer une reconnaissance. Outil idéal pour la formation des pompiers, un système similaire pourrait à terme séduire également d'autres secteurs, et en particulier l'Education nationale.

"Imaginez que l'on simule un écoulement de fluide. On souhaitera alors pouvoir y plonger une main afin d'observer comment celle-ci perturbe cet écoulement", déclare Philippe Gravez, chercheur au sein du Laboratoire de Simulation Interactive du CEA/LIST. Eh bien l'exercice auquel se sont livrés les chercheurs du CEA dans le cadre du projet Descartes, c'est un peu la même chose, à la seule différence que là, c'est un être humain, en l'occurrence un pompier, qui a été immergé dans un environnement virtuel, à savoir l'intérieur d'une rame de RER qui vient d'être l'objet d'un attentat. Un observateur extérieur verra ce pompier, dans une pièce, équipé de capteurs grâce auxquels le système informatique va être capable de suivre tous ses mouvements.

"Ce vrai pompier et les mouvements qu'il effectue servent à animer un pompier virtuel, l'avatar du premier, qui, lui, se déplace dans un environnement virtuel en prenant en compte toutes les contraintes de ce dernier", explique le chercheur du CEA. Autrement dit, pas question pour le pompier de ne pas tenir compte des obstacles, comme la paroi de la rame du RER ou encore les sièges qui s'y trouvent. Ainsi, chaque fois qu'il se produit un contact entre le pompier virtuel et un élément de son environnement, il doit être aussitôt géré, ce qui n'est pas sans difficulté quand on sait qu'un modèle de rame de RER représente des centaines de milliers de polygones. "Il faut donc disposer d'algorithmes suffisamment rapides et d'une puissance de calcul importante pour détecter tous les contacts entre les polygones qui représentent l'humain virtuel et ceux qui représentent la rame dans laquelle il se déplace", précise-t-il.

Si ce type d'applications pourrait permettre aux pompiers d'appréhender des situations exceptionnelles auxquelles il leur est difficile d'être confronté hormis dans le cadre d'interventions sur le terrain, elle intéresse aussi de vastes secteurs comme l'Education nationale. Des appels d'offres sont en cours dans le cadre des Investissements d'Avenir, ceux-ci visant à développer des outils numériques pour les classes. "Les élèves pourraient alors laisser libre cours à leur imagination puisqu'ils se trouveraient plongés dans un univers virtuel", estime Philippe Gravez. Ce serait pour eux la possibilité de travailler à des échelles qui ne sont pas toutes accessibles, comme celle de l'Univers ou encore celle de l'atome et du monde quantique, mais aussi de manipuler des bâtiments complets dans le cadre de formations aux métiers de ce secteur.

Bulletins Electroniques

Un robot à l'épreuve des chocs
Vendredi, 06/07/2012 - 05:30

Ce robot développé au LAAS de Toulouse, c'est le contraire d'une auto-tamponneuse. Il est en effet pourvu de 64 télémètres lasers qui lui permettent, tels des yeux, de repérer n'importe quel obstacle pour le contourner !

L’équipe de Simon Lacroix au Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS) de Toulouse développe un robot autonome, capable de se déplacer seul dans un milieu qu’il ne connaît pas.

Au sommet de l’engin se trouvent 64 télémètres lasers (placés au niveau de la tour en rotation) qui lui permettent d’établir en permanence une cartographie 3D de son environnement. Le robot est donc capable d’identifier des obstacles et de les éviter pour poursuivre sa mission.

Les chercheurs toulousains travaillent notamment sur la coopération entre plusieurs robots, terrestres et aériens (drones), pour des applications civiles et militaires : exploration d’une zone de catastrophe, d’un environnement hostile, etc. Les drones peuvent par exemple informer les robots au sol de leur position précise ou des obstacles qu’ils risquent de rencontrer.

Dans la vidéo présentée sur le site de Sciences et Avenir, le robot devait aller d’un point A à un point B sur le parking du laboratoire. Si un obstacle se trouve sur son chemin il le contourne et identifie une nouvelle route pour atteindre l’objectif fixé.

Sciences et Avenir

^ Haut
Matière
Matière et Energie
L’interface entre deux matériaux non conducteurs peut être conductrice
Mardi, 10/07/2012 - 01:40

Comment une interface électriquement conductrice peut-elle apparaître à la jonction entre deux matériaux qui ne conduisent pas l'électricité ? Depuis qu’un tel phénomène a été découvert en 2004, des hypothèses antagonistes ont été émises pour répondre à cette question, chacune avec ses fervents défenseurs et ses détracteurs. Une équipe internationale regroupant des chercheurs de l’Institut Paul Scherrer (PSI), de l'Université de Genève (UNIGE) et du service de Physique Théorique des Matériaux de l'Université de Liège a clarifié le débat.

Ces chercheurs ont montré que la conduction résulte d’un effet intrinsèque à la jonction entre les deux matériaux, réfutant l’hypothèse alternative d’une origine extrinsèque reliée à la présence de défauts introduits lors de la croissance de la jonction. L’interface entre ces deux composés possède des propriétés électriques et magnétiques fascinantes qui laissent entrevoir un certain nombre d’applications dans le domaine de l'électronique et de l'informatique. Les résultats ont été publiés dans la revue Nature Communications.

En 2004, des chercheurs ont découvert une couche conductrice à l’interface entre deux oxydes isolants, que sont SrTiO3 et LaAlO3. Après plusieurs années d’intenses recherches, l’origine de la conductivité reste toujours controversée.

Une école de pensée relie la conduction aux propriétés intrinsèques de la jonction. De manière schématique, la nature chimique différente des atomes composant le SrTiO3 et le LaAlO3 est responsable d’un déséquilibre des charges électriques de part et d’autre de l’interface. Pour pallier ce déséquilibre, la théorie prédit que pour une épaisseur critique de LaAlO3, le système électronique va se réarranger en transférant des électrons vers l’interface rendant celle-ci conductrice.

Cette explication, connue sous le nom de « catastrophe polaire » s’oppose à l’idée que les défauts, inhérents à la croissance de la couche de LaAlO3, soient à l’origine d’un dopage chimique de la région d’interface et génèrent la couche conductrice.

  • L'expérience appropriée

Afin de clarifier cette controverse, l’équipe de chercheurs a imaginé une expérience permettant de tester une prédiction fondamentale de la catastrophe polaire de manière à valider cette explication.

L’expérience a consisté à remplacer un des matériaux, le LaAlO3, par son alliage avec l’autre composé, modifiant ainsi le déséquilibre de charge à l’interface. A l’Université de Liège, Denis Fontaine et Philippe Ghosez ont prédit théoriquement l’effet de ce changement sur l’épaisseur critique. Les groupes du PSI et de UNIGE ont réalisé les échantillons et les ont mesurés. Ces expériences ont montré que la relation entre l’épaisseur critique et la composition de l’alliage suivait parfaitement la prédiction théorique, démontrant l’origine intrinsèque du phénomène.

  • De nombreuses applications en vue

Cette interface conductrice peut jouer un rôle important dans des applications futures telles que des transistors ou senseurs. Le fait que l’origine de la conduction soit intrinsèque au système est un atout pour le développement d’une électronique à base d’oxydes.

Université de Liège

Une nouvelle molécule qui révolutionnerait l'industrie du nucléaire
Mardi, 10/07/2012 - 01:00

Des chercheurs ont créé une version stable d'une molécule «trophée» que les chercheurs étudient depuis des années. Cette molécule pourra mener à la production d'une énergie nucléaire plus propre. Dans la revue Science, l'équipe, composée de scientifiques des universités de Nottingham et de Manchester au Royaume-Uni, montre qu'il est possible de préparer un composé de nitrure d'uranium stable à température ambiante. De plus, les chercheurs indiquent que le composé peut être stocké dans des pots sous forme cristallisée ou en poudre.

Les chercheurs indiquent que cette découverte pourrait avoir des implications pour l'industrie nucléaire car des matériaux en nitrure d'uranium pourraient offrir une alternative viable aux combustibles nucléaires de mélanges d'oxyde (ou MOX) utilisés dans les réacteurs, étant donné que le nitrure présente des densités supérieures, un seuil de fusion et une conductivité thermique plus élevés. De plus, le processus de fabrication du composé utilisé par les scientifiques pourrait offrir une alternative plus propre à moindre température comparée aux méthodes d'usage actuelles.

Les précédentes tentatives de préparation d'une triple liaison d'azote nécessitaient des températures de 5° Kelvin (soit -268° Celsius), ce qui équivaut à la température de l'espace interstellaire. Ce sont des conditions de travail relativement difficiles pour la manipulation et qui nécessitent des techniques et équipements spécialisés.

Le nitrure d'uranium est généralement obtenu en mélangeant du diazote ou de l'ammoniac à de l'uranium à des températures et pression élevées. Malheureusement, ces conditions de réaction utilisées pour cette préparation introduisent des impuretés difficiles à extraire. Ces dernières années, les chercheurs se sont donc concentrés sur l'application de méthodes moléculaires à basse température mais toutes leurs tentatives ont plutôt entraîné une formation de ponts entre particules au lieu des nitrures terminaux désirés.

La méthode utilisée dans cette étude implique l'utilisation d'un ligand (ou coordinat) d'azote très encombrant (une molécule organique liée à un métal) pour envelopper le centre d'uranium et créer ainsi une poche protectrice dans laquelle le nitrure d'azote peut exister. Ce nitrure a ensuite été stabilisé au cours de la synthèse suite à la présence d'un cation (un ion positif) de sodium faiblement lié, ce qui a empêché le nitrure de réagir avec tout autre élément. En phase finale, le sodium a été supprimé de la structure, permettant ainsi d'obtenir un nitrure d'uranium stable à triple liaison.

Le Docteur Stephen Liddle de l'université de Nottingham commente : «La beauté de ces travaux repose dans la simplicité ; en encapsulant le nitrure d'uranium dans un ligand encombrant, stabilisant ainsi le nitrure au cours de la synthèse grâce au sodium et en séquestrant ensuite le sodium dans des conditions douces, nous avons pu isoler la liaison terminale du nitrure d'uranium. Une motivation importante pour ces travaux était de nous permettre de mieux comprendre l'étendue et la nature de la covalence dans les liaisons chimiques de l'uranium. Il s'agit de points intéressants et importants car ils sont utiles dans les travaux d'extraction et de séparation des 2-3% de matière très radioactive dans les déchets nucléaires.»

Le professeur Eric McInnes, de l'université de Manchester, ajoute que la spectroscopie par résonance paramagnétique électronique (RPE), la technique utilisée par l'équipe pour étudier la matière dotée d'électrons non appariés, «nous offre des informations sur l'environnement local des électrons non appariés, et cela peut nous permettre de comprendre la structure électronique de l'ion d'uranium dans ce nouveau nitrure».

«Il s'avère que ce nouveau nitrure se comporte différemment des matériaux autrement analogues, et cela pourrait avoir d'importantes implications dans la chimie des actinides, qui revêt une importance technologique et environnementale vitale dans le cycle de carburant nucléaire», conclut-il.

Cordis

Des microprocesseurs de taille atomique grâce à des films ultra-minces
Dimanche, 08/07/2012 - 01:40

Certes les chercheurs réfléchissent dès aujourd'hui aux nouvelles générations de microprocesseurs. Mais ils leur faut dès à présent faire évoluer la lithographie, cette technique grâce à laquelle sont imprimés les circuits, car jusqu'à présent, les films minces de ces circuits sont conçus à partir de polymères synthétiques exclusivement d'origine pétrolière. Or le problème que présentent ces derniers est qu'ils ne permettent pas d'aller au-delà d'une résolution de 20 nanomètres. D'où l'idée des chercheurs de l'équipe que dirige Redouane Borsali, directeur de Recherche au sein du Centre de Recherches sur les Macromolécules Végétales (CERMAV) d'utiliser un matériau hybride qu'ils ont conçu. Il s'agit en fait d'un copolymère qui associe des polymères à base de sucres et des polymères issus du pétrole (polystyrène-silicié) dont les caractéristiques physico-chimiques diffèrent grandement.

Les chercheurs ont montré qu'une telle structure est capable de s'auto-organiser en cylindres de sucres dans un réseau de polymères issus du pétrole, chaque structure ayant alors une taille de 5 nanomètres. Elles sont donc largement plus petites que celles des copolymères formés uniquement de dérivés du pétrole. Qui plus est, cette nouvelle génération de matériau intègre une ressource, non seulement abondante mais renouvelable et biodégradable, le sucre. Aussi, cette nouvelle classe de films ultra-minces permet-elle d'envisager pour les années à venir l'émergence de nombreuses applications dans le domaine de l'électronique souple et notamment la miniaturisation de la lithographie des circuits, la multiplication par 6 de la capacité de stockage de l'information et l'accroissement des performances des cellules photovoltaïques et des biocapteurs. Pour l'heure, les chercheurs tentent de mieux contrôler l'organisation à grande échelle et le design de ces nano-glycofilms en différentes structures auto-organisées.

Bulletins Electroniques

Energie osmotique : vers une nouvelle étape
Dimanche, 08/07/2012 - 01:00

Statkraft a inauguré en 2009 la première centrale osmotique du monde, un projet pilote de 4 kW. Depuis, une centrale a été réalisée au Japon et une autre est en construction aux Etats-Unis. "Nous avons pu tester ce qui fonctionne et ce qui ne fonctionne pas. Nous nous orientons maintenant vers la génération 2.", dit Stein Erik Skilhagen, responsable de l'énergie osmotique à Statkraft.

La centrale est aujourd'hui composée de 32 conduites sous pression d'une vingtaine de centimètres de diamètre, chacune équipée d'une membrane en spirale. "Lorsque nous avons décidé de construire cette première centrale, c'était un énorme défi. Rien de semblable n'avait jamais été construit ou testé auparavant, et nous manquions de connaissances dans de nombreux domaines. Nous avons aujourd'hui acquis des réponses à la majorité de nos questions de l'époque grâce à ce projet.

Nous obtenions en laboratoire un résultat de 3 W par mètre carré de membrane, mais lorsque nous avons reproduit l'expérience à grande échelle, nous avons obtenu moins de 1 W par mètre carré !", ajoute Stein Erik Skilhagen. Aujourd'hui, la technologie s'est développée et le résultat s'approche des 3 W par mètre carré. L'intérêt international pour l'énergie osmotique a également augmenté de façon spectaculaire. "Nous sommes continuellement sollicités par les médias, de nombreuses sociétés internationales ainsi que des universités. Le potentiel technique mondial de l'énergie osmotique est estimé à 1600 TWh par an, soit l'équivalent d'environ la moitié de la production électrique européenne en 2009."

Les principaux défis techniques semblent être concentrés autour de la membrane et de sa configuration. Statkraft a ainsi pu réaliser que les membranes en spirale (installées sur la première centrale pilote) ne bénéficiaient pas d'un très bon rendement car elles nécessitaient une pression trop importante côté eau douce. De nombreuses sociétés spécialisées dans l'hydraulique travaillent aujourd'hui à la conception de membranes plus efficaces. Statkraft a signé en 2011 un partenariat avec la société japonaise Nitto Denko, spécialiste international des membranes, ainsi qu'avec Hydro Quebec, pour l'échange de technologies. "On nous demande souvent qui sont nos concurrents. Nous n'en avons pas. Nous souhaitons partager la technique de telle sorte qu'elle puisse se développer plus rapidement. L'objectif de Statkraft n'est pas de développer puis vendre cette nouvelle technologie, mais bel et bien de l'utiliser", conclut Stein Erik Skilhagen.

Bulletins Electroniques

Des nouveaux matériaux composites à base de nanocellulose
Samedi, 07/07/2012 - 01:20

La science et l'industrie s'intéressent depuis quelque temps déjà au nouveau biomatériau qu'est la nanocellulose, car ses domaines d'application possibles vont de la technique des matériaux à la technique médicale en passant par l'industrie alimentaire et pharmaceutique. Les chercheurs de Swiss Federal Laboratories for Materials Science and Technology (EMPA) ont développé un nouveau procédé de production de nanopoudre de cellulose qui permettrait de réaliser des structures légères destinées à l'industrie automobile ou encore de produire des membranes ou des filtres biomédicaux.

La cellulose est un biopolymère quasiment inépuisable formé de longues chaînes de glucose qui possède des caractéristiques structurales remarquables. Elle joue le rôle de squelette dans les cellules des végétaux et elle présente une résistance à la traction extrêmement élevée. Elle est de plus aisément modifiable chimiquement – ce qui permet de faire varier ses propriétés – et elle est encore biodégradable. Dans leur recherche de nouveaux matériaux polymères aux propriétés bien définies, les scientifiques des matériaux ont développé par exemple des matériaux composites hautes performances dans lesquels des nanofibres de cellulose sont intégrées dans un polymère et qui sont utilisables comme matériaux légers possédant des propriétés mécaniques semblables à celle de l'acier ou comme «bio-mousses» en remplacement des mousses isolantes traditionnelles.

A l'échelle industrielle, la chimie classique de la cellulose est utilisée principalement pour la production de cellulose, de papier et de fibres. La recherche se concentre actuellement sur l'isolation et la caractérisation de la nanocellulose, qui elle, est formée de fibres ou de cristaux d'un diamètre inférieur à 100 nanomètres. Sous cette forme, elle devrait permettre de créer des matériaux associant un faible poids à une stabilité mécanique élevée. En bref : des matériaux idéaux pour la construction légère.

Les experts en matière de cellulose du laboratoire «Bois» de l'Empa isolent des nanofibres à partir de la cellulose «normale». Ces fibres, longues de plusieurs micromètres et d'un diamètre de quelques nanomètres seulement, sont fortement réticulées entre elles. Elles présentent aussi une surface spécifique extrêmement élevée qui leur permet de réagir avec l'eau mais aussi avec des substances organiques ou inorganiques ainsi qu'avec des polymères. Ces nanofibres de cellulose sont ainsi une matière première obtenue par des voies biologiques, aussi biodégradable, utilisable à des fins techniques, par exemple pour le renforcement de (bio)polymères pour la production de matériaux légers destinés à l'industrie ou encore pour confectionner des membranes pour des emballages ou des filtres pour des applications biomédicales.

La nanocellulose ainsi isolée à partir de la cellulose se présente sous forme d'une suspension aqueuse. Toutefois, lors du séchage, les nanofibres s'agglutinent entre elles pour former un matériau d'aspect corneux et elles perdent leurs excellentes propriétés mécaniques. Pour éviter cela, les scientifiques de l'Empa ont développé un procédé permettant de sécher cette nanocellulose sans qu'elle s'agglutine. Ce procédé consiste à modifier chimiquement la nanocellulose à l'aide d'un procédé facilement transposable à l'échelle industrielle et absolument inoffensif même pour les applications alimentaires.

"Le résultat est excellent" : après redispersion dans l'eau, la poudre de nanocellulose modifiée présente les mêmes propriétés que la nanocellulose non modifiée et non séchée. Cette poudre de nanocellulose est ainsi une alternative intéressante aux suspensions de nanocellulose conventionnelles pour la synthèse de «bio-nano-matériaux» composites.

Enerzine

Refroidissement et climatisation à partir de la chaleur
Samedi, 07/07/2012 - 01:00

La dernière publication Projektinfo "Refroidir grâce à la chaleur" du Centre allemand d'information sur l'efficacité énergétique (BINE), affilié au Centre d'information spécialisé FIZ de Karlsruhe, présente un projet de recherche sur une nouvelle génération d'installations de froid particulièrement compactes, adaptées aux productions décentralisées d'énergie. Le projet fait partie du programme sur l'efficience énergétique "EnEff:Wärme" du Ministère fédéral de l'économie (BMWi).

Alliant des chercheurs de l'Université technique de Berlin, de l'entreprise Vattenfall Europe et du Centre de recherche énergétique appliquée de Bavière (ZAE), ce projet a permis de développer des installations réfrigérantes à absorption utilisant le bromure de lithium comme absorbant et de l'eau comme réfrigérant, pouvant produire des températures en sortie descendant jusqu'à 5°C. En hiver, l'installation peut être inversement utilisée comme pompe à chaleur, améliorant l'efficience des réseaux de chaleur existants.

La particularité de ces installations réside dans leur petite taille, leur capacité à être démantelées en deux éléments (facilement ré-assemblables) et leur fonctionnement à faible puissance, autour de 100kW. Un premier agrégat de 50kW est testé depuis 2011 pour les besoins standards d'un bâtiment tertiaire. Un deuxième de 160kW est encore en phase expérimentale.

En Allemagne comme en Scandinavie, les réseaux de chaleur contribuent largement au chauffage des bâtiments. En été, ceux-ci sont cependant peu utilisés, tandis que la demande en installation de climatisation des bâtiments augmente de 15 % par an. Cela conduit les chercheurs à penser que leurs installations pourraient rapidement être mises sur le marché pour un coût d'investissement de l'ordre de 220 euro/kW.

Bulletins Electroniques

ASTRID : signature d’un accord de collaboration entre le CEA et Bouygues Construction
Vendredi, 06/07/2012 - 05:00

Sur ce même sujet voir notre édito de ce jour.

Le CEA et Bouygues Construction ont signé un accord de collaboration pour les études de conception du génie civil du prototype de réacteur de 4ème génération ASTRID. Cette collaboration permettra de croiser les apports des équipes du CEA, maître d’ouvrage d’ASTRID, avec les compétences et l’expérience de Bouygues Construction dans le domaine du génie civil nucléaire.

ASTRID est un prototype de réacteur à neutrons rapides refroidi au sodium, d’une puissance de 600 MWe. Ce démonstrateur industriel remplit les critères de la quatrième génération, en rupture technologique avec à tout ce qui s’est fait jusqu’alors. Prévue par la loi du 28 juin 2006 sur la gestion durable des matières et des déchets nucléaires, ainsi que par la convention État-CEA signée le 9 septembre 2010, la conception du prototype ASTRID est confiée à la Direction de l’énergie nucléaire du CEA, avec un objectif de mise en service à l’horizon 2020. Pour la phase d’études, qui se poursuivra jusqu’en 2017, le CEA réunit les meilleures compétences qui seront le garant du succès de la conception d’ASTRID.

  • La conception d’ASTRID

Le CEA est responsable de l’architecture d’ensemble du réacteur, de son cœur et de son combustible, et d’autres lots spécifiques sont confiés à des partenaires industriels. Cette stratégie vise à intégrer, dès la phase de conception, le retour d’expérience industrielle (notamment la faisabilité et la constructibilité ainsi que l’ensemble des préoccupations de l’industrie), mais également à garantir le meilleur niveau d’innovation dans tous les domaines intéressant ce prototype.

C’est dans ce cadre que s’inscrit la collaboration entre le CEA et Bouygues Construction. Elle permet de croiser les apports des équipes de R&D du CEA avec les compétences et l’expérience de Bouygues Construction dans le domaine du génie civil nucléaire. Concrètement la collaboration porte sur le génie civil, avec comme objectif d’évaluer les différentes options de conception de l’îlot nucléaire, poursuivant la R&D sur les bétons de structure. Cet accord vient compléter un ensemble de partenariats industriels : avec Areva NP (chaudière, le contrôle commande et les auxiliaires nucléaires), EDF (assistance à maîtrise d’ouvrage, retour d’expérience d’exploitation, études de sûreté), Alstom Power Systems (système de conversion d’énergie eau-vapeur et gaz), Comex Nucléaire (innovations sur robotique et manutention), Jacobs France (moyens communs et infrastructures) et TOSHIBA (pompes électromagnétiques de grande taille). Enfin un MoU a été signé avec les britanniques Rolls Royce et Amec. Ainsi, le projet ASTRID implique déjà environ 500 personnes, dont près de la moitié chez les partenaires industriels.

Astrid est un projet ambitieux qui participe au développement d’une filière de réacteur à neutrons rapides de quatrième génération. Celle-ci permettra de mieux répondre aux contraintes de sécurité d’approvisionnement et d’indépendance énergétique, mais aussi aux contraintes environnementales grâce à une meilleure exploitation de la ressource en uranium, au multirecyclage du plutonium, et la minimisation de la production de déchets, sans émission de gaz à effet de serre.

CEA

^ Haut
Espace
Espace et Cosmologie
Entre étoile et planète : une naine brune en formation
Jeudi, 12/07/2012 - 01:40

Une équipe internationale dirigée par le laboratoire AIM (CEA-CNRS-Université Paris Diderot) vient de visualiser la toute première étape de la formation d'une naine brune, un de ces astres de très faible masse, entre étoile et planète. Si l’on sait aujourd’hui détecter les naines brunes, malgré leur faible rayonnement, en revanche leur gestation reste mystérieuse. C’est grâce au grand interféromètre de l’IRAM, sur le plateau de Bure, que les astrophysiciens ont pu localiser une condensation de gaz et de poussières indiquant la formation d’une naine brune. Cette découverte et son interprétation ont été présentées dans la revue Science du 6 juillet 2012.

Des astres de toutes masses peuvent se former dans l'Univers. Certains sont des étoiles, d’autres des planètes. La frontière s’établit en fonction de leur masse. L’ « entre-deux » correspond à un domaine de masse entre 13 et 80 fois la masse de Jupiter, la plus grosse planète du système solaire, soit, aussi, une masse inférieure à 8 % de celle du Soleil. Ni vraiment étoile, ni vraiment planète, l’astre atteint une température suffisante pour la fusion du deutérium, mais qui ne permet pas de déclencher la réaction de fusion de l'hydrogène, réaction qui est la source d'énergie des étoiles.

C’est à la fois ce domaine de masse intermédiaire et un mode de formation distinct de celui des planètes, qui caractérisent les naines brunes. Celles-ci rayonnent si peu qu'il a fallu attendre 1995 pour que la première, baptisée Teide-1, soit détectée au cœur de l'amas des Pleiades par son émission infrarouge. Depuis, plusieurs centaines ont été découvertes par de grands sondages infrarouges, sans que le mécanisme exact de leur formation soit bien établi.

Pour observer cette phase très précoce de formation d’étoiles, où celles-ci sont encore des objets « froids » sans source d’énergie interne, les chercheurs ont utilisé le grand interféromètre IRAM (Institut de Radioastronomie Millimétrique) du plateau de Bure (Hautes-Alpes, France), opérant dans le domaine des ondes millimétriques. En plus de cette gamme de longueur d’onde particulièrement adaptée, l’interféromètre IRAM offre, grâce à ses six antennes mobiles de 15 mètres de diamètre, une résolution inatteignable avec des télescopes à antenne unique, comme celui de l’observatoire spatial Herschel par exemple.

La naine brune en formation observée par les chercheurs, nommée Oph B-11, est une condensation de gaz et de poussières située au sein d'une vaste région de formation d'étoiles, le nuage sombre de Rho Ophiuchi, à environ 450 années-lumière de la Terre. La très bonne résolution de l’interféromètre de l’IRAM a permis d’estimer que sa taille est d’environ 140 unités astronomiques, soit la taille approximative du Système solaire : rapportée au nuage de Rho Ophiuchi, c’est une taille très compacte. Comme Oph B-11 n'est pas détectée dans l'infrarouge, notamment par le satellite Herschel, les astronomes en déduisent que sa température n'excède pas 10K (-263°C). Ces caractéristiques, ajoutées à l’émission millimétrique détectée avec l’interféromètre de l’IRAM, indiquent que la masse du nuage ne dépasse pas 2 à 3 % la masse du Soleil, exactement le domaine des naines brunes.

« Nous avons choisi une zone particulière d'Ophiuchus, la région L1688, car il y règne une pression supplémentaire qui pouvait favoriser la formation d'une naine brune. De plus, nous avions déjà identifié une source, mais via un autre télescope, dont la résolution ne permettait pas de mesurer la taille de l’objet », explique Philippe André, du CEA-Irfu. « C'est la première fois que nous découvrons un fragment de nuage suffisamment compact et dense pour former une naine brune par effondrement, exactement comme se forment les étoiles plus massives. »

Cette découverte démontre que certaines naines brunes au moins se forment exactement comme les autres étoiles. Pourtant, cette hypothèse était jusqu'ici plutôt écartée car la gravité d'un fragment de nuage de très faible masse semblait insuffisante pour provoquer son effondrement.

Les chercheurs imaginent que d'autres forces que la gravité pourraient contribuer à la formation des étoiles, notamment les mouvements turbulents de la matière au sein des nuages sombres. Cette turbulence pourrait être également responsable des filaments de matière découverts récemment dans ces nuages par le satellite Herschel.

Les naines brunes, qui sont des astres très peu brillants, commencent tout juste à être étudiées. On estime leur nombre dans la galaxie entre 50 à 100 milliards, soit de 20 à 40 % des astres de la Galaxie, et il est possible qu'une de ces naines brunes encore non détectées soit plus près de la Terre que la plus proche étoile actuellement connue, Proxima du Centaure.

CEA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Biodiversité et stockage du carbone : peu de pertes pour les forêts tropicales exploitées
Jeudi, 12/07/2012 - 01:20

Quel est l'impact de l'exploitation forestière sur la biodiversité et les ressources en carbone ?

Pour répondre à cette question, une équipe de douze chercheurs issus d'autant d'institutions de recherche, dont le centre de recherche français Cirad, a rassemblé et analysé plus de 100 études scientifiques. C'est la première fois qu'une étude permet d'aboutir à des résultats quantifiés concernant à la fois la biodiversité et le ressources carbonées.

Les résultats, qui viennent d'être publiés dans la revue Conservation Letters, montrent qu'après la première coupe sélective d'une forêt primaire, c'est-à-dire d'où ne sont extraits que quelques arbres à l'hectare, le stock de carbone représente 76 % du stock initial et qu'entre 85 et 100 % des espèces de mammifères, d'oiseaux, d'invertébrés et de plantes sont toujours présentes. Ce résultat est d'autant plus intéressant que les analyses ont porté pour la plupart sur des forêts exploitées non certifiées.

Les auteurs défendent la thèse selon laquelle l'amélioration des pratiques de gestion durable permettrait d'accroître encore davantage les fonctions environnementales mais aussi économiques des forêts exploitées. L'article met à mal l'idée que l'exploitation sélective engendre la dégradation des forêts tropicales. Il suggère au contraire que la gestion durable des ressources forestières tropicales, en complément des aires protégées, soit finalement considérée comme un outil majeur pour la conservation des forêts tropicales.

Enerzine

Mieux comprendre l'impact de l'acidification accélérée des océans
Mercredi, 11/07/2012 - 15:37

Sortir du laboratoire pour aller constater in vivo, au fond de la Méditerranée, comment réagissent coquillages et plantes aquatiques face à l'acidification des océans due au CO2 : une simulation inédite en Europe est en préparation près de Nice. Les chercheurs vont déposer au fond de la rade de Villefranche-sur-mer une sorte d'aquarium rectangulaire en plexiglas où ils maintiendront, pendant plusieurs mois, les niveaux d'acidité attendus pour 2050 et pour 2100.

"On a beaucoup travaillé sur les organismes isolément, mais la nature, ce sont de nombreuses espèces. Pour essayer de prévoir l'océan en 2100, il faut voir comment la communauté d'espèces réagit", souligne Jean-Pierre Gattuso, directeur de recherche au Laboratoire d'océanographie de Villefranche (CNRS-Université Pierre et Marie Curie). Le gaz carbonique (CO2), émis en quantités de plus en plus importantes par l'homme, est le principal gaz à effet de serre à l'origine de la hausse de la température mondiale. Mais il est aussi responsable d'une acidification rapide des océans, qui absorbent le quart du CO2 émis.

Selon les scientifiques, les valeurs de pH (plus un pH est faible, plus l'acidité est élevée) enregistrées aujourd'hui n'ont jamais été rencontrées depuis 800.000 ans. Plus alarmant : une étude parue récemment dans la revue américaine Science soulignait que cette acidification se faisait à un rythme sans précédent depuis... 300 millions d'années. De 8,2 en 1800, le pH moyen des océans pourrait atteindre 7,75 vers 2100. Une baisse a priori peu spectaculaire mais qui signifie en fait que l'acidité océanique pourrait avoir été multipliée par 2,5 en 300 ans, selon M. Gattuso.

Ce phénomène, et surtout sa rapidité, bouleverse la chimie des océans en diminuant la disponibilité en ions carbonates, une "brique" utilisée par les organismes marins pour fabriquer leur coquille ou leur squelette (coraux, mollusques, oursins, etc.). Autour de l'île volcanique d'Ischia, en Italie, où l'acidité de l'eau est naturellement plus élevée en raison des quantités importantes de CO2 relâchées par des failles sous-marines, "aucune espèce n'a pu s'adapter au pH attendu pour 2100" au niveau global, souligne l'océanographe. Des incertitudes nombreuses demeurent mais des études ont aussi montré des impacts possibles sur l'alimentation ou la reproduction de certains poissons.

L'acidification galopante des océans peut en revanche être une bonne nouvelle pour certaines espèces comme la posidonie, une plante aquatique utilisée comme nurserie par certains poissons et appelée à proliférer avec davantage de CO2. C'est pour mieux comprendre ces effets négatifs ou positifs que les chercheurs ont décidé de mettre "sous cloche" certaines espèces - concrétions calcaires et posidonie principalement - dans le cadre du projet eFOCE.

Ce projet, financé par la fondation BNP Paribas, s'inspire d'expériences pionnières actuellement menées en Californie par le Monterey Bay Aquarium Research Institute (MBARI) et en Australie. La "cage" de 2 mètres de long sur environ un mètre de large, présentée à la presse avant d'être prochainement déposée par 15 à 30 mètres de fond, est "beaucoup plus qu'une simple boîte, c'est un système complexe", précise l'ingénieur américain Paul Mahacek.

Dotée d'enregistreurs de luminosité, de température ou de courants, elle permettra surtout, grâce un capteur pH relié à une réserve de CO2, de maintenir constamment à l'intérieur une acidité supérieure à celle de l'extérieur. La phase de test doit se poursuivre quelques mois avant le lancement de l'expérience elle-même, début 2013.

Libération - Sciences

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'effet « coupe-faim » des protéines élucidé
Jeudi, 12/07/2012 - 01:30

Fréquemment recommandées dans les régimes amaigrissants, les protéines alimentaires ont fait la preuve de leur efficacité grâce à leurs effets « coupe-faim ». L'équipe de Gilles Mithieux, directeur de l'Unité Inserm 855 « Nutrition et cerveau » à Lyon, est parvenue à expliquer les mécanismes biologiques responsables de cette propriété. Les chercheurs décrivent en détail les réactions en chaîne provoquées par la digestion des protéines qui permettent de délivrer au cerveau un message de satiété, bien après le repas. Ces résultats, publiés le 05 juillet dans la revue Cell, permettent d'envisager une meilleure prise en charge des patients obèses ou en surpoids.

L'équipe de chercheurs Inserm, CNRS et Université Claude Bernard Lyon 1 est parvenue à élucider la sensation de satiété ressentie plusieurs heures après un repas riche en protéines. Elle s'explique par des échanges entre le système digestif et le cerveau, initiés par les protéines alimentaires que l'on trouve majoritairement dans la viande, le poisson, les œufs ou encore certains produits céréaliers.

Lors de travaux précédents, les chercheurs ont prouvé que l'ingestion de protéines alimentaires déclenche une synthèse de glucose au niveau de l'intestin, après les périodes d'assimilation des repas (une fonction appelée néoglucogenèse). Le glucose qui est libéré dans la circulation sanguine (veine porte) est détecté par le système nerveux, qui  envoie un signal « coupe-faim » au cerveau. Plus connue au niveau du foie et des reins pour alimenter les autres organes en sucre, c'est au niveau de l'intestin que la néoglucogenèse délivre un message « coupe-faim » à distance des repas, caractéristique des effets dits « de satiété ».

Dans ce nouveau travail, ils sont parvenus à décrire précisément comment la digestion des protéines provoque une double boucle de réactions en chaîne impliquant le système nerveux périphérique ventral (passant par le nerf vague) et dorsal (passant par la moelle épinière).

L'exploration dans le détail du mécanisme biologique a permis d'identifier des récepteurs spécifiques (les récepteurs µ-opioïdes) présents dans le système nerveux de la veine porte, à la sortie de l'intestin. Ces récepteurs sont inhibés par la présence des oligopeptides, produits de la digestion des protéines.

Dans un premier temps, les oligopeptides agissent sur les récepteurs µ-opioïdes qui envoient un message par la voie du nerf vague et par la voie spinale vers les zones du cerveau spécialisées dans la réception de ces messages. Dans un second temps, le cerveau envoie un message-retour qui déclenche la néoglucogenèse par l'intestin. Cette dernière initie alors l'envoi du message « coupe-faim » dans les zones du cerveau contrôlant la prise alimentaire, comme l'hypothalamus.

L'identification de ces récepteurs et de leur rôle dans la néoglucogenèse intestinale permet d'envisager de nouvelles pistes thérapeutiques dans le traitement de l'obésité. L'enjeu est de déterminer la façon d'agir sur ces récepteurs µ-opioïdes pour réguler durablement la sensation de satiété. Selon Gilles Mithieux, principal auteur de ce travail : « Sollicités trop fortement, ces récepteurs peuvent devenir insensibles. Il faudrait donc trouver le meilleur moyen de les inhiber "modérément", afin de garder leur effet bénéfique à long terme sur le contrôle de la prise alimentaire ».

CNRS

Le manque de sommeil stresse notre système immunitaire
Jeudi, 12/07/2012 - 01:10

Katrin Ackermann de l'Université Eramus (Rotterdam, Pays-Bas) et ses collègues de l'Université de Surrey (Royaume-Uni) ont analysé le sang de 15 hommes volontaires en bonne santé et ayant un âge moyen de 24 ans, après une semaine de nuits de 8 heures et après 29 heures sans dormir. Ils ont notamment comparé le nombre de globules blancs entre les deux situations. Ils ont ainsi constaté que quand le manque de sommeil se fait sentir, le nombre de granulocytes, globules blancs les plus abondants, était plus important que dans l’autre cas.

D’après les chercheurs, ce constat pourrait notamment s’expliquer par le fait que ces derniers ont perdu leur rythme de production lié à l’alternance jour nuit. Dans le cas de manque de sommeil, l’horloge biologique est perturbée et entraîne un stress pour l’organisme qui, pour se défendre, active son système immunitaire.

Bien que les mécanismes restent flous, ce phénomène pourrait être à l’origine de la survenue de certaines maladies, telles que l’obésité, le diabète et hypertension qui sont souvent liées au manque de sommeil...

Information Hospitalière

Des chercheurs zurichois créent un ordinateur cellulaire
Jeudi, 12/07/2012 - 01:00

Les spécialistes du département «Biosystèmes» de l'Ecole polytechnique fédérale de Zurich (EPFZ), basés à Bâle, ont construit une cellule qui peut calculer comme un ordinateur. L'équipe de Martin Fussenegger a utilisé des briques génétiques synthétiques pour créer un réseau complexe : la phlorétine, molécule issue du pommier, et l'antibiotique érythromycine constituent des signaux d'entrée qui actionnent un commutateur.

Lorsque ces molécules touchent un commutateur déterminé, elles provoquent la création d'une protéine lumineuse. Selon les combinaisons, la lumière correspond à un des éléments du calcul de base booléen, comme AND ou NOT. «Nous avons développé la première véritable calculatrice cellulaire», a indiqué Martin Fussenegger, cité dans le communiqué. Jusqu'à présent, un tel montage n'avait été réalisé qu'avec des cellules de levure ou de bactéries.

Une cellule de mammifère est beaucoup plus complexe. Les scientifiques ont utilisé une lignée de cellules provenant à l'origine de foetus humains. Les travaux de l'EPFZ sont une nouvelle étape vers une application thérapeutique. Il est envisageable que de tels calculatrices cellulaires puissent un jour être mises au point pour surveiller le métabolisme d'un patient. Pour les diabétiques, par exemple, la calculatrice pourrait surveiller les substances qui entrent en considération dans la maladie et contrôler la distribution d'insuline. Les scientifiques sont toutefois encore loin du but.

Le Matin

H1N1 : une épidémie quinze fois plus meutrière que prévue
Mercredi, 11/07/2012 - 15:20

La pandémie de grippe A (H1N1) de 2009 pourrait avoir fait 15 fois plus de morts que le nombre confirmé jusqu'à présent par des tests en laboratoire, révèle une étude publiée mardi par la revue médicale spécialisée The Lancet.

Alors que le bilan établi par l'Organisation mondiale de la santé (OMS) faisait état de 18 500 décès dus à ce type de virus grippal, cette étude menée par un groupe international de scientifiques estime le nombre de victimes entre 151 700 et 575 400 dans la première année ayant suivi la propagation du virus dans différents pays.

L'OMS avait à l'époque elle-même souligné que son décompte, basé exclusivement sur des analyses en laboratoire faites entre avril 2009 et août 2010, était nettement sous-estimé. Elle avait noté que les décès des malades n'ayant pas reçu de soins n'avaient pu être pris en compte et que la présence du virus ne peut pas toujours être détectée après le décès de la personne infectée.

La nouvelle étude montre que contrairement à la grippe saisonnière qui cause des décès principalement chez les personnes âgées, la pandémie de 2009 a durement frappé chez les moins de 65 ans, qui ont représenté 80 % des décès. Elle révèle aussi que la virulence de la grippe A (H1N1) a varié selon les régions : 51 % des décès attribués au virus sont survenus en Afrique et en Asie du Sud-Est, qui ne représentent à elles deux que 38 % de la population mondiale.

« Les résultats montrent qu'il est nécessaire d'améliorer la réponse globale face à de futures pandémies et de développer la production et la fourniture de vaccins antigrippaux en Afrique et en Asie du Sud-Est », notent les cosignataires de l'étude.

L'étude a été réalisée grâce à un modèle complexe utilisant des données fournies par 12 pays à bas, moyens et hauts revenus et trois catégories d'âge (0-17 ans, 18-64 ans et plus de 64 ans).

Commentant ces résultats, la Dre Cecile Viboud, de l'Institut national de la santé du Maryland, relève que les nouvelles estimations concordent avec celles qui ont été faites dans plusieurs pays, notamment le Bangladesh et les États-Unis. Elle souligne toutefois qu'elles sont inférieures aux résultats d'autres études indépendantes faites sur le Mexique. « Ces résultats devront encore être affinés lorsque de nouvelles études seront disponibles, notamment en Inde et en Chine », juge-t-elle.

Radio Canada

Anorexie : la thérapie familiale donne de bons résultats
Mardi, 10/07/2012 - 01:30

La thérapie familiale montre de bons résultats chez les jeunes filles atteintes d'anorexie mentale sévère. Ainsi, par rapport à une prise en charge classique, travailler sur les relations intra-familiales avec les parents et la fratrie durant 18 mois après une hospitalisation multiplie par 3 les chances de retrouver un état de santé correct. Ces résultats, dont le bénéfice semble se maintenir également à long terme, sont le fruit d'une étude menée par une équipe de l'Inserm à l'Institut mutualiste Montsouris à Paris.

L'anorexie mentale est un trouble du comportement alimentaire qui affecte 0,5 à 1 % des adolescentes. Les jeunes ne parviennent plus à s’alimenter normalement. Ce trouble psychiatrique est associé à des perturbations sociales et des complications physiques et psychologiques majeures. Il nécessite parfois une hospitalisation, conséquence d’une sévérité extrême et ayant pour corollaire un mauvais pronostic.

Pour les patientes, la prise en charge classique est coordonnée par un psychiatre qui rencontre alternativement la jeune fille seule ou accompagnée de ses parents, à un rythme lié à son état. Il évalue son état de santé physique et mental, l'interroge sur son alimentation, son environnement psychosocial et guide les parents dans l’accompagnement de leur enfant.

La thérapie familiale consiste à impliquer parents et fratrie autour des relations familiales ; elle est également proposée depuis les années 60 mais elle se fraie difficilement un chemin dans ce programme de soins. En 2004, seulement 3 % des patientes hospitalisées à l'Institut mutualiste Montsouris en bénéficiaient.

Des travaux britanniques, parus à la fin des années 80, avaient montré que la thérapie familiale permettait de renforcer l'état de santé des jeunes filles anorexiques en comparaison à une thérapie individuelle. Cependant, les soins classiques proposés en France sont plus intensifs qu’une seule thérapie individuelle. "La question était donc de savoir si l’adjonction d’une thérapie familiale améliorerait les soins proposés pour des patientes atteintes de formes sévères. C'est ce que nous avons voulu vérifier à l'Institut Montsouris", explique le Docteur Nathalie Godart, coauteur des travaux.

Ainsi, il a été proposé aux jeunes filles récemment hospitalisées de suivre le parcours de soins classique, associé ou non à une thérapie familiale dans le cadre d’un essai randomisé. Au total, 60 jeunes filles d'Ile de France âgées de 13 à 19 ans ont été recrutées. Seulement la moitié d'entre elles bénéficie de ce dispositif pendant 18 mois en plus des soins usuels. "La thérapie familiale associe les parents et les frères et sœurs de plus de 6 ans. Elle ne prend pas en compte l'alimentation en tant que telle mais seulement les relations et la dynamique intrafamiliales, explique Nathalie Godart. Une fois par mois, les membres de la famille sont réunis pendant une heure trente autour d'un thérapeute qui travaille autour de plusieurs axes ; l'histoire intergénérationnelle de la famille, ses relations actuelles ou encore le vécu de l'anorexie par les différentes personnes".

Au terme des 18 mois, les résultats montrent que les jeunes filles qui ont suivi une thérapie familiale se portent mieux que les autres. Elles ont 3,2 fois plus de chance d'aller "bien" ou "à peu près bien" que dans le groupe avec le seul traitement classique selon un indice incluant plusieurs critères dont le poids, la présence de règles ou encore l'association d'autres troubles alimentaires comme la boulimie.

Elles sont deux fois plus nombreuses à être sorties du stade critique de l'anorexie en terme de poids et davantage d'entre elles ont retrouvé leurs règles. "Ces travaux sont très en faveur de la thérapie familiale. Depuis ces résultats, nous proposons systématiquement à toutes les patientes hospitalisées un suivi classique associé à une thérapie familiale. Certaines familles peuvent être un peu réticentes à associer les frères et sœurs à cette prise en charge mais d'autres sont très demandeuses pour faire face à la maladie", précise Nathalie Godart.

En outre, ces bons résultats pourraient bien se confirmer à plus long terme avec un bénéfice qui semble se maintenir à 5 ans selon les travaux toujours en cours au sein de l'Institut.

Inserm

Le stress, facteur de risque dans la maladie d'Alzheimer ?
Mardi, 10/07/2012 - 01:20

Un nombre de maladies, comme les maladies cardiaques, le diabète, le cancer et la sclérose en plaque, se développent plus tôt ou sont exacerbées par le stress chronique. Pourtant, très peu de recherches démontrent le rôle du stress chronique chez les personnes souffrant de troubles cognitifs relativement bénins ou de la maladie d'Alzheimer (MA).

Une personne sur trois âgée de plus de 65 ans souffre de démence : les recherches menées par la British Alzheimer's Society montrent que 800 000 personnes au Royaume-Uni souffrent d'une forme de démence, et que plus de la moitié d'entre elles souffrent de la MA. Dans dix ans, un million de personnes souffriront de démence, et d'ici 2051, on en comptera 1,7 million. Il est donc impératif pour les chercheurs de mieux comprendre la maladie pour pouvoir empêcher son développement.

L'étude, financée par la British Alzheimer's Society, fait partie d'un paquet de six subventions d'une valeur de 1,5 million de livres sterlings (1,8 million d'euros) octroyées par l'association. «Nous traversons tous des périodes de stress. Nous tentons de découvrir comment ces périodes de stress peuvent se transformer en facteurs de risque pour le développement de la MA», commente Clive Holmes, professeur de psychiatrie biologique de l'université de Southampton au Royaume-Uni, responsable de l'étude. «Il s'agit de la première étape dans laquelle nous développons des moyens d'intervenir avec des traitements psychologiques ou médicamenteux pour lutter contre la maladie.»

L'étude démarrera dans les prochains jours et durera 18 mois. Les chercheurs suivront 140 personnes âgées de 50 ans et plus souffrant de troubles cognitifs bénins. Les participants seront évalués pour leur taux de stress et pour toute progression négative d'un trouble cognitif bénin à la démence. Près de 60 % des personnes souffrant de troubles cognitifs bénins souffriront de la MA.

Les participants à l'étude seront comparés à un groupe de 70 personnes ne souffrant d'aucun problème de mémoire ; il s'agira du groupe de sujets-contrôle. Tous les participants devront passer des tests cognitifs pour que les chercheurs connaissent l'état de santé de leur état cognitif. Des questionnaires permettront d'évaluer leur personnalité, leur tendance à gérer des événements stressants et leur taux de soutien social et d'humeur.

Les chercheurs procèderont également au prélèvement d'échantillons de sang et de salive tous les six mois pour mesurer les marqueurs biologiques de stress. Les échantillons de sang mesureront la fonction immunitaire, et les échantillons de salive permettront de connaître les taux de cortisol, libérés par l'organisme en réponse au stress chronique.

Le processus sera réitéré après 18 mois pour mesurer toute dégénération de trouble cognitif bénin en maladie d'Alzheimer. «La rapidité de la dégénération varie fortement au cours du temps ; mais un facteur fortement impliqué dans le processus est le stress chronique», commente le professeur Holmes. «La dégénération peut être déclenchée par un grand changement, généralement négatif, comme une longue maladie, une blessure ou une opération chirurgicale importante.»

L'étude examinera donc les «deux aspects de l'atténuation du stress, physique et psychologique, et la réponse de l'organisme à cette expérience», explique-t-il. Le professeur Holmes poursuit en expliquant que «tout élément comme une expérience traumatisante ou un deuil, ou parfois même un simple déménagement, peut constituer un facteur potentiel».

«Il s'agit d'un domaine de recherche très important qui nécessite davantage d'attention», commente Anne Corbett, responsable de la recherche de l'association britannique. «Les résultats pourraient nous permettre de comprendre comment développer de meilleurs médicaments ou trouver les moyens de gérer la maladie. Elle permettra également de comprendre comment les différents moyens de gérer les événements stressants peuvent influencer le risque de développer la maladie d'Alzheimer.»

Cordis

Université de Southampton

Une thérapie cellulaire pour augmenter la durée de vie
Mardi, 10/07/2012 - 01:10

Des chercheurs espagnols du CNIO et de l'Université Autonome de Barcelone ont mis au point une thérapie génique qui a permis de prolonger la vie de souris de 24 %. La particularité de cette étude est qu'elle concernait des souris adultes (de un an et deux ans), traitées une seule fois. Au centre de cette thérapie, une modification génétique apportée par un virus vecteur afin que les cellules produisent une enzyme, la télomérase, capable de ralentir l'horloge biologique naturelle associée à la reproduction des cellules.

Lorsqu'une cellule vivante se reproduit, elle doit effectuer une copie de son patrimoine génétique afin que les deux cellules finales disposent, dans leur noyau, de l'ensemble du patrimoine génétique - l'ADN - de la cellule initiale. Ce processus de duplication de l'ADN ne conduit pas à la réalisation d'une copie parfaite. Les extrémités des chromosomes appelés télomères ne sont pas reproduits entièrement. Ainsi, au fur et à mesure que les cellules se reproduisent, l'information génétique est peu à peu détruite.

Heureusement, ces télomères sont des parties "non codantes" de l'ADN, c'est-à-dire ne portant aucune information. Leur destruction ne pose pas de risque jusqu'à ce qu'ils disparaissent complètement, après une cinquantaine de reproductions cellulaires. A ce moment là, ce sont des parties utiles de l'ADN qui commencent à disparaître et les cellules obtenues sont victimes de dysfonctionnements. Cette disparition progressive des télomères est donc la cause principale du vieillissement des cellules. De nombreuses maladies dues à l'âge trouvent leur origine dans cette dégradation du patrimoine génétique des cellules.

En 1985, Elizabeth Blackburn et Carol Greider découvrent une enzyme, la télomérase, qui reconstruit complètement les télomères à chaque division cellulaire. Pour cette découverte, elles obtiennent le Prix Nobel de Physiologie et de Médecine en 2009. La télomérase est présente dans les cellules de l'embryon ainsi que dans les cellules souches afin d'assurer une réplication parfaite de ces cellules qui ont la particularité de se reproduire beaucoup. Mais elle n'est pas présente dans les cellules adultes différenciées qui constituent la majeure partie de notre organisme.

Une solution pour lutter contre le vieillissement cellulaire serait donc de pourvoir toutes les cellules de l'organisme de télomérase afin de que toutes se reproduisent sans perte de matériel génétique. C'est en ce sens que les chercheurs ont construit la thérapie génique qu'ils ont appliquée à des souris adultes.

Ils ont utilisé un virus comme vecteur du gène permettant de produire la télomérase. Le virus est dépourvu de son matériel génétique nocif et sert de véhicule afin de transporter le gène souhaité dans toutes les cellules. Une fois intégré au patrimoine génétique de la cellule, celle-ci commence à produire la télomérase qui va venir assurer une bonne reproduction des télomères. La particularité de cette étude est d'avoir été effectuée sur des souris adultes.

Les résultats obtenus ont été très positifs. Chez les souris âgées d'un an, l'espérance de vie a été augmentée de 24 % et chez celles âgées de deux ans, de 13 %. Par ailleurs, il a été démontré que ces souris présentaient un état de santé bien meilleur, avec une apparition retardée des maladies liées à l'âge comme l'ostéoporose et une meilleure coordination neuro-musculaire. Par ailleurs, les souris étudiées ne souffrent pas de cancer.

Car il existe un autre type de cellules dans lesquelles la télomérase est active : les cellules cancéreuses. La présence de la télomérase dans ces cellules assure la quasi immortalité des cellules cancéreuses, provoquant leur reproduction à un rythme effréné et causant ainsi l'apparition des tumeurs. Cet aspect complique les traitements contre les cellules cancéreuses. Des pistes de traitement sont poursuivies actuellement pour désactiver la télomérase dans les cellules cancéreuses afin de limiter leur résistance et assurer leur mort suite à de nombreuses divisions, évitant ainsi l'apparition des tumeurs.

Bulletins Electroniques

Le café réduirait le risque de cancer de la prostate agressif
Lundi, 09/07/2012 - 01:00

Les résultats issus des 2 méta-analyses évaluant l’association entre consommation de café et risque global de cancer de la prostate (CP)  restent équivoques. De plus, aucune des études n’a exploré une possible relation avec les sous groupes de CP classés par grade en fonction de leur agressivité.

C’est l’objectif de cette étude de cohorte prospective de 6 017 hommes issus de  la « Collaborative cohort study in the UK » entre 1970 et 1973 et suivis jusqu’au 31 décembre 2007. Elle a évalué l’association entre la consommation de café et l’incidence globale du CP ainsi qu’avec l’incidence des CP de grades spécifiques définis selon le score de Gleason. (Le score de Gleason se base sur l’architecture microscopique du CP afin d’en déduire des informations pronostiques et s’exprime en grade faible <7, intermédiaire =7 et agressif >7).

Durant la période d’un suivi médian de 28 ans, 318 cas de CP ont été identifiés. Les résultats montrent que la consommation la plus forte de café (≥ 3 tasses/j) est associée à une diminution de 55 % du risque des cancers les plus agressifs (Gleason>7) par rapport à ceux qui ne boivent pas de café (Hazard Ratio [HR] : 0,45 ; Intervalle de confiance à 95 % : 0,23-0,90 ; p = 0,01). Par contre, aucune association n’est trouvée avec le risque global de CP. Ces résultats ont été ajustés à certains facteurs confondants (âge, statut social, IMC, tabac, taux de cholestérol, pression artérielle systolique, consommation d’alcool).

Les auteurs concluent que si la consommation de café ne diminue pas le risque global de CP, elle diminue toutefois le risque des CP les plus agressifs. Cela pourrait s’expliquer, entre autre,  par la diminution du taux d’IGF-1 chez les buveurs de café, ce facteur de croissance étant associé à une incidence plus élevé de CP agressifs.

JIM

Une nouvelle étape vers un vaccin anti-tabac
Dimanche, 08/07/2012 - 01:20

D’après une étude dont les travaux viennent d’être publiés dans le dernier numéro de la revue Science Translational Medicine, des chercheurs américains auraient réussi à mettre au point le tout premier vaccin génétique anti-nicotine. Testé chez la souris, il permettrait, après une seule injection, d’immuniser l’organisme contre les effets addictifs de la nicotine, en empêchant cette dernière d’atteindre le cerveau.

En France, plus de 14 millions de personnes s'adonnent à la cigarette. Et malgré les campagnes successives pour lutter contre cette pratique addictive et les hausses régulières des prix, ce chiffre semble incompressible. Si la plupart des fumeurs ont bien compris la nocivité de ce produit, beaucoup ont du mal à arrêter. D’après les dernières estimations des spécialistes, un fumeur sur 3 souhaiterait en finir avec cette addiction, mais 2 tentatives sur 3 se soldent par un échec. Patch, pâtes à mâcher, acupuncture et autres méthodes anti-tabac ne semblent pas être au final efficaces…

Face à ce constat, de nombreuses équipes de scientifiques à travers le monde cherchent le traitement qui pourrait un jour permettre aux « accros » de la cigarette d’en finir avec cette mauvaise habitude. C’est dans ce contexte que Ronald Crystal et ses collègues de l'Université de Weill Cornell Medical College ont mis au point un vaccin s’appuyant sur la thérapie génique. Ils ont en effet intégré, dans un vecteur adénoviral, la séquence génétique d’un anticorps à la nicotine, qu’ils ont ensuite injecté à des souris qui étaient atteintes de maladies oculaires ou qui avaient développé des tumeurs suite à l’inhalation de tabac.

Très vite, les chercheurs ont constaté que la séquence génétique de l’anticorps s’était insérée dans le noyau des hépatocytes, entraînant ainsi une production régulière de ce dernier au niveau du foie. Relargués dans la circulation sanguine, les anticorps sont à l’affût de la moindre molécule de nicotine, afin de « l’engloutir » et de la détruire avant qu’elle n’atteigne le cœur ou le cerveau. La nicotine ne peut donc pas se fixer sur les récepteurs cérébraux qui provoquent le plaisir et l’addiction à la cigarette. Ainsi, d’après les chercheurs américains, une dose unique de ce vaccin permettrait de lutter contre l'addiction à la nicotine. En effet, après vaccination, les chercheurs ont observé une baisse du taux de nicotine dans le cerveau de 85 %.

Si les résultats de cette étude sont très encourageants, il faudra attendre de nombreuses années avant que ce vaccin novateur soit testé sur l’homme et lui permette, un jour d’être la nouvelle arme anti-tabac.

Information Hospitalière

Diagnostiquer la maladie de Parkinson à la voix
Samedi, 07/07/2012 - 01:40

Un chercheur a mis au point un logiciel qui pourrait permettre de détecter facilement la maladie tout en améliorant le suivi des patients.

C'est une innovation qui pourrait faciliter grandement le diagnostic précoce de la maladie de Parkinson, sans le moindre examen invasif. Le mathématicien Max Little, de l'Institut technologique du Massachusetts (MIT), a imaginé, avec deux collègues de l'université britannique d'Oxford, un logiciel capable de déceler les infimes modifications de la voix qui seraient l'un des premiers signes de cette pathologie neurologique incurable, qui touche environ 150 000 personnes en France (14 000 nouveaux cas chaque année). L'avancée serait importante tant on sait qu'une prise en charge rapide améliore la qualité de vie des malades.

Actuellement, le diagnostic de Parkinson repose pour l'essentiel sur la description et l'observation par un spécialiste de symptômes cliniques, parmi lesquels tremblements, raideur et lenteur des mouvements. S'ensuit parfois un recours à des techniques d'imagerie médicale de pointe afin d'exclure d'autres maladies, car aucun marqueur biologique ne suffit à trancher la question.

  • Un examen réalisable par téléphone

Pour mettre au point son système, le chercheur a travaillé à partir des échantillons de voix de 50 personnes atteintes, enregistrées une fois par mois pendant une période de 6 mois, ainsi que de ceux de personnes en bonne santé ou présentant d'autres pathologies altérant le son de leurs cordes vocales. De là, il a tiré un algorithme encore perfectible qui, lors des premiers tests, a permis de poser un "diagnostic" fiable à 86 %.

Max Little a expliqué à la BBC que son objectif n'était absolument pas de "remplacer les spécialistes" mais de "leur fournir un outil pratique et peu coûteux", l'examen étant réalisable via un simple appel téléphonique. De même, le chercheur suggère que son logiciel puisse également aider à améliorer le suivi des patients entre deux rendez-vous, notamment en donnant rapidement un aperçu des effets lors d'un ajustement du traitement.

Son programme informatique, sélectionné par les organisateurs de la conférence TEDGlobal 2012, haut lieu de l'innovation, a fait l'objet d'une première présentation à Édimbourg, en Écosse. L'occasion pour le scientifique de lancer un appel aux volontaires, malades ou bien portants, qui accepteraient de contribuer au perfectionnement de son système. Son ambition est d'entrer 10 000 voix provenant d'au moins 10 pays dans sa base de données afin de fournir un outil opérationnel aux thérapeutes dans les deux ans.

Le Point

Traiter le cancer comme une maladie chronique
Samedi, 07/07/2012 - 01:10

De nouvelles recherches menées à la Faculté de médecine Rappaport du Technion ainsi qu'au Rambam Medical Center cherchent à élaborer de nouvelles méthodes pour contrôler le développement du cancer. Elles pourraient conduire ainsi à des traitements permettant de faire passer le cancer d'une maladie mortelle à une maladie chronique.

En plaçant les cellules cancéreuses à proximité d'une population de cellules souches humaines, les scientifiques ont démontré que les cellules cancéreuses se développaient et proliféraient de façon plus importante lorsqu'elles étaient exposées à des cellules humaines que dans une boîte de Pétri ou dans un modèle de souris. La population de cellules cancéreuses serait également plus diversifiée que ce qui avait été précédemment établi. Maty Tzukerman, en charge de l'équipe de recherche, affirme que ce modèle permettra de faciliter la recherche de médicaments visant à bloquer le processus de réplication des cellules cancéreuses.

Des études antérieures ont établi que certaines cellules tumorales semblent être différenciées, tandis que d'autres conservent la propriété d'auto-réplication, ce qui rend le cancer si mortel. Selon le Professeur Karl Skorecki, directeur de la recherche et du développement médical au Campus Rambam Health Care, cette nouvelle étude tente de comprendre comment le cancer se développe afin de trouver des moyens d'arrêter le processus de réplication.

Afin de reproduire l'environnement du cancer humain aussi fidèlement que possible, l'équipe de recherche a développé un tératome - une tumeur faite d'un mélange hétérogène de cellules et de tissus - en permettant la différenciation des cellules souches embryonnaires en une variété de lignées cellulaires humaines naturellement présentes. Ils ont ainsi constaté que les cellules cancéreuses humaines croissaient plus vigoureusement quand elles étaient en présence du tératome que dans tout autre environnement où elles ont grandi, comme dans un muscle ou sous la peau d'une souris. Les scientifiques ont réussi à mettre en évidence six différents types de cellules qui s'auto-répliquent, sur la base de leur comportement - à savoir leur vitesse de développement, leur agressivité, ou comment elles se différencient - ainsi que sur leur profil moléculaire. Le fait qu'une tumeur puisse avoir une telle diversité de cellules ayant des propriétés de croissance différente, était jusque-là inconnu. Tzukerman explique que la croissance des sous-populations de cellules cancéreuses peut maintenant s'expliquer en fonction de leur proximité à l'environnement des cellules humaines.

Les chercheurs ont cloné et élargi les six populations distinctes de cellules et les ont injectées dans les tératomes de cellules souches humaines. Une observation clé est que certaines cellules, qui ne s'auto-répliquent pas dans les autres modèles, le font lorsqu'elles sont exposées à des cellules humaines. Skorecki a dit que, s'il n'a pas été surpris de constater que l'environnement humain affecte la croissance des cellules, il était en revanche surpris par l'ampleur de l'effet : "Nous savons depuis des années que les cancers sont des complexes, mais je ne pensais pas que l'effet de l'environnement sur les cellules souches humaines serait si important, que cela ferait une si grande différence selon la façon dont les cellules ont été cultivées."

Les chercheurs soulignent qu'ils ne connaissent pas encore les causes exactes qui contribuent à la prolifération du cancer, et l'équipe travaille actuellement sur l'isolement des facteurs qui favorisent les propriétés de plasticité et d'auto-renouvellement de ces cellules. Les scientifiques expliquent que cela pourrait éventuellement permettre aux médecins de gérer le cancer comme une maladie chronique : au lieu d'une seule thérapie contre la tumeur globale, les chercheurs pourraient développer une méthode permettant de distinguer les différentes lignées cellulaires d'une tumeur et de déterminer notamment ce qui permet à chacune d'elles de s'épanouir, pour ensuite attaquer ce mécanisme. Ainsi il serait possible de traiter de nombreuses formes de cancer comme des maladies chroniques contrôlables.

Bulletins Electroniques

Les Européens combattent la tuberculose à l'aide d'une technique innovante
Vendredi, 06/07/2012 - 05:10

Une équipe européenne de chercheurs travaille à l'élaboration de nouveaux traitements contre la tuberculose en développant une meilleure technologie d'imagerie pour un meilleur diagnostic. L'étude est soutenue par le projet PREDICT-TB («Model-based preclinical development of anti-tuberculosis drug combinations»), qui s'est arrogé près de 14,8 millions d'euros au titre de l'Initiative médicaments innovants (IMI) du septième programme-cadre (7e PC). L'IMI est un partenariat public-privé entre l'UE et la Fédération européenne des associations et industries pharmaceutiques (EFPIA).

L'équipe de PREDICT-TB travaille ensemble avec l'industrie européenne pharmaceutique ; GlaxoSmithKline, l'une des principales sociétés pharmaceutiques au monde, est coordinatrice du projet. Les résultats contribueront aux nombreux patients souffrant de cette maladie infectieuse : presque 9 millions de personnes en souffrent.

Les chercheurs développent un ensemble d'essais in vitro et in vivo qui leur permettra d'obtenir les informations nécessaires pour prendre des décisions clés sur des traitements effectifs. Ils espèrent également optimiser des études cliniques d'association de médicaments pour lutter contre la maladie.

«Ces données nous offriront premièrement une évaluation précoce de l'efficacité des associations médicamenteuses utilisées pour traiter la tuberculose, et deuxièmement, elles nous permettront d'optimiser les études cliniques sur patients», commente Juan José Vaquero du département d'ingénierie aérospatiale et de bioingénierie de l'université Carlos III de Madrid (UC3M), en Espagne, l'un des partenaires de PREDICT-TB.

Le groupe espagnol étudie et développe la nouvelle technologie d'imagerie préclinique, et travaille sur des méthodes de traitement et d'analyse d'images pour l'évaluation et le suivi de la maladie sur des modèles animaliers.

«Nous allons développer de nouveaux dispositifs d'imagerie moléculaire et allons nous pencher sur la synthèse de sondes spécifiques pour des biomarqueurs de la tuberculose identifiés par d'autres partenaires du consortium», commente le professeur José Vaquero. «Nous collaborons étroitement avec GlaxoSmithKline, dont les laboratoires utiliseront notre équipement, ainsi qu'avec des spécialistes du service de microbiologie et de maladies infectieuses de l'Hospital General Universitario Gregorio Marañón de Madrid, qui possède une vaste expérience de travail sur les aspects cliniques et biologiques de la tuberculose. Cela facilite la transformation de nos résultats en applications cliniques.»

L'objectif de UC3M, à court terme, est de développer une technique de tomographie à rayons X pour une détection rapide et rentable. Cette technique offrira aux chercheurs l'opportunité de garder un oeil sur l'évolution de la maladie et de déterminer l'efficacité des traitements chez les modèles. À long terme, l'objectif est de perfectionner cette technique et de la rendre plus sensible et encore plus spécifique. La tomographie par émission de positrons (TEP) sera également intégrée ; il s'agit d'une technique d'imagerie de médecine nucléaire qui génère des images tridimensionnelles de processus fonctionnels de l'organisme. Les mesures quantitatives peuvent être prises avec cette technique plus sensible.

Le groupe prévoit également d'introduire des modifications en terme de technologie d'imageire afin de garantir une meilleure resolution. «Ainsi, à l'aide d'un seul examen, nous pourrons visualiser le poumon d'un rat ou d'un cochon d'Inde dans sa totalité et dans le détail afin de détecter la maladie à un stade très précoce», expliquait le professeur José Vaquero.

Cordis

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Vladivostok inaugure le pont à haubans le plus long du monde
Lundi, 09/07/2012 - 01:10

Avec ses 1104 mètres de portée principale, le pont de l’île de Rousski bat le record mondial de la portée haubanée. Les haubans du pont, ainsi que ceux d’un autre ouvrage haubané géant construit simultanément à Vladivostok, ont été conçus, fabriqués et posés par Freyssinet (groupe Vinci).  Ils sont adaptés à la démesure des ouvrages et aux conditions extrêmes rencontrées sur le site.

Vladivostok. La mythique ville terminus du Transsibérien, située aux confins Est de la Russie mais à proximité des grandes puissances asiatiques (Chine, Corée du Sud, Japon) accueillera en septembre prochain le 24ème sommet de l’organisation de Coopération économique Asie-Pacifique (APEC). Cet événement a donné l’occasion au  gouvernement russe de moderniser cette ville de 600 000 habitants en lançant de grands chantiers (construction d’un opéra, d’une université, création d’un réseau d’assainissement,…). Le plus ambitieux d’entre tous et le plus symbolique est sans doute celui des deux ponts à haubans géants, dont le plus long du monde, le pont de Rousski.

  • Le pont de Rousski

L’ouvrage d’art, qui relie le continent à l’île de Rousski (Russky Bridge),  sur laquelle se tiendra le sommet de l’APEC, possède une portée centrale de 1104 mètres (le précédent record, 1 088 mètres de portée centrale haubanée, était détenu jusqu’ici par le pont chinois de Sutong, terminé en 2008). Le fin tablier d’acier orthotrope est tenu par des haubans reliés à des pylônes en « A » en béton haute performance (C60) de 320 mètres de haut, soit la hauteur de la Tour Eiffel. C’est l’entreprise Freyssinet (groupe Vinci), qui a été retenue par le consortium de constructeur pour concevoir, fabriquer et installer les 168 haubans. Le spécialiste historique des ponts à câbles s’est également vu confier par le Ministère russe de la construction  une mission d’expertise pour valider la conception de l’ensemble de la structure : un modèle réduit du pont a notamment été testé pour valider son comportement au vent dans la soufflerie du Centre scientifique et technique du bâtiment (CSTB) de Nantes.

  • Le pont de la baie de la Corne d’or

L’autre pont à haubans, dont la mise en chantier a été accélérée par la tenue du sommet, domine la baie de la Corne d’or (Golden Horn Bay Bridge) en plein centre de Vladivostok. Ses deux pylônes en « V », qui culminent à 226 mètres de hauteur, marquent très fortement l’ambiance urbaine de la ville. Exceptionnel également, bien que de portée centrale plus réduite (737 mètres, soit la 9ème plus grande travée haubanée du monde), le tablier du pont de la Corne d’Or est relié aux pylônes par l’intermédiaire de 192 haubans, également fournis et posés par Freyssinet.

  • Des haubans très compacts pour réduire la prise au vent

La longueur des  deux ponts et les conditions climatiques extrêmes du site ont permis à Freyssinet de proposer un beau florilège de ses technologies. « Pour les longs ponts, davantage que les tremblements de terre, ce sont les vibrations horizontales provoquées par le vent qui sont les plus agressives, pose Michel Virlogeux, le célèbre ingénieur, concepteur du pont de Normandie et du viaduc de Millau, intervenu ici en tant qu’expert pour optimiser le dimensionnement des piles et du tablier du pont de Rousski. Le premier objectif sur ces ouvrages est donc de réduire leur prise au vent ». Pour réduire la « voilure » du pont, ce sont donc des haubans compacts à torons parallèles, semblables à ceux que Freyssinet avait installé sur les ponts de Normandie, de Rion-Antirion, ou du viaduc de Millau, qui ont été utilisés. « La technique d’enfilage toron par toron, en saturant entièrement la gaine extérieure des haubans, réduit de 20 % leur encombrement, explique Jérôme Stubler, nouveau président de Solétanche-Freyssinet, ex-directeur général de Freyssinet. Ce profil plus aérodynamique permet de générer des économies de matière importante sur les pylônes et leurs fondations ».

  • Amortir l’effet des tempêtes

Pour réduire les vibrations en cas de grand vent (le pont est dimensionné pour résister à des vents de 250 km/h), chaque hauban est équipé en partie basse d’un amortisseur particulier. « Sur le Pont de Rousski, pour les haubans les plus courts, nous mettons en place des amortisseurs internes de type IRD (Internal radial damper), et pour les plus longs, des amortisseurs externes, de type PED (Pendular external damper) », précise Jérôme Stubler.

Il s’en est fallu de peu que les haubans du pont de Rousski soient équipés des nouveaux amortisseurs de Freyssinet, récemment brevetés par l’entreprise, et encore jamais mis en œuvre commercialement. « Alors que classiquement, les amortisseurs sont disposés en partie basse de chaque hauban, nos nouveaux amortisseurs relient deux haubans successifs transversalement », précise Jérôme Stubler. L’innovation semble promise à un bel avenir, puisqu’elle disposerait « d’une capacité d’amortissement deux à trois plus importante que les technologies précédentes », tout en étant plus facile à mettre en œuvre et moins onéreuse. Jérôme Stubler n’exclut toutefois pas de pouvoir appliquer ce nouveau système sur le pont de Rousski avant la fin de l’année, si le comportement réel du pont sous circulation, scruté par un ensemble de capteurs (accéléromètres, cellules de mesure de force, positionnés sur 48 haubans retenus pour leur positionnement stratégique), indiquait un besoin d’amortissement supplémentaire.

  • Résister aux agressions du froid et de la mer

Pour résister au climat continental humide de Vladivostok, les haubans des deux ponts ont été dimensionnés dans un intervalle très large de températures, comprises entre -40°C et +65°C !  L’acier galvanisé des fils constitutifs des torons, habituellement calculé pour résister à -20°C, a été choisi dans une nuance capable de résister à des froids extrêmes. Par ailleurs, pour éviter que de la glace ne se forme sur les gaines, et n’alourdisse dangereusement les haubans, celles-ci possèdent une texture spécifique qui empêche la glace d’accrocher.

La protection anti-corrosion liée aux embruns marins et à l’humidité est assurée par quatre barrières étanches successives. Les sept fils d’acier galvanisé à chaud (1ère barrière) qui constituent chaque toron sont individuellement recouverts d’un mince film de cire pétrolière (2e barrière) et enveloppés dans une gaine en polyéthylène haute densité (PEHD, 3ème barrière). Les torons sont ensuite regroupés parallèlement les uns aux autres, dans une gaine extérieure (4ème barrière).

Véritables concentrés de la technologie haubanée, les deux ponts routiers 2x2 voies, inaugurés le 2 juillet par le premier ministre russe Medvedev après un chantier qui aura été mené en un temps très serré (moins de cinquante mois, dont neuf mois seulement pour les travaux de haubanage du pont de Rousski), seront ouverts à la circulation en août, juste avant la tenue du sommet de l’APEC.

Le Moniteur

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top