RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 649
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Avril 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La connectivité en avion via un réseau mondial
Mathématiques : première image d'un tore plat en 3D
Une application pour déclarer ses revenus depuis son mobile
La bibliothèque du Vatican numérisée
Un Américain sur cinq a lu récemment un livre électronique
Avenir
Un nouveau robot chirurgien à Strasbourg pour opérer le cerveau
Matière
Un bioplastique "révolutionnaire" entièrement biodégradable
Première visualisation de la transformation du sable en verre
La double peau solaire s'étend dans l'habitat
Des micro-éoliennes partout
Des interférences de molécules filmées en temps réel
IssyGrid, le premier quartier à "énergie intelligente"
Energies renouvelables : investissements mondiaux records en 2011
Les circuits intégrés 3D bientôt sur le marché
Espace
Première modélisation de l'histoire complète de l'Univers
Terre
Regards croisés sur l'avenir des forêts françaises face au changement climatique
Vus d’un satellite, les glaciers grossissent en Asie
Vivant
Réduire les effets d'une crise cardiaque de 50 % ?
Un ver qui carbure au monoxyde carbone et au sulfure d'hydrogène !
Notre cerveau, fruit d'un travail d'équipe ?
Un nouvel outil de dépistage gériatrique pour les personnes âgées atteintes de cancer
Un nouvel espoir dans la lutte contre la tuberculose
Rester assis augmente le risque de mourir tôt
Une structure d'ADN à triple hélice a enfin été identifiée en phase gazeuse
Une bague pour surveiller son état de santé
Cancer de la prostate : le traitement par ultrasons offre une véritable alternative
Un peu d'alcool conserve !
Dix formes génétiques de cancer du sein ont été identifiées
Cancer du sein : découverte d’un nouveau type de mutation
Vieillissement du cerveau : des modifications génétiques identifiées
Le mélanome est en forte augmentation en Suisse
Prévenir l'infarctus grâce à un détecteur électronique implanté
Les parasites à l'origine de certains cancers dont celui du cerveau
Recherche
Vers des voitures sans pilote
Edito
Les produits chimiques sont-ils responsables de la baisse de la fertilité masculine ?



Notre environnement se compose de plus de 100 000 substances chimiques parmi lesquelles très peu (moins de 5000) ont fait l'objet d’évaluations scientifiques, biologiques et toxicologiques approfondies. Quant à la production mondiale de produits chimiques, elle a été multipliée par cent en 60 ans, passant de 5 millions de tonnes vers 1950 à près de 500 millions de tonnes aujourd'hui ! Nos sociétés développés sont donc confrontées à un double défi : celui des conséquences quantitatives et qualitatives pour la santé humaine  de cette "révolution" chimique qui a bouleversé nos modes de vie.

Depuis 2007, une nouvelle réglementation européenne, la directive Reach (enRegistrement, Evaluation et Autorisation des substances Chimiques), est entrée progressivement en vigueur et sera complètement opérationnelle en 2013. Fruit de plusieurs années d'âpres négociations avec l'industrie, ce nouveau cadre prévoit à terme un enregistrement et une évaluation scientifique et médicale complète de toutes les substances chimiques fabriquées, importées et utilisées sur le territoire de l'Union Européenne.

Bien que cette directive représente un pas considérable vers un contrôle plus strict et une connaissance plus approfondie du degré de nocivité des milliers de molécules de synthèse qui composent les multiples produits et objets que nous utilisons quotidiennement, la communauté scientifique se pose de plus en plus de questions sur les effets à très faible dose et à long terme sur l'homme de plusieurs familles de produits chimiques largement répandus dans notre environnement.

Il y a en effet une vingtaine d'années, une étude danoise dirigée par le Professeur Neils Skakkebaek avait fait grand bruit en montrant que le nombre de spermatozoïdes chez les hommes avait diminué de moitié en 50 ans, sans qu'on puisse clairement en identifier les causes. Cette étude a été confirmée par plusieurs autres qui montrent une baisse générale et constante de la fertilité masculine en Europe depuis la seconde guerre mondiale. Selon le Professeur Jouannet, chef du service de biologie de la reproduction à l’hôpital Cochin à Paris, la concentration spermatique en France aurait diminué de 2 % par an entre 1970 et 1995.

Selon une hypothèse scientifique n'ayant jamais pu être formellement démontrée, ce phénomène inquiétant pourrait être provoqué par la présence accrue dans notre environnement de substances appelées "perturbateurs endocriniens", capables, même à très faible dose, de produire des effets biologiques néfastes chez l'homme.

Or, il y a quelques semaines, une étude publiée par la revue "Endocrine Reviews" (Voir article), a rassemblé la synthèse la plus complète à ce jour sur cette question. Ce travail de Bénédictin réalisé sous la direction de Laura N. Vandenberg de l'Université de Boston, s'est appuyé sur plusieurs centaines d'études réalisées sur l'homme et l'animal. Il a permis de montrer que certaines molécules de la famille des perturbateurs endocriniens ont bien des effets négatifs sur la santé humaine, même lorsqu'elles sont employées à des doses extrêmement faibles, généralement considérées par la communauté scientifique comme inoffensives chez l'homme.

Selon ce travail scientifique de premier plan, il existerait au moins trente molécules dont les effets sur l'homme sont largement sous-estimés. On trouverait notamment parmi ces substances le bisphénol A et les phtalates, des produits présents dans la plupart des matières plastiques.

S'agissant du bisphénol A, plusieurs études ont montré chez l'animal que l'exposition à de faibles doses de bisphénol A peut entraîner une puberté précoce chez la femelle ainsi qu'une augmentation des risques de cancer de la prostate et une diminution de la fertilité. D'autres études récentes mettent par ailleurs en cause le rôle du bisphénol A comme facteur de risque accru dans l'apparition du diabète de type 2, de l'obésité et des maladies cardio-vasculaires.

A la suite de ces publications scientifiques, plusieurs pays ont pris des mesures de restriction et d'interdiction du bisphénol A. En 2008, le Canada a ainsi interdit les biberons en polycarbonate contenant du bisphénol A. En  2010, une étude américaine a montré que les hommes présentant un taux détectable de BPA dans l'urine avaient un risque trois fois plus élevé d'être affectés par une diminution de concentration de leur sperme.

Enfin, en France, des chercheurs de l'Institut national de la recherche agronomique (INRA) de Toulouse ont pu démontrer que le bisphénol A pouvait pénétrer dans l'organisme non seulement par les aliments mais également par la peau.

Finalement, une loi a été votée fin 2011 pour interdire le bisphénol A (BPA) dans les contenants alimentaires à partir de 2014, cette date limite étant ramenée à 2013 pour les produits destinés aux enfants de moins de 3 ans.

S'agissant des phtalates, une étude française réalisée conjointement  par les équipes de Bernard Jégou (Institut de recherche sur la santé, l'environnement et le travail, Inserm U1085, Rennes), de Daniel Zalko (Institut national de la recherche agronomique, Toulouse) et de Bruno Le Bizec (Laboratoire d'étude des résidus de contaminants dans les aliments, Ecole nationale vétérinaire, Nantes) a montré pour la première fois que l'exposition des testicules de l'homme adulte à ces substances provoque une inhibition de la production de testostérone, l'hormone masculine. Les phtalates sont présents dans de très nombreux produits en PVC mais également dans certains produits cosmétiques et alimentaires.

Selon cette étude, l'exposition aux phtalates pourrait diminuer jusqu'à 30 % la production de testostérone chez l'homme, ce qui aurait notamment pour effet une baisse de la fertilité. Or, des études réalisées dans plusieurs pays européens ont montré une exposition moyenne de la population supérieure à la dose journalière maximale préconisée par l'Autorité européenne de sécurité des aliments (EFSA).

A la lumière de ces récentes études, nous devons tirer, sans céder au catastrophisme ou à la technophobie ambiante, deux enseignements majeurs. Le premier concerne la nécessité d'un cadre réglementaire adapté. A cet égard, l'entrée en vigueur de "Reach" constitue une remarquable avancée parce que ce cadre très novateur inverse la charge de la preuve. Désormais, ce sera aux industriels concernés de prouver, études scientifiques à l'appui, que les nouveaux produits chimiques qu'ils mettent sur le marché sont bien sans danger pour l'homme.

Mais au-delà de cet impact juridique et légal, ces nouvelles découvertes scientifiques vont très probablement provoquer une rupture conceptuelle et méthodologique majeure dans les approches et méthodes d'études et d'évaluations des nouvelles substances chimiques qui viennent s'ajouter à notre environnement. En utilisant toutes les ressources des mathématiques et de la modélisation numérique, les scientifiques vont en effet devoir construire de nouveaux outils théoriques et analytiques qui intègrent ces découvertes et permettent une évaluation de l'impact biologique réel sur la santé humaine des produits chimiques et de leurs interactions complexes.

Il y a là un immense champ de recherche transdisciplinaire qui s'ouvre pour les prochaines décennies mais cette nécessaire révision conceptuelle ne doit pas nous faire oublier les immenses progrès que nous devons, dans tous les domaines d'activités humaines, à la chimie de synthèse sans laquelle nous continuerions à vivre, faut-il le rappeler, comme au Moyen Age !

Nous devons donc reconnaître, affronter et intégrer dans nos champs de connaissance scientifique et dans notre réflexion démocratique cette complexité biochimique qui est la contrepartie inévitable mais maîtrisable du prodigieux bond en avant que l'humanité a effectué depuis deux siècles.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La connectivité en avion via un réseau mondial
Jeudi, 26/04/2012 - 01:40

A l'avenir, un homme d'affaire n'aura plus besoin de déprogrammer une visioconférence pour cause de vol retardé, mais pourra assister à la réunion directement à bord de l'avion. C'est du moins le service que cherchent à fournir HoneyWell et Inmarsat aux particuliers ou aux professionnels. Les deux partenaires comptent fournir aux voyageurs un service de connexion en WiFi à bord de l'avion via leurs smartphones, tablettes ou ordinateurs portables. Particuliers ou hommes d'affaires pourraient alors utiliser les réseaux sociaux en temps réel, assister à des vidéoconférences ou développer des présentations multimédia. D'autres usages peuvent être imaginés, pour des activités où l'instantanéité a une importance capitale comme les transactions boursières.

  • Un réseau mondial

Cette connexion passerait par le réseau Global Xpress d'Inmarsat, actuellement en projet, qui devrait être déployé en 2013 et disponible à l'échelle mondiale l'année suivante. D'un point de vue technique, ce réseau fonctionne grâce à trois satellites construits par Boeing utilisant la bande K, plus rapide et moins coûteuse que l'actuelle bande Ku. Quant à HoneyWell, la société devrait produire et distribuer le matériel permettant à l'utilisateur de se connecter. On estime l'investissement nécessaire à 1,2 milliard de dollars pour les infrastructures. Une fois utilisable, le réseau devrait alors fournir à l'utilisateur une connexion d'une vitesse de 50 Mbps. Evidemment, HoneyWell et Inmarsat ne sont pas les seuls à avoir pensé à donner la possibilité à un voyageur d'être connecté en avion.

  • Diverses tentatives

En novembre 2011 a eu lieu le test d'un avion connecté dans le land de la Saxe-Anhalt, en Allemagne, fruit d'une collaboration entre Deutsche Telekom, Alcatel-Lucent et Airbus. Alcatel-Lucent, qui fournit la solution technique, a développé des algorithmes spéciaux pour le transfert de données utilisées sur un appareil installé dans un A320, couplé à une solution 4G au sol. La solution a été connectée à deux stations développées par l'opérateur téléphonique allemand et fonctionnant via son réseau. Avec une particularité: s'affranchir du réseau satellitaire, cette fois, tout en fournissant une connexion rapide et moins coûteuse. A noter que la société australienne Qantas a testé en mars 2012 des vols d’A380 connectés entre Melbourne ou Sydney et Los Angeles. Le service de connectivité par satellite était dans ce cas-là fourni par OnAir, utilisant le service SwiftBroadband d’Inmarsat.

L'Atelier

Mathématiques : première image d'un tore plat en 3D
Lundi, 23/04/2012 - 01:40

De même qu'on ne peut pas mettre à plat un globe terrestre sans perturber les distances, les tores plats, objets mathématiques abstraits, semblaient impossibles à visualiser dans notre espace. Pourtant, une équipe de mathématiciens et d'informaticiens a réussi à construire et représenter visuellement une image d'un tore plat dans l'espace à trois dimensions. Il s'agit d'une fractale lisse, à mi-chemin entre les fractales et les surfaces ordinaires. Ces résultats sont publiés dans PNAS.

Dans les années 50, Nicolaas Kuiper et le prix Nobel John Nash ont démontré l'existence d'une représentation d'un tore plat, objet mathématique abstrait, sans pouvoir la visualiser. Depuis, la représentation de cette surface est restée un défi que des scientifiques lyonnais et grenoblois viennent de relever.

En se basant sur la théorie de l'intégration convexe mise au point par Mikhail Gromov dans les années 70, les chercheurs ont utilisé la technique de corrugations (oscillations). Cette technique mathématique, réputée abstraite, est utilisée dans la détermination de solutions atypiques d'équations aux dérivées partielles. Pour la première fois, elle a permis aux scientifiques d'obtenir des images d'un tore plat dans l'espace à trois dimensions. A mi-chemin entre les fractales et les surfaces ordinaires, ces images sont celles d'une fractale lisse.

Ces résultats ouvrent des perspectives inédites en mathématiques appliquées, notamment pour la visualisation des solutions des équations différentielles qu'on rencontre en physique ou en biologie. Les étonnantes propriétés des fractales lisses pourraient également jouer un rôle central dans l'analyse de la géométrie des formes.

CNRS

Une application pour déclarer ses revenus depuis son mobile
Lundi, 23/04/2012 - 01:10

Bercy se met à l’heure du smartphone. A partir du 26 avril 2012, la nouvelle application gratuite « impots.gouv.fr » permettra de valider sa déclaration de revenus 2011 en un temps record. Pas question de la remplir. L'application ne servira qu’à valider une déclaration préremplie pour les contribuables qui n’ont aucune modification à apporter.

Le service Déclarer en ligne sera alors disponible et fermera le 21 juin 2012 à minuit, date limite de dépôt en ligne de la troisième zone (départements numérotés de 50 à 974). Il suffira de flasher le QR Code situé en bas à droite de la déclaration de revenus ou en haut à gauche de la lettre « Economisons le papier ». Cette application permet aussi aux contribuables qui télépaient déjà un impôt (impôt sur le revenu, taxe d’habitation, taxe foncière) de payer par smartphone en photographiant le QR Code imprimé sur leur avis d’imposition.

L’usager doit saisir ensuite son revenu fiscal de référence, vérifier sa déclaration préremplie et valider. Par la suite, il conserve la possibilité de consulter et corriger sa déclaration depuis un ordinateur classique en se connectant sur le site impots.gouv.fr.

01Net

La bibliothèque du Vatican numérisée
Dimanche, 22/04/2012 - 01:20

L’université d’Oxford et le Vatican ont annoncé une collaboration afin de numériser 1,5 million de pages de livres rares et anciens, datant du XVIe siècle et avant. Soit 80.000 manuscrits et 8.900 incunables (les premiers livres imprimés entre 1450 et 1500), précise La Croix.

Et pour une fois, ce n’est pas de l’initiative de Google, qui a déjà numérisé plus de 20 millions d’ouvrages depuis 2004. Les bibliothèques d’Oxford et du Vatican, soutenues par la fondation britannique Polonsky, vont rendre accessible en ligne et gratuitement l’ensemble de ces documents. Quel est le but de la fondation, spécialisée dans le soutien à des projets culturels et éducatifs de haut niveau?

«Démocratiser l’accès à l’information, augmenter l’accès numérique aux collections de ces deux bibliothèques, qui sont parmi les plus importantes du monde, [c'est] un pas considérable dans le partage de la richesse des ressources sur une échelle globale.»

Ce travail de dématérialisation, étalé sur cinq ans, sera financé à hauteur d’environ 1,5 million d’euros par la fondation, précise Numerama. Sarah Thomas de l’université britannique explique : «L'effort de numérisation bénéficiera également aux chercheurs, en unissant des contenus qui ont été dispersés au fil des siècles. Transformer ces vieux textes et ces vieilles images sous forme numérique permet de transcender les contraintes spatiales et temporelles qui, dans le passé, ont restreint l'accès à la connaissance.»

Les œuvres concernées seront les incunables, les manuscrits grecs (dont Homère, Sophocle, Platon ou encore Hippocrate) ainsi que des textes hébraïques (tel le Sifra, l’un des plus anciens manuscrits). La bibliothèque apostolique du Vatican fournira deux tiers des ressources et la bibliothèque d’Oxford le tiers restant.

Pour le bibliothécaire du Saint-Siège, le cardinal Raffaele Farina, cité par le Guardian, il ne s’agit que d’une suite logique : «La bibliothèque a rendu depuis presque six siècles un service à l'humanité, en préservant ses biens culturels et en les rendant accessibles aux lecteurs, elle trouve ici une nouvelle possibilité et amplifie sa vocation universelle à travers l’utilisation de nouveaux outils, grâce à la générosité de la fondation Polonsky et grâce au partage de compétences avec les bibliothèques Bodleian.»

Slate

 

Un Américain sur cinq a lu récemment un livre électronique
Dimanche, 22/04/2012 - 01:00

Les liseuses, Kindle, Nook et autres iPad, sont de plus en plus populaires auprès des lecteurs américains, sans qu'ils abandonnent pour autant les livres traditionnels, révèle une étude du centre Pew. Quelque 21 % des Américains d'âge adulte ont lu un livre électronique au cours de l'année écoulée. Ce chiffre est même passé de 17 % en décembre de l'an dernier à 21 % deux mois plus tard, de nombreux Américains ayant reçu une liseuse en cadeau à Noël, explique l'étude publiée récemment.

"Il est désormais évident que les lecteurs ont totalement adopté ce nouveau format de livre et qu'un nombre non négligeable (d'Américains) lit bien plus parce que les livres sont plus facilement accessibles" grâce aux liseuses, explique Lee Raine, un des co-auteurs de l'étude, qui a été financée en partie par la fondation Bill et Melinda Gates. En outre, indiquent les auteurs, lorsque l'on prend en compte les magazines lus sur les liseuses, la lecture sur contenu numérique touche 43 % des adultes américains.

Mais la liseuse est loin d'être l'unique support dont se servent les lecteurs Américains. Quelque 88 % des utilisateurs de tablettes ont aussi lu des livres imprimés, contre 72 % des adultes américains pris dans leur totalité, selon l'étude du centre Pew. "Les liseuses et les tablettes numériques s'installent progressivement dans la vie des lecteurs (...) mais les livres imprimés servent toujours de +monnaie d'échange+ lorsque les lecteurs souhaitent partager les histoires qu'ils aiment", souligne Kathryn Zickuhr, un autre co-auteur de l'étude.

L'Expansion

^ Haut
Avenir
Nanotechnologies et Robotique
Un nouveau robot chirurgien à Strasbourg pour opérer le cerveau
Samedi, 21/04/2012 - 01:10

« Le robot Rosa est un robot pour la stéréotaxie. C’est-à-dire que, comme un GPS, il va nous permettre de nous repérer dans le cerveau. Et on va pouvoir atteindre une cible, même profonde, sans faire d’erreur… » Pour le Professeur Pierre Kehrli, chef de service de neurochirurgie, le robot Rosa, qui vient d’entrer en service au CHU de Strasbourg Hautepierre, constitue un progrès certain, notamment en ce qui concerne les enfants. « On fait une économie d’imagerie et de temps de manipulation. »

Et le praticien de noter : « Avant Rosa, il fallait travailler avec un cadre stéréotaxique très lourd, fixé à la tête du patient. C’était souvent très effrayant pour le malade, et impossible à utiliser chez des enfants ou des patients psychiatriques. » Avec le robot, plus besoin de cadre. « Le patient entre endormi au bloc, sans stress. On a pu placer des électrodes chez des enfants, même très jeunes. » C’est ainsi qu’un bébé de 22 mois souffrant d’épilepsie très sévère, a pu bénéficier de cette technique. « Cela nous a permis de réaliser le plus petit EECG (NDLR : électroencéphalogramme), ici, à Strasbourg », précise Pierre Kehrli.

Chaque mois, le robot aide à la pose d’électrodes profondes chez un patient. « Les foyers profonds d’épilepsie ou difficiles à identifier par radiologie nécessitent une exploration, relève le Docteur Anne de Saint-Martin, neuropédiatre. On a de la chance d’avoir cette synergie de moyens techniques et des plateaux regroupés au même endroit, ce qui est assez unique en France. »

Rosa sert aussi à effectuer des biopsies ou à opérer par endoscopie. Grâce au robot, on peut opérer plus sûrement les zones profondes du cerveau générant les crises d’épilepsie. « On va ainsi permettre une restauration des fonctions de développement chez les enfants, indique la neuropédiatre, notamment les plus jeunes, en déclin en raison des crises répétées et destructrices. »

Dans un futur proche, le Dr Kehrli souhaiterait utiliser cette technologie pour des patients atteints de la maladie de Parkinson. Et à l’horizon 2017, coupler le robot à une imagerie « pour contrôler les trajectoires des électrodes ou des aiguilles de biopsies pendant l’intervention. » En attendant, tous les Alsaciens pourront bénéficier, en cas de nécessité, de la nouvelle plate-forme strasbourgeoise. Quant aux enfants, « tous ceux qui doivent être opérés du crâne le sont à Strasbourg ».

Le robot chirurgical Rosa a coûté plus de 310 000 €. Le groupe de prévoyance Arpège en a financé plus de la moitié, en signant un chèque de 175 000 €. Le coût total de l’équipement, maintenance comprise, se monte à 500 000 €, répartis sur cinq ans. Le dispositif Rosa intègre, sous une seule plate-forme, un logiciel de planification préopératoire, des fonctions de navigation, une technologie robotique pour la manipulation d’instruments chirurgicaux ainsi que des fonctionnalités de visualisation avancée.

Worldpresse

^ Haut
Matière
Matière et Energie
Un bioplastique "révolutionnaire" entièrement biodégradable
Jeudi, 26/04/2012 - 01:30

La société FLOS a dévoilé le 18 avril une lampe innovante biodégradable à 100 % naturellement dans l'eau, grâce notamment au bioplastique PHAs de Bio-on. Devenue une icône dans le design de l'éclairage, la lampe FLOS - Miss Sissi - dessinée en 1991 par Philippe Starck devient le premier objet à adopter ce bio-polymère "révolutionnaire".

Réalisée jusqu'à présent en Polycarbonate, l'un des matériels plastiques les plus couramment utilisés dans l'industrie, Miss Sissi a réussi les tests de ce nouveau bioplastique développé ces 5 dernières années en Italie par Bio-on. Le bio-polymère PHAs est jugé révolutionnaire par ses concepteurs car il est obtenu à partir de résidus de betteraves et de cannes à sucre. Il n'a donc pas d'impact immédiat sur la chaîne alimentaire, et comme il n'exige aucun solvant organique, il est complètement biodégradable dans la terre et dans l'eau.

"Nous sommes fiers de présenter en avant-première mondiale le premier produit de design réalisé par notre bio-polymère PHAs avec FLOS, une marque prestigieuse et connue dans le monde" a expliqué Marco Astorri, administrateur délégué de bio-on. "Grâce à cette coopération, nous pouvons armorçer concrètement une nouvelle ère. La technologie est disponible à l'échelle globale et avec la gamme de bio-polymères développés par Bio-on, il est possible de réaliser une vaste gamme d'objets dans tous les secteurs où le plastique est utilisé aujourd'hui".

Enerzine

Première visualisation de la transformation du sable en verre
Mercredi, 25/04/2012 - 01:00

Déjà connu des anciens Égyptiens, le verre est l'un des matériaux les plus anciens fabriqués par l'homme. Pourtant, sa formation à partir de poudres granulaires chauffées à plus de 1000°C comporte encore des zones d'ombre.

Pour la première fois, une équipe pilotée par le laboratoire Surface du verre et interfaces (CNRS/Saint-Gobain), est parvenue à visualiser la formation de ce matériau en temps réel et de l'intérieur même de l'échantillon grâce à la tomographie X, technique d'imagerie 3-D. Ces expériences, réalisées à l'ESRF (European Synchrotron Radiation Facility), permettent de mieux comprendre comment les différentes matières premières réagissent entre elles pour se transformer en verre. L'une des motivations de ces travaux, publiés sur le site de The Journal of the American Ceramic Society, est d'obtenir du verre de bonne qualité à des températures inférieures à celles utilisées actuellement par l'industrie.

Les chercheurs ont étudié un mélange proche de celui utilisé pour fabriquer le verre à vitres, composé de deux tiers de sable de silice, et d'un tiers de carbonates de sodium et de calcium. Dans les fours industriels, ce mélange est porté à 1500°C et doit rester plusieurs jours dans le four pour supprimer les bulles ou les défauts cristallins. Le processus demande donc beaucoup d'énergie, et l'un des enjeux industriels est d'obtenir du verre de bonne qualité à des températures moins élevées. Mais pour cela, il est nécessaire de comprendre les différentes étapes de la transformation des matières premières, ainsi que le couplage entre les réactions chimiques et la microstructure du mélange initial.

Pour ce faire, les chercheurs ont observé, pour la première fois, la réaction en train de se produire grâce à la tomographie X. La puissante ligne de lumière ID15a du synchrotron européen situé à Grenoble, a permis d'obtenir in situ une image en 3D toutes les quinze secondes de la réaction en cours, et ceci avec une résolution spatiale de 1,6 microns. Ainsi, les chercheurs ont pu observer les contacts qui s'opèrent entre les éléments présents, et la transformation de matériaux granulaires en verre fondu.

Ces images uniques révèlent l'importance des contacts entre grains d'espèces différentes. Ce sont eux qui déterminent si les réactions menant à la production du verre liquide se produisent ou pas. Par exemple, selon l'absence ou la présence de tels contacts, le carbonate de calcium peut, soit être incorporé à un liquide très réactif, soit produire des défauts cristallins. Les chercheurs ont aussi été surpris de la haute réactivité du carbonate de sodium à l'état solide : sa grande mobilité avant la fonte des matériaux augmente le nombre de contacts avec les autres grains, ce qui favorise les réactions.

Les chercheurs veulent à présent réaliser de nouvelles expériences en faisant varier la taille des grains ou la montée en température. À long terme, ces travaux fondamentaux pourraient donner des clés pour réduire la quantité de défauts produits au début de la formation du verre, et trouver ainsi des procédés de fabrication plus rapides et moins gourmands en énergie.

CNRS

La double peau solaire s'étend dans l'habitat
Lundi, 23/04/2012 - 01:00

La façade fait aujourd’hui partie des éléments de la maison devenus essentiels. Après le doublage par l’extérieur pour économiser de l’énergie, l’idée est aujourd’hui, en plus, d’en faire des sources d’énergie. Après la mise en place de volets solaires depuis quelques années, c’est cette fois une façade photovoltaïque qui a été imaginée. Cette idée, qui a rassemblé les compétences de plusieurs corps de métiers, a été réalisée sur une maison existante, mettant également en avant ses qualités vis-à-vis de la nouvelle RT 2012.

La maison double peau photovoltaïque vient ainsi de livrer ses premiers secrets après un an de fonctionnement. L’occasion d’analyser à la fois ses atouts indéniables de production d’énergie, mais également ses qualités thermiques et sa volonté d’offrir un très bon confort de vie. Le prototype joue également sur l’esthétique en proposant un ensemble architectural moderne et adapté tant aux bâtiments particuliers qu’aux professionnels.

Le premier effet de cette façade doublée en panneaux photovoltaïques est donc de permettre une meilleure isolation, que ce soit sur le plan thermique comme acoustique, en été comme en hiver. En effet, cette réalisation s’adapte à toutes les saisons, tour à tour en créant, par la fermeture de l’espace entre les deux façades, une protection thermique supplémentaire. Cet espace peut, à l’inverse, être ouvert en été pour amener un flux d’air et ainsi rafraîchir l’espace en même temps que les cellules photovoltaïques. L’un des effets est alors d’augmenter le rendement de ces panneaux solaires, tout en permettant de profiter de cet espace abrité et ventilé. Reste maintenant à déterminer si ce type de réalisation a désormais un avenir dans les constructions modernes ou les opérations de rénovation.

ETI

Des micro-éoliennes partout
Dimanche, 22/04/2012 - 01:40

Quand nous pensons éoliennes, nous envisageons aujourd'hui ces grandes antennes d'une centaine de mètres de hauteur, qui provoquent des résistances devant leur gigantisme. Certes, elles se développeront, mais essentiellement en off-shore flottant loin des côtes touristiques. Non, ce qui va devenir banal, partout dans les paysages urbains, c'est la présence habituelle de micro-éoliennes. Il s'agit d'unités très petites, à axe vertical, faisant rarement plus d'un mètre de hauteur, installées sur les toits et sur les poteaux.

Chaque toit d'immeuble, chaque pignon de maison, chaque poteau va en être équipé. Certes, ces équipements ne semblent pas aussi séduisants que les grandes éoliennes. Leur puissance est faible. Installée à proximité des habitations, on craint leurs nuisances sonores. Pourtant, elles ont d'immenses avantages : produites en grande série, leur coût s'effondre. Elles deviennent des produits d'achats courants, faciles à installer et à entretenir. Dans une société qui les consomment en masse, une éolienne d'un mètre de haut va coûter à l'achat  quelques centaines d'euros. Quand on sait qu'une seule d'entre elles permet de couvrir le quart de la production électrique nécessaire à une famille, la rentabilité est assurée.

Les éoliennes à axe vertical ont un autre avantage : contrairement à leurs cousines à axes verticales, elles font très peu de bruits. En général, les décibels qu'elles émettent se confondent avec celles du vent.

Enfin, elles peuvent être installées partout, avec une grande facilité. Une maison classique peut en recevoir deux, une à chaque pignon, l'axe collé au mur de pignon, des câbles à l'intérieur de la toiture assurant son amarrage. Les toits des immeubles peuvent en porter en nombre. Enfin, les poteaux électrique et téléphonique peuvent en recevoir, leur axe incorporé à l'axe du poteau qui les supporte.

Certes, la puissance nominale de chaque micro-éolienne est très faible. Mais leur faible coût d'achat permet à chaque entreprise, co-propriété ou particulier, d'en installer de manière souple sur leurs biens immobiliers. Cela permet de couvrir une partie de la consommation électrique personnelle et de revendre le surplus sur le réseau.

Les micro-éoliennes sont ignorées par la majorité des spécialistes des problèmes énergétiques. Quand on raisonne en mégawatt, on trouve ces engins ridicules par rapport aux besoins. Les grandes entreprises énergétiques ne voient pas l'intérêt de défendre des technologies qui vont leur enlever leur principal atout : la concentration des centrales électriques qui produisent, sur un site donné, l'électricité nécessaire à une région entière.

Mais les particuliers, au fur et à mesure, de l'augmentation inéluctable du prix de l'énergie, vont chercher à produire eux-mêmes une énergie qui leur coûte de plus en plus cher. Or, les gisements d'énergie sont partout autour de nous : l'énergie du soleil qui frappe une façade, le souffle du vent dominant qui passe régulièrement au-dessus d'un toit. Les particuliers vont chercher à capter, à leur profit cette ressource présente partout.

Peu à peu, le développement  de cette industrie énergétique va favoriser la diffusion de ces engins. Avec les panneaux solaires, les micro-éoliennes vont se développer, chacun voudra s'en équiper.

Les Echos

Des interférences de molécules filmées en temps réel
Samedi, 21/04/2012 - 01:40

Pour la première fois, des physiciens ont enregistré en temps réel des figures d'interférence quantique créées par des molécules organiques contenant jusqu'à 114 atomes !

Le comportement ondulatoire de la matière est souvent associé aux particules les plus petites, tels les photons - les particules de la lumière - ou les électrons. Mais la dualité onde-corpuscule découverte par le physicien français Louis de Broglie peut être mise en évidence pour des objets plus importants en utilisant des dispositifs interférentiels. Cela vient d'être démontré de façon particulièrement claire pour en ensemble de particules complexes : une équipe internationale a créé une figure d'interférence de grosses molécules organiques, qui démontre la dualité quantique entre onde et particule.

La lumière a été tantôt considérée comme particule ou onde en fonction des époques et des expériences. En 1803, le Britannique Thomas Young mit en évidence sa nature ondulatoire avec l'élégante expérience des fentes qui portent son nom. Un siècle plus tard, Albert Einstein expliquait l'effet photoélectrique sur la base d'une nature corpusculaire de la lumière. Les travaux de de Broglie en 1923 ont permis de concilier ces conceptions contradictoires. Ainsi, une longueur d'onde est associée à chaque objet, qui est d'autant plus petite que l'élément est massif. Il est donc difficile de voir les effets ondulatoires sur les objets les plus lourds. Les physiciens explorent cependant la dualité onde-corpuscule de la matière sur des éléments de masse de plus en plus élevée, en utilisant un dispositif proche de celui des fentes de Young pour former des figures d'interférence.

Dans l'expérience de 1803, deux fentes étroites situées côte à côte sont éclairées par un faisceau de lumière ; un écran placé derrière les fentes restitue la figure d'interférence : une série de bandes lumineuses et sombres, ou franges, qui correspondent à des régions où l'intensité varie de zéro au maximum en fonction du déphasage des ondes lumineuses provenant des deux fentes. De façon étonnante, si on reproduit cette expérience photon par photon, l'accumulation des points d'arrivée des particules produit la même figure d'interférence. En 1961, le physicien allemand Claus Jönssen créa des interférences d'électrons en utilisant le principe des fentes de Young. En 1976, la même expérience était réalisée en construisant la figure d'interférence électron par électron.

Jusqu'où peut-on explorer les grandes échelles et mettre en évidence le comportement ondulatoire de particules, d'atomes ou de molécules de plus en plus massives ? Ce type d'expérience a été réalisé avec succès sur des atomes de sodium et même des fullerènes C60 - des molécules organiques en forme de sphère. Une équipe internationale de physiciens de Vienne, Tel-Aviv, Karlsruhe et Bâle a mis au point un nouveau dispositif permettant d'obtenir des interférences pour des molécules massives.

Markus Arndt et ses collègues ont utilisé un réseau ultrafin - un ensemble de fentes parallèles fondé sur le même principe que les fentes de Young - ainsi qu'un dispositif optique pour réaliser l'image de chaque molécule et la localiser sur l'écran avec une précision de dix nanomètres. Ils ont utilisé des molécules organiques, la phtalocyanine et l'un de ses dérivés, dont les masses respectives sont de 514 et 1 298 unités de masse atomique (le fullerène C60 a 720 unités de masse atomique). Les particules sont d'abord évaporées grâce à un laser choisi avec précaution afin de ne pas surchauffer les molécules, qui pourraient alors se décomposer. Les molécules passent ensuite par le réseau, fait en céramique (SiN).

Le pas du réseau est un paramètre crucial, car il détermine la distance entre les franges d'interférences. Il doit être suffisamment petit - 100 nanomètres - pour que les franges soient bien séparées. Un second problème concernant les réseaux est leur épaisseur. Les molécules de phtalocyanine sont électriquement neutres pour éviter des interactions avec la céramique, mais des moments dipolaires au sein des molécules créent des interactions de Van der Waals qui altèrent les interférences. Plus le réseau est épais, plus l'interaction est importante. L'équipe de physiciens est parvenue à réduire l'épaisseur du réseau à dix nanomètres. Après avoir traversé le réseau, les molécules arrivent sur une plaque en verre éclairée par un laser, ce qui permet de former une image enregistrée par une caméra CCD ultrasensible. Les physiciens obtiennent en quelques minutes une figure d'interférence de ces molécules, qui met en évidence leur comportement ondulatoire. Ce dispositif pourrait être utilisé pour des molécules encore plus massives et ainsi explorer la dualité onde-corpuscule à des échelles toujours plus grandes.

Pour La Science

IssyGrid, le premier quartier à "énergie intelligente"
Samedi, 21/04/2012 - 01:20

L'objectif de l'IssyGrid est clair : consommer plus intelligemment l'énergie (chauffage, éclairage, eau chaude sanitaire et autres), intégrer la production d'énergie renouvelable locale et optimiser la gestion de l'énergie du quartier en l'intégrant au réseau de distribution publique et en ayant recours à des moyens de stockage.

Aujourd'hui à Issy-les-Moulineaux, le monitoring du quartier est opérationnel. Des systèmes d'agrégation des données pour analyser et optimiser la consommation ont, en effet, été installés dans des logements et bureaux tests. Ce qui représente près de 10 000 personnes sur une zone de 160 000m2. Différents équipements ont par ailleurs été implantés : des prises communicantes pilotables à distance, des capteurs de température et des thermostats communicants. Les informations récoltées seront transmises, via la box Internet, vers le système d'information énergétique central. Celui-ci pourra dès lors envoyer des alertes par SMS ou par mail aux utilisateurs lors du dépassement d'un certain seuil de consommation, etc. Tout cela aidera les utilisateurs à prendre conscience de l'importance de la maîtrise de la consommation d'énergie à l'échelle individuelle et de son impact sur le risque de pointe.

Au cours de ce premier semestre, le périmètre IssyGrid sera élargi à une trentaine de logements et à 4 immeubles tertiaires. Quant à VIGIE, le centre d'informations, d'analyse et de services du quartier, il sera opérationnel en septembre prochain. Par ailleurs, d’ici la fin de l'année, la mise en place des moyens de production d’énergies renouvelables (photovoltaïque, géothermie) et des outils de stockage sera achevée. Notez également que le système d’éclairage public évoluera au cours de la seconde partie de l'année grâce à un système permettant de faire converger réseau électrique et réseau numérique. Les candélabres pourront alors être pilotés individuellement et l’éclairage s’adaptera en fonction du trafic routier. Enfin, IssyGrid sera doté d’équipements de recharge des véhicules électriques intégrés dans les bâtiments et sur la voie publique.

Vie numérique

Energies renouvelables : investissements mondiaux records en 2011
Samedi, 21/04/2012 - 01:00

En 2011, selon une nouvelle étude du Pew Charitable Trusts, 263 milliards de dollars (+6,5 % par rapport à 2010), soit 200 milliards d’euros, ont été investis dans les énergies propres, dont 95 % par les pays du G20.

Les Etats-Unis reviennent à la première place, avec 48 milliards de dollars, détrônant la Chine (45,5 milliards) après deux années où celle-ci a dominé. Si l’on additionne les montants investis par ses membres, l’Union européenne arrive largement en tête : l’Allemagne a dépensé 30,6 milliards, l’Italie 28 milliards et la Grande-Bretagne 9,4 milliards.

A la cinquième place mondiale, l’Inde a investi l’an dernier 10,2 milliards de dollars. La Chine a notamment déployé 20 GW d’éolien, l’Allemagne 7,4 GW de solaire et l’Italie 8 GW de solaire. Cette dernière a réalisé la plus forte croissance dans ce domaine en cinq ans parmi les membres du G20, souligne l’étude.

La France (PDF) a investi quant à elle cinq milliards de dollars (+36 %), estime Pew. Le solaire a connu une croissance de 145 % des installations par rapport à 2010, passant à 1,6 gigawatt. Le solaire a totalisé, avec 4,4 milliards de dollars, plus de 80 % des investissements français dans les énergies propres. L’éolien a progressé de 700 MW dans notre pays.

ZDNet

PCT

Les circuits intégrés 3D bientôt sur le marché
Vendredi, 20/04/2012 - 06:00

Altera va utiliser le procédé de fabrication et d’assemblage CoWoS de TSMC pour développer des composants 3D de nouvelle génération et briser la loi de Moore. Il devient ainsi possible d’avoir dans un même circuit différentes technologies pour répondre au mieux aux besoins de l’utilisateur à moindre coût.

Le développeur de circuits intégrés programmables Altera et le fondeur de silicium TSMC annoncent le développement commun du premier prototype de circuit intégré 3D hétérogène compatible avec le procédé d’intégration Chip-on-Wafer-on-Substrate (CoWoS ou Puce-sur-Tranche-sur-Substrat) de TSMC.

Les circuits intégrés 3D hétérogènes consistent à empiler, au sein d’un même composant, plusieurs technologies comme de la logique programmable, des fonctions analogiques et de la mémoire. Ils sont considérés comme l’une des innovations majeures permettant à l’industrie de dépasser les limites de la loi de Moore. Grâce au procédé intégré CoWoS de TSMC, les fabricants de semi-conducteurs qui développent des circuits 3D disposent d’une solution complète qui couvre à la fois le procédé de fabrication et les solutions de test et d’assemblage.

La technologie à la base du procédé d’intégration CoWoS consiste à reporter les puces en silicium sur une tranche par le biais d’une technique d’interconnexion (bonding), c’est le chip-on-wafer (CoW). Le circuit CoW est alors reporté sur le substrat (CoW-On-Substrate) pour former le composant final. Du fait que les puces sont reportées sur le silicium de la tranche d’origine avant la fin du processus de fabrication, les phénomènes de flexion qui apparaissent en cours de production avec des tranches amincies sont ici évités. TSMC a l’intention de proposer le procédé CoWoS comme un service de fabrication clé-en-main, mais Altera est le premier à en bénéficier.

Cette plate-forme, ainsi que d’autres prototypes, vont permettre à Altera de tester rapidement les fonctionnalités et la fiabilité des circuits 3D hétérogènes et de vérifier qu’ils respectent les objectifs recherchés en terme de rendement et de performances.

La vision d’Altera dans le domaine des circuits 3D hétérogènes consiste à développer des dérivés de composants, qui offrent aux utilisateurs la possibilité d’associer et de combiner différents blocs de propriété intellectuelle (IP) sur silicium, en fonction des exigences de leurs applications respectives. Altera compte tirer profit de sa position dominante sur le marché des FPGA pour y associer des technologies diverses et variées et, notamment, des cœurs de processeurs (CPU), des ASIC, des circuits spécifiques standards (ASSP), de la mémoire et des éléments optiques.

Grâce aux circuits intégrés 3D d’Altera, les utilisateurs pourront différencier leurs applications grâce à la flexibilité du FPGA, et, dans le même temps, maximiser les performances système, minimiser la consommation énergétique et réduire l’encombrement et le coût global.

« Grâce à nos relations avec des organismes de standardisation comme l’IMEC et SEMATECH, et à notre capacité à utiliser le procédé innovant de fabrication et d’assemblage CoWoS de TSMC, nous sommes idéalement positionnés pour déployer notre stratégie qui vise à proposer des composants 3D hétérogènes à nos clients, au bon moment et avec les bonnes caractéristiques », explique Bill Hata, senior vice-président de l’ingénierie et des opérations mondiales d’Altera.

Industrie & Technologies

^ Haut
Espace
Espace et Cosmologie
Première modélisation de l'histoire complète de l'Univers
Dimanche, 22/04/2012 - 01:30

Une équipe de chercheurs du Laboratoire Univers et Théories (LUTH, Observatoire de Paris/ CNRS/Université Paris Diderot) vient de réaliser pour la première fois le calcul de la structuration de tout l'Univers observable, du Big Bang jusqu’à aujourd’hui. La simulation effectuée a permis de suivre 550 milliards de particules. Elle est la première des trois étapes d’un projet exceptionnel, appelé Deus : full universe run réalisé sur le nouveau supercalculateur CURIE de GENCI exploité au Très Grand Centre de Calcul (TGCC) du CEA.

La simulation déjà réalisée et celles programmées pour fin mai 2012 constitueront une aide exceptionnelle aux grands projets d’observation et de cartographie de notre Univers. Elles permettront de mieux comprendre la nature de l’énergie noire et son influence sur la structuration de l’Univers, l’origine de la distribution de la matière noire et des galaxies. Après des développements de plusieurs années, six chercheurs de l’équipe Cosmologie du LUTH ont réalisé la première simulation de la structuration de tout notre Univers observable, du Big Bang jusqu’à aujourd’hui. Au-delà du modèle cosmologique standard avec constante cosmologique qu’ils viennent d’achever, leurs travaux distinguent deux autres modèles cosmologiques avec énergie noire, composante mystérieuse introduite pour expliquer l’accélération de l’expansion de l’Univers. Quelle est l’empreinte de l’énergie noire sur la structuration de l’Univers ? Et réciproquement, comment déduire de l’étude de la structuration de l’Univers la nature de cette énergie ? Deux questions fondamentales auxquelles le projet Deus : full universe run tentera de répondre.

La simulation du modèle standard de la cosmologie, qui vient d’être réalisée, a déjà permis de mesurer le nombre d’amas de galaxies de masse supérieure à cent mille milliards de masse solaire qui s’élève aujourd’hui à plus de 144 millions. Autres enseignements : le premier amas de ce type est apparu alors que l’Univers n’avait que 2 milliards d’années et l’amas le plus massif dans l’Univers observable aujourd’hui pèse 15 millions de milliards de masses solaires. Les données générées lors du calcul permettent également de mesurer les fluctuations de la distribution de la matière noire. Celles-ci résultent des fluctuations du fond de rayonnement cosmologique issues du Big-Bang, observées par les satellites WMAP et Planck. Ces observations sont cette fois obtenues dans une simulation qui couvre toute l’histoire de l’Univers, avec une précision jamais atteinte et sur la plus large gamme d’échelles jamais observées, de quelques millionièmes à la taille de l’Univers. Elles dévoilent avec précision les empreintes sur la matière noire des oscillations du gaz primordial (« Oscillations Baryoniques Acoustiques »). Ces calculs apparaissent déjà comme une mine prodigieuse de nouveaux résultats intéressant toute la communauté cosmologique.

La mise en œuvre de ce projet exceptionnel a été rendue possible grâce aux puissantes ressources mises à la disposition de ces chercheurs par GENCI, le Grand Equipement National de Calcul Intensif, sur son supercalculateur CURIE doté de plus de 92 000 unités de calcul et capable de réaliser 2 millions de milliards d’opérations à la seconde (2 PFlop/s). La machine CURIE est installée et exploitée par le CEA au sein du Très Grand Centre de Calcul, à Bruyères-le-Châtel (Essonne). Conçue par Bull, c’est l’une des cinq machines les plus puissantes au monde.

Deus : full universe run constitue une nouvelle avancée qui dépasse largement les calculs les plus performants réalisés à ce jour par toutes les équipes internationales sur les plus grands centres de calcul du monde. L’ensemble du projet nécessitera plus de 30 millions d’heures de calculs (près de 3500 ans) réparties sur la quasi-totalité des unités de calcul CURIE. Plus de 150 péta-octets de données(soit l’équivalent de 30 millions de DVD) seront générés durant ces calculs. Grâce à un processus de sélection avancé et innovant, il sera possible de n’en conserver que 1 Po utile.

Dès à présent, il est possible de parcourir pour la première fois, pour le modèle standard de la cosmologie avec constante cosmologique, la distribution de la matière noire et des galaxies dans tout l’Univers sur des distances équivalent à 90 milliards d’années-lumière (5), et d’observer leurs évolutions tout au long de l’histoire de l’Univers.

CEA

 

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Regards croisés sur l'avenir des forêts françaises face au changement climatique
Mardi, 24/04/2012 - 01:40

Une nouvelle étude menée par des chercheurs de l’Université Paris-Sud, de l’INRA, du CNRS, du CEA, d’AgroParisTech et de l’Université Joseph Fourier de Grenoble a permis d’évaluer, à partir de huit modèles de dernière génération, la réponse des forêts au changement climatique, et de souligner les incertitudes associées. L’objectif de l’analyse était de comparer les sorties de différent types de modèles écologiques et de les combiner afin d’avoir des scenarii plus fiables. L’étude a porté sur une sélection de cinq essences forestières dominantes en France. En général, les auteurs montrent que les arbres des plaines de l'ouest, du sud-ouest et du centre de la France seront les plus fortement touchés d'ici 2050. Le changement climatique compromettra l'avenir de certaines essences d'arbre en plaine, comme le pin sylvestre. Ces résultats viennent d’être publiés dans la revue "Ecology Letters".

Le changement climatique n'est pas sans effets positifs sur les arbres. La croissance de certaines essences, comme le hêtre, pourrait être stimulée dans le nord, l'est et en montagne. Plus généralement, les modèles prévoient que toutes les espèces d'arbres étudiées progresseront en altitude, et que le chêne vert trouvera des climats favorables bien au nord de la région Méditerranéenne d'ici 2050.

L'utilisation d'une grande gamme de modèles, allant de modèles statistiques à des modèles complexes de croissance des arbres, a permis d'identifier des incertitudes dans les prévisions. Ainsi, il est difficile de prédire l'impact du changement climatique sans une meilleure connaissance des effets directs de l'augmentation de la teneur en CO2 atmosphérique sur la végétation. Par exemple, les fortes teneurs en CO2 peuvent protéger les arbres contre la sécheresse.

En dépit de ces incertitudes, la plupart des modèles prévoient un recul des espèces de climat tempéré en plaine. Cela concerne plus précisément les essences telles que le hêtre ou le chêne sessile dans les plaines de l'ouest, du sud-ouest et du centre. Ces résultats sont en accord avec d'autres projets de recherche comme « Dryade » qui ont montré que les sécheresses extrêmes ou à répétition, comme celles prévues à l'avenir, ont déjà augmenté la vulnérabilité et la mortalité des arbres.

Les résultats de ces travaux accomplis au sein du projet QDIV, soutenus par l'Agence Nationale de la Recherche (ANR) et le GIS "Climat, Environnement, Société" ouvrent de nouvelles perspectives dans la recherche sur les effets du changement climatique sur la végétation. En effet, ils montrent le besoin de combiner plusieurs modèles écologiques de distribution d’espèce, comme le font les climatologues sur les modèles de climat, afin de comprendre leurs incertitudes, mais aussi leurs qualités.

Que faire face à de tels scenarii ? Avec cette nouvelle étude, les scientifiques apportent des informations aux gestionnaires des forêts leur permettant d’anticiper les évolutions à venir. Ces derniers se préparent déjà au changement climatique, en mettant en place différentes stratégies. Certaines consistent à favoriser les espèces plus résistantes à la chaleur et à la sécheresse aux dépens d'espèces plus vulnérables comme le pin sylvestre. Dans d'autres cas, la meilleure stratégie consiste à améliorer la résilience des forêts — par exemple en renforçant la diversité spécifique et génétique, ou en atténuant la sécheresse par une sylviculture plus économe en eau — pour faire face à un avenir incertain.

INRA

Vus d’un satellite, les glaciers grossissent en Asie
Samedi, 21/04/2012 - 01:30

Il s’agit d’une découverte inattendue.

La découverte a dérouté les scientifiques, à une époque où la majorité des glaciers dans le monde ont tendance à s’amenuiser. Des photos prises par un satellite français montrent que des glaciers ont augmenté de volume au cours de la dernière décennie, dans une chaîne de montagnes à l'ouest de l'Himalaya, le massif du Karakoram.

Les scientifiques français du Centre National de Recherche Scientifique (CNRS) et de l'Université de Grenoble, ont du s'appuyer sur des images satellite pour étudier la région, car la chaîne du Karakoram est très difficile d’accès.

En comparant les observations satellite faites en 1999 et 2008, les chercheurs ont constaté une augmentation de la masse des glaciers. Selon leurs estimations, les glaciers ont gagné entre 0,11 et 0,22 mètres de glace chaque année.

Pourquoi cette région évolue-t-elle à l’inverse de la tendance mondiale ? Mystère. Une piste est cependant envisagée : c’est le réchauffement climatique lui-même qui pourrait être à l’origine du grossissement des glaciers. Dans certaines régions très froides, le réchauffement peut entraîner davantage de précipitations. En gelant rapidement, ces pluies augmentent la masse de glace.

Selon le professeur Stephan Harrison, cette recherche prouve qu’il existe "une variabilité considérable" dans le climat mondial et dans les différentes réactions des glaciers.

Atlantico

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Réduire les effets d'une crise cardiaque de 50 % ?
Jeudi, 26/04/2012 - 01:20

Une équipe de chercheurs de l'Université de Tromso (UiT)  a réussi à réduire les effets d'une crise cardiaque de 50 % sur des rats de laboratoire grâce à un traitement à l'hydrogène sulfuré.

"Nous avons créé un infarctus du myocarde (quand une ou plusieurs artères coronaires se bouchent, les cellules du myocarde irriguées par ces artères ne sont alors plus oxygénées) sur des rats de laboratoire et les avons soumis au traitement à l'hydrogène avant, pendant et après. Les résultats montrent que les effets de l'attaque cardiaque sont alors réduits de 50 %.", affirme David Johansen, doctorant à la Faculté des Sciences de la Santé de l'Université de Tromso. "Ces résultats peuvent amener à une meilleure compréhension de ce qui se passe lors d'une crise cardiaque, et surtout favoriser le développement de meilleurs traitements dans le futur.", ajoute-t-il.

Le projet est développé en collaboration avec un groupe de recherche étranger. "Nous étions les premiers au monde à montrer que le sulfure d'hydrogène en petites quantités peut réduire la taille de l'infarctus du myocarde. Les nouvelles connaissances que nous avons développées sont importantes dans la poursuite des travaux de recherche pour aider les patients victimes d'une crise cardiaque aiguë, de sorte qu'ils puissent bénéficier de meilleures chances de survie et d'un moindre risque de maladie cardiaque chronique.", dit David Johansen.

Il existe aujourd'hui en Norvège deux méthodes pour traiter une crise cardiaque. La première, la thrombolyse, consiste à désagréger par médicament les caillots sanguins formés dans les artères. La seconde, l'angioplastie, consiste à introduire une sorte de ballonnet dans la coronaire bouchée afin de la dilater mécaniquement. Ces deux traitements sont utilisés pour limiter les dégâts au muscle cardiaque, mais il existe encore un risque considérable de mort cellulaire dans le coeur. David Johansen cherche une façon de prévenir la mort cellulaire lors d'une attaque. "Quand une cellule meurt lors d'une attaque cardiaque, d'autres cellules meurent ensuite, via une sorte de mort cellulaire programmée. Si vous pouvez administrer un traitement qui empêche la mort cellulaire, cela aura un effet majeur. Malheureusement, à l'heure actuelle ce traitement n'existe pas.", explique-t-il. Il ajoute : "Malgré ces bons résultats sur les coeurs de rats, il reste encore beaucoup de travail avant de mettre en oeuvre ce traitement sur des patients."

Bulletins Electroniques

Un ver qui carbure au monoxyde carbone et au sulfure d'hydrogène !
Jeudi, 26/04/2012 - 01:10

Dans une étude publiée dans les Proceedings of the National Academy of Science, des scientifiques du département de microbiologie marine de l'Institut Max Planck du département de microbiologie marine (Allemagne) révèlent le menu toxique d’un petit ver marin qui vit dans les sédiments sableux de la côte de l’île d’Elbe.

Le ver, Olavius algarvensis, est capable d’affronter un environnement où l’approvisionnement alimentaire est rare et peu comestible pour la plupart des êtres vivants : du monoxyde de carbone et d'hydrogène sulfuré. Il peut prospérer malgré ces poisons grâce à des millions de bactéries symbiotiques qui vivent sous sa peau. Elles utilisent l'énergie extraite du monoxyde de carbone et du sulfure d'hydrogène pour produire de la nourriture pour ce dernier. « Elles le font de façon si efficace que le ver a perdu son système digestif entier, y compris la bouche et l'intestin, au cours de l'évolution et ne se nourrit que grâce à ses symbiotes», explique Nicole Dubilier, du Groupe Symbiose à l’Institut Max Planck.

Olavius algarvensis a aussi d'autres trucs dans son sac qui lui permettent de survivre dans son environnement pauvre en nutriments : contrairement à la plupart des animaux, qui ne sont pas capable de recycler leurs déchets et doivent les excréter, le ver peut les utiliser. Encore une fois grâce à ses microbes symbiotiques qui recyclent les produits qui contiennent encore beaucoup d'énergie mais qui ne sont plus d'aucune utilité pour le ver à leurs propres fins.

Du coup, ce ver a pu non seulement réduire son système digestif mais il a également perdu ses reins. « Ce ver nous fournit un exemple de la puissance de l'évolution. Il constitue un excellent modèle pour une meilleure compréhension des autres symbioses complexes, tels que celles de l'intestin humain », conclut Nicole Dubilier.

Sciences et Avenir

Notre cerveau, fruit d'un travail d'équipe ?
Jeudi, 26/04/2012 - 01:00

Les humains ont un gros cerveau probablement en raison de l'esprit coopératif qu'ils ont développé au cours de l'évolution. La comparaison du cerveau de l'Homo sapiens avec celui de ses prédécesseurs hominidés mène à un constat clair : l'organe humain fait figure de géant, particulièrement en raison de ses méninges particulièrement développées. Or, les scientifiques n'ont jamais réussi à expliquer pourquoi le cerveau avait évolué de la sorte.

Le chercheur irlandais Luke McNally, du Trinity College, et des collègues écossais estiment que l'explication pourrait bien résider dans un simple fait : l'humain a eu besoin de coopérer pour survire. Ainsi, son cerveau a donc dû s'adapter et grossir pour se retrouver dans la complexité des relations sociales.

Pour l'établir, les scientifiques ont réalisé un modèle informatique reproduisant le cerveau humain dans lequel un réseau de neurones évoluait et réagissait à une série d'interactions sociales. Selon Luke McNally, « Nous coopérons fréquemment au sein de grands groupes d'individus qui ne se connaissent pas, et cela nécessite des capacités cognitives pour déterminer qui est en train de faire quoi, et ajuster son comportement en conséquence. »

Les chercheurs estiment que le travail en équipe et la puissance cérébrale se stimulent l'un l'autre. Ainsi, le passage à des sociétés plus coopératives et plus complexes a peut-être poussé l'évolution d'un cerveau plus gros. Ainsi, des niveaux d'intelligence plus élevés permettent aussi de développer l'esprit coopératif.

Pour l'anthropologue Robin Dunbar, de l'Université d'Oxford, il y a quand même des limites physiques à la coopération. « La taille actuelle de notre cerveau limite la taille de la communauté avec laquelle nous pouvons interagir, celle à laquelle nous avons le sentiment d'appartenir. » Le Professeur Dunbar estime qu'un réseau social personnel est limité à environ 150 individus en moyenne. Selon lui, faire passer ce chiffre à 500 obligerait à doubler la taille du cerveau humain.

Radio Canada

Un nouvel outil de dépistage gériatrique pour les personnes âgées atteintes de cancer
Mercredi, 25/04/2012 - 01:40

Cet outil doit permettre aux oncologues, hématologues, et cancérologues de repérer les personnes âgées atteintes de cancer à risque de mauvaise tolérance d’un traitement anticancéreux parce qu’ils présentent une dénutrition, des comorbidités, une polymédication, des troubles cognitifs…. Il permet ainsi d’identifier les patients devant bénéficier d’une consultation adaptée aux anomalies dépistées et/ou d’une évaluation gériatrique approfondie (EGA) avant de commencer le traitement anticancéreux.

Après avoir soutenu la création de 15 unités pilotes de coordination en oncogériatrie, l'INCa a lancé un appel à projets en juillet 2007 afin de valider un outil de dépistage gériatrique en oncologie. L'étude Oncodage, retenue dans ce cadre, et conduite par le Professeur Soubeyran, a comparé en aveugle l'EGA, considérée comme le gold standard de l’évaluation gériatrique mais très consommatrice de temps et de moyens, à un nouvel outil de dépistage gériatrique simple composé de 8 items (outil Oncodage). Coté de 0 à 17, un score inférieur ou égal à 14 est le reflet d’une vulnérabilité ou d’une fragilité gériatrique.

Cette étude multicentrique a été conduite entre août 2008 et mars 2010, avec inclusion de 1674 patients dont 1597 éligibles (d’âge moyen de 78,2  ans). Plus de 80 % d’entre eux ont présenté une EGA anormale. Le score d’Oncodage était anormal dans 68,4 % des cas. Le type de cancer (sein, côlon, poumon, prostate, ORL, lymphome) influait sur le pourcentage d’EGA et d’Oncodage anormaux.

Globalement, la sensibilité d’Oncodage est de 76,5 % et sa spécificité de 64,4 %. Si l’EGA prend en moyenne environ 1 heure, l’outil Oncodage, réalisé dans cette étude le plus souvent par une infirmière ou un attaché de recherche clinique, est fait en moins de 10 mn. Ces résultats valident l’utilisation de cette grille comme outil de dépistage gériatrique à utiliser par les équipes de cancérologie pour tout patient âgé atteint de cancer avant traitement.

Cette action prend place dans le cadre du Plan cancer 2009-2013 et de l’action 23.4 : améliorer la prise en charge des personnes âgées atteintes de cancer.

Institut National du Cancer

Un nouvel espoir dans la lutte contre la tuberculose
Mercredi, 25/04/2012 - 01:30

Des équipes de chercheurs de l’Institut Pasteur et de l’Inserm, en collaboration avec une équipe de l’Université de Pise, viennent de déterminer le rôle essentiel de certaines protéines dans la virulence de la mycobactérie responsable de la tuberculose, Mycobacterium tuberculosis. Ils ont réussi à créer une souche atténuée de cette mycobactérie, qui offre une protection plus importante contre la tuberculose que le BCG chez la souris. Cette découverte représente une avancée majeure pour les recherches visant à développer un vaccin plus efficace contre cette maladie. Cette étude est publiée aujourd’hui dans la revue Cell Host & Microbe.

La tuberculose est l’une des maladies les plus répandues au monde. Elle est due à une infection par la mycobactérie Mycobacterium tuberculosis, touchant un tiers de la population mondiale. Selon l’Organisation Mondiale de la Santé (OMS), en 2010, 8,8 millions de personnes ont développé la tuberculose et 1,4 million de personnes en sont mortes. Ainsi, M. tuberculosis reste à ce jour l’un des pathogènes les plus virulents et les plus dangereux pour l’homme. Malgré son efficacité chez l’enfant, le BCG ne protège pas suffisamment l’adulte contre la tuberculose pulmonaire. Cette forme de tuberculose est particulièrement contagieuse, d’où la nécessité de mettre au point un vaccin plus efficace pour combattre cette maladie.

Une étude réalisée par des équipes de l’Institut Pasteur et de l’Inserm, coordonnées par le Docteur Laleh Majlessi et le Professeur Claude Leclerc (Institut Pasteur/Inserm), en collaboration avec le Docteur Roland Brosch (Institut Pasteur) et le Docteur Daria Bottai (Université de Pise), révèle qu’une partie du génome de M. tuberculosis peut être modifiée afin d’obtenir une souche non virulente de cette bactérie chez la souris. La mycobactérie ainsi atténuée procure une protection significative contre le développement d’une tuberculose.

Les chercheurs ont réussi, dans la souche mutée, à bloquer la production et le transport de certaines protéines, appelées PE/PPE, associées à une région particulière du génome de la mycobactérie, l’appareil de sécrétion ESX-5 qui est présent dans toutes les souches virulentes de mycobactéries. Ils ont constaté que les souris infectées par cette souche atténuée ne développent pas la tuberculose. De ce fait, ils ont démontré que les protéines PE/PPE produites par l’appareil ESX-5 jouent un rôle essentiel dans la virulence de M. tuberculosis.

Par ailleurs, les chercheurs ont établi que les souris immunisées par la souche atténuée sont protégées très efficacement contre l’infection par M. tuberculosis. Cette protection est corrélée à la réponse immunitaire spécifique d’autres protéines PE/PPE encore présentes dans cette souche. Ainsi, les chercheurs ont prouvé que la souche mutée de M. tuberculosis est un candidat vaccin sérieux contre la tuberculose, qui provoque une réaction immunitaire plus forte que le BCG chez la souris.

Cette découverte majeure ouvre de nouvelles perspectives pour la mise au point d’un vaccin plus efficace contre les différentes pathologies provoquées par M. tuberculosis, notamment contre la tuberculose pulmonaire de l’adulte. De nombreuses études seront nécessaires avant qu’une application soit envisageable chez l’homme. La prochaine étape, pour les chercheurs de l’Institut Pasteur, de l’Inserm et de l’Université de Pise, sera la création d’une souche dans laquelle une mutation supplémentaire pourrait être introduite afin de lui assurer une totale innocuité, en vue de pratiquer des essais chez l’homme.

Institut Pasteur

Rester assis augmente le risque de mourir tôt
Mercredi, 25/04/2012 - 01:20

On le sait, rester assis toute la journée est mauvais pour la santé. Une nouvelle étude australienne en rajoute une couche en expliquant que plus une personne s’assoit, plus elle a de risques de mourir tôt. Publiée dans les Archives of Internal Medecine, cette étude a comparé plus de 200.000 Australiens de 45 ans et plus, selon le nombre de fois où ils ont rapporté s’être assis.

Une approche directe dont le but était de vérifier le lien entre le temps où l’on est assis et la probabilité de mourir dans les trois ans ainsi que d’établir au bout de combien de temps une assise prolongée est dangereuse : «Les personnes assises plus de 11 heures par jour ont 40 % de risque en plus de mourir dans les trois ans que celles qui se sont assises moins de quatre heures par jour. Ceci après avoir ajusté les résultats selon l’âge, le poids, l’activité physique et leur santé de manière générale.»

Cela explique sans doute pourquoi de plus en plus de salariés aux Etats-Unis demandent à travailler debout. Les résultats de cette nouvelle étude sont sans appel : «malade ou en bonne santé, actif ou inactif, plus les personnes sont assises plus elles ont de risque de mourir dans les trois ans.» Même si l’activité physique réduit ce risque elle ne permet pas de le prévenir totalement.

Une précédente étude expliquait déjà le danger de rester trop longtemps face à son ordinateur : «Ceux qui passent au moins quatre heures devant un écran, tous les jours, ont 48 % de risque en plus de mourir que ceux qui n’y passe que deux heures. De plus les participants qui ont passé plus de quatre heures devant leur télévision augmentent leur risque de 125 % d’avoir un problème cardiovasculaire comme une maladie cardiaque, une attaque cardiaque ou une attaque.»

Ces résultats sont si alarmants que certains suggèrent même que les médecins prescrivent à leurs patients de moins s’asseoir. Sachant que lors de son temps libre un adulte passe 90 % de son temps assis, il lui reste une marge importante pour s'améliorer.

Slate

Une structure d'ADN à triple hélice a enfin été identifiée en phase gazeuse
Mercredi, 25/04/2012 - 01:10

Des scientifiques en Espagne ont extrait des informations structurelles d'une séquence d'ADN (acide désoxyribonucléique) dans des conditions de vide (en phase gazeuse). Présentée dans la revue Journal of the American Chemical Society (JACS), l'étude pourrait renforcer les traitements antigènes à base de structures d'ADN.

Les chercheurs de l'institut de recherche en biomédecine (IRB Barcelona) et du Centre de superinformatique de Barcelone (BSC) expliquent que personne n'a jamais réussi à identifier ces structures d'ADN particulière auparavant.

«Jusqu'à présent, ces structures d'ADN spéciales étaient pratiquement indétectables et on ignorait si elles préservaient une mémoire structurelle dans les solutions lorsqu'elles s'évaporaient», déclare le professeur Modesto Orozco de l'Université de Barcelone, également responsable de l'unité Sciences de la vie au BSC. «Avec cette étude, nous avons pu caractériser cette structure et démontrer qu'elle maintient une mémoire surprenante de son environnement biologique antérieur, généralement en solution aqueuse, dans laquelle il est normalement difficile de la caractériser.»

Le professeur Orozco et ses collègues ont utilisé des techniques de simulation informatiques ainsi qu'une validation expérimentale par spectrométrie de masse pour obtenir les résultats recherchés. Le chercheur du BSC et son équipe travaillent sur ce projet depuis plus de dix ans. Cette découverte récente a aidé l'équipe à obtenir l'atlas complet des structures d'ADN en phase gazeuse, et elle pourrait aider les scientifiques à développer ce que l'on appelle le traitement antigénique. Selon les chercheurs, l'utilisation de structures à triple hélice d'ADN en traitement signifie que les gènes actifs contribuant à une maladie donnée peuvent être inhibés.

«Il n'existe encore aucun médicament basé sur la thérapie génique sur le marché, mais plusieurs sont en cours de développement», explique le professeur Orozco, ajoutant que l'une des difficultés pour faire de ce traitement une réalité était de détecter par voie expérimentale ces structures à triple hélice. «Les démonstrations que cette structure est maintenue en phase gazeuse permettra de détecter ces structures d'ADN plus facilement», commente le professeur Orozco.

Ces travaux permettront aux chercheurs de développer des techniques innovantes de résolution structurelle basées sur l'utilisation de lasers à rayons X à électrons libres. L'installation européenne de laser à rayons X à électrons libres, construite en Allemagne, génèrera des impulsions lumineuses intenses, comparables à un synchrotron. «Si nos calculs sont corrects, les rayonnements à électrons libres peuvent être utilisées pour obtenir des données structurelles en phase gazeuse sur le comportement d'une molécule dans son environnement biologique naturel et il s'agirait d'un outil puissant pour comprendre la structure des macromolécules», commente le scientifique du BSC. Des experts de l'université de Liège en Belgique ont contribué à cette étude.

Cordis

Une bague pour surveiller son état de santé
Mardi, 24/04/2012 - 01:30

Le chercheur Stanley Wissmar et ses collègues de l'Ecole royale polytechnique KTH ont développé et breveté une bague qui permettrait aussi bien de suivre son état de santé que de contrôler sa console de jeu.

L'idée est venue à Stanley Wissmar, il y a quatre ans, lorsqu'il faisait son jogging tout en écoutant de la musique : "Je pensais à quel point ça serait pratique d'avoir un moyen simple de changer de chansons ou d'ajuster le volume sans avoir à chercher le téléphone dans sa poche à chaque fois. Voyant le problème du point de vue de l'utilisateur, l'idée de la bague m'est venue !"

Stanley Wissmar et son collaborateur Bo Hammarlund ont fondé l'entreprise SenseM et ont identifié trois domaines d'application pour cette technologie : le suivi médical, l'accès et l'authentification, et une unité de contrôle électronique. Stanley Wissmar ajoute : "Nous avons déjà un prototype pour le suivi des patients atteints de la maladie d'Alzheimer. Nous attendons une démonstration des applications d'authentification dans un mois."

La bague en combinaison avec d'autres outils développés par le CHU de Karolinska, pourrait par exemple fournir des informations en temps réel que les médecins utiliseraient pour évaluer l'état de santé du patient. La bague pourrait également être utile dans le cas de maladies causant des tremblements, comme l'épilepsie ou les troubles du déficit de l'attention. La bague transmettrait les données à un smartphone, qui enverrait à son tour les données cryptées au docteur du patient.

Bulletins Electroniques

Cancer de la prostate : le traitement par ultrasons offre une véritable alternative
Mardi, 24/04/2012 - 01:20

Une étude publiée par la revue médicale britannique "The Lancet Oncology" vient de confirmer les résultats très encourageants d'un essai thérapeutique utilisant des ultrasons à haute densité pour des patients présentant des petites tumeurs de la prostate. Aprés un an, 95 % des 41 patients de cette étude ne présentaient plus de lésions cancéreuses, avec un taux de complications nettement inférieur à celui de la chirurgie.

Actuellement, la prise en charge standard passe principalement par la chirurgie ou la radiothérapie, associée à une hormonothérapie, avec un risque de complications, notamment d'incontinence ou d'impuissance sexuelle. L'autre option est la surveillance dite active de la tumeur lorsqu'elle est de petite taille, afin d'intervenir en cas d'évolution.

Pour améliorer et compléter cette prise en charge du cancer de la prostate, de nouvelles thérapeuties "focalisées" sont en cours de développement depuis quelques années : il s'agit de détruire par des stratégies focalisées (des ultrasons, par exemple), le foyer de cellules cancéreuses lorsqu'il est encore limité. Ces techniques, destinées aux formes débutantes, n'induiraient pas ou peu de risques de complications.

  • Aucun cas d'incontinence

L'essai, mené sous l'égide du Medical Research Council en Grande-Bretagne, porte sur 41 hommes âgés de 45 à 80 ans, atteints d'une tumeur de petite taille, ayant un taux de PSA faible (inférieur à 15 ng/ml) et un score de Gleason faible (marqueur de l'agressivité tumorale). Tous ont subi entre juin 2007 et juin 2010 un traitement par ultrasons de haute intensité, par voie intrarectale, sous anesthésie générale, avec repérage de la tumeur à travers l'imagerie par résonance magnétique nucléaire.

L'essai, mené sous l'égide du Medical Research Council en Grande-Bretagne, porte sur 41 hommes âgés de 45 à 80 ans, atteints d'une tumeur de petite taille, ayant un taux de PSA faible (inférieur à 15 ng/ml) et un score de Gleason faible (marqueur de l'agressivité tumorale). Tous ont subi entre juin 2007 et juin 2010 un traitement par ultrasons de haute intensité, par voie intrarectale, sous anesthésie générale, avec repérage de la tumeur à travers l'imagerie par résonance magnétique nucléaire.

L'intervention est de courte durée. Elle peut aussi être répétée ultérieurement. Si cette procédure est déjà utilisée, y compris en France, c'est la première fois qu'une évaluation rigoureuse est publiée dans une revue scientifique de haut niveau. Les résultats sont prometteurs : au bout de 12 mois de traitement, 95 % (39 sur 41) des hommes ne présentaient plus de cellules cancéreuses à la biopsie (quatre ont subi une seconde cure par ultrasons au bout de six mois). Surtout, aucun cas d'incontinence urinaire n'a été à déplorer dans ce groupe. Certes, 10 % des hommes traités ont eu des difficultés d'érection, un taux moindre qu'après une intervention radicale.

«Nos résultats sont encourageants, estime le Docteur Ashim Ahmed, responsable de l'essai au sein de l'université du Col­lège de Londres. Nous avons apporté la «preuve du concept». Il reste maintenant à développer un essai à plus large échelle et de plus longue durée, avant de proposer une telle stratégie en pratique courante.» D'autres traitements dits focalisés sont en cours d'essai. Outre les ultrasons de haute intensité, il existe aussi la curithérapie, la cryothérapie et la photothérapie dynamique. Tous ont pour objectif de détruire des foyers cancéreux, en réduisant les effets secondaires des traitements classiques.

Rappelons que la France est en pointe dans l'utilisation des ultrasons pour traiter le cancer de la prostate. Mise au point à l'hôpital Edouard-Herriot, l'Ablathermie est une technique utilisant des ultrasons focalisés de haute intensité (HIFU) pour détruire les tissus cancéreux de la prostate. Elle s'adresse aux patients de plus de 70 ans, atteints d'un cancer localisé qui ne souhaitent pas, ou ne peuvent pas, être opérés. 1 000 patients sont traités, chaque année, avec l'Ablatherm et plusieurs études ont montré son efficacité.

La première, menée sur 800 patients dans six hôpitaux français, montre l'efficacité de l'Ablathermie dans le traitement des cancers localisés, avec un taux de survie, sans cancer et sans métastase, de 99 % à huit ans ». Une deuxième étude a été menée sur 200 patients souffrant d'une récidive après un traitement par radiothérapie. elle a montré que l'ablathermie par ultrasons permettait un taux de survie spécifique de 86 % à sept ans chez les patients récidivistes traités.

The Lancet oncology du 17-04-2012

Un peu d'alcool conserve !
Mardi, 24/04/2012 - 01:00

Une étude américaine a montré que les hommes ayant survécu à un premier infarctus du myocarde et qui boivent deux verres par jour, auraient un taux de décès inférieur à celui des personnes qui ne boivent jamais d'alcool. Les équipes du Docteur Jennifer Pai, de l'école de santé publique de l'Université Harvard près de Boston (Etats-Unis), ont suivi une cohorte de 1 818 hommes, qui tous avaient été victimes d'un infarctus du myocarde entre 1986 et 2006. Durant cette période, 468 participants sont décédés.

Tous les quatre ans, les chercheurs les ont interrogés sur leur consommation d'alcool et leurs habitudes alimentaires. Ils les ont ainsi répartis en 4 groupes selon la quantité d'alcool ingérée quotidiennement : 0g ; de 0,1g à 9,9g ; de 10g à 29,9g et plus de 30g. Ceux qui ont bu entre 10g et 29,9g d'alcool par jour – soit environ deux verres standard - ont été classés parmi les « buveurs modérés ».

Après ajustement de divers facteurs susceptibles d'affecter les résultats - tels que les antécédents tabagiques ou l'âge- il s'est avéré que ces buveurs modérés présentaient un moindre risque de décès prématuré.  Dans ce groupe, la mortalité toutes causes confondues, a été inférieure de 14 % à celle des sujets qui ne consommaient pas du tout d'alcool  et le risque de mourir d'une maladie cardiovasculaire a été diminué de 42 %. A noter que le type de boisson n'a pas affecté les résultats.

«Notre étude a porté exclusivement sur des hommes » souligne le Docteur Pai qui précise  « Cependant, nous savons que l'alcool influe sur le développement de maladies chroniques, mais à des doses plus faibles pour les femmes. Nous pensons donc que dans le cas d'espèce, nous pourrions tirer les mêmes conclusions pour une consommation féminine d'un verre par jour ».

European Heart Journal

Dix formes génétiques de cancer du sein ont été identifiées
Lundi, 23/04/2012 - 01:30

Des chercheurs britanniques de l’université de Cambridge et des Canadiens de l’université British Columbia ont mis au jour dix sous-groupes de cancers du sein. Une découverte importante pour affiner les traitements des patientes. Pour cela, les scientifiques ont analysé l’aspect des tumeurs de 2.000 femmes atteintes d’un cancer du sein, de leur mutation génétique jusqu’à l’amplification des gènes.

"Ces résultats vont ouvrir la route et permettre aux médecins, d’ici un certain nombre d’années, d’établir le type de cancer dont souffre une patiente et de cibler plus précisément quel médicament sera le plus efficace pour son traitement", a expliqué Carlos Caldas, co-auteur de l’étude. Identifiées par des chercheurs de Cambridge, ces formes nécessitent chacune un traitement particulier. En identifiant les signatures de gènes capables de mieux prédire l'évolution d'un cancer, des chercheurs de l'université de Cambridge associés à des chercheurs canadiens pourraient bien avoir découvert la «pierre de Rosette» des cancers du sein.

Pour effectuer cette percée, les chercheurs ont analysé de façon approfondie 997 prélèvements obtenus sur des femmes touchées par la maladie puis ont vérifié leurs prédictions sur 995 autres tumeurs. «Ils ont utilisé les informations provenant de l'ADN, de l'ARN et les ont couplées avec des techniques informatiques de pointe», explique le Docteur Saghatchian. «Là où on regardait la cellule cancéreuse en deux dimensions (présence de récepteurs hormonaux ou non, analyse de 70 gènes), ils la voient en 3D.» Même enthousiasme de son collègue de l'Institut Gustave-Roussy, le Docteur Fabrice André, qui dirige l'équipe Inserm chargée d'identifier les prédicteurs moléculaires et de nouvelles cibles thérapeutiques : «Cette étude est extrêmement importante dans la mesure où elle montre que le cancer du sein correspond en fait à un nombre important de maladies définies au niveau moléculaire. Certaines de ces maladies moléculaires sont très rares et pourraient ne concerner que moins de 5 % des cancers du sein.»

Au lieu de se limiter à deux ou trois catégories de cancer du sein comme c'est généralement le cas, le Docteur Carlos Caldas et ses collègues ont en effet séparé les cancers du sein en dix catégories. Cette avancée ne se limite pas à prévoir l'évolution de la maladie, ce qui pourrait déjà permettre d'éviter de «surtraiter» des tumeurs dont le pronostic est favorable. Elle permettrait aussi de mieux choisir le traitement. Pour le Docteur André, ce travail et d'autres soulèvent une question cruciale : «Comment montrer l'efficacité de médicaments ciblés qui pourraient n'être très efficaces que dans 1 à 5 % de cancers du sein (ceux présentant l'anomalie ciblée). C'est à cette question qu'essaient de répondre deux essais thérapeutiques en France, Safir et Moscato, qui évaluent l'apport des analyses complètes du génome pour identifier le médicament utile à chaque patiente.»

Cette étude ne serait donc pas seulement importante sur le plan biologique, mais elle ouvre surtout la porte au développement de nouvelles stratégies thérapeutiques en fonction des sous-groupes. À chaque profil de cancer son traitement.

Nature

Cancer du sein : découverte d’un nouveau type de mutation
Lundi, 23/04/2012 - 01:20

Ces chercheurs de la Mayo Clinic ont découvert une nouvelle classe de mutation moléculaire pour diverses formes de cancer du sein, une découverte qui pourrait expliquer le développement et la croissance de différents types de tumeurs mammaires. Ces formes mutées de l'ARN, dites transcrits de fusion, pourraient également fournir de nouveaux biomarqueurs de ces tumeurs et permettre de nouvelles stratégies thérapeutiques personnalisées. Les conclusions de cette étude, la première à avoir opéré une recherche systématique des transcriptions de fusion liées aux différents types de tumeurs mammaires, viennent d’être publiées dans l’édition du 10 avril de la revue Cancer Research.

Les oncologues reconnaissent actuellement 3 types principaux de tumeurs du sein, cancer du sein à récepteurs des œstrogènes (ER)-positif, HER2-positif, et triple négatif. « Mais la typologie des cancers du sein est bien plus complexe », précisent les auteurs, « et l'un des défis pour traiter la maladie est d'identifier des marqueurs génétiques qui permettent de prédire comment une tumeur répondra à un traitement spécifique » explique le Docteur Edith Perez, auteur principal et directeur adjoint du Centre du cancer de la Mayo Clinic.

Les transcrits de fusion sont créés lorsque les chromosomes se brisent et se recombinent, un événement qui se produit généralement dans les cellules cancéreuses. Au cours de ce processus, des gènes de fusion sont créés lorsque deux moitiés de gènes normaux deviennent liées. Gènes de fusion (ADN) créent des transcrits de fusion (ARN), qui produisent des protéines de fusion. Ces protéines sont pertinentes pour mesurer le développement des tumeurs, la croissance et la sensibilité au traitement. Leur identification pourrait donc aider les chercheurs à mieux comprendre et traiter le cancer du sein  de manière personnalisée.

La découverte de transcrits de fusion spécifiques à certains sous-types du cancer du sein représente une étape dans cette direction. Car les résultats de l’étude  indiquent que les transcrits de fusion sont bien plus fréquents dans le cancer du sein que ce qui était auparavant admis. Ils représentent une nouvelle classe de mutation dont le rôle dans le cancer du sein n'est pas encore bien compris. Les chercheurs doivent donc encore comprendre la fonction exacte de ces transcrits de fusion qui peuvent interférer sur les fonctions cellulaires normales et participer ainsi au développement des cellules tumorales.

Ces transcrits de fusion sont fréquents dans les cancers du sang comme la leucémie et le lymphome, rappellent les auteurs. Mais, avant cette découverte, seuls quelques-uns avaient été identifiés dans les tumeurs solides. Ces transcrits feraient aussi des biomarqueurs idéaux pour identifier les cellules tumorales, et les protéines produites pourraient être pertinentes pour mesurer la croissance tumorale.

Santé Log

Vieillissement du cerveau : des modifications génétiques identifiées
Dimanche, 22/04/2012 - 01:10

L’hippocampe est une structure cérébrale dont la réduction du volume avec l’âge est associée aux troubles de mémoire. L’accélération de ce phénomène est une des manifestations de la maladie d'Alzheimer. Grâce à une collaboration internationale impliquant des équipes de recherche françaises, des mutations génétiques associées à la réduction du volume de l’hippocampe ont été mises en évidence.

Ces résultats ont été obtenus grâce à des études épidémiologiques analysant les génomes et les IRM cérébrales de 9232 participants âgés de 56 à 84 ans. En France, environ 2000 IRM ont été réalisées à travers l'étude des 3 Cités. Les résultats de ce travail sont publiés le 15 avril 2012 dans la revue Nature Genetics.

Des réductions du volume de l’hippocampe apparaissent avec l'âge sous l'effet cumulatif de divers facteurs. L'atrophie hippocampique étant un marqueur biologique reconnu de la maladie d'Alzheimer, il était important pour les chercheurs de déterminer l’origine de ce processus.

Une étude internationale pilotée en France par Christophe Tzourio a cherché les variabilités génétiques associées à la réduction du volume de l’hippocampe. Pour cela, les génomes et les données IRM de plus de 9000 personnes âgées de 56 à 84 ans, ont été analysés afin de détecter une association éventuelle entre certaines mutations et la diminution du volume de l’hippocampe. Les données des participants (avec et sans démence) ont été extraites de huit grandes cohortes européennes et nord-américaines.

Les chercheurs ont tout d’abord pu repérer 46 différences dans la séquence de l’ADN des participants a priori associées à une réduction du volume de l’hippocampe. Dix-huit mutations situées sur des régions différentes du chromosome 12 sont de manière significative associées à une réduction du volume de l’hippocampe. Les associations restantes ont inclus une mutation sur le chromosome 2. Enfin, une dernière mutation sur le chromosome 9 a été, quant à elle, associée à une réduction de l’hippocampe dans un troisième échantillon plus jeune. Ces résultats signifient que des facteurs "encore non identifiés" déclenchent des mutations dans des endroits bien précis du génome qui entraînent la réduction du volume de l’hippocampe.

L’hippocampe est une structure profondément enfouie dans le cerveau qui joue un rôle primordial dans les processus de mémoire. Son volume diminue avec l’âge, et cette diminution est accélérée dans la maladie d’Alzheimer. Pour cette étude, une analyse automatique des images IRM et du calcul du volume de l’hippocampe de chaque sujet a dû être mise au point.

Une fois les mutations mises en évidence, les scientifiques ont cherché ce qu’elles modifiaient. Ils ont découvert qu’elles changeaient la structure de gènes importants aux fonctions multiples impliqués entre autres dans la mort cellulaire (HRK) ou le développement embryonnaire (WIF1), le diabète (DPP) ou encore la migration neuronale (ASTN2).

"Cette étude marque un tournant majeur car elle confirme que des facteurs génétiques sont associés à une structure cérébrale, l'hippocampe, impliquée dans les démences et d'une façon beaucoup plus générale dans le vieillissement cérébral." explique Christophe Tzourio. Cette nouvelle approche, dans laquelle on étudie non pas une maladie mais une région cérébrale cible va permettre de décrypter de manière plus précise les mécanismes de la maladie d'Alzheimer.

Les prochaines étapes viseront à mieux comprendre comment ces mutations génétiques s'inscrivent dans le schéma général de la maladie d'Alzheimer. Même si les retombées cliniques ne sont pas à attendre immédiatement, ces découvertes sont un pas vers une meilleure compréhension de cette maladie et du vieillissement cérébral en général.

"Cette découverte confirme l'importance de réaliser des examens sophistiqués comme l'IRM cérébrale et l'étude du génome au sein des études de cohorte. Cela ne peut se faire que dans une forte collaboration entre ces disciplines." conclut Christophe Tzourio.

Inserm

Le mélanome est en forte augmentation en Suisse
Vendredi, 20/04/2012 - 06:30

Avec 2000 nouveaux cas de mélanome de la peau diagnostiqués chaque année, la Suisse arrive en tête des pays européens les plus touchés par ce cancer.

Le nombre de cas enregistré a fortement augmenté durant les deux dernières décennies, en particulier chez les hommes. Pour la période 2004-2008, le taux de nouveaux cas diagnostiqués annuellement est légèrement inférieur pour les femmes (21 pour 100’000) que pour les hommes (23,4 pour 100’000), vient d’indiquer l’Office fédéral de la statistique (OFS).

Entre 1984-1988 et 2004- 2008, le taux de nouveaux cas a également progressé moins fortement chez les femmes (50 %) que chez les hommes (80 %). Cette croissance s’observe toutefois surtout pour les cas de mélanome à un stade peu avancé, qui présentent de meilleures chances de survie. En 2004-2008, 7 % des mélanomes de la peau chez les femmes et 10 % chez les hommes étaient diagnostiqués à un stade avancé, soit avec une épaisseur supérieure à 3 millimètres.

  • Les hommes se protègent moins

Les hommes sont moins nombreux à déclarer se protéger du soleil que les femmes : 79 % contre 89 %, en 2007. Ils sont aussi moins nombreux à avoir fait contrôler leur peau au moins une fois dans leur vie (33 % contre 37 %). La protection vis-à-vis du soleil et le dépistage sont également moins fréquents parmi les personnes avec un bas niveau de formation ou un faible revenu, note l’OFS.

Chez les femmes, les mélanomes de la peau sont le plus souvent dépistés aux jambes (38 % en 2004-2008), alors que chez les hommes, c’est le tronc qui est le plus fréquemment touché (44 %). Entre les périodes 1999-2003 et 2004-2008, le nombre de cas détectés au niveau des bras et du tronc a significativement augmenté. Ce phénomène est souvent expliqué, dans la littérature spécialisée, par les changements dans les habitudes d’exposition au soleil, les loisirs et la façon de s’habiller, précise l’OFS. Les rayonnements ultra-violets émis par le soleil représentent en effet le principal facteur de risque du mélanome de la peau, qui est le quatrième cancer le plus fréquent en Suisse.

  • Campagne nationale

Les autres facteurs de risque sont l’existence de nombreux grains de beauté, les antécédents familiaux ou individuels de cancer de la peau, ou encore les prédispositions génétiques. Une campagne nationale de prévention sera menée prochainement. Les 7, 9 et 11 mai, de nombreux dermatologues offriront des examens préliminaires gratuits de grains de beauté suspects. Ceux-ci seront proposés dans des cabinets et hôpitaux, indique le site Internet de la Société suisse de dermatologie et de vérologie.

  • Différences régionales

Les taux de mortalité sont restés relativement stables. Pour la période 2004-2008, il est de 3,7 pour 100.000 habitants chez les hommes et de 2,1 pour 100.000 chez les femmes. La mortalité chez les hommes est un peu plus élevée en Suisse alémanique qu’en Suisse latine. Une différence entre les régions linguistiques s’observe également dans l’augmentation du nombre de cas durant les deux décennies prises en compte. Les taux d’incidence ont été multipliés par 2,2 chez les hommes et 1,9 chez les femmes en Suisse latine, contre respectivement 1,7 et 1,4 en Suisse alémanique.

  • Registres cantonaux

Le mélanome est responsable d’environ 2 % de l’ensemble des décès par cancer, avec en moyenne 285 morts par année sur la période 2004-2008. Si ce type de cancer se développe dans l’immense majorité des cas dans la peau, il existe aussi des mélanomes de l’oeil, des muqueuses et, plus rarement encore, des organes internes. Les nouveaux cas de cancer sont enregistrés dans les cantons où existe un registre cantonal des tumeurs - ils étaient 15 en 2008 - et sont centralisés par l’Institut national d’épidémiologie et d’enregistrement du cancer (NICER). Les valeurs pour l’ensemble de la Suisse sont extrapolées sur la base des registres existants.

Tribune de Genève

Prévenir l'infarctus grâce à un détecteur électronique implanté
Vendredi, 20/04/2012 - 06:20

La société californienne Angel Med a mis au point un micro-boitier implantable près du cœur qui est capable de détecter les risques de crise cardiaque grâce à un système de sonde et permettrait de réduire le nombre d'attaques détectées trop tardivement.

Certaines crises cardiaques sont silencieuses.Il arrive que les victimes ne ressentent pas les douleurs thoraciques considérées comme le signe classique d'un infarctus imminent. D'autres ignorent que les sueurs, les nausées et les vomissements peuvent être des signaux d'alarme. Le caillot obstrue une des artères coronaires et il est déjà trop tard. En réponse à ce problème, l'entreprise médicale américaine AngelMed a développé une sonde électronique permettant de détecter les infarctus et d'en alerter le patient qui porte ce dispositif sous-cutané.

Implanté juste en dessous de la clavicule près du cœur, ce système analyse l'activité coronaire et fournit un signal sonore (un bip) et physique (une vibration) dès qu'une des principales artères risque d'être obstruée par un caillot. Pour tester l'innocuité et l'efficacité de cette machine, des essais cliniques sont actuellement en cours sur 1020 patients susceptibles d'avoir une crise cardiaque et répartis dans 75 centres médicaux américains.

Le Docteur Robert Wlodarczyk, cardiologue californien responsable de de ces essais déclare que cet appareil permet aux patients de les prévenir à temps et d'être pris en charge rapidement. «Avec ce système d'alerte, les victimes pourront rejoindre l'hôpital plus vite qu'ils ne l'auraient fait sans», commente le médecin. Car chaque minute compte. «Si l'infarctus est imminent et que vous n'agissez pas, votre taux de mortalité augmente de 7,5 % toutes les demi-heures», prévient le médecin.

En élargissant l'utilisation de cette sonde, ses inventeurs espèrent sauver entre 25 et 30 % de vies supplémentaires. L'appareil a reçu l'autorisation de mise sur le marché en Europe en 2010 qui permet sa commercialisation en France. Il devrait coûter environ 12.000 euros. Nécessitant une intervention chirurgicale pour installer le dispositif sous la peau, cette machine pourrait être réservée aux personnes ayant déjà été victimes d'une crise cardiaque.

Angel Med

Le Figaro

Les parasites à l'origine de certains cancers dont celui du cerveau
Vendredi, 20/04/2012 - 06:10

Une étude menée par des chercheurs de l'Université de Montréal et du CNRS révèle que l'incidence du cancer du cerveau est 1,8 fois plus élevée dans les pays où le parasite protozoaire Toxoplasma gondii est commun. C'est notamment le cas de la France, de la Grande-Bretagne, de l'ex-Yougoslavie, du Brésil et de l'Argentine.

Toxoplasma gondii, qui provoque chez son hôte la toxoplasmose, une maladie bénigne souvent asymptomatique, serait présent chez un tiers de la population mondiale. La contamination se fait en mangeant de la viande insuffisamment cuite ou en ingérant des matières fécales de félin, qui se retrouvent dans le sol et donc sur les légumes. Chez l'Homme, ce parasite se loge dans les tissus du cerveau où il reste jusqu'à la mort de l'hôte. Il réside la plupart du temps en dormance mais peut parfois provoquer l'inflammation des cellules et empêcher la programmation naturelle de la mort cellulaire. C'est ce processus qui permet l'évolution de cellules cancéreuses.

Pour réaliser leur étude, les scientifiques ont croisé des données statistiques de 37 pays différents pour établir des corrélations entre l'incidence de maladies et le fait de vivre dans certains lieux. En appliquant cette même approche, les chercheurs ont également découvert que l'herpès simplex de type II serait un facteur de risque pour le cancer de la prostate ainsi que pour les mélanomes.

Ces résultats constituent de nouvelles preuves alimentant l'idée selon laquelle plusieurs cancers auraient pour origine des infections parasitaires. Mais les chercheurs ne s'en tiennent pas là et vont à présent explorer le lien entre Toxoplasma gondii et schizophrénie.

Bulletins Electroniques

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Vers des voitures sans pilote
Mardi, 24/04/2012 - 01:10

La recherche s’intensifie sur les véhicules sans pilote. Le projet SafePlatoon, financé par l’ANR jusqu’en 2014, travaille à la mise en circulation de convois de petites voitures, guidés par un seul conducteur, voire aucun. Ce qui pose la question de la sécurité des passagers et des piétons. Le point avec Jean-Michel Contet, un des coordinateurs du projet, chercheur à l'Université de Technologie Belfort-Montbéliard (UTBM).

Les convois de véhicules sans conducteurs peuvent répondre à de réels besoins dans plusieurs secteurs. En ville, les transports collectifs ne sont pas assez flexibles et modulaires pour répondre aux variations de l’affluence. Une colonne de petites voitures, a contrario, pourrait adapter sa taille au nombre de passagers. Alimenter avec ce type de solution des bornes de location libre-service est une autre application possible. Pour les militaires, des convois sans pilote permettraient de transporter de façon plus sûre troupes et marchandises, dans des zones à risques. Le milieu agricole a encore d’autres besoins, pour le traitement du sol par exemple. Le labour est une pratique agressive pour les sols lorsque la machine est trop puissante et trop lourde. A la place, un cortège de tracteurs plus légers pourrait tracer leurs sillons, sans nuire à la productivité et la qualité du sol. Le projet SafePlatoon a pour but de développer, dans les deux années qui viennent, des algorithmes sûrs et fiables pour commander ces trois types de convois.

Il y a deux principales technologies possibles pour faire circuler de tels cortèges : soit le contrôle se fait de proche en proche, l’idée est dans ce cas de créer entre chaque véhicule des ressorts et des amortisseurs virtuels, via des capteurs comme des télémètres laser, soit le contrôle est global, le véhicule de tête qui arrive à un point, passe l’information à son suiveur, et ainsi de suite. Les différents éléments du cortège peuvent ainsi se localiser à tout moment, et se déplacer de façon autonome. Plutôt que de choisir l’une ou l’autre, il se pourrait que la solution soit hybride. Le système doit en effet être suffisamment robuste pour compenser d’éventuels défauts, comme un décalage entre deux véhicules, qui risque de se répercuter à l’ensemble du convoi.

La détection et l’évitement d’obstacles sont un des principaux axes du projet. Et ce n’est pas si simple, car il faut non seulement que le convoi identifie un obstacle sur sa trajectoire, mais qu’il soit aussi capable de la corriger pour continuer sa route. Dans SafePlatoon, nous créons un environnement virtuel dans lequel les objets ou les piétons sont modélisés comme des particules, tout comme les éléments du convoi. Les déplacements se feront en tenant compte de la position géométrique des particules.

Industrie & Technologies

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top