RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 667
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 13 Septembre 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Vers l'analyse intelligente des flux numériques
Recherche sur la 5G récompensée sur le plateau de Saclay
Avenir
Des nanocapteurs pour détecter les plus infimes pollutions
Matière
Une nouvelle étape vers la puce quantique
Le Japon mise sur la biomasse
EON prépare la transition énergétique en alliant éolien et hydrogène
Terre
Les villes europénnes les plus menacées par le réchauffement climatique
Vivant
Quand les virus s'attaquent au cancer !
Un régime méditerranéen riche en huile d'olive pour protéger les os
Microbes et bactéries modifient notre comportement
La schizophrénie modifie la structure du cerveau chez certains patients
Le curcuma : un véritable "alicament" aux propriétés remarquables
Le génome humain révèle une nouvelle dimension
Pollution urbaine : un impact réel sur l'espérance de vie et la mortalité
Cancer : le premier essai clinique de thérapie basé sur le profil génétique de la tumeur
La consommation régulière de cannabis diminue les facultés intellectuelles et augmente les risques de cancer !
La réparation de l'ADN observée pour la première fois au niveau moléculaire
Cancer de l'enfant : une nouvelle avancée française
L'hippocampe et le cortex communiquent !
Un antiépileptique contre la maladie d'Alzheimer
Cancer : le rôle protecteur de l'aspirine confirmé
Une australienne aveugle récupère en partie la vue grâce à un œil bionique
Le stress des souris se transmettrait sur plusieurs générations !
Edito
L'énergie éolienne en France devient compétitive



La quantité d'électricité éolienne produite dans le monde a été multipliée par trois en 6 ans et l'éolien produira en 2012 plus de 500 TWh (l'équivalent de la consommation électrique totale de la France) au niveau mondial, soit environ 2,5 % de la production mondiale d'électricité.

A ce rythme, la capacité de production d'électricité éolienne pourrait atteindre les 1000 TWH par an d'ici 2020, ce qui permettrait de réduire chaque année de plus d'un milliard et demi de tonnes (près de 5 %  des émissions mondiales de CO2 en 2010), les émissions mondiales anthropiques de CO2.

Au niveau européen, la production totale d'électricité éolienne qui représente aujourd'hui 6 % de la consommation électrique de l'Union européenne, devrait tripler d'ici 2020 pour atteindre les 580 TWh, soit plus de 15 % de la consommation électrique européenne. 

On admet à présent, compte tenu du potentiel éolien disponible, des progrès technologiques en cours et des perspective inévitables d'augmentation du prix des énergies fossiles (pétrole, gaz et charbon), liées à l'explosion de la demande mondiale d'énergie, qu’il est réaliste d'envisager que l'énergie éolienne puisse fournir de 10 à 12 % de l’électricité mondiale en 2020 et un quart des besoins électriques mondiaux d'ici 2040, ce qui change en profondeur la donne énergétique mondiale. 

En France, l'énergie éolienne représente aujourd'hui 6700 MW installés et une production effective de 12 TWH par an, soit 2,5 % de notre consommation totale d'électricité. Cette production d'électricité éolienne a été multipliée par 10 depuis 2005 et pour la première fois, grâce à un pic de production exceptionnel, la production éolienne a couvert plus de 10 % de la consommation française le dimanche 17 juillet 2011.

A l’horizon 2020, la France s’est fixée, dans le cadre des engagements du "Grenelle de l'environnement", l’objectif d'un parc éolien de 25 000 MW, dont 6 000 MW installés d’éoliennes marines, ce qui devrait lui permettre de produire en 2020 au moins 10 % de son électricité grâce à l'éolien, soit environ 53 TWh par an.

La mission d'enquête sénatoriale sur le coût réel de l'électricité vient de présenter ses conclusions dans un volumineux rapport de près de 800 pages, publié en juillet dernier. Cette étude souligne que parmi le panel de technologies renouvelables encore coûteuses, "certaines filières" proposaient des prix du mégawattheure "sensiblement plus bas, en particulier la filière éolienne terrestre" '(Voir le Rapport du Sénat : "Electricité : assumer les coûts et préparer la transition énergétique").

Présenté par le sénateur Jean Desessard, le rapport, très intéressant et complet, insiste sur la nécessaire montée des énergies renouvelables dans le mix électrique, pour atteindre 27 % en 2020. Le rapport précise que le tarif de rachat de l'électricité produite par les éoliennes terrestres s'élève à 8,2 cts le kWh pour les dix premières années d'exploitation (contre 22 centimes pour l'éolien marin et 30 centimes pour le photovoltaïque). Ensuite, le tarif varie de 28 cts à 82 cts le kWh pour les cinq années suivantes, en fonction de la « durée annuelle de fonctionnement de référence » des éoliennes. 

L'étude précise que, même en début d'exploitation, "l'électricité d'origine éolienne n'apparaît pas plus coûteuse que celle qui sera produite par le réacteur nucléaire de type EPR en construction sur le site de Flamanville" (dont le coût de production est de l'ordre de 8 à 9 centimes le kWh).

De plus, contrairement à la filière nucléaire, dont l'augmentation régulière des coûts liés à la maintenance et au durcissement des normes de sécurité a été soulignée (la commission les évalue à 5,4 centimes par kWh au lieu des 4 à 5 centimes généralement admis), des gains sont encore espérés à l'avenir, même si le potentiel est moindre sur une filière déjà mature comme l'éolien terrestre par rapport à d'autres technologies. Selon le syndicat des Energies Renouvelables, le coût du kWh éolien pourrait descendre à 7 centimes pour une durée de vie moyenne de 20 ans par éolienne.

Le rapport de la Commission d'enquête du Sénat souligne finalement que l'éolien terrestre est en France « d'ores et déjà une filière mature et compétitive » mais insiste toutefois sur la question centrale du poids des investissements à réaliser : au moins 400 milliards d’euros d'ici 2030, selon le rapporteur de cette commission, Jean Desessard.

Résultat, pour financer ces investissements considérables, la facture moyenne d'électricité d'un ménage français va s'alourdir de 50 % d'ici à 2020 et atteindre 1.307 euros par an contre 874 euros en 2011, à cause des investissements élevés des énergies renouvelables et ceux croissants du nucléaire.

Sur l’augmentation de 433 euros attendue sur la facture (hors TVA), 28 % viendront de la taxe dite CSPE (qui inclut les tarifs d’achats subventionnés des énergies renouvelables), 37 % des réseaux électriques et 35 % de la production d’électricité elle-même.

Trois pistes complémentaires sont enfin proposées pour diminuer le coût final de l'énergie pour le consommateur : les économies d’énergie, le stockage d’électricité par différents moyens (air comprimé, gaz, hydrogène, hydraulique) et les réseaux et compteurs intelligents.

Pour que la production d'électricité éolienne, par nature intermittente et difficile à prévoir, puisse être massivement intégrée dans notre réseau électrique, il est indispensable de développer de nouvelles technologies de stockage de l'énergie afin d'être en mesure de transformer, au cours des "pics" de production éolien, de  grandes quantités d'électricité excédentaire et de restituer au réseau cette électricité en fonction de la demande des utilisateurs.

A cet égard, il faut signaler que deux nouvelles technologies de stockage de l'électricité éolienne pourraient changer la donne énergétique et permettre un essor considérable de l'éolien.

En 2010, l'institut allemand Fraunhofer a en effet mis au point un processus de production de méthane à partir de la production électrique éolienne excédentaire. L'électricité éolienne permet de décomposer de l'eau par électrolyse en produisant de l'oxygène et de l'hydrogène. Cet hydrogène est recombiné à du CO2 pour produire du méthane, qui est finalement réintroduit dans le circuit de distribution public de gaz naturel.

Deuxième innovation remarquable dont les conséquences risquent d'être considérables pour le développement compétitif des énergies renouvelables et que nous avons évoquée en détail dans notre article "EON prépare la transition énergétique en alliant éolien et hydrogène" : il y a quelques semaines, le géant allemand de l'énergie EON a annoncé la construction en 2013, à Falkenhagen en Rhénanie du Nord, du premier site au monde destiné à stocker puis à réinjecter dans le réseau gazier, sous forme d'hydrogène produit par électrolyse (décomposition chimique de l'eau en oxygène et hydrogène par un courant électrique), la production électrique excédentaire issue du parc éolien allemand en plein essor (40 TWh produit par an en 2010 mais 150 TWh de production électrique prévue en 2030, soit 30 %  de la consommation allemande d'électricité).

Il est vrai que l'Allemagne, confrontée à sa décision politique de sortir définitivement du nucléaire, vient d'annoncer un développement gigantesque de l'éolien marin qui passerait à 10 000 MW installés à l'horizon 2022 (l'équivalent, sur la base d'un rendement moyen de 30 % de 8 réacteurs nucléaires) et vient parallèlement de mettre en place, fin août, un nouveau cadre fiscal particulièrement favorable à la production d'électricité éolienne prévoyant notamment une surtaxe (0,25 centimes d'euros par KWh consommé par un ménage, soit une facture annuelle augmentée d'une dizaine d'euros par foyer) destinée à contribuer au financement de l'éolien marin.

Du fait des cadres réglementaires actuels, on ne peut injecter pour l'instant qu'une petite quantité d'hydrogène dans les réseaux de distribution de gaz. Mais il est envisageable à moyen terme de convertir l'hydrogène en gaz de synthèse, ce qui permettrait alors d'utiliser pleinement la gigantesque capacité de stockage énergétique du réseau gazier.

Si l'on considère les perspectives qu'ouvrent ces nouvelles technologies de stockage par gaz/hydrogène, les avancées technologiques majeures en cours en matière de puissance et de rendement des éoliennes marines (la prochaine génération d'éoliennes marines, comme l'Haliade d'Alstom actuellement en cours de test, aura une puissance de 6 à 7 MW et pourra produire en moyenne près de 20 millions de kWh par an, de quoi alimenter 8 000 foyers (hors chauffage) et enfin la flambée inéluctable du coût des énergies fossiles liée à la demande mondiale en énergie, l'immense potentiel éolien marin de la France peut constituer un "gisement" inépuisable d'énergie rentable et compétitive bien plus rapidement que prévu est considérable. 

Selon les spécialistes, c'est 150 à 200 TWh par an qui pourraient être extraits de ce gisement éolien marin, c'est à dire environ 30 %  de notre consommation totale d'électricité prévue en 2020 !  La France, avec son immense domaine maritime de plus de 10 millions de km2, ne doit pas manquer ce "train" technologique" de l'éolien marin qui peut à la fois créer de nombreux emplois pérennes, permettre à notre pays d'acquérir un savoir-faire technologique à haute valeur ajoutée dans le nouveau contexte énergétique mondiale et conforter notre indépendance énergétique, dans le cadre ambitieux des engagements européens et mondiaux de la France en matière de réduction de gaz à effet de serre.

Les cinq grands parcs éoliens marins (Le Tréport, Fécamp, Courseulles, Saint-Brieuc et Saint Nazaire), annoncés par le gouvernement en janvier 2011, constituent un signal fort et affirment enfin une vraie volonté politique en la matière mais ce plan "offshore" doit être revu de manière à anticiper les ruptures technologiques en cours et à privilégier les futures éoliennes de 7 MW et non celles actuelles de 5 MW, ce qui permettrait de réduire d'une bonne centaine le nombre de machines prévues (600 théoriquement) et de réduire par conséquent le coût de production électrique ainsi que les frais d'exploitation et de maintenance de ces parcs.

Il y a là un défi technologique, économique et politique de premier ordre à relever pour notre pays et nous devons sans tarder prendre toute la mesure de la transition énergétique en cours au niveau planétaire et devenir les pionniers de l'éolien marin qui sera, dans une génération, une composante majeure du nouveau paysage énergétique mondial.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Vers l'analyse intelligente des flux numériques
Mercredi, 12/09/2012 - 01:10

Texmex, l'équipe rennaise de l'Inria  travaillant à une meilleure exploitation des documents multimédia, vient de rassembler plusieurs de ses résultats de recherche dans TexMix, un démonstrateur technologique qui préfigure les nouvelles fonctionnalités de la vidéo à la demande.

Pour cette démonstration, les chercheurs ont d'abord enregistré un mois de journal télévisé. “À partir de ce corpus de 30 fichiers, TexMix a extrait de l'information de manière complètement automatique et composé une interface permettant de naviguer dans ces contenus.”  Les différents reportages apparaissent sous forme de vignettes cliquables disposées sur une ligne chronologique. Dès qu'une vidéo est lancée, un sous-titre défile. “Ce flux de mots sans ponctuation illustre notre premier axe de recherche : la transcription de la parole. La segmentation thématique repose non pas sur l'image mais sur la bande son. Nous détectons les ruptures lexicales. Nous repérons le moment où le flux de mot passe, par exemple, du registre sportif à celui de la politique. C'est sur cette approche innovante que repose notre façon de décomposer le journal en une série de séquences.”

Les algorithmes utilisés ici résultent des travaux de Guillaume Gravier sur la reconnaissance de parole. Délinéariser ainsi à partir de la piste audio s'avère très pratique pour la suite. Car cela permet ensuite de décliner de nombreuses fonctions de navigation basées sur le contenu même des reportages. “Quand on passe le curseur au-dessus d'une vignette, des mots clés s'affichent : catastrophe aérienne, Indonésie, brouillard... Le spectateur sait immédiatement de quoi il est question. À partir de ces mots clés, nous interrogeons ensuite des moteurs de recherche comme Google, Bing ou Yahoo. Nous récupérons par exemple les 100 premières pages de résultats. Nous retraitons cette liste pour affiner la pertinence.

Nous produisons ainsi une sélection de liens web qui présentent un rapport direct ou fournissent un complément d'information. De quoi permettre à l'utilisateur d'aller plus loin si besoin.” Une fois le contenu dûment identifié, TexMix peut désormais récupérer d'autres vidéos sur le même sujet. L'application offre ainsi un mode de navigation hypervidéo. Les reportages en rapport s'affichent instantanément dans la ligne chronologique sous forme de vignettes cliquables. D'un glissement de curseur, l'utilisateur peut choisir d'étendre ou de restreindre la période ciblée. Une semaine au lieu d'un mois complet par exemple.

Deuxième axe de recherche : la reconnaissance d'entités nommées. Les noms propres comme les patronymes ou les toponymes peuvent s'avérer difficiles à détecter. ‘Barak Obama’ peut se confondre avec ‘baraque aux Bahamas’. “D'où le besoin de méthodes robustes comme celles proposées par Christian Raymond et Julien Fayolle. Une fois ces entités correctement identifiées, nous savons de qui on parle mais aussi de quel endroit. Cela va permettre une géolocalisation en temps réel. Par le biais d'une Google Map, TexMix peut visualiser instantanément les lieux mentionnés dans le reportage.” Il offre ainsi une autre modalité de navigation dans le contenu.

À tout cela s'ajoute une fonction permettant la comparaison d'images. “Prenons l'exemple d'un graphique montrant un sondage électoral. L'utilisateur pourrait vouloir le comparer à de précédentes enquêtes faites durant la campagne. Nous cherchons donc des graphiques ressemblant au premier.” D'un clic sur un simple bouton, TexMix s'en va fouiller la base à la recherche d'images similaires. Les vignettes correspondantes s'affichent en un clin d'oeil. “Sept millisecondes suffisent pour extraire ces images dans une base qui en compte 1,5 million. Nous avons même une autre démonstration qui fonctionne avec 10 millions d'images.” Cette rapidité à traiter de très grandes bases constitue la marque de fabrique des récents algorithmes développés par le chercheur Hervé Jégou. C'est le troisième axe de recherche illustré par l'application.

La capacité d'absorber ainsi de gros volumes s'avère incontournable pour prétendre pouvoir exploiter automatiquement les archives audiovisuelles accumulées au fil des décennies.

Inria

Recherche sur la 5G récompensée sur le plateau de Saclay
Mardi, 11/09/2012 - 01:00

Mérouane DEBBAH, professeur à SUPELEC et directeur de la chaire Alcatel-Lucent en radio flexible, vient de se voir attribuer une subvention de 1,5 million d'euros par le Conseil européen de la recherche (European Research Council, ERC) pour ses travaux sur les fondements théoriques des réseaux MIMO (Multiple Input Multiple Output) sans fils flexibles. Les réseaux MIMO flexibles, connus également sous le nom de la 5G,  sont à la base de la prochaine génération de télécommunications sans fils qui sera déployée à l'horizon 2020.

Cette nouvelle technologie très prometteuse est apparue en 1984 grâce à M. Jack Winters, qui déposa un brevet pour les communications sans fil à base d’antennes multiples. Depuis cette découverte, ce système a été très utilisé dans plusieurs domaines. Nous le retrouvons notamment dans les systèmes radars, le WiFi ancienne génération, les stations de base pour le GSM (Global System for Mobile) et avec le MIMO (Multiple Input Multiple Output).

Cette technologie multi-antennes permet d'atteindre des buts différents suivant le domaine d'application. Elle permet notamment d'envoyer plusieurs signaux différents sur des antennes différentes à des fréquences proches pour augmenter le débit ou la portée du réseau. Concrètement, le MIMO permet d'améliorer considérablement les performances des appareils et systèmes de télécommunications, qui aujourd'hui sont souvent confrontés à des limitations liées à la nature des ondes et à leur comportement suivant l'environnement, ce qui diminue la qualité de transmission et donc le débit ainsi que la portée.

C'est donc en palliant ces problèmes que le MIMO se place en tête des technologies d'avenir pour les communications mobiles.

Intitulé MORE (Advanced Mathematical Tools for Complex Network Engineering), ce programme de recherche vise à l'élaboration d'une théorie mathématique unifiée des réseaux de  télécommunications à grande dimension sous des contraintes fortes de mobilité, de reconfigurabilité dynamique et d'énergie.

Les ERC sont un des instruments majeurs déployés par le Conseil Européen de la Recherche pour financer des projets de recherche exploratoire en Europe, stimulant l’excellence scientifique et la créativité de jeunes chercheurs.

Article rédigé par Mark FURNESS pour RTFlash

Flexible radio

Vitamine dz

ICST

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanocapteurs pour détecter les plus infimes pollutions
Mardi, 11/09/2012 - 01:20

Un nano-velcro pour piéger et détecter les polluants. Des chercheurs ont mis au point un système basé sur des nanoparticules, recouvertes de poils capables de retenir certains des métaux lourds les plus dangereux, comme le mercure ou le cadmium. Développée par les équipes de Francesco Stellacci à l’Ecole polytechnique fédérale de Lausanne (EPFL) et Bartosz Grzybowski à la Northwestern University, cette technologie permet de contrôler facilement et à moindres coûts la concentration de ces substances dans l’eau et, surtout, dans les poissons que nous consommons. D’une précision sans précédent, elle permet de détecter le méthylmercure à des concentrations infimes, dites «attomolaires». Le procédé fait l’objet d’une publication dans Nature Materials le 9 septembre.

Le mercure, notamment, est dans le viseur des chercheurs. Sa forme la plus courante, le méthylmercure, s’accumule le long de la chaîne alimentaire. C’est donc dans la chair des grands poissons prédateurs, tels certaines espèces de thon ou d’espadon, qu’on en retrouve les plus grandes quantités. Aux Etats-Unis, en France ou au Canada, notamment, les autorités conseillent aux femmes enceintes de limiter leur consommation de poisson – chez le fœtus, le mercure peut entraîner des troubles du développement du système nerveux.

«Le problème, c’est que les moyens de contrôle actuels sont trop coûteux et complexes, explique Francesco Stellacci, professeur en matériaux à l’EPFL et co-auteur de l’étude. On surveille les taux dans l’eau potable de temps à autre, et si les résultats sont bons, on part du principe qu’entretemps les niveaux sont toujours acceptables.» Or les rejets industriels ne sont pas toujours réguliers.

La technologie mise au point par l’équipe helvético-américaine est simple à mettre en œuvre. On trempe dans l’eau une languette de verre recouverte d’un film de nanoparticules «poilues». Quand un ion – une particule dotée d’une charge positive, comme le méthylmercure ou le ion cadmium, par exemple – se retrouve entre deux poils, ces derniers se referment et piègent le polluant.

Un simple appareil de mesure du courant électrique révèle le résultat. En effet, plus le nano-velcro capture de grandes quantités de ions, plus il est conducteur. Il suffit alors de mesurer le courant électrique à travers la nanostructure pour déduire combien de particules polluantes sont piégées. En jouant sur la longueur des nano-poils, les chercheurs peuvent cibler plus ou moins précisément un type de polluant. «Le procédé est empirique», précise Francesco Stellacci. Coup de chance, le méthylmercure, notamment, a des propriétés telles qu’il est extrêmement facile de le piéger sans attraper au passage d’autres substances. Les résultats sont donc particulièrement fiables.

La fabrication d’une languette coûte au plus de cinq à dix euros. Quant à l’appareil de mesure, son prix n’excède pas quelques milliers d’euros. L’analyse peut être effectuée sur le terrain, et les résultats sont immédiatement disponibles. «Avec une méthode conventionnelle, il faut envoyer les prélèvements dans un laboratoire, et le matériel d’analyse coûte plusieurs millions d’euros», explique Francesco Stellacci.

Les chercheurs ont notamment testé leur système dans le Lac Michigan, au large de Chicago. Malgré la forte industrialisation de la région, le niveau de mercure était extrêmement bas. «Le but était de comparer nos mesures à celles effectuées avec des moyens conventionnels par la Food and Drug Administration explique Francesco Stellacci. Et nos résultats sont comparables.»

Egalement testé, un poisson mangeur d’algues de la région des Everglades, en Floride. Une espèce qui n’accumule pas beaucoup de mercure– elle ne se trouve pas très haut dans la chaîne alimentaire. «Nous avons mesuré la chair dissoute dans l’acide. Le but était précisément de voir si nous pouvions détecter même des quantités extrêmement infimes», explique Bartosz Grzybowski, titulaire de la chaire Burgess de chimie à la Northwestern University. Avec des moyens conventionnels, la National States Geographical Survey obtenait des résultats quasiment identiques.

«Ces résultats sont incroyables, ajoute Bartosz Grybowski. Nous sommes parvenus à traduire les principes complexes de l’effet tunnel quantique en un dispositif à la fois pratique et extrêmement précis. Sans compter qu’avec des modifications chimiques relativement simples, nous pouvons adapter notre système pour détecter d’autres substances toxiques.» Les chercheurs sont d’ores et déjà parvenus à détecter le cadmium avec un très bon niveau de précision.

Le nouveau procédé représente un gain considérable de temps et d’argent. «Nous pourrons procéder facilement à de très nombreux tests, sur le terrain, voire sur des stocks de poissons avant leur mise sur le marché », explique Eun Seon Cho, auteur principal. Une nécessité, au vu de la toxicité du méthylmercure et la manière très complexe dont il se propage et s’accumule dans les organismes vivants.

EPFL

^ Haut
Matière
Matière et Energie
Une nouvelle étape vers la puce quantique
Lundi, 10/09/2012 - 08:10

En avril 2012, une équipe internationale dirigée par Gregor Weihs, Physicien à l'Université d'Innsbruck (Autriche), avait réussi à mettre au point une puce quantique opérationnelle utilisant des photons intriqués. Cette fois, c'est une nouvelle étape qui vient d'être franchie vers la puce quantique "banalisée". Une équipe internationale de recherche de l'université de Bristol a en effet mis au point une puce quantique sur silicium qui est compatible avec l'électronique actuelle et peut être intégrée dans les puces. Cette puce quantique a été développée en collaboration avec Toshiba, Nokia et Oclaro et avec l'université Heriot-Watt en Ecosse et celle de Delft, aux Pays-Bas.

Contrairement aux puces en silicium classiques qui fonctionnent grâce au déplacement des électrons constituant un courant électrique, une puce quantique fonctionne en produisant et en utilisant des photons. Les photons sont les composants élémentaires de la lumière et véhiculent l'interaction électromagnétique, l'une des quatre forces fondamentales de l'univers. Sans masse ni charge électrique, le photon a un spin entier de 1 indépendant de sa fréquence et présente la particularité remarquable, comme l'a montré Einstein, de pouvoir interférer avec lui-même et de prendre la forme d'une onde ou d'une particule.

Mark Thompson, directeur adjoint du Centre de photonique quantique de l'Université de Bristol, précise que cette percée a permis aux chercheurs de réaliser des circuits 1000 fois plus petits que ceux utilisés couramment en technologie silicium classique. Selon lui "Cette puce hybride associant silicium et photons ouvre la voie vers la fabrication simple et peu coûteuse de puces quantiques d'une puissance phénoménale, qui seront capables d'effectuer à une vitesse inconcevable aujourd'hui des calcules complexes".

Ce nouveau type de puce sera au cœur des ordinateurs quantiques qui, d'ici une vingtaine d'années, auront une puissance telle qu'ils pourront venir à bout de calculs très lourds nécessaires à la conception de nouveaux matériaux ou de nouveaux médicaments ou indispensables à la recherche intelligente d'information sur le Web. Le professeur O' Brien, physicien à Bristol, est d'ailleurs persuadé que les ordinateurs quantiques remplaceront la plupart des laboratoires de chimie pour concevoir les nouvelles molécules de demain et simuler leurs propriétés.

Autre avantage majeur : cette puce quantique hybride est compatible avec les infrastructures en fibres optiques qui se généralisent dans le cadre de l'Internet à très haut débit. La première application de cette technologie sera d'ailleurs dédiée aux transmissions hautement sécurisées d'informations cryptées, ce qui permettra de développer le commerce électronique et les achats en ligne et d'améliorer de manière considérable le niveau de protection des données transmises.

Article rédigé par Mark FURNESS pour RTFlash

Université de Bristol

NJP

 

Le Japon mise sur la biomasse
Lundi, 10/09/2012 - 07:59

Profondément traumatisé par la catastrophe de Fukushima, en mars 2011, le gouvernement japonais a décidé une profonde réorientation de sa politique énergétique globale et un rééquilibrage de son bouquet énergétique largement dominé par l'énergie nucléaire.

Dans ce nouveau cadre, le Japon souhaite développer de manière considérable l'exploitation à grande échelle de sa biomasse qui ne représente encore que moins de 0,5 % de la consommation primaire d'énergie dans l'Archipel nippon. L'objectif affiché dans un premier temps par les autorités japonaises est de multiplier par dix la part de la biomasse dans le mix énergétique japonais et d'atteindre 5 % de biomasse à l'horizon 2020. Parmi les voies technologiques explorées, il faut souligner celle de l'ajout de copeaux de bois au charbon brûlé dans les centrales thermiques et celle de l'utilisation des déchets alimentaires pour produire de la chaleur par co-génération en utilisant la fermentation anaérobique de matière organique pour produire du méthane.

Illustration concrète de cette nouvelle ploitique volontariste :  la société Asahi Kasei a inauguré une centrale à biomasse afin de fournir de l'électricité aux usines du groupe. Cette centrale, située à Nobeoka, sur la côte occidentale de l'île de Kyushu, fonctionne en utilisant un mélange de copeaux de bois (60 %) provenant des maisons et bâtiments détruits et de charbon (40 %).

La centrale permettra de réduire les émissions de gaz à effet de serre de 170.000 tonnes par an en consommant 100.000 tonnes par an de copeaux de bois. Ce projet-pilote a également pour objectif la relance de la filière bois locale car Asahi Kasei veut substituer des copeaux de bois provenant des forêts à ceux provenant des bâtiments.

Article rédigé par Mark FURNESS pour RTFlash

Asia biomass

Satoyama-initiative

EON prépare la transition énergétique en alliant éolien et hydrogène
Lundi, 10/09/2012 - 07:47

Le groupe allemand EON a annoncé la construction en 2013, à Falkenhagen, dans le Nord de l'Allemagne, d'un site pilote unique au monde permettant de stocker et d'injecter dans le réseau gazier, sous forme d'hydrogène produit par électrolyse, la production électrique excédentaire issue des éoliennes. Dans un premier temps, la production d'hydrogène sera de l'ordre de 26 000 m3 par mois.

Le leader de l'énergie en Allemagne doit faire face à la décision politique du gouvernement allemand de sortir définitivement du nucléaire et veut utiliser cette technologie qui permet une forte régulation de la production massive à partir d'énergies renouvelables, par nature intermittentes et difficilement prévisibles. Il est en effet de plus en plus difficile d'adapter la production d'électricité éolienne en grande quantité avec les besoins des consommateurs finaux, faute de solutions de stockage industrielle de l'énergie sous différentes formes : gaz, hydrogène, air comprimé, hydraulique notamment.

L'hydrogène a des propriétés physico-chimiques qui en font un excellent vecteur énergétique pour le stockage. Ce gaz  peut en outre être réinjecté directement dans les réseaux gaziers existants pour fournir en énergie les centrales thermiques de substitution.

Eon pense qu'à terme cet hydrogène ainsi produit pourrait également alimenter des stations-service pour les futures voitures à pile à combustible (PAC) qui rouleront en transformant leur hydrogène embarqué en eau. L'hydrogène ainsi utilisé serait gratuit puisqu’il serait fabriqué à partir de surplus d’électricité.

Comme le souligne Klaus-Dieter Maubach, membre du conseil d'administration d'EON, "Avec la forte montée en puissance de l'éolien marin et du solaire prévue en Allemagne pour ces prochaines années, il faut absolument trouver une solution économique et efficace qui permette de stocker les surplus importants d'électricité éolienne et solaire pour les restituer au réseau quand la demande des consommateurs augmente."

Article rédigé par Mark FURNESS pour RTFlash

EON

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les villes europénnes les plus menacées par le réchauffement climatique
Mardi, 11/09/2012 - 01:30

Le réchauffement climatique affectera de différentes façons les villes européennes. Pour donner un tableau des défis qui attendent les villes européennes pour s’y adapter, l’Agence européenne de l’environnement (AEE) publie une série de cartes interactives, donnant accès aux données sur plus de 500 villes à travers l’Europe.

Des pluies abondantes peuvent faire monter le niveau d’une rivière ou d’un fleuve et provoquer des inondations, quand ailleurs une vague de chaleur sera limitée grâce à des grands espaces verts ou des surfaces aquatiques étendues, ou au contraire amplifiée par l’aménagement d’une ville.

La publication de l’agence vise à montrer les capacités des villes européennes à s’adapter aux changements à venir.

L’AEE édite aussi le site Climate-Adapt. Ce site en anglais agrège les sources d’information sur l’impact du changement climatique, avec pour ambition de permettre aux « praticiens », décideurs politiques, ingénieurs, planificateurs et administrations de tirer des enseignements des expériences des autres face aux mêmes défis.

AEE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Quand les virus s'attaquent au cancer !
Jeudi, 13/09/2012 - 18:44

En novembre 2011, Transgene avait révélé qu'un traitement expérimental à l'aide de son virus oncolytique JX-594 avait permis de doubler la survie chez les patients atteints de cancer du foie métastasé. Ce virus est issu de la vaccine, plus connue sous le nom de "variole de la vache".

Les chercheurs ont réussi à le modifier et à en faire une arme redoutable qui dispose de trois moyens d'action distincts mais complémentaires contre le cancer : la réplication virale, le ciblage de la vascularisation des tumeurs, qui coupe leur alimentation, et enfin la mobilisation du système immunitaire. Les premiers essais cliniques ont déjà validé cette nouvelle approche pour plusieurs cancers, dont les cancers du colon, du rein du poumon, du foie et de la peau. Ce virus oncolytique présente l'avantage de s'attaquer très sélectivement aux cellules cancéreuses et d'entraîner, contrairement aux autres thérapies classiques, peu d'effets indésirables pour les patients.

Il y a quelques jours, une autre équipe américaine dirigée par les docteurs Santanu Bose et Bandana Chatterjee, qui travaillent à l'Ecole de Médecine de l'Université de San Antonio (Texas), a publié les résultats très encourageants de leurs recherches qui montrent un fort potentiel anticancéreux du virus respiratoire syncytial (VRS), un virus qui provoque habituellement des infections respiratoires chez les jeunes enfants.

Les essais réalisés sur la souris ont montré que ce virus, après modification, s'avérait très efficace contre le cancer de la prostate. Comme le précise le Docteur Bose, "Les résultats sont remarquables et notre traitement à base de VRS a permis d'éliminer complètement les tumeurs de la prostate chez les souris traitées. Après quatre mois d'observation, aucune récidive n'a été constatée !" Le Docteur Bose souligne que cette efficacité très sélective du VRS tient notamment au fait que les cellules cancéreuses, contrairement aux cellules saines, ont perdu leur capacité de réponse immunitaire aux virus et sont donc particulièrement vulnérables à cette thérapie virale.

Autre avantage de cette approche thérapeutique, ce virus oncolytique peut être administré de différentes façons en fonction du type de tumeur à traiter. Compte tenu de ces bons résultats, des essais cliniques sur l'homme sont à présent envisagés.

Article rédigé par Mark FURNESS pour RTFlash

BMC

UTHSC

Science Daily

Transgene

Un régime méditerranéen riche en huile d'olive pour protéger les os
Jeudi, 13/09/2012 - 18:30

Une équipe de recherche espagnole vient de montrer l'impact très positif du fameux régime méditerranéen en matière de prévention et de lutte contre l'ostéoporose. Ces recherches montrent que l'adoption d'un régime méditerranéen riche en huile d'olive pendant au moins deux ans entraîne une hausse sensible d'ostéocalcine et une forte augmentation de la densité osseuse.

Selon le Docteur José Manuel Fernández-Real, qui a dirigé ces recherches, «Cette étude est la première à démontrer scientifiquement que la consommation régulière d'huile d'olive préserve le capital osseux chez l'homme.»

cette étude a porté sur 27 hommes âgés de 55 à 80 ans qui ont fait l'objet d'un suivi rigoureux pendant 2 ans. Les sujets présentaient tous plusieurs facteurs de risque cardiovasculaire, notamment de l'hypertension ou un antécédent familial de pathologie cardiaque.

Les patients retenus pour cette étude ont été divisés en trois groupes d'observation : le premier devait suivre un régime méditerranéen diversifié comportant divers types d'huile. Le deuxième suivait un régime méditerranéen à base d'huile d'olive vierge et le troisième groupe était astreint à un régime à faible teneur en graisses.

Après deux ans de suivi, les chercheurs ont constaté que seul le régime méditerranéen à base d'huile d'olive entraînait une hausse sensible du taux d'ostéocalcine (l'hormone spécifique du tissu osseux) dans le sang. En outre, les patients suivant ce régime à base d'huile olive n'avaient pas vu baisser leur taux de calcium dans le sang, contrairement aux patients des deux autres groupes pour lesquels cette baisse du taux de calcium avait été très sensible.

Le Docteur Fernández-Real souligne "qu'il est important de préciser que chez les patients suivant le régime à base d'huile d'olive, cette hausse de l'ostéocalcine s'accompagnait d'une sécrétion d'insuline en hausse".

Ces résultats sont très importants car ils laissent entrevoir la possibilité d'une prévention alimentaire simple et efficace contre l'ostéoporose, maladie très invalidante au coût économique et social considérable puisqu'elle touche une femme sur trois et un homme sur cinq de plus de 50 ans et qu'elle coûte en Europe plus de 30 milliards d'euros par an en soins et traitements.

Article rédigé par Mark FURNESS pour RTFlash

PREDIMED

Journal of Clinical Endocrinology and Metabolism

Microbes et bactéries modifient notre comportement
Jeudi, 13/09/2012 - 10:35

Une équipe de recherche dirigée par le Professeur John Cryan, de l'Université de Cork (Irlande), vient de montrer que les milliards de bactéries présentes dans notre intestin auraient une action directe sur notre système nerveux et réguleraient les taux de sérotonine, l'hormone impliquée dans l'humeur. Ces chercheurs ont montré que les souris artificiellement privées de flore intestinale voyaient leur anxiété augmenter.

Ces expériences ont été réalisées sur des souris présentant la particularité de ne pas posséder de flore bactérienne intestinale. Les chercheurs ont pu alors constater un impact très net sur le taux de sérotonine et une augmentation corrélative de l'anxiété.

Ce processus semble toutefois réversible car, après avoir reconstitué chez ces souris une flore intestinale normale, les chercheurs ont observé une nette diminution de l'anxiété.

Ces recherches confirment que les causes biologiques de l'angoisse, de l'anxiété et de la dépression ne sont pas seulement à chercher dans le cerveau et dans le système nerveux mais dans l'ensemble de l'organisme. Il reste cependant à valider cette hypothèse en expérimentant l'utilisation de probiotiques sous différentes formes pour traiter les troubles du comportement et les pathologies psychiatriques.

Article rédigé par Mark FURNESS pour RTFlash

Scientific American

La schizophrénie modifie la structure du cerveau chez certains patients
Jeudi, 13/09/2012 - 09:48

La schizophrénie est un trouble du comportement classé dans la catégorie des psychoses. elle toucherait approximativement 0,3 % de la population française, soit environ 650 000 personnes et ses causes restent mal connues. La majorité des cas apparaissent au début de l'âge adulte (entre 15 et 35 ans) et les personnes touchées perdent progressivement tout contact avec la réalité.

Il semble que de nombreux facteurs génétiques et environnementaux intriqués soient impliqués dans cette maladie mentale très invalidante. Pour compliquer encore ce tableau, la schizophrénie présente de nombreuses variantes et peut apparaître de plusieurs manières. Elle reste de ce fait difficile à détecter précocement.

Une équipe de recherche conjointe de l'Inserm et de l'Université Paris Descartes est parvenue, à l'aide d'une nouvelle technologie d'analyse des données d'IRM (imagerie par résonance magnétique), à détecter des variations dans la forme du cerveau de certains patients souffrant de schizophrénie. L'étude a porté sur 44 personnes dont le cerveau a fait l'objet d'examen par IRM au cours des premières manifestations de leurs troubles psychotiques.

Les chercheurs ont ainsi pu mettre en évidence, en utilisant l'IRM anatomique couplée à un logiciel développé par des chercheurs du CEA (Neurospin), une moyenne des plis (sillons et gyrus) légèrement moins marqués chez les patients souffrant de troubles neurologiques, par rapport à l'autre groupe réunissant des patients ne présentant pas ces signes.

Selon Arnaud Cachia qui a participé à ces recherches de pointe, "Ces résultats confortent l'hypothèse qu'il y a eu des perturbations lors des étapes clés du développement du cerveau, ce qui s'est traduit par un développement cognitif et moteur différent selon les patients".

Le but de ces recherches est de permettre une détection plus précoce de cette maladie et une meilleure prise en charge médico-sociale. A plus long terme, les chercheurs espèrent identifier les gènes impliqués dans les troubles neurologiques observés.

Article rédigé par Mark FURNESS pour RTFlash

Schizophrenia - bulletin du 13-08-2012

Le curcuma : un véritable "alicament" aux propriétés remarquables
Jeudi, 13/09/2012 - 09:37

Le curcuma, également appelé "safran du pauvre" est une épice bien connue en Asie et particulièrement en Inde où elle est largement utilisée dans la cuisine traditionnelle indienne depuis des millénaires. Elle fait également partie des épices utilisées par la médecine védique pour ses nombreuses propriétés thérapeutiques, antibactériennes et antivirales. Beaucoup d'Indiens soignent leurs angines et leurs grippes en prenant du curcuma.

Depuis une quinzaine d'années, la médecine occidentale et les grands laboratoires du monde entier s'intéressent de près à cette épice et plusieurs études rigoureuses ont confirmé les propriétés très intéressantes du curcuma et de son principal composant, la curcumine, dans la prévention de plusieurs pathologies graves.

En avril 1998, une étude publiée dans le Journal de la Biochimie Moléculaire et Cellulaire (MCBJ) a montré que la curcumine était capable, in vivo, de diminuer sensiblement le taux de cholestérol total et de cholestérol LDL. Les mêmes chercheurs ont également montré que le curcuma pouvait exercer un effet protecteur dans la prévention de l'oxydation des membranes cellulaires.

En 2002, des chercheurs de l'Université Columbia de New York ont montré pour leur part que la curcumine pouvait se révéler active contre le cancer de la prostate. La curcumine peut en effet inhiber in vitro la prolifération de cellules cancéreuses de la prostate en perturbant l'activité de certaines protéines de signalisation qui permettent la prolifération des cellules malignes. Poursuivant leurs travaux sur l'animal, ces chercheurs ont montré que les cellules cancéreuses de la prostate injectées à des souris qui avaient suivi un régime alimentaire contenant 2 % de curcumine, cessaient de proliférer.

En 2006, d'autres chercheurs de l'université médicale du Texas à Galveston, dirigés par le Docteur Mark Evers, ont découvert que les composants du curcuma pouvaient bloquer l'activité d'une hormone gastro-intestinale, la neurotensine, impliquée dans le développement du cancer du colon.  Le curcuma possède la capacité d'inhiber la production d'IL-8, une protéine inflammatoire puissante qui déclenche la croissance et la propagation des cellules tumorales.

En 2009, une autre équipe américaine de l'université du Michigan a montré que l'association de la curcumine (principe actif du curcuma) et de la pipérine (principe actif du poivre noir) avait un remarquable effet synergique en matière de capacité à détruire les cellules cancéreuses.

Enfin, il y a quelques semaines, une étude dirigée par la docteure Aarthi Narayanan et publiée par la Mason University, a mis en évidence la la capacité du curcuma à bloquer, in vitro, le virus de la fièvre de la vallée du Rift. Selon ces travaux, la curcumine (issue du curcuma) bloquerait la réplication du virus en perturbant les mécanismes de phosphorylation de la protéine virale NSs mais également de la souche virale ZH501, très virulente. En outre, la curcumine diminuerait la charge virale dans le foie des souris infectées.

Ces travaux confirment pleinement une autre étude réalisée par des chercheurs taïwanais en 2010 qui montrait que la prise quotidienne de 30 milligrammes de curcumine pouvait réduire de 90 % la production de virus grippaux dans une culture de cellules et semblait également active contre le virus H1N1.

Afin de mieux évaluer les potentialités exactes du curcuma contre le cancer et de mieux comprendre les mécanismes de son action anti-cancéreuse, des chercheurs anglais du Centre de médecine expérimentale contre le Cancer (ECMC) ont annoncé début mai qu'ils allaient entreprendre une vaste étude pour mesurer les effets du curcuma pris en association avec la chimiothérapie dans le traitement du cancer du colon.

Article rédigé par Mark FURNESS pour RTFlash

JBC

NCBI

Anticancer Research

Wjgnet

CICTA

Mason University

Cancer Research

Le génome humain révèle une nouvelle dimension
Jeudi, 13/09/2012 - 08:14

Après 10 ans de recherche, les 400 chercheurs du consortium international GENCODE viennent de publier les résultats très attendus de leurs travaux, dans le cadre du projet ENCODE et d'une collaboration entre plusieurs revues scientifiques, dont Nature, et Genome Research. Ces recherches ont montré que le fonctionnement et l'organisation de notre génome sont bien plus complexes et subtils que prévus.

Les chercheurs ont notamment montré que le fameux ADN "poubelle", non codant, qui représente environ 97 % des 3,3 milliards de paires de base de notre génome, joue en fait un rôle essentiel dans l'expression et le contrôle de nos gènes. Selon cette étude, plus de 80 % de cet «ADN poubelle» possèdent la capacité de réguler l'expression de nos gènes. Sans cette régulation très fine et à plusieurs niveaux, les gènes ne peuvent fonctionner correctement , ce qui engendre des mutations qui peuvent elles-mêmes déclencher de nombreuses maladies.

En utilisant des nouvelles technologies puissantes de bioinformatique et des outils mathématiques appropriés, les chercheurs ont pu identifier 4 millions de gènes «interrupteurs» qui s'activent pour "allumer" ou "éteindre" un gène mais, en dépit de cette percée majeure, l'étude souligne que : «Dans la plupart des cas nous savons quels gènes jouent un rôle dans une maladie, mais pas quels interrupteurs sont impliqués».

Ces travaux ouvrent donc un vaste champ de recherche pour la recherche fondamentale en biologie car le prochain défi va consister à élucider le fonctionnement de ces "interrupteurs" génétiques et déterminer la fonction exacte de chacun d'entre eux.

Cette vaste étude a nécessité l'analyse de 15 000 milliards d'octets d'informations, à présent consultables en libre accès. Cette immense masse de données a fait l'objet de 300 ans d'équivalent-calcul informatique qui ont permis d'étudier 147 types de tissus différents (sur les 200 existants) et de déterminer la nature et la localisation des "interrupteurs" génétiques.

Pour beaucoup de spécialistes en génétique et en biologie, ces résultats sont d'une importance équivalente à ceux publiés en 2003, avec le séquençage complet du génome humain.

Article rédigé par Mark FURNESS pour RTFlash

Nature

Science

Science Daily

Pollution urbaine : un impact réel sur l'espérance de vie et la mortalité
Jeudi, 13/09/2012 - 08:01

La pollution atmosphérique urbaine est devenue un problème majeur de santé publique et la prise de conscience des impacts sanitaires de la pollution de l’air a conduit à la mise en place d’une règlementation dans le cadre de loi sur l’air et l’utilisation rationnelle de l’énergie du 30 décembre 1996. Les principaux polluants de l’air sont suivis quotidiennement dans les grandes agglomérations françaises et la population est informée de la pollution mesurée et prédite pour les jours suivants.

La réglementation prévoit pour certains polluants des seuils d’information et de recommandations et des seuils d’alerte. Lorsque les concentrations journalières dépassent ces seuils, des procédures d’information de la population sont activées, et dans le cas des seuils d’alertes, des mesures sont prises pour limiter la pollution. Ces seuils concernent le dioxyde d’azote (NO2), le dioxyde de soufre (SO2), l’ozone (O3) et les particules de diamètre inférieur ou égal à 10 μm (PM10).

L’InVS est régulièrement interrogé par les Agences régionales de santé (ARS) sur l’intérêt de surveiller temporairement l’impact sanitaire de la pollution atmosphérique lorsque les niveaux mesurés dépassent les valeurs habituelles pendant quelques jours (situation des « pics » de pollutions), correspondant ou non à des dépassements des valeurs réglementaires. Cette note fait le point sur les impacts attendus de la pollution atmosphérique urbaine et sur les actions de santé publique possibles en cas de pics de pollution.

Plusieurs études épidémiologiques documentent les impacts sanitaires à court-terme de la pollution atmosphérique. On entend par là des effets survenant quelques jours après une exposition à la pollution. Ils sont évalués via des études multicentriques utilisant des méthodes statistiques d’analyse des séries temporelles pour mettre en évidence un lien entre niveaux de polluant et santé. Ces études nécessitent plusieurs années de données et prennent en compte de nombreux facteurs de confusions comme par exemple la température ou les tendances temporelles.

Des études nationales et internationales menées ainsi avec des méthodes robustes et comparables s’accordent sur un impact significatif de l’ozone sur la mortalité et les hospitalisations pour cause respiratoires. Les PM10 sont également associées à une augmentation de la mortalité toutes causes confondues et une augmentation des hospitalisations pour causes respiratoires et cardiovasculaires.

Toutes ces études ont mis en évidence, à l’échelle de la population, l’absence de seuil protecteur en-deçà duquel aucun impact sanitaire ne serait observé. Autrement dit, les effets de la pollution atmosphérique sur la santé sont observés dès les concentrations les plus faibles, en l’absence même de pics de pollution. Sur une année, l’impact sanitaire de la pollution atmosphérique est donc essentiellement dû aux niveaux moyens de pollution atmosphérique, en dehors des pics.

De plus, il a été montré par plusieurs études de cohorte qu’une exposition chronique à la pollution de l'air peut contribuer au développement de pathologies chroniques (cancer du poumon, pathologies cardiaques…). Ainsi, l’impact à long terme de l’exposition chronique aux PM2,5 sur la mortalité, notamment cardiovasculaire, a été clairement établi. Les résultats sont moins concluants en ce qui concerne le lien entre exposition chronique à l’ozone et mortalité respiratoire. En termes de santé publique, le poids de ces impacts à long terme est largement supérieur à celui des impacts à court terme.

Ceci est illustré par les résultats des évaluations de l’impact sanitaire de la pollution atmosphérique urbaine réalisées dans le cadre du projet Aphekom (www.aphekom.org). Ce projet portait sur 25 villes européennes dont neuf villes françaises : Lille, Le Havre, Rouen, Paris, Strasbourg, Bordeaux, Lyon, Toulouse et Marseille, totalisant 12 millions d’habitants.

Sur ces neuf villes, pour la période 2004-2006, en considérant les effets à court terme, une diminution de 5 μg/m3 de la moyenne annuelle des PM10 aurait conduit à différer 230 décès, et à éviter 330 hospitalisations cardiaques et 630 hospitalisations respiratoires chaque année. Une diminution de 5 μg/m3 des maxima journaliers sur 8h de l’ozone aurait conduit à différer 120 décès et à éviter 200 hospitalisations respiratoires. En considérant les effets à long terme, une diminution de 5 μg/m3 des niveaux moyens annuels de PM2,5 aurait conduit à un gain moyen d'espérance de vie à 30 ans de l'ordre de 4 à 5 mois, soit un gain annuel total de plus de 71 000 années de vie.

Cela aurait été équivalent à l’évitement de plus de 2 200 décès en moyenne par an, dont près de 1 200 de causes cardiovasculaires. Ces résultats montrent que la pollution de l’air a un impact important sur la santé des français, y compris lorsque les concentrations sont inférieures aux seuils réglementaires. Ils confirment également que l’impact à long terme de la pollution est beaucoup plus important en termes de santé publique que l’impact à court terme.

INVS

Cancer : le premier essai clinique de thérapie basé sur le profil génétique de la tumeur
Jeudi, 13/09/2012 - 07:50

l’Institut Curie a annoncé, le 11 septembre, le lancement de "SHIVA", le premier essai clinique qui ne tient plus compte de la localisation de la tumeur mais de son profil biologique.

Comme le souligne le Docteur Diéras qui dirige ces recherches, "Il s'agit de proposer aux malades des traitements de plus en plus personnalisés.  Il est désormais évident que chaque individu est unique et qu’il a besoin d’un traitement individualisé, adapté à son propre organisme, à son profil génétique, en fonction de son âge et de son environnement », ajoute-t-elle.

Jusqu’à présent, les anomalies moléculaires recherchées dépendaient de la localisation de la tumeur initiale. Dans l’essai Shiva, les médecins rechercheront systématiquement chez les patients tous les marqueurs biologiques pour lesquels il existe une thérapie ciblée. L’étude se déroulera sur trois ans et inclura 200 patients atteints de cancers métastasiques. Ils seront divisés en deux groupes : l’un recevra le traitement traditionnel, l’autre l’une des onze thérapies ciblées, en fonction de leur profil biologique.

Entre les chercheurs et les patients, à l’Institut Curie, il n’y a qu’un pas. Rassemblant en un même lieu un centre de recherche et un établissement de soins, l’Institut Curie offre depuis toujours un cadre propice à l’innovation médicale. C’est ici que Marie Curie et ses équipes ont mis au point les premières radiothérapies. Aujourd’hui, le développement de la recherche clinique est une priorité pour l’Institut. « 10 % de nos patients sont inclus dans des essais cliniques, explique le Docteur Diéras. A titre de comparaison, ils ne sont que 5 % dans les grands centres américains et notre objectif est d’augmenter cette proportion à 12 % cette année. »

Pour atteindre cet objectif, l’Institut peut s’appuyer sur différents labels obtenus récemment : Centre labellisé investigations précoces, Centre de recherche clinique, Délégation à la recherche clinique et à l’innovation, et le prestigieux Site de recherche intégrée sur le cancer (Siric). L’Institut Curie va ainsi pouvoir participer à des essais cliniques lancés par d’autres et mener ses propres projets, pour le plus grand bénéfice de ses patients et de la lutte contre le cancer en général.

Institut Curie

La consommation régulière de cannabis diminue les facultés intellectuelles et augmente les risques de cancer !
Mercredi, 12/09/2012 - 01:20

Décidément, le mythe du cannabis qui serait une drogue "douce" et "festive", sans conséquences graves pour la santé, a du plomb dans l'aile. Selon une étude britannique menée en Nouvelle Zélande et publiée par le PNAS, la consommation régulière de cannabis et de marijuana entraîne une nette diminution du QI et des facultés intellectuelles à l'âge adulte. Cette vaste étude, réalisée sur plus de 1000 personnes pendant 25 ans, a montré qu'au terme de la période d'observation et à l'issue de deux batteries de tests réalisés à l'âge de 13 ans et de 38 ans, un écart de huit points s'était creusé entre les fumeurs et les non-fumeurs de cannabis.

Fait alarmant, les jeunes qui avait ralenti leur consommation avant leurs 38 ans n'en ont tiré aucun bénéfice en terme de récupération cognitive alors que les fumeurs qui ont commencé à l'âge adulte ne présentaient pas de différence sensible en matière de performances intellectuelles avec les non-fumeurs. La chercheuse qui a dirigé cette étude, Madeline H. Meier, souligne que ces résultats démontrent la grande fragilité et la vulnérabilité du cerveau des adolescents lorsqu'il est exposé à une consommation régulière de cannabis et de marijuana, des substances réputées "bénignes" mais qui, en réalité, perturbent de manière grave et irréversible le développement psychique et cérébral des jeunes qui en consomment de manière fréquente.

L'étude relève également que cet effondrement du QI a des conséquences économiques et socio-professionnelles très concrètes car il détermine largement l'accès à l'emploi et le niveau de revenus. Enfin, l'étude souligne que cette importante différence est bien le résultat de la consommation de cannabis à l'exclusion d'autres causes, comme l'éducation ou la consommation d'autres drogues.

Une autre étude américaine réalisée par l'Université de Californie du sud et publiée dans "Cancer" vient pour sa part de montrer que la consommation de cannabis et la marijuana, même à titre "thérapeutique" sont des importants facteurs de risque dans le cancer du testicule. Selon cette étude, une consommation régulière de cannabis pourrait doubler les risques de développer les formes les plus agressives de cancer du testicule.

Rappelons enfin qu'une autre étude américaine publiée en 2006 et confirmée par une étude européenne publiée en 2008, montre que la consommation de cannabis accroît sensiblement les risques de cancer du poumon et des voies aériennes supérieures.

Article rédigé par Mark FURNESS pour RTFlash

PNAS

AACR

Cancer

ERSJ

Eurekalert

La réparation de l'ADN observée pour la première fois au niveau moléculaire
Mercredi, 12/09/2012 - 01:00

Les rayons ultra-violets, la fumée de tabac ou encore les benzopyrènes contenus dans la viande trop cuite provoquent des altérations au niveau de l'ADN de nos cellules qui peuvent conduire à l'apparition de cancers. Ces agents environnementaux détériorent la structure même de l'ADN, entraînant notamment des dégâts dits « encombrants » (comme la formation de ponts chimiques entre les bases de l'ADN).

Pour identifier et réparer ce type de dégâts, la cellule dispose de plusieurs systèmes, comme la « réparation transcriptionellement-couplée » (ou TCR pour Transcription-coupled repair system) dont le mécanisme d'action complexe reste encore aujourd'hui peu connu. Des anomalies dans ce mécanisme TCR, qui permet une surveillance permanente du génome, sont à l'origine de certaines maladies héréditaires comme le Xeroderma pigmentosum qui touche les « enfants de la Lune », hypersensibles aux rayons ultra-violets du Soleil.

Pour la première fois, une équipe de l'Institut Jacques Monod (CNRS/Université Paris Diderot), en collaboration avec des chercheurs des universités de Bristol en Angleterre et Rockefeller aux Etats-Unis, a réussi à observer les étapes initiales du mécanisme de réparation TCR sur un modèle bactérien. Pour y parvenir, les chercheurs ont employé une technique inédite de nanomanipulation de molécule individuelle qui leur a permis de détecter et suivre en temps réel les interactions entre les molécules en jeu sur une seule molécule d'ADN endommagée. Ils ont élucidé les interactions entre les différents acteurs dans les premières étapes de ce processus TCR.

Une première protéine, l'ARN polymérase, parcourt normalement l'ADN sans encombre mais se trouve bloquée lorsqu'elle rencontre un dégât encombrant, (tel un train immobilisé sur les rails par une chute de pierres). Une deuxième protéine, Mfd, se fixe à l'ARN polymérase bloquée et la chasse du rail endommagé afin de pouvoir ensuite y diriger les autres protéines de réparation nécessaires à la réparation du dégât.

Les mesures de vitesses de réaction ont permis de constater que Mfd agit particulièrement lentement sur l'ARN polymérase : elle fait bouger la polymérase en une vingtaine de secondes. De plus, Mfd déplace bien l'ARN polymérase bloquée mais reste elle-même ensuite associée à l'ADN pendant des temps longs (de l'ordre de cinq minutes), lui permettant de coordonner l'arrivée d'autres protéines de réparation au site lésé.

Si les chercheurs ont expliqué comment ce système parvient à une fiabilité de presque 100 %, une meilleure compréhension de ces processus de réparation est par ailleurs essentielle pour savoir comment apparaissent les cancers et comment ils deviennent résistants aux chimiothérapies.

CNRS

Cancer de l'enfant : une nouvelle avancée française
Mardi, 11/09/2012 - 01:10

Des chercheurs de l'Institut Curie et de l'Inserm ont mis en évidence une nouvelle cible thérapeutique pour les tumeurs d'Ewing. Un nouvel espoir pour ce cancer qui touche principalement les enfants. Chaque année, en France, près de 100 nouveaux cas de tumeur d’Ewing sont diagnostiqués chez l’enfant, l’adolescent et le jeune adulte (avec un pic de fréquence à la puberté entre 10 et 20 ans). Appelée aussi sarcome d’Ewing, cette tumeur se développe essentiellement dans les os du bassin, les côtes, les fémurs, les péronés et les tibias. En 1984, l'unité d'Olivier Delattre de l'Institut Curie a identifié l’anomalie chromosomique responsable de cette tumeur.

Les formes localisées sont traitées, dans la majorité des cas, par une combinaison initiale de chimiothérapie et de chirurgie. Mais au moment du diagnostic, un quart des jeunes patients sont déjà porteurs de métastases. Face à ces formes avancées, de nouvelles thérapies sont nécessaires pour améliorer le pronostic des patients. Les travaux des chercheurs de l'Inserm et de l'Institut Curie pourraient ouvrir la voie à une nouvelle piste thérapeutique pour soigner les formes avancées des tumeurs d'Ewing.

Partant de la découverte de l’anomalie chromosomique responsable de la tumeur, il a cherché à identifier des cibles en aval de cette altération. Ils ont mis en évidence une surexpression de la protéine kinase PRKCB dans toutes les tumeurs d'Ewing. "Cette dernière est cruciale pour la survie cellulaire in vitro et le développement tumoral in vivo" explique Franck Tirode. Cette surexpression de PRKCB est présente dans toutes les tumeurs d’Ewing. Véritable signature de ce cancer pédiatrique, elle pourrait devenir un marqueur diagnostique complémentaire de cette tumeur.

Mais le principal espoir est d'ordre thérapeutique, puisqu'il existe déjà des inhibiteurs de la protéine PRKCB en cours d'essai clinique pour d'autres cancers. "Le plus grand bénéfice en termes thérapeutiques viendra très certainement de l'association d'un inhibiteur de la PRKCB avec d'autres molécules dirigées contre des cibles spécifiquement activées dans les tumeurs d'Ewing", expliquent les auteurs de l'étude.

Institut Curie

Cancer Research

L'hippocampe et le cortex communiquent !
Dimanche, 09/09/2012 - 01:10

Des chercheurs de l'Université McGill de Montréal ont découvert un lien jusqu'à présent inconnu et important entre l'hippocampe et le cortex préfrontal.

Selon Yogita Chudasama, spécialiste au Laboratoire du cerveau et du comportement du Département de psychologie de Montréal, certaines pathologies mentales pourraient être liées à des dysfonctions dans la communication entre ces deux aires du cerveau que l'on croyait jusqu'à maintenant indépendantes l'une de l'autre.

Mais les chercheurs ont mis en évidence une interaction importante entre l'hippocampe qui occupe une fonction essentielle dans les mécanisme de la mémoire et le cortex préfrontal, fortement impliqué dans les fonctions cognitives complexes (langage, conceptualisation, planification, anticipation) mais également dans l'inhibition de certains types de comportements.

En démontrant l'existence de ce lien subtil entre ces deux structures importantes du cerveau, les chercheurs ouvrent une voie nouvelle dans la compréhension et le traitement de certaines maladies mentales ou de troubles sévères comme certaines formes de démence, la schizophrénie et la dépression.

Comme le souligne la professeure Chudasama, "Nous savions depuis longtemps que le cortex préfrontal joue un rôle majeur dans la prise de décision et l'inhibition des comportements inappropriés mais nous avons à présent la preuve que pour fonctionner correctement, il doit communiquer avec l'hippocampe. Nous avons en effet montré qu'en empêchant la communication entre ces deux structures chez des rats, ils restaient enfermés dans des comportements nuisibles, sans pouvoir les corriger ni maîtriser leurs pulsions."

Article rédigé par Mark FURNESS pour RTFlash

The Journal of Neuroscience

Un antiépileptique contre la maladie d'Alzheimer
Dimanche, 09/09/2012 - 01:00

Selon une étude menée depuis trois ans à l’Institut Gladstone, à l’université de Californie à San Francisco, un médicament antiépileptique, le lévétiracétam, améliore sensiblement  les symptômes de la maladie d’Alzheimer chez la souris. Au bout de deux semaines, les souris traitées ont en effet vu leurs capacités d’apprentissage et de mémorisation s' améliorer. Actuellement, 35 millions de personnes dans le monde, dont 860 000 en France, sont atteintes par cette dégénérescence cérébrale et un rapport international de 2010 prévoit l’affection de 100 millions de personnes à l’horizon 2050.

Lennart Mucke, professeur de neurologie à l’UCSF, souligne : « Notre étude s’appuie sur nos découvertes antérieures, qui suggèrent un lien entre la maladie d’Alzheimer et certains troubles épileptiques ». Les chercheurs affirment que cette découverte est d’autant plus prometteuse que le lévétiracétam est l’anticonvulsivant qui a le moins d’effets secondaires.

Ces résultats confortent ceux présentés il y a quelques mois par une autre équipe américaine de l'université John-Hopkins qui a montré l'efficacité de ce type de médicament chez certains patients présentant des troubles de la mémoire qui sont souvent les premiers signes de l'apparition d'un Alzheimer.

Néanmoins, la prudence reste de mise chez les chercheurs qui soulignent que les effets réels des antiépileptiques chez la souris ne semblent pas toujours persister dans le temps et qu'il n'est donc pas du tout certain que le lévétiracétam puisse véritablement prévenir ou traiter la maladie d'Alzheimer.

Article rédigé par Mark FURNESS pour RTFlash

PNAS

EmaxHealth

Cancer : le rôle protecteur de l'aspirine confirmé
Samedi, 08/09/2012 - 13:57

Selon une étude américaine, réalisée par des chercheurs de l'Université de Dallas au Texas et portant sur plus de 6000 patients atteints d'un cancer de la prostate, la prise régulière d'aspirine après un traitement de ce type de cancer (par ablation ou chimiothérapie) pourrait réduire la mortalité.

L'étude a en effet montré que 2200 patients sur les 6000 étudiés (37 %) prenaient régulièrement de l'aspirine. 3 % seulement de ces malades sont morts dans les 10 ans alors que 8 % des patients ne prenant pas d'aspirine sont décédés au cours de la même période.

Comme le souligne le Professeur Kevin Choe, qui a dirigé cette étude «Il semble bien que l'aspirine limite la capacité de croissance du cancer de la prostate et plus particulièrement des tumeurs les plus agressives qui ont tendance à métastaser et contre lesquelles nous ne disposons pas encore de solutions thérapeutiques pleinement satisfaisantes.

Un autre étude réalisée sur plus de 100 000 personnes par des chercheurs de l'American Cancer Society d'Atlanta montre pour sa part que la prise quotidienne d'un cachet d'aspirine pendant au moins 5 ans réduit de 37 % les risques de mourir d'un cancer !

Toutefois, les mécanismes par lesquels l'aspirine diminue les risques de cancers ne sont pas très bien connus et restent à élucider.

Article rédigé par Mark FURNESS pour RTFlash

Journal of Clinical Oncology du 27.08.2012

JNCI

Une australienne aveugle récupère en partie la vue grâce à un œil bionique
Samedi, 08/09/2012 - 13:45

Un groupe de recherche australien, Bionic Vision, est parvenu pour la première fois à restaurer en partie la fonction visuelle d'une australienne de 54 ans, Dianne Ashworth, atteinte de rétinite pigmentaire et quasiment aveugle. Cette patiente a bénéficié en mai dernier de l'implantation de cet œil bionique qui comporte 24 électrodes.

Ce système utilise une micro-caméra qui est intégrée à la monture des lunettes et permet de filmer des images qui sont ensuite analysées par une puce spécialement conçue à cet effet puis envoyées à travers l'œil pour stimuler la rétine et finalement former une image dans le cerveau. Grâce à ce dispositif, Dianne Ashworth peut à présent distinguer les formes et les contours d'objets, ce qui lui permet de retrouver une certaine autonomie. Selon Bionic Vision, le geste chirurgical nécessaire pour implanter la puce derrière la rétine est relativement simple et peut être réalisé par n’importe quel chirurgien.

Avec ce premier prototype, les chercheurs ont voulu montrer la faisabilité de cette implantation et la pertinence de leur approche qui utilise un processus cérébral rétroactif de la part du patient. Mais, dans un avenir proche, grâce aux progrès de la miniaturisation électronique, on peut imaginer un œil bionique comportant un nombre d'électrodes beaucoup plus important, ce qui permettrait de restaurer une grande partie de la fonction visuelle chez un grand nombre de patients souffrant de cécité.

L'enjeu en matière de santé publique est considérable car il y a, selon l’OMS, environ 40 millions de personnes aveugles et 250 millions de mal-voyants dans le monde. Comme le souligne la docteure Penny Allen qui dirige ces recherches : « Avec cet œil bionique, nous parviendrons à rendre une vision en noir et blanc à un grand nombre de patients aveugles mais l'objectif prioritaire est de leur rendre une capacité de se déplacer de manière autonome ».

Article rédigé par Mark FURNESS pour RTFlash

Bionic Vision

Le stress des souris se transmettrait sur plusieurs générations !
Samedi, 08/09/2012 - 13:34

Des chercheurs de l'université de Tufts à Boston (Etats-Unis) viennent de montrer que, chez la souris, dans certaines conditions qui restent à préciser, le stress accumulé pendant la jeunesse peut se transmettre aux générations suivantes ! Les chercheurs ont exposé pendant deux mois de jeunes souris à un stress permanent en prenant soin de modifier régulièrement la composition des animaux dans une même cage afin que les souris n'aient pas le temps de lier entre elles des relations sociales et affectives stables.

A l'issue de ces deux mois, les chercheurs ont évalué à l'aide de tests l'anxiété et le niveau de sociabilité des souris stressées et ont ensuite comparé ces résultats avec ceux obtenus par l'autre groupe de souris non soumis au stress. Ils ont alors pu montrer que cette instabilité sociale subie pendant "l'enfance" des souris avaient des effets durables. Les souris stressées présenteraient notamment une anxiété accrue et un niveau de sociabilité diminuée : elles communiquaient beaucoup moins avec leurs congénères que les souris non stressées. Cette modification sensible et durable de leur comportement a été confirmée en mesurant leur niveau de corticostérone, l'hormone du stress.

Les chercheurs ont ensuite poussé plus loin l'expérience et ont croisé mâles et femelles stressés entre eux. Ils ont ensuite fait subir des tests aux descendants de cette première lignée qui n'avaient pas subi de stress social et ont alors constaté, à leur grande surprise, que les femelles issues de la première génération présentaient des signes nets d' anxiété ainsi qu'un niveau de sociabilité diminué, même lorsqu'elles n'avaient pas été élevées par leurs parents stressés.

Les scientifiques ont ensuite poursuivi ces croisements sur deux autres générations et ont continué à constater que les femelles (mais pas les mâles) continuaient à présenter les signes de l'anxiété. Il semble que ce comportement nettement modifié leur soit transmis uniquement par leur père, lui même issu d'un grand-parent stressé.

Comme le souligne Deborah Bourc'his, Directrice de recherche à l'Inserm, " Il semble que nous soyons en présence d'un mode de transmission assez inédit et a priori excitant . Il s'agit de caractères transmis par le père apparemment normal, mais qui ne s'expriment que chez les filles, c'est-à-dire dans un contexte hormonal particulier."

Reste à présent à élucider les mécanismes de cette transmission ? Plusieurs hypothèses sont en concurrence : il est tout d'abord possible que cette transmission du comportement anxieux soit directement provoquée par un ou plusieurs gènes de la lignée germinale mâle. Seconde hypothèse, cette héritabilité du comportement serait liée à une transmission épigénétique, par le biais de modifications biochimiques de l'ADN (ou de protéines voisines) qui surviendraient pendant la maturation des spermatozoïdes. Enfin, dernière hypothèse, ces caractères anxieux et asociaux seraient transmis de génération en génération par un comportement anormal, à ce jour inconnu, des mâles à leurs partenaires.

Article rédigé par Mark FURNESS pour RTFlash

Université Tufts

Biological Psychiatry

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top