RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 541
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 21 Janvier 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les communications passent complètement au vert
Un nouveau site Web pour PXE France à l'occasion des 10 ans de l'association
Avenir
Les nanotechnologies rendent la voiture électrique plus performante
Matière
Vers des hydrocarbures issus de bactéries
Innovation dans le photovoltaïque : des panneaux solaires en rouleaux
Les diodes électroluminescentes pourraient remplacer les lampes à incandescence
De l'hydrogène pour stocker les énergies alternatives
Espace
Hubble observe les plus lointaines galaxies primitives
Terre
Premier parc éolien public en France
Captage du CO² : un outil supplémentaire contre le réchauffement climatique
Vivant
Découverte d'une variation génétique liée au cancer agressif de la prostate
Un gène de la longévité contre la démence ?
Identification d'un gène impliqué dans le mécanisme de différenciation cellulaire
Comment les bactéries survivent-elles à basse température ?
Astrocytes : leur rôle capital dans l'hippocampe
Maladie d'Alzheimer : bientôt détectable par votre ophtalmo ?
Alzheimer : un nouveau scanner pour mieux détecter les premiers signes de la maladie
Edito
CES 2010 : le téléviseur prend du relief et se branche sur le Net



Le Consumer Electronic Show 2010, grand messe mondiale de la technologie et des loisirs numériques, vient de fermer ses portes à Las Vegas, aux Etats-Unis.

Boostée de manière spectaculaire par l'immense succès du film "AVATAR", de James CAMERON, la 3D a incontestablement été la grande vedette de ce salon. Des écrans en passant par les jeux vidéo, les vidéo-projecteurs et autres téléphones portables, l'avenir de nos appareils domestiques se déclinera en 3D. Et les matériels professionnels suivent le pas avec par exemple l'annonce de plusieurs caméras 3D à deux objectifs. Mais les téléviseurs 3D mettront au moins cinq ans à conquérir le grand public en raison de leur coût élevé.

Autre star de ce salon, le livre électronique. Le fait que l'américain Amazon ait vendu à Noël plus de livres électroniques que de livres papiers n'était sans doute pas étranger à l'euphorie des professionnels rassemblés à Las Vegas. 2010 sera-t-elle enfin l'année du lecteur digital ?

Ce marché pourrait connaître un coup d'accélérateur grâce à l'arrivée de nouveaux acteurs de poids. Ainsi, le coréen Samsung a passé un accord avec Google pour lancer, dès mars prochain en France, toute une gamme de livres électroniques. Du petit modèle qui tient dans la poche au grand format permettant de lire des magazines, les readers de Samsung seront vendus à partir de 279 Euros. Ils permettront de prendre des notes écrites et même, pour certains, d'écouter de la musique. Et ce n'est pas la polémique entre la France et Google qui effraie Samsung, bien décidé à mettre les pieds dans le plat s'il le faut pour imposer le livre électronique en France.

Cela dit, le livre électronique traditionnel avec son encre électronique monochrome et à l'aspect assez terne risque d'entrer en concurrence frontale avec les fameuses tablettes Internet. Le directeur général de Microsoft, Steve Ballmer, a ainsi dévoilé la nouvelle tablette Hewlett-Packard fonctionnant sous Windows 7, devançant ainsi l'entrée très attendue d'Apple sur ce marché. "Ce génial petit PC - qui sera disponible au cours de l'année - je pense qu'il va susciter l'engouement de nombreux consommateurs", a expliqué le patron de Microsoft, en faisant défiler du bout des doigts les pages d'un livre à l'écran en utilisant le logiciel Kindle d'Amazon. Les analystes doutent cependant que Microsoft génère autant d'enthousiasme chez les consommateurs qu'Apple et son nouvel appareil, qui devrait être dévoilé le 27 janvier.

De son côté, Google espère conquérir des parts de marché sur ce secteur grâce à son système d'exploitation Androïd, initialement développé pour les téléphones portables à partir du logiciel libre et gratuit Linux. Plusieurs constructeurs ont d'ores et déjà adopté le logiciel de Google, notamment pour des raisons de coût.

A Las Vegas, on a aussi pu voir, par exemple, un appareil hybride assez étonnant fabriqué par le chinois Lenovo : un ordinateur portable dont l'écran se détache pour se transformer en tablette tactile très légère permettant de lire des livres ou de regarder des films.

Mais la TV 3D et les tablettes tactiles ne doivent pas faire oublier que la grande innovation de ce CES 2010 fut la présentation des premières véritables "Web TV". Après les accords signés entre Yahoo, Skype et les fabricants de téléviseurs, et de TF1 avec Samsung, Orange a annoncé au CES de Las Vegas un partenariat avec le sud-coréen LG. Ce partenariat d'une durée de trois ans entre Orange et LG Electronics permettra à LG France de commercialiser à compter du mois de mars 2010 une large gamme de téléviseurs permettant l'accès en ligne aux nombreux services multimédias fournis par Orange.

Concrètement, l'utilisateur accèdera à un portail qui proposera une large sélection de services tels que : Orange sport info, 2424actu, Liveradio ainsi qu'à d'autres contenus de types programmes TV, vidéos, musiques, ou encore des informations pratiques. Ce service sera ouvert à tous, il suffit de disposer d'une connexion à internet, quel que soit son fournisseur d'accès, et d'être équipé d'une TV LG connectée. La télécommande intègre une touche d'accès direct permettant aux utilisateurs d'accéder directement au portail.

Il y a quelques semaines, le groupe Canal+ et TCL, fabricant asiatique de TV, annonçaient, pour leur part, le lancement d'un téléviseur donnant un accès direct à une plate-forme de vidéos à la demande (VOD) via internet. Ce téléviseur, commercialisé sous la marque Thomson, permet de se connecter au Wi-Fi pour accéder à CanalPlay, l'offre de Vidéo à la demande (VOD) de Canal+. Dotés du Wi-Fi intégré, ces téléviseurs permettent de se connecter sans fil au réseau Internet. Les films téléchargés sont stockés dans la mémoire flash du téléviseur (4 Go). Un lecteur de carte SD permet également de transférer les films achetés vers un autre support

On mesure mieux les enjeux financiers et commerciaux de cette convergence internet-TV quand on sait que, selon l'IDATE, 40 % des foyers européens seront équipés d'un téléviseur connecté à horizon 2012. Sans attendre cette échéance, 70 % des téléviseurs qui seront vendus à partir de mars seront équipés d'une prise Ethernet ou d'un module Wi-Fi. Le marché mondial de la VoD, actuellement estimé à 4 milliards de dollars (3 milliards d'euros), pourrait atteindre 11,5 milliards de dollars en 2011 selon les chiffres publiés par le cabinet Informa Telecoms & Media.

Mais en devenant diffuseurs de contenus multimédia, de films et de programmes télévisés, les fournisseurs d'accès à Internet vont bouleverser la chaîne de valeur de l'industrie numérique et vont sans doute investir massivement dans la production de programmes et de films. Reste la réaction des consommateurs : comment vont-ils utiliser ces écrans hybrides et polyvalents ? Comment répartiront-ils leur temps entre les différents usages, réseaux sociaux, jeux en ligne, consultation du Net, presse en ligne, films, informations, documentaires, contenus pédagogiques... ?

On le voit, cet accès illimité et dématérialisé aux contenus numériques de toute nature va relancer la question de la rétribution des contenus sur le Net et des modes de paiement pour les différents contenus accessibles. Dans cette nouvelle économie numérique qui déferle, il faut souhaiter que la collectivité et l'Etat fixe un cadre et des règles du jeu qui permettent à chacun d'avoir accès à un véritable service universel numérique éducatif et culturel. Il y a là un enjeu politique, social et éthique majeur si nous voulons que notre société de l'information devienne aussi une société de la connaissance.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les communications passent complètement au vert
Vendredi, 22/01/2010 - 00:00

La perspective d'un avenir “vert” et plus durable pour les communications a franchi une étape importante avec le lancement de l'initiative Green Touch?, un consortium global dirigé par les Bell Labs, et dont l'objectif est de créer les technologies nécessaires pour rendre les réseaux de communications 1000 fois plus efficaces énergétiquement qu'ils ne le sont aujourd'hui. Grâce à cette division par 1000 de la consommation énergétique, la quantité d'énergie aujourd'hui nécessaire pour utiliser tous les réseaux, y compris l'Internet, pendant une seule journée, permettra de faire fonctionner ces mêmes réseaux pendant trois ans.

Green Touch réunit des leaders de l'industrie, du monde universitaire et de la recherche pour inventer et proposer de nouvelles approches radicales en termes d'efficacité énergétique qui seront au coeur des réseaux durables des prochaines décennies. À l'occasion de son lancement, le consortium invite tous les membres de la communauté des technologies de l'information et des communications (TIC) à unir leurs forces pour atteindre cet objectif ambitieux.

« Le secteur des TIC, avec ses technologies et ses innovations, est parfaitement placé pour favoriser la transition vers un monde à faible émission de carbone et pour réduire sa propre empreinte carbone. L'initiative Green Touch montre que les entreprises ont un rôle à jouer pour progresser vers cette société plus verte que nous voulons réaliser. Avec la création par le Gouvernement d'un environnement favorisant l'innovation, nous soutenons cette initiative réunissant l'industrie et le monde universitaire pour créer l'innovation, la technologie et les solutions nécessaires à la réduction des émissions de carbone », a dit Ed Miliband, ministre de l'Energie et du Réchauffement climatique du Royaume Uni.

GT

Un nouveau site Web pour PXE France à l'occasion des 10 ans de l'association
Vendredi, 22/01/2010 - 00:00

L'association PXE France a le plaisir d'annoncer la nouvelle version de son site www.pxefrance.org à l'occasion de son dixième anniversaire. Le site se développe, présentant une nouvelle charte graphique et un contenu enrichi. L'objectif : devenir une base de connaissances francophone incontournable sur le pseudoxanthome élastique et obtenir la certification HON en 2010.

Régulièrement actualisé au rythme de l'évolution de la recherche sur le PXE, en partenariat constant avec les chercheurs internationaux, le site a pour objectifs de présenter les activités et l'actualité de PXE France, mais surtout de répondre au besoin d'accéder à une information de qualité, exprimé par les malades et leurs proches, mais également par les professionnels de santé non spécialistes.

L'association PXE France a été créée en 1999 par un petit groupe de malades. Elle compte aujourd'hui 150 membres environ. Chaque année depuis sa création, PXE France organise à l'occasion de son assemblée générale une grande journée d'information sur le pseudoxanthome élastique. Grâce à la participation des médecins, chercheurs et autres spécialistes invités, cette journée est un rendez-vous incontournable pour parler du PXE et des avancées de la recherche en toute simplicité et convivialité.

PXE France participe activement à des manifestations (Marche des maladies rares depuis le début, stand d'information et de sensibilisation auprès des médecins et généticiens aux 2èmes Assises de génétique humaine et médicale d'Angers, discours de Karine Unger, présidente de l'association, lors du colloque "Les maladies orphelines : un enjeu de santé publique", organisé par la Convention Démocrate et la Fédération des Maladies Orphelines le 11/04/03, etc.). Enfin, PXE France mène des actions et initiatives pour faire avancer la recherche et améliorer la vie des patients (diffusion d'un questionnaire "Qualité de vie", diffusion d'une carte à glisser dans le portefeuille des patients en cas d'urgence médicale, financement de l'équipe de recherche du Dr Ludovic Martin à Angers, etc.).

On estime aujourd'hui qu'il a permis d'entrer en relation avec 200 personnes concernées par le PXE. En septembre 2005, le site se dote d'un forum de discussion. Hébergé sur le site de la Fédération des Maladies Orphelines (FMO), il élargit la visibilité de l'association mais permet surtout aux malades et à leurs proches de s'exprimer, de poser des questions, de s'entraider et de se soutenir de manière anonyme et conviviale.

PXE

^ Haut
Avenir
Nanotechnologies et Robotique
Les nanotechnologies rendent la voiture électrique plus performante
Vendredi, 22/01/2010 - 00:00

Afin de pallier les différents défauts des voitures électriques existantes, une équipe issue de l'entité et rassemblée au sein du projet E3Car s'intéresse aux nanotechnologies.

Elle compte en renforcer le rôle dans le fonctionnement des véhicules propres. "Les systèmes nanoélectroniques peuvent être utilisés afin de faciliter la conversion d'énergie, ainsi que la gestion des flux énergétiques entre la batterie et le moteur du véhicule, précise Ovidiu Vermesan.

Concrètement, cela signifie que la part des composants nano-électroniques et des semi-conducteurs dans l'architecture des véhicules va considérablement augmenter, comparée à celle des composants mécaniques. "Les voitures électriques seront basées sur un concept de propulsion radicalement différent", poursuit le chercheur. "La structure traditionnelle d'une voiture, qui comprend un seul moteur, une boîte de vitesses, et qui attribue la puissance nécessaire aux roues de manière mécanique, deviendra obsolète". Tout le système de gestion des circuits électroniques sera réorganisé.

En intégrant dans la même puce des nano-composants dont la tension électrique est basse ou moyenne avec d'autres composants, de haut voltage, il sera possible d'envoyer des signaux de nature différente.

Atelier

^ Haut
Matière
Matière et Energie
Vers des hydrocarbures issus de bactéries
Vendredi, 22/01/2010 - 00:00

On connaît l'éthanol ou le diesel produits à partir de plantes : peu efficaces et pas si verts. Voici les hydrocarbures issus de bactéries génétiquement modifiées. Cette ressource renouvelable, non polluante, pourrait révolutionner le marché de l'énergie.

Un laboratoire anonyme du Genopole d'Evry (Essonne) est prêt à tester à l'échelle industrielle son projet révolutionnaire : modifier génétiquement des bactéries afin de leur faire produire des hydrocarbures.

Ce procédé mis au point par un biologiste français, Philippe Marlière, ancien chercheur à l'institut Pasteur et cofondateur de GBE, consiste à reprogrammer les gènes des micro-organismes pour leur faire transformer les sucres contenus dans les végétaux, la paille, la mélasse, voire les déchets ménagers, en molécules d'isobutène, un composé chimique gazeux facilement transformable en essence, en gasoil ou en kérosène pour les avions. Un biocarburant renouvelable, compatible avec tous les moteurs actuels, qui n'ajoute pas de carbone dans l'atmosphère et pourrait être produit en de très grandes quantités à un prix inférieur à celui du pétrole.

L'équipe de GBE reçoit le soutien d'un aréopage de grands scientifiques, comme le Pr Dieter Söll, membre de l'Académie américaine des sciences et professeur à l'université Yale, ou le généticien français Jean Weissenbach, médaille d'or du CNRS, directeur du Genoscope. "Leur projet était parfaitement argumenté d'un point de vue scientifique et apparaissait comme une solution possible aux problèmes environnementaux", explique ce dernier.

Il faudra désormais attendre deux ou trois ans - le temps de mener des études supplémentaires - pour démontrer que le système fonctionne à l'échelle industrielle.

Cette nouvelle méthode de production biologique, comme d'autres du même genre développées par des chercheurs américains, pourrait bouleverser la donne de l'épineux problème de l'énergie. On connaît l'équation : les gisements pétroliers sont appelés à s'épuiser, la planète étouffe sous le CO2 relâché par les carburants fossiles, alors même que la demande mondiale en hydrocarbures devrait être multipliée par 2,5 d'ici 2050.

Express

Innovation dans le photovoltaïque : des panneaux solaires en rouleaux
Vendredi, 22/01/2010 - 00:00

C'est en Italie, plus précisément dans l'Etna Valley, qu'ont été mis au point des panneaux solaires d'un nouveau type, si fins que l'on peut les enrouler comme du papier peint ! Il s'agit de nouvelles surfaces photovoltaïques extrêmement fines, applicables même sur du plastique car produites non pas à l'aide d'un laser mais grâce à un procédé à froid.

Le projet baptisé "Plasia" (Projet et réalisation d'un système de déposition au plasma de silicium amorphe sur substrats plastiques) est réalisé avec un investissement de 1,9 million d'euros et grâce à la collaboration entre l'Université de Catane et les entreprises de l'Etna Valley Advanced Technology Solutions, MI Welding Technology, Meridionale Impianti, high Purity Technology Srl.

La grande nouveauté de cette technologie est que les machines fonctionnent à "basse" température, environ 80°C, tandis que les techniques habituelles aujourd'hui sur le marché sont basées sur un laser et fonctionnent à des températures de l'ordre de 400°C. C'est pourquoi il est possible d'utiliser des surfaces qui fondraient avec le traitement traditionnel, en premier lieu le plastique.

Les premières applications du projet concernent surtout le photovoltaïque. Cette nouvelle technologie pourrait remplacer les traditionnels wafer de silicium qui sont beaucoup plus chers et plus lourds.

BE

Les diodes électroluminescentes pourraient remplacer les lampes à incandescence
Vendredi, 22/01/2010 - 00:00

L'Institut de technique pour les semi-conducteurs (IHT, de l'Université technique de Braunschweig, développe des diodes électroluminescentes (DEL) blanches à économie d'énergie dans un projet de recherche européen. Sous la direction de l'entreprise OSRAM Opto Semiconductor à Regensburg, des équipes internationales d'experts en provenance de 5 universités, 4 instituts de recherche et 5 partenaires industriels, travaillent pour rendre les DEL plus abordables financièrement, plus efficaces et plus "blanches".

Même si les DEL modernes fabriquées à partir du semi-conducteur nitrure de gallium (GaN) sont déjà assez lumineuses pour être utilisées dans les phares automobiles, les applications pour l'éclairage des habitations sont encore rares. Il serait pourtant possible de réaliser de fortes économies d'énergie dans ce domaine, environ 20 % de la production électrique allemande totale étant utilisée pour l'éclairage.

A cause du coût de leurs processus de production, les DEL ne sont pas encore adaptées à un marché de volume en remplacement des lampes à incandescence. Par ailleurs, la fidélité du rendu chromatique des DEL n'est pas particulièrement bonne pour le moment, car la lumière qu'elles émettent ne comporte généralement que deux couleurs, bleue et jaune.

"La nouveauté technologique de notre projet consiste en l'emploi de DEL constituées non pas de couches fines, mais de colonnes nanométriques tridimensionnelles", comme l'explique le Dr. Hergo Wehmann, professeur à l'IHT. De telles structures de 100 milliardièmes de mètres réalisées en plusieurs dimensions présentent des avantages par rapport aux DEL classiques : Une surface rayonnante unique et étendue peut être constituée de nombreuses nanoDEL émettant des couleurs différentes. Ces couleurs seront ensuite mêlées en un blanc agréable et "chaud".

BE

De l'hydrogène pour stocker les énergies alternatives
Vendredi, 22/01/2010 - 00:00

Tributaires des conditions météorologiques, les sources alternatives d'énergie comme les panneaux photovoltaïques ou les éoliennes ne seront performantes que lorsque l'on maîtrisera à grande échelle le stockage de l'énergie et sa libération à la demande.

Depuis quelques années, la pile à combustible réversible à membrane échangeuse de protons offre une telle maîtrise à petite échelle. Via l'électrolyse de l'eau, elle transforme en hydrogène l'énergie véhiculée sous la forme d'un courant électrique ; l'hydrogène est alors stocké sous forme de gaz ou d'hydrure dans un réservoir ; en cas de besoin énergétique, il est réacheminé vers la pile, qui effectue la réaction inverse - c'est-à-dire qui oxyde l'hydrogène -, libérant l'énergie contenue dans les molécules d'hydrogène.

Toutefois, à cause de la forte acidité du milieu (nécessaire pour le fonctionnement de la membrane échangeuse de protons), ces réactions ne peuvent être catalysées qu'au platine - un matériau rare, donc coûteux et inenvisageable pour un développement à grande échelle.

Des chercheurs du Laboratoire de chimie et biologie des métaux (CEA-CNRS-Université Joseph Fourier), au CEA de Grenoble, et de l'Institut rayonnement-matière (Iramis) du CEA de Saclay, ont mis au point un dispositif qui permet de s'affranchir du platine. Il est inspiré des propriétés d'une famille d'enzymes, les hydrogénases, produites par certains micro-organismes. Les hydrogénases permettent par exemple à des bactéries des fonds océaniques de récupérer de l'énergie en captant l'hydrogène des remontées de gaz ; à l'inverse, des micro-algues et des bactéries photosynthétiques les utilisent pour relarguer sous forme d'hydrogène le surplus d'énergie récupéré par trop d'ensoleillement. En d'autres termes, ces enzymes jouent le même rôle que le platine dans les piles à combustible réversibles, avec une efficacité comparable. Seul problème : elles sont très sensibles à l'oxygène et difficiles à produire en grande quantité.

Pour pallier ces difficultés, les chercheurs de Grenoble et de Saclay ont construit une électrode en greffant une molécule synthétique de type bisdiphosphine de nickel, qui mime la région catalytique des hydrogénases, à des nanotubes de carbone immobilisés sur un support solide. Par leur géométrie, ces nanotubes offrent une vaste surface pour greffer une grande quantité de molécules ; très bons conducteurs électriques, ils facilitent en outre l'acheminement des électrons, produits par la source d'énergie, vers le site actif du catalyseur.

Testée dans des conditions mimant celles d'une pile à combustible réversible, cette électrode fournit des résultats encourageants, tant pour la production d'hydrogène que pour sa reconversion en eau : si la puissance obtenue en sortie est encore 50 à 100 fois plus faible que celle du dispositif catalysé au platine, les progrès techniques devraient faire gagner un ordre de grandeur d'ici quelques années, espère Vincent Artero, l'initiateur du projet. De surcroît, l'électrode bio-inspirée satisfait aux critères de développement à grande échelle : le catalyseur est stable et à base de nickel, un métal abondant et donc bon marché.

PLS

^ Haut
Espace
Espace et Cosmologie
Hubble observe les plus lointaines galaxies primitives
Vendredi, 22/01/2010 - 00:00

De quand datent les premières galaxies ? Comment se sont-elles formées ? Comment ont-elles « réionisé » l'Univers, empli d'hydrogène neutre au sortir du Big Bang ? Répondre à ces questions nécessite d'observer des galaxies toujours plus lointaines dans l'espace, et donc plus éloignées dans le temps.

Le télescope spatial Hubble vient de franchir un nouvelle étape en ce sens en découvrant une population de galaxies primordiales parmi les plus lointaines jamais observées. Ces données ont été recueillies en août 2009 grâce à la caméra infrarouge WFC3, récemment installée. Cinq équipes d'astronomes ont analysé ces données et présentent leurs résultats à la réunion de la Société américaine d'astronomie, à Washington.

L'image la plus profonde jamais obtenue dans le proche infrarouge - l'image HUDF09 - a été combinée avec une image en lumière visible du champ ultraprofond de Hubble, prise en 2004. L'analyse a permis d'identifier 29 candidats galaxies, dont 12 ont un décalage vers le rouge de 6.3 et quatre se situent au-delà d'un décalage vers le rouge de 7 ; le décalage vers le rouge mesure l'étirement de la longueur d'onde, ou « rougissement » de la lumière d'une source due à l'expansion de l'espace, et donc donne indirectement la distance de cette source. Cela correspond à une époque située, respectivement, 890 millions années et 780 millions d'années après le Big Bang, alors que l'Univers était encore dans sa toute petite enfance.

À proprement parler, la lumière émise par ces objets profonds est trop faible pour que l'on puisse mesurer précisément leur décalage vers le rouge par spectroscopie. Ce dernier est donc estimé à partir de leur couleur apparente. Pour préciser l'âge, mais aussi la masse de ces galaxies primordiales, les astronomes ont combiné les données de Hubble avec celles du télescope spatial infrarouge Spitze}.

Ils ont ainsi constaté que ces galaxies sont intrinséquement très bleues, c'est-à-dire dépourvues d'éléments lourds et de poussière, qui rougissent le spectre lumineux. Leur masse ne dépasse pas un pour cent de celle de la Voie lactée, et leur diamètre est 20 fois plus petit. Ces petites galaxies primordiales renforcent ainsi le modèle hiérarchique de formation des galaxies, selon lequel des fusions successives conduisent à la formation de galaxies de plus en plus volumineuses, pour aboutir aux galaxies géantes actuelles.

Ces galaxies situées 700 millions d'années après le Big Bang doivent avoir commencé à se former quelques centaines de millions d'années plus tôt, ce qui repousse d'autant l'époque de formation des premières étoiles dans l'Univers. Une population importante de galaxies se trouve même peut-être juste en dessous de la limite de détection autorisée par Hubble.

Le problème de la réionisation reste pourtant entier : ces premières galaxies ne semblent pas dégager assez de rayonnement pour « réioniser » tout l'hydrogène neutre qui emplissait l'Univers après la formation des atomes, 300 000 après le Big Bang (c'est-à-dire le faire passer de l'état d'atomes neutres à l'état d'ions chargés, en arrachant des électrons).

Les astronomes pensent que la réionisation a commencé avec les premières étoiles, vers 400 millions d'années, et s'est achevée vers 900 millions d'années après le Big Bang, mais ils ne savent toujours pas exactement quelles sources lumineuses en sont responsables. Peut-être les galaxies primordiales dont la luminosité est inférieure à la limite de détection de Hubble sont-elles assez nombreuses pour expliquer la réionisation, ou peut-être les galaxies découvertes étaient-elles plus efficaces qu'on ne le pense pour réioniser le contenu de l'Univers ?

PLS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Premier parc éolien public en France
Vendredi, 22/01/2010 - 00:00

Ville pilote en maîtrise de l'énergie depuis les deux accords-cadres signés avec la Région, l'Ademe et la Régie communale d'électricité en 2005 puis en 2008, Montdidier renforce sa politique énergétique pour être en mesure, d'ici 2015, de produire plus de la moitié de la consommation d'énergie de la ville à partir des énergies renouvelables, tout en réduisant par 4 les émissions de gaz à effet de serre à l'horizon 2050.

La première pierre d'un parc éolien public de 8 MW est posée le 21 janvier 2010 et la collectivité locale a déjà prévu le réemploi des bénéfices générés. Oui, "bénéfices", vous avez bien lu ! Le mot n'est pas si courant, du moins dans son acception financière, quand il s'agit d'équipements publics. Voilà une belle démonstration qu'un projet de parc éolien peut se faire dans le cadre de la collectivité, à son profit, comprenez bien sûr "profit" dans son acception sociale cette fois. Les éoliennes feraient-elles tourner le monde à l'envers ?

Après le réseau de chaleur inauguré en septembre dernier, Montdidier mise sur son futur parc éolien pour diversifier sa production d'énergie. La production éolienne devrait en effet représenter plus de 50 % de la consommation électrique de la commune (19 GWh par an). Exploité par la Régie communale de Montdidier, le parc éolien «du moulin à cheval» comprendra 4 éoliennes d'une puissance de 2 mégawatts chacune.

La société Vestas assure la maîtrise d'oeuvre du projet. Cette opération, dont le coût s'élève à 11,14 M?, bénéficie du soutien financier de la Région, de l'Europe, via le Feder, et du Conseil général de la Somme : Région Picardie : 1 M?, sous la forme d'une avance remboursable à taux zéro ; Feder : 1 M?, sous la forme d'une subvention dans le cadre du Fonds régional pour l'environnement et la maîtrise de l'énergie, au titre de l'aide aux opérations exemplaires ; Conseil général de la Somme : 120 000 ?.

La création de ce parc éolien, premier parc public en France, démontre que les collectivités territoriales sont en mesure d'appréhender de manière globale la problématique de l'énergie et d'en faire un axe essentiel de leur développement territorial. L'exemple de Montdidier, qui a su valoriser les énergies renouvelables, en est la preuve.

DD

Captage du CO² : un outil supplémentaire contre le réchauffement climatique
Vendredi, 22/01/2010 - 00:00

Le lundi 11 janvier 2010, Valérie Létard, secrétaire d'Etat en charge des Technologies vertes et des Négociations sur le climat, inaugurait le premier pilote industriel de captage et stockage du CO2 en France, dans la région de Lacq, près de Pau, réalisé à l'initiative de Total. Ce projet pilote est en partie financé par l'Union Européenne, dans le cadre du projet Castor, qui vise à capter et stocker 10 % des émissions de CO2 en Europe.

Le captage et le stockage du CO2 (CSC) est un procédé technique qui consiste à stocker le CO2 issu d'installations industrielles très émettrices, dans des couches géologiques adaptées. Le développement de cette nouvelle technologie pourrait, selon le Groupe International des Experts sur le Climat}(GIEC) et l'Agence International de l'Energie (AIE), contribuer à hauteur de 20 % à la réduction des émissions mondiales de Gaz à Effet de Serre (GES) à l'horizon 2050.

Selon le ministère de l'environnement, cette nouvelle filière représente un marché potentiel pour la France s'élevant à 600 milliards d'euros d'ici 2030, en raison de la demande croissante des pays émergents, avec à la clef la reconversion d'un certain nombre d'entreprises et d'établissements experts : Total, Technip, EDF, Véolia, Alstom....

Il convient, néanmoins, de ne pas perdre de vue que le CSC n'aura d'effet positif dans la lutte contre le réchauffement climatique que dans la mesure où les efforts de réductions d'émission de GES seront effectifs. Ainsi, le CSC ne doit pas être, en soi, une alternative au développement des énergies vertes, mais un outil complémentaire dans la lutte contre le réchauffement climatique.

La technologie du CSC doit cependant faire ses preuves en France et ailleurs en Europe si elle entend s'exporter.

L'adaptation du cadre règlementaire et financier est de ce point de vue primordial : il faut que les futurs projets soient adoptés dans le cadre d'une concertation locale forte, un régime spécial d'autorisation (type installations classées pour la protection de l'environnement) et de surveillance (réaction du sous sol à l'injection de CO2) et des garanties financière solides pour les exploitants.

Figaro

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte d'une variation génétique liée au cancer agressif de la prostate
Vendredi, 22/01/2010 - 00:00

Des chercheurs ont identifié pour la première fois une variation génétique liée à la forme agressive de cancer de la prostate, la minorité des cas, ouvrant la voie à des traitements efficaces au moment de la détection précoce de la tumeur. "Cette découverte répond à l'une des questions cliniques les plus importantes concernant le cancer de la prostate à savoir comment distinguer aux premiers stades de développement de la tumeur entre la forme agressive et celle se développant lentement", explique le Dr Jianfeng Xu, professeur d'épidémiologie et de biologie du cancer à l'Université Wake Forest (Caroline du nord, sud-est), principal auteur de l'étude.

"Bien que ce marqueur génétique n'ait pour le moment qu'une utilité clinique limitée, nous pensons qu'il offre le potentiel un jour d'être utilisé en combinaison avec d'autres variables cliniques et génétiques pour prédire quels sont les hommes atteints de la forme agressive du cancer de la prostate à un stade où il est encore curable", ajoute-t-il.

Le cancer de la prostate compte pour un quart de tous les cancer diagnostiqués aux Etats-Unis et la plupart des patients sont atteints de la forme à développement lent.

Le cancer agressif de la prostate est la deuxième cause de mortalité par cancer chez les Américains avec 27.000 décès par an.

Les chercheurs ont identifié une variation génétique dite "rs4054823" liée à une augmentation de 25 % du risque de développer une forme agressive de ce cancer. "Une seule variation génétique comme celle-ci n'est probablement pas suffisante en elle-même pour prédire le risque mais sa découverte est importante car elle indique que de telles variations prédisposant les hommes à une forme agressive du cancer de la prostate existent dans le génome", souligne le Dr Xu.

Au fur et à mesure que seront mises au jour d'autres variations génétiques liées au cancer agressif de la prostate, les médecins pourront faire des tests pour identifier les hommes à risque, non seulement au moment du diagnostic mais plus tôt dans leur vie, ce qui fait qu'ils pourront être soumis à davantage d'examens préventifs, relèvent ces chercheurs.

"Déterminer les facteurs liés au risque d'avoir ou de développer un cancer agressif de la prostate est une nécessité urgente pour réduire les traitements excessifs actuels contre la forme de développement lent de cette tumeur", juge le Dr Karim Kader, un urologue de l'Université Wake Forest, co-auteur de cette étude, parue dans les Annales de l'Académie nationale américaine des sciences (PNAS) datées du 11 janvier. Pour l'étude, les chercheurs ont analysé des données génétiques provenant de 4.849 hommes souffrant de la forme agressive du cancer de la prostate et de 12.205 autres atteints d'une forme à développement lent.

AFP

Un gène de la longévité contre la démence ?
Vendredi, 22/01/2010 - 00:00

Les personnes disposant d'une certaine variante d'un gène associé à la longévité et, en général, à une bonne santé, sont moins exposées que les autres à la maladie d'Alzheimer, déclarent des chercheurs américains. Les personnes ayant deux copies d'une certaine variante du gène de la CETP (protéine de transfert des esters de cholestérol) connaissent un déclin de la mémoire plus lent que les personnes qui ont différentes variantes du gène.

"Nous savons depuis longtemps que les facteurs génétiques importent dans la maladie d'Alzheimer", a déclaré Richard Lipton, de la faculté Albert Einstein de médecine à l'université Yeshiva de New York, dont l'étude paraît dans la revue Journal of the American Medical Association.

Lipton a rappelé que la majeure partie des études s'étaient employées à identifier les variations génétiques qui accroissent le risque de développer la maladie d'Alzheimer, comme la variante APOE4. "Au lieu de cela, nous avons recherché les gènes qui protègent de la maladie d'Alzheimer, et aussi les gènes qui peuvent favoriser un vieillissement sain du cerveau", a dit Lipton dans une interview.

L'équipe de Lipton a étudié une variante de la CETP qui est d'ores et déjà associée à une longévité exceptionnelle et à une bonne santé cardiovasculaire. Ils ont analysé l'ADN de plus de 500 personnes qui n'étaient pas atteintes de démence au commencement de l'étude. "Nous avons constaté, chez les personnes porteuses de la variante 'longévité' de la CETP, une diminution de 70 % du risque d'avoir la maladie d'Alzheimer(...)", a expliqué Lipton. On estime à 26 millions le nombre de personnes atteintes, dans le monde entier, de la maladie d'Alzheimer, forme la plus répandue de la démence sénile.

JAMA

Identification d'un gène impliqué dans le mécanisme de différenciation cellulaire
Vendredi, 22/01/2010 - 00:00

Une équipe de recherche de la faculté de médecine de l'université de Gifu a identifié un gène impliqué dans le mécanisme de différenciation des cellules souches. Rappelons que les cellules souches sont capables de se différencier en divers types de cellules : elles sont qualifiées de pluripotentes. Plusieurs gènes sont connus pour être impliqués dans le maintien de la pluripotence, en particulier Oct3/4, Sox2 et Nanog. On sait également qu'un gène, appelé Rest, est très exprimé dans les cellules souches embryonnaires mais son rôle faisait jusqu'ici l'objet de controverses.

Afin de déterminer la fonction du gène Rest, les chercheurs ont produit plusieurs lignées de souches embryonnaires de souris génétiquement modifiées. Chez certaines de ces lignées, le gène a été inactivé : cela n'a pas modifié leur caractère pluripotent, mais a entrainé une expression plus importante des gènes Oct3/4, Nanog, et Sox2.

En revanche, d'autres lignées dans lesquelles le gène Rest a été surexprimé ont rapidement commencé à se différencier ; l'expression des gènes Nanog et Oct3/4 a été inhibée dans ces cellules. Les chercheurs en concluent que Rest joue un rôle important dans les premières étapes de la différenciation cellulaire, mais n'est en revanche pas nécessaire au maintien du caractère pluripotent des cellules souches.

Les résultats de l'équipe sont un pas supplémentaire dans la compréhension du mécanisme de différenciation des cellules souches, un sujet crucial de recherche biomédicale. En effet, à l'heure actuelle, de nombreux chercheurs s'intéressent aux cellules souches, qu'elles soient d'origine embryonnaire ou induites à partir de cellules adultes. En maîtrisant leur capacité de différenciation, ils espèrent pouvoir produire des tissus, voire des organes entiers, qui pourraient servir en médecine régénératrice ou en recherche pharmaceutique.

BE

Comment les bactéries survivent-elles à basse température ?
Vendredi, 22/01/2010 - 00:00

Il a déjà été démontré que lors d'une chute brutale de température, les processus de transcription (production d'ARN à partir d'ADN) et de traduction (production de protéine à partir d'ARN messager) sont fortement affectés. Cependant à basse température, les protéines de la famille CspA (cold shock protein) sont plus nombreuses. Ces protéines dites "d'adaptation au froid" sont issues de la traduction d'une douzaine de gènes. Ce sont des protéines « chaperonnes » de l'ADN et de l'ARN, elles se fixent aux acides nucléiques et facilitent ainsi la plupart des processus fondamentaux (transcription, traduction, dégradation de l'ARN, assemblage des ribosomes...).

Les chercheurs du laboratoire Architecture et réactivité de l'ARN (CNRS), de l'Université de Camerino (Italie) et de l'Université de Düsseldorf (Allemagne) ont montré que la structure de l'ARN messager (ARNm) qui code pour la protéine majeure de réponse au froid, CspA, est capable de « ressentir » la température. Ils ont noté que l'ARNm naissant adopte une structure qui est instable et transitoire à haute température, mais qui est stabilisée à basse température. Cette structure favorise la traduction à basse température, révélant le mécanisme moléculaire par lequel la protéine CspA est produite en quantité importante pour répondre au stress.

Cette étude met en lumière un mécanisme moléculaire inédit où la structure de l'ARNm s'adapte d'elle-même à la température. Le changement de structure de cet ARNm sans l'intervention de protéines peut être considéré comme un mécanisme primitif de régulation. L'ARNm exerce donc bien une fonction clé dans la régulation des gènes, et particulièrement dans les processus adaptatifs. La découverte de ces nouvelles macromolécules régulatrices ouvre la voie à de nouvelles stratégies pour inhiber la croissance bactérienne.

CNRS

Astrocytes : leur rôle capital dans l'hippocampe
Vendredi, 22/01/2010 - 00:00

Une collaboration franco-anglaise a permis d'apporter de nouveaux résultats sur le rôle des cellules gliales dans la communication cérébrale. Ils confirment le rôle de 3ème élément des astrocytes dans la transmission neuronale sur l'hippocampe. Stéphane Oliet, directeur de l'équipe "Interactions glie-neurones" affiliée au sein de l'unité 862 mixte Inserm-Université Victor Segalen Bordeaux 2, et ses collaborateurs de l'University College London ont étudié le processus de la "synapse tripartie" dans une région du cerveau qui est un centre classique de la mémoire : l'hippocampe.

Ces nouveaux résultats paraissent en ligne ce mois-ci dans Nature. Le concept de "synapse tripartie" avait déjà été le sujet de précédents travaux publiés dans Cell en mai 2006. Dans un schéma classique, une synapse est toujours représentée avec l'élément présynaptique, d'où provient l'information, et l'élément postsynaptique, qui reçoit cette information.

Dorénavant, un 3e élément est à considérer, la cellule gliale, qui détecte et intègre le signal synaptique et peut y répondre en libérant des substances actives appelées des "gliotransmetteurs" comme la D-sérine. Les chercheurs avaient établi une relation anatomique étroite entre cellules gliales et neurones qui conditionne le bon fonctionnement de récepteurs indispensables à la transmission de l'information cérébrale : les récepteurs du glutamate de type NMDA (pour N-méthyl-D-aspartate).

Des cellules gliales, astrocytes, libérant la D-sérine, influencent à la hausse le nombre de récepteurs NMDA activables, et par conséquent favorisent la transmission synaptique courante mais aussi la plasticité synaptique à long terme (potentialisation à long terme, LTP), considérée comme la base cellulaire des phénomènes mnésiques.

Aujourd'hui, le travail de Stéphane Oliet et ses collaborateurs a été fait sur l'hippocampe, une région directement impliquée dans la mémoire et l'apprentissage. Les scientifiques ont découvert que les territoires astrocytaires sont indépendants les uns des autres au niveau fonctionnel et qu'un seul astrocyte contrôle la plasticité de toutes les synapses présentes dans son arborisation sans vraiment influencer celles du territoire astrocytaire voisin.

Comme dans l'hypothalamus, une région plutôt impliquée dans les fonctions de survie et de reproduction, les chercheurs révèlent également que, dans l'hippocampe, la glie est nécessaire au bon fonctionnement des récepteurs NMDA et à la LTP. Il y a donc un possible lien direct entre la glie et des processus cognitifs comme la mémoire et l'apprentissage.

Au niveau mécanistique, les scientifiques vont au-delà des résultats de 2006 en démontrant que la libération du co-agoniste des récepteurs NMDA, probablement la D-sérine, dépend du calcium et qu'elle est vraisemblablement de nature vésiculaire. En effet, lorsque l'on prévient les variations de la concentration en Ca2+ dans les astrocytes, la libération du co-agoniste est limitée. Le nombre de récepteurs NMDA activés est alors insuffisant pour déclencher un renforcement à long terme de la communication neuronale.

Ils ont donc mis en évidence que la libération gliale d'un co-agoniste des récepteurs NMDA en fonction du Ca2+ intracellulaire contrôle la plasticité des milliers de synapses excitatrices situées à proximité.

"La force de cette étude est qu'elle apporte de nouvelles connaissances spécifiques sur la plasticité des synapses dans l'hippocampe. Des centaines de laboratoires ont étudié ces synapses de manière routinière sans savoir que les astrocytes jouaient un rôle capital dans leur plasticité" précise Stéphane Oliet.

L'implication prouvée de la glie dans la plasticité synaptique, dans la mémoire, ou dans de nombreux dysfonctionnements cérébraux fait d'elle une cible de choix pour de futurs développements thérapeutiques.

Inserm

Maladie d'Alzheimer : bientôt détectable par votre ophtalmo ?
Vendredi, 22/01/2010 - 00:00

La maladie d'Alzheimer est une maladie neurodégénérative, elle affecte le cerveau par la mort des neurones. Elle entraîne une diminution progressive et irréversible des facultés mentales, notamment de la mémoire.

Une équipe de chercheurs a trouvé un moyen de déterminer chez les souris, celles qui étaient les plus enclines à développer cette maladie. Pour cela, il faut pouvoir détecter le nombre de neurones mourants ce qui, hélas, n'est pas chose facile. La maladie d'Alzheimer est la plupart du temps diagnostiquée trop tard, quand ses symptômes sont apparents et que les dommages sont déjà importants.

Les scientifiques ont donc pensé à se référer aux cellules des yeux via un simple ophtalmoscope car la mort des cellules s'élargit au niveau de la partie arrière des yeux. Les cellules meurent soit par apoptose, mort programmée par l'organisme, soit par nécrose, c'est-à-dire par cassure de la membrane plasmique de la cellule qui, perdant son contenu cytoplasmique, meure. Au début de la maladie, les cellules meurent par apoptose, puis progressivement, la nécrose la remplace.

Durant leurs expérimentations, les scientifiques ont injecté dans les yeux de souris un colorant vert pour détecter les cellules mourant d'apoptose, ainsi qu'un colorant rouge pour les cellules arrachées par une nécrose. Ils ont ensuite observé à l'ophtalmoscope la partie arrière des yeux des rongeurs, là où les cellules mourantes peuvent être détectées. Grâce à différents filtres, ils ont pu aisément détecter les cellules fluorescentes reconnues comme nécrosées ou apoptotiques selon leur couleur.

Il s'est avéré que beaucoup plus de cellules malades étaient présentes chez les souris victimes d'Alzheimer que chez les souris saines. Plus la maladie en était à un stade évolué, plus les cellules nécrosées étaient présentes par opposition aux cellules apoptotiques dont le nombre diminuait. Chez les souris, il a été possible d'arrêter le processus lorsque les cellules n'étaient encore victimes que d'apoptose en leur administrant le médicament contre Alzheimer, la mémantine.

MS

Alzheimer : un nouveau scanner pour mieux détecter les premiers signes de la maladie
Vendredi, 22/01/2010 - 00:00

Une récente étude parue sur le site Internet de la revue spécialisée Neurology présente une nouvelle technique de scanner du cerveau qui permettrait de mieux détecter les premiers signes de la maladie chez les personnes en bonne santé sujettes à de légers troubles de la mémoire.

Cette nouvelle technique de scanner du cerveau porte le nom de Diffusion Tensor Imaging (DTI). Et selon cette étude réalisée en Italie, elle permettrait de détecter plus précocement les premiers signes de la maladie d'Alzheimer chez une personne en bonne santé qui présenterait de légers troubles de la mémoire. « Dans la mesure où de nouveaux traitements contre la maladie apparaissent sur le marché, il est important de pouvoir identifier les personnes à risque très tôt afin que les médicaments puissent être prescrits rapidement pour être le plus efficace possible » souligne le Dr Norbert Scuff de San Francisco dans une publication relative à cette étude.

Plus concrètement, cette recherche réalisée à Rome (Italie) a porté sur l'analyse de 76 personnes en bonne santé, âgées de 20 à 80 ans. Elles ont toutes passé un DTI-MRI, un examen dont la sensibilité est plus grande qu'un simple IRM, pour analyser les changements qui s'opèrent dans la chimie du cerveau. Cela a également permis aux chercheurs de cartographier les trames de fibres qui relient les régions du cerveau entre elles.

Ensuite, les scientifiques ont examiné les changements qui s'opèrent dans l'hippocampe, zone cruciale du cerveau qui est affectée dans la maladie d'Alzheimer. « Les résultats de notre étude montrent que ce type de scan cérébral s'avère plus efficace pour évaluer la santé du cerveau des personnes qui souffrent de pertes de mémoire, souligne le docteur Giovanni Carlesimo, en charge de cette recherche à l'Université de Rome. Cette technique pourrait permettre aux médecins de mieux différencier les signes d'un vieillissement normal des premiers symptômes de la maladie d'Alzheimer ».

SA

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top