RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 542
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 28 Janvier 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Fibre optique : François Fillon présente son plan et annonce un abonnement social pour le « triple play »
Le passage des bus et trams de la RATP en temps réel sur votre mobile
Contrôler sa consommation d'énergie grâce au portable !
Vers des disques de stockage d'information à ultra-haute capacité
Avenir
Un robot révolutionnaire adapte sa démarche grâce à la maîtrise de l'aléatoire
Matière
Un transistor organique ouvre la voie à de nouvelles générations de calculateurs neuro-inspirés
12,5 % de l'énergie est renouvelable
Des satellites pour produire de l'énergie dans l'espace
Nouvelle technique de production de biocarburants à partir des microalgues
Espace
Première observation directe du spectre lumineux d'une exoplanète
Terre
La dernière décennie est la plus chaude jamais enregistrée
Vivant
Cancer du poumon : vers des thérapeutiques ciblées
Hauts niveaux de vitamine D liés à une réduction du risque de cancer du colon
La protection contre le cancer renforcée par l'exposition aux UV
Une puce à ADN pour détecter des virus émergents
Sclérose en plaques : deux médicaments prometteurs
Edito
Accès à la culture numérique : vers un nouveau partenariat public-privé



Dans mon éditorial du 23 octobre dernier (Livre électronique : qui va contrôler l'accès au savoir ?) je faisais part de mes réserves quant aux conséquences à terme du quasi monopole de fait de Google en matière de numérisation des oeuvres littéraires et culturelles et je soulignais l'absence, à mon sens dommageable, de véritable stratégie globale, fédérant acteurs publics et privés, face à l'hégémonie écrasante du géant numérique américain qui venait d'annoncer le lancement en 2010 de Google Editions, son service de commercialisation de livres électroniques.

Depuis trois mois, la situation a considérablement évolué, tant au niveau international que national. Google a d'abord été contraint de soumettre le 13 novembre 2009, à la justice américaine, une version remaniée de l'accord conclu l'an dernier pour "Google Books".

Dans son accord initial avec les éditeurs américains, Google avait proposé un versement de 125 millions de dollars pour rémunérer les auteurs dont les oeuvres auraient été numérisées sans autorisation. Il avait aussi proposé d'établir un fonds de rémunération pour les auteurs qui acceptent que leurs livres soient numérisés.

La nouvelle proposition d'accord limite ces dispositions aux livres publiés aux États-Unis, au Royaume-Uni, en Australie et au Canada. Par ailleurs, pour répondre aux inquiétudes des éditeurs étrangers, les livres épuisés dans les pays précédents, mais toujours disponibles à la vente dans d'autres, ne seront pas accessibles sur Google Books. Enfin, Google propose la création d'un fonds indépendant destiné à rechercher et identifier les ayants droit des oeuvres orphelines. L'argent collecté sera reversé au bout de dix ans à des associations caritatives, au lieu d'être partagé au bout de cinq ans comme cela avait été d'abord convenu, entre Google et les éditeurs.

En réponse aux accusations de monopole sur la distribution de livres au format numérique, Google a également accepté le partage des bénéfices favorable aux éditeurs et auteurs. Ils percevront donc 63 % des revenus provenant de l'exploitation de leurs ouvrages, le solde de 37 % revenant à Google.

Ces propositions ont été bien accueillies par la Fédération des éditeurs européens (FEE) qui considère qu'elles ouvrent la voie vers un accord global de partenariat équilibré.

En France, les acteurs publics et privés, après une longue période d'attentisme et de léthargie, semblent également se réveiller. Le rapport Tessier sur "la numérisation du patrimoine écrit", remis le 12 janvier au ministre de la culture, dresse un état des lieux des bibliothèques numériques. Avec des moteurs de recherche et des référencements inégaux : d'un côté, Google a scanné 10 millions de livres, de l'autre, Gallica donne accès à 900 000 documents dont 145 000 livres. Quant à la bibliothèque numérique Europeana, elle n'est aujourd'hui qu'un "portail de consultation". Du côté des éditeurs français, enfin, on ne dispose que de 40 000 titres numérisés.

Dans ces conditions, comment financer dans un délai raisonnable, même avec les 750 millions d'euros du grand emprunt, les dizaines de millions de livres et oeuvres d'art qui constitue notre patrimoine culturel national. Le rapport liste les accords de numérisation signés par Google avec sept bibliothèques européennes, dont celle de Lyon, et estime qu'ils sont inadaptés par rapport aux missions des bibliothèques, tant du point de vue de la conservation du patrimoine que de l'accessibilité par le grand public. Le rapport juge notamment excessif "la durée des clauses d'exclusivité" qui lient les bibliothèques avec Google.

Le rapport propose trois pistes d'action. Première piste : s'appuyer sur Gallica, l'outil de la BNF, qui dispose d'"un savoir-faire reconnu en matière de numérisation de masse" mais l'améliorer "en réformant profondément son pilotage et ses fonctionnalités". Le rapport propose ensuite de relancer une dynamique européenne, en lien avec les autres bibliothèques et un renforcement d'Europeana.

Mais, au-delà de ces déclarations de bonnes intentions, c'est évidemment la troisième proposition qui est particulièrement intéressante et innovante : le rapport se prononce en effet en faveur de partenariats public-privé "donnant-donnant" et propose d'ouvrir des négociations avec Google, l'acteur dominant du marché. Il propose concrètement, "une autre forme de partenariat, fondé sur l'échange équilibré de fichiers numérisés, sans clause d'exclusivité". Un accord "pourrait viser, non pas à faire prendre en charge l'effort de numérisation mais à le partager, en échangeant des fichiers de qualité équivalente et de formats compatibles".

Concrètement, chaque partenaire resterait libre de disposer des fichiers obtenus par l'échange. Ainsi, les livres français seraient référencés dans Google Livres, mais la plate-forme nationale serait enrichie par les ouvrages numérisés par Google.

Enfin, pour aider les éditeurs à s'adapter au numérique, le rapport préconise aussi la création d'"une entité coopérative réunissant les bibliothèques publiques patrimoniales et les éditeurs". Elle permettrait la mise en place d'une plate-forme commune où les internautes auraient accès à l'ensemble des livres numérisés.

Pour bénéficier des aides de l'Etat à la numérisation, chaque éditeur devra y déposer ses fichiers, autoriser leur indexation et leur consultation par le public, mais les éditeurs pourront garder la maîtrise des conditions d'exploitation commerciale des fichiers. Cette proposition a été reprise par plusieurs distributeurs français de produits culturels qui ont appelé le 13 janvier les éditeurs et le gouvernement à favoriser la création d'une nouvelle plate-forme de téléchargement de livres électroniques pour contrer les initiatives des américains Amazon, Google et Apple dans ce domaine. Les dirigeants de PPR, la maison mère de la Fnac et de Virgin Megastore, estiment que la France devrait se doter d'une structure nationale commune de téléchargement de livres électroniques, qui serait dirigée par des éditeurs et des distributeurs.

On voit donc qu'en quelques mois, la mobilisation concertée des acteurs publics et privés et l'établissement d'un dialogue constructif avec Google, acteur incontournable de l'économie virtuelle planétaire, ont permis de jeter les bases d'un cadre de partenariat nouveau et équitable en matière de numérisation, d'exploitation et de diffusion du patrimoine culturel mondial. Nous ne pouvons que nous réjouir de cette évolution qui survient au moment où le téléviseur devient une puissante passerelle d'accès aux contenus numériques sur le Web et montre que la garantie d'un accès libre et généralisé au patrimoine culturel universel passe par de nouvelles formes de coopération et d'action entre états et acteurs économiques.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Fibre optique : François Fillon présente son plan et annonce un abonnement social pour le « triple play »
Vendredi, 29/01/2010 - 00:00

Le gouvernement a décidé d'allouer deux milliards d'euros du volet numérique du Grand Emprunt à des prêts à taux bonifiés pour les opérateurs et à des subventions pour les collectivités territoriales, afin de favoriser le déploiement de la fibre optique hors des villes très peuplées. Des appels à projets régionaux seront lancés d'ici à six mois pour encadrer le déploiement de la fibre optique dans les régions moyennement peuplées, a annoncé le Premier ministre François Fillon.

Les premiers projets pour ces régions moyennement peuplées, ou « zone 2 », seront retenus au début de 2011. La sélection du projet d'un opérateur lui donnera droit à des prêts à taux bonifiés ainsi qu'à un « label » visant à faciliter ses discussions avec les copropriétés pour l'installation de la fibre optique dans les immeubles.

« La contrepartie attendue des opérateurs, c'est un engagement en termes d'étendue, d'exhaustivité et de rapidité du déploiement, ainsi que de co-investissement », a déclaré le Premier ministre, lors d'une visite sur le site de Dassault Systèmes à Vélizy (Yvelines).

Dans les régions peu habitées, ou « zone 3 », le gouvernement a retenu un schéma de cofinancement des projets des collectivités territoriales. Le volet numérique du Grand Emprunt prévoit de répartir 4,5 milliards d'euros entre le déploiement des réseaux à très haut débit, pour 2 milliards, et les usages, services et contenus innovants, pour 2,5 milliards. « Ce budget transitera par un nouveau fonds pour la société numérique », a précisé François Fillon.

En ce qui concerne les zones très peuplées (« zone 1 »), le Premier ministre a annoncé l'homologation de la décision de l'Arcep, l'autorité des télécoms, qui préconisait en décembre un modèle « multifibre », dans lequel chaque opérateur achemine sa propre fibre jusqu'à chaque foyer.

Le Premier ministre a également exprimé le souhait de voir apparaître une "offre sociale" pour le triple-play à environ 20 euros. Cette offre serait destinée aux "foyers les plus modestes". Une consultation publique a été demandée au ministre de l'Industrie pour modifier à cet effet le code des postes et des communications électroniques.

Une étude du Crédoc, publiée en juin 2009 montre que seuls 22 % des ménages vivant avec moins de 900 euros mensuels téléphonent via leur «box», contre 62 % des ménages ayant des revenus supérieurs à 3.100 euros par mois. En fait, 40 % de ces foyers les plus démunis n'ont pas de téléphone fixe et utilisent uniquement un mobile.

"Internet est devenu un outil essentiel au même titre que l'électricité, y accéder à un tarif abordable et à haut débit est un impératif de justice sociale", a-t-il déclaré. "Je souhaite que d'ici six mois, tous les opérateurs qui le souhaitent puissent proposer une offre sociale spécifique pour permettre aux foyers les plus modestes d'accéder à internet dans des conditions attractives. Cette offre sociale devrait être aux alentours de 20 euros".

GVT

Le passage des bus et trams de la RATP en temps réel sur votre mobile
Vendredi, 29/01/2010 - 00:00

Vous êtes à Paris, et votre bus est en retard. Il n'y a pourtant pas grève aujourd'hui, et le site de la RATP, que vous avez consulté juste avant de partir, n'indiquait aucune perturbation particulière. Dans ce genre de situation, jusqu'ici, vous étiez dans le flou, sauf si la ligne que vous empruntez est équipée du sytème Siel.

Maintenant, pour en savoir plus, vous allez pouvoir sortir votre téléphone portable et recevoir des informations en temps réel sur l'horaire de passage des prochains bus et des tramways. Pour cela, la régie des transports parisiens affiche dans 11 000 arrêts des Flashcode.

Ce système commence à avoir le vent en poupe. Il s'agit d'un pictogramme composé d'une mosaïque de petits carrés noirs et blancs que l'on prend en photo avec son téléphone mobile. L'appareil (s'il est compatible) le décode automatiquement et affiche les informations correspondantes. La RATP teste ce système depuis 2007 dans certaines gares de RER.

En l'occurrence, les usagers des transports en commun parisiens pourront consulter sur leur mobile les horaires d'arrivée exacts des deux prochains tramways ou bus de l'arrêt où ils attendent. Des données précises car directement transmises depuis les véhicules par GPS.

Concrètement, ces Flashcode sont placés sur le plan du réseau à côté du numéro de la ligne. La RATP en a mis en place 20 000. Soit au moins deux par arrêt car chaque direction, pour un même arrêt d'une même ligne, dispose du sien.

Cela dit, décoder ces petits carrés ne va pas de soi pour tout le monde. Il vous faut d'abord une connexion à l'Internet mobile et un téléphone qui fasse appareil photo. Vous devez aussi équiper votre téléphone d'un logiciel spécial. A priori, les tout derniers modèles de smartphones (dont l'iPhone et les mobiles Android) peuvent d'emblée lire des Flashcode. Sinon, il faut envoyer un SMS avec le mot « flashcode » au 30130 (coût d'un SMS au tarif normal).

En réponse, vous recevrez un lien qu'il vous suffira d'activer. Cette procédure installe le logiciel pour lire les Flashcode sur votre mobile. Mais ce n'est pas tout. Lorsque vous activez pour la première fois un de ces codes, vous pouvez l'enregistrer dans vos favoris. Ainsi, la prochaine fois que vous voudrez connaître l'horaire de passage du bus à ce même arrêt, pas besoin d'être sur place et de prendre à nouveau en photo le pictogramme : vous ouvrez une session Internet mobile, vous cliquez sur le lien, et les informations arrivent. Bien sûr, ce n'est valable que pour un seul Flashcode, donc pour un arrêt et une direction.

IONet

Contrôler sa consommation d'énergie grâce au portable !
Vendredi, 29/01/2010 - 00:00

Pour économiser l'énergie de façon optimale, il faut savoir déterminer quel appareil - réfrigérateur, télévision, machine à laver... - en consomme le plus chez soi. Afin de rendre chaque individu capable de réaliser cette démarche, l'IF s'est intéressé au téléphone portable : l'une de ses équipes a mis au point un système qui utilise la fonction appareil photo du mobile pour faire de ce dernier un releveur de compteurs à domicile. Le dispositif utilise un petit adaptateur est placé sur la prise de chacun des appareils électroménagers.

}}Celui-ci mesure la consommation d'énergie à n'importe quel moment de la journée et transmet l'information à un serveur informatique en émettant un signal radio. Pour récupérer les données en temps réel, il suffit de pointer son téléphone sur l'un des appareils électro-ménagers et de prendre un cliché. La photo est alors envoyée au serveur central dans lequel l'ensemble des objets ont été pris sous différents angles. Celui-ci est identifié, et le serveur envoie alors sur le téléphone les informations sur son niveau de consommation à l'instant où le cliché a été pris.

}}Selon les chercheurs, le portable peut également être utilisé pour commander certaines fonctions. "Il affiche non seulement la consommation dans chacune des pièces, mais peut aussi servir à allumer ou éteindre tel ou tel appareil, ou encore à baisser les lumières", explique Markus Eisenhauer, qui a développé le programme. Il est également possible d'accéder à ces informations sans se servir de son téléphone. Il suffit alors de se connecter à la base de données pour savoir lequel de ses appareils consomme le plus d'énergie à un moment déterminé.

Atelier

Vers des disques de stockage d'information à ultra-haute capacité
Vendredi, 29/01/2010 - 00:00

Une nouvelle méthode optique d'enregistrement de données a été développée par des physiciens de l'Université Swinburne. Le nouveau type de disque a une capacité de 1,6 To (1600 Go) soit environ 350 fois celle d'une DVD (4,7 Go) ou 50 fois celle d'un disque Blu-ray (50 Go). La capacité de stockage des disques compacts et des DVD classiques est limitée par la surface bidimensionnelle du disque et par la longueur d'onde utilisée pendant l'enregistrement.

Les graveurs de disques compacts, DVDs et Blu-ray utilisent une lumière de longueur d'onde unique, respectivement 780 nm, 650 nm et 405 nm. Le nouveau dispositif utilise des nanotubes d'or pour décupler la capacité du disque en jouant sur la longueur d'onde et la polarisation de la lumière.

Les nanoparticules réagissant à la lumière en fonction de leur morphologie, l'information peut ainsi être enregistrée sur plusieurs couches en utilisant des longueurs d'onde différentes (700, 840 et 980 nm) en un point donné du disque. Des couches supplémentaires ont été ajoutées en enregistrant l'information à différents degrés de polarisation (0 et 90° de polarisation). Selon les auteurs, il serait possible d'enregistrer jusqu'à une centaine de couches sur un disque ; les disques pourraient être disponibles dans le commerce d'ici cinq à dix ans.

BE

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot révolutionnaire adapte sa démarche grâce à la maîtrise de l'aléatoire
Vendredi, 29/01/2010 - 00:00

Des chercheurs de Göttingen ont développé un robot capable de découvrir par lui-même la démarche la plus adaptée à son environnement. Depuis longtemps déjà, les insectes peuvent se mouvoir en suivant différents schémas de déambulation. Ils ont réussi à s'adapter en fonction de leur environnement, qu'il s'agisse de se déplacer lentement ou à l'inverse très rapidement, de surmonter de multiples obstacles ou encore de se faire les plus discrets possible. "La réussite de cette adaptation réside dans la simplicité", indique Marc Timme de l'Institut Max Planck de dynamique et d'intelligence artificielle. Le robot a uniquement besoin d'un réseau possédant peu de connexions pour pouvoir générer aléatoirement de multiples schémas de mouvements.

Ce nouveau procédé intitulé CPG pour "central patterns generators" (générateurs centraux de rythmes) se distingue par sa capacité à générer toutes les combinaisons possibles de mouvements. Ainsi, un robot bloqué dans un trou saura trouver une solution pour s'en sortir. Le robot intelligent est ensuite capable d'évaluer la quantité d'énergie consommée, ses aptitudes en franchissement d'obstacle ou encore sa vitesse. A l'issue de multiples essais, il arrive ainsi à trouver un compromis correspondant à la démarche la plus adaptée à l'exercice.

BE

^ Haut
Matière
Matière et Energie
Un transistor organique ouvre la voie à de nouvelles générations de calculateurs neuro-inspirés
Vendredi, 29/01/2010 - 00:00

Pour la première fois, des chercheurs du CNRS et du CEA ont mis au point un transistor mimant à lui seul les fonctionnalités principales d'une synapse. Dans le développement de nouvelles stratégies pour le traitement de l'information, une approche consiste à mimer le fonctionnement des systèmes biologiques, tels que les réseaux de neurones, pour réaliser des circuits électroniques aux capacités nouvelles.

Dans le système nerveux, la synapse est la jonction entre deux neurones. Elle permet la transmission des messages électriques d'un neurone à l'autre et l'adaptation du message en fonction de la nature du signal entrant (plasticité). Par exemple, si la synapse reçoit des pulsions très rapprochées de signaux entrants, elle transmettra un potentiel d'action plus intense. Inversement, si les pulsions sont distantes, ce dernier sera plus faible.

C'est cette plasticité que les chercheurs ont réussi à mimer avec le transistor NOMFET. Le transistor, élément de base d'un circuit électronique, peut être utilisé comme simple interrupteur - il peut alors transmettre ou non un signal - ou offrir de nombreuses fonctionnalités (amplification, modulation, codage...).

L'innovation du NOMFET réside dans la combinaison originale d'un transistor organique et de nanoparticules d'or. Ces nanoparticules encapsulées, fixées dans le canal du transistor et recouvertes de pentacène possèdent un effet mémoire leur permettant de mimer le fonctionnement d'une synapse lors de la transmission des potentiels d'action entre deux neurones. Cette propriété confère ainsi au composant électronique la capacité d'évoluer en fonction du système dans lequel il est placé. La performance est à comparer aux sept transistors CMOS (a minima) nécessaires jusqu'alors pour mimer cette plasticité.

Les dispositifs réalisés ont été optimisés jusqu'à des tailles nanométriques afin de pouvoir les intégrer à grande échelle. Les calculateurs neuro-inspirés ainsi réalisés sont capables de fonctions comparables à celles de notre cerveau. Contrairement aux calculateurs en silicium utilisés en abondance dans les ordinateurs pour le calcul intensif, les calculateurs neuro-inspirés peuvent résoudre des problématiques beaucoup plus complexes comme la reconnaissance visuelle.

CNRS

12,5 % de l'énergie est renouvelable
Vendredi, 29/01/2010 - 00:00

20 millions de tonnes équivalent pétrole (Mtep) d'énergie renouvelable ont été consommées en France en 2009, soit 12,5 % du total de l'énergie consommée, selon des chiffres du Syndicat des énergies renouvelables (SER). "Le développement des énergies renouvelables dans notre pays est amorcé, mais le rythme de croissance est encore insuffisant pour atteindre les objectifs du Grenelle de l'environnement : à ce rythme, la France consommerait en 2020 31 Mtep d'énergies renouvelables, quand l'objectif est à 36", note le SER dans un document publié à l'occasion de son colloque annuel.

Pour la production de chaleur, 15,6 % de l'énergie consommée en 2009 était renouvelable. Cette proportion était de 15,3 % dans la production d'électricité et de 5 % dans les carburants. En quatre ans, depuis fin 2005, la consommation d'énergies renouvelables en France a crû de 4 Mtep, note également le SER, passant de 16 à 20 Mtep.

A lui seul, le secteur des biocarburants représente plus de la moitié de cette hausse, passant de 0,7 à 2,5 Mtep consommées. Dans le secteur de la chaleur, la consommation d'énergies renouvelables a crû de 1,4 Mtep (de 9,6 à 11), et de 0,8 Mtep dans l'électricité (de 5,6 à 6,4).

A fin 2009, quelque 3.500 éoliennes étaient installées en France, selon le SER, produisant environ 4.500 mégawatts d'électricité, soit environ 1.000 MW de plus en un an.

La production d'électricité photovoltaïque comptait, elle, 230 MW installés fin 2009, la France commençant à rattraper "un retard historique" dans ce secteur qui a créé "plus de 7.000 emplois" depuis 2006, selon le SER. "En 2009, les énergies renouvelables ont bien résisté à la crise dans l'ensemble et continué à embaucher de façon significative", a estimé le président du SER, André Antolini, lors d'une conférence de presse.

SER

Des satellites pour produire de l'énergie dans l'espace
Vendredi, 29/01/2010 - 00:00

Capter l'énergie solaire dans l'espace et la transmettre à la Terre par laser infrarouge : tel est le projet ambitieux qu'Astrium, la filiale spatiale d'EADS, espère concrétiser à l'horizon 2020. «L'espace a été le grand absent du sommet de Copenhague sur le climat», a déploré devant la presse, son président François Auque, en rappelant l'immense contribution des satellites à la compréhension de la «machine» climatique (Nimbus, Landsat, Spot, Envisat...) et en mettant l'accent sur le potentiel futur des technologies spatiales, trop souvent ignoré des décideurs et du grand public.

«Nous allons financer sur fonds propre un démonstrateur d'une puissance de 20 à 50 kW capable de fournir une source d'énergie propre et inépuisable, poursuit-il. À terme, il sera possible d'alimenter en électricité solaire des bateaux, des zones isolées ou sinistrées, comme c'est le cas en ce moment en Haïti, mais aussi des avions ou des stations fixes au sol.»

«Le bilan énergétique de la planète ne va pas dans le bon sens, note Robert Lainé, directeur technique d'Astrium et l'un des inspirateurs du projet. La Terre est un système fermé. À long terme, le seul moyen d'équilibrer ce bilan consiste à aller chercher l'énergie à l'extérieur, autrement dit celle qui nous est fournie gratuitement par le Soleil.» Ensuite, contrairement à il y a trente ans, l'industrie spatiale maîtrise un certain nombre de technologies clés, comme les satellites de forte puissance, les miroirs, le photovoltaïsme et, bien sûr, le rayonnement laser, dont on fête cette année le cinquantenaire de la découverte.

«Outre l'amélioration de l'efficacité du transfert d'énergie par laser, l'essentiel de ce qu'il reste à développer dans les prochaines années concerne les équipements de réception au sol», confie M. Lainé. Mais les travaux menés par Astrium en collaboration avec l'université britannique de Surrey ont donné des résultats encourageants : le rendement énergétique de la réception du faisceau, mesuré sur des diodes, peut atteindre 80 %, un niveau exceptionnellement élevé.

Autre avantage de ces futures centrales orbitales : les grandes quantités de chaleur produites lors de la transformation de l'énergie solaire en électricité, dont le rendement atteint au mieux 20 ou 25 %, seront dissipées dans l'espace. Seule l'énergie utile, le laser, sera acheminée vers la Terre. «Sur le plan sanitaire, il n'y a aucun problème, dans la mesure où nous travaillons dans l'infrarouge (longueur d'ondes de 1,5 micron) avec un faisceau dont la puissance au sol est équivalente à celle du rayonnement solaire, soit 1 000 watts par mètre carré», assure Robert Lainé. Les Japonais, qui travaillent sur un projet du même type, ont opté quant à eux, pour une transmission par micro-ondes qui risque néanmoins d'être moins bien acceptée par les populations.

Une fois le démonstrateur mis sur orbite et validé, soit aux alentours de 2020, l'étape suivante pourrait se traduire par l'assemblage progressif, au fur et à mesure des besoins, d'un ou plusieurs complexes orbitaux d'une puissance pouvant atteindre plusieurs gigawatts, l'équivalent de plusieurs centrales nucléaires.

Figaro

Nouvelle technique de production de biocarburants à partir des microalgues
Vendredi, 29/01/2010 - 00:00

Capable de produire de l'électricité sans émettre de CO2 ou d'autres substances polluantes, l'hydrogène se présente comme une source d'énergie prometteuse. C'est pourquoi la production d'hydrogène respectueuse de l'environnement et en quantité suffisante est un thème de recherche qui occupe de nombreux scientifiques. L'algue microscopique Chlamydomonas reinhardtii est susceptible, dans certaines conditions de stress, de synthétiser cette précieuse ressource.

Des biologistes de l'Université de la Ruhr à Bochum sont parvenus à isoler des composants de cette algue responsables de la production d'hydrogène et à transposer in vitro cette réaction. "Ce système naturel produit six fois plus d'hydrogène qu'un autre système semi-artificiel décrit récemment par des collègues américains", déclare le Professeur Thomas Happe. Les chercheurs de Bochum ont, de plus, réussi à expliquer de manière détaillée la réaction productrice d'hydrogène, ce qui permettra vraisemblablement, à terme, d'accroître son rendement. Les résultats de l'étude ont été publiés dans la revue "Journal of Biological Chemistry".

Pour l'algue verte, la production d'hydrogène n'est en réalité qu'une réaction de secours. Dans des conditions normales, elle investit l'énergie acquise au cours de la photosynthèse dans sa prolifération cellulaire et sa croissance. Lorsque les conditions nutritives ne sont pas suffisantes, l'algue doit néanmoins se débarrasser des électrons accumulés au cours de la photosynthèse. A l'aide d'une enzyme spéciale, l'hydrogénase, la plante réutilise les électrons obtenus par photosynthèse et les transforme, grâce à des protons présents dans son environnement, en dihydrogène (forme moléculaire de l'élément hydrogène). Les chercheurs étudient depuis longtemps ce type de réaction génératrice d'hydrogène, notamment au moyen de réacteurs d'algues. "Cependant, l'exploitation par ce procédé de l'énergie solaire demeurait jusqu'à présent très inefficace", explique le Professeur Happe.

Le groupe de biologistes de Bochum, en coopération avec des chercheurs de Münster, est parvenu, en combinant une enzyme hydrogénase à plusieurs protéines impliquées dans la photosynthèse, à reproduire in vitro le procédé de production d'hydrogène spécifique à l'algue. En comparaison avec d'autres procédés déjà connus, la formation in vitro d'hydrogène à partir de ces trois composants naturels s'avère particulièrement efficace.

En effet, des chercheurs du Tennessee avaient récemment publié une étude sur un système semi-artificiel à base de complexes photosynthétiques et des nanoparticules de platine remplaçant la fonction catalytique d'une hydrogénase. D'après les chercheurs américains, l'hypothétique rendement obtenu à partir d'une grande installation utilisant ce procédé, et dans des conditions optimales, serait supérieur à ceux réalisés actuellement avec des moyens agricoles pour produire du biodiesel ou du bioéthanol. Or, le Professeur Happe de Bochum affirme, quant à lui, que l'efficacité de son procédé issu de composants naturels serait plus de six fois supérieure aux chiffres annoncés par les scientifiques du Tennessee, à savoir un rendement d'hydrogène estimé à trois litres par gramme de chlorophylle et par jour.

Le groupe du Professeur Happe a par ailleurs réussi à expliquer expérimentalement et à l'échelle moléculaire le mécanisme exact du couplage entre la photosynthèse et l'action de l'enzyme hydrogénase. Les interactions de charge entre la surface de la protéine de ferrédoxine et l'enzyme hydrogénase semblent être hautement spécifiques. Le Professeur Happe estime que la compréhension de l'interaction protéine-protéine offrira la possibilité d'optimiser l'efficacité de ce phénomène naturel. Il conclut : "Cela pourrait même permettre, à terme, de développer une production d'hydrogène économiquement et écologiquement intéressante, que ce soit à l'aide d'organismes vivants ou avec des systèmes semi-artificiels faisant intervenir des enzymes".

BE

^ Haut
Espace
Espace et Cosmologie
Première observation directe du spectre lumineux d'une exoplanète
Vendredi, 29/01/2010 - 00:00

En observant un système de trois exoplanètes, (des planètes orbitant autour d'une autre étoile que le Soleil, ndlr), situé à environ 130 années-lumière de la Terre, des chercheurs ont pu capter pour la première fois depuis le sol terrestre, le spectre lumineux d'une de ces planètes tournant autour de l'étoile HR8799.

Ce spectre "fournit des informations-clefs sur les éléments chimiques dans l'atmosphère de la planète" souligne Markus Janson de l'université de Toronto. La décomposition de la lumière du spectre en différentes longueurs d'ondes est en effet liée à l'environnement traversé par les ondes. "Avec cette information, nous pouvons mieux comprendre comment la planète s'est formée et à l'avenir, nous pourrions même être capables de trouver des signes révélateurs de la vie" se réjouit l'astronome.

L'exoplanète géante avait été découverte comme ses deux soeurs tournant autour de l'étoile HR8799, en 2008 par d'autres astrophysiciens. Son spectre a pu être capté grâce au Very Large Telescope (VLT) doté d'un instrument infrarouge Naco et situé sur le Mont Paranal au Chili. "C'est la première fois que le spectre d'une exoplanète tournant autour d'une étoile normale, presque semblable au Soleil, a été obtenu directement" depuis la Terre, souligne l'Observatoire européen austral (ESO).

Jusqu'alors les spectres lumineux des exoplanètes étaient obtenus par déduction. Un télescope spatial observait l'exoplanète lorsqu'elle passait derrière son étoile et comparait la lumière reçue lorsque l'étoile et la planète étaient toutes deux visibles avec la lumière sondée lorsque la planète était cachée. Les chercheurs espèrent aujourd'hui parvenir à capter le spectre lumineux des deux autres exoplanètes géantes pour en apprendre plus sur les caractéristiques chimiques de leur atmosphère.

MS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La dernière décennie est la plus chaude jamais enregistrée
Vendredi, 29/01/2010 - 00:00

La décennie qui vient de s'achever a été la plus chaude pour notre planète dans les annales, a indiqué la Nasa. 2009 a été la seconde année la plus chaude à la surface de la Terre depuis 1880, date à partir de laquelle les températures ont commencé à être mesurées et relevées scientifiquement. 2008 a été l'année la plus froide de la décennie en raison de la force du courant marin La Nina qui a refroidi la zone tropicale de l'océan Pacifique, mais le thermomètre est remonté à des niveaux quasi-record en 2009 avec la diminution de l'influence de La Nina, souligne le GISS (Goddard Institute for Space Studies) situé à New York (nord-est).

2005 reste l'année la plus chaude dans les annales, mais 2009 est juste derrière, quasiment ex-aequo avec un groupe d'autres années récentes pour le titre de seconde année plus chaude jamais enregistrée. Il s'agit de 1998, 2002, 2003, 2006 et 2007. «Il y a des variations importantes de températures terrestres d'une année sur l'autre provoquées par l'influence alternée des courants de l'océan Pacifique El Nino (chaud) et La Nina (froid)», explique James Hansen, le directeur du GISS. «Mais quand on fait la moyenne des températures sur cinq ou dix ans pour lisser ces fluctuations annuelles du thermomètre, on peut voir que le réchauffement planétaire se poursuit sans relâche», souligne-t-il.

En regardant l'évolution des températures depuis 1890, on constate une nette tendance au réchauffement à la surface du globe, et ce malgré un inversement des températures entre les décennies 1940 et 1970, indique le GISS. Au cours des 30 dernières années, cet institut a enregistré une hausse moyenne d'environ 0,2°C par décennie. Au total, les températures du globe ont grimpé de quelque 0,8°C depuis 1880.

«C'est un chiffre important à garder à l'esprit», souligne Gavin Schmidt, un climatologue du GISS, tout en soulignant que la différence de température entre la sixième et la seconde année les plus chaudes est insignifiante du fait de la marge d'incertitude. Le GISS se base pour ses analyses sur des relevés de températures provenant de trois sources. Il s'agit des données fournies par plus d'un millier de stations météorologiques situées tout autour de la Terre, des mesures de températures à la surface des océans effectuées par des satellites ainsi que des données venant des stations de recherche dans l'Antarctique.

NASA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du poumon : vers des thérapeutiques ciblées
Vendredi, 29/01/2010 - 00:00

Une médecine plus personnalisée -donc plus efficace - devient réalité contre le cancer du poumon. D'après les spécialistes regroupés sous l'égide de l'Intergroupe francophone de cancérologie thoracique, une mutation présente dans certaines tumeurs rend en effet ces dernières plus sensibles à certains traitements.

Parmi la population européenne, une mutation du « récepteur de croissance épidermique (EGFR) » est présente dans 10 % des cas de cancer du poumon. Les patients porteurs (de cette mutation) répondent mieux à certains traitements anticancéreux, les « inhibiteurs des tyrosine-kinase anti-EGFR ». Ce type de thérapeutique ciblée est déjà utilisée contre le cancer du sein, par exemple.

L'identification de cette mutation, sorte de signature moléculaire de la tumeur, est dorénavant utile pour choisir le traitement adéquat du cancer du poumon et donc améliorer la prise en charge et les chances de succès. En France, 30 000 nouveaux cas sont diagnostiqués chaque année, avec un taux de guérison inférieur à 15 %. Soit près de 27 000 morts en 2005.

DS

Hauts niveaux de vitamine D liés à une réduction du risque de cancer du colon
Vendredi, 29/01/2010 - 00:00

Des niveaux sanguins élevés de vitamine D sont associés à une réduction du risque de cancer du colon, selon une étude comparative sur plus d'un demi million d'Européens, publiée par le British Medical Journal (BMJ). Les personnes dotées des niveaux sanguins de vitamine D les plus élevés ont un risque de faire un cancer colorectal de près de 40 % inférieur à celui de ceux qui ont les niveaux les plus bas.

Cette vitamine, qui est fabriquée par l'organisme exposé au soleil, mais peut aussi provenir de l'alimentation, joue un rôle déterminant pour la solidité des os en favorisant la fixation du calcium.

Quelques études antérieures ont déjà suggéré un lien entre vitamine D et cancer colorectal, mais sans pouvoir conclure en raison d'informations trop limitées sur les populations européennes. D'où l'étude, conduite de 1992 à 1998, qui repose sur le projet EPIC (pour European Prospective Investigation into Cancer) sur plus de 520.000 personnes de dix pays européens de l'Ouest (Danemark, France, Grèce, Allemagne, Italie, Pays-Bas, Norvège, Espagne, Suède et Royaume-Uni), coordonné par le Centre international de recherches sur le cancer (CIRC/Iarc), l'agence de l'OMS pour le cancer, basée à Lyon (France).

Au cours du suivi de la cohorte de participants, 1.248 cas de cancer colorectal ont été diagnostiqués et comparés à un nombre équivalent de sujets en bonne santé. Reste à éclaircir si induire une concentration sanguine élevée en vitamine D à l'aide de compléments alimentaires ou d'aliments fortifiés en vitamine D constitue une meilleure solution que d'obtenir ce résultat par une alimentation équilibrée combinée avec une exposition régulière et modérée au soleil, selon les auteurs.

Les résultats d'essais précédents n'ont pas permis de répondre à la question. Aussi, avant de recommander de prendre des compléments, de nouveaux essais doivent être conduits pour évaluer si augmenter la concentration sanguine en vitamine D permet effectivement de réduire le risque de ce cancer et cela, sans induire de sérieux effets indésirables, concluent-ils.

Romandie

La protection contre le cancer renforcée par l'exposition aux UV
Vendredi, 29/01/2010 - 00:00

Une exposition régulière et modérée aux UV contribuerait à la protection contre les cancers du sein, de la prostate, du colon et du rectum, ainsi que contre certains lymphomes. Une équipe de scientifiques néerlandais menée par Han von der Rhee du groupe clinique de Haager « Hagaziekenhuis » et de l'Université de Rotterdam ont abouti à cette conclusion dans une étude qui vient d'être publiée dans le magazine spécialisé « European Journal of Cancer Prevention ». Dans leur article, Han von der Rhee et ses collègues mentionnent également le fait que la perception qu'a le public des effets de l'exposition aux UV est en décalage par rapport aux connaissances scientifiques actuelles.

« Le travail des chercheurs néerlandais montre une nouvelle fois que l'exposition aux UV a une influence positive sur la santé humaine. Les risques potentiels liés à la surexposition sont bien connus du grand public. Mais d'un autre côté, les effets bénéfiques sur la santé d'une exposition modérée aux UV à l'extérieur ou en cabine ne sont pas assez présents dans les informations accessibles au public, explique Ad Brand de Sunlight Research Forum (SRF). »Dans le cadre de cette étude, l'équipe de recherche néerlandaise a systématiquement revu et évalué les découvertes scientifiques actuellement disponibles sur le lien entre exposition aux UV et cancers internes.

Caducéedb=9443&mots=all]

Une puce à ADN pour détecter des virus émergents
Vendredi, 29/01/2010 - 00:00

Il est désormais possible de détecter en 24 heures la présence d'un virus ou d'une bactérie déjà connus, voire d'un de leurs variants émergents, et cela parmi un très large spectre d'agents infectieux. Cette prouesse technologique a été rendue possible grâce aux travaux des équipes de l'Institut Pasteur et du CNRS (dirigées par Antoine Gessain et Jean-Claude Manuguerra), qui ont mis au point un outil spécifique utilisant la technologie des puces à ADN. Cet outil pourrait être utilisé à l'avenir en cas d'alerte épidémique, pour identifier en urgence le ou les agents pathogènes en cause, et ainsi aider les autorités de santé dans la gestion des épidémies.

Alors que naissait celle de la grippe A(H1N1), en avril 2009, les chercheurs français ont montré que cette biopuce permettait la détection et l'identification du nouveau variant à partir des échantillons prélevés chez les malades. Elle est ainsi capable de couvrir une large diversité génétique virale, d'être très discriminante, même en présence d'un mélange de virus, et de s'affranchir des traditionnelles techniques de séquençage. "Elle a même permis de déterminer les espaces géographiques et la période de circulation de plusieurs virus H1N1 saisonniers et d'origine porcine testés, ainsi que l'origine, aviaire ou porcine, des différents segments du virus variant (H1N1)", précise le communiqué de l'Institut Pasteur.

Pour ceux que la technologie intéresse, une puce à ADN se présente sous la forme d'un support solide, sur lequel sont disposées, selon une organisation spatiale bien ordonnée, des sondes nucléiques (des séquences d'ADN ou d'ARN) spécifiques. Mises en présence de l'échantillon à tester, ces sondes se lient étroitement aux acides nucléiques viraux ou bactériens contenus dans l'échantillon, si elles sont complémentaires.

Grâce à de puissants moyens d'amplification moléculaire et à des outils d'analyse bio-informatique, le signal alors émis permet d'identifier ces acides nucléiques, même s'ils sont présents en faible quantité. Le développement de cet outil va être poursuivi avec la réalisation d'une nouvelle génération de puces, dont les capacités d'identification des agents viraux impliqués, dans les pathologies aussi bien humaines qu'animales, seront encore accrues.

LP

Sclérose en plaques : deux médicaments prometteurs
Vendredi, 29/01/2010 - 00:00

Le New England Journal of Medicine a publié les résultats de trois essais thérapeutiques avec deux molécules différentes, ayant en commun un mécanisme d'action similaire et un usage par voie orale. Avec deux ans de recul, ces produits, qui ne sont pas encore sur le marché, permettraient de réduire la fréquence des poussées (ou crises) de SEP ainsi que le niveau du handicap. Tout le problème réside dans les effets secondaires, loin d'être négligeables mais pas forcément ingérables.

La sclérose en plaques est une maladie relativement fréquente (un adulte sur 1.000 est touché), avec une évolution très variable d'un individu à l'autre. Caractérisée par une destruction des gaines de myéline qui entourent les fibres nerveuses du cerveau, elle évolue au départ souvent par poussées (mais pas toujours) et se traduit par des troubles de gravité variable, bénins pour les uns, gravement handicapants pour d'autres.

C'est une maladie considérée comme auto-immune : une réaction inflammatoire d'origine immunitaire expliquant la destruction de la myéline. D'où la mise au point de médicaments visant à bloquer le système immunitaire pour empêcher le développement de la maladie.

Le premier de ces trois essais thérapeutiques porte sur 1.326 patients chez qui un diagnostic de sclérose en plaques a été porté. La moitié d'entre eux a reçu de la Cladribine par voie orale à différentes doses et l'autre moitié un placebo (une substance neutre dénuée de toute activité), le tout pendant deux ans. L'objectif était de comparer dans les deux groupes, le nombre de poussées de la maladie et la progression du handicap, tout en évaluant, bien sûr, les effets secondaires. La Cladribine bloque de manière sélective certains lymphocytes impliqués dans les réactions inflammatoires et immunitaires.

Les résultats dévoilent que pour les patients bénéficiant du médicament, le taux de poussées est de 0,14 par an contre 0,33 pour ceux sous placebo. Près de 79 % de patients n'ont pas eu de poussées pendant la durée de l'essai avec le médicament contre 60 % avec le placebo. De plus, l'imagerie cérébrale affichait un moindre taux de lésions pour les patients bénéficiant de la molécule active.

Enfin, la progression du handicap (difficile à apprécier clairement sur deux ans) est apparue un peu plus faible avec la Cladribine qu'avec le placebo. Mais comme tous les médicaments immunosuppresseurs, les effets secondaires ne sont pas négligeables. Ainsi, si le taux de décès au bout de deux ans est similaire dans les deux groupes, le taux d'infection et de cancer apparaît un peu plus élevé avec le médicament qu'avec le placebo, rançon du blocage, même partiel, de l'immunité.

Le second essai porte sur une autre molécule également administrée par voie orale, le Fingolimod. Cet immunosuppresseur sélectif a été testé pendant deux ans sur 1.033 patients. Les résultats sont quasiment similaires à ceux obtenus avec la Cladribine, avec nettement moins de poussées et une progression plus limitée du handicap.

Le seul problème reste les effets secondaires notamment infectieux, mais aucun cas de cancer supplémentaire n'a été observé. Une troisième étude comparant le Fingolimod par voie orale à l'interféron par voie intraveineuse (le traitement de référence classique) a révélé au bout d'un an la supériorité du premier sur le second en terme de réduction des poussées, mais avec des effets secondaires plus importants que l'interféron.

NEJM

NEJM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top