RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 556
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Mai 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Sony met au point un écran souple qui s'enroule
Lancement à Nice du paiement sans contact en France
TV en 3D : l'ADSL ne suffira pas
Avenir
La vision 3D révolutionne l'automatisation
Matière
Le plus petit transistor au monde
La lumière du soleil comme agent de réfrigération
Les biocarburants valériques : une nouvelle génération de biocarburants à partir de lignocellulose
Un approvisionnement électrique 100 % renouvelable d'ici 2050 en Allemagne ?
Terre
Les émissions de CO2 devraient croître de 43 % d'ici 2035
La France se lance dans la séquestration du carbone
Climat : le mois d'avril a été le plus chaud jamais enregistré sur la planète
Vivant
Le vaccin antivariolique pourrait protéger contre le VIH
Des aimants contre la dépression
Cancer du poumon : la mortalité des femmes explose
Les aliments bio sont-ils meilleurs pour la santé
Edito
Allons-nous reconstruire la vie ?



L'événement fera date dans l'histoire de la biologie : Greg Venter et son équipe ont réussi à réaliser la première bactérie artificielle car son génome est entièrement synthétique. Il a été fabriqué par voie chimique à partir de la séquence du génome d'une bactérie, Mycoplasma mycoides (agent de la péripneumonie des bovidés). Il s'agit d'une percée scientifique majeure, tant à cause du nombre d'obstacles surmontés que de la méthode mise au point. A partir du génome d'une bactérie entièrement séquencé, les chercheurs ont synthétisé chimiquement, grâce à des machines, des morceaux de ce génome, long de plus d'un million de caractères.

En 2008, Craig Venter avait déjà réussi, avec son équipe, à fabriquer un génome bactérien entièrement synthétique en collant des séquences d'ADN synthétisées bout à bout afin de reconstituer le génome complet de la bactérie Mycoplasmes genitalium.

Ce génome avait ensuite été transplanté dans une autre bactérie, mais sans que celle-ci ne puisse fonctionner. Pour créer cette nouvelle cellule contrôlée par un génome artificiel, les chercheurs se sont appuyés sur ces deux techniques élaborées en 2008.

Le génome qu'ils ont fabriqué est la copie conforme d'un génome présent dans la nature, celui de la bactérie mycoplasme mycoïde, mais il comporte des séquences d'ADN supplémentaires.

Les scientifiques ont ensuite transplanté ce génome synthétique dans une autre bactérie, appelée microplasme capricolum, et sont enfin parvenus à activer les cellules de cette dernière.

Bien que quatorze gènes aient été supprimés dans la bactérie receveuse du génome synthétique, celle-ci ressemblait bien à une bactérie microplasme capricolum dont les gènes ne produisaient que ses protéines, précisent les auteurs de ces travaux.

«Si ces techniques peuvent être généralisées, la conception, la synthèse, l'assemblage et la transplantation de chromosomes synthétiques ne seront plus des obstacles aux progrès de la biologie synthétique», écrivent les chercheurs.

Les premiers blocs d'ADN reconstitués comptent 1 000 caractères qui constituent les « pages » de ce livre génétique. Celles-ci se combinent ensuite en « chapitres » de 100 000 caractères qui eux-mêmes forment l'équivalent d'un gros livre d'un million de caractères.

Une autre prouesse des chercheurs est d'avoir pu introduire ce chromosome bactérien ainsi reconstitué dans un autre mycoplasme ( Mycoplasma capricolum, qui infecte les chèvres) débarrassé de son propre génome.

Mais le moment le plus extraordinaire de cette expérience s'est produit quand les chercheurs ont vu se développer une colonie de bactéries ayant bien toutes les propriétés du génome synthétique.

A l'occasion de ces travaux, les chercheurs ont beaucoup appris. Ils ont notamment constaté qu'une telle «transplantation» de chromosome pouvait se heurter à des mécanismes de «rejet».

Ils ont également repéré une mutation portant sur un seul caractère et empêchant la réplication du chromosome, donc celle de la bactérie.

Pendant la conférence de presse organisée le 20 mai par le journal Science, qui a publié les résultats des travaux, Greg Venter a affirmé que la nouvelle cellule constituait «la première espèce autoreproductrice que nous ayons eue sur la planète à avoir pour parent un ordinateur».

Greg Venter a estimé qu'il s'agissait-là d'«un pas important tant scientifiquement que sur le plan philosophique».

De l'avis des scientifiques, les bactéries industriellement intéressantes ont des génomes qui commencent à 2 millions de caractères et il devrait être possible, à partir de la plate-forme de Venter, de pouvoir étendre ce travail à d'autres micro-organismes.

Les chercheurs vont à présent tenter de concevoir des algues capables de capturer le dioxyde de carbone (CO 2), principal gaz à effet de serre, et de produire de nouveaux carburants propres. Cette percée devrait également permettre d'accélérer la production de vaccins, de fabriquer une multitude de molécules chimiques ou encore des bactéries capables de purifier l'eau.

Ce saut technologique et scientifique ouvre la voie vers une multitude d'applications dans tous les domaines : médecine, industrie, énergie, transports...

Il ouvre incontestablement une nouvelle ère dans le domaine de la biologie et des biotechnologies car nous savons désormais qu'il sera un jour possible d'obtenir des organismes entiers complexes de manière totalement artificielle, même si cette perspective reste encore lointaine.

Cette avancée remarquable va également permettre, sur un plan plus théorique, de mieux comprendre l'extraordinaire complexité des mécanismes du vivant.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Sony met au point un écran souple qui s'enroule
Vendredi, 28/05/2010 - 00:00

Le fleuron de l'électronique japonais, Sony, a annoncé avoir développé un prototype d'écran vidéo souple en couleurs, qui se roule autour d'un petit cylindre et peut se transporter dans une poche comme un simple stylo. Il s'agit d'un écran d'une dizaine de centimètres de diagonale, composé d'un substrat souple ultra-fin sur lequel sont répandues de minces couches de matériaux organiques semi-conducteurs et électroluminescents.

Cet écran peut afficher des images animées en 16,7 millions de nuances colorées et peut être roulé car il ne comporte plus de circuit électronique rigide à la périphérie, selon Sony.

'Même après plus de 1 000 cycles d'enroulement et étirement, nous n'avons pas constaté de nette dégradation dans l'affichage', a assuré le groupe. 'Nous pensons que ces résultats entraîneront la création d'appareils électroniques mobiles fins, légers et robustes', a-t-il souligné.

Sony n'est pas la seule firme nippone à travailler sur le développement d'écrans souples qui puissent se manier comme un journal. L'organisme public des nouvelles énergies et techniques industrielles conduit aussi un vaste programme pluriannuel de recherche, avec plusieurs entreprises privées nippones, pour créer un dispositif qui permette de fabriquer des écrans souples à la chaîne de la même façon que l'on imprime des journaux.

Yahoo

Lancement à Nice du paiement sans contact en France
Vendredi, 28/05/2010 - 00:00

Le 21 mai 2010, la Ville de Nice a inauguré plusieurs de ces services, accessibles grâce à une carte bancaire ou à un téléphone portable équipé d'une puce de communication par ondes radio NFC (near field communication). En pratique, plusieurs milliers de Niçois auront la possibilité de remplacer leur carte bancaire habituelle par une carte sans contact. En parallèle, des terminaux de paiement sans contact seront installés chez de nombreux commerçants, grandes enseignes de distribution comme commerces de proximité. Les banques participant au projet sont la Banque Edel (E.Leclerc), la Banque Populaire, BNP Paribas, la Caisse d'Epargne, le Crédit Agricole, le Crédit du Nord, le CIC, le Crédit Mutuel, la Banque Postale, LCL et la Société Générale.

Les Niçois peuvent ainsi régler certains de leurs achats en approchant l'un ou l'autre près d'un terminal de paiement sans contact. Le système fonctionne sur une distance de l'ordre de 5 centimètres. C'est la première fois qu'une ville en Europe dépasse le stade de l'expérimentation.

Le panel de partenaires qui ont participé à la mise en place du dispositif est impressionnant. Du côté des opérateurs télécoms, Orange, Bouygues, SFR et NRJ Mobile ont répondu présents et vont commercialiser des appareils intégrant des puces NFC, baptisés « Citizy ».

Orange a par exemple choisi le Player One de Samsung, vendu à partir de 1 euro avec un forfait Origami ou Smart, qu'il complète, pour les habitants de Nice, d'un Pass Citizi gratuit incluant les connexions à l'Internet mobile nécessaires à la transmission des données de transactions vers les réseaux bancaires.

Du côté des établissements bancaires, Visa et Mastercard, ainsi que les plus grandes banques (BNP Paribas, Banque populaire, Caisse d'épargne, La Poste, Société générale...) ont travaillé au déploiement du système de paiement. A partir du mois de juin, les premières cartes bancaires équipées d'une puce NFC vont être distribuées, sans surcoût.

Si mobiles et cartes bancaires NFC font à peine leur apparition sur le marché, les services pour lesquels ils ont été conçus sont déjà bien en place. Leur but est de faciliter la vie des usagers, en diminuant les files d'attente et les problèmes de monnaie. Sur les lignes urbaines de Nice, il est possible d'acheter et de valider son ticket de transport grâce à la technologie sans contact. Huit cents arrêts sont déjà équipés des bornes compatibles. Les utilisateurs dotés d'un mobile NFC peuvent accéder aux horaires des prochains passages, être avertis d'éventuelles perturbations et accéder à des informations de quartier.

La technologie de paiement sans fil est aussi déployée chez les commerçants niçois : 400 à 500 d'entre eux sont équipés de terminaux de paiement électroniques, ils seront 850 à 1 000 d'ici à la fin juin. La Ville prévoit qu'ils seront 2 000 à 3 000 à la fin de l'année.

Pour tout paiement de moins de 20 euros, l'utilisateur n'a qu'à passer sa carte ou son téléphone devant le lecteur sans contact. Il est informé que la transaction est validée par un signal sonore et visuel. Pour des montants supérieurs, pour des questions de sécurité, il est nécessaire de saisir soit son code de carte bancaire soit le code PIN du téléphone.

En 2009, Visa a émis 6 millions de cartes sans contact en Europe, en particulier au Royaume-Uni, en Italie, en Pologne, en Turquie et en Suisse, et prévoit d'atteindre les 12 millions de cartes en 2010. En plus des services pratiques, la Ville de Nice a aussi déployé des applications culturelles. Seize plaques ont été installées sur les monuments les plus remarquables du Vieux-Nice.

Il suffit de les frôler avec un mobile pour télécharger une visite guidée multimédia, contenant vidéo, explications audio et des photos mettant en lumière les détails architecturaux. Un système identique a été déployé au Musée d'art moderne et d'art contemporain, pour mettre en lumière dix oeuvres les plus remarquables. A noter que ces contenus culturels ne sont pas réservés uniquement aux détenteurs d'un mobile NFC, ils le sont aussi à ceux disposant d'un portable doté d'un lecteur de Flashcode.

OINet

TV en 3D : l'ADSL ne suffira pas
Vendredi, 28/05/2010 - 00:00

Avec l'arrivée de la TV en 3D, la bonne vieille technologie ADSL s'approche de ses limites. Le triple play et la TV HD ont déjà creusé de fortes inégalités entre les foyers « éligibles » et les autres. Avec la 3D : ce sera encore pire. La technologie 3D diffuse deux images au lieu d'une afin de créer un effet stéréoscopique. Conséquence : le débit requis est en théorie deux fois supérieur à celui de la 2D. En pratique, les techniques de compression 3D permettent de réduire ce gonflement de la bande passante à environ 1,5 fois. Rien n'empêche donc de diffuser de la 3D avec un débit de seulement 8 Mbit/s.

Free estime également qu'il n'y a « pas de problème pour recevoir des flux 3D sur l'ADSL : la 3D ne change rien par rapport à la 2D en terme de débit. Si l'abonné est capable d'avoir le multiposte chez lui alors il aura la 3D avec la même qualité d'image. » L'opérateur ne donne pas plus de détails techniques mais rappelons que le multiposte signifie au moins deux canaux en simultané pour recevoir la TV sur plusieurs téléviseurs, donc a priori au moins 8 Mbit/s.

Sauf que pour atteindre une qualité d'image optimale, c'est-à-dire en haute définition sans pixelisation intempestive, 8 Mbit/s ne suffisent pas. Numericable défend ainsi un minimum de 15 Mbit/s pour « assurer une qualité d'image viable en 3D ». Le cabinet de conseil Tactis partage cet avis. « La 3D en haute définition réclame de 15 à 20 Mbit/s minimum pour chaque canal afin d'assurer une qualité de service satisfaisante », assure Stéphane Lelux, son président. En-dessous de ce seuil, les images sont en définition standard ou risquent fortement de pixeliser.

Or, le marché ne serait pas prêt à faire de concession. « Je ne pense pas que les clients veulent faire machine arrière en terme de qualité d'image », estime ainsi Jean-Pierre Lacotte, président du HD Forum, consortium rassemblant une soixantaine de sociétés du marché de la HD. Pascal Dormal, directeur du développement de Numericable partage cet avis et précise qu'il y a « un vrai inconfort visuel à regarder des images 3D avec une qualité insuffisante ». Il rappelle que Numericable et d'autres industriels viennent de créer ce mois de mai la « 3D-HD Alliance », dont l'objectif est de promouvoir la 3D en qualité HD.

L'ADSL2+ permet théoriquement d'atteindre 25 Mbits/seconde. Mais en pratique, pour être proche des 20 Mbit/s, il faut être très près du répartiteur de France Télécom, c'est-à-dire à quelques centaines de mètres. Autant dire que peu de foyers sont éligibles. Selon Tactis, moins de 20 % des foyers métropolitains peuvent ainsi accéder à des débits supérieurs à 8 Mbit/s. « Dans ces conditions, il n'est pas raisonnable commercialement d'envisager une offre 3D massive par l'ADSL », conclut sans détour son président, Stéphane Lelux.

Deux autres modes de diffusion sont, sans conteste, mieux adaptés à la 3D. Le premier est la fibre optique, qui permet déjà d'atteindre jusqu'à 100 Mbit/s. Même s'il teste actuellement la 3D sur ADSL, Orange nous confie ainsi que « le développement commercial de la TV 3D est associé à notre plan de déploiement de la fibre optique ». Un avis partagé par Numericable, de loin le plus avancé en terme de déploiement fibre. « Il est probable que certains opérateurs tenteront de faire passer la 3D sur des débits relativement faibles. Mais l'avenir de la 3D passera par une large bande passante, comme celle permise par la fibre », explique Pascal Dormal. Numericable entend proposer des contenus HD 3D à l'automne prochain, sous la forme de programmes en VOD.

Autre solution de prédilection pour la 3D : le satellite. « Le satellite possède des débits plus que suffisants pour la 3D, avec l'avantage d'être accessible sur l'ensemble du territoire », indique ainsi Joseph Guégan, directeur général adjoint de Canal+, en charge de la technologie et des systèmes d'information. La chaîne prépare également des contenus 3D pour la fin de l'année. « Le satellite est déjà prêt pour la 3D », confirme Lydia Gaillard, responsable projet broadcast au sein d'Eutelsat. Elle rappelle que les débits peuvent atteindre 60 Mbit/s sur un répéteur (canal de distribution satellite) et qu'une chaîne de démonstration 3D existe déjà depuis 2009 sur Eutelsat. Cette chaîne serait d'ailleurs utilisée par bon nombre de vendeurs d'écrans 3D en boutique.

OINet

^ Haut
Avenir
Nanotechnologies et Robotique
La vision 3D révolutionne l'automatisation
Vendredi, 28/05/2010 - 00:00

Les spécialistes de l'automatisation sont unanimes : la vision 3D se trouve tout au début d'un développement fulgurant. Toujours plus performants et plus simples d'utilisation, les systèmes de vision 3D qui seront au coeur du salon Automatica 2010, ont donné le coup d'envoi à un profond bouleversement de l'automatisation et de la robotique.

Au cours de ces dernières années, les systèmes de traitement d'images et les systèmes de vision industrielle, ont été à l'origine de remarquables succès dans les branches d'application les plus diverses et ont donné naissance à un large éventail de solutions.

De conception plus simple, les systèmes 2D et les capteurs de vision dominent encore largement le segment même si, en matière de traitement d'images, les applications 3D sont aujourd'hui en plein essor. Patrick Schwarzkopf, directeur de la VDMA Traitement industriel d'images, illustre d'ailleurs ce constat de données chiffrées : « L'analyse de marché que nous avons effectuée a révélé que 10 % du chiffre d'affaires global de la branche est généré par les activités de mesures tridimensionnelles - et la tendance est à la hausse ! Il faut en outre y ajouter les applications déjà existantes dans le domaine de l'automatisation. »

Pour le Dr Olaf Munkelt, président du Conseil d'administration de la VDMA Traitement industriel d'images et directeur de la société MVTec Software GmbH qui produit des logiciels destinés au traitement d'images industriel, une chose est sûre : « La vision 3D se trouve au tout début d'un développement fulgurant. A l'avenir, il est clair que les machines et les technologies de traitement d'images fusionneront au sein d'entités uniques.»

Dans notre monde actuel, la vision en trois dimensions est devenue une nécessité dans de nombreux domaines, pour les individus mais aussi pour l'industrie et les machines. Dans le secteur de la construction mécanique ou de la production industrielle, les informations tridimensionnelles permettent de relever des défis complexes partout où les technologies 2D classiques ne suffisent plus.

En effet, pour détecter des objets avec les technologies 2D, il faut que ceux-ci soit orientés selon des axes définis. Inversement, la vision 3D peut appréhender des objets, quelle que soit leur position dans l'espace. La procédure de mise en correspondance par projection perspective permet même de reconnaître clairement dans leurs coordonnées des objets renversés ou vrillés. Ainsi, avec la vision 3D, le robot devient quasi autonome. Il perçoit la manière dont une pièce est posée ou accrochée et peut alors la prélever de manière ciblée.

De manière générale, différentes méthodes existent pour recueillir des données tridimensionnelles. Il est notamment possible de collecter des images au moyen de plusieurs caméras (stéréométrie), ou bien d'enregistrer deux dimensions avec une caméra et la troisième via un autre capteur (un capteur de proximité par exemple).

Autres solutions possibles : la mise en oeuvre d'un laser linéaire, d'un scanner laser de profil 3D ou d'une combinaison de tous ces capteurs et caméras. La méthode choisie varie en fonction de l'application prévue.

Au-delà de son utilisation en métrologie, un domaine d'application très florissant, les systèmes de vision 3D sont de plus en plus employés dans le secteur de l'automatisation et en particulier pour les robots industriels. Une branche d'activités qui est familière à l'entreprise Robo3DVision, une division de la société polonaise AIC S.A qui développe et réalise des échangeurs thermiques et fournit des solutions complètes de transfert thermique.

Pour les besoins de cette société, Robo3DVision a mis au point un système de vision adaptatif, spécialisé dans le soudage tridimensionnel automatisé tube-tube plaque. Une nouvelle version de ce système autorise le pilotage de différents processus assistés par robots (soudage linéaire, montage, collage et inspection de surface entre autres).

Maciej Kaniewski, chef d'équipe chez Robo3DVision, explique : « Notre système de vision adaptatif compte au nombre de ces « vision-based robot guidance systems » qui, selon moi, sont les seuls véritables systèmes de vision 3D. De tels systèmes sont en mesure de scanner une scène, de détecter la position dans l'espace des différents éléments et de générer le chemin d'accès pour le robot.

Ils sont particulièrement recommandés pour toutes les opérations de préhension, de palettisation et de montage ainsi que pour le collage et le soudage automatisés». Les informations tridimensionnelles permettent au système de traitement d'image du robot d'identifier le type d'objet dont il s'agit ainsi que son positionnement. De cette façon, une manipulation sans heurts peut être garantie, condition indispensable au bon déroulement de toute production automatisée.

TI

^ Haut
Matière
Matière et Energie
Le plus petit transistor au monde
Vendredi, 28/05/2010 - 00:00

Des scientifiques australiens ont construit le plus petit transistor au monde, composé de seulement sept atomes dans un cristal de silicium. C'est le premier point quantique créé en plaçant délibérément une série d'atomes individuels. Il peut être utilisé pour réguler ou contrôler la circulation d'un courant électrique, tout comme un transistor classique. Néanmoins, contrairement aux CMOS d'aujourd'hui qui utilisent des matériaux différents pour le drain et la grille par exemple, améliorant ainsi les performances, ce transistor utilise le même matériau, limitant les risques de défauts et les interférences.

Les résultats des recherches ont été publiés dans la revue Nature Nanotechnology en partenariat avec les scientifiques de l'Université de la Nouvelle-Galles-du-Sud et l'Université de Wisconsin-Madison. Selon les chercheurs, cette avancée montre qu'il est possible de construire un ordinateur quantique en utilisant seulement du silicium, le transistor ouvrant la voie à des micro-ordinateurs superpuissants. S'ils espèrent des composants 1 000 fois plus puissants que ceux d'aujourd'hui, ils affirment qu'il faudra encore au moins cinq ans avant de voir les fruits de ces recherches sur les marchés.

TOM

La lumière du soleil comme agent de réfrigération
Vendredi, 28/05/2010 - 00:00

Refroidir à l'aide de la lumière du soleil : cette idée, si elle semble paradoxale, se révèle être un concept énergétique original : les chercheurs de l'Institut Fraunhofer des systèmes énergétiques solaires (ISE) à Fribourg étudient l'emploi de l'énergie solaire - déjà utilisée pour la climatisation de bâtiments - pour maintenir au frais les denrées alimentaires périssables comme le lait, le vin ou les fruits. Ils démontrent la viabilité de ce procédé en zone méditerranéenne sur une entreprise de viticulture en Tunisie et une entreprise laitière au Maroc.

Dans le cadre du projet MEDISCO (MEDiterranean food and agro Industry applications of Solar COoling technologies), des installations solaires pour la réfrigération du lait et du vin ont été installées en coopération avec des universités, agences de l'énergie et entreprises européennes. Le projet, soutenu par la commission européenne, est coordonné par l'Ecole Polytechnique de Milan.

"Notre méthode s'applique en particulier dans les pays bénéficiant d'un ensoleillement important ou dans les zones reculées ne disposant d'aucune possibilité conventionnelle de réfrigération, par manque d'eau ou de ressources énergétiques. Elle est favorable à l'environnement, et réduit au minimum l'emploi d'électricité nécessaire au fonctionnement d'appareils de réfrigération conventionnels", annonce le Dr. Thomas Núñez, scientifique au ISE, énonçant les avantages de la technologie. "Le froid, étant toujours disponible lorsque le soleil brille, est ainsi produit surtout en période de besoins élevés."

Les scientifiques ont bâti des collecteurs solaires à concentration, qui dirigent la lumière du soleil avec un miroir sur un absorbeur. C'est ainsi que le rayonnement solaire se laisse convertir en eau à 200°C. "Cette température extrême est nécessaire pour faire fonctionner la machine frigorifique à absorption par les températures extérieures ambiantes élevées.

Contrairement à un réfrigérateur, nous n'utilisons pas d'électricité pour produire du froid, mais de la chaleur. Le résultat est le même dans les deux cas : du froid sous forme d'eau froide ou - dans notre cas - de l'eau glycolée ", ajoute M. Núñez.

Comme la machine frigorifique à absorption produit des températures de zéro degré Celsius, les experts veulent empêcher la congélation de l'eau grâce au mélange utilisé. La solution d'eau glycolée sera ensuite stockée dans des réservoirs de froid puis pompée à travers un échangeur de chaleur, chargé de refroidir le lait. "Le refroidissement du vin se passe un peu différemment : le fluide réfrigérant circule dans des serpentins reliés aux cuves de vin."

"MEDISCO est un projet de démonstration. La technique n'est pas encore applicable sur le marché", ajoute le chercheur. "Cependant il y a des chances que la réfrigération solaire puisse être appliquée à l'avenir dans l'agriculture ou l'industrie chimique et cosmétique".

BE

Les biocarburants valériques : une nouvelle génération de biocarburants à partir de lignocellulose
Vendredi, 28/05/2010 - 00:00

Jean-Paul Lange, chercheur de l'entreprise énergétique Shell, et ses collaborateurs d'Amsterdam, Hambourg et Cheshire (Grande-Bretagne) ont développé une nouvelle génération très prometteuse de biocarburants à base de bois. Comme ils l'ont décrit dans la revue spécialisée Angewandte Chemie, les véhicules pourraient d'ores et déjà circuler avec ce carburant et utiliser le réseau de stations service actuel.

La première génération de biocarburants, basée sur le sucre, l'amidon et les huiles végétales, ne trouve pas de véritable application industrielle à grosse échelle (pourtant nécessaire dans le secteur des transports), car ces matières premières sont également utilisées comme denrées alimentaires. La lignocellulose, présente dans la paroi cellulaire de plantes lignifiées, représente une alternative intéressante, car cette matière première est répandue, bon marché et son utilisation s'inscrit mieux dans le cadre du développement durable.

Jusqu'à présent néanmoins, un processus de retraitement complexe et cher était nécessaire pour raffiner la lignocellulose en biocarburant. Or un composé peut être produit à partir de lignocellulose par une simple hydrolyse acide : il s'agit de l'acide lévulinique, fabriqué principalement à partir de glucose et employé comme additif dans l'industrie cosmétique, plastique et textile. Cependant, jusqu'à présent aucun carburant satisfaisant n'avait pu être produit à partir d'acide lévulinique.

M. Lange et ses collaborateurs ont trouvé une solution : grâce à un nouveau procédé, ils hydrogénisent l'acide lévulinique en acide valérique, qu'ils estérifient ensuite en valérate. C'est ainsi qu'apparaît une nouvelle famille de carburants : les "biocarburants valériques". Selon le réactif utilisé pour l'estérification, ils donnent naissance à de la bio-essence ou du biodiesel et peuvent être mélangés avec les carburants habituels.

Les véhicules actuels peuvent être approvisionnés en carburant valérique sans avoir besoin de transformer le moteur, et même le réseau de stations services actuel pourrait être utilisé pour la distribution. Les nouveaux carburants ont passé avec succès une longue série de tests. Lors d'un essai pratique, dix types de véhicules courants, neufs ou d'occasion, ont été approvisionnés avec un mélange d'essence normale avec 15 % en volume de biocarburant valérique, et ont parcouru 500 km par jour. Après un total de 250.000 km de trajet, aucune altération de la conduite, du moteur, du réservoir ni des tuyaux d'alimentation en essence n'a été déplorée.

BE

Un approvisionnement électrique 100 % renouvelable d'ici 2050 en Allemagne ?
Vendredi, 28/05/2010 - 00:00

"L'Allemagne pourrait s'approvisionner en 2050 à partir de 100 % d'électricité de source renouvelable". C'est ce que le président du Comité scientifique pour les questions environnementales (SRU), Prof. Dr. Martin Faulstich, a annoncé le 5 mai 2010, au cours de la Commission environnementale du Bundestag. "Le Gouvernement fédéral doit à présent poser des jalons pour la restructuration du système énergétique".

Le SRU a présenté les divers scénarios qu'il a élaborés pour démontrer qu'un approvisionnement électrique exclusivement renouvelable d'ici 2050 à des coûts compétitifs est envisageable en Allemagne, avec une sûreté d'approvisionnement garantie à toute heure de l'année, et une politique d'incitation des innovations durables. Les scénarios s'appuient sur les estimations modèles du Centre allemand de recherche aérospatiale (DLR).

Le modèle REMix compte parmi les meilleurs et plus exacts en Europe et travaille avec une résolution temporelle extrêmement élevée.

Les principaux résultats des scénarios exposés par le SRU sont les suivants :

- Le potentiel utile des énergies renouvelables (EnR) en Europe dépasse manifestement et largement le besoin électrique actuel et également futur.

- La fluctuation considérable de l'électricité éolienne et solaire appelle un développement des moyens de stockage (collaboration étroite entre le potentiel scandinave - Norvège, Suède - en hydraulique et pompage-turbinage et les capacités de production allemandes) et un aménagement des réseaux électriques (approvisionnement électrique sûr et abordable et intégration dans un raccordement à plus grande échelle entre l'Europe et l'Afrique du Nord) pour couvrir la demande.

- Les coûts de revient de l'électricité dans un système reposant uniquement sur les EnR seraient inférieurs à un mix d'EnR et d'énergies conventionnelles pauvres en CO2. Les coûts de production, de stockage et de restructuration du réseau pourraient atteindre 6 à 7 ct/kWh en 2050, si la politique misait sur une efficacité sans faille et une interconnexion européenne.

- Le renouvellement du parc de centrales allemandes offre des conditions favorables pour réorganiser l'approvisionnement électrique autour des EnR.

Ainsi les centrales conventionnelles actuellement en activité ou en construction devraient être fermées progressivement en fonction de leur durée de vie normale. Selon le Prof. Dr. Olav Hohmeyer, expert en énergie du SRU, "pour la période de transition, ni un rallongement des durées de vie des centrales nucléaires ni une fabrication de nouvelles centrales au charbon ne sont nécessaires".

"Le pont vers l'ère renouvelable est déjà installé". Le SRU met notamment en garde contre la surcapacité que le rallongement des activités nucléaires pourrait entrainer. Les centrales conventionnelles ne seraient pas compatibles sur la durée avec une production électrique renouvelable, car leur puissance ne peut pas s'adapter assez rapidement aux fluctuations de l'énergie éolienne et solaire.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les émissions de CO2 devraient croître de 43 % d'ici 2035
Vendredi, 28/05/2010 - 00:00

Les émissions de dioxyde de carbone imputées aux énergies fossiles devraient augmenter de 43 % d'ici 2035 par rapport à 2007 si leur réduction ne fait pas l'objet d'un accord international, prédit l'Agence américaine d'information sur l'énergie (EIA). es émissions de gaz à effet de serre dues à la consommation de charbon, de pétrole ou de gaz naturel passeraient de 29,7 milliards de tonnes en 2007 à 42,4 milliards de tonnes en 2035, écrit l'EIA dans son document annuel de prévisions à long terme.

L'essentiel de ces émissions proviendra des pays à forte croissance économique, comme la Chine et l'Inde, où la demande d'électricité devrait exploser. "Compte tenu de la forte croissance économique attendue et des politiques actuelles avec une dépendance toujours élevée aux énergies fossiles dans les pays non membres (de l'OCDE), l'essentiel de l'augmentation viendra" de ces pays, dit le rapport de l'EIA.

L'agence fédérale américaine souligne que ce risque est lié à l'absence de politiques nationales ou de traité international contraignant sur la lutte contre les changements climatiques. Les puissances industrialisées et les pays en développement peinent à s'accorder sur des mesures visant à réduire les émissions de CO2 et prévenir les sécheresses, vagues de chaleur ou inondations dues aux changements climatiques.

Le Congrès américain n'a toujours pas adopté le projet de loi sur le climat et l'énergie, susceptible de donner un nouvel élan aux discussions internationales. L'avenir du texte reste incertain en raison de l'opposition des élus d'Etats producteurs de pétrole ou de gaz. L'Union européenne entend pour sa part s'en tenir à ses engagements actuels et ne pas les revoir dans l'immédiat à la hausse.

EIA

La France se lance dans la séquestration du carbone
Vendredi, 28/05/2010 - 00:00

Le gaz carbonique étant le gaz à abattre, pourquoi ne pas l'enterrer profondément ? Délire scientifique digne d'un docteur Folamour ? Pas vraiment. Depuis 14 ans, Statoil, la compagnie pétrolière norvégienne injecte, chaque année, un million de tonne du dioxyde de carbone que produit l'un de ses gisements offshore de gaz naturel.

Plus proche de nous, Total mène, depuis quelques mois, une expérience somme toute comparable. Sur son site historique de Lacq, le pétrogazier français capte le CO2 émis par une chaudière à oxy-combustion (dont la combustion est dopée à l'oxygène), le sèche, le comprime, le transporte par gazoduc pour l'injecter dans un gisement de gaz déplété. Un peu partout dans le monde des expériences similaires sont menées à bien.

En Algérie, BP et Statoil renvoient les molécules de CO2 dans les culs de basse fosse géologiques. Même chose à Weyburn, au Canada, où le gaz carbonique produit par une usine américaine de gazéification est injecté dans des puits pétroliers ; ce qui permet tout à la fois de se débarrasser du gaz à effet de serre tout en accroissant la production d'or noir.

Pour certaines industries lourdes, la capture et la séquestration géologique du carbone sont la solution pour alléger leur empreinte carbone. Dans un rapport spécial, publié en 2007, le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) estime que 15 % à 20 % des émissions industrielles de CO2 pourraient être ainsi traitées d'ici 2050. On en est encore loin.

Raison pour laquelle les Etats développés, les instituts de recherches et les entreprises concernées se lancent dans une course effrénée aux technologies et au savoir-faire. Dans le monde, 141 projets sont actuellement en cours de développement.

En Europe, la Commission soutient la construction d'une petite dizaine de centrales électriques équipées d'un système de capture (ou captage) de gaz carbonique. Hélas, la technologie reste très coûteuse. D'autre part, le système complet est très volumineux et peut occuper un volume presque égal à celui de l'installation. Ce qui exclut de facto toute centrale ou usine urbaine ou ne disposant pas de réserve foncière.

Même si l'essentiel de son électricité est décarbonée (grâce aux énergies nucléaire et hydraulique) la France s'intéresse, elle aussi, à cette technologie émergeante. Mardi, l'Agence de l'Environnement et de la Maîtrise de l'Energie (Ademe) a annoncé vouloir consacrer 45 millions d'euros au co-financement de trois expérimentations.

Mené par EDF, le projet C2A2 vise à tester, sur l'une des chaudières de la centrale au charbon du Havre, un système de captage de gaz carbonique. Utilisant les amines (fournis par Dow Cheminal) comme solvants, ce dispositif pourra extraire, dès 2013, une tonne de CO2 par heure (et pas plus de 5.000t/an) des effluents gazeux de la centrale. Rien n'étant prévu pour « séquestrer » le CO2, il sera évacué « dans la cheminée ». Coût total de ces quatre ans de tests : 22 millions d'euros, dont 25 % financé par l'Ademe.

Chez les géologues, il est de bon ton d'affirmer que les aquifères salins sont l'une des meilleures structures géologiques pour conserver longuement de grandes quantités de CO2. Problème, on connaît mal ces roches poreuses gorgées d'eau salée. D'où l'intérêt du second projet. Mené par un consortium de six groupes (Air Liquide, EDF, GDF Suez, Lafarge, Total et Vallourec), France Nord doit déterminer les zones les plus propices du nord de l'Hexagone pour injecter du gaz carbonique.

Pendant deux ans, les sous-sols du Centre, de la Haute-Normandie, de la Bourgogne, de Champagne-Ardenne, de la Picardie et de l'Île-de-France seront auscultés avant qu'un site de stockage soit proposé. Dans un second temps, les chercheurs devront trouver des sites industriels susceptibles de se soulager dans ce puits de carbone. Coût du projet : 54 millions d'euros, dont 40 % réglés par l'Ademe.

Les électriciens ne sont pas les seuls à vouloir se débarrasser de leur CO2 encombrant. Depuis de longues années, Arcelor (devenu ArcelorMittal) conçoit un nouveau type de four sidérurgique, à moindres émissions de CO2. Un démonstrateur industriel, utilisant cette technologie Ulcos, sera mis en oeuvre sur le site lorrain du groupe, à Florange. Cette installation sera en outre dotée d'un système de captage. Collecté, le gaz carbonique sera ensuite transporté par pipeline vers un site d'injection. Le projet devrait être opérationnel vers 2016. L'Ademe devra lui octroyer environ 18 millions d'euros, soit 3,6 % du montant total de l'opération.

JDE

Climat : le mois d'avril a été le plus chaud jamais enregistré sur la planète
Vendredi, 28/05/2010 - 00:00

L'Organisation météorologique mondiale (OMM) a annoncé avoir enregistré cette année les températures les plus chaudes jamais observées pour un mois d'avril, depuis les premières statistiques remontant à 1880. Selon une compilation de données réalisée par l'un l'Administration nationale américaine pour les océans et l'atmosphère (NOAA), membre de l'OMM : "La température moyenne combinée de la surface terrestre et des océans en avril a été la plus chaude (pour un mois d'avril), avec un record de 14,5°C".

Une température qui dépasse largement les 13,7°C de moyenne enregistrés pour le mois d'avril au cours du 20e siècle. Selon la NOAA, c'est au phénomène El Nino, qui se caractérise par des températures supérieures à la normale des eaux de surface dans la partie est de l'océan Pacifique sud, qu'il faut attribuer ce record de chaleur.

Le phénomène d'oscillation australe a en effet faibli au cours du mois dernier, et "cet affaiblissement a contribué de façon significative au réchauffement observé dans la ceinture tropicale et au réchauffement de la température globale en avril".En France, les températures ont dépassé de 1,7°C la normale mensuelle en avril 2010, le mois dernier se plaçant ainsi, d'après Météo France, au 7e rang des mois d'avril les plus chauds.

Ms

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le vaccin antivariolique pourrait protéger contre le VIH
Vendredi, 28/05/2010 - 00:00

L'immunité contre la variole déclenchée par le vaccin antivariolique pourrait inhiber la réplication du virus responsable du sida, ont indiqué des chercheurs américains dans la revue BMC immunology. Les résultats des tests réalisés en laboratoire montrent que chez les personnes vaccinées contre la variole, le taux de réplication du virus du sida est significativement plus faible que chez les sujets témoins.

Pour les chercheurs, la vaccination contre la variole aurait donc pu limiter la transmission du VIH au début de l'épidémie. La fin de cette vaccination aurait quant à elle permis la propagation rapide du virus. Les résultats sont préliminaires et il est "trop tôt pour recommander l'utilisation générale de la vaccination

[MS">antivariolique] afin de lutter contre le VIH", a cependant mis en garde Raymond S. Weinstein, de l'Université George Mason située en Virginie.

[MS

Des aimants contre la dépression
Vendredi, 28/05/2010 - 00:00

Confortablement assise dans un fauteuil rouge, la tête bien calée par la pièce métallique en forme de huit posée sur la partie gauche de son crâne, Mme E. S., 77 ans, discute tranquillement avec son médecin qui effectue les derniers réglages de l'appareil. De discrets «clic-clic» se font entendre. La séance de stimulation magnétique transcrânienne (rTMS) vient de commencer.

La bobine en huit est en fait un aimant. Il délivre des impulsions magnétiques qui se transforment en impulsions électriques au niveau d'une zone précise du cerveau de Mme E. S. Avec ce nouveau traitement de sa dépression, ajouté depuis deux mois à ses médicaments, elle dit ressentir enfin «une amélioration du moral». Jusqu'ici, rien ne l'avait soulagée. Ni les antidépresseurs. Ni même les électrochocs, encore proposés dans les dépressions sévères et qui envoient de fortes décharges électriques au niveau du cerveau pour induire une crise convulsive. Une stratégie efficace, mais lourde, nécessitant une hospitalisation et une anesthésie générale. Rien à voir avec la rTMS, beaucoup plus légère.

«C'est une méthode de modulation de l'activité neuronale. Le principe est d'utiliser une région superficielle du cortex cérébral comme moyen d'action sur des structures cérébrales plus profondes, comme le système limbique, impliquées dans la dépression», explique le Dr Andrei Radtchenko, psychiatre, qui traite Mme E. S. dans son cabinet parisien. Il est pour l'instant l'un des rares praticiens en France à pratiquer la rTMS en libéral.

Quinze minutes et quelque 3000 impulsions électriques plus tard, la séance s'achève. «La rTMS m'a fait franchir un deuxième cap, raconte la patiente suivante ; une femme de 46 ans, dont vingt-cinq sous antidépresseurs. Le premier, c'était il y a quelques années grâce à un produit que je prends toujours. Auparavant, j'avais essayé sans grand succès à peu près tous les antidépresseurs commercialisés !»

Quasiment inconnue il y a dix ans, la stimulation magnétique transcrânienne est en pleine explosion. Entre 2003 et 2008, pas moins de 4000 articles scientifiques lui ont été consacrés dans la littérature internationale. Dépression, mais aussi hallucinations des schizophrénies, troubles obsessionnels compulsifs, douleurs chroniques, Parkinson, épilepsie, rééducation des attaques cérébrales, et même acouphènes... Des essais cliniques sont en cours dans de multiples pathologies, en ciblant différentes aires cérébrales.

Dans la dépression, une pathologie dont souffrent 15 à 20 % des individus au cours de leur vie, la rTMS est proposée en cas de résistance aux antidépresseurs. Des effets favorables plus ou moins marqués sont constatés dans 30 à 50 % des cas. «Les résultats peuvent se faire sentir en quelques jours, mais il existe des non-répondeurs, comme pour tous les traitements de la dépression », insiste le Dr Radtchenko. Le taux de rémission complète est de l'ordre de 15 %, selon une récente étude américaine incluant 200 malades. Un résultat à première vue modeste, mais trois fois supérieur à la bobine placebo, et loin d'être négligeable pour des patients résistants aux antidépresseurs et dont la souffrance est intense.

LF

Cancer du poumon : la mortalité des femmes explose
Vendredi, 28/05/2010 - 00:00

En France, on compte 30 000 nouveaux cas de cancer du poumon par an. La mortalité pour ce type de cancer (le plus fréquent après celui de la prostate chez l'homme) a été divisée par deux en dix ans chez les hommes de 40 ans. Par contre, elle a été multipliée par quatre en quinze ans chez les femmes de 40 ans, sachant que le cancer du poumon est, chez les femmes, le cancer le plus fréquent après celui du sein et du colon.

Cette étude menée par Catherine Hill, épidémiologiste à l'Institut Gustave-Roussy, relève que le succès de la baisse de mortalité chez les hommes «est presque entièrement attribuable à la prévention du tabagisme parce que les autres expositions (professionnelles et pollution) ont une influence moindre et parce que le traitement du cancer du poumon a malheureusement peu progressé».

Il ressort également de cette étude que la mortalité par cancer du poumon a atteint un maximum en 1993 chez les hommes et qu'elle a beaucoup baissé depuis. Par contre, chez les femmes, cette mortalité augmente depuis 1980 et s'est même accélérée ces dernières années. Ces variations résultent de la diminution du nombre moyen de cigarettes fumées entre 15 et 44 ans chez les hommes au cours des dix dernières années et de son augmentation chez les femmes. Conséquence : la mortalité par cancer du poumon chez les femmes de 35 à 54 ans en 2000-2007 «est proche de la mortalité chez les hommes de même âge observée durant les années 1950», estime l'Institut de veille sanitaire.

Figaro

Les aliments bio sont-ils meilleurs pour la santé
Vendredi, 28/05/2010 - 00:00

Les chercheurs de l'Institut national de la recherche agronomique (Inra) ont publié un rapport dans lequel ils mettent en évidence le peu de différences observées entre les produits issus de l'agriculture biologique (AB) et ceux issus de l'agriculture conventionnelle (AC). Les résultats publiés dans Les Cahiers de nutrition et de diététique montrent que "les faibles différences observées entre aliments AB et AC n'ont aucune répercussion significative sur la nutrition et la santé".

Aucune différence marquante n'a été relevée pour les glucides, les minéraux et les oligo-éléments dans les aliments analysés, et l'affirmation faisant cas de teneurs plus élevées en magnésium dans certains légumes n'a pas été confirmée.Les chercheurs ont également constaté que les céréales AB étaient plus pauvres en protéines, tandis que certains légumes AC étaient parfois plus riches en nitrates.

Pour les légumes et les fruits, les études les plus nombreuses et les différences les plus significatives concernent la vitamine C et les autres phyto-microconstituants antioxydants. Des teneurs plus élevées en vitamine C et en polyphénols, mais des teneurs plus faibles en caroténoïdes, ont souvent été observées en agriculture biologique, sans effet démontré sur le statut antioxydant sanguin.

Le but de cette revue était d'actualiser le rapport publié en 2003 par l'Agence française de sécurité sanitaire des aliments (Afssa) sur l'évaluation nutritionnelle et sanitaire des aliments issus de l'agriculture biologique. Celui-ci concluait lui-aussi que les différences de composition chimique avec les aliments issus de l'agriculture conventionnelle étaient faibles et sans signification dans le cadre d'un régime alimentaire global.

LF

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top