RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 438
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Juillet 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Pour le Sénat, la France doit se doter d'un Commissariat au numérique
La moitié de la population mondiale aura un mobile en 2007
TV mobile : le DVB-H devrait s'imposer en Europe
Les nanotubes de carbone au coeur des futurs transistors
Avenir
La robotique spatiale au service du cerveau
Matière
L'Europe veut exploiter l'énergie des vagues
Dijon va se doter d'une tour à énergie positive
Un papier peint photovoltaïque
Terre
La Norvège se fixe l'objectif de la neutralité climatique en 2050
Un système innovant de climatisation géothermique
Des traces de pesticides au coeur des grandes villes
Les chercheurs réévaluent le rôle des puits de carbone
Vivant
Des cellules souches embryonnaires créées à partir d'ovules non fécondés
Adapter la croissance cellulaire au régime alimentaire
Des ordinateurs dans nos cellules
Traitement du diabète de type « 1 » par le sang de cordon
Une mauvais note pour la télé
Edito
Les énergies renouvelables : un moteur majeur pour la croissance économique, la recherche et la création d'emplois



Les délégués du sommet du GIEC, qui s'est tenu à Bangkok, ont approuvé un rapport qui propose des moyens d'atténuer le réchauffement de la planète et préconise toute une série de mesures contre les gaz à effet de serre, pour éviter une hausse désastreuse des températures. Au même moment, le nouveau Président de la République, Nicolas Sarkozy, a affirmé avec force sa volonté de tout mettre en oeuvre pour diminuer plus rapidement nos émissions de gaz à effet de serre et lutter plus efficacement contre les menaces immenses que fait peser sur notre pays le réchauffement climatique annoncé.

Outre Atlantique, il semble que les Etats-Unis commencent enfin à opérer un virage à 180° en matière d'utilisation et de promotion des énergies propres. Selon un récent rapport intitulé "L'avenir des énergies renouvelables aux Etats Unis", les énergies renouvelables sont en mesure de satisfaire 40 % de la demande d'énergie prévue aux États-Unis en 2025 (contre 9 % en 2007), sous réserve que le Congrès et le gouvernement leur apportent un soutien plus important. Ce rapport a le soutien du gouvernement, qui cherche à remplacer en partie les combustibles fossiles par de nouvelles sources d'énergie. Lors du discours sur l'état de l'Union qu'il a prononcé en 2006, le président Bush a déclaré que les sources d'énergie renouvelables pouvaient contribuer à mettre fin à la dépendance pétrolière des États-Unis.

Un spécialiste, M. Georges Douglas, qui est le porte-parole du Laboratoire national de l'énergie renouvelable (NREL) situé à Denver, pensent que les objectifs visés par ce rapport sont "réalistes et réalisables" (635 gigawatts en 2025).

Il est intéressant de constater qu'un nombre croissant d'experts des questions énergétiques, comme M. Douglas ou Jim Pierobon, de l'ACORE, soulignent qu'aux États-Unis, toutes les formes d'énergie, que ce soit le pétrole, le charbon ou le gaz naturel, sont réglementées, parfois fortement, et subventionnées à un certain degré. Ils remarquent que les procédés de production d'électricité à partir de sources renouvelables sont devenus bien plus perfectionnés depuis plusieurs décennies, et que l'électricité d'origine renouvelable devient de plus en plus concurrentielle au fur et à mesure que les cours du pétrole et du gaz naturel augmentent.

Ces experts estiment également que les Américains sont de plus en plus favorables aux sources renouvelables d'énergie du fait de l'accroissement des inquiétudes au sujet de la sécurité énergétique et des changements climatiques. Selon M. Jim Pierobon, de l'ACORE, l'énergie renouvelable est gagnante si l'on tient compte de tous ces facteurs. « Prenons en considération tous les coûts et tous les aspects et laissons l'énergie renouvelable entrer en concurrence » avec les autres formes d'énergie, dit-il.

Plus près de nous, outre-Rhin, la loi allemande sur la priorité aux énergies renouvelables a permis un véritable décollage des énergies propres. C'est sur cette base que chaque année, en Allemagne, on met en place 3.000 mégawatts renouvelables et que ces dernières représentent en 2007 une capacité totale de 18.000 mégawatts. Si l'on continue à ce rythme, le passage aux énergies renouvelables sera achevé dans 40 ans en Allemagne, même si le poids respectif des différentes énergies aura changé. L'expansion de l'énergie éolienne va ralentir mais il y aura plus d'énergie photovoltaïque, de bioénergie et de géothermie. La part des énergies renouvelables (éoliennes et biomasse) dans l'approvisionnement en électricité devrait passer de 12 % aujourd'hui à 22 % en 2010 et à 27 % en 2020, contre 20 % pour l'Union européenne. L'Allemagne, qui préside l'union européenne et le G8, s'est par ailleurs fixée pour objectif une baisse de 40 % de ses émissions de CO2 d'ici à 2020.

Au Danemark, les quelque 5.200 éoliennes du pays, en majorité installées à terre, fournissent déjà 20 % des besoins en électricité, chiffre qui devrait être porté à 75% en 2025, selon une étude d'experts d'une commission gouvernementale.

En Suède, le gouvernement suédois, en partenariat avec les acteurs industriels, se donne quinze ans pour se débarrasser des énergies fossiles, et s'en remet aux énergies renouvelables. Aujourd'hui déjà la Suède n'utilise le pétrole que pour la voiture. L'électricité y est produite par des turbines hydrauliques ou la filière nucléaire. Les maisons sont presque toutes chauffées à l'eau chaude ou à la vapeur, grâce à l'énergie géothermique et à la récupération de la chaleur produite en milieu industriel. En 2003, 26 % de l'énergie consommée en Suède provenait de sources renouvelables, un pourcentage largement supérieur à la moyenne européenne, de 6 %. Les Suédois ont déjà réussi à réduire leur utilisation du pétrole de 45 % en trente ans.

Quant aux énergies propres, leurs possibilités d'utilisation de cessent de s'étendre et leurs coûts d'exploitation ne cessent de diminuer grâce à une accélération des innovations depuis quelques mois. C'est ainsi que les Japonais viennent de commercialiser des cellules sans silicium pour panneaux solaires à base de CIS. Le CIS (de l'anglais Copper Indium di-Selenide) est un semi-conducteur capable de se substituer au silicium des cellules photovoltaïques habituelles tout en étant beaucoup plus simple et moins onéreux à fabriquer.

De son côté, Sharp a développé une vitre qui accumule l'énergie solaire de la lumière et la transforme en électricité. C'est une simple vitre transparente en apparence, qui est pourtant capable de restituer jusqu'à 4,6 heures de lumière la nuit, grâce à l'énergie accumulée le jour.

Les chercheurs britanniques, pour leur part, ont également mis au point des cellules solaires nanocristallines sans silicium, à très bon rendement, utilisables sur les toits des entrepôts et supermarchés. Ces cellules (appelées DSSC pour Dye-Sensitised Semi-conductor Cells) sont des nanostructures en oxyde de titane capables de convertir la lumière en électricité. Leur taille infime permettrait de les projeter en spray sur des feuilles d'acier. En Grande-Bretagne, 100 millions de m2 de toits pourraient produire, avec ces cellules, 5400 GWh par an d'électricité solaire, soit plus de 5 % de toute l'électricité consommée annuellement en Grande Bretagne.

En matière d'éolienne, une société française, GUAL Industrie, a inventé une éolienne à axe vertical appelée « StatoEolien » Particulièrement adapté au milieu urbain, le StatoEolien permet d'exploiter les vents de toutes directions grâce à sa conception axisymétrique. Il en résulte une production d'électricité 30 % supérieure à celle des éoliennes à axe horizontal.

Sur le plan économique, le marché des énergies renouvelables représenterait, selon le Programme des Nations Unis pour l'Environnement, entre 40 et 78 milliards de dollars par an d'ici 2010. Le Groupe d'experts Intergouvernemental sur l'Evolution du Climat (GIEC) estime de son côté que les technologies liées à l'efficacité énergétique pourraient atteindre 87 milliards de dollars sur les trente prochaines années. Rappelons par ailleurs qu'en Europe, ce secteur devrait créer, à l'horizon 2010, 1 million d'emplois.

Pour notre seul voisin allemand, 175.000 personnes travaillent déjà dans le secteur qui représente un chiffre d'affaires de 32 milliards d'euros en 2007 (+ 17 % sur un an). Ce secteur des énergies renouvelables pourrait pourtant devenir à l'horizon 2020 le premier employeur du pays avec 500.000 salariés, selon la fédération des énergies renouvelables.

Nous voyons donc que l'abandon des énergies fossiles et l'utilisation généralisée et massive des énergies propres répondent à un triple enjeu, environnemental bien sur, mais aussi technologique et économique. Les économies compétitives de demain seront celles qui sauront à la fois fonctionner avec un haut niveau d'efficacité énergétique et ne plus recourir aux énergies fossiles émettrices de gaz à effet de serre.

Mais les différents exemples et pays évoqués montrent également que la nécessaire mutation vers les énergies renouvelables ne se fera pas sous le seul effet des forces du marché et nécessite un volontarisme politique fort capable de mettre en oeuvre de puissants leviers législatifs, réglementaires et fiscaux. Souhaitons que le nouveau gouvernement affirme rapidement cette volonté politique et mène avec courage et détermination cette révolution énergétique qui doit devenir un moteur majeur pour la croissance économique, la recherche et la création d'emplois.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Pour le Sénat, la France doit se doter d'un Commissariat au numérique
Vendredi, 06/07/2007 - 00:00

Un rapport d'information de la commission des Affaires économiques du Sénat, rendu public le 28 juin, propose la création d'un Commissariat au numérique. « Il ne sert à rien de se cacher derrière son petit doigt, déclare le sénateur de Vendée (non inscrit) Bruno Retailleau, rapporteur du texte. Il y a aujourd'hui en France un manque d'incarnation de la volonté politique sur le grand chantier du numérique. » Ce dernier inclut, par exemple, le soutien à l'innovation et aux jeunes pousses, l'Internet pour tous, la résorption de la fracture numérique, etc.

Selon le Conseil d'analyse économique, qui dépend du Premier ministre, l'éclatement actuel de l'action administrative entre plusieurs ministères aux logiques différentes et le manque de coordination génèrent un déficit de 300 000 emplois, soit environ 0,7 % du PIB. Cette situation se ressentirait aussi inévitablement dans les politiques d'investissement.

« Des pays comme le Canada, la Corée du Sud, les USA ou la Suède disposent d'un pilotage politique du dossier numérique, alors pourquoi pas la France ? », s'interroge Bruno Retailleau. Les sénateurs n'entendent pas pour autant faire de ce Commissariat une sorte de « super AAI » (autorité administrative indépendante), soit une structure dotée d'un statut juridique identique à l'Arcep, au CSA, où à la DGCCRF, et dotée de pouvoirs élargis. Le rapport l'imagine plutôt ancrée au coeur du pouvoir. Rattachée à Matignon, elle aurait un rôle interministériel, celui de fédérer les initiatives et les énergies. Elle organiserait également le dialogue entre le Gouvernement et le Parlement sur les sujets numériques.

Sénat

La moitié de la population mondiale aura un mobile en 2007
Vendredi, 06/07/2007 - 00:00

Le nombre d'utilisateurs du téléphone mobile franchira cette année la barre symbolique des 3,25 milliards - équivalente à la moitié estimée de la population mondiale - alors que la demande explose en Chine, en Inde et en Afrique, montre une étude publiée le 29 juin. Des fermiers africains en passant par les ouvriers chinois, les abonnements à la téléphonie mobile dépasseront les trois milliards en juillet et franchiront la barre de 3,25 milliards d'ici la fin de l'année, peut-on lire dans un rapport du cabinet d'études britannique spécialisé en télécommunications nomades The Mobile World. L'étude précise qu'un millier de nouveaux utilisateurs est recensé à chaque minute dans le monde.

"Il a fallu vingt ans pour qu'un milliard de personnes soient connectées mais seulement 40 mois pour atteindre les deux milliards", a déclaré John Tysoe, co-fondateur de The Mobile World. "La barre des trois milliards sera franchie en juillet, soit en à peine deux ans". Les analystes prévoient que 65 % des combinés fabriqués cette année seront vendus sur les marchés émergents alors que les deux principaux fabricants mondiaux, le Finlandais Nokia et l'Américain Motorola, mettent l'accent sur leurs combinés d'entrée de gamme et que les opérateurs locaux réduisent le prix des appels.

Les chiffres fournis dans l'étude prennent en compte les éventuels abonnements multiples pour un même utilisateur alors que le taux de pénétration en Europe a dépassé les 100 %, avec 666 millions d'abonnements mobiles sur le Vieux continent. Quelque 240 millions de combinés mobiles ont été vendus et 135 millions de nouveaux utilisateurs ont été recensés au cours du trimestre s'achevant fin mars, est-il indiqué. En terme d'abonnements, ce trimestre a été le troisième plus fort de l'histoire de ce secteur après les quatrièmes trimestres 2004 et 2006, au cours desquels respectivement 142 et 163 millions de nouveaux abonnements avaient été enregistrés.

Reuters

TV mobile : le DVB-H devrait s'imposer en Europe
Vendredi, 06/07/2007 - 00:00

Bruxelles veut donner un coup d'accélérateur au développement de la TV mobile en Europe en imposant la technologie DVB-H auprès des acteurs et opérateurs européens, dont la majorité a déjà fait ce choix, notamment en France. Selon l'agence de presse financière Dow Jones Newswires, la Commission européenne va faire en sorte que l'Europe dispose d'un unique standard technique pour les services de télévision sur mobile. Un standard qui sera le DVB-H (Digital Video Broadcasting), la déclinaison pour appareils mobiles de la technologie DVB-T (Digital Video Broadcasting - Terrestrial), utilisée dans le cadre de la TNT résidentielle.

L'agence de presse a obtenu un document interne qui révèle que l'exécutif européen a prévu de faire la promotion du DVB-H auprès des opérateurs et fabricants. Il doit également faire figurer le DVB-H dans la liste des standards technologiques soutenus par l'UE, et publiée au Journal officiel européen. Autant d'encouragements qui devraient faire de cette technologie inventée par Nokia le format européen de la TV sur mobile.

La Commission semble donc vouloir fédérer les acteurs autour d'une seule technologie pour accélérer la mise en place de la TV sur mobile sur le Vieux Continent. D'autant que, Viviane Reding, commissaire en charge de la Société de l'information, explique que les industriels n'avaient pas réussi à se mettre d'accord. Pourtant «tous les participants reconnaissent qu'un standard unique pour la diffusion mobile en Europe permettrait de faire de significatives économies d'échelles». La Commission se devait donc de donner une impulsion au marché. Sa prise de position en faveur du DVB-H fera l'objet d'une publication officielle à la mi-Juillet.

«À court terme, l'initiative de la Commission ne bouleversera pas la situation européenne où un grand nombre d'acteurs est déjà en faveur du DVB-H. Sur le long terme, elle pourra cependant sécuriser la position européenne en faveur de cette technologie.» En France, la majorité des opérateurs est déjà tournée vers le DVB-H. Les fréquences disponibles en France (le bloc de canaux "R5") sont aujourd'hui ouvertes à titre expérimental. Le Conseil supérieur de l'audiovisuel devrait prochainement octroyer des autorisations pour des services commerciaux lancés fin 2007, début 2008. L'appel à candidatures est attendu en octobre.

ZDNet

Les nanotubes de carbone au coeur des futurs transistors
Vendredi, 06/07/2007 - 00:00

Une équipe constituée de chercheurs de l'Institut d'électronique, de microélectronique et de nanotechnologie (IEMN) du CNRS et du Service de Physique de l'Etat Condensé du CEA ont mis au point des transistors à partir de nanotubes de carbone sur substrat de silicium. Ceux-ci devraient permettre de réelles avancées pour les applications grand public qui réclament des fréquences de fonctionnement élevées.

Pour développer ces composants, les chercheurs ont eu recours à la di-électrophérèse, qui consiste à créer un mouvement sur une particule polarisable à l'aide d'un champ électrique non uniforme. Cette technique permet d'obtenir un dépôt - uniforme, lui - d'un grand nombre de nanotubes alignés. Les transistors, qui atteignent des fréquences de coupure de 30 GHz, seront utilisés prioritairement comme interrupteurs commandés. Principal avantage de cette innovation : le procédé d'élaboration, qui peut s'effectuer à température ambiante, est désormais compatible avec les substrats à faible coût comme le verre ou le plastique.

CNRS

^ Haut
Avenir
Nanotechnologies et Robotique
La robotique spatiale au service du cerveau
Vendredi, 06/07/2007 - 00:00

La robotique spatiale s'invitera bientôt dans les salles d'opération. Le robot NeuroArm assistera d'ici quelques mois les chirurgiens lors d'opérations au cerveau. Il a été mis au point par des chercheurs de l'Université de Calgary, en collaboration avec ceux de la compagnie MacDonald, Dettwiler and Associates (MDA). La technologie spatiale utilisée dans la conception du bras télémanipulateur canadien a servi à la création de ce nouvel outil robotisé. L'équipe du Docteur Garnette Sutherland a conçu un robot qui utilise l'imagerie par résonance magnétique en temps réel, et cela donnera aux chirurgiens un niveau de détail et de contrôle inégalé. La précision atteint l'échelle de 30 microns, la taille d'une cellule.

L'idée de la création d'un tel outil est née dans la tête du chirurgien Garnette Sutherland, professeur en neurochirurgie de l'Université de Calgary. Il a ensuite pris contact avec MDA pour sa conception. L'entreprise a fabriqué des composantes spatiales pour la NASA. Les connaissances acquises pour la fabrication des technologies de l'espace ont été pleinement utilisées pour concevoir ce robot.

Les chercheurs croient que le NeuroArm pourra traiter plusieurs troubles neurochirurgicaux et réduire le nombre d'opérations nécessaires au retrait d'une tumeur. L'instrument doit encore subir quelques tests cliniques. Les chercheurs estiment qu'il sera en service dès la fin de l'été 2007.

Radio Canada

^ Haut
Matière
Matière et Energie
L'Europe veut exploiter l'énergie des vagues
Vendredi, 06/07/2007 - 00:00

Des partenaires d'un projet financé par l'UE ont élaboré une nouvelle houlomotrice, qui atteint d'après eux de meilleures performances que les autres systèmes de production d'énergie par les vagues. Afin de mettre le système à l'épreuve, le consortium du projet construit actuellement un prototype grandeur nature au large des côtes de Norvège.

Ce projet ne pouvait arriver à un meilleur moment. À l'heure où la menace du changement climatique se fait de plus en plus pressante, avec le risque potentiel d'une crise énergétique, les politiques européens attestent un intérêt croissant pour le renforcement de la part d'énergies propres et renouvelables dans le bouquet énergétique de l'Europe.

Le générateur Seawave Slot-Cone (SSG) est une houlomotrice fondée sur le principe du débordement des vagues, qui utilise au total trois réservoirs superposés. L'eau récupérée dans les réservoirs s'écoule ensuite à travers une turbine à plusieurs étages pour produire de l'électricité.

La conception à trois niveaux permet de profiter à la fois de l'arrivée de vagues importantes, qui produisent l'énergie maximale, et de vagues plus faibles, qui assurent une production énergétique continue. «Notre concept a l'avantage d'utiliser pleinement l'éventail complet des vagues, ce qui garantit un degré élevé d'efficacité et une génération ininterrompue d'énergie», a déclaré Monika Bakke, de Wave Energy AS, le chef de file du projet WAVESSG, à CORDIS Nouvelles.

Un autre atout de la houlomotrice tient à ce qu'il n'exige qu'une seule turbine. «Normalement, pour qu'un système mette à profit les vagues de différentes puissances, une turbine devrait être installée dans chaque bassin réservoir]», explique Mme Bakke. «Le problème inhérent à l'installation de plusieurs turbines réside dans le va-et-vient de la houle. L'écart entre les arrivées de vagues a pour effet que la turbine, puis le générateur s'arrêtent. Le système est alors déconnecté du réseau électrique.» Le système breveté par le consortium du projet met simplement en oeuvre une roue de turbine ordinaire pour les trois réservoirs. «En conséquence, aussi longtemps que l'un des bassins produit de l'énergie, la houlomotrice reste connectée au réseau», indique Mme Bakke.

Au terme d'essais rigoureux en laboratoire, les partenaires du projet sont aujourd'hui prêts à expérimenter la houlomotrice dans un environnement réel. Ils ont débuté les travaux pour intégrer une houlomotrice de démonstration dans la jetée d'un port à Kvitsoy, une petite île (520 habitants) au large de la Norvège. Après avoir étudié les vagues à cet endroit, les partenaires du projet ont adapté la houlomotrice de façon à exploiter trois tailles de vagues (1,5 mètre, 3 mètres et 5 mètres).

Le consortium estime que la houlomotrice pourrait produire 200 000 kilowatts/heure par an, ce qui correspondrait à l'approvisionnement nécessaire à dix ménages sur l'île. «Cela ne représente pas beaucoup d'énergie, mais c'est dû à ce que la source de production est limitée», commente Mme Bakke. «Si on intègre le système dans un brise-lames de 500 mètres, on peut s'attendre à produire 20 gigawatts/heure par an», ce qui suffirait à alimenter quelque 4 000 ménages en électricité.

Outre la fourniture d'une énergie économique, la houlomotrice offre l'avantage de pouvoir être intégrée dans les infrastructures de brise-lames et remplir ainsi deux fonctions. «95 % du coût de l'installation de démonstration sont consacrés au béton du brise-lames et l'installation du dispositif dans un brise-lames le rend donc plus compétitif», clame Mme Bakke.

Parmi les autres avantages cités par le consortium du projet figurent la fiabilité élevée du système et le faible nombre de pièces mobiles qui lui permet de résister à des conditions météorologiques de tempête. La houlomotrice pourrait également être associée à des mécanismes de production d'eau douce et à des infrastructures de stockage d'hydrogène pour la production d'électricité pendant les périodes où la mer est plus calme.

À l'instar d'autres technologies énergétiques nouvelles, telles que l'énergie éolienne, d'aucuns s'inquiètent toutefois de l'impact que ces dispositifs pourraient avoir sur l'environnement. Le bruit et les changements de la structure des sédiments marins ne sont que deux exemples de ces interrogations. Afin d'y répondre, le consortium réalisera une étude du risque environnemental dans le cadre de ses travaux. Mme Bakke est persuadée que la houlomotrice n'aura qu'un impact restreint, comparable à celui d'un brise-lames ordinaire, et que le bruit de la turbine n'atteindra pas un seuil susceptible de nuire à la faune et flore marine.

Si les conditions climatiques sont favorables, la houlomotrice et la centrale électrique devraient être fonctionnelles d'ici à l'été 2008. Bien que le projet pilote doive encore se poursuivre pendant sept ans, Mme Bakke a la certitude que le projet pourra, après une année déjà, fournir des chiffres concrets sur la quantité d'énergie que le système peut produire.

Le projet a reçu un million d'euros au titre de la priorité thématique «Développement durable, changement planétaire et écosystèmes» du sixième programme-cadre (6e PC). Le coût total de conception, de construction, d'installation et d'expérimentation du système s'élève à 3,5 millions d'euros.

[Cordis

Dijon va se doter d'une tour à énergie positive
Vendredi, 06/07/2007 - 00:00

La Tour Elithis, qui va s'implanter à Dijon, a pour objectif de devenir un des immeubles tertiaires les plus écologiques de France. Ce bâtiment à «énergie positive», qui va produire plus d'énergie qu'il va en consommer, abritera le futur siège social d'Elithis, société d'ingénierie climatique et électrique.

Le projet, imaginé par l'architecte Jean-Marie Charpentier, devrait permettre de réduire par quatre la production de gaz à effet de serre. Et pour remplir cette mission, plusieurs critères de construction ont été retenus : les matériaux utilisés seront «intelligents et respectueux de l'environnement». Ainsi, la structure du bâtiment sera de type poteaux-poutres mixte bois/acier pour limiter le béton. Mais ce n'est pas tout puisque des panneaux isolants à base de fibres de bois, une tôle en aluminium à l'extérieur, un double vitrage argon à isolation thermique renforcé avec un faible facteur solaire font également partie du projet.

Quant à la toiture, elle sera équipée de panneaux photovoltaïques intégrés. » Grâce à cette conception optimisée, la consommation d'énergie de chauffage et de ventilation sera limitée. De plus, jusqu'à mi-saison, un système «free-cooling» à régulation mécanique permettra de rafraîchir les locaux gratuitement et de façon naturelle. Quant à la production de chaleur et de froid, elle proviendra d'un système thermodynamique associé à une source de chaleur fonctionnant avec une énergie renouvelable (chaudière bois à granulés) et à un système de refroidissement adiabatique. Enfin, les locaux possèderont des luminaires à économies d'énergie comme les tubes fluorescents et lampes LFC et l'immeuble recyclera les eaux de pluie. A noter qu'une charte environnementale sera signée par les occupants du bâtiment afin de respecter les recommandations environnementales.

BA

Un papier peint photovoltaïque
Vendredi, 06/07/2007 - 00:00

La société Dai Nippon Printing Co., Ltd. a mis au point une cellule solaire organique de type Grätzel réalisée sur film plastique par impression et présentant une efficacité de conversion de 7,1 %, pouvant théoriquement être améliorée jusqu'à 10 %. Généralement, les cellules solaires réalisées sur films souples ont une faible efficacité car ce support ne permet pas de traitements à haute température.

La technique utilisée consiste à déposer la couche active, qui utilise du dioxyde de titane TiO2, sur un substrat métallique (s'affranchissant ainsi des contraintes de la haute température) avant de la transférer sur le film plastique. Mesurant 30 x 30 cm2 pour 250 microns d'épaisseur, le prototype fonctionne correctement pendant au moins 1 000 heures à 65°C. Grâce à cette technologie, la société peut fabriquer à bas coût ces cellules solaires. Elle peut également ajouter de la couleur et des motifs, afin de réaliser des papiers peints d'intérieur générateurs photovoltaïques. Les premiers échantillons devraient être disponibles en 2008.

ADIT

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La Norvège se fixe l'objectif de la neutralité climatique en 2050
Vendredi, 06/07/2007 - 00:00

Après la Suède, qui s'est fixée l'objectif « Zéro pétrole », la Norvège a fait, elle, le choix de la neutralité climatique. Le 22 juin, ce pays a publié un Livre blanc en ce sens. Première étape : dépasser de 10 % l'objectif fixé par le protocole de Kyoto, puis réduire de 30 % les émissions carboniques dès 2020, et ce par rapport à l'année de référence 1990. Pour rappel, l'Union européenne, à laquelle la Norvège n'appartient pas, s'est engagée à réduire de 20 % ses émissions en 2020. Elle ne s'engagera à les diminuer de 30 % que dans le cas où les autres Etats s'engageraient eux-mêmes à une réduction significative (les Etats-Unis et la Chine étant particulièrement visés).

D'ici 2050, de nombreuses mesures, notamment technologiques, vont être mises en oeuvre. En 2009, la Norvège va interdire les déchets biodégradables, producteurs de biogaz (et donc de méthane, un gaz à effet de serre), dans les décharges, et les chaudières à combustible liquide fossile devront être remplacées par des chaudières à combustible renouvelable. Tout ou partie du secteur des transports intégrera prochainement le système d'échange de quotas d'émissions. Un renforcement des infrastructures de transport public est également prévu, ainsi qu'une modification du système fiscal qui, à revenu constant, ciblera davantage les produits émetteurs de CO2.

JDE

Un système innovant de climatisation géothermique
Vendredi, 06/07/2007 - 00:00

L'université de Valence en Espagne a développé une technologie innovante de climatisation géothermique. Elle permet d'économiser 40 % d'énergie par rapport aux systèmes traditionnels et diminue le risque de contamination par légionellose. Déjà très utilisé dans les pays nordiques, le système a été adapté aux caractéristiques du climat espagnol et des constructions méditerranéennes par une équipe de chercheurs de l'Université Polytechnique de Valence (UPV) dirigée par le professeur Javier Urchueguia.

La technologie a été testée dans une centrale pilote construite dans les bâtiments de l'école technique supérieure d'ingénieurs de la UPV. Cette installation nommée Geocool, a été développée dans le cadre d'un programme subventionné par la commission européenne. Elle est unique au monde puisqu'elle intègre un système traditionnel de climatisation mais aussi le nouveau procédé associé à un système de contrôle sophistiqué qui a permis aux chercheurs d'étudier de manière exhaustive tous les paramètres qui influent sur le processus de réfrigération. Les deux systèmes ont cohabité pendant 18 mois, aux termes desquels la climatisation par géothermie s'est avérée être 40 % plus économe en énergie (et rejetant donc moins de CO2).

A la différence des systèmes traditionnels qui échangent la chaleur entre le bâtiment et l'air qui l'entoure, la climatisation géothermique cède ou extrait cette chaleur du sous-sol de l'édifice qui a une température plus modérée et constante que l'air. Ainsi, en été, la chaleur excédante se transmet au sous-sol au lieu d'être rejetée dans l'air. Un autre avantage de ce nouveau type de climatisation est d'éliminer une bonne partie du bruit des climatisations traditionnelles. Enfin, en supprimant les tours de réfrigération nécessaires aux systèmes conventionnels, il réduit les risques de contamination de légionellose.

NPI

Des traces de pesticides au coeur des grandes villes
Vendredi, 06/07/2007 - 00:00

Les pesticides sont présents dans l'air jusqu'au coeur de Paris et des villes qui l'entourent, selon une première étude de la société Airparif sur les traces de produits phytosanitaires dans l'air en Ile-de-France. "Sur 80 pesticides recherchés, une trentaine ont été retrouvés en zone rurale et une vingtaine dans l'agglomération francilienne", conclut cette étude qui confirme le caractère voyageur des composants, bien après leur application. Les mesures se sont déroulées au printemps 2006 sur cinq sites différents et ont donné lieu à plus de 5.200 analyses, souligne Airparif, qui surveille la qualité de l'air en Ile de France. Pour la première fois, Airparif s'intéresse à la pollution due aux pesticides, dont 3.200 tonnes environ sont employées chaque année dans la région pour des usages agricoles (48 % du territoire régional est dévolu à l'agriculture) ou domestiques et urbains (jardins, parcs, voirie, cimetières...).

Bien qu'il n'existe aucune obligation réglementaire de mesurer les pesticides dans l'atmopshère, l'étude a été commandée par la direction régionale des affaires sanitaires et sociales (Drass) dans le cadre du plan cancer et par les départements agricoles de Seine et Marne et du Val-d'Oise. Globalement, conclut Airparif, plus l'activité agricole est importante, plus le nombre de pesticides retrouvés dans l'air est élevé et les concentrations mesurées sont plus faibles en agglomération qu'en zone très agricole, comme la Beauce. Cependant, certaines molécules utilisées spécifiquement dans les jardins vont se retrouver en concentrations plus importantes en agglomération.

Par ailleurs, les composants retrouvés le plus fréquemment dans l'air ambiant - la trifluraline, le chlorothalonil et la pendiméthaline - ne sont pas nécessairement ceux retrouvés dans l'eau. Ainsi, certains produits comme le lindane (désormais interdit) persistent dans l'atmosphère alors que l'atrazine (interdite depuis 2003) persiste dans les eaux de surface, mais pas dans l'air. Enfin, selon les modes d'application, 25 à 75 % des produits appliqués se retrouveraient dans l'atmosphère, soit au moment du traitement soit après, en se volatilisant.

AFP

Les chercheurs réévaluent le rôle des puits de carbone
Vendredi, 06/07/2007 - 00:00

Après les mers, les terres. Après l'Atlantique nord et l'océan Austral, les scientifiques s'aperçoivent que les continents de l'hémisphère Nord n'absorbent pas non plus le dioxyde de carbone (le principal gaz à effet de serre) dans les proportions prévues. D'après une équipe internationale conduite par Scott Denning (université du Colorado), ces régions formeraient un plus petit puits de carbone que ce que les modélisations informatiques laissaient supposer.

Les puits de carbone jouent un rôle important dans la machine climatique, car ils absorbent une partie du CO2 atmosphérique. Sur les 8 milliards de tonnes émises chaque année, 40 % stagnent dans l'atmosphère, 30 % sont absorbés par les océans. Le reste serait consommé par les écosystèmes terrestres, en particulier les arbres.

L'étude, publiée vendredi 22 juin dans Science, s'appuie sur des mesures annuelles effectuées sur plusieurs strates de l'atmosphère, puis comparées à 12 modèles de transport atmosphérique. Avec, pour résultat, une redistribution des cartes : "Avec les informations obtenues grâce à nos échantillons d'air, nous voyons que les modèles surestimaient la quantité d'absorption au Nord et sous-estimaient celle des tropiques", explique Kevin Gurney, coauteur de l'étude.

Les échantillons ont montré que les forêts du Nord n'absorbaient que 1,5 million de tonnes de carbone, et non pas 2,4 millions, et que les forêts tropicales intactes constituaient des puits de carbone plus importants que ce qui était admis jusqu'alors. "Notre étude offre une meilleure compréhension de la façon dont les arbres et autres plantes répondent aux émissions de CO2 liées à l'industrie. Cela va nous permettre de mieux prévoir le changement climatique et d'identifier les stratégies possibles pour en amoindrir les effets", affirme Britton Stephens, un des auteurs de l'article.

Ces résultats ont de quoi rasséréner la communauté scientifique, après l'annonce, il y a quelques semaines, de la réduction des capacités d'absorption du principal puits de carbone naturel qu'est l'océan Austral. L'équipe conduite par Corinne Le Quéré (université d'East Anglia-Max Planck Institute) avait conclu qu'à cause du réchauffement climatique, cet océan absorbait de moins en moins de CO2 atmosphérique et qu'en vingt-cinq ans 8 millions de tonnes de carbone n'avaient pas pu y être stockés.

LM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules souches embryonnaires créées à partir d'ovules non fécondés
Vendredi, 06/07/2007 - 00:00

Décidemment, la recherche sur les cellules-souches progresse à pas de géant. Après l'annonce, la semaine dernière (Voir article dans notre lettre437) de la compagnie Advanced Cell qui affirme être parvenue à développer des cellules souches embryonnaires humaines grâce à une méthode ne nuisant pas aux embryons, une nouvelle avancée importante dans le domaine du clonage thérapeutique vient d'avoir lieu.

Des scientifiques américains annoncent avoir créé des cellules souches embryonnaires en stimulant des ovules non fécondés, une expérience qui pourrait aboutir à terme à l'obtention de tissu génétiquement compatible avec les femmes. Les travaux menés par des chercheurs de la société Lifeline Cell Technology de Walkersville (Est des Etats-Unis) et de Moscou sont publiés sur le site Internet du Journal Cloning and Stem Cells.

A terme, les femmes désireuses d'une greffe de tissu pour le traitement d'un diabète, ou pour celui d'une lésion de la moelle épinière n'auront peut-être plus qu'à fournir leurs ovules à un laboratoire, qui en retour pourra créer du tissu compatible avec la donneuse. Les cellules souches embryonnaires peuvent virtuellement donner toutes les cellules du corps, et les scientifiques espèrent les exploiter pour produire des tissus spécialisés, notamment des cellules nerveuses ou encore cellules pancréatiques. Mais pour les collecter on était jusque-là obligé de détruire des embryons, une pratique très critiquée par une partie de l'opinion. La nouvelle recherche s'attaque à une nouvelle piste : stimuler un ovule non fécondé pour enclencher le développement embryonnaire. Si personne ne peut penser qu'une telle expérience puisse aboutir à la naissance d'un bébé, elle devrait permettre de produire des cellules souches compatibles avec la donneuse d'ovule. Un bémol toutefois : une telle approche ne peut en aucun cas fournir de cellules souches compatibles avec les hommes.

Jeffrey Janus, president de Lifeline, et son équipe déclarent avoir produit six lignées de cellules embryonnaires, une d'entre elles présentant des anomalies chromosomiques. Ils ont obtenu les ovules de cinq femmes qui étaient récoltés dans des tubes pour un test de fertilité. Ces femmes acceptaient de donner leurs ovules à des fins de recherche.

"C'est important, c'est une belle avancée," a déclaré Kent Vrana, de l'Université publique de Pennsylvania, qui a réalisé le même travail, mais chez les singes. Le procédé semble marcher, a-t-il ajouté, et il fournit "un outil supplémentaire" au-delà du clonage thérapeutique.

Une question subsiste toutefois, a déclaré George Daley, chercheur à l'Institut de cellules souches de Harvard. L'absence de contribution de l'ADN masculin pourrait-elle aboutir à la diminution de l'efficacité des cellules souches ? L'ADN du sperme transporte des marqueurs spécifiques différents de l'ADN des ovules, et ces marqueurs agissent sur l'activité de gènes spécifiques. Les noyaux de toute cellule humaine renferment de l'ADN, le patrimoine héréditaire. De son côté, Ronald M. Green, spécialiste des questions éthiques au Collège Dartmouth, pense que l'obtention de cellules souches de cette manière est compatible avec le respect de l'éthique.

Cloning and Stem Cells

Adapter la croissance cellulaire au régime alimentaire
Vendredi, 06/07/2007 - 00:00

Les organismes pluricellulaires ont développé au cours de l'évolution de nombreux comportements afin de s'adapter au manque de nourriture. Dans de telles situations, garantir l'alimentation du cerveau en nutriments devient la priorité pour l'organisme. L'une des stratégies mise en place consiste alors à réguler la croissance des tissus musculaires et adipeux en fonction de l'apport alimentaire. En d'autres termes, un régime pauvre en calories va entraîner une atrophie alors qu'un régime alimentaire riche va déclencher l'augmentation de cette masse et le stockage des nutriments.

L'équipe Avenir de l'Inserm dirigée par Mario Pende vient de montrer que cette « stratégie de survie » est directement liée à l'équilibre qui existe entre deux voies de signalisation dépendantes des nutriments et dont les acteurs principaux sont respectivement les protéines S6K1 (« S6 kinase 1 ») et AMPK ( « AMP-activated kinase »). Ces mêmes chercheurs avaient découvert en 2003, que les gènes mTOR et S6K1 codant pour deux protéines kinases du même nom étaient à l'origine de l'augmentation de masse musculaire. Les nutriments activent au niveau cellulaire la protéine S6K1 qui déclenche un accroissement de la masse musculaire.

Mais par quel mécanisme ? En supprimant l'activité du gène S6K1, les chercheurs ont réussi à répondre à cette question. Les souris chez lesquelles ce gène est inactivé, restent de petite taille et le volume de leurs cellules musculaires ne varie jamais quel que soit leur régime calorique. Les scientifiques ont découvert que ces changements se traduisaient au niveau cellulaire par une altération du renouvellement de l'ATP (adénosine triphosphate), forme essentielle sous laquelle notre organisme utilise l'énergie.

Dans une situation normale, une fois utilisée, l'ATP est sans cesse renouvelée grâce à l'apport de nouveaux substrats énergétiques. Lorsque le gène S6K1 est inactivé, cette source d'énergie est dépensée sans être efficacement resynthétisée. Ce déséquilibre déclenche l'activation d'une protéine : l'AMP protéine kinase (AMPK) connue notamment pour ses effets sur la dégradation des acides gras.

L'activité de AMPK représente un signal de carence nutritionnelle et induit l'atrophie cellulaire. Si, en revanche, le programme métabolique dépendant de l'AMPK est inhibé, la taille des cellules et leur sensibilité aux nutriments sont rétablies. La balance entre l'activité de S6K1 et AMPK détermine la « décision » prise par le métabolisme : stocker les nutriments et croître, ou brûler les réserves énergétiques.

Cette avancée dans la compréhension des mécanismes de contrôle de la croissance cellulaire donne de nouvelles idées aux chercheurs. On sait par exemple que l'AMPK est la cible d'un médicament antidiabétique très utilisé : la métformine. « La connaissance plus fine de cette voie métabolique pourrait permettre le développement de traitements contre le diabète et contre l'obésité » estime Mario Pende.

Inserm-

Des ordinateurs dans nos cellules
Vendredi, 06/07/2007 - 00:00

Des chercheurs de Princeton et de Harvard ont avancé dans la construction de calculateurs simples à but médical, fabriqués à partir de notre matériel biologique, implantés à l'intérieur même de nos cellules. Comme l'explique Yaakov Benenson du Centre de biologie des systèmes à Harvard, “Chaque cellule humaine possède déjà les outils requis pour construire elle même ces bio-ordinateurs... Il suffit de fournir un “patron” génétique de la machine et notre biologie fera le reste. Vos cellules construiront littéralement ces bio-ordinateurs pour vous”.

Dans la pratique, les choses se passeront ainsi. On introduira une séquence d'ADN dans le noyau de la cellule. Cette structure produira alors un ensemble de molécules d'ARN qui s'installeront dans la cellule et constitueront le bio-ordinateur. Le rôle de ces machines consistera à résoudre quelques opérations bouléennes de base, tels que des ET/OU logiques. Par exemple, si la substance A ET la substance B OU la substance C sont présentes dans le corps de la cellule (signe d'un désordre particulier), ALORS l'ordinateur produira une protéine spécifique. C'est cette dernière molécule, générée en “sortie” qui permettra de tester quelle cellule est atteinte de la maladie qu'on cherche à diagnostiquer et éventuellement de la soigner.

En effet, toujours selon Berenson : “Aujourd'hui, nous n'avons pas d'outils pour lire les signaux cellulaires. Ces bio-ordinateurs peuvent traduire des signatures cellulaires complexes, comme l'activité de multiples gènes, en un “output” facilement observable. On peut même les programmer pour transformer cet output en une action concrète, ce qui signifie qu'on peut les utiliser soit pour signaler une cellule à traiter au clinicien, soit pour déclencher directement une action thérapeutique”. L'équipe de scientifiques, comprenant notamment Benenson et Ron Weis, un pionnier de la biologie synthétique, a effectué une avancée considérable dans ce domaine en publiant dans le numéro de mai de la revue Nature Biotechnology (réservé aux abonnés) des résultats démontrant qu'il était possible de bâtir de tels ordinateurs à l'intérieur d'une culture de cellules du rein humain.

IA

Traitement du diabète de type « 1 » par le sang de cordon
Vendredi, 06/07/2007 - 00:00

Des chercheurs américains ont réussi à réduire de façon importante les troubles issus du diabète de type « 1 » chez les enfants, en leur injectant du sang issu de leur propre sang de cordon, annonce la synthèse de presse de la Fondation Jérôme Lejeune. Ils ont constaté que cette injection permettait d'améliorer le système immunitaire de l'enfant en stoppant la destruction des cellules d'insuline nécessaires pour contrôler le taux de sucre dans le sang.

Pour Michael Haller de l'université de Floride qui a mené l'enquête, il est encore un peu tôt pour dire si cette thérapie est efficace à long terme mais les signes semblent encourageants. Jusqu'à présent, la seule façon de soigner ces enfants était de leur faire plusieurs injections quotidiennes d'insuline. Les 7 enfants soignés par ce biais avaient été choisis car leurs parents avaient pris soin de conserver leur sang de cordon après la naissance.

NC

Une mauvais note pour la télé
Vendredi, 06/07/2007 - 00:00

Les enfants qui regardent beaucoup la télévision (TV) consacrent moins de temps à lire et à faire leurs devoirs à la maison. Il y a une relation inverse entre le temps passé devant le téléviseur et la réussite scolaire, mais les causes des difficultés scolaires est discuté. Est-ce le temps de visionnage de la télévision (tv-TV) lui-même, des troubles cognitifs préexistants (faisant préférer la TV au travail scolaire), ou encore un « troisième facteur » d'origine parentale (bas niveau socio-économique, soutien scolaire insuffisant) ?

L'étude épidémiologique longitudinale et prospective de Johnson JG et coll. tente de répondre à cette question. La descendance de 678 familles américaines, à raison d'un enfant par famille, a été suivie de l'adolescence à l'âge adulte, au moyen d'entretiens espacés sur vingt ans. Le tv-TV a été estimé, et des troubles de l'attention et des difficultés scolaires recherchés à 14, 16 et 22 ans. A 14 et 16 ans, le QI verbal a été déterminé et, à 33 ans, un bilan des études effectué.

A 13 ans, 1/3 des adolescents passent plus de 3 heures/jour devant la TV. Un adolescent de 14 ans, qui regarde la TV au moins 1 h/j, court un plus grand risque de présenter ultérieurement un déficit de l'attention et des problèmes scolaires, allant des devoirs pas faits et des mauvaises notes à l'échec dans le secondaire (appréciation à 22 ans), que celui qui la regarde moins d'1 h/j, même après ajustement sur son état basal et son contexte familial. Son QI verbal et la durée des études de ses parents ne modifient pas beaucoup son risque d'échec scolaire. L'association entre tv-TV à 14 ans et échec scolaire passe par des troubles de l'attention, des devoirs à la maison non faits, et une opinion négative sur l'école à 16 ans.

Un adolescent de 14 ans, qui regarde la TV ≥ 3 h/j a deux fois moins de chances d'entreprendre des études supérieures (appréciation à 33 ans) que celui qui la regarde < 1 h/j (Odds Ratio=3,06). Son état basal ne change rien à la chose. Un adolescent qui arriverait à faire baisser son tv-TV de 1à 2 h/j à 14 ans, à < 1h/j à 16ans, réduirait son risque d'échec scolaire de moitié (OR=0,50), mais la règle est que le tv-TV à 14 ans prédit le tv-TV à 16 ans et l'échec solaire à 22 ans. Enfin, d'après 12 analyses multivariées sur 14, c'est plutôt le tv-TV qui précède les troubles de l'attention et les difficultés scolaires que l'inverse.

Ces résultats confortent l'opinion que la TV nuit à l'attention et à la réussite scolaire des adolescents, dès que le tv dépasse 1 à 2h/j. On pourrait objecter que la part des programmes éducatifs n'est pas connue, mais on sait par d'autres enquêtes qu'elle ne dépasse pas 1/10ème du tv-TV. Il faut donc que les parents, les enseignants et les professionnels de santé encouragent les adolescents à passer moins de temps devant le petit écran, à contempler des émissions de divertissement et grand public, et, peut-être, qu'ils les orientent vers des activités favorisant davantage leur développement. A quand une étude du même type sur les autres « écrans médiatiques » que regardent plus ou moins passivement les adolescents ?

JIM-

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top