|
|
Edito
Vers un nouveau paysage énergétique à l'horizon 2050 : préparer l'après pétrole
Les habitants de notre planète consomment aujourd'hui un peu plus de 9 milliards de TEP (tonnes équivalent pétrole), chaque année, pour satisfaire leurs besoins en énergie, soit une augmentation de 60 % en 30 ans. Chaque habitant de la terre consomme 1,5 tonne par an, et, selon les prévisions les plus prudentes, cette consommation devrait encore augmenter de 60 % d'ici 2020, doubler d'ici 2040 et quadrupler d'ici la fin de ce siècle. Géographiquement, 23% de cette énergie sont consommés au USA, 5 % au Japon et 15 % en Europe. A l'autre extrémité, on trouve l'Inde, l'Afrique et la Chine, qui réalisent ensemble environ 20 % de la consommation mondiale d'énergie pour 50 % de la population mondiale. Actuellement le pétrole représente encore 38,4 % de la consommation mondiale d'énergie, contre 58 % en 1973, le charbon 24,7 %, le gaz 23,7 %, le nucléaire 5,5 %, l'énergie hydraulique 6 %, et enfin les énergies renouvelables 1,7 %. Jusqu'à 2020, ce paysage énergétique mondial ne devrait pas connaître de bouleversements majeurs : le charbon devrait toujours représenter 20 % de l'énergie consommée, alors que la part du gaz naturel, en dépit de son coût, devrait passer de 23 à 28 %. Quant au pétrole, il devrait encore représenter, en 2020, 38 % de la consommation mondiale d'énergie. Le nucléaire resterait stable et la part des énergies renouvelables (comprenant l'hydraulique) devrait atteindre les 10 %. Mais après 2020, l'évolution vers une diversification, une décentralisation et une "décarbonisation" accrues de la production d'énergie devrait s'accélérer sous la pression conjointe des nouvelles contraintes économiques, écologiques et géopolitiques. Dans cette perspective, et sans tenir compte d'une possible rupture technologique majeure dans les domaines de la fusion, de la supraconductivité ou du solaire spatial, l'ensemble des énergies renouvelables conventionnelles pourrait assurer la moitié de la consommation mondiale d'énergie vers 2050. L'utilisation massive des énergies fossiles n'est en effet pas tenable sur le long terme, d'une part parce que leurs coûts d'exploitation vont considérablement augmenter à partir de 2030-2040 à cause de l'épuisement des réserves faciles et, d'autre part, parce que ces énergies fossiles, charbon et pétrole surtout, sont largement responsables des émissions de CO2, gaz qui entraîne le réchauffement de la planète. Ces émissions de CO2 devraient augmenter de 62 % d'ici 2020. Face au réchauffement climatique accéléré, cette variation accrue de nos émissions de gaz à effet de serre est devenue un enjeu technologique, économique et politique majeur qui va conditionner de plus en plus fortement nos choix énergétiques. Il est vrai que ces émissions des gaz à effet de serre ont augmenté de 10 % depuis 1990, avec un bond de 35 % dans les pays en voie de développement. Au mieux, le protocole de Kyoto, qui prévoit que les pays industriels doivent réduire en moyenne de 5,2 % leurs émissions de gaz à effet de serre en 2008-2012 par rapport à 1990, parviendra à une réduction de seulement 2 % des émissions. Lors de la réunion plénière du groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) à Paris en février 2003, le Premier Ministre et la Ministre de l'Ecologie ont confirmé l'objectif ambitieux d'une division par 2 des émissions mondiales de gaz à effet de serre avant 2050, ce qui signifie une division par 4 des émissions des pays industrialisés. Pour mesurer l'ampleur du défi économique, social et politique qui nous attend, il faut bien comprendre que si la France et ses principaux voisins européens veulent atteindre dans un demi siècle leur objectif ambitieux mais nécessaire d'une réduction de 75% des émissions de gaz à effet de serre, la substitution à plus de 50% des énergies fossiles par des énergies renouvelables ne suffira pas. Il faudra également faire un effort considérable en terme d'économies d'énergie, ce qui suppose de profonds changements dans nos habitudes et notre mode de vie, et une réorganisation globale de notre économie. Il faudra également accomplir au niveau national et européen un effort de recherche et d'innovation considérable afin de doubler d'ici 2050 le rendement énergétique de notre industrie, de nos transports, de nos systèmes de chauffage domestique et de nos appareils ménagers et numériques, de manière à pouvoir intégrer la nécessaire croissance économique dans le cadre plus large du développement durable qui se fera à consommation d'énergie constante. Rappelons que la directive sur les sources d'énergie renouvelable adoptée le 7-09-2001 par le Conseil des ministres de l'Union Européenne, fixe à la France pour objectifs à l'horizon 2010 de porter de 6 % à 12 % la contribution des Energies renouvelables dans la consommation d'énergie et à 21 % la part de ces énergies renouvelables dans la consommation d'électricité. Si la France veut respecter la directive sur les énergies renouvelables, elle devra faire un effort considérable non seulement dans le domaine de l'éolien, mais aussi dans le solaire, la biomasse ou la géothermie, sans oublier le volet essentiel de la maîtrise de la demande. Le grand débat national sur les énergies actuellement en cours sous l'égide de Mme Fontaine, Ministre de l'Industrie, souhaite accorder une large place aux énergies renouvelables qui contribuent non seulement à la protection de l'environnement mais à l'innovation, la création d'emplois et la croissance économique. Cette diversification et cette décentralisation des sources et des vecteurs d'énergie sont d'autant plus inévitables que notre civilisation du pétrole s'éteindra inexorablement avant la fin de ce siècle. Si l'on recoupe en effet les dernières données les plus sérieuses de l'IFP et de l'OCDE, on constate que la totalité des réserves de pétrole (y compris le pétrole "difficile") sera consommé en 2075. Les stocks terrestres d'énergies fossiles (charbon, pétrole et gaz) finiront forcément par s'épuiser, quels que soient les délais supplémentaires que le progrès technologique pourrait nous accorder par rapport à nos prévisions actuelles. Les réserves d'uranium ont également des limites naturelles. On peut évidemment espérer que la fusion thermonucléaire sera contrôlée dans quelques décennies mais d'immenses difficultés techniques restent à surmonter et il faudra au moins 40 ans pour disposer de réacteurs à fusion de type industriel. Tout en intensifiant les recherches dans ce domaine de la fusion, nous devons donc préparer notre avenir énergétique en faisant appel aux ressources inépuisables dont nous disposons dès aujourd'hui et que nous appelons les énergies renouvelables. Quelles sont ces énergies renouvelables ? Il n'est pas possible de passer ici en revue les potentialités de toutes les sources d'énergie renouvelable mais on peut cependant évoquer l'énergie solaire thermique et l'énergie solaire photovoltaïque. A l'heure actuelle, pour une production centralisée, l'électricité d'origine photovoltaïque aurait un coût beaucoup plus élevé que celle produite par l'électronucléaire ou à partir des carburants fossiles. Mais ce prix pourrait baisser jusqu'à 1,5 euro le watt en 2010, et devenir compétitif d'ici 2020. S'agissant de l'énergie éolienne, la capacité installée en matière d'énergie éolienne a augmenté de 28 % dans le monde en 2002, la capacité totale mondiale est de plus de 31.000 MW, ce qui équivaut à l'alimentation de 7,5 millions de foyers américains ou de 16 millions de foyers européens. Les 15 pays de l'Union Européenne génèrent aujourd'hui les trois quarts de l'électricité éolienne mondiale. Le champion du monde de l'énergie éolienne est l'Allemagne, avec 12.000 MW, soit un tiers des capacités mondiales. La France figure aux alentours du quinzième rang mondial, avec 145 MW. L'énergie éolienne assure actuellement seulement 0,4 % de la demande mondiale en électricité. On estime que l'énergie du vent pourrait fournir 12 % de la consommation mondiale d'électricité en 2020. A long terme, les scientifiques fondent beaucoup d'espoirs sur la fusion nucléaire, qui est la réaction ayant lieu lorsque deux atomes qui sont suffisamment proches, se combinent pour former un atome plus lourd. Cette réaction dégage de grandes quantités d'énergie. La fusion d'un kilogramme de deutérium et de tritium, qui est la réaction de fusion la plus facile à réaliser en laboratoire, produit plusieurs milliers de fois plus d'énergie que la combustion d'un kilogramme de charbon. ITER sera la première machine intégrant la majorité des technologies essentielles à la préparation du réacteur de fusion mais les difficultés techniques à surmonter sont encore si importantes qu'il est peu probable que l'exploitation commerciale à grande échelle de la fusion contrôlée puisse intervenir avant 2040. En même temps que la fusion contrôlée, une autre source d'énergie pourrait révolutionner le paysage énergétique mondial après 2040 : les centrales solaires spatiales. Ces centrales seraient composées de gigantesques panneaux solaires couplés à des antennes émettant de larges faisceaux de micro-ondes vers d'immenses récepteurs situés au sol. Chacune de ces centrales électriques de l'espace pourrait produire de 1 à 10 gigawatts. La fusion contrôlée comme le solaire spatial peuvent encore pour beaucoup sembler relever de la science-fiction mais pourtant aucun obstacle technique insurmontable ne s'oppose à leur réalisation et s'il existe une volonté politique internationale forte et durable en leur faveur, je suis convaincu que ces deux technologies de rupture pourraient, en synergie avec la généralisation de l'hydrogène comme vecteur de transport de l'énergie, révolutionner nos perspectives énergétiques pendant la seconde moitié de ce siècle. Le problème de l'énergie éolienne et de l'énergie solaire est qu'elles nous arrivent de façon intermittente, avec des variations diurnes et des variations saisonnières. Pour une utilisation continue se pose immédiatement le problème du stockage de l'énergie reçue. C'est là qu'intervient la combinaison énergies renouvelables-hydrogène, qui forme un binôme très prometteur pour l'avenir. Il y a deux siècles que les scientifiques ont compris le potentiel énergétique de l'hydrogène sous forme gazeuse (H2) et Jules Verne, en visionnaire de génie, avait pressenti dès 1874, dans "L'Ile mystérieuse" les formidables potentialités de l'hydrogène en matière d'énergie. Mais il faut bien comprendre que l'hydrogène, contrairement au pétrole et au gaz naturel, n'est pas une source d'énergie en tant que tel -il n'est pas directement utilisable- mais un vecteur d'énergie, ce qui modifie profondément le cadre économique de son utilisation énergétique. Pour atteindre, en 2020, l'objectif des 20% de la consommation énergétique totale fournie par l'hydrogène, il faudra réussir à multiplier par 25 la production actuelle. Ces données éclairent bien la mesure du défi techno-industriel à relever en moins de 20 ans. Mais atteindre cet objectif ambitieux est également un défi économique et politique qui suppose que soient remplies trois conditions : une augmentation suffisante de la demande pour amortir les investissements considérables à réaliser, une stabilisation des prix et enfin une aide fiscale importante et durable de l'Etat. La Pile à Combustible (PAC) constitue un maillon essentiel de l'économie hydrogène mais ce maillon, en dépit des progrès réalisés depuis 10 ans, est encore loin d'être stabilisé sur le plan technologique et souffre encore d'un coût de production trop élevé -20 fois plus cher qu'un moteur de voiture ou 10 fois plus cher qu'une chaudière domestique classique- qui freine sa diffusion auprès du grand public. Malheureusement, la Pile à Combustible universelle et idéale reste à inventer et pas moins de 6 types de PAC coexistent, chacun de ces types représentant un laborieux compromis entre de nombreux facteurs. Mais en dépit des difficultés techniques rencontrées, GDF mise sur la PAC domestique et se fixe l'objectif de proposer une PAC à 6000 euros en 2007, amortissable en 7 ans grâce aux économies d'énergie réalisées. Quant au bilan environnemental, il est particulièrement favorable à l'émergence des piles à combustible, tant en terme d'émission de bruit que d'émission de polluants et de CO2. En attendant ces PAC domestiques et les PAC dans nos voitures, le grand public va pouvoir rapidement se familiariser avec les PAC, avec les micro-piles de type DMFC qui permettront dès la fin de cette année d'alimenter nos appareils électroniques avec une autonomie jusqu'à 10 fois plus importante qu'aujourd'hui. Toshiba vient d'ailleurs de présenter, il y a quelques jours, le premier modèle de PAC rechargeable pour ordinateur portable. Il suffira de mettre, de temps en temps, du méthanol dans son micro pour ne plus jamais avoir besoin de le recharger à une prise électrique. Mais à terme, c'est sans doute dans le domaine des transports qui connaît un développement mondial considérable (750 millions de véhicules aujourd'hui et 1,5 milliard en 2025) et qui est le plus grand consommateur d'énergie avec l'industrie, que la révolution en matière d'énergie sera la plus profonde grâce notamment aux progrès attendus de la pile à combustible. Il faut en outre souligner que si le parc automobile américain était aujourd'hui entièrement équipé de PAC, il représenterait une puissance électrique potentielle quatre fois supérieure à la production électrique totale des USA ! Sachant qu'une voiture est à l'arrêt 95% du temps on peut tout à fait imaginer qu'il serait possible d'utiliser une partie de la capacité de production de ces PAC embarquées dans nos voitures pour compléter notre alimentation électrique domestique ou alimenter le réseau local en tant que "micro-producteur". Historiquement, le basculement d'une source d'énergie dominante à une autre, du bois vers le charbon puis le pétrole, le gaz et enfin l'hydrogène, se fait d'un combustible plus riche en carbone vers un combustible plus riche en hydrogène. Le produit de combustion est de plus en plus l'eau (écologiquement neutre) au détriment du gaz carbonique (dioxyde de carbone, origine prouvée d'un effet de serre). Depuis le début de la révolution industrielle, la tendance est à la hausse du rapport hydrogène sur carbone, c'est ce que Jérémy Rifkin appelle la "décarbonisation". Mais cette révolution énergétique que nous sommes en train de vivre ne se limite pas à la diversification et à la décentralisation de la production d'énergie, elle touche également à la transformation, au stockage et à la distribution de cette énergie. Pourtant, cette mutation énergétique historique ne peut se réduire à ces dimensions technologiques, économiques et écologiques et suppose une réorganisation globale de nos économies et de nos sociétés, défi politique par excellence ! C'est là tout l'enjeu du passage à l'économie de l'hydrogène. Dans ce projet visionnaire que n'aurait pas renié Jules Verne, énergies renouvelables, hydrogène et électricité forment un triptyque interdépendant et interactif: les énergies renouvelables sont combinées et exploitées de manière optimale et évolutive pour produire de manière décentralisée et souple de l'électricité et de l'hydrogène. L'hydrogène devient alors le vecteur énergétique majeur que l'on peut, selon les besoins, stocker, utiliser directement ou transformer en électricité. Hydrogène et électricité se coproduisent mutuellement et forment un nouveau binôme énergétique quasi-inépuisable d'une puissance, d'une souplesse et d'une propreté incomparables. Mais il faut à nouveau souligner avec force que l'abandon des énergies fossiles, la diversification des sources et des formes d'énergie et les innovations technologiques ne suffiront pas à résoudre la question énergétique au niveau planétaire et devront s'accompagner d'un effort considérable et persistant de réorganisation économique et sociale pour économiser et réduire "à la source" notre consommation d'énergie. C'est pourquoi cette question capitale de l'énergie doit être pensée et intégrée dans le cadre plus large du développement durable : le nouveau paysage énergétique qui émergera en 2050 sera cadré par trois contraintes incontournables et extrêmement puissantes : la contrainte environnementale, la contrainte sociale et la contrainte économique. On voit donc que d'ici deux générations, tous les secteurs d'activité humaine vont être bouleversés bien plus vite qu'on ne l'imagine par cette révolution énergétique qui concernera la production, la consommation, la distribution et le stockage, deviendra l'un des principaux moteurs de l'innovation et du développement économique et provoquera une réorganisation en réseaux de nos sociétés qui marquera la fin des structures économiques sociales et politiques rigides, hiérarchiques et centralisées. C'est pourquoi il est capital que la France, qui dispose d'atouts naturels, économiques et technologiques de premier ordre, joue un rôle de pionnier dans cette mutation énergétique planétaire qui sera, avec les biotechnologies et les technologies de l'information, un des moteurs majeurs de la compétitivité et du développement économique mondial durant ce nouveau siècle. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
C'est un paradoxe : Internet va bien. Pourtant, depuis deux ans, l'actualité de la nouvelle économie a pris l'allure d'une interminable nécrologie. La plupart des start-up qui avaient fait une entrée fracassante au Nasdaq, le marché américain des nouvelles technologies, ont disparu corps et biens dans la tourmente boursière. Rien qu'aux Etats-Unis, 100 000 emplois ont ainsi été détruits dans le secteur d'Internet en 2001. Quant au rachat, début 2000, de Time Warner, la major de la musique et du film, par AOL, le fournisseur d'accès à Internet, il semblait signifier la victoire définitive de la nouvelle économie sur l'ancienne. Aujourd'hui, ce sont les activités d'AOL qui plombent les comptes du groupe dont la vieille Time Warner est devenue le moteur. Cependant, les déboires de la nouvelle économie n'ont pas freiné la diffusion des technologies de l'information et de la communication (TIC). 600 millions d'internautes dans le monde en 2002, contre 460 millions un an plus tôt. A ce rythme, le nombre d'internautes devrait frôler le milliard de personnes en 2006. En France, il a déjà dépassé les 18 millions en décembre 2002, selon Médiamétrie, soit 37 % de la population. Ils n'étaient que 15 millions en septembre 2002, soit une croissance de 20 % en trois mois. Les internautes bénéficiant d'une connexion à haut débit, permettant des usages « enrichis » (navigation plus rapide, téléchargement de musique, vidéo...), sont eux aussi de plus en plus nombreux. Entre le premier et le deuxième semestre 2002, le nombre d'abonnés à l'ADSL et au câble en France est passé de 620 000 à 960 000 personnes. Actuellement au nombre de 7 millions en Europe de l'Ouest, les utilisateurs du haut débit devraient être plus de 50 millions d'ici à 2005. Alors que le commerce traditionnel a plutôt fait grise mine, Noël 2002 a été une période faste pour le commerce de détail en ligne. Les ventes ont atteint 8,5 milliards de dollars aux Etats-Unis entre le 1er novembre et le 20 décembre 2002, soit 23 % de plus qu'en 2001 à la même époque . En France, les chiffres fournis par l'Acsel, la fédération des cybercommerçants, font apparaître une croissance des transactions de 63 % et une augmentation du chiffre d'affaires de 64 % pour les quinze principaux cybermarchands sur le seul dernier trimestre 2002 par rapport à 2001. Les ventes ont avoisiné les 2 milliards d'euros pour l'ensemble de l'année. Les autres pays d'Europe affichant des progressions similaires, le commerce électronique européen devrait représenter autour de 80 milliards d'euros en 2007. Mais, pour l'instant, cela représente toujours une part minime du commerce total, comprise entre 0,5 % et 1,5 % suivant les pays. Encore loin des espérances des pionniers. Car si le commerce électronique décolle, il reste cependant concentré sur quelques secteurs. Les ventes en ligne se partagent en effet pour l'essentiel entre quatre marchés principaux : les produits touristiques (voyages, billets de train, d'avion...) principal secteur en chiffre d'affaires, les produits culturels (disques, DVD, livres...), les produits informatiques (matériel, logiciels...), et les produits financiers (transactions en ligne). La vente par correspondance (VPC), en revanche, a trouvé avec Internet un outil idéal pour remplacer très avantageusement le Minitel. Aux Trois Suisses, les résultats du Web ont dépassé l'année dernière, pour la première fois, ceux du Minitel, et les ventes en ligne devraient à terme représenter à elles seules 20 % du chiffre d'affaires. Par ailleurs, pour certains acteurs traditionnels, la dématérialisation entraînée par les technologies de l'information et de la communication dans les relations entre entreprises ou entre administrations et particuliers est une très mauvaise affaire. C'est d'ores et déjà le cas pour La Poste, qui observe un infléchissement sensible du volume de courrier qu'elle traite depuis la diffusion de la carte Vitale ou de la télé-TVA, la déclaration en ligne de la TVA. Autre victime collatérale : la presse traditionnelle. Le succès des sites de petites annonces d'emploi et d'immobilier est un mauvais coup porté à l'équilibre fragile de certains journaux, qui voient ainsi diminuer les ressources qu'ils tiraient de ces rubriques. Les changements induits par l'Internet vont au-delà du chiffre d'affaires encore modeste réalisé en ligne. Les effets d'Internet se font aussi sentir dans les « vrais » magasins. La Fnac a ainsi constaté un effet d'accélération dans ses enseignes grâce à son site : un nombre croissant d'acheteurs consultent son offre sur le Net avant de se rendre dans la Fnac la plus proche pour conclure leur achat. Un constat confirmé par une étude américaine de l'institut Jupiter Research, qui évalue la contribution du commerce électronique au commerce « physique » à 232 milliards de dollars aux Etats-Unis en 2002, c'est-à-dire 14 % de l'ensemble du commerce de détail, alors que les ventes en ligne au sens strict ne dépassent pas 40 milliards de dollars. Les technologies de l'information et de la communication induisent bien d'autres changements, dans la manière de présenter les produits notamment. Elles donnent aussi la possibilité aux commerçants de mettre sur pied un marketing personnalisé d'une finesse inédite. Sans verser dans la science-fiction, on peut imaginer qu'avec les possibilités qu'offrent l'Internet et le haut débit, il sera bientôt fréquent de joindre un opérateur par téléphone en cliquant sur un lien de page Web. De plus, l'Internet modifie profondément la nature même des produits. Ceux-ci sont amenés à intégrer de plus en plus souvent une composante purement numérique. C'est déjà le cas pour nombre de logiciels d'ordinateurs, achetés sur cédérom dans le commerce, mais dont les mises à jour sont téléchargeables sur Internet. Pour l'instant, l'essentiel des échanges marchands en ligne ne se fait pas entre producteurs et consommateurs, mais entre entreprises. Le marché du B to B, le business to business, représente 150 milliards d'euros en Europe et environ 920 milliards d'euros aux Etats-Unis, soit dix fois plus que le B to C, le business to consumer, selon la Direction des relations économiques extérieures, la Dree. Dès les années 80, la recherche de gains de productivité avait poussé les plus grandes entreprises à adopter l'échange de documents informatisés (EDI). Ce système leur permet de passer commande et d'échanger des données avec leurs partenaires commerciaux réguliers. Les volumes impressionnants du B to B sur l'Internet sont en partie liés à la migration des flux échangés sous EDI. L'Internet présente en effet l'avantage d'être bien moins coûteux à mettre en oeuvre que l'échange traditionnel, ce qui permet notamment sa généralisation aux petites et moyennes entreprises. Celles-ci peuvent désormais pratiquer elles aussi la logique de juste- à-temps que l'EDI permet. Pour les entreprises, l'Internet est cependant beaucoup plus qu'un moyen de faire de l'échange de documents informatisés à bon marché. De nombreuses entreprises ont reconstruit leur système d'information autour d'une architecture Internet. Le réseau a parallèlement eu des effets contradictoires sur les firmes. Il a accéléré l'éclatement spatial de l'entreprise en facilitant le recours à l'externalisation. Mais il a aussi permis de fédérer davantage des structures jusque-là très atomisées : ces nouvelles technologies permettent le développement du travail collaboratif à distance, grâce à une communication plus riche et plus fluide entre les personnes. L'Internet a vu aussi le développement fantastique d'échanges non marchands entre particuliers. Ils n'en ont cependant pas moins un impact économique non négligeable. Le développement de la correspondance électronique entre particuliers ne paraît pas affecter pour l'instant le courrier traditionnel. Il en va autrement du peer-to-peer, c'est-à-dire l'échange de fichiers informatiques grâce à une connexion directe entre les ordinateurs des particuliers. Pas moins de 130 millions de fichiers MP3 illégaux s'échangent quotidiennement, selon l'industrie musicale et seul un Américain sur dix admet avoir payé pour pouvoir télécharger un fichier. Les maisons de disques tiennent le peer-to-peer pour responsable de la baisse de 15 % des ventes de disques enregistrée ces deux dernières années. D'où leur tentation de ne plus vendre que des disques impossibles à copier et la pression de plus en plus grande qu'elles exercent auprès du législateur afin de restreindre voire de supprimer le droit à la copie privée. L'Internet a également nourri le fantasme d'un marché sans intermédiaires, où chacun est à la fois consommateur, mais aussi un peu producteur des biens échangés. L'essor du C to C, les échanges marchands entre consommateurs, semble être la concrétisation de cette idée, même si, dans la pratique, un intermédiaire reste nécessaire pour organiser la rencontre entre l'offre et la demande. Alternatives économiques : http://www.alternatives-economiques.fr/site/nouvelles_pages/212_005.html
|
|
|
|
|
|
|
|
Renforcer les mesures contre le piratage de logiciels pourrait générer 400 milliards de dollars de croissance mondiale et 64 milliards de revenus fiscaux supplémentaires, révèle une étude menée à la demande d'une organisation informatique américaine. Selon l'étude du cabinet d'études IDC réalisée pour la Business Software Alliance (BSA), quatre logiciels sur 10 utilisés dans le monde ont été copiés illégalement. En Chine, le taux de piratage atteint les 92%. Les entreprises qui dupliquent les logiciels constituent le principal problème. "Ils ont davantage d'exemplaires (des logiciels) que de licences. C'est la forme de piratage la plus facile à combattre", a déclaré le président de la BSA Robert Holleyman. Holleyman affirme que les grosses entreprises américaines membres de la BSA ne seraient pas les seules à profiter de mesures plus strictes contre le piratage, qui bénéficieraient aussi à leurs concurrents étrangers. "Une protection efficace de la propriété intellectuelle dynamise la créativité, ce qui ouvre de nouvelles possibilités", a-t-il déclaré. "Quand les entrepreneurs locaux ont un moyen légitime de vendre leurs innovations et de faire des bénéfices grâce à leurs programmes, ils peuvent développer leur entreprise et embaucher." Une baisse de 10 points de pourcentage des niveaux de piratage pourrait créer 1,5 millions d'emplois dans le monde et provoquer une hausse de 400 milliards de dollars de la croissance économique mondiale, soit environ 1%. Les revenus gouvernementaux supplémentaires générés par ces mesures seraient de 64 milliards de dollars, soit assez pour fournir une couverture médicale à 32 millions de personnes ou une éducation primaire à 4 millions d'enfants, estime l'étude. L'objectif visant à réduire les niveaux de piratage mondiaux de 30% est réaliste car deux tiers des 57 pays étudiés ont déjà réduit leurs niveaux de piratage de 10 points depuis 1996, selon IDC. Une baisse de 10 points des niveaux de piratage aux Etats-Unis, qui sont déjà parmi les plus bas du monde, provoquerait une hausse de 150 milliards de dollars des revenus de la production américaine, selon l'étude. IDC a pris en compte les mesures anti-piratage de 57 pays représentant 98% du marché mondial des technologies de l'information. Microsoft, Apple Computer, Adobe Systems, Cisco Systems, Hewlett-Packard, Intel et International Business Machines font partie de la BSA qui regroupe les principales entreprises américaines de logiciels et de matériel informatique. Reuters : http://fr.news.yahoo.com/030403/85/34oug.html
|
|
|
|
|
|
|
|
Il semblerait que la technologie numérique appliquée au cinéma est aujourd'hui suffisamment stabilisée pour envisager son exploitation dans le cadre de diffusions en salles. Aux Etats-Unis, l'exploitant Landmark Theatres va ainsi équiper, d'ici la fin de l'année, la totalité de ses 177 salles (53 cinémas répartis sur 13 Etats américains) en plates-formes numériques de projection. Le format d'encodage du film choisi dans le cadre de cette solution "tout numérique" n'est autre que le Windows Media 9 Series (WMV9Series) de Microsoft. Rappelons que ce format offre, à qualité quasiment égale, un meilleur taux de compression que le MPEG-2 utilisé pour les DVD. Là où le format DVD nécessite un débit de 19 Mbits/s pour un film en 720/24p (720 x 480 pixels par image à raison de 24 images par seconde), WMV9Series ne réclame que 5 à 8 Mbits/s selon la qualité recherchée. A titre d'exemple, le film d'Allan Slutsky, Standing in the shadows of Motown, récemment projeté à Paris sur un écran de 8 mètres de base, occupe un espace de 7 Go environ pour une durée de 1 h 50 min (soit un débit de lecture de 8,4 Mbits/s dont 440 Kbits pour le son) en 1 280 x 720. La projection se faisant par l'intermédiaire d'un projecteur DLP (Digital Light Processing) relié à un ordinateur équipé d'un Athlon 2800+, d'une solution nVidia pour la carte graphique et d'une carte audio 5.1 professionnelle Layla. C'est une nécessité économique qui pousse l'exploitant à passer au tout-numérique. "Nous programmons plus de 250 films par an et leur succès dépend plus des conditions du marché que de leur valeur artistique", estime Bert Manzari, vice-président de Landmark. Le choix du tout-numérique permettrait donc à cet exploitant indépendant de réaliser des économies substantielles et, surtout, d'optimiser l'organisation de ses projections. Fini, en effet, les onéreux frais d'édition et de transport des copies des films celluloïd (entre 1 200 et 2 200 euros par copie). Le fichier du film peut être transféré sur DVD, voire sur CD-Rom, ou directement par un réseau haut débit, ce qui permet de multiplier les opportunités de programmation. Le numérique permet également de choisir la version sonore à n'importe quelle séance comme avec les DVD de salon. Enfin, contrairement au support celluloïd, le format numérique ne s'use pas et la qualité reste la même quelle que soit le nombre de projections. Pour l'instant le choix du format de Microsoft ne répond pas encore à un standard de l'industrie du cinéma. Mais en étant le premier à proposer des solutions techniques et commerciales fiables - et qui plus est sécurisées grâce aux technologies de gestion de droits - Microsoft prend, une fois de plus, un avantage certain dans l'établissement de ce standard potentiel. VUnet : http://www.vnunet.fr/actu/article.htm?id=0&numero=10837&date=2003-04-04
|
|
|
|
|
|
|
|
Sony vient de présenter son premier graveur Blu-Ray Disc et ses supports dédiés, sous forme de disques insérés dans une cartouche en plastique, en mode WORM (une seule écriture) ou RW (réinscriptible). Ce graveur de nouvelle génération permettra l'enregistrement de 23,3 Go de données sur un disque magnéto-optique de 12 centimètres de diamètre (type CD ou DVD) contre environ 9,1 Go pour les DVD actuels. Cette augmentation des capacités de stockage est permise grâce à l'usage du laser bleu dont la longueur d'onde de 405 nanomètres, inférieure à celle du laser rouge de 635 nm exploité pour les CD et DVD actuels, offre une plus grande finesse de gravure. D'autre part, la technologie mise au point par Sony offre un débit d'enregistrement de 9 Mo/s contre moins de 5 Mo/s actuellement. Le constructeur nippon espère démarrer dès cet été la commercialisation de ses graveurs . Au format 5,25 pouces et interfacé en SCSI Ultra-wide 160, le modèle BW-F101 sera proposé à 3 000 dollars environ tandis que le prix des supports commencera à 45 dollars. Des tarifs qui réservent son usage au monde professionnel des serveurs, stations de travail et autres solutions de stockage. Le consortium Blu-Ray Disc (Philips, Thomson Multimédia, Matsushita, Sony, Hitachi, LG Electronics, Pioneer, Samsung et Sharp) entre en concurrence avec un autre format défendu par Nec et Toshiba. Il n'est donc pas étonnant que Sony se soit massivement investi dans cette technologie afin d'être le premier à présenter une solution sur le marché, espérant ainsi imposer son format. Si le Blu-Ray Disc devient aujourd'hui une réalité, Sony ne compte pas s'arrêter en si bon chemin et annonce déjà de futures versions. Dès 2005, la technologie devrait permettre d'enregistrer près de 50 Go en double couche (23,3 Go par couche) à raison d'un débit de 18 Mbits/s avant d'atteindre vers 2008, les 100 Go (double couche, double face) à terme avec un débit de 36 Mbits/s. VUnet : http://www.vnunet.fr/actu/article.htm?numero=10844&date=2003-04-07
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Sortir progressivement du nucléaire, diminuer son poids ou parier à long terme sur cette énergie : la question sera au centre du débat national sur les énergies, qui s'ouvre mardi à Paris, mais d'ores et déjà, les scientifiques planchent sur les réacteurs qui équiperont les centrales nucléaires de demain. Le premier réacteur destiné à la production d'électricité, à la centrale de Fessenheim (Haut-Rhin), a été raccordé au réseau en 1977. Le gros des 58 réacteurs en service dans les 19 centrales françaises date des années 80. "C'est un parc jeune, avec un âge moyen des réacteurs de 17 ans", souligne Patrice Bernard, directeur du développement au Commissariat à l'énergie atomique (CEA). "Aujourd'hui, la question est de savoir quelle stratégie adopter pour le renouvellement de ce parc", ajoute le scientifique. Beaucoup des pièces qui composent un réacteur peuvent être changées au fur et à mesure de l'usure, à l'exception de deux composants essentiels : la cuve, qui constitue le coeur du système et où se trouve le combustible, et l'enceinte de confinement, qui entoure le réacteur. C'est l'usure de ces deux composants essentiels, double barrière contre les radiations, qui détermine le vieillissement d'un réacteur. Tous les dix ans, l'Autorité de sûreté, le "gendarme du nucléaire", donne le feu vert pour la poursuite de l'exploitation au terme d'une visite approfondie. Aux Etats-Unis, l'Autorité de sûreté américaine (NRC) a donné le feu vert pour une exploitation de certains réacteurs sur soixante ans. "En France aujourd'hui, EDF table pour ses réacteurs sur une durée de vie d'au moins 40 ans", précise Daniel Quéniart, de l'Institut de radioprotection et de sûreté nucléaire (IRSN). Ce qui implique de jeter les bases d'un renouvellement du parc nucléaire vers les années 2017-2020. Pour succéder aux réacteurs actuellement en fonctionnement si le choix du nucléaire est confirmé, les scientifiques planchent sur les réacteurs dits de troisième et quatrième génération. L'EPR (European Pressurised water Reactor/Réacteur européen à eau sous pression), projet franco-allemand développé par Siemens et Framatome, attend un feu vert du gouvernement. Un premier prototype pourrait être connecté au réseau vers 2010-2012. "Si tout va bien, on est dans les temps, mais il faudrait construire un prototype sans trop tarder", selon Daniel Quéniart. Conçu dès l'origine pour une durée de vie minimale de 60 ans, ce réacteur de nouvelle génération utilise une technique déjà éprouvée, celle des réacteurs à eau légère, la plus répandue dans le monde. Avec, assurent ses concepteurs, une meilleure utilisation du combustible, une démultiplication des systèmes de sûreté et une moindre production de déchets. A plus long terme, pour remplacer cette troisième génération en France vers la fin du siècle, rajeunir le parc d'autres pays ou équiper des économies émergentes, les experts d'une dizaine de pays mènent des recherches sur une quatrième génération de réacteurs qui pourraient être déployés à partir de 2030. Objectifs : réduire les coûts d'investissement de 30 à 50% par rapport aux installations actuelles, diminuer le volume des déchets et leur durée de vie, et utiliser au mieux les ressources en uranium, le "carburant" du nucléaire. "Cette nouvelle génération devrait permettre également de répondre à d'autres besoins que la production d'électricité", explique l'expert du CEA. Les scientifiques soulignent en effet que ces réacteurs seront en mesure de produire, sans émissions de gaz à effet de serre, de l'hydrogène, souvent considéré comme un des "carburants de l'avenir". La Recherche : http://www.larecherche.fr/energie/n030316090224.prip0m41.html
|
|
|
|
|
|
|
|
L'Institut d'Energie Océanique de l'Universite de Saga est mondialement réputé pour ses recherches dans le domaine des technologies OTEC (Ocean Thermal Energy Conversion). Théorisée des le XIXeme siècle en France, cette méthode permet d'exploiter les différences de température de l'eau de mer pour générer de l'électricité. Le fonctionnement d'une installation OTEC est sensiblement le même que celui d'une usine thermique, le fluide utilise étant un mélange d'eau et d'ammoniac. Le point d'ébullition de l'ammoniac étant très bas (a peine 33°C), il est aisé d'évaporer le fluide au contact de l'eau de surface ou de le liquéfier au contact de l'eau profonde. Les régions équatoriales sont particulièrement adaptées a cette technologie avec des températures océaniques dépassant 30°C en surface et de l'ordre de 5°C a quelques centaines de mètres de profondeur. Haruo Uehara, directeur de l'Université de Saga, mené des recherches dans ce domaine depuis 1973, et a donné son nom a un système d'échange thermique particulièrement efficace entre le fluide et l'eau de mer: le cycle Uehara. Près de la moitié de l'énergie Cree étant utilisée pour pomper l'eau profonde, le rendement de ce système est assez bas, a peine 5,3%. Ce type d'installation présente en revanche de nombreux avantages, comme la possibilité de récupérer de l'eau douce, de produire de l'hydrogène ou du lithium en utilisant une partie de l'énergie produite. L'eau profonde, riche en minéraux, peut également servir pour des installations piscicoles. L'Inde et l'île pacifique de Belau désirent construire des installations OTEC en collaboration avec l'Université de Saga. Une usine flottante-test opérant au large des cotes indiennes devrait produire 1.000 kW d'électricité et 8.000 l/j d'eau douce. BE Japon : http://www.be.adit.fr
|
|
|
|
|
|
|
|
Le gouvernement britannique a publié lundi 24 février son "Livre Blanc de l'Energie", rapport qui présente la politique énergétique du Royaume-Uni pour les vingt prochaines années. Dans ce rapport intitule "Notre énergie du futur : vers une économie à faible intensité en carbone" gouvernement anglais présente les objectifs et les moyens de cette nouvelle politique énergétique en insistant sur la nécessite de diminuer sérieusement les émissions de CO2 pour lutter contre les changements climatiques. Le Royaume-Uni est confronté à trois principaux défis sur le plan énergétique. Tout d'abord, un défi environnemental : les années 90 furent la décade la plus chaude depuis que l'homme mesure le climat. Cette augmentation de la température a entraîne de nombreuses conséquences, dont la montée du niveau de la mer et une augmentation des inondations. Sans diminution des gaz a effet de serre, ces catastrophes naturelles risquent d'être de plus en plus nombreuses et de plus en plus désastreuses. Le second défi auquel est confronté le Royaume-Uni est la diminution de ses ressources énergétiques internes. Dans une dizaine d'années, la plupart des mines de charbon britanniques économiquement rentables sera épuisée. Le Royaume-Uni verra également sa production de pétrole et de gaz nettement diminuer. Enfin, dans les vingt prochaines années, les centrales nucléaires arriveront quasiment toutes en fin d'exploitation. En conséquent, en 2020, le Royaume-Uni dépendra au ¾ des importations pour son énergie. Devenant un net importateur, le Royaume-Uni sera beaucoup plus dépendant du contexte économique mondial. Le troisième défi est la nécessite de moderniser les infrastructures énergétiques du pays. Comme indique précédemment, beaucoup de centrales de production électrique vont fermer dans les prochaines années. Pour disposer d'un système énergétique performant et fiable, il est important de réfléchir des aujourd'hui aux modifications des moyens de production, a la nécessite de nouvelles installations et a l'adaptation des réseaux de distribution et de stockage. Les objectifs de la politique énergétique. Pour relever ces trois défis, le gouvernement a fixé quatre objectifs prioritaires pour sa politique énergétique : - diminuer les émissions de CO2 de 60 % en 2050 (par rapport a 1990) ; - maintenir la fiabilité et la sécurité de l'approvisionnement en énergie ; - promouvoir la compétitivité des entreprises pour améliorer la productivité de l'économie et participer au développement de celle-ci ; - s'assurer que chaque foyer britannique soit équipe d'un système de chauffage efficace et puisse se chauffer a un prix raisonnable. Le gouvernement est conscient qu'il existe des dissensions entre ces quatre objectifs mais estime cependant qu'ils peuvent être atteints de façon concomitante. S'il ne fixe aucun chiffre sur la répartition des différentes sources d'énergie, le gouvernement doit mettre en place des mesures drastiques. Deux mesures sont prioritaires : une diminution de la consommation énergétique et une production accrue d'énergie renouvelable. Diminuer la consommation d'énergie : Pour le gouvernement, la diminution de la consommation énergétique est le moyen le moins cher et le plus efficace pour atteindre les objectifs fixes. De grandes quantités d'énergie sont gaspillées dans des habitations et des immeubles mal isolés, par des systèmes de chauffage et de climatisation déréglés, ou par des ampoules et des appareils électroménagers inefficaces en terme de consommation d'énergie. Si des améliorations ont eut lieu ces dernières années, celles-ci ne sont pas suffisantes et le gouvernement propose plusieurs mesures pour lutter contre ces gaspillages et améliorer l'utilisation de l'énergie. Pour les habitations particulières, a été lancé en avril 2002 l' "Energy Efficiency Commitment" (EEC). Ce programme impose aux fournisseurs d'énergie pour les particuliers des objectifs pour diminuer la consommation d'énergie des foyers britanniques. Les fournisseurs doivent encourager les consommateurs à installer des appareillages de chauffage, d'isolation, d'éclairage plus performants en terme de consommation d'énergie. L'EEC a été programmé jusqu'en 2005. Cependant, en fonction des résultats, le gouvernement envisage d'étendre ce programme jusqu'en 2008. Une autre série de mesures pour diminuer la consommation des ménages concerne les appareils électroménagers. Pour diminuer la consommation d'énergie, il est nécessaire d'améliorer les rendements de ces appareils et d'inciter les britanniques a acheter les appareils les plus efficaces sur le plan énergétique. Le gouvernement veut s'appuyer sur des campagnes d'information, des mesures fiscales pour rendre l'accès a ces appareils plus faciles et imposer des standards minimums plus élevés pour retirer du marche les appareils les plus gourmands en énergie. Pour les entreprises et les services publics, les mêmes améliorations que dans les habitations doivent avoir lieu. Pour que les entreprises effectuent ces modification, le gouvernement a mis en place une taxe : le "climat change levy" (CCL) pour obliger les sociétés et le secteur public a prendre les mesures nécessaires pour réduire leur consommation d'électricité et leur émission de CO2. Le gouvernement estime que cette diminution de la consommation d'énergie doit contribuer a la moitie des objectifs de réduction des émissions de carbone. Développer les sources renouvelables : Le deuxième grand axe de la nouvelle politique énergétique du gouvernement est le développement des sources renouvelables. Pour atteindre une diminution de 60 % des émissions de CO2 en 2050, 30 à 40 % de l'électricité produite au Royaume-Uni à cette date devra l'être grâce aux sources renouvelables. Dans un premier temps, le gouvernement se fixe un objectif de 10 % en 2010. Pour atteindre cet objectif, des mesures ont déjà été mises en place : - l'introduction en 2002 d'une obligation d'utilisation des énergies renouvelables ; - l'exemption de la CCL pour les entreprises utilisant les énergies renouvelables ; - la création d'un programme de 250 millions de livres (366 millions d'euros) sur trois ans pour développer les énergies renouvelables ; - la création d'une nouvelle organisation au sein du gouvernement, "Renewable UK", pour coordonner les développements des énergies renouvelables. Cependant, le gouvernement est conscient qu'il est nécessaire de renforcer son action car les résultats de ces premières mesures ne suffiront pas pour atteindre les objectifs fixes. L'innovation va jouer un rôle crucial dans le développement des sources renouvelables. Si certaines sources sont prêtes a être exploiter ou le sont déjà comme l'énergie d'origine éolienne, beaucoup de travail reste a faire pour le développement et la commercialisation de la plupart des sources renouvelables. Ainsi aux 250 millions de livres (366 millions d'euros) déjà débloquées, le gouvernement a décidé d'ajouter 98 millions de livres (144 millions d'euros) supplémentaires pour les trois prochaines années. Ces fonds permettront le lancement des nouveaux programmes de recherche, l'étude de prototypes et serviront à étudier des problèmes relatifs à l'utilisation des énergies renouvelables comme leur intermittence. La politique de l'Union Européenne en matière d'émissions des gaz à effet de serre facilitera aussi l'atteinte des objectifs. Le "European carbon emmission trading scheme" doit entrer en vigueur en 2005. Les sociétés participant a ce programme auront des objectifs concernant la réduction de leurs émissions de carbone. Trois possibilités s'offriront alors aux dirigeants de ces entreprises : - atteindre leur objectif en réduisant leurs propres émissions ; - réduire leurs émissions sous les objectifs fixes avec la possibilité de vendre ou de capitaliser la différence ; - ne pas atteindre les objectifs et acheter le droit d'émettre du CO2 auprès d'autres entreprises qui auront réussi a réduire leurs émissions sous leurs objectifs. Chaque société pourra ainsi choisir la stratégie qu'elle considère la meilleure en comparant le prix du "droit de polluer" aux coûts de réduction de ses propres émissions. Ainsi, les objectifs de diminution de CO2 seront atteints au moindre coût pour l'économie européenne. Dans une vingtaine d'années, la situation britannique du secteur de l'énergie sera très différente de celle qui existe aujourd'hui. Le gouvernement estime qu'il est indispensable, des aujourd'hui, de préparer l'avenir et de fixer des objectifs et des stratégies clairs, ce qui est le but de ce rapport "Our energy future, creating a low carbon economy". Comme nous l'avons vu, la lutte contre les gaspillages et le développement des énergies renouvelables sont pour le gouvernement parmi les moyens les plus efficaces et les moins coûteux pour atteindre les objectifs définis. Cependant, le gouvernement souligne l'importance des collaborations internationales pour aider le Royaume-Uni a atteindre ces objectifs mais aussi pour que le Royaume-Uni aide les autres pays a mettre en place une politique similaire ou la prise en compte des changement climatiques est prioritaire. Le Royaume-Uni n'est responsable que de 2 % des émissions mondiales de CO2. Si la politique britannique n'est pas suivie par les autres pays, l'essentiel de cette politique, qui est de ralentir les changements climatiques, ne pourra être atteint. L'ensemble des organisations scientifiques et des associations de protection de l'environnement se félicite des décisions du gouvernement, particulièrement sur la diminution des émissions de CO2 de 60 % d'ici 2050. Le gouvernement conclut que le défi qu'il se lance avec cette nouvelle politique énergétique est difficile mais qu'il doit être relevé. Un nouveau bilan sera nécessaire en 2020 pour analyser les résultats de cette politique et pour réfléchir sur les améliorations à y apporter grâce aux développements techniques et a l'expérience acquise. Rapport du gouvernement : http://www.dti.gov.uk/energy/whitepaper/index.shtml#wp.
|
|
|
|
|
|
|
|
Jusqu'à présent, la plupart des cellules solaires sont fabriquées à partir de silicium amorphe. Malheureusement, le silicium reste très cher a mettre en oeuvre et les rendements des cellules sont encore faibles. Bien sur, un faible rendement serait acceptable si l'on utilisait de grandes surfaces mais on se heurterait à nouveau au coût relativement élevé du silicium. Des efforts sont donc déployés par les scientifiques pour mettre au point des cellules solaires moins chères : destinées en particulier aux pays les plus pauvres, elles pourraient rendre l'énergie solaire plus compétitive. Une des voies explorées est celle des cellules de Gratzel, du nom de leur inventeur, Michael Gratzel, chercheur à l'EPFL de Lausanne. Michael Gratzel et ses collaborateurs ont eu l'idée de copier le mécanisme de photosynthèse des feuilles et de le combiner avec un semi conducteur pour produire des cellules solaires a la fois efficaces et peu chères. Au lieu de silicium, ils utilisent des grains d'oxyde de titane (TiO2), un matériau très peu cher et largement disponible couramment utilise comme agent de blanchiment dans les peintures ou dans les blanchisseurs de café! Les grains de TiO2 sont recouverts d'un colorant qui absorbe une large gamme de longueurs d'onde du spectre solaire ; ils baignent dans une solution électrolytique contenant de l'iode et sont encapsulés entre deux électrodes. L'énergie fournie par les photons absorbes par les molécules de colorant permet aux électrons de ces molécules de sauter d'une orbitale à l'autre ; ils sautent ensuite de particules d'oxyde en particule d'oxyde jusqu'a atteindre une électrode. Simultanément les ions de l'électrolyte apportent les électrons nécessaires à la régénération du colorant. A présent, l'objectif des chercheurs est d'augmenter le rendement des cellules de Gratzel. EPSRC Research Highlights du 21/02/03 : http://www.epsrc.ac.uk.
|
|
|
|
|
|
|
|
Un colloque intitulé "Les impacts des nouveaux matériaux pour réduire les coûts de l'énergie" vient de rassembler à Londres plusieurs chercheurs pour faire le point sur les nouvelles possibilités offertes par ces nouveaux matériaux en matière de production et la consommation d'énergie. Le professeur Humphreys, de l'Université de Cambridge, a détaillé les économies d'énergies qui pourraient être faites dès aujourd'hui en utilisant certains de ces nouveaux matériaux pour l'éclairage. Plusieurs villes dont Singapour et Denver utilisent des ampoules au nitrure de gallium pour les feux de circulations. De tels éclairages consomment seulement une fraction de l'énergie consommée par les ampoules classiques. Ainsi, la ville de Denver a réduite de plus de 90 % sa consommation et sa facture d'électricité pour ses feux de circulation. Cette diminution de consommation d'énergie engendre une diminution d'émissions de CO2 équivalente à la suppression de 1000 voitures. Ces ampoules pourraient également être utilisées pour l'éclairage domestique. Si 50 % des foyers britanniques remplaçaient leurs ampoules classiques par ces ampoules au nitrure de gallium, le professeur Humphreys estime que la diminution de consommation permettrait de fermer cinq centrales électriques et réduirait ainsi les émissions de CO2 d'au moins 10%. Un autre avantage de ces ampoules est leur durée de vie moyenne d'environ 60 ans, bien supérieure à celle des ampoules classiques. Si ces nouvelles ampoules ne sont pas encore disponibles pour des usages domestiques, - elles devraient être sur le marché dans moins de cinq ans -, les ampoules pour les feux de circulations sont elles d'ores et déjà disponibles. Le professeur Harry Bhadeshia a présenté les résultats de ces recherches sur l'apport des nouveaux matériaux sur le rendement des usines de production d'énergie. Les centrales électriques utilisent usuellement des alliages d'acier pour les turbines et fonctionnent à des températures de l'ordre de 565 °C. Ces températures permettent d'atteindre des rendementsd'environ 40 %. Pour augmenter l'efficacité des turbines à gaz, une des solutions est de travailler à des températures plus élevées. Cependant, ces hautes températures fragilisent les matériaux et diminuent leur durée de vie. Pour essayer de résoudre ce problème, le professeur Bhadeshia et son équipe de l'Université de Cambridge se sont inspirées des technologies utilisées pour les turbines des avions commerciaux. Ils ont ainsi développé un nouvel alliage de nickel, capable de supporter des températures de 750°C. Cet alliage qui est seulement trois fois plus cher que l'acier ferritique utilisée aujourd'hui permet d'augmenter les rendements de 16 %, réduisant d'autant les émissions de CO2 et globalement le prix de l'électricité. Les deux professeurs ont souligné que les importantes sommes d'argent investies pour développer les énergies renouvelables telles que l'énergie éolienne leur semblaient disproportionnées. Ils pensent qu'avec ces nouveaux matériaux le gouvernement pourrait faire à moindre frais un grand pas pour atteindre son objectif ambitieux de réduction de 60 % des émissions de CO2 en 2020. The Enginner du 07/03/03 : http://www.theengineer.co.uk/item.asp?ch=e4_home&type=News&id=48104
|
|
|
|
|
|
|
|
Le laboratoire de physique des matériaux, de l'INSA, à Villeurbanne, cherche à réduire la quantité de silicium sur les cellules photovoltaïques, un enjeu pour l'électricité renouvelable et les entreprises u secteur dans la région. L'énergie photovoltaïque aura son heure. André Laugier, professeur au laboratoire de physique de la matière de l'INSA, en est convaincu. Les énergies fossiles auront une fin. Tôt ou tard. Peut-être plus vite que prévu. Les énergies renouvelables, déjà bien parties, ne pourront que s'accélérer. Le livre blanc de la communauté européenne fixe comme objectif une puissance crête installée de 3 GW en 2010 pour le photovoltaïque. L'énergie photovoltaïque, produite par les photons du soleil sur les cellules photovoltaïques, en particulier à base de silicium, a de l'avenir. Mais cette électricité revient encore cher : le watt crête, c'est à dire la puissance maximum captée par une cellule, revient environ à 10 euros, et sensiblement moins pour de grandes installations. L'objectif est de diviser par ce prix par dix dans les prochaines années. Plusieurs matériaux permettent de transformer les photons en électricité. Le silicium est le plus courant. Mais le silicium doit être le plus pur possible pour que les photons ne viennent pas perdre leur énergie dans d'innombrables défauts, dus à la présence d'autres matériaux, sur des cristaux trop désordonnés, de tailles trop différentes ou trop petites. Aujourd'hui, les tranches de silicium ont une épaisseur de quelque 300 microns, 3OO millièmes de millimètres. On pourrait dans de bonnes conditions abaisser l'épaisseur à 100 microns. Mais, si le découpage de tranches de saucisson n'entraîne pas de perte de saucisson, quand on découpe des tranches de silicium, on perd beaucoup du précieux matériau. L'idéal est d'arriver à des couches de quelques microns sans perte de matière. L'équipe d'André Laugier a cherché comment déposer juste ce qu'il faut de silicium sur des supports bons marchés comme des plaques de verre ou des céramiques. La méthode qui est en train d'être mise au point consiste à appliquer une première couche d'atomes par contact d'un bloc de silicium avec le support. Lors d'une seconde opération l'épaisseur requise est obtenue par épitaxie : le dépôt de silicium en phase liquide permet de déposer une nouvelle quantité d'atomes qui se cristallisent rapidement et régulièrement en cristaux réguliers. Après un premier contrat de trois ans financé par la Région, un nouveau contrat devrait permettre d'améliorer les performances. « Nous voulons réaliser l'opération aux environs de 600 degrés, et non pas à 1050 degrés, pour réduire la consommation d'énergie » explique André Laugier. La réduction de la consommation de silicium passerait de 16 grammes pour une cellule de 1 watt, 32 avec les pertes dues au découpage, à seulement deux grammes. La couche monocristalline permettrait d'atteindre un rendement de 22 % proche des records mondiaux. Progrès : http://www.leprogres.fr/
|
|
|
|
|
|
|
|
Le solaire photovoltaïque représente en France une puissance installée de 10 mégawatt, dont près de la moitié, 500 kilowatts sont installés dans la région. L'objectif est de parvenir à un horizon de dix ans à 50 mégawatt. Le prix de revient du kilowatt heure est aujourd'hui élevé. Ce prix élevé est pris en compte dans le tarif de rachat auquel EDF paie le courant qui lui est livré par les petites installations, de moins de 12 mégawatt, soit 15,25 centimes d'euro le kilowatt heure. Ce tarif est encore inférieur au prix de revient d'une énergie très subventionnée car elle en est à ses balbutiements économiques. Ce tarif est très supérieur au prix auquel EDF vend « son électricité », à 7,8 centimes le kilowatt heure pour un particulier. Les propriétaires d'installations raccordées au réseau se plaignent actuellement non seulement de la lourdeur de la démarche, mais aussi du fait que, du côté d'EDF, les contrats d'achats ne sont signés qu'après des délais extrêmement longs. Il faut compter environ 6 000 euros pour équiper sa maison d'une puissance d'un kilowatt, l'opération étant subventionnée à environ 80 %. L'énergie du soleil n'est donc pas « gratuite », mais elle peut-être un choix entraînant un surcoût tout à fait supportable. Sur le plan économique, la filière photovoltaïque est présente en Rhône-Alpes au niveau de la recherche, au niveau de la fabrication des cellules, de la fabrication des modules, des installations. Pour la fabrication des cellules, Photowatt à Bourgoin-Jallieu, produira cette année l'équivalent de 25 mégawatt, grâce à de nouveaux investissements qui permettent de réduire les coûts. Le marché européen devient réellement concurrentiel et l'entreprise a dû abaisser ses tarifs de 20 %. Elle améliore le rendement de ses cellules en améliorant par exemple les couches antireflet. Du côté des modules et des ensembles, Total Energie, installé à La Tour-de-Salvagny, fêtera cette année ses vingt ans. L'entreprise devrait installer cette année 10 mégawatts, dont la moitié dans des installations raccordées au réseau EDF, la moitié sur des sites isolés. Elle crée un établissement à Toulouse, qui emploiera plus d'une trentaine de salariés. Les installations chez les particuliers ou sur des bâtiments tertiaires ou industriels, raccordées au réseau, qui livrent du courant à EDF à un prix fixé par arrêté ministériel, se multiplient doucement. L'entreprise Imerys, installée à Quincieux, a mis au point des « tuiles photovoltaïques », c'est à dire des kits de tuiles qui supportent un ensemble de cellules. L'entreprise dispose d'un portefeuille de cent chantiers en stocks et vise une puissance installée de 400 kw en France. Mais les projets sont ralentis par la lenteur avec laquelle les subventions, européenne, nationale, puis régionale, arrivent. Le silicium est encore le matériau capable de produire le plus facilement de l'électricité photovoltaïque. Des recherches sont menées sur d'autres matériaux, en particulier des matériaux organiques. Des équipes du CEA/CNRS de Grenoble, du CNRS de Pau, de Paris VI, d'Angers et de Limoges travaillent sur un programme de 10 millions d'euros destiné à mettre au point des matériaux moins onéreux que le silicium. Avec des matériaux plastiques, des polymères, la fabrication des constituants de la cellule serait plus facile et les cellules seraient souples. L'Institut technologique de Lausanne étudie des cellules où des particules d'oxyde de titane seraient imprégnées d'un colorant. Mais d'autres recherches s'orientent vers des cellules entièrement en plastique d'un rendement faible, 4 à 5 % de l'énergie des photons étant convertie en électricité, contre 15 % avec le silicium, l'avantage étant celui d'un prix très inférieur. Le Progrès : http://www.leprogres.fr/
|
|
|
|
|
Un groupe de recherche de l'Université d'Osaka a démontrée qu'il était possible d'emmagasiner de l'hydrate de méthane pendant de relativement longues périodes a pression ambiante. Il est ainsi possible de conserver l'hydrate de méthane sous forme solide pendant deux semaines a une température de 10°C et a pression atmosphérique. A cette température, une fine couche de glace se forme naturellement a la surface de l'hydrate de carbone et empêche ainsi toute évaporation. En combinant du méthane avec de l'eau on peut former de l'hydrate de méthane facilement transportable a basse température (environ 10°C). Le gaz naturel, principalement compose de méthane, est actuellement transporté sous forme liquide a une température de -160°C. Cette avancée pourrait permettre de réduire drastiquement les coûts de transport du gaz naturel. BE Japon : http://www.be.adit.fr
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Paralysée pendant quatre mois après l'échec de sa version actuelle la plus puissante, l' "Ariane dix tonnes", la fusée Ariane-5 a effectué un retour brillant dans l'espace mercredi soir en plaçant sur orbite de transfert géostationnaire deux satellites de télécommunications. Mais l'avenir du seul lanceur européen désormais, après le tir de la dernière Ariane-4, le 15 février, n'est pas assuré pour autant. Pour son premier lancement de l'année, Ariane-5 a parfaitement rempli sa mission et placé sur orbite, comme prévu, ses deux passagers, deux satellites de télécommunications, l'un indien, de 2.950 kg, INSAT-3A, l'autre américain, de 1.760 kg, Galaxy-XII, le premier pour le compte de l'Organisation Indienne de Recherche Spatiale (ISRO), le second pour celui du premier opérateur mondial (américain), PanAmSat. Le lanceur, une Ariane-5 Générique (Ariane-5 de base), qui avait décollé, du Centre Spatial Guyanais (CGS) à Kourou,le 9 avril à 19h52 heure de Kourou (22h52 GMT), a largué comme prévu son premier "passager", INSAT-3A, au terme de trente et une minutes de vol environ, puis, son second, Galaxy-XII, sept minutes plus tard. Initialement programmé pour mardi soir, ce vol avait été reporté, quelques heures avant le décollage prévu, pour permettre à l'un des deux clients, l'Organisation Indienne de Recherche Spatiale (ISRO/Indian Space Research Organisation), de vérifier des liaisons électriques entre le sol et son satellite. Après l'échec du premier tir de la version plus puissante du lanceur, Ariane-5 ECA, capable de placer sur orbite deux satellites géostationnaires d'une masse totale de dix tonnes, contre 5,9 pour l'Ariane-5 Générique, ce tir était attendu avec une certaine inquiétude. Si l'on peut être désormais rassuré sur la fiabilité de cette version du lanceur, de grosses incertitudes planent toutefois tant sur l'avenir de la famille Ariane-5 que sur Arianespace. Le 11 décembre, la première Ariane-5 ECA avait dû être détruite, à la suite à d'une défaillance de la tuyère du nouveau moteur Vulcain-II de son premier étage, qui lui avaient fait prendre une mauvaise trajectoire. Cet échec a conduit à une suspension de tous les vols d'Ariane-5, afin de procéder à une révision complète des "procédures de qualification" de l'ensemble de la famille de lanceurs. Le doute sur la fiabilité des Ariane-5 en général s'installait. Si les modifications des éléments responsables de l'échec d'Ariane-5 ECA sont en cours, ce modèle plus puissant devrait être prêt à voler de nouveau seulement l'an prochain, a confirmé jeudi le directeur général d'Arianespace, Jean-Yves Le Gall. Par ailleurs, à la demande de la clientèle, il devra réussir deux tirs d'essai avant d'être commercialisé. Dans un marché déprimé (une quinzaine de lancements commerciaux dans le monde en 2002, contre vingt-cinq en 2001), et alors qu'elle va devoir affronter la concurrence des nouvelles fusées américaines Delta-4 et Atlas-V, la société de gestion et de commercialisation des lanceurs européens ne dispose donc plus actuellement que d'Ariane-5 Générique. Or, son choix d'effectuer des lancements doubles, même si la taille des satellites a cessé de croître, lui impose de disposer rapidement d'une Ariane-5 ECA fiable. Pour le numéro un mondial du transport spatial commercial, ces problèmes viennent amplifier ses difficultés financières. Aussi, Arianespace, qui a connu 193 millions d'euros de pertes en 2001 et quelques 400 millions en 2002, réclame-t-elle à ses actionnaires (44 sociétés, dont EADS, l'ESA et le CNES), plus d'un milliard d'euros pour assurer la survie du "système Ariane" : 555 millions d'euros pour le retour d'Ariane-5 ECA, 200 millions par an pour le soutien à l'exploitation, 200 millions pour une augmentation de capital et 50 millions pour maintenir un certain temps en parallèle Ariane-5 Générique et Ariane-5 ECA. C'est notamment avec ce soutien à l'exploitation que la dernière version d'Ariane-5 pourrait être "viable économiquement" à partir de 2005, estime Arianespace. Cette année-là serait alors celle de la "renaissance". C'est de ces questions, donc de l'avenir d'Ariane et d'Arianespace, que les ministres européens de l'Espace débattront lors de leur conférence, prévue le 27 mai à Paris. Brève rédigée par @RT Flash Ariane Espace : http://www.arianespace.com/site/news/news_sub_missionupdate_index.html
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
juin 1991, l'éruption du mont Pinatubo, aux Philippines, a largué dans l'atmosphère terrestre des millions de tonnes de souffre. Ces aérosols ont fait le tour de la planète, réduisant la quantité de radiation solaire et faisant baisser les températures. Une baisse du taux de croissance du CO 2 atmosphérique a d'ailleurs été enregistrée au début des années 90. Selon Lianhong Gu et ses collègues, cette baisse s'expliquerait par une photosynthèse plus efficace des végétaux. L'impact des grandes éruptions volcaniques sur la concentration de CO 2 est généralement expliqué par le fait que la baisse des températures affecte la ''respiration'' terrestre. Moins de dioxyde de carbone serait émis. Selon le scénario de Gu et de ses collègues, publié dans la revue Science du 28 mars, il s'agirait plutôt d'une plus grande absorption de CO 2. La radiation diffuse créée par les aérosols volcaniques favoriserait en effet une meilleure photosynthèse. Pour tester leur hypothèse, les chercheurs ont étudié les échanges de CO 25 entre la forêt de Harvard (Massachusetts) et l'atmosphère. Coup de bol : une tour venait d'être installée au-dessus de la canopée lorsque le volcan philippin a explosé, les chercheurs ont donc commencé leurs mesures en 1992. Conclusions : au cours des deux années qui ont suivi l'éruption, la photosynthèse a été plus importante dans cette forêt. Les volcans rendraient donc les ''puits de carbone'' plus efficaces. Science&Avenir : http://permanent.sciencesetavenir.com/sci_20030331.OBS8860.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Pour la première fois, des chercheurs français démontrent que la rigidité artérielle est un facteur prédictif de la mortalité par accident vasculaire cérébral indépendamment de tout autre facteur prédictif. Ces résultats, issus du travail de l'équipe de Stéphane Laurent, directeur de l'équipe Inserm 107 « biomécanique et pharmacologie de la paroi artérielle », font l'objet d'une publication anticipée dans la revue Stroke. L'âge, l'environnement et les facteurs génétiques sont connus pour réduire l'élasticité de la paroi des artères. Jusqu'alors le rôle causal de la rigidité artérielle dans les décès par accidents vasculaires cérébraux (AVC) restait cependant controversé. Grâce à l'étude réalisée par l'équipe Inserm de Stéphane Laurent sur une cohorte de 1715 personnes hypertendues suivies depuis 1981, l'influence de la rigidité artérielle sur la survenue d'AVC est maintenant précisée. Suivis pendant plus de 8 ans, en moyenne, les patients présentaient, à leur entrée dans l'étude, une hypertension modérée mais aucun autre symptôme d'AVC, de maladie coronarienne ou de maladie cardiovasculaire. La rigidité artérielle est mesurée par calcul de la vitesse de propagation de l'onde de pouls (VOP), c'est-à-dire la vitesse de propagation, le long de l'aorte, de l'onde produite par l'ébranlement de l'aorte lors de l'éjection systolique. Il s'agit de mesurer le décalage de temps écoulé entre l'artère carotide et l'artère fémorale, grâce à des capteurs mécanographiques. Au cours de leur étude, les chercheurs de l'Inserm rapportent 157 décès, dont 25 par AVC et 35 à la suite d'un événement coronarien. Les chercheurs ont calculé le risque relatif de décès par AVC en fonction de la vitesse de propagation de l'onde de pouls. Leurs résultats montrent que ce risque est augmenté de 72 % à chaque variation de la vitesse de propagation de l'onde de pouls de 4 mètres par seconde. Les chercheurs précisent que la valeur prédictive de cette vitesse de propagation de l'onde de pouls est significative, indépendamment des facteurs de risques classiques de maladies cardiovasculaires, tels que l'âge, le taux de cholestérol, les antécédents de diabète, de tabagisme et la pression artérielle moyenne. Plusieurs mécanismes peuvent expliquer cette association. En particulier la perte d'élasticité des parois artérielles entraîne une élévation de la pression artérielle maximale (systolique), facteurs de remodelage et d'athérosclérose des artères carotides et des artérioles cérébrales. Enfin, l'insuffisance coronaire et l'insuffisance cardiaque, qui sont favorisées par une élévation de la rigidité artérielle, sont aussi des facteurs de risque d'accident vasculaire cérébral. Les chercheurs concluent à l'intérêt de la mesure de la rigidité artérielle via le calcul de la VOP dans la détection de patients hypertendus à haut risque d'AVC. L'équipe de Stéphane Laurent souhaite maintenant trouver les moyens d'améliorer cette rigidité des artères indépendamment de la baisse de la pression artérielle, susceptibles de s'appliquer aux patients non hypertendus. Après les publications de Stéphane Laurent et Pierre Boutouyrie parues en 2001 et 2002, qui avaient respectivement montré la valeur prédictive de la rigidité artérielle sur la mortalité générale puis sur la survenue de maladies coronariennes, ces derniers résultats viennent compléter la connaissance du rôle du critère « rigidité des parois artérielles » sur le risque cardiovasculaire. Reste maintenant à vérifier sur un large échantillon de patients que la prise en compte de la VOP permet, grâce à une stratégie thérapeutique adaptée aux résultats de sa mesure, d'améliorer le pronostic. La mesure de la VOP pourrait à terme remplacer, ou du moins renforcer, les scores de risque utilisés jusqu'à présent pour détecter les patients à haut risque d'AVC, scores basés sur les différents facteurs de risque cardiovasculaire (âge, taux de cholestérol, tabagisme, hypertension, etc.). Stroke : http://stroke.ahajournals.org/cgi/content/abstract/01.STR.0000065428.03209.64v1?...
|
|
|
|
|
|
|
|
Un vaccin utilisé pour traiter des infections pulmonaires virales chez le cochon pourrait se révéler utile pour développer un remède contre la pneumonie atypique (ou syndrome respiratoire aigu sévère, , selon des chercheurs américains. Le Dr Anthony Fauci, qui dirige l'Institut national des allergies et des maladies infectieuses près de Washington, a déclaré lundi devant le Congrès qu'il existait de nombreuses indications montrant que la maladie est causée par un nouveau coronavirus qui pourrait être passé de l'espèce animale à l'espèce humaine. Selon lui, le coronavirus associé au SRAS n'a jamais auparavant été identifié et il pourrait être aidé, dans son effet sur les humains, par un second agent pathogène, également inconnu pour l'instant. "Fortuitement, des vaccins contre des coronavirus vétérinaires communs sont régulièrement utilisés pour prévenir des maladies graves chez les jeunes animaux, notamment le cochon", et ces vaccins "pourraient se montrer utiles dans le développement de vaccins pour protéger les humains". La piste d'un nouveau coronavirus comme source de l'épidémie de pneumonie atypique se renforce, avaient annoncé la semaine dernière les services sanitaires américains, en révélant que des patients traités aux Etats-Unis avaient des anticorps pour lutter contre ce virus. La Recherche : http://www.larecherche.fr/afp/actu
|
|
|
|
|
|
|
|
L'inquiétude croit face à l'augmentation régulière des cas de pneumonie atypique qui approchaient mercredi les 3.000 et fait 104 morts dans le monde alors que les ravages de l'épidémie s'amplifient sur le plan économique et que des malades, ou supposés tels, sont parfois traités comme des pestiférés. Des pilotes indiens refusent de voler sur Hong Kong et à Singapour, les prêtres se méfient des fidèles et ont renoncé aux confessionaux. En Chine, le pays apparemment à l'origine de l'épidémie et le plus touché, l'Organisation mondiale de la santé (OMS) a appelé les autorités à faire toute la lumière après qu'un médecin de Pékin eut déclaré au magazine américain Time que le bilan réel était plus lourd que les chiffres officiels. Selon le ministère de la Santé, seules 19 personnes ont contracté un syndrome respiratoire aigu sévère (SRAS) dans la capitale, dont quatre sont mortes. D'après le Dr Jiang Yanyong, cité par Time, 60 malades atteints de SRAS ont été admis dans le seul hôpital militaire 309 de la ville, dont sept sont mortes. Les lieux publics de Pékin comme les gares ou l'aéroport vont être régulièrement désinfectés. Au total, 1.279 cas de SRAS ont été officiellement recensés en Chine, dont 53 mortels. Dans le monde, la maladie a fait 104 morts sur 2.894 cas. Le Canada, pays le plus affecté hors de l'Asie, a rapporté six nouveaux cas pour un total de 242. Mais aucun mort supplémentaire ne s'est ajouté aux 10 déjà enregistrés. Tous les décès se sont produits dans la région de Toronto et la plupart concernaient des personnes âgées. "Nous avons toujours des cas critiques et nous sommes très contents de voir les chiffresbaisser,mais il n'est pas question d'être complaisant à ce stade", a déclaré le commissaire à la Sécurité publique de l'Ontario, le Dr James Young. De même aux Etats-Unis, le bilan s'est alourdi de 33 cas à 148, mais personne n'y est décédé du mystérieux virus. En Amérique du sud, un troisième cas suspect de pneumonie atypique a été enregistré au Brésil chez un ressortissant chinois. L'émergence de nouveaux malades suggère que le virus, qui n'a toujours pas été identifié, a réussi à franchir les barrières placées un peu partout à sa propagation. Hong Kong, où il a déjà fait 25 morts et 928 malades, un nouveau foyer a été découvert mardi dans un ensemble d'habitation public proche d'une tour qui avait été fortement contaminée. Un député de l'ex colonie britannique, le Dr Lo Wing-lok, a craint une crise dans les unités de soins intensifs si le nombre des patients continuait de progresser. Alors que de nouvelles annulations de vols et de réservations d'hôtels étaient annoncées, on signalait aussi des cas de discrimination individuels. En Thailande, des dizaines de villageois affolés ont empêché la crémation dans un temple d'une victime du SRAS par peur d'être contaminés. Et un dentiste de Singapour a refusé de soigner une responsable d'un hôpital où sont traités des malades de la pneumonie atypique. Les prêtres catholiques de la ville ont par ailleurs renoncé aux confessions de crainte d'attraper la pneumonie. En Australie, la compagnie aérienne Qantas Airways a annoncé qu'elle allait procéder à 1.400 licenciements et suppressions de postes d'ici juin prochain, à cause du SRAS et de la guerre en Irak. En Inde, les pilotes d'Air India refusent de voler sur Hong Kong et l'affaire a été portée devant la justice. Aux Etats-Unis, les arrivées de Japonais à Hawaï ont chuté de 40 %. Air Canada a réduit ses vols à destination de Hong-Kong, Shanghai et Pékin. Selon des informations de presse de Hong Kong, des hôtels de luxe ont enregistré une baisse de 90% de la clientèle, alors qu'en Thaïlande des agents de voyage ont mis en garde contre la pire crise de l'industrie du tourisme qu'ait connue le pays. OMS : http://www.who.int/csr/sars/en/
|
|
|
|
|
|
|
|
Les hydrazines sont une famille de molécules aux membres particulièrement divers. Une partie des membres de la famille constitue des carburants pour l'Aérospatiale utilisés depuis près de vingt ans dans les lanceurs Ariane 3 et 4, aujourd'hui dans le cinquième étage d'Ariane 5. « L'hydrazine a comme qualité d'avoir un fort pouvoir énergétique, et de pouvoir être utilisée sans conditionnement particulier alors que l'oxygène et l'hydrogène doivent être utilisés sous forme liquide » explique Henri Delalu, directeur de recherche au CNRS. L'hydrazine est utilisée dans les moteurs de satellites pour circulariser les orbites ou pour certains moteurs de la navette Columbia. Depuis 1983, une unité de la Société nationale des poudres et explosifs (SNPE) produit à Toulouse 1 000 tonnes par an de diméthylhydrazine, ce qui a justifié 40 millions d'investissement permettant 40 emplois. La SNPE produit aussi à Toulouse 70 tonnes par an de monométhylhydrazine. Mais l'hydrazine est aussi utilisée comme précurseur dans la fabrication de médicaments, le viagra, des médicaments entrant dans le traitement de maladies cardiovasculaires, comme dans la fabrication de cosmétiques, de produits agrochimiques. Depuis 1976, une usine des laboratoires Servier, en Normandie, produit, grâce à l'hydrazine, un médicament très utilisé par les malades diabétiques non insulino-dépendants. Les hydrazines sont des molécules d'un grand intérêt technique, mais aussi économique et stratégique. Leur commercialisation est très contrôlée. Les enjeux justifient des recherches, au niveau de la pureté, de la qualité mais aussi de nouvelles molécules. C'est le sens de l'association entre les chercheurs de l'Université Claude-Bernard, du CNRS et de la SNPE. Les responsables des trois entités ont décidé d'aller plus loin qu'une simple coopération, en intégrant leurs moyens au sein du laboratoire inauguré dernièrement à la Doua. Cette intégration laboratoire-entreprise est exceptionnelle. Une douzaine de cas seulement sont recensés en France. L'intégration permet d'accroître et de stabiliser les moyens du laboratoire, via Ezus, filiale de valorisation de l'UCBL. « Cette association nous donne une visibilité pour quatre ans » estime Henri Delalu. L'implication de la SNPE à hauteur de 90 %, a permis de rénover le laboratoire. Et les perspectives sont prometteuses, puisque déjà une nouvelle molécule devrait sortir des éprouvettes dans les mois qui viennent. Progrés : http://www.leprogres.fr/Lundi/infosdujour/rhone/138244.html
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
A l'occasion du colloque, "Innover pour construire l'avenir, Madame Claudie Haigneré, Ministre déléguée à la Recherche et aux Nouvelles Technologies et Madame Nicole Fontaine, Ministre déléguée à l'Industrie ont précisé le 9 avril le contenu du plan gouvernemental pour l'innovation. Ce colloque a rassemblé près de 500 experts de l'innovation en entreprise et des établissements d'enseignement supérieur et de recherche. Il était le point d'orgue de la consultation nationale lancée le 11 décembre dernier, à l'issue de la communication de Madame FONTAINE en Conseil des ministres sur la politique en faveur de l'innovation. Cette consultation, menée dans toute la France à partir d'un questionnaire détaillé et d'un site Internet dédié, a permis de recueillir les réactions et les suggestions de plusieurs milliers de personnes - professionnels, chercheurs, chefs d'entreprises... - qui se sont exprimés directement ou indirectement à travers leurs associations représentatives. Les résultats de cette consultation, présentés lors du colloque, montrent une très forte adhésion aux propositions du gouvernement, qui sont perçues comme une avancée importante : les mesures recueillent en moyenne 80% d'opinions favorables. Au cours de ces quatre mois de consultation, les ministres ont également rencontré personnellement plus d'une centaine de chefs d'entreprises, d'experts de l'innovation, de responsables de recherche dans les entreprises, les organismes de recherche et les établissements d'enseignement supérieur. Sur cette base, le plan en faveur de l'innovation présenté le 11 décembre a été amélioré et précisé. Les sept axes qu'il comporte se présentent désormais ainsi : -* La Société Unipersonnelle d'Investissement Providentiel : les investisseurs qui apportent aux entreprises les moyens de se développer, d'innover et de mieux se gérer (les business angels) bénéficieront de ce statut juridique nouveau qui comportera d'importantes exonérations fiscales. Cette mesure profitera à toutes les jeunes entreprises -* Les jeunes PME innovantes de moins de 8 ans, qui mènent des projets de R&D, bénéficieront d'une exonération totale des charges patronales sur les personnels participant aux projets. Cette mesure a été notifiée à la Commission européenne conformément à l'encadrement communautaire des aides à la R&D. Parallèlement, ces mêmes entreprises bénéficieront d'une exonération d'impôt sur les sociétés et de taxes locales, plafonnée au seuil communautaire de minimis, c'est-à-dire 100.000 par entreprise sur 3 ans. Enfin, leurs actionnaires seront exonérés d'impôt sur les plus-values. es deux mesures (1 et 2), qui sont de nature législative, seront présentées au Parlement à l'automne et applicables dès le 1er janvier 2004 -* De nouvelles réductions d'impôt sont instaurées de façon pérenne en faveur de toutes les entreprises sur leurs investissements en R&D (taxe professionnelle, amortissement dégressif accéléré). Déjà mise en oeuvre en partie en 2003, cette mesure sera pérennisée à partir de 2004 -* La simplification des aides à l'innovation : l'ANVAR pourra exercer un rôle de coordination et d'animation en réseau des différents promoteurs locaux de l'innovation, parmi lesquels interviendront les Chambres de Commerce et d'Industrie pour diffuser l'information aux entreprises au plus près du terrain. Cette mesure sera mise en oeuvre à travers le nouveau contrat pluri-annuel entre l'Etat et l'ANVAR à compter de 2004 -* Des actions concrètes pour mieux valoriser la R&D dans les entreprises et les laboratoires : - instauration de stages en entreprises pour les doctorants, - augmentation du nombre des bourses CIFRE, - incitation aux programmes scientifiques public-privé, - incitation aux dépôts de brevets pour les chercheurs du secteur public, - meilleure reconnaissance de l'innovation dans les carrières des chercheurs du secteur public, - renouvellement du financement des incubateurs performants, après évaluation, - moyens financiers nouveaux en faveur de l'amorçage (30 M ) avec la Caisse des Dépôts et Consignations -* Favoriser la culture de l'innovation dès l'enseignement par une série d'actions visant à inciter les étudiants à s'orienter davantage vers les filières de recherche et d'innovation. Parallèlement, dans la voie tracée par la Commission de Bruxelles, la France va proposer à ses partenaires d'engager une dynamique européenne en faveur de l'innovation, notamment en vue de rénover l'encadrement des aides, afin d'atteindre collectivement l'objectif de dépenses de R&D à 3 % du PIB d'ici 2010 -* Soutenir la R&D industrielle stratégique : l'Etat doit affirmer son rôle de catalyseur des aides en faveur de projets ou de filières ciblées, afin de faire émerger des pôles d'excellence de R&D industrielle. Ces actions doivent être menées en liaison avec le programme Eurêka, le 6ème PCRD et les réseaux de recherche et d'innovation technologique (RRIT). Il faut souligner la nouvelle place confiée aux collectivités locales dans le dispositif. L'exonération des taxes locales pour les entreprises innovantes devra désormais faire l'objet de délibérations des collectivités territoriales concernées. En clair, il leur appartiendra de décider ou non cette exonération sur leur territoire. Par ailleurs, les professionnels se sont exprimés fortement en faveur d'une amplification du Crédit Impôt Recherche, dont le régime actuel s'achève fin 2003 et qui doit être renouvelé en 2004. Une étude d'impact sur ce dispositif est en cours en vue d'en améliorer l'efficacité. La nouvelle architecture du Crédit Impôt Recherche sera décidée dans le cadre des arbitrages budgétaires pour 2004. Madame Haigneré et Madame Fontaine ont déclaré : "La consultation nationale a permis de préciser et d'améliorer très significativement les mesures proposées en décembre. Ce plan est une première étape qui montre l'engagement fort et de long terme du gouvernement pour promouvoir l'innovation dans les entreprises. Il faut une mobilisation puissante de tous les acteurs concernés pour accroître notre effort d'innovation, au profit de la croissance et des emplois de demain." L'enjeu est crucial, selon Nicole Fontaine, ministre déléguée à l'Industrie, car «notre croissance dépend à 50% de notre capacité à innover». Et dans le domaine de la R&D (recherche et développement), la France est à la traîne par rapport à d'autres pays industrialisés. Nicole Fontaine a élaboré ce projet en collaboration avec son homologue de la Recherche et des Nouvelles technologies, Claudie Haigneré. L'objectif est d'atteindre un niveau de dépenses en R&D équivalent à 3 % du produit intérieur brut (PIB). Actuellement, il se situe autour de 2,2 % du PIB, alors qu'il est de 2,6 % aux États-Unis. Les textes pour appliquer ce plan de soutien sont «prêts sur l'essentiel», selon Nicole Fontaine. Ils devraient être présentés à l'automne 2003, «soit sous la forme d'un projet de loi spécifique, soit intégrés à la loi de finance pour 2004". Enfin, s'agissant des crédits de la recherche pour 2003, Claudie Haigneré a précisé que les établissements de recherche recevraient bien la totalité des crédits prévus par la loi de finance 2003. Au final, «ils disposeront en 2003 de crédits de paiement au moins égaux à ceux qui ont été réellement consommés en 2002», a-t-elle conclu. Brève rédigée par @RT Flash Plan pour l'innovation : http://www.recherche.gouv.fr/plan-innovation/planinnov9avril.pdf
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|