|
|
Edito
En 2050 l'Europe sera t-elle encore une puissance économique ?
Il y a quelques semaines ont été publiés en ligne deux rapports, sans relations directes apparentes, mais qui éclairent, sous deux angles différents, les menaces et les défis sans précédent dans son histoire auxquels va devoir faire face notre continent européen au cours de ce siècle. Le premier de ces rapports a été publié par la Société Générale. Il s'agit d'une une étude sur l'avenir de la démographie mondiale et ses répercussions économiques qui va à l'encontre de bien des idées reçues et mérite d'être analysée et commentée. Selon cette étude, la forte croissance démographique dans le monde et particulièrement en Asie au cours des prochaines décennies devrait entraîner un déplacement considérable des richesses des pays développés vers les pays émergents et un appauvrissement de l'Europe. La Terre devrait compter 9 milliards d'individus d'ici 2050 contre 6 aujourd'hui, soit une croissance de 50 %, tirée par l'Asie et l'Afrique, tandis que la population des pays développés devrait plafonner à 1,26 milliard de personnes dès 2030, a indiqué Véronique Riches-Flores, chef économiste Europe de la Société Générale. En 2050, les plus de 60 ans seront 2 milliards et la proportion des inactifs par rapport aux actifs devrait passer de 11 % aujourd'hui à plus de 25 % en 2050 dans le monde, d'après l'étude. "Ce choc démographique va induire un déplacement des richesses spectaculaire", a commenté Véronique Riches-Flores lors d'une conférence de presse. En premier lieu, le taux de dépendance, c'est-à-dire la proportion de seniors inactifs par rapport à la population d'âge actif (14-64 ans), restée quasiment inchangée au cours du demi siècle passé (durant lequel la population a gagné 150 % contre 50 % d'ici 2050), va doubler, passant de 11 % aujourd'hui à 25 % en 2050. Au niveau mondial, la baisse du nombre d'actifs équivaudrait à une perte en termes de PIB par tête de 6,6 % au cours de la période 2005-2050, soit de 0,15 % par an, selon cette étude. Les pays émergents les plus dynamiques ne sont pas épargnés par ce vieillissement et la baisse de la population active. L'économiste précise que les économies en développement sont toutefois mieux parées que les autres pour affronter cette évolution grâce au potentiel de gains de productivité. Avec le taux de fécondité le plus faible du monde, l'Europe devrait être la plus touchée, avec un manque à gagner estimé à 18 %, soit 0,35 % par an, suivie par l'Amérique du Nord (9,3 % soit 0,2 % par an). Tous les pays d'Europe occidentale se verraient menacés d'un appauvrissement, avec une baisse du revenu par tête allant de 9 à 23 % selon les cas. Résultat : une forte redistribution du PIB mondial. Le poids de l'Asie gagnerait 8 points dans le PIB mondial, celui des Etats-Unis 4 points, celui de l'Afrique un point. Grand perdant de ces bouleversements, l'Europe, dont le poids se trouverait réduit de plus de 12 points. Autre phénomène attendu, l'épargne reculerait avec le vieillissement de la population dans les pays développés (il n'y a qu'en France que l'épargne concerne avant tout les personnes âgées), alors que les pays en développement continueraient de remplir leur bas de laine. Enfin, conséquence du vieillissement et d'une insuffisante maîtrise des dépenses publiques, le ratio dette/PIB pourrait être multiplié par cinq dans l'Union européenne des 25 d'ici deux décennies à peine. En se fondant sur la théorie du cycle de vie, qui suggère qu'un individu épargne pendant sa vie active puis consomme son épargne lors de sa retraite, cette étude prévoit en effet une "désépargne" marquée dans les pays industrialisés entre 2015 et 2030. A l'inverse, dans les pays en développement, la tendance à épargner devrait se développer, d'où un déplacement massif des sources d'actifs à attendre à travers la planète. A l'opposé de notre Europe vieillissante et en déclin démographique, les Etats-Unis bénéficient d'une immigration élevée (1 à 1,2 % de la population active depuis le début des années 1980) et d'une stabilisation de sa fécondité qui permettra de faire croître la population active en âge de travailler, c'est-à-dire entre 15 et 64 ans, à peu près au même rythme que les plus âgés. De son côté, la France, championne européenne de la natalité, et la Suède, également sauvée par sa natalité et sa politique d'immigration, permettront de stabiliser la population en âge de travailler, bien qu'elle décline proportionnellement aux personnes âgées. En revanche, ce sont le Japon et l'Allemagne qui présentent les profils les plus inquiétants. Selon cette étude, seule une série de mesures combinant une importante hausse de la productivité, un allongement de la durée du travail, une participation accrue de toutes les tranches de la société, une réforme des systèmes de retraite et une immigration très élargie pourrait contrebalancer le coût du vieillissement de la population. A cet égard, l'étude souligne que la politique volontariste d'immigration des Etats-Unis a été d'une grande pertinence (la population américaine est passée en un siècle de 100 à 300 millions) et va permettre à la population active américaine, à l'opposé de la population active européenne, de continuer à croître d'ici à 2050. A cette date, les USA pèseront encore 31 % du PIB mondial, contre seulement 20 % pour l'Europe, 18 % pour la Chine, 8 % pour l'Inde et 5 % pour le Japon. Cette évolution démographique inéluctable éclaire d'une lumière nouvelle le débat sur l'immigration qu'il va falloir aborder d'une manière globale et pragmatique, en se dégageant des discours idéologiques simplistes. Il faut en effet admettre qu'en l'Europe, il est trop tard pour se lancer dans une politique d'immigration comparable à celle que mènent les Etats-Unis depuis 25 ans, car les pays de l'Europe de l'Est aussi se trouvent concernés par le vieillissement et il n'y a donc plus de "réservoir" de main d'oeuvre possible. Rien qu'en France, pour stabiliser le taux de dépendance, c'est-à-dire le nombre de seniors rapporté aux actifs, il nous faudrait accueillir 32 millions d'immigrés d'ici à 2050, ce qui n'est évidemment pas possible. En outre, l'étude de la Société Générale rappelle qu'en 2040, les quatre pays qu'on appelle désormais les BRIC (Brésil, Russie, Inde et Chine) cumuleront, à eux seuls, 45 % de seniors de la planète. Ils auront donc besoin, eux aussi de bras pour faire tourner leurs économies. Selon les termes implacables de cette équation démographique, l'Afrique restera donc, à l'horizon 2040, le seul continent susceptible de générer une émigration massive. L'autre rapport, non moins alarmant et riche d'enseignement, a été publié par l'ONG Christian Aid et s'intitule "Marée humaine : la véritable crise migratoire » (Voir notre article dans la rubrique « Climat&Environnement). Dans cette étude, l'organisation affirme que les pays développés, principaux responsables de la pollution à l'origine du réchauffement climatique, doivent prendre en charge l'aide aux populations les plus touchées. "Nous pensons que les migrations forcées sont la menace la plus grave qui se pose pour les populations pauvres des pays en développement", estime John Davison, un des principaux auteurs de ce rapport. S'appuyant de manière rigoureuse sur les derniers travaux du GIEC, qui estime qu'en 2080, 3,2 milliards de personnes, soit un tiers de la population mondiale, manqueront d'eau et que 600 millions manqueront de nourriture, ce rapport prévoit qu'en l'absence de " mesures préventives fortes", le réchauffement climatique portera à un milliard, en 2050, le nombre de réfugiés. Selon cette étude, ces flux migratoires envenimeront certains conflits et en créeront de nouveaux dans les pays en développement. Ces "réfugiés climatiques chercheront évidemment à tout prix à quitter leurs pays d'origine pour se rendre dans les pays développés et notamment en Europe, ce qui provoquera des tensions économiques et politiques très fortes. Cette double évolution démographique et migratoire mondiale, provoquée à la fois par le vieillissement accéléré de nos sociétés développées et le réchauffement climatique, va évidemment avoir des conséquences socio-économiques et géopolitiques majeures et il va falloir qu'en une génération, nos responsables politiques sachent penser l'avenir à long terme et ouvrent un grand débat démocratique sur les nouveaux modèles d'immigration mais aussi de coopération et de co-développement avec le Sud, qui peuvent le mieux servir les intérêts de notre pays, si nous voulons, d'une part, que notre pays et l'Europe conservent leur niveau de vie et demeurent des puissances économiques de niveau mondial au milieu de ce siècle et, d'autre part et de manière indissociable, que les pays pauvres ou en voie de développement puissent, avec notre aide, lutter efficacement contre le réchauffement climatique et s'engagent dans un développement économique durable et soucieux de l'environnement. Face à de tels périls et à ces grandes évolutions économiques, démographiques et climatiques planétaires, il va falloir remettre à plat tous nos modèles, dogmes et schémas d'analyse et de pensée en matière d'immigration, de développement économique et de coopération avec les pays les plus démunis et comprendre que notre avenir, notre destin commun est lié et que nous avons intérêt à prévoir, gérer et organiser, au niveau mondial comme au niveau européen et national, ces flux migratoires massifs et durables qui seront inévitables, à l'horizon 2050. Cette évolution des esprits sera sans doute très difficile c'est pourquoi nous devons dès à présent commencer à construire ensemble, en dehors de toutes références idéologiques du passé, un nouveau cadre et de nouveaux modèles qui permettent de penser, d'anticiper et de maîtriser, autant que faire se peut, cette évolution planétaire irrésistible qui ouvre un nouveau chapitre dans l'histoire tourmentée de l'humanité. René Trégouët Sénateur honoraire du Rhône Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
L'université de Tokyo a établi deux nouveaux records de débit dans une communication point à point sur le réseau expérimental Internet 2, sur une distance totale parcourue de 30 000 km. Le parcours utilise six réseaux internationaux. Le premier record concerne un débit de 7,67 Gbit/s, soit, en fonction de la distance considérée, 230 100 Terabit mètres par seconde (Tb-m/s) et a été obtenu à l'aide du protocole IPv6. Le deuxième record, établi le lendemain sur le même réseau, mais avec une version modifiée du protocole IPv6, est de 9,08 Gbit/s, soit 272 400 Tb-m/s. Les précédents records étaient basés sur le protocole IPv4. C'est aussi une des premières fois que l'expérience montre que IPv6 est aussi rapide que IPv4. Le chef de l'équipe a annoncé que ceci représentait probablement le dernier record de l'ère des réseaux à 10 Gb/s, car un peu plus de 98 % de la limite de capacité du réseau ont été utilisés. STM
|
|
|
|
|
|
|
|
Google vient de signer un premier accord avec une bibliothèque francophone : l'Université de Lausanne va proposer 100.000 ouvrages numérisés sur la plate-forme de recherche, dont notamment des oeuvres d'auteurs reconnus de la littérature classique tels que Victor Hugo et Honoré de Balzac. «Ces oeuvres magnifiques seront bientôt accessibles aux internautes du monde entier (...) De l'Australie aux Antilles, du Mali au Vietnam, amateurs de livres et chercheurs pourront compulser ces livres en ligne», indique Google. La bibliothèque de Lausanne possède également des livres en anglais, allemand, latin, romanche, italien, japonais et espagnol. Google et l'Université de Lausanne vont numériser ensemble les ouvrages qui pourront être feuilletés en ligne ou téléchargés dans leur intégralité. Il s'agira d'oeuvres libres de droit précise bien Google. «Les livres seront accessibles gratuitement», affirme Hubert Villard, directeur de la BCU. «Si par hasard, ultérieurement, Google décidait de rendre l'accès payant, nous avons par contrat le droit de mettre nos livres numérisés sur notre site, lequel sera gratuit et entrera en fonction au plus tard en septembre 2008. Nous les mettrons de toute façon sur notre site.» Les ouvrages choisis par la BCU seront numérisés en Angleterre par les soins et aux frais de Google. Selon le Service vaudois des affaires culturelles, le coût de l'opération, si elle avait été menée par la BCU elle-même, aurait été de l'ordre de 10 millions de francs, soit une centaine de francs par volume, en moyenne. Le Conseil d'Etat vaudois a approuvé le partenariat liant la bibliothèque et Google. Au total, le moteur de recherche a conclu treize partenariats avec des bibliothèques et universités, dont cinq en Europe et le reste aux États-Unis avec notamment l'université de Harvard et la Bibliothèque publique de New York. TSR
|
|
|
|
|
|
|
|
Le moteur de recherche sur internet Google a dévoilé une nouvelle version de sa plate-forme, qui permet désormais d'intégrer sur la même page de résultats d'une recherche des sources textes, photos, cartographies, vidéos... Baptisée "Universal Search", la nouvelle version est accessible sur le site américain du moteur de recherche le plus utilisé au monde, www.google.com. La page d'accueil est plus épurée et les traditionnelles catégories "web", "images", "vidéos"... sont toujours existantes mais ont été transférées dans le coin supérieur gauche de la page. Via la fenêtre de recherche, l'usager débouche sur une page de résultats réunissant différentes catégories de documents. Le concept de Universal Search signifie que les recherches standard effectuées sur Google produiront des résultats en provenance de plusieurs des propriétés du moteur de recherche, couvrant livres, informations locales, images, nouvelles et contenu vidéo», dit Marissa Mayer, vice-présidente aux produits de recherche chez Google. «Cette initiative fera en quelque sorte disparaître les «silos» d'information qui furent érigés à mesure de l'introduction de nouveaux produits de Google. Il s'agit d'une vision vaste et à long terme que nous déploierons au cours des prochaines années», précise Mme Mayer. Le service de recherche puisera à même tout site indexé par les services de Google. Du côté de la vidéo, par exemple, cela comprendra YouTube, Google Video et des sites indépendants tels Metacafe.com. Mme Mayer n'a pas abordé directement la question de la stratégie publicitaire, mais elle a indiqué que le nouveau service pourrait paver la voie à un nombre croissant d'annonces «pertinentes» sur les pages de résultats de recherche, un créneau qui a constitué environ la moitié des revenus globaux de 10,6 milliards de dollars récoltés par Google l'année dernière. La société introduira aussi de nouvelles fonctions de navigation dans le haut de toutes ses pages, pour permettre aux internautes de passer rapidement d'une propriété à l'autre dans le royaume Google. Par exemple, les utilisateurs du service de courriel Gmail de Google peuvent ainsi passer instantanément - au choix - aux fonctions de recherche, de calendrier, de documents et autres services. La compagnie prépare également un service de traduction qui convertit les requêtes de recherche effectuées en d'autres langues, permettant ainsi à l'internaute de passer au peigne fin une plus vaste étendue sur Internet. La technologie traduira vers l'anglais les requêtes rédigées en une douzaine de langues variées pour obtenir des résultats supplémentaires, puis les traduira automatiquement de nouveau dans la langue de la requête originale. Cela permettra aux utilisateurs de toute langue supportée par le service d'agrandir leur champ de recherche d'informations sur le Web. Canoe
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Sachiko Ebahi n'en revient pas. Quand Sony lui a livré son serviteur SDR-7X, la vieille dame a d'abord esquissé la jonction des mains puis s'est retenue face à ce robot expressif qui déjà baissait la tête devant elle. Il est vrai que du haut de ses 120 cm, l'androïde que Sachiko (littéralement « Grand bonheur ») allait bientôt prénommer Ryo (« L'Excellent ») lui donnait l'impression d'un enfant. Mais Sachiko, 109 ans, encore très alerte, s'est très vite rendue compte que Ryo avait tout du travailleur discipliné, dévoué, robuste et... gentil. En 2012 au Japon, l'industrie du robot émotionnel dit d'assistance a parfaitement tenu les promesses annoncées dès 1999 : le petit chien Aibo de Sony qui remuait la queue, se levait, se couchait, coûtait à l'époque 2 500 $ (1 800 ?). Aujourd'hui, les robots émotionnels Sony (dont un drone étonnant, mélange de chat et de belette inspiré d'un manga) se laissent adopter pour quelque 300 ou 500 ?, ou se louent pour 5 à 10 ? par jour. Moyennant un prix d'achat de 10 000 ? (sur lesquels l'État prend 25 % à sa charge), Ryo va assurer les courses de sa « maîtresse », veiller à sa sécurité, répondre au téléphone, lui lire des romans, tondre le carré de pelouse et assurer chaque semaine les analyses biologiques de sa « patronne ». Les 22 000 centenaires - à 85 % des dames - que compte l'Archipel nippon constituent bien le marché qu'avait anticipé l'Exposition universelle d'Aichi il y 7 ans, en 2005, dans le droit fil du plan Humanoid Robot Project. Au pays de l'animisme et du shintoisme, un robot, comme un arbre ou même un rocher, participent de la même nature dans laquelle l'homme trouve sa place. D'où la suprématie des Sony, Toyota et Honda, (dont l'Asimo coûtait 300 000 ? en 2004), autant de firmes auxquelles les androïdes et autres « animoïdes » rapportent des milliards d'euros. Mais aux États-Unis - où les « robots killers » sévissent au nom de la Bible encore régulièrement - ou au coeur de la vieille Europe, le robot androïde ou animaliforme crée encore un « mélange de fascination et de trouble », selon le mot de Fred Kaplan, spécialiste de l'intelligence artificielle. En 2010, la Japan Robot Association estimait le marché de la « robot technology » à 23 milliards d'euros, et confirmait sa projection à près de 70 milliards en 2025. Quant à l'intelligence apparente de nos amis électronico-métalliques, « même si certains accomplissent une tâche spécifique 1 000 fois mieux qu'un humain », constate Daniel Ichbiah, journaliste et écrivain spécialiste des robots, ils ne sont pas prêts de s'éveiller à la conscience... « Des robots ressemblant en tout point à l'homme ne seront pas réalisables économiquement avant 20 ou 30 ans ». EM
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La capacité totale de production d'énergie éolienne devrait plus que doubler d'ici 2010 pour atteindre 149,5 gigawatts (GW), selon un rapport publié par le Conseil mondial de l'énergie éolienne. Rien qu'au cours de l'année 2006, la capacité globale de production installée a été portée à plus de 74 GW, soit une croissance de 25 %, indique le Conseil, qui représente les industries du secteur et leurs instances représentatives. L'Europe reste à ce jour largement en tête et le sera toujours à la fin de la décennie, mais dans une moindre mesure, selon les projections : en 2006, elle représentait 51% du marché annuel de l'éolien contre 72 % en 2004 et sa part devrait être réduite à 44 % en 2010 avec une capacité totale de production de 82 GW (contre 48 GW actuellement). Sur cette même période 2006-2010, c'est l'Asie - Inde et Chine - qui devrait connaître le plus fort taux de croissance annuelle de ce secteur (28,3 %) pour atteindre 29 GW de capacité installée (contre 10,7 GW en 2006), juste derrière l'Amérique du nord, deuxième marché régional derrière l'Europe, dont les capacités de production devraient croître de 24,6 % par an en moyenne jusqu'à 31,6 GW en 2010 (contre 10,7 GW en 2006). L'Afrique, note le rapport, reste le continent le plus mal équipé malgré l'émergence de deux leaders, l'Egypte et le Maroc. Le continent pourrait atteindre, avec les quelques développements attendus dans d'autres pays africains et du Moyen-orient, 900 mégawatts au total d'ici 2010. GWEC
|
|
|
|
|
|
|
|
Le géant du pétrole BP et le spécialiste minier Rio Tinto ont annoncé la formation d'une joint-venture pour développer de l'énergie électrique basse tension à partir d'hydrogène. Cette électricité basse tension est obtenue en convertissant des combustibles fossiles en hydrogène, puis en capturant et stockant le sous-produit, le dioxyde de carbone. Cette annonce arrive alors que les sociétés d'énergie mondiales essayent de profiter de nouvelles technologies qui minimisent l'impact sur l'atmosphère des combustibles fossiles. BP et Rio Tinto anticipent un durcissement attendu des règles limitant l'émission de gaz à effet de serre. La nouvelle société, Hydrogen Energy, aspire à capturer 90 % du dioxyde de carbone sorti du processus de conversion, et stocker ensuite le CO2 de manière permanente dans des formations géologiques "profondément au-dessous de la surface de la Terre," ont-ils déclaré. Rio Tinto fera un paiement au comptant à BP de 32 millions de dollars comme convenu. Il faut savoir que l'hydrogène a le contenu d'énergie unitaire le plus important de tous les carburants, soit environ trois fois l'énergie d'une livre d'essence par exemple. Et il y en a beaucoup tout autour de nous. Mais il doit d'abord être extrait de ses éléments naturellement, comme l'oxygène ou le carbone. Le processus de capture et de stockage du gaz carbonique fonctionnent dans une poignée d'usines pour le moment, mais il est en développement. BP, avec le producteur Scottish and Southern Energy, a développé un projet de production d'énergie hydrogène, à Peterhead en Ecosse, d'une capacité d'environ 475 mégawatts. La société étudie aussi un projet de développer de l'énergie à partir d'hydrogène à Carson en Californie, près de Los Angeles. Figaro
|
|
|
|
|
|
|
|
En Allemagne, le solaire thermique et photovoltaïque bénéficie du soutien de l'Etat, tout comme les autres formes d'énergies renouvelables, dans le cadre d'un programme fédéral intitulé "Marktanreizprogramm zur Förderung erneuerbarer Energien" (programme de stimulation du marché pour le soutien aux énergies renouvelables). Une directive, entrée en vigueur en janvier 2007, fixe les nouveaux détails de ce programme. Les particuliers allemands qui souhaitent investir dans l'installation de panneaux photovoltaïques ou de collecteurs solaires thermiques disposent, pour leur projet, de deux principaux mécanismes de soutien : des subventions émanant de l'"office fédéral de l'Economie et du contrôle des exportations" (Bafa) ainsi que des prêts à taux préférentiels proposés par la banque publique KfW. Le montant de l'aide financière dépend de l'utilisation qui est faite de la technologie propre. Le solaire thermique par exemple bénéficie de 40 euros de subvention par m2 de collecteurs montés sur la toiture si le système est exclusivement conçu pour produire de l'eau chaude sanitaire. Dans ce cas, environ 6m2 de collecteurs sont nécessaires. Si le système assure également le chauffage du logement, l'aide est alors relevée à 70 euros par m2. Et dans ce cas, environ 8m2 sont exigés. Dans les deux cas, ce soutien financier est valable dans la limite de 40m2 de surface de collecteurs installés. Le montant de la subvention d'une part et les coûts d'installation d'autre part s'élèvent alors respectivement à 2.400 euros et 4.000 euros pour un système solaire de chauffage de l'eau sanitaire de 6m2, et à 4200 euros et 7000 euros pour un système de chauffage complet (8m2). En 2007, le Bafa accordera 175 millions d'euros de soutien au solaire thermique et aux systèmes fonctionnant à partir de biomasse. Dans le cadre du programme "Wohnraum modernisieren - Oko Plus" (modernisation de l'habitat - Eco Plus), la banque publique kfW propose par ailleurs aux particuliers des prêts pouvant aller jusqu'à 50.000 euros pour l'installation de collecteurs solaires, avec par exemple, un taux préférentiel sur 10 ans à 2,88 % (sans remboursement les deux premières années et avec obligation d'intérêts pendant 5 ans). Un crédit comparable existe aussi pour le photovoltaïque, avec un taux d'intérêt de 4,98 %. Quant aux subventions accordées au propriétaire d'une habitation équipée de panneaux photovoltaïques, elles prennent la forme d'un tarif d'achat préférentiel de l'électricité produite pouvant varier, en 2007, entre 37,97 centimes d'euro par kWh et 49,21 centimes d'euro par kWh (en fonction des dimensions et du lieu d'implantation du système). Une maison individuelle nécessite une surface photovolaïque de 8 et 9m2 qui coûte, pose comprise, entre 4.500 euros et 5.500 euros. Le marché allemand domine très largement le secteur du photovoltaïque européen. Sur les 1245,7MWc de puissance photovoltaïque supplémentaire installés en 2006 en Europe, la contribution de l'Allemagne s'élève à 1153MWc, soit 92 % du marché. Grâce à l'Allemagne, les objectifs du Livre blanc de la Commission européenne devraient être atteints avec quatre ans d'avance. Mais l'Allemagne ne s'endort pas sur ses lauriers et prépare déjà activement l'avenir. Dans 15 ans, l'Allemagne pourrait en effet importer 15 % de son électricité à partir d'énergie solaire thermique produite dans le désert d'Afrique du Nord (Voir mon éditorial du 6-04-2007 " L'Allemagne mise sur l'énergie solaire"). Par ailleurs, des sociétés sud-coréenne et allemande ont annoncé le 9 mai leur alliance en vue de la construction, en Corée du Sud, d'une centrale photovoltaïque appelée à devenir la plus grande au monde. Dongyang Engineering and Construction Corp a indiqué qu'elle allait coopérer avec l'allemand SunTechnics en vue de la construction de la centrale d'ici novembre 2008 (à environ 400 kilomètres au sud-ouest de Séoul) pour un investissement de 169 millions de dollars. L'installation, d'une superficie de 600.000m2 (soit 80 terrains de football), aura une capacité de production de 20MW. Elle devrait fournir 27GWh par an, soit l'équivalent de la consommation électrique de plus de 6.000 foyers, et permettre ainsi d'éviter, sur 15 ans, l'émission de 300.000 tonnes de CO2. BE BE
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Une équipe d'astronomes a découvert pour la première fois un anneau de matière noire dans un amas galactique. Il s'agit de la première preuve tangible de l'existence de cette substance mystérieuse qui représente un quart de la masse de l'univers. En août 2006, des astronomes américains avaient indiqué avoir détecté la présence de matière sombre en observant la collision de deux amas galactiques. A ce jour, personne ne sait de quoi est constituée cette matière qui n'interagit ni avec la lumière, ni avec la matière « normale ». Sa présence éventuelle n'est ainsi révélée que par les perturbations gravitationnelles que sa masse exerce sur les galaxies environnantes. "Bien qu'invisible, cette matière sombre avait été trouvée auparavant ailleurs dans l'univers mais jamais de façon aussi largement distincte du reste des gaz chauds et des galaxies formant les amas galactiques" explique James Jee de l'université Johns Hopkins à Baltimore (Etats-Unis), un des scientifiques à l'origine de la découverte. L'anneau de matière noire, observé avec le téléscope statial Hubble, mesure 2,6 millions d'années-lumière de diamètre et se situe dans l'amas galactique ZwC10024+1652, à cinq milliards d'années-lumière de la Terre. La distance parcourue par la lumière en une année est d'environ 9.500 milliards de kilomètres et notre galaxie a un diamètre de 50 000 années lumière. L'équipe d'astrophysiciens pense que cet anneau s'est formé à la suite de la collision de deux amas de galaxies, il y a 2,6 milliards d'années entre deux structures contenant des centaines de milliards de soleils. "Ce choc a créé une ondulation dans la matière sombre qui laisse une marque très distincte autour du groupe de galaxies", note Jee. "C'est comme si on regardait des galets au fond d'une mare avec l'ondulation à la surface provoquée par leur impact au contact de l'eau". Les chercheurs pensent que cette découverte va enfin permettre de mieux comprendre les propriétés physiques de la matière noire. Avec cette collision « la nature se livre à une expérimentation que nous ne pouvons pas faire en laboratoire et qui confirme nos modèles théoriques » relèvent-ils, en l'étudiant « nous voyons comment la matière sombre réagit à la gravité ». Hubblesite
|
|
|
|
|
|
|
|
Des astronomes de l'Université de Genève ont découvert qu'une planète tournant autour d'une petite étoile située à trente années-lumière de la Terre pourrait être composée de "glace chaude". Cette exoplanète, connue des scientifiques depuis trois ans, fait 22 fois la masse de notre planète et orbite autour d'une "naine rouge" baptisée GJ436, souligne l'Université de Genève qui précise que cette découverte est d'autant plus remarquable qu'elle a été réalisée à l'aide d'un simple télescope amateur de 60 centimètres, implanté près du mont Cervin. La planète, l'une des quelque 220 connues à ce jour pour exister en dehors du système solaire, avait été découverte par la méthode dite des "vitesses radiales", qui donne incidemment de bonnes indications sur sa masse. Depuis l'observatoire OFXB de Saint-Luc (Valais), les astronomes suisses ont cette fois-ci surpris la planète lorsqu'elle transitait entre son astre et la Terre. La mesure de l'infime atténuation de la luminosité de l'astre par son satellite leur a permis de déterminer la taille de la planète. En croisant les deux mesures - masse et taille de l'exoplanète - les astronomes ont pu en déduire sa densité. Et, surprise, cette densité ne correspondait ni à celle d'une planète rocheuse, comme la Terre, ni à celle d'une planète gazeuse. Cette planète devrait en fait être composée d'eau. Selon les chercheurs suisses, la proximité entre la planète et son étoile, ainsi que le vraisemblable effet de serre qu'elle subit, permettent d'évaluer la température à sa surface à plus de 300 degrés centigrades. Si l'eau de son atmosphère se trouve donc à l'état de vapeur, celle à l'intérieur de la planète devrait exister sous forme de glace chaude, un état de l'eau inconnu sur la Terre, mais déjà reproduit en laboratoire. "A très haute pression, la glace se transforme d'abord en eau liquide, puis en solide plus dense que l'eau et la glace, de la même manière que le carbone - sous forme de graphite - se transforme en diamant sous la pression", explique Frédéric Pont, spécialiste des transits à l'Université de Genève . "Si nos océans étaient beaucoup plus profonds, ces formes exotiques de glace se formeraient sur leur fond", ajoute M. Pont, cité dans le texte. Les astronomes suisses vont maintenant tenter d'analyser l'atmosphère de la planète, par analyse spectrographique de la lumière de l'étoile, avant et pendant son occultation par son satellite. Par soustraction, ils devraient pouvoir déduire les éléments constituant l'atmosphère de l'exoplanète. Ces mesures sont impossibles depuis le sol - l'atmosphère terrestre contenant de la vapeur d'eau - et devront être effectuées par les télescopes spatiaux Hubble et Spitzer. "Mais c'est une expérience très difficile à mener, du fait de la faible taille de la planète", souligne M. Pont. UG
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le réchauffement de la planète créera au moins un milliard de réfugiés de par le monde en 2050 en raison des pénuries d'eau et de nourriture, ce qui risque de provoquer des guerres pour le contrôle des ressources, estime l'ONG Christian Aid dans un rapport. Dans ce document intitulé "Marée humaine : la véritable crise migratoire", l'organisation affirme que les pays développés, principaux responsables de la pollution à l'origine du réchauffement climatique, doivent prendre en charge l'aide aux populations les plus touchées. "Nous pensons que les migrations forcées sont la menace la plus grave qui se pose pour les populations pauvres des pays en développement", estime John Davison, un des principaux auteurs de ce rapport. Les scientifiques pensent que l'augmentation des émissions de gaz à effet de serre entraînera au cours du siècle une hausse de 1,8 à 3,0 degrés. Ce changement climatique provoquera des inondations et des famines catastrophiques pour des millions de personnes. Le Groupe intergouvernemental d'experts sur l'évolution du climat (Giec) estime qu'en 2080, 3,2 milliards de personnes, soit un tiers de la population mondiale, manqueront d'eau et que 600 millions manqueront de nourriture. "Si aucune mesure préventive forte n'est décidée, nous estimons que d'ici 2050, le réchauffement climatique aura porté à un milliard le nombre de réfugiés", peut-on lire dans le rapport de Christian Aid. A l'en croire, les experts jugent que ces flux migratoires envenimeront certains conflits et en créeront de nouveaux dans les pays en développement. "Le scénario catastrophe possible est que nous vivrons dans un monde où il y aura beaucoup plus de Darfour", poursuit le rapport, en évoquant le conflit de l'ouest du Soudan qui a fait 200.000 morts et deux millions de déplacés. Un grand nombre de ces réfugiés climatiques franchiront des frontières, ce qui créera des tensions internationales. Mais beaucoup d'autres seront déplacés à l'intérieur d'Etats, ce qui les privera des droits que confère internationalement le statut de réfugié, ce qui les privera également de visibilité. CA
|
|
|
|
|
|
|
|
Les océans absorbent des excédents de dioxyde de carbone dans l'atmosphère depuis des siècles, mais l'un d'entre eux au moins pourrait être en train de perdre cette faculté, selon une nouvelle étude germano-britannique publiée dans la revue "Science". L'accumulation de dioxyde de carbone (CO2) dans l'atmosphère depuis le début de la révolution industrielle est considérée comme une cause du réchauffement de la planète. On estime que les océans absorbent environ un quart des émissions de carbone liées aux activités humaines. Mais les chercheurs affirment qu'au moins un grand océan, l'océan Austral, autour de l'Antarctique, semble perdre cette capacité. La nouvelle étude menée pendant quatre ans conclut qu'une augmentation des vents au-dessus de l'océan Austral l'empêche d'absorber plus de carbone et le conduit même à libérer une partie du CO2 qu'il avait déjà stocké. "C'est grave. Tous les modèles climatiques prédisent que ce genre de réaction va continuer et s'intensifier au cours du siècle", souligne dans un communiqué la principale auteure de l'étude, Corinne Le Quere, de l'université d'East Anglia. Des chercheurs de L'Etude antarctique britannique et de l'Institut de Biogéochimie à Jena (Allemagne), ont également participé à l'étude. SD
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Passer des images planes, statiques et monochromes d'un examen IRM actuel à une visualisation mouvante en trois dimensions, c'est le défi qu'est en train de relever MIRALab avec 3D Anatomical Human. Fort de sa réputation en matière d'images de synthèse, le Laboratoire de réalité virtuelle de l'UNIGE vient en effet de décrocher la direction et la coordination de ce projet de recherche mené en collaboration avec huit universités partenaires européennes. 3D Anatomical Human est axé sur la mise au point d'un logiciel de restitution de formes extraordinairement précis. Son développement une fois abouti, ce logiciel permettra de reconstruire de façon automatique l'anatomie individuelle de chaque patient, à partir des images en coupe fournies par l'IRM. De manière plus générale, une telle simulation en 3D de l'anatomie réelle et fonctionnelle du corps humain nécessite une collaboration à grande échelle. Dans cette perspective, le University College de Londres va acquérir des images IRM de la jambe, à la fois statique et en mouvement, en haute résolution. Cela permettra à MIRALab ainsi qu'à l'Institut national de recherche en informatique et en automatique (Sophia-Antipolis, France), d'effectuer des modélisations de l'articulation de la jambe de la personne considérée à partir de ces images des os, muscles, tendons, etc. L'Université d'Alborg au Danemark et l'Ecole polytechnique fédérale de Lausanne développeront ensuite l'analyse du mouvement de ces patients via des équipements de capture de mouvements. En outre, l'Institut orthopédique Rizzoli à Bologne fournira des données biomécaniques du comportement des tissus mous, afin de permettre la visualisation en 3D des articulations du patient. Cette visualisation, qui habilitera les chercheurs à naviguer à travers le corps humain, sera assurée par l'UNIGE et le Center for advanced studies en Sardaigne. Enfin, l'Université libre de Bruxelles mettra une encyclopédie électronique d'anatomie à la disposition du public et de l'ensemble de la communauté scientifique et médicale européenne. Ce projet devrait à terme avoir un impact considérable sur le plan du diagnostic médical. Dans un avenir proche, il permettra en effet de scanner n'importe quelle articulation humaine, autorisant le médecin à se promener en 3D au travers de l'articulation et à détecter les anomalies, qu'elles soient anatomiques ou fonctionnelles. En outre, le chirurgien pourra, lors de sa «visite virtuelle» du patient, évaluer les effets d'une opération sans toucher au corps réel et voir son nouveau mouvement avant toute opération. UG
|
|
|
|
|
|
|
|
Le Professeur Karsten König, physicien spécialisé en laser et microcapteurs à Sarrebruck, en collaboration avec une équipe de recherche de Jena, a développé un nouvel outil de "chirurgie moléculaire" ; l'objectif est de pouvoir désactiver de manière ciblée différentes séquences d'ADN humain, à l'intérieur de cellules tumorales par exemple. Pour la première fois, les scientifiques ont réussi, par une combinaison de faisceaux laser et de nanoparticules, à percer et découper à l'échelle nanométrique. Le premier nanoperçage optique d'un chromosome est de 40 nanomètres, soit 2000 fois plus fins que la largeur d'un cheveu. Ce n'est pas le faisceau lumineux lui-même qui perfore le chromosome ou découpe les différentes molécules mais l'interaction entre les nanoparticules et la lumière. Dans un premier temps, par des techniques de biologie moléculaire, une nanobille métallique est fixée sur la séquence génétique à éliminer. La lumière du laser femtoseconde (impulsions laser ultracourtes proches de l'infrarouge) atteint les environs du chromosome tel un projecteur. La nanoparticule reçoit la lumière, se réchauffe et brûle sur place en formant un trou d'exactement 40 nanomètres. Les scientifiques nomment ce phénomène "Optical knock-out", toutes les autres parties du chromosome sont en parfait état. Ainsi, cette technique combinant nanoparticules et impulsions laser ultracourtes constitue la base pour la nanochirurgie laser. Pour la première fois il a été possible de "nanomanipuler" des molécules et de faire de la chirurgie optique très précise sur l'ADN, ce qui ouvre de nombreuses perspectives thérapeutiques. BE
|
|
|
|
|
|
|
|
Soutien de longue date du Centre Léon-Bérard (CLB), l'ARC (Association pour la recherche sur le cancer) vient de confirmer son engagement auprès du centre régional de lutte contre le cancer en subventionnant pour deux ans deux chercheurs du CLB - à hauteur de 50 000 euros chacun - pour leurs travaux très prometteurs sur des cancers digestifs. Les recherches dirigées par le Professeur Michel Rivoire, directeur de l'Institut de chirurgie expérimentale du CLB, visent à développer une nouvelle technique de destruction des métastases du foie dont souffrent certains patients atteints de cancers colorectaux. La chirurgie hépatique a développé depuis une quinzaine d'années de nouvelles techniques thermiques mais leur utilisation reste restreinte car elles sont invasives et limitées aux petites métastases. La technique mise au point par l'équipe du Professeur Rivoire, qui associe le CLB et l'Inserm, utilise, elle, des ultrasons focalisés de haute intensité comme cela se fait déjà pour le traitement de certains cancers de la prostate avec l'Ablatherm. Très précise, cette technique préserve les organes proches et permet de détruire rapidement (3 à 5 minutes) des métastases hépatiques de taille importante sans ponction du foie. Les premières sondes expérimentales, testées sur des bancs d'essais et sur l'animal, ont donné des résultats très prometteurs mais ces sondes doivent être améliorées avant le passage à la phase clinique. La subvention de l'ARC permettra de fabriquer deux nouvelles sondes, réalisées par la société Imasonic de Besançon. Après la validation de l'Afssaps (Agence française de sécurité sanitaire des produits de santé), les premiers patients pourront être traités. Dès 2008, espère le Professeur Rivoire. Le Docteur Laurent Bartholin s'intéresse, lui, à une protéine - la TGFß - qui joue un rôle primordial dans le développement du cancer du pancréas (10 % des cancers digestifs). En effet, au début du processus tumoral, cette molécule empêche la prolifération des cellules cancéreuses. Mais quand la tumeur se développe, la TGFß facilite au contraire sa progression et l'apparition de métastases. En travaillant sur des souris génétiquement modifiées par des chercheurs américains, ce jeune chercheur de l'Inserm va essayer de décrypter la dualité de cette protéine. L'objectif est bien sûr de réussir à rétablir ses fonctions protectrices pour pouvoir développer de nouvelles thérapeutiques. Mais ces travaux devraient aussi permettre d'identifier des signes précoces de ce cancer souvent diagnostiqué tardivement. Laurent Bertholin espère aussi que le décryptage du fonctionnement de cette protéine pourra faire progresser la compréhension des mécanismes d'autres cancers. Progrès
|
|
|
|
|
|
|
|
La prise quotidienne d'aspirine à la dose de plus de 300 mg par jour, voire jusqu'à 1 200 mg par jour durant cinq ans, pourrait être considérée comme une bonne prévention primaire contre le cancer colorectal. Et ce, durant une période de 10 à 15 ans après le début du traitement, selon un article publié demain dans l'édition spéciale du Lancet consacré à la gastro-entérologie. Une prévention aussi simple par un médicament si bon marché permettrait de résoudre le délicat problème du dépistage systématique de ce cancer fréquent qui passe par la coloscopie, un examen coûteux et pas facile à mettre en place à grande échelle. Mais les auteurs britanniques de l'article mettent aussitôt un bémol à cette assertion. Ils soulignent les risques de saignements gastriques et intestinaux liés à la prise au long cours de doses relativement importantes de cette molécule. Seuls les individus à haut risque de cancer colorectal devraient pouvoir en bénéficier. Ce n'est pas la première fois que l'on s'interroge sur les effets bénéfiques de l'aspirine, cette « vieille dame de la pharmacopée », en prévention contre le cancer du côlon. Déjà, trois précédentes études avaient montré que la prise régulière de ce médicament réduit les récidives d'adénome du côlon chez les patients à haut risque, avec des antécédents personnels ou familiaux d'adénome ou de cancer. Finalement, la prise de ce médicament montre, au bout de cinq ans, une diminution de la survenue du cancer colorectal de 37 % mais de beaucoup plus (autour de 74 %) si l'on maintient le suivi de 10 à 15 ans après le début de la mise en route du traitement. Pour expliquer un résultat aussi surprenant, qui contraste si fort avec les autres études, Enrico Flossmann met en exergue les doses beaucoup plus fortes (300, 500, voire 1 200 mg) utilisées comparées avec les 50 à à 162 mg testés dans les précédentes. Avec 35 000 cas par an et 16 000 décès, le cancer du côlon est l'une des tumeurs malignes les plus fréquentes dans notre pays. L'âge moyen pour le diagnostic se situe autour de 73 ans chez les femmes et 69 ans pour les hommes. Figaro
|
|
|
|
|
|
|
|
La mortalité par cancer du sein tend à décliner depuis quelques années probablement (c'est une hypothèse), sous l'effet conjoint de la diffusion du dépistage mammographique et des traitements adjuvants dont le chef de file est le tamoxifène. Cependant, cette amélioration ne semble pas concerner toutes les formes de cancers du sein comme nous le montre une exceptionnelle étude américaine qui a inclus 234 828 cancers du sein (!) diagnostiqués entre les années 1990 et 2003. Le risque relatif de décès après ajustement sur le stade et le grade tumoral a baissé de 38 % pour les cancers exprimant des récepteurs aux oestrogènes (RE) et de 19 % dans le cas contraire mais uniquement chez les femmes de moins de 70 ans. Pour les femmes plus âgées, le risque relatif n'a décliné que de 14 % en présence de RE et n'a pas significativement varié en l'absence de RE. Ainsi, aux Etats-Unis, la mortalité par cancer du sein a récemment diminué chez les femmes plutôt jeunes et présentant une tumeur produisant des RE. La différence évolutive en fonction de l'âge pourrait s'expliquer par l'absence de protocole thérapeutique correctement validé pour la femme de plus de 70 ans, du fait d'une sous-représentation dans les essais cliniques induisant une baisse de puissance statistique. Quant aux cancers du sein RE+, ils présentent souvent une croissance ralentie les rendant ainsi plus sensibles aux effets positifs supposés du dépistage mammographique (avance du diagnostic par rapport à la clinique avant extension métastatique). Des efforts importants doivent donc être consentis pour tenter d'améliorer la prise en charge du cancer du sein et chez la femme de plus de 70 ans en favorisant son inclusion dans les essais cliniques et dans les tumeurs RE- comme on peut l'espérer avec l'avènement du trastuzumab (les cancers RE- surexpriment souvent l'HER2). JIM
|
|
|
|
|
|
|
|
Etre mince ne dispense ni de surveiller son alimentation ni de pratiquer un exercice physique régulier. Une étude américaine fait apparaître que la graisse, lorsqu'elle est située autour des organes vitaux, peut être un facteur de risque de diabète et de maladies cardio-vasculaires au même titre que la graisse apparente. L'étude ajoute qu'il est même préférable pour la santé d'être un "gros" qui bouge et mange correctement qu'un "mince" qui néglige l'hygiène de vie. Depuis 2004, le Docteur Jimmy Bell, professeur d'imagerie moléculaire à l'Imperial College de Londres, et son équipe ont réalisé près de 800 scanners par résonance magnétique nucléaire pour créer des "cartes du gras" montrant les lieux de stockage de la graisse. Selon leurs résultats, les personnes qui maintiennent leur poids sans faire d'exercice sont celles qui présentent le plus de dépôts de graisse interne, même si elles sont par ailleurs plus minces. "Le concept même de surpoids a besoin d'être redéfini", relève Bell, dont les recherches sont financées par le Medical Research Council britannique. Sans un signal d'alarme clair, comme un pneu graisseux autour de la taille, les gens les plus minces pourraient, à tort, se croire en bonne santé, s'inquiètent les médecins. "Le seul fait d'être mince n'immunise personne contre le diabète ou tout autre facteur de risque cardio-vasculaire", souligne le Docteur Louis Teichholz, chef du centre cardiologique médical de l'Université de Hackensack (New Jersey) et extérieur à l'étude. Parmi les femmes ayant été "scannées" par Bell et ses collègues, 45 % de celles qui avaient un indice de masse corporelle normal (20 à 25) avaient en fait des taux de graisse interne trop importants. Parmi les hommes, le pourcentage était de près de 60 %. Un signe qui se retrouve même chez des mannequins professionnnels. "Plus les gens sont minces, plus la surprise est grande", constate le Docteur Bell. S'il ne savent pas encore avec précision quel danger représente la graisse interne, certains médecins pensent qu'elle contribue au risque de maladie cardio-vasculaire et de diabète. Selon eux, cette graisse interrompt les système de communication. Celle qui entoure les organes vitaux enverrait à l'organisme des signaux chimiques erronés pour qu'il stocke la graisse à l'intérieur des organes, du foie ou du pancréas notamment. Un phénomène qui pourrait à terme conduire à une insulinorésistance, un diabète de type 2 ou encore à une maladie cardio-vasculaire. Les experts savent depuis longtemps que les sujets trop gros mais très actifs peuvent être en bien meilleure santé que les gens minces mais sédentaires. Les Sumo, par exemple, ont probablement un meilleur profil métabolique que certains de leurs spectateurs, pourtant beaucoup plus minces, note Bell. Une bonne nouvelle toutefois : cette graisse est facile à brûler. Pour cela, il suffit de faire du sport et d'améliorer son alimentation. "Même si vous ne le voyez pas sur la balance, le régime et le sport agissent sur la graisse viscérale", souligne le Docteur Bob Ross, expert de l'obésité à l'université Queen, au Canada. CBS
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l'Université de Twente, aux Pays-Bas, a annoncé le développement d'un laboratoire-sur-puce voué à détecter en quelques minutes des concentrations spécifiques de virus contenues dans un liquide corporel. Les chercheurs expliquent que la puce électronique, conçue en version jetable, permettrait des examens de contaminations rapides aux frontières et dans les aéroports. Elle fonctionnerait d'ores et déjà pour la détection du virus herpes simplex et pourrait prochainement déceler les virus de la grippe aviaire chez les animaux et du SRAS (Syndrome Respiratoire Aigu Sévère) chez l'homme. Le détecteur, indiquent ses développeurs, repose sur le principe de l'interféromètre de Young. Un faisceau laser est divisé sur la puce en quatre canaux parallèles. La lumière laser rayonne à travers ces canaux remplis de sang ou de salive. Les rayons d'émission de ces quatre canaux montrent une interférence. Lorsqu'un de ces canaux est enduit d'anticorps, la lumière émise est déphasée, ce qui implique un changement dans la figure d'interférence. Si ces anticorps s'attachent à un virus, la figure d'interférence montre des franges plus fines. Enfin, la figure d'interférence est enregistrée par une caméra spécifique, une puce CCD (Charge Coupled Device). Dès que la correspondance entre la concentration de virus et la figure d'interférence est connue, le détecteur peut être utilisé pour déterminer la concentration. La puce électronique devrait permettre de détecter trois virus à la fois, le quatrième canal de lumière étant utilisé comme référence. La société néerlandaise PaRaDocs développe présentement un prototype commercial, lequel devrait arriver sur le marché d'ici deux ans. EET
|
|
|
|
|
|
|
|
Avec une prévalence de près de 30 % dans le monde, les allergies chez l'enfant deviennent de plus en plus préoccupantes. Qu'elles soient alimentaires, cutanées ou respiratoires, elles constituent un véritable problème de santé publique. Les chercheurs de l'unité Inserm 707, sous la direction d'Isabella Annesi-Maesano viennent d'achever la deuxième phase du volet français de l'étude ISAAC (International study of asthma and allergies in chilhood). L'enquête réalisée dans six villes françaises a permis pour la première fois en France de déterminer l'effet de la pollution atmosphérique de proximité sur le développement de l'asthme et des allergies. Les résultats montrent une augmentation significative de ces pathologies même dans les zones où les niveaux de pollution atmosphérique sont proches des moyennes maximales recommandées par l'OMS. Ces travaux sont publiés dans le numéro de juin de la revue Respiratory Medicine. En France, on compterait environ 25 % d'allergiques et ils sont chaque année de plus en plus nombreux. Les personnes asthmatiques et les enfants en général sont considérés comme étant plus vulnérables à l'exposition aux polluants. Dans le cadre de l'Etude des 6 villes, volet français de l'Etude ISAAC, les chercheurs de l'Inserm ont étudié l'impact de 2 polluants atmosphériques liés au trafic automobile sur la santé allergique et respiratoire des enfants : le dioxyde d'azote (NO2) et les particules fines émises par les véhicules. Les particules fines peuvent rester en suspension pendant des heures et même des jours. Plus leur taille est réduite, plus elles pénètrent profondément dans les voies aériennes déclenchant asthme et allergies respiratoires. Les particules fines pénètrent jusque dans les bronches. De nombreuses données scientifiques montrent un lien entre la pollution due au trafic routier et les allergies. In vitro, par exemple, les particules fines émises par les véhicules diesel, favorisent la synthèse d'immunoglobuline E (un des marqueur de l'allergie). In vivo, le NO2, quant à lui, irrite les poumons, diminue les défenses de l'organisme contre les infections des voies respiratoires et a été mis en cause dans la survenue d'asthme. À l'échelle de la population, il semble évident qu'il existe une association entre l'augmentation de la concentration de particules fines dans l'atmosphère et les allergies. Néanmoins, jusqu'à présent, les données disponibles sur les effets de la pollution atmosphérique urbaine étaient basées essentiellement sur les mesures de la pollution de fond (correspondant à la pollution ambiante loin des sources - pollution minimale à laquelle nous sommes tous au moins exposés dans une ville-) réalisées par les stations de monitorage de la qualité de l'air. Aujourd'hui, pour la première fois en France, l'étude de l'Inserm apporte de nouveaux éléments permettant de préciser les effets sanitaires de la pollution de proximité sur plus de 5000 enfants. Les chercheurs ont obtenu ces conclusions en mesurant précisément l'exposition des enfants à la pollution atmosphérique d'origine automobile, et ce, directement à proximité de leur lieu de vie. L'examen clinique a consisté en plusieurs tests allergologiques cutanés permettant de déterminer les origines des allergies. Puis les enfants ont été soumis au test de la course libre afin de déterminer l'apparition d'un asthme à l'effort. Selon l'analyse des plus de 7000 questionnaires qui visaient à connaître les antécédents d'allergies, près d'un jeune sur 4 a souffert ou souffre d'eczéma, un sur cinq de rhinite allergique et un sur dix souffre d'asthme. Pendant l'année ayant précédé l'enquête, 8,1 % avaient eu des symptômes évocateurs d'asthme. Pendant la période de l'étude, 10,6 % des enfants ont présenté un eczéma et 8,6 % un asthme à l'effort quelle que soit leur exposition aux polluants. Pour les quelque 5300 enfants dont le bilan de santé était complet, l'enquête montre un lien entre la pollution atmosphérique de proximité et l'asthme et les allergies. Plus précisément, les enfants qui vivent depuis au moins 8 ans dans des lieux où les niveaux de pollution atmosphérique liée au trafic automobile ne dépassaient pas excessivement en moyenne les valeurs guides pour la qualité de l'air recommandées par l'OMS souffrent significativement plus d'asthme allergique (presque 2 fois plus), d'asthme à l'effort (1,5 fois) et d'eczéma (3 fois) par rapport aux enfants qui vivent dans des zones où les concentrations sont inférieures. Une tendance identique est également observée pour le rhume des foins. Inserm
|
|
|
|
|
|
|
|
La région de notre cerveau impliquée dans l'apprentissage arriverait presque à maturité vers l'âge de 11 ou 12 ans, selon une étude américaine qui suggère l'existence d'une brusque accélération avant la puberté. Environ 500 nouveau-nés et adolescents en très bonne santé, recrutés dans des familles elles-mêmes n'ayant aucun ennui de santé, sont actuellement soumis à des IRM cérébraux à plusieurs reprises durant leur croissance, ainsi qu'à une batterie de tests adaptés à leur âge : QI, langage et mémoire, notamment. En superposant les IRM ainsi obtenues avec les courbes de comportement et de facultés intellectuelles évaluées à chaque âge, les scientifiques espèrent dessiner la carte, attendue depuis longtemps, du développement normal du cerveau chez les enfants. Les premiers résultats publiés sont surprenants. Différentes tâches, la mémoire active, le vocabulaire, l'orientation dans l'espace, le raisonnement, le calcul, s'améliorent rapidement entre six et dix ans, avant la survenue d'un palier. "Nous ne savons pas pourquoi", a déclaré Deborah Waber, de l'hôpital pédiatrique de Boston, qui a conduit l'analyse publiée dans le journal de la Société de neuropsychologie internationale. Selon elle, il s'agit d'une photo instantanée des capacités des 6-18 ans pendant une première consultation, les résultats pouvant changer ensuite avec l'âge, en fonction des différentes évolutions des uns et des autres. Le cerveau de l'adolescent continue à se développer. D'ailleurs, la région responsable de comportements, tel que l'impulsivité ou de fonctions tel que le jugement moral sont les derniers à devenir matures, parfois après l'âge de 20 ans, selon le Dr Jordan Grafman de l'Institut national des troubles neurologiques et des accidents vasculaires cérébraux. Il précise que l'étude ne concerne pas ce genre de compétences. "C'est une photo incomplète". Les scientifiques savaient déjà qu'avant 12 ans, le cerveau se développe à grande vitesse, fabriquant plus de connexions entre les cellules nerveuses qui, à leur tour, élargissent des régions vitales. C'est le moment d'une brusque accélération, et la raison pour laquelle il est notamment plus facile d'apprendre une langue étrangère quand on est petit qu'à l'âge adulte, a déclaré Gilmore. Après la puberté, le processus ralentit, le cerveau se focalisant plus volontiers sur la programmation de ce qui est déjà acquis. "Evidemment, on continue à apprendre", a-t-il ajouté. Mais selon les résultats de la nouvelle étude, les enfants de 10-12 ans possèdent déjà les bases cérébrales dont ils ont besoin pour apprendre". L'étude souligne par ailleurs que les filles commencent avec des capacités verbales légèrement supérieures à celles des garçons qui, de leur côté, les rattrapent au moment de l'adolescence. Ils sont au même niveau dans les deux sexes pour ce qui concerne les mathématiques. Les moins bons scores des enfants de milieux défavorisés dans les tests de QI s'expliqueraient par une moins bonne santé des familles en difficulté. Une fois que les scientifiques auront ajouté les résultats des scanners aux tests de capacité des enfants, ils auront une meilleure idée du développement normal d'un enfant. Ils pourront alors avoir recours à ces données pour tenter de comprendre ce qui ne va pas dans le cerveau d'un enfant autiste, par exemple. CHB
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Selon une étude publiée dans la revue Transport Research, les voitures dites “intelligentes” équipées de senseurs pour prédire l'importance de la circulation peuvent avoir une consommation aussi économique que les hybrides, et donc dégager moins de gaz nocifs. Des ingénieurs de l'université australienne de Melbourne ont réalisé une étude comparative montrant que la version hybride d'un modèle donné était plus économe de 15 à 25 % que la version classique, et autant qu'une voiture équipée de senseurs permettant de déterminer la circulation avec 7 secondes d'avance dans certaines conditions de trafic, avec 60 secondes dans d'autres conditions. Si la prédiction était de 180 secondes, l'économie atteignait 33 %. Pour rappel, les voitures dites hybrides fonctionnent alternativement à l'électricité ou avec du carburant classique selon les conditions de circulation, l'enjeu étant d'économiser de l'énergie. Les voitures “intelligentes” sont des véhicules conventionnels utilisant des capteurs et des récepteurs qui donnent des informations sur la circulation, dont l'objectif est de permettre une conduite plus souple en ralentissant à l'avance, grâce au résultat obtenu par l'analyse des paramètres collectés “issus du terrain”. A contrario une conduite sans ce type de mécanisme ne permet pas d'anticiper autant, aboutissant de ce fait à une consommation supplémentaire induite par le maintien d'une même allure jusqu'à l'apparition physique et prise en compte visuelle de la cause du ralentissement. LBA
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|