|
|
Edito
Repenser les villes pour lutter contre le réchauffement climatique
Des villes bien pensées sont-elles la solution au problème du réchauffement climatique ? En grande partie oui, si l'on en croit la conclusion d'une étude publiée dans la revue Environment and Urbanization qui remet en cause les poncifs et idées reçues sur les mégapoles concentrant toutes les tares environnementales : congestion automobile, étalement sans fin, déchets qui s'amoncellent et pollutions variées. Alors que plus de la moitié de la population mondiale vit désormais en ville, la responsabilité des agglomérations dans le réchauffement global semble écrasante : celles-ci n'occupent que 2 % de la surface de la planète, mais elles concentrent 80 % des émissions de CO2 et consomment 75 % de l'énergie mondiale. Pourtant l'Institut international pour l'environnement et le développement montre que beaucoup de villes ont des émissions par tête étonnamment faibles. Calculés par habitant, les rejets de gaz à effet de serre de certaines villes sont nettement inférieurs à la moyenne du pays. Les rejets des New-Yorkais représentent moins d'un tiers de la moyenne des Etats-Unis ; chaque Barcelonais émet moitié moins de gaz à effet de serre que l'Espagnol lambda ; tout comme les Londoniens font deux fois mieux que les Britanniques. Plus surprenant, au Brésil, Sao Paolo affiche des émissions par habitant qui ne dépassent pas un tiers de la moyenne brésilienne. L'explication est simple mais dérangeante du point de vue politique : une ville compacte, mélangeant logements et activités et desservie par des transports en commun est moins polluante qu'un habitat individuel diffus fondé sur le règne automobile. La corrélation entre une faible densité urbaine et une quantité élevée de rejets de CO2 par habitant a été démontrée. L'éclairage et le chauffage des bâtiments génèrent un quart des émissions de gaz à effet de serre dans le monde et, selon les estimations de la Banque mondiale, les transports comptent pour un tiers des rejets dans les agglomérations. "Les villes offrent une vraie chance de réduire le changement climatique, estime la directrice exécutive de l'ONU-Habitat, dans le rapport sur "L'Etat des villes du monde 2008-2009". Des villes bien conçues procurent à la fois des économies d'échelle et la densité de population pour réduire la demande de ressources par habitant. Nos données montrent que les politiques qui promeuvent des transports publics efficaces, qui réduisent l'étalement urbain et qui encouragent l'utilisation d'énergies renouvelables peuvent réduire de manière significative l'empreinte écologique d'une ville et les émissions de CO2." Autre idée reçue battue en brèche : le développement économique n'entraîne pas nécessairement d'accroissement de la pollution. Ainsi la ville de Tokyo émet-elle une quantité de gaz à effet de serre par tête équivalent à 45 % de la moyenne japonaise, très inférieure aux rejets par habitant de Pékin ou de Shanghaï, deux fois plus élevés que la moyenne chinoise. Les choix politiques en matière d'urbanisme et de transports sont dans ce domaine déterminants : les transports sont responsables de 60 % des rejets de CO2 à Sao Paulo, métropole de la congestion automobile, contre 20 % à Londres ou New York, bien desservis par le métro. Et, aux Etats-Unis, pays de l'étalement pavillonnaire, une ville comme Atlanta consomme sept fois plus d'énergie par habitant que Barcelone, ville à la population équivalente (5,2 millions d'habitants) mais dense de type méditerranéenne. Il est vrai qu'Atlanta est 28 fois plus étalée que Barcelone, si bien que les émissions de CO2 liées au transport urbain sont 11 fois supérieures à Atlanta qu'à Barcelone. Cette refondation de l'urbanisme intégrant les problématiques d'énergie, de climat, de logement, de travail et de transport vient de trouver une illustration concrète et remarquable à Dijon qui vient d'inaugurer la tour Elithis, le premier bâtiment tertiaire à énergie positive en Europe. Il s'agit d'un bâtiment standard, réalisé sans surcoût de construction, qui combine toutes les innovations en matière d'efficacité et de gestion énergétiques pour être, in fine, autosuffisant en énergie. Mais la technologie ne peut pas tout et le vrai défi pour nos villes consiste à accepter l'idée d'une densification accrue, combinée à une plus grande mixité sociale et à décloisonnement des grandes fonctions urbaines : résidence, travail, loisirs, transport. En moyenne, la distance domicile-travail en France est de 26 km. Elle a doublé depuis 30 ans. Le transport est devenu le deuxième budget des ménages, après le logement et avant l'alimentation. Le sociologue Eric Le Breton indique que les Français consacrent désormais 17,5 % de leur budget aux déplacements, contre moins de 10 % en 1960. L'envol des prix de l'immobilier, en hausse de 120 % en 10 ans, a accentué le mouvement d'éloignement des centres urbains et de leurs dessertes de transports en commun. A toute chose malheur est bon et l'augmentation irréversible du prix de l'énergie va rendre intenable, pour des raisons liées au pouvoir d'achat, le modèle d'étalement urbain dominant depuis 40 ans. Penser des villes durables mais offrant un haut niveau de services et de confort à leurs habitants suppose que nous accomplissions une triple révolution : politique d'abord, en organisant le développement urbain autour du concept de sobriété, économique ensuite, en réorganisant le travail et la production de biens et services autour du concept d'efficacité énergétique et éthique enfin en acceptant une profonde mutation de nos habitudes et modes de vie de manière à accélérer ce passage inévitable vers des villes réhumanisées. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le déploiement de l'Internet à "très haut débit" va-t-il enfin pouvoir commencer ? C'est ce qu'espèrent le gouvernement et l'Arcep, le gendarme français des télécommunications. Ils ont annoncé, mardi 7 avril, vouloir résoudre "avant l'été" les différends opposant les opérateurs de télécommunications depuis de longs mois, bloquant leurs investissements pour ce "chantier du siècle".. Pour les opérateurs, il s'agit de construire de nouvelles infrastructures en fibre optique permettant des débits jusqu'à 100 fois supérieurs à ceux permis par l'ADSL. Aujourd'hui, pour offrir l'accès à l'Internet fixe, ils utilisent encore le réseau historique du téléphone fixe français dont les parties terminales (raccordements aux abonnés, environ 300 000 kilomètres de câble) sont encore en cuivre. Fin 2006, Free avait annoncé vouloir consacrer 1 milliard d'euros à l'horizon 2012 à ce nouveau réseau, obligeant ses concurrents à sortir eux aussi du bois. Mais à ce jour, les sommes investies restent faibles (150 millions d'euros pour Free, 121 millions pour Orange-france-telecom, et le nombre de foyers raccordés peu significatif (170 000). Le fond du problème, c'est qu'Orange dispose d'un avantage concurrentiel énorme, étant propriétaire du réseau de téléphonie fixe historique. Pour passer au très haut débit, pas besoin d'entreprendre de travaux de génie civil prohibitifs. C'est aussi le cas dans une moindre mesure de l'opérateur du câble Numéricâble, qui possède environ 60 000 km de "fourreaux". Première difficulté, levée depuis mi-septembre 2008 : Orange a accepté de louer la partie "horizontale" de son réseau à ses concurrents afin qu'ils y "tirent" de la fibre sans être obligés de creuser des tranchées jusqu'aux immeubles. Deuxième difficulté : l'accès à la partie "verticale" du réseau, les derniers mètres de raccordement dans les immeubles. La loi de modernisation de l'économie (août 2008) était censée la résoudre, qui posait le principe de la mutualisation : le premier opérateur arrivé dans un immeuble doit laisser son réseau accessible aux concurrents. Mais les opérateurs n'arrivent toujours pas à s'entendre sur deux points très techniques : à quel endroit "mutualiser" leurs différents réseaux et quelle architecture choisir (une fibre par immeuble pour Orange, une par logement pour Free). L'Arcep, qui joue une partition délicate, voulant éviter la réapparition de l'ex-monopole de France Télécom mais aussi la "stratégie du coucou" pour ses concurrents, a proposé mardi, afin de réconcilier les positions, que le "point de mutualisation" soit dans les immeubles. Elle travaille à ce que chacun puisse choisir l'architecture de réseau qui lui convient. LM
|
|
|
|
|
|
|
|
Les téléphones de bureau représentent un coût qui peut être supprimé. Tel est le discours de Microsoft qui propose OCS 2007 pour les remplacer et accroître la productivité. L'éditeur a présenté les témoignages de Swiscom, BNSF Railway, Sprint et BT Etats Unis. Microsoft a utilisé son intervention lors du salon VoiceCon d'Orlando (Floride), le 1er avril, pour partir à l'attaque du téléphone de bureau (le téléphone en plastique) et des équipementiers de téléphonie traditionnels en général et les décrire comme un obstacle aux économies que les entreprises doivent réaliser face à la récession actuelle. La réponse, selon Gurdeep Singh Pall, Vice President de la division Communications unifiées de Microsoft, est Office Communications Server 2007 (OCS 2007) avec son logiciel téléphonique client , et l'ensemble des moyens intégrés de communication : messagerie instantanée, vidéo, conférence Web, conférence audio, et la constitution de groupes d'appels (comme dans le cas des PABX classiques). Il a insisté sur les économies de coûts comme étant primordiales pour le moment et a fait remarquer comment OCS 2007 pourrait aider à les réaliser, ainsi qu'améliorer la productivité. Faire plus pour moins cher. Les téléphones de bureau, à 300 $ pièce, peuvent être totalement éliminés et remplacés par les PC qui sont déjà sur les bureaux dans les entreprises et qui servent à d'autres fonctions. A partir des téléphones IP en plastique, le passage aux logiciels clients téléphoniques supprime le besoin d'entrées spécifiques sur les commutateurs Ethernet du réseau, et permet de réduire globalement la consommation d'énergie, selon Microsoft. R&T
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Une première mondiale en chirurgie a été réalisée au "Fox Chase Cancer Center" de Philadelphie Le traitement standard du cancer du pancréas est une intervention chirurgicale pour enlever la tête ou la queue du pancréas. Lorsque les patients se présentent avec un cancer du pancréas localisé à la queue du pancréas, le chirurgien réalise une pancréatectomie distale pendant laquelle il enlève la queue du pancréas et laisse la tête attachée. Le reste de l'organe peut fonctionner normalement en produisant et en libérant les enzymes digestives et les hormones. Les patients atteints d'un cancer du pancréas sont généralement traités par chirurgie, suivie d'une radiothérapie et/ou une chimiothérapie pour réduire le risque de récidive. Le traitement chirurgical dépend néanmoins de la taille de la tumeur, sa localisation, et la présence ou l'absence de métastases. Parfois, la lésion n'est pas opérable. Lors des procédures non invasives (sans incisions profondes), comme une pancréatectomie distale par laparoscopie, les chirurgiens utilisent les deux mains pour manipuler les outils chirurgicaux et ont besoin d'un assistant pour manipuler l'endoscope (mince tube lumineux équipé d'une caméra qui permet au chirurgien de visualiser le champ chirurgical). Au contraire, le système ViKY, conçu en France, permet de maintenir et déplacer l'endoscope suivant les ordres du chirurgien, soit par reconnaissance vocale soit par une pédale de contrôle. Il apporte de la précision, de la sécurité, un gain de temps, et supprime l'utilisation d'un assistant en salle d'opération. En pratique, l'opération réalisée au "Fox Chase Cancer Center" par le Dr Gumbs, est une ablation d'une partie de la queue du pancréas effectuée sur un homme de 65 ans, chez qui a été diagnostiqué deux kystes du pancréas, dont l'un est potentiellement cancéreux. Le système ViKY a donné au Dr Gumbs un contrôle précis de l'endoscope, alors qu'il effectuait cette pancréatectomie distale. "ViKY est comme une troisième main pendant la chirurgie et m'a donné de la stabilité et de la fermeté" explique le DR Gumbs. De plus, "une bonne vue du champ chirurgical est indispensable et la précision obtenue avec l'outil ViKY permet d'effectuer des procédures plus complexes par laparoscopie", ajoute t-il. Contrairement aux autres porte-endoscope, le système ViKY est léger, facile à utiliser et prend moins de place. Il est "polyvalent" et permet selon le Dr Gumbs de "l'utiliser pour d'autres procédures laparoscopiques à savoir, de la chirurgie gastrointestinale, urologique, thoracique et gynécologique". Avant l'apparition de la technologie ViKY, les patients pouvaient subir une chirurgie ouverte, qui nécessitait une grande incision et impliquait une longue période de récupération post-opératoire. Les avantages des techniques chirurgicales très peu invasives sont nombreuses et bénéficient aux patients de plusieurs façons, comme un court séjour à l'hôpital, une récupération plus rapide, un retour rapide à une activité quotidienne, une diminution des risques d'infection et moins de cicatrices et de saignement. [BE">1]. Dans le cadre d'une suspicion de cancer du pancréas chez un patient, un médecin a pratiqué une ablation chirurgicale pancréatique peu invasive, en s'aidant d'un robot appelé ViKY [2]. Ce système d'assistance à la chirurgie endoscopique, développé en France, testé des milliers de fois sur des patients européens, fait des débuts prometteurs aux Etats-Unis. Le cancer du pancréas est la quatrième cause de décès par cancer aux Etats-Unis (plus de 34.000 décès par an). Le "National Cancer Institue" estime que le nombre de nouveaux cas par an est supérieur à 37.000. Lorsque le diagnostic de cancer de pancréas est porté, la chance de survie à 5 ans est de 1 à 4%. Vingt pour cent des patients opérés de façon complète sont vivants à 5 ans. En revanche pour les patients non opérables et métastatiques, la survie médiane est de 6 mois et la survie à 5 ans est considérée comme nulle. Le traitement standard du cancer du pancréas est une intervention chirurgicale pour enlever la tête ou la queue du pancréas. Lorsque les patients se présentent avec un cancer du pancréas localisé à la queue du pancréas, le chirurgien réalise une pancréatectomie distale pendant laquelle il enlève la queue du pancréas et laisse la tête attachée. Le reste de l'organe peut fonctionner normalement en produisant et en libérant les enzymes digestives et les hormones. Les patients atteints d'un cancer du pancréas sont généralement traités par chirurgie, suivie d'une radiothérapie et/ou une chimiothérapie pour réduire le risque de récidive. Le traitement chirurgical dépend néanmoins de la taille de la tumeur, sa localisation, et la présence ou l'absence de métastases. Parfois, la lésion n'est pas opérable. Lors des procédures non invasives (sans incisions profondes), comme une pancréatectomie distale par laparoscopie, les chirurgiens utilisent les deux mains pour manipuler les outils chirurgicaux et ont besoin d'un assistant pour manipuler l'endoscope (mince tube lumineux équipé d'une caméra qui permet au chirurgien de visualiser le champ chirurgical). Au contraire, le système ViKY, conçu en France, permet de maintenir et déplacer l'endoscope suivant les ordres du chirurgien, soit par reconnaissance vocale soit par une pédale de contrôle. Il apporte de la précision, de la sécurité, un gain de temps, et supprime l'utilisation d'un assistant en salle d'opération. En pratique, l'opération réalisée au "Fox Chase Cancer Center" par le Dr Gumbs, est une ablation d'une partie de la queue du pancréas effectuée sur un homme de 65 ans, chez qui a été diagnostiqué deux kystes du pancréas, dont l'un est potentiellement cancéreux. Le système ViKY a donné au Dr Gumbs un contrôle précis de l'endoscope, alors qu'il effectuait cette pancréatectomie distale. "ViKY est comme une troisième main pendant la chirurgie et m'a donné de la stabilité et de la fermeté" explique le DR Gumbs. De plus, "une bonne vue du champ chirurgical est indispensable et la précision obtenue avec l'outil ViKY permet d'effectuer des procédures plus complexes par laparoscopie", ajoute t-il. Contrairement aux autres porte-endoscope, le système ViKY est léger, facile à utiliser et prend moins de place. Il est "polyvalent" et permet selon le Dr Gumbs de "l'utiliser pour d'autres procédures laparoscopiques à savoir, de la chirurgie gastrointestinale, urologique, thoracique et gynécologique". Avant l'apparition de la technologie ViKY, les patients pouvaient subir une chirurgie ouverte, qui nécessitait une grande incision et impliquait une longue période de récupération post-opératoire. Les avantages des techniques chirurgicales très peu invasives sont nombreuses et bénéficient aux patients de plusieurs façons, comme un court séjour à l'hôpital, une récupération plus rapide, un retour rapide à une activité quotidienne, une diminution des risques d'infection et moins de cicatrices et de saignement. [BE
|
|
|
|
|
|
|
|
A l'université d'Aberystwyth, au Pays de Galles, Ross King et ses collègues ont créé un robot, baptisé Adam, qui peut non seulement mener à bien des expériences scientifiques mais aussi en interpréter les résultats et prévoir quelle doit être l'expérience suivante. Il s'agit en tout cas du premier exemple d'une machine qui a effectué une découverte scientifique indépendante - en l'occurrence, de nouveaux faits sur le génome de la levure."Par lui-même, il peut formuler des hypothèses et réaliser ensuite les expériences, et nous avons vérifié, les résultats sont exacts", a déclaré King dans une interview."Des gens travaillaient là-dessus depuis les années 1960. Lorsque nous avons commencé à envoyer des robots sur Mars, ils ont vraiment rêvé que les robots puissent effectuer leurs propres expériences sur Mars. Au bout de 40 à 50 ans, nous avons la faculté de le faire", ajoute le scientifique. Le prochain robot de King et de son équipe, qui s'appellera Eve, aura une "puissance cérébrale" bien plus grande et aura pour mission d'effectuer des recherches sur de nouveaux médicaments.King espère que l'application de l'intelligence artificielle au processus de recherche de dizaines de milliers de composants de nouveaux médicaments potentiels permettra de trouver des traitements pour des maladies tropicales négligées, comme le paludisme. Reuters
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Un système de stockage économique, sûr et rapide : c'est ce qu'ont réussi à développer deux équipes de chercheurs de l'université de Leeds du laboratoire de recherche IBM de Zurich. Chris Marrows, qui a participé au projet, explique : "le disque dur des ordinateurs est prédisposé à casser, car il se compose de parties en rotation, qui peuvent s'user". La méthode développée par les deux équipes consiste donc non pas à rendre le support mouvant. Mais à faire véhiculer directement les informations stockées à l'intérieur. Les risques de détérioration sont limités, l'outil en lui-même étant statique. Pour ce faire, les chercheurs ont eu recours au magnétisme. Après avoir observé via un microscope spécial comment se comportaient les appareils magnétiques, ils ont réussi à provoquer un mouvement des informations, via un courant électrique. Jusqu'à maintenant, les disques durs se composaient de millions d'espaces où étaient stockées les données. Le disque tournait, jusqu'à ce que la tête de lecture trouve la bonne information. Dans le nouveau système de mémoire, ce temps de recherche n'existe plus : l'information remonte directement. L'un des autres avantages de l'outil est son prix : estimé jusqu'à cent fois moins cher par bit que la mémoire flash. Un paramètre qui, selon Chris Marrows, participe au fait que "la mémoire magnétique est destinée à remplacer le disque dur. La prochaine étape pour les deux équipes de chercheurs : optimiser l'outil en utilisant les matériaux les plus adéquats, afin de créer des outils commercialisables. Atelier
|
|
|
|
|
|
|
|
Si l'on regarde un morceau d'hydrate de méthane à l'oeil nu, la surface de ce dernier apparaît régulière. Cependant, en observant l'élément de plus près, on s'aperçoit que ses cristaux de glace sont organisés en "cages", lesquelles renferment des molécules de méthane. En comparaison avec les autres énergies fossiles utilisées par l'Homme, le méthane, gaz naturel, libère moins de dioxyde de carbone, responsable en partie du changement climatique, par unité d'énergie générée. Il en relâche néanmoins dans l'atmosphère. C'est dans l'optique de transformer le CO2 en énergie fossile moins agressive pour l'environnement que la recherche s'est attelée à développer de nouvelles méthodes pour mettre au point une extraction du méthane qui l'appauvrisse en carbone. Tim Collett, l'un des protagonistes de l'étude, affirme que "le méthane issu de la glace qui brûle peut constituer une énergie relais, voire tendre vers autant d'efficacité que les énergies renouvelables". Un processus permettant d'extraire simultanément le méthane et les réserves de CO2 aurait déjà été testé en laboratoire. Le département américain de l'énergie travaillerait ainsi actuellement en collaboration avec une compagnie pétrolière basée en Alaska, afin de tester cette technique et d'évaluer les possibilités de sa généralisation.Les États-Unis, le Canada, le Japon, ainsi que la Corée, envisagent dorénavant l'hydrate de méthane et ses composants comme une nouvelle source d'énergie. MS
|
|
|
|
|
|
|
|
Les Landes vont accueillir en 2011 la plus grande centrale photovoltaïque d'Europe. EDF Énergies nouvelles, filiale à 50 % du géant français spécialisée dans le solaire et l'éolien, vient de donner le coup d'envoi aux travaux préliminaires à la construction de cet équipement hors normes.Rapportée à une centrale nucléaire, la future ferme solaire de Losse, dans l'ouest du département landais, peut paraître d'une puissance modeste : sa capacité de production prévue est de 75 mégawatts, soit moins de 3 % de celle de la centrale nucléaire du Blayais. Mais cette quantité d'électricité équivaut tout de même aux besoins d'une population de 40 000 habitants. Sa production nécessitera d'équiper en panneaux l'essentiel de la superficie cédée pour la circonstance par la Communauté de communes du Gabardan, et dont la dimension (317 hectares) équivaut à quelque 600 terrains de football. Comme le souligne David Augeix, responsable d'EDF Énergies nouvelles pour le Grand Sud, le département des Landes est moins ensoleillé que l'arc méditerranéen. Mais, du fait de son relief plat et de ses grands espaces, il offre un gisement intéressant. Plusieurs acteurs de la filière le prospectent assidûment. La Caisse des dépôts a par exemple monté un dossier en vue de la création d'une installation à Villeneuve-de-Marsan. Mais aucun des autres projets n'est comparable à celui-ci. David Augeix explique la dimension de ce projet par la taille du terrain que la Communauté de communes lui a proposé (voir ci-dessous). Selon EDF Énergies nouvelles, les bois occupant une partie de cet espace étaient pour certains atteints du fomes, une maladie favorisée par la tempête de 1999. « C'est un foncier dont les enjeux environnementaux sont moindres qu'alentour », explique le directeur régional de la filiale d'EDF, qui indique qu'un reboisement d'une surface équivalente sera effectué en résineux et en feuillus sur le territoire de la Communauté. Jointe à cette opportunité foncière, la possibilité de raccorder sans trop d'investissements le courant produit aux réseaux de haute tension avoisinants a achevé de convaincre l'entreprise de lancer à Losse le projet de tous les records. La future centrale devrait ainsi produire quelque 50 % de plus que la plus grande installation photovoltaïque d'Europe, qui se trouve au Portugal. Et sa puissance sera dix fois supérieure à celle de la plus grande ferme solaire française, située à Narbonne. Pour ce faire, EDF Énergies nouvelles va mettre le paquet. En hors-d'oeuvre, elle va installer une première tranche de deux mégawatts, subventionnée par le Conseil régional d'Aquitaine, l'Ademe et les fonds européens du Feder. Sur cette première tranche, l'entreprise expérimentera à grande échelle une technologie innovante mise au point par la société girondine Exosun, et déjà testée à petite dimension sur la technopole Montesquieu de Martillac : les « trackers » (suiveurs solaires) visent à modifier l'orientation des panneaux au long de la journée, afin de suivre la course du soleil. Au-delà de cette tranche expérimentale, la centrale de Losse devrait abriter une immense batterie de panneaux classiques, non orientables, dont la puissance totale s'élèvera à 74 mégawatts. Pour dégager cette puissance, il faudra installer pas moins de 1 020 000 modules photovoltaïques renfermant un semi-conducteur sur lequel les photons (énergie lumineuse du soleil) libéreront des électrons producteurs d'électricité. À ce jour, la majorité des équipements de ce type utilisent comme semi-conducteur le silicium, mais compte tenu du coût croissant de cette matière, EDF Énergies nouvelles a opté pour une couche mince de tellurure de cadmium, déposée sur un substrat de verre. L'investissement nécessaire pour réaliser cette installation, qui sera assurée par le groupe spécialisé allemand Beck Energy, s'annonce particulièrement copieux. La dépense devrait dépasser 200 millions, voire frôler les 300. SO
|
|
|
|
|
|
|
|
L'électricité produite par des panneaux solaires ou des éoliennes peut servir à mettre de l'eau de mer dans d'immenses réservoirs. Cette eau serait ensuite turbinée quand il n'y a plus ni vent ni soleil, le tout sans dégager de CO2. Les énergies renouvelables, comme le solaire ou l'éolien, ont un grave défaut : elles sont intermittentes. Il suffit que le soleil soit masqué par les nuages, que le vent faiblisse ou, a contrario, qu'il souffle trop fort pour que leur rendement baisse fortement, obligeant les producteurs d'électricité à faire appel à des centrales au gaz, au fuel ou au charbon, pour prendre temporairement le relais. Ce qui revient à dégager d'importantes quantités de gaz carbonique (CO2) que le recours aux énergies renouvelables est censé éviter... «Des capacités de stockage de grande ampleur deviennent de plus en plus nécessaires avec l'objectif européen de produire au moins 20 % de la consommation d'énergie sous forme renouvelable à l'horizon 2020», notent les députés Christian Bataille et Claude Birraux dans un rapport remis à l'Office parlementaire d'évaluation des choix scientifiques et technologiques. La solution pourrait venir, selon eux, de «stations de transfert d'énergie par pompage», ou STEP, construites en bord de mer, comme le propose François Lempérière, un ingénieur mondialement reconnu dans le domaine des barrages. Car c'est bien de cela dont il s'agit. L'idée de cet expert, joint par Le Figaro, consiste à construire à proximité du littoral des atolls artificiels. Autrement dit, d'immenses réservoirs d'eau de plusieurs kilomètres carrés, délimités par une digue se refermant sur elle-même d'une hauteur de 50 à 100 mètres au-dessus du niveau de la mer. En période de faible consommation d'électricité (nuit, été...), l'excédent de production servirait à pomper l'eau de mer derrière la retenue. Cette eau serait ensuite turbinée les jours sans soleil ou sans vent, voire au plus fort de l'hiver quand la demande est à son maximum à cause du chauffage. Le tout sans dégager la moindre molécule de gaz carbonique dans l'atmosphère ! «Le défi n'est pas d'ordre technique, mais économique, car la construction des barrages et des brise-lames est aujourd'hui bien maîtrisée, explique François Lempérière. En outre, le rendement énergétique est très bon, de l'ordre de 90 % au pompage comme au déstockage.» Selon ses calculs, la construction d'un atoll de 23 kilomètres carrés, adossé à une falaise, d'une hauteur d'eau de 90 m, correspondant à un stockage de 160 gigawatt-heure d'électricité, représenterait un investissement d'un peu moins de 6 milliards d'euros. Soit l'équivalent d'une centrale nucléaire. Une telle installation permettrait de «compenser l'indisponibilité, pour cause d'absence ou d'excès de vent, d'un cinquième du parc éolien français prévu pour 2020 (25 GW) pendant une journée et demie», notent les deux députés Figaro
|
|
|
|
|
|
|
|
L'énergie solaire photovoltaïque permet de produire de l'électricité par transformation d'une partie du rayonnement solaire grâce à des cellules solaires, reliées entre elles pour former un module solaire photovoltaïque. Actuellement, les cellules solaires commercialisées sont composées de matériaux inorganiques, comme le silicium. De nombreuses recherches internationales visent à mettre au point des cellules solaires composées de semi-conducteurs organiques (à base de molécules carbonées). Bien que leurs performances soient encore très inférieures à celles des cellules à base de silicium cristallin (environ 5% de rendement contre 15% pour les cellules en silicium), elles offrent de multiples avantages. Contrairement au silicium cristallin dont la production nécessite de très hautes températures, leur fabrication implique un faible coût financier et énergétique et un faible impact environnemental, arguments non négligeables quand on parle d'énergie renouvelable. De plus, leur mise en forme à partir d'encre ou de peinture permet de couvrir de grandes surfaces et des substrats flexibles comme des textiles.Des chercheurs de l'équipe de Jean Roncali, travaillant sur la problématique des cellules solaires organiques au laboratoire d'Ingénierie moléculaire d'Angers développent une approche originale, ayant permis tout récemment d'atteindre des rendements de 1.70 %, qui sont parmi les plus élevés obtenus jusqu'à présent.De nouvelles classes de matériaux actifs spécifiquement adaptés à ces cellules sont également en cours de synthèse. MS
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le réchauffement climatique devrait probablement excéder le seuil des 2°C considéré par l'UE comme déclencheur d'un changement "dangereux", selon des experts en question climatique interrogés par Reuters. Neuf des onze experts sollicités pour cette étude, tous membres du comité de rédaction du rapport du Groupe intergouvernemental sur le climat (GIEC), jugent par ailleurs que les éléments démontrant la responsabilité de l'activité humaine dans l'évolution du climat ont gagné en importance ces deux dernières années.En 2007, dans son dernier rapport en date, le GIEC se disait certain à 90% que les activités humaines, et avant tout la combustion d'hydrocarbures, étaient la principale cause du réchauffement observé ces cinquante dernières années. Interrogés à titre personnel, la plupart d'entre eux anticipent aussi une fonte des glaces l'été dans l'océan Arctique et une élévation du niveau des océans plus rapides que les projections avancées en 2007 par le GIEC. "Un grand nombre des effets que nous observons aujourd'hui dépassent ce que nous anticipions", souligne William Hare, de l'Institut de recherche de Potsdam sur les effets du climat.Pour dix d'entre eux, il est au mieux "improbable" que la communauté internationale parvienne à contenir sous les 2°C la hausse des températures moyennes de la planète par rapport à la situation préindustrielle. Dans le jargon du GIEC, "improbable" renvoie à moins d'une chance sur trois. "Scientifiquement, c'est possible. Mais compte tenu du niveau de volonté politique, c'est improbable", précise Salemeel Huq, de l'Institut international de l'environnement et du développement basé à Londres. Et David Karoly, de l'Université de Melbourne, juge lui "très improbable" que le monde remplisse cet objectif. "La concentration dans l'atmosphère de gaz à effet de serre à durée de vie longue est déjà suffisante pour provoquer un réchauffement supérieur à 2°C par rapport aux niveaux préindustriels, et nous continuons d'en émettre toujours plus", explique-t-il. Cette étude a été réalisée en marge de la conférence de Bonn, où les délégations de 175 nations sont réunies jusqu'à mardi dans le cadre des négociations sur le futur traité censé succéder au Protocole de Kyoto.L'Union européenne, à l'instar d'associations écologistes, considère nécessaire de limiter le réchauffement à 2°C par rapport aux températures moyennes enregistrées avant la révolution industrielle pour éviter un scénario noir (élévation du niveau des mers, inondations, sécheresses ou canicules).Pour l'heure, le réchauffement moyen est de 0,7°C. MS
|
|
|
|
|
|
|
|
« La façon dont la glace s'est brisée est stupéfiante. Voici deux jours encore, elle était intacte », explique le glaciologue David Vaughan, du British Antarctic Survey, au vu d'une photo de la plaque glaciaire Wilkins. 'Cela faisait longtemps que nous attendions de voir ça'. La photo satellite, transmise par l'Agence spatiale européenne (ESA), montre qu'un pont de glace de 40 km de long, qui maintenait en place la plaque Wilkins, s'est brisé à son point le plus étroit, là où il ne mesurait que 500 mètres de large. Cet effondrement laisse à la place du pont de glace une foule d'icebergs à la dérive. La perte de ce pont de glace, qui faisait près de 100 km de large en 1950 et était en place depuis des siècles, pourrait permettre aux courants marins d'éroder un peu plus la plaque Wilkins. 'A mon avis, nous allons perdre davantage de glace, mais il en restera au sud', estime le glaciologue. Naguère, la plate-forme glaciaire de Wilkins couvrait 16 000 km², mais elle a perdu un tiers de sa superficie. Les températures de la péninsule Antarctique, qui serpente en direction de l'Amérique du Sud, ont monté d'environ trois degrés Celsius en cinquante ans, soit le rythme le plus rapidement de réchauffement dans l'hémisphère austral. Neuf autres plaques glaciaires ont diminué ou se sont désintégrées autour de la péninsule antarctique au cours des cinquante dernières années, parfois très rapidement comme ce fut le cas avec la plaque Larsen A en 1995 puis avec Larsen B en 2002. Au total, 25 000 km² de plaques de glace ont été perdues, et l'évolution des contours de l'Antarctique est un des signes les plus spectaculaires du réchauffement climatique en cours. Si la totalité des glaces de l'Antarctique fondait, le niveau moyen des mers du globe monterait de 57 mètres. MS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Deux équipes chirurgicales françaises ont réussi simultanément une greffe du visage et une greffe des mains sur un homme brûlé lors d'un accident, annonce l'Assistance publique-Hôpitaux de Paris (AP-HP).l s'agit de la sixième greffe de la face dans le monde et la quatrième pratiquée en France, mais c'est la première fois au monde que des médecins parviennent à greffer des parties du visage en même temps qu'une autre partie du corps.Réalisée samedi et dimanche à l'hôpital Henri Mondor de Créteil (Val-de-Marne), près de Paris, l'opération a mobilisé 40 personnes pendant près de trente heures.Les deux équipes étaient dirigées par le professeur Laurent Lantiéri et le docteur Jean-Paul Méningaud pour la greffe du visage, et par le docteur Christian Dumontier pour la greffe des mains, précise l'AP-HP. Le receveur est un homme de 30 ans. Les séquelles de l'accident qu'il avait subi en 2004 et l'avait gravement brûlé empêchaient "toute vie sociale", explique l'Assistance publique.Toute la partie haute du visage au-dessus des lèvres, cuir chevelu, nez, oreilles, front et paupières hautes et basses, a été réimplantée sur ce patient, précise l'AP-HP. La greffe des paupières est aussi présentée comme une première mondiale. Les chirurgiens ont reconnecté nerfs, tendons, artères et veines.Lors d'une conférence de presse, le professeur Lantiéri a déclaré que le patient se portait bien. "C'est un succès, il est dans un bon état général", a-t-il dit."Il y a une complexité particulière au niveau du visage, parce que nous sommes encore au début de ce type de greffes. Nous avons évolué dans la technique", a-t-il dit.Le don provenait d'un homme en état de mort cérébrale et l'AP-HP relève une "mobilisation forte de la population" sur ce sujet, qui a fait l'objet de récentes campagnes d'information, puisque c'est le second cas de ce type en quelques jours. Le Pr Lantiéri a dirigé trois des quatre greffes du visage réalisées en France. La deuxième est intervenue fin mars et a bénéficié à un homme défiguré par un coup de fusil.Auparavant, en 2007, il avait traité un homme défiguré par une neurofibromatose, une maladie génétique.La France avait réalisé le 27 novembre 2005 la première greffe du visage au monde.Les professeurs Bernard Devauchelle, du CHU d'Amiens, et Jean-Michel Dubernard, du CHU de Lyon, avaient effectué une greffe du nez, de la joue, des lèvres et du menton sur une femme de 38 ans, Isabelle Dinoire, défigurée par son chien. AP-HP
|
|
|
|
|
|
|
|
Des scientifiques britanniques ont réveillé l'espoir chez de nombreuses personnes sourdes et malentendantes en annonçant qu'elles pourraient peut-être un jour retrouver leur ouïe, grâce à la culture de cellules auditives de l'oreille interne en laboratoire. Les chercheurs ont réussi à produire des cellules auditives à partir de la différenciation de cellules souches de l'oreille interne d'un foetus. Ils espèrent qu'ils pourront utiliser ces cellules pour réaliser une transplantation chez des patients sourds, afin de remplacer les cellules et neurones défaillants dans le cas de la surdité neurosensorielle. La surdité neurosensorielle est le cas de surdité le plus courant, comptant pour 90 % des cas et touchant plus de 6 millions de personnes. Le seul traitement pour l'instant disponible est l'implant cochléaire, mais cet appareil électronique ne permet pas de rendre totalement l'ouïe.Le Dr. Marcelo Rivolta, qui a mené la recherche, déclare : "Les cellules auditives et les neurones qui nous permettent d'entendre sont seulement produits durant le stade embryonnaire. Une fois endommagés ou perdus, ils ne se régénèrent pas. Il y a un réel besoin de développer une thérapie qui permettrait de les régénérer". L'équipe réalise des tests sur des animaux pour voir si la transplantation peut réellement rendre l'ouïe. Ils espèrent aussi pouvoir produire des cellules auditives à partir d'autres cellules souches comme celles de la moelle osseuse par exemple. Mais il faudra peut être attendre encore 10 ans avant que les patients puissent recevoir une transplantation qui rende l'ouïe. Il ajoute qu'à plus court terme, l'étude de ces cellules permet à l'équipe de mieux comprendre le développement de l'ouïe chez l'Homme et les effets de certains médicaments sur elle. MS
|
|
|
|
|
|
|
|
Contrairement à une idée reçue, ce n'est pas au plus près d'une antenne-relais de téléphonie mobile que l'on est le plus exposé aux ondes de radiofréquence qu'elle émet. Une étude française a permis de constater que pour les deux fréquences utilisées en téléphonie mobile, GSM (900 MHz) et DCS (1800 MHz), l'exposition est maximale à environ 280 m de l'antenne-relais en zone urbaine, et à 1 000 m en zone périurbaine. L'étude a été mise en ligne, mardi 31 mars, sur le site de la revue britannique Occupational & Environmental Medicine. Dans la vie quotidienne, l'exposition à des champs électromagnétiques émane de différentes sources de radiofréquences : postes de radio et de télévision, communications téléphoniques et satellitaires... C'est le cas évidemment de la téléphonie mobile, et de la multitude d'antennes-relais ou de stations de base qu'elle nécessite pour assurer une bonne couverture territoriale des zones les plus peuplées."Bien que les niveaux de radiofréquences (RF) produits par les relais de télé et de radio et par les stations de base soient bien plus bas que ceux liés à l'utilisation du téléphone mobile, l'exposition plus continue aux antennes préoccupe davantage le public", notent jean-francois-viel(CNRS et université de Franche-Comté) et ses confrères, auteurs de l'étude. "Comme les ondes de RF sont invisibles et imperceptibles, les individus ne peuvent directement faire état de leur exposition. Aussi bien les perceptions du public que la plupart des études épidémiologiques reposent de ce fait sur la supposition que la distance d'un lieu de résidence par rapport au mât d'une station de base est un paramètre qui peut se substituer de manière appropriée à l'exposition à des champs de RF." Leur étude démontre que cette hypothèse est erronée. Elle a été menée en zone urbaine et en zone périurbaine, entre décembre 2005 et septembre 2006, auprès de 200 habitants du Doubs. Chacun d'entre eux a été équipé d'un dosimètre personnel mesurant son exposition aux RF pendant vingt-quatre heures et devait tenir un journal recensant, quart d'heure par quart d'heure, le lieu, l'heure et la nature de ses activités. La distance séparant le domicile de chaque participant des antennes a été calculée. A son niveau le plus élevé, le champ électrique mesuré demeurait toujours inférieur à 1,5 volt par mètre (v/m), et restait donc inférieur aux normes internationales. L'exposition aux ondes des bandes utilisées pour la téléphonie mobile atteignait son maximum, selon la zone d'habitation, à environ 280 m ou 1 000 m des antennes. Jean-François Viel évoque plusieurs surprises : "Tout d'abord, la grande variabilité des expositions, même à des distances équivalentes. Une différence qui peut tenir au dosimètre, mais aussi au corps humain." Mais encore : "La présence de deux pics, l'un urbain, l'autre périurbain, en fonction de la hauteur des antennes. Comme un phare, une antenne a un rayon d'émission oblique, selon un angle qui est toujours le même. En zone urbaine, les antennes sont plus basses et "arrosent" dans un rayon d'environ 300 m ; en zone périurbaine, elles sont plus hautes et le rayon touche le sol plus loin, à 1 000 m. Nous pensions que cet "effet phare" était moins prononcé." Devant ces résultats, la question se pose du niveau d'exposition auquel sont fixées les recommandations nationales et internationales. "Les recommandations internationales sont basées sur les effets thermiques observés des radiofréquences},indique l'épidémiologiste. L'évaluation des risques potentiels suppose que l'on recherche d'autres mécanismes d'action. Quand on fixe un seuil après évaluation d'un risque, c'est qu'on connaît le mécanisme en cause. A l'heure actuelle, nous n'en sommes pas là." LP
|
|
|
|
|
|
|
|
L'automesure de la pression artérielle (AMPA) au domicile du patient permet d'améliorer à la fois le contrôle de l'HTA et l'observance thérapeutique, au prix de quelques difficultés logistiques qui, certes ne sont pas rédhibitoires, mais qui doivent être prises en compte. Les appareils de mesure ne sont pas tous validés et, de plus, il faut former le patient à l'utilisation de tels dispositifs. Le risque d'une fixation obsessionnelle sur les valeurs changeantes de la PA n'est pas non plus négligeable, avec en corollaire une automédication «sauvage» qui peut amener à des accidents thérapeutiques sérieux. Enfin, comment apprécier l'exactitude et la fiabilité des chiffres tensionnels rapportés par le patient ? Dans plus de la moitié des cas, le praticien ne peut tirer aucune conclusion sérieuse à partir de ces données, plus ou moins lisibles quand elles sont transcrites sur un support papier. A cet égard, certains appareils de mesure permettent actuellement de numériser les informations et de les stocker sur un support magnétique, puis de l'envoyer par télétransmission vers des sites éloignés. Il semble que cette stratégie innovante soit prometteuse sur le plan clinique, à la lueur d'observations ponctuelles récentes qui doivent être validées au long cours. C'est là l'objectif d'une étude randomisée récente, en l'occurrence la TeleBPCare study dans laquelle ont été inclus 391 patients atteints d'une hypertension artérielle légère ou modérée, le plus souvent traitée (80 %), mais non contrôlée. L'essai a finalement inclus 329 participants (âge moyen, 58 ± 11 ans) suivis par 12 médecins généralistes et répartis en deux groupes selon les modalités de la prise en charge : soit traditionnelle avec mesure de la PA en consultation (n=113, groupe A), soit réalisée sur la base de la télétransmission de la PA mesurée au domicile (n=216, groupe B). Un enregistrement ambulatoire de la PA sur 24 heures a été effectué à l'état basal et six mois plus tard. Le principal critère d'efficacité a été la normalisation des chiffres tensionnels diurnes (<130/80 mm Hg). Ont été également pris en compte la nécessité de modifier le traitement antihypertenseur, la qualité de vie et les coûts. Le contrôle de l'HTA a été obtenu chez 62 % des patients du groupe B (versus 50 % dans le groupe A, p<0,05). Le traitement antihypertenseur a été moins souvent modifié dans le groupe B, soit 9 % versus 14 % dans le groupe A (p<0,05). Enfin, dans le groupe B, la qualité de vie s'est avérée meilleure et les coûts moindres.Des résultats fort encourageants qu'il convient de valider sur une plus grande échelle, avant de l'introduire dans la pratique médicale courante. JIM
|
|
|
|
|
|
|
|
A l'occasion du Congrès européen annuel d'urologie qui a eu lieu à Stockholm, en Suède du 17 au 21 mars 2009, le laboratoire pharmaceutique suisse Ferring a annoncé le lancement européen de Firmagon (dégarélix), une nouvelle « option de traitement par hormonothérapie du cancer de la prostate avancé Ce nouveau traitement possède un mécanisme d'action novateur qui se distingue des hormonothérapies habituellement utilisées Ce médicament réduit rapidement le taux d'antigènes spécifiques prostatique (PSA) en bloquant immédiatement les récepteurs de la GnRH au niveau de la glande pituitaire. Le blocage des récepteurs élimine l'hormone lutéinisante, ce qui réduit la production de testostérone par les testicules. La croissance du cancer de la prostate étant stimulée par la testostérone, le fait de réduire les taux de testostérone peut donc ralentir la croissance des cellules cancéreuses. Les études cliniques réalisées sur ce traitement montrent une diminution plus rapide de la testostéronémie et du taux de PSA que la leuproréline, un des traitements actuels du cancer de la prostate avancé. Il s'agit d'une nouvelle étape importante dans le traitement du cancer de la prostate avancé hormono-dépendant, où Firmagon offre une nouvelle option et un nouvel espoir à de nombreux patients » a commenté à cette occasion John Anderson, chirurgien urologue consultant au Royal Hallamshire Hospital de Sheffield, au Royaume-Uni. Une autre étude montre que c'est en France que le taux de guérison des cancers de la prostate est le plus élevé (57,9 %) en Europe. C'est ainsi que l'étude estime qu'en France, 58,6% des femmes atteintes des cancers sont guéries alors que ce pourcentage n'est que de 38% en Pologne. L'Islande obtient le meilleur taux pour les hommes (46,6%). Quant à l'utilité du dépistage généralisé, l'étude publiée récemment dans le New England Journal of Medicine montrent de manière très clair qu'elle est avérée. Plus de 160 000 Européens de sept pays, âgés de 55 à 69 ans, ont participé à ce travail d'envergure lancé en 1990. Les participants ont été séparés en deux groupes. Le premier a bénéficié tous les 4 ans d'un test de dépistage basé sur le PSA. Le second n'a fait l'objet d'aucun dépistage. Cette étude montre qu'il existe une différence de mortalité spécifique de 20% entre le bras systématiquement dépisté et l'autre. @RTFlash
|
|
|
|
|
|
|
|
On a démontré le rôle bénéfique des anti-inflammatoires non stéroïdiens (AINS) dans la prévention des cancers colorectaux, mais les choses ne sont pas aussi nettes en ce qui concerne les cancers du sein (KS), d'autant que certains AINS interfèrent avec des récepteurs hormonaux (RH) dans cette maladie. Une méta-analyse récente montre cependant une réduction de risque de KS après absorption d'AINS (risque divisé par 1,13 et même un peu plus avec certaines molécules comme l'ibuprofène) sans qu'il y ait de relation effet-dose. Les coxibs (célécoxib, parécoxib), qui ciblent directement la COX-2, enzyme responsable des états inflammatoires, pourraient avoir un effet similaire. De plus, les AINS préviennent l'apparition de KS expérimentaux chez des rongeurs. Mais les variations dans les appréciations de l'impact des AINS tiennent au fait que leurs mécanismes d'action sont différents ; en effet une surexpression transgénique de COX-2 induit la formation de tumeurs mammaires chez la souris, alors que l'activation de prostaglandines (synthétisées par l'enzyme COX-1) diminue la réponse immunitaire. Dans le KS, la surexpression de COX-2 est associée à celle de HER-2. On peut donc imaginer que les coxibs ne cibleraient que les KS HER-2 +, mais il est aussi possible que leurs effets bénéfiques soient estompés par les effets carcinogènes (sur la réponse immunitaire) des COX-1. Au total, la carcinogenèse dépendrait de la somme des effets COX-1 et COX-2. De plus, l'affinité des AINS varie, l'acide acétyl-salicylique étant le plus actif sur COX-1 et le célécoxib le plus puissant sur COX-2. L'effet préventif de l'aspirine sur les KS est affirmé par certaines études, nié par d'autres, et serait en fait sélectif en fonction de la présence de RH dans le tissu mammaire. Une prostaglandine activerait la production d'oestrogènes non ovariens, ce qui expliquerait sa plus grande activité après la ménopause, et aussi la discordance des résultats entre les essais, s'ils ne prennent pas en compte la positivité des RH. Par ailleurs un traitement hormonal substitutif annule les effets bienfaisants des AINS après la ménopause. Enfin, la synergie des AINS avec certains composés (bexarotène) permet d'en réduire les doses sur les modèles animaux. La prise en compte de tous ces facteurs (récepteurs hormonaux, HER-2, statut ménopausique, traitement hormonal) permet d'espérer une chimioprévention personnalisée du cancer du sein par les anti-inflammatoires non stéroïdiens. JIM
|
|
|
|
|
|
|
|
"Vous entrez dans une pièce connue en pensant la connaître parfaitement. Vous vous rendez compte de nouveaux détails, votre mémoire de cet environnement, appelée mémoire spatiale, est alors mise à jour" explique Claire Rampon, chercheuse au CRCA (Centre de recherches sur la cognition animale). Cette mise à jour des souvenirs et le renforcement de ceux qui sont corrects se ferait notamment grâce aux neurones nouvellement formés lors de la première visite de la pièce en question. Pour le démontrer, une équipe de chercheurs a marqué les neurones en formation dans des cerveaux de souris. Ces dernières ont été entraînées à nager dans une piscine où la seule possibilité de sortir de l'eau consistait à monter sur une plate-forme cachée sous la surface. Placés aléatoirement dans l'eau, les animaux apprennent, au fur et à mesure des essais, le chemin pour rejoindre cet abri. Un mois plus tard, les chercheurs les ont remis dans la même situation avant d'observer leur cerveau. C'est alors qu'ils ont pu constater l'implication des neurones marqués formés un mois auparavant dans la mise à jour et le renforcement du souvenir spatial. Des études précédentes avaient mis en évidence la production continue de neurones dans l'hippocampe (le centre de la mémoire spatiale dans le cerveau) tout au long de la vie adulte des mammifères. Ces dernières observations permettent de préciser le rôle de ces nouveaux neurones dans les processus de mémoire.Les auteurs de cette publication émettent l'hypothèse de l'existence d'un "étiquetage" des nouveaux neurones immatures présents dans l'hippocampe lors de l'apprentissage initial : un marquage qui permettrait, lorsque la situation se reproduit, de recruter précisément ces nouveaux neurones afin de mettre à jour l'information préalablement apprise. Yahoo
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|