RTFlash

RTFLASH Recherche & Technologie
NUMERO 593
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Avril 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
TV connectée : vers l'hybridation des données pour élargir la bande passante
Une mémoire lumineuse pour les futurs ordinateurs quantiques
Numérisation du patrimoine culturel mondial : Google n'est pas au-dessus des lois
Avenir
L'avenir de la réalité virtuelle ? Dans la lunette !
Nouvelle piste pour un traitement du cancer de la prostate grâce aux nanotechnologies
Des composants nanoélectroniques en carbone
Nanomédecine : comment échapper à la réponse immunitaire?
Matière
Véhicule électrique : vers la recharge sans fil
Récupérer la chaleur des égouts pour chauffer un groupe scolaire parisien
Espace
Les galaxies sont nées peu après le big bang
Vivant
Des reins produits à partir de cellules souches
Identification d'un nouveau groupe de mutations génétiques
L'influence de la vitamine A sur les défenses immunitaires
Une rétine fabriquée à l'aide de cellules souches embryonnaires
Arrêter de fumer diminue le risque suicidaire
L’action inattendue du bisphénol A sur l’oreille interne de certains vertébrés
Des avancées dans la compréhension de la communication neuronale
Trisomie 21 : premier essai thérapeutique encourageant
Des cellules fabriquées à la chaîne
Quand l'organisme se vaccine lui même !
Hépatite C : vers une nouvelle ère thérapeutique
Recherche
Pollution de l'air : le gouvernement veut interdire les véhicules les plus polluants en ville
Une Leaf très branchée
Edito
Produire toute notre énergie de manière propre et durable : un objectif à notre portée



La production mondiale d'électricité en 2010 a été de l'ordre de 20 000 TWh et a retrouvé son niveau de 2008 après une baisse globale de la production d'électricité mondiale qui s'explique essentiellement par la récession mondiale et le ralentissement de l'activité économique.

On estime qu'en 2011, 65% de l'électricité mondiale est encore produite à l'aides d'énergies fossiles (gaz, charbon et pétrole), 15% par le nucléaire, 15 % par l'énergie hydraulique et seulement 5 % avec l'ensemble des autres énergies renouvelables. Malgré une légère diminution en fin de période, l'hydraulique reste la principale filière de production d'électricité renouvelable : en 2009 elle représentait encore 84,3 % de l'électricité renouvelable, devançant l'éolien (7 %) et la biomasse (6,3 %). La croissance de la filière va perdurer dans les prochaines années. Selon l'atlas de la revue The International Journal on Hydropower & Dams, 172 GW de barrages hydroélectrique sont actuellement en construction dans le monde dont 70,9 % en Asie, 10,8 % en Amérique du Sud et 4,6 % en Afrique.

La croissance de l'électricité éolienne a également été remarquable. Elle est devenue en 2009 la deuxième filière renouvelable pour la production d'électricité avec 268,1 TWh, devançant pour la première fois la biomasse. Sur la période étudiée dans cet inventaire (1999-2009), l'éolien a contribué au quart de l'augmentation de la production d'électricité renouvelable (+ 247 TWh sur une augmentation de 1000,7 TWh) et 204,4 TWh supplémentaires ont été produits depuis 2003. Elle est actuellement l'énergie renouvelable la plus à même de seconder la filière hydraulique pour stopper l'augmentation continue de l'utilisation des combustibles fossiles pour la production d'électricité. La puissance éolienne installée dans le monde fin 2009 est de 150 000 MW, soit le double de la puissance installée en 2006.

La contribution des centrales électriques utilisant la biomasse sous toutes ses formes (biomasse solide, biogaz, déchets municipaux renouvelables et biomasse liquide) a également été significative, bien qu'elle ait perdu en 2009 son rang de deuxième source renouvelable pour la production d'électricité. Elle a permis la contribution depuis 2003 de 81,3 TWh supplémentaires et 114,9 TWh entre 1999 et 2009. Elle représente désormais 6,3 % de la production d'électricité renouvelable, soit un chiffre de 241,2 TWh.

La production solaire n'est pas encore significative à l'échelle mondiale (0,6 % de l'électricité renouvelable dans le monde en 2009). Cette part correspond à une production de 21,4 TWh (20,5 TWh de photovoltaïque et 0,92 GWh de solaire thermique). Cette position actuelle doit cependant être relativisée car le solaire n'est actuellement développé à grande échelle que dans un nombre restreint de pays. L'Espagne (6,9 TWh), l'Allemagne (6,2 TWh), le Japon (2,9 TWh) et les États-Unis (2,4 TWh) représentent à eux quatre 85,7 % de la production d'électricité solaire mondiale.

La croissance de la production d'électricité solaire est spectaculaire, la plus dynamique de l'ensemble des filières de production d'électricité (+ 36 % par an en moyenne entre 1999 et 2009). Son niveau de production est passé d'un peu moins d'1 TWh à 21,4 TWh en l'espace d'une décennie. Le solaire est aujourd'hui au même niveau de production que l'était l'éolien en 1999 et devrait suivre une courbe de progression encore plus dynamique. L'industrie photovoltaïque est entrée dans l'ère de la production de masse, renforcée depuis quelques années par la présence des acteurs chinois qui revendiquent le rang de premier producteur mondial.

La production mondiale de cellules photovoltaïques est passée sur la période 1999-2009 de 202 MWc à 12 318 MWc. En 2009, la puissance solaire (photovoltaïque et solaire thermique) recensée dans le monde a progressé de 6 944 MW par rapport à 2008 et passe à 21691 MW. La contribution de l'électricité produite à partir de ressources géothermiques a été plus limitée. Sa production augmente néanmoins de 15,2 TWh entre 1999 et 2009, lui permettant d'atteindre 65 TWh en 2009 (1,7 % de la production d'électricité renouvelable mondiale). Les centrales géothermiques sont développées dans les zones volcaniques et les zones d'activité tectonique comme celle de "la ceinture de feu" qui borde, à l'ouest et à l'est, l'océan Pacifique. Comme on vient de le voir, les énergies renouvelables vont continuer leur progression dans le mix électrique mondial.

Cette progression est particulièrement visible dans l'Union européenne. Le rapport "Renewable Energy Snapshots" publié début juillet 2010 par le Centre commun de recherche (CCR) de la Commission européenne révèle que 62 % (17 GW) de la capacité de production d'électricité nouvellement installée dans l'Union des Vingt-Sept en 2009 reposait sur des sources renouvelables. Pour la deuxième année consécutive, c'est l'énergie éolienne qui représente la plus grande partie de la capacité nouvelle installée, avec 10,2 GW sur 27,5 GW, soit 38 % du total.

Une étude publiée en mars 2010 par le très sérieux cabinet de consultant Pricewaterhouse Coopers estime "techniquement" possible de produire 100 % d'électricité renouvelable en Europe d'ici à 2050, en interconnectant les réseaux européens et nord-africains. Ces lignes permettraient d'importer de l'électricité d'Afrique du Nord et des régions périphériques de l'Europe vers les grands centres de consommation.

Dans ce "grand réseau intelligent", seraient connectées les différentes productions renouvelables dans les zones les plus appropriées. L'éolien en mer du Nord et en mer Baltique, le solaire à concentration dans le sud, l'hydraulique en Scandinavie et dans les Alpes, et ainsi l'introduction de technologies de réseaux intelligents permettra d'optimiser l'équilibre entre la consommation et la production décentralisée et intermittente. Même en considérant des scénarios plus modestes, comme celui de l'AIE (55 % d'électricité renouvelable en Europe en 2050), on constate néanmoins que sur une tendance longue la production d'électricité renouvelable est loin d'avoir fini sa croissance.

C'est dans ce contexte que vient d'être publiée, en février 2011, dans le journal "Energy Policy" une très sérieuse étude réalisée par deux éminents chercheurs de l'Université de Stanford , Mark Z. Jacobson et Mark A. Delucchi et intitulée "Assurer la totalité de l'énergie mondiale avec le vent, l'eau et l'énergie solaire (WWS)". Cette étude analyse la faisabilité de la fourniture d'énergie à travers le monde, à toutes fins (électricité, transport, chauffage / refroidissement, etc..) à partir du vent, de l'eau et de la lumière du soleil." (Providing all global energy with wind, water, and solar power, Part I: Technologies, energy resources, quantities and areas of infrastructure, and materials (Stanford et Stanford).

Selon cette étude rigoureuse, 9 % de la demande mondiale pourrait être couverts par l'eau, 51 % par le vent, en utilisant 3,8 millions d'éoliennes de 5 MW ( pour une surface utilisée de 50 km2) et le reste, soit 40 %, serait assuré par le solaire (photovoltaïque et thermodynamique) grâce à 89 000 unités solaires de 300 MW. 900 stations hydroélectriques, dont 70 % sont déjà construites, viendraient compléter ce nouveau paysage énergétique mondial.

"Une telle infrastructure WWS ( Wind, Water, Sun)  réduirait la demande mondiale en électricité de 30 % et ne nécessiterait que 0,59 % des terres disponibles sur la planète. Nous préconisons de produire toute l'énergie avec des WWS en 2030 et un remplacement de l'énergie existante (NDLR : fossile), d'ici 2050. Les obstacles aux changements sont surtout d'ordre sociaux et politiques, et non pas technologiques ou économiques. Le coût de l'énergie dans un monde WWS devrait être similaire à celui d'aujourd'hui."

Selon les auteurs de cette étude, le coût global d'un tel système de production d'énergie propre serait de l'ordre de 70 000 milliards d'euros sur 20 ans, ce qui représente un investissement correspondant à 7 % du produit mondial brut  pendant 20 ans. Les auteurs soulignent qu'un tel investissement pourrait être amorti en premier lieu par la vente croissante de cette électricité propre mais également grâce à un cadre fiscal incitatif, une taxe carbone universelle qui pèserait de plus en plus lourdement sur les énergies fossiles et la réduction très sensible, liée à la décarbonisation massive de notre production d'énergie, des dommages infligés au climat, à l’environnement et à la biodiversité. Une autre étude très sérieuse publiée en juin 2009, réalisée par l’Université d’Harvard et publiée par l’Académie des Sciences des USA ( Global potential for wind-generated electricity (PNAS) avait déjà montré que l’éolien continental pouvait couvrir plus de 40 fois la tonalité de la demande électrique mondiale et 5 fois la demande énergétique totale de l'humanité...

Enfin, l’étude publiée en 2008 dans la revue « Scientific American », et intitulée « Solar Grand Plan ». (Solar Grand Plan) consiste à couvrir de panneaux solaires plusieurs dizaines de kilomètres carrés de terres désertiques - et très ensoleillées - qui abondent dans les Etats du sud-ouest des Etats-Unis. Les auteurs assurent que, loin d’être une utopie, ce « grand plan » est réaliste technologiquement et supportable financièrement. D’emblée, le grand plan rejette la solution des piles - trop chère et inefficace - au bénéfice du stockage sous forme de gaz comprimé.

Au moment où l'avenir du nucléaire civil est sérieusement remis en question à cause de la catastrophe de Fukushima, les grandes puissances économiques mondiales, par ailleurs confrontées à l'épuisement et au renchérissement inéluctables des énergies fossiles, doivent s'inspirer de ces études sérieuses et convergentes pour coordonner leurs efforts au niveau planétaire pour préparer l'humanité à la fin accélérée des énergies fossiles.

A cet égard, le dernier rapport de prospective de la banque HSBC [pdf, 5 Mo] est alarmiste. “Nous sommes convaincus qu’il ne nous reste qu’une cinquantaine d’années de pétrole”, insiste l’auteur principal de l’étude, Karen Ward, qui occupe la fonction de senior global economist au sein de la deuxième banque mondiale. L’Europe, faute de disposer de sources d’énergie suffisantes, devrait être “la grande perdante”, selon le rapport. HSBC souligne de plus que le risque de pénurie existe “même si la demande n’augmente pas”. Tirée par la croissance des économies émergentes, la demande mondiale de pétrole devrait passer de 4,4 milliards de tonnes en 2011 à 9,4 milliards de tonnes par an en 2050 selon cette étude. L’Agence internationale de l’énergie prévoit pour sa part une demande mondiale d'au moins 5 milliards de tonnes par an en 2035, dans son scénario médian.

Ce scénario n'est pas tenable car, il faut inlassablement le rappeler, l’utilisation des énergies fossiles dans tous les secteurs d'activités humaines est de loin la première cause des émissions humaines de gaz à effet de serre qui ont été multipliées par 10 en moins d'un siècle. Il faut donc mettre en oeuvre dès à présent une transition énergétique historique à l'échelle de l'espèce humaine pour lutter efficacement contre le réchauffement climatique, préparer l'après pétrole et relancer ainsi de manière durable l'innovation et l'économie mondiale. L'Europe doit jouer un rôle moteur dans ce grand projet de civilisation en accélérant sa transition vers les énergies renouvelables d'ici à une génération et en devenant la laboratoire mondial de la recherche et de l'expérimentation dans ce domaine vital pour notre avenir.

René Trégouët

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
TV connectée : vers l'hybridation des données pour élargir la bande passante
Jeudi, 14/04/2011 - 15:00

La télévision dite connectée soulève notamment des questions techniques, par exemple au niveau de l’allocation de la bande passante, rappelle le laboratoire d'électronique du MIT. Cela, au vu du nombre important de données qui circuleront. En effet, cette dernière permettra de voir des vidéos en streaming en même temps que ses amis tout en pouvant échanger des commentaires. De plus, la prolifération des appareils nomades multimédias concourt à d’importantes demandes de bande passante. Autant d’évolutions technologiques qui nécessitent une optimisation des réseaux, auxquels le laboratoire veut répondre en proposant un modèle de réseau codé.

Dans une connexion traditionnelle, les paquets de données sont reliés de la source à la destination par des routeurs, qui lisent les informations utiles en laissant les autres de côté. Ici, avec le codage de réseau, les contenus de différents paquets sont mélangés : chez le récepteur un ordinateur permet de trier les données et par conséquent, chaque paquet hybride représente le contenu de plus d’un paquet traditionnel, ceci afin d’économiser et d’optimiser les allocations de bande passante. Selon les responsables du projet, cela permettra d'assurer une connexion plus fluide malgré une importante quantité de données en circulation.

L’hybridation des paquets les rend par ailleurs indéchiffrables, ce qui, estiment les chercheurs, améliorera dans les deux sens la sécurité du contenu partagé par les utilisateurs et les fournisseurs de service. Une fois les paquets décodés, il est donc possible d’accéder à des données de type traditionnel. Via cette méthode de codage, les scientifiques jugent qu'il sera possible de contrôler son accès tout en délivrant aux utilisateurs les clefs pour décrypter les vidéos qu’ils ont demandées.

L'Atelier

Une mémoire lumineuse pour les futurs ordinateurs quantiques
Jeudi, 14/04/2011 - 12:56

Dans des expériences à l'interface de la physique des semi-conducteurs et de la physique quantique, des chercheurs de l'Institut Leibniz de recherche sur les corps solides et les matériaux (IFW) de Dresde (Saxe) et de l'Université technique de Delft (Pays-Bas) ont réussi à ralentir des photons à hauteur de 4 % de la vitesse de la lumière. Dans le domaine de la recherche sur les ordinateurs quantiques, ce résultat est important du fait qu'il ouvre une nouvelle possibilité visant à développer de la mémoire quantique par un système d'impulsions optiques.

Les points quantiques des semi-conducteurs ne représentent que quelques dizaines de milliers d'atomes, soit des "îles" de seulement quelques nanomètres (millionièmes de millimètre). En raison de cette taille, les porteurs de charge ne peuvent plus se déplacer librement. Les niveaux d'énergie sont similaires à celui d'un atome, de sorte que les points quantiques sont également décrits comme des atomes artificiels. Une propriété importante des points quantiques dans les semi-conducteurs se situe dans leur capacité à émettre des photons uniques. De plus, ils sont aussi facilement intégrés dans les systèmes standards de la microélectronique. Les scientifiques de l'IFW et de l'Université technique de Delft ont alors développé un nouveau type de point quantique qui est capable d'émettre des photons exactement à une fréquence à laquelle la lumière peut être freinée.

Dans leurs expériences, les chercheurs ont ainsi réussi à observer des photons émis par des points quantiques à travers un gaz d'atomes de rubidium. A travers ce gaz, les photons sont ralentis d'une manière telle qu'ils deviennent contrôlables pendant un court instant, sans changer de forme. Ces résultats pourraient servir de base à l'élaboration d'une mémoire quantique par des propriétés optiques. Ils sont la première démonstration mondiale d'un stockage non-classique de lumière sur la base de photons individuels émis sur demande.

Bulletins Electroniques

Numérisation du patrimoine culturel mondial : Google n'est pas au-dessus des lois
Vendredi, 08/04/2011 - 01:00

ANALYSE

Dans mon éditorial du 29 janvier 2010 "Accès à la culture numérique : vers un nouveau partenariat public-privé" et du 23 octobre 2009 "Livre électronique : qui va contrôler l'accès au savoir ?" je faisais part de mes réserves quant aux conséquences à terme du quasi monopole de fait de Google en matière de numérisation des oeuvres littéraires et culturelles et je soulignais l’absence, à mon sens dommageable, de véritable stratégie globale, fédérant acteurs publics et privés, face à l’hégémonie écrasante du géant numérique américain qui venait d’annoncer le lancement en 2010 de Google Editions, son service de commercialisation de livres électroniques.

Mais depuis un an, Google a subi une série de défaites juridiques, tant au niveau national qu'international, qui remettent sérieusement en cause son projet de conduire un quasi-monopole mondial en matière d’accès aux contenus numériques (Google a déjà numérisé plus de 15 millions de livres). Déjà en décembre 2009, le TGI de Paris avait condamné le moteur de recherche à 300 000 euros de dommages et intérêts, à la demande de l'éditeur français La Martinière, pour avoir diffusé des extraits d'ouvrages sans l'accord des ayants droits.

Google a également été contraint de soumettre le 13 novembre 2009, à la justice américaine, une version remaniée de l’accord conclu l’an dernier pour "Google Books". Selon cet accord, Google s'engage à verser 125 millions de dollars pour rémunérer les auteurs dont les œuvres auraient été numérisées sans autorisation et à établir un "fonds de droits du livre" assurant un revenu aux auteurs acceptant que leurs livres soient numérisés.

Enfin, le 22 mars 2011, le juge fédéral américain Dennis Chin, dans une décision courageuse qui n'a pas fini d'être commentée (Voir l'arrêt de la Cour Fédérale de New York), a clairement rejeté le projet d'accord entre Google et les éditeurs de livres US, considérant qu'il n'était ni "équitable", ni "adéquat", ni "raisonnable". Cet accord en discussion depuis 2009 devait permettre à Google de régler un contentieux sur le versement de droits d'auteur dans le cadre du projet de bibliothèque numérique de Google. L'accord concernait par défaut l'ensemble des propriétaires de catalogues littéraires, qui devaient eux-mêmes choisir de s'y soustraire s'ils ne souhaitaient pas que leurs œuvres soient numérisées par Google. Selon le juge Dennis Chin, ce mode de fonctionnement revenait à légitimer le recours à des pratiques illégales de la part de Google qui commence par numériser sans autorisation les oeuvres puis négocie ensuite.

Approuver un tel accord aurait par ailleurs conféré à Google un avantage certain sur ses concurrents, parmi lesquels figurent Amazon et Microsoft. Le juge fédéral estime donc nécessaire de revoir cet accord en le basant sur le principe de l'opt-in (accord préalable) des éditeurs plutôt que sur l'opt-out (refus a posteriori).

Le ministre de la Culture, Frédéric Mitterrand, a exprimé sa satisfaction du rejet par la justice américaine de l'accord entre Google et les auteurs et éditeurs de ce pays, qui signe le gel du projet de bibliothèque universelle du géant de l'internet. Le ministre "constate que cette décision va dans le sens des observations adressées par le gouvernement français au juge américain concernant l'atteinte portée au droit d'auteur par le programme Google Livres" (Google Books).

"Cette décision de justice valide la stratégie mise en oeuvre en France par le ministère et les professionnels français du livre pour favoriser la diffusion des oeuvres dans l'univers numérique tout en respectant le droit d'auteur", ajoute le communiqué, citant "le partenariat négocié avec les auteurs et éditeurs pour numériser 500.000 livres indisponibles du XXe siècle".

Le Syndicat national de l'édition (SNE) "se réjouit" également du rejet par le juge américain du règlement Google, "fondé sur des principes qui vont à l'encontre du droit d'auteur". Déjà en décembre 2009, le TGI de Paris avait condamné, je l’ai dit ci-dessus, le moteur de recherche à 300 000 euros de dommages et intérêts, à la demande de l'éditeur français La Martinière, pour avoir diffusé des extraits d'ouvrages sans l'accord des ayants droits.

Mais ces victoires juridiques ne changent rien au rapport de force numérique : Google a scanné plus de 15 millions de livres depuis 10 ans alors que Gallica donne accès à 900 000 documents dont 145 000 livres numérisés. Quant à la bibliothèque numérique Europeana, elle n’est aujourd’hui qu’un "portail de consultation".

A présent, en s'appuyant sur ce nouveau cadre juridique, il faut aller plus loin et mettre en oeuvre la principale mesure du rapport Tessier, publié en janvier 2010, sur la numérisation du patrimoine écrit : rechercher une autre forme de partenariat, fondé sur l’échange équilibré de fichiers numérisés, sans clause d’exclusivité. Le but est de parvenir à un accord global équitable visant, non pas à faire prendre en charge l’effort de numérisation mais à le partager, en échangeant des fichiers de qualité équivalente et de formats compatibles.

Dans ce nouveau cadre, chaque partenaire resterait libre de disposer des fichiers obtenus par l’échange. Ainsi, les livres français seraient référencés dans Google Livres, mais la plate-forme nationale serait enrichie par les ouvrages numérisés par Google.

Tous les acteurs publics et privés de la culture, de l'édition et de l'industrie numérique doivent à présent poursuivre ce dialogue constructif mais exigeant avec Google, acteur incontournable de l’économie virtuelle planétaire dont la capacité d'innovation est indéniable, afin que puisse être trouvé le cadre d'un partenariat équitable en matière de numérisation, d’exploitation et de diffusion de notre patrimoine culturel national et plus largement des richesses culturelles mondiales qui appartiennent à l'humanité toute entière et doivent, quelle que soit l'évolution des technologies numériques, rester accessibles à tous.

Dans cette perspective, le remarquable arrêt du Juge Chin dépasse largement le cadre du droit et s’appuie sur des principes éthiques dont il était bon de rappeler, dans une décision de justice solennelle, la portée universelle.

René Trégouët

^ Haut
Avenir
Nanotechnologies et Robotique
L'avenir de la réalité virtuelle ? Dans la lunette !
Jeudi, 14/04/2011 - 14:51

Aider les employés du secteur médical ou de l’industrie à accéder aux informations plus facilement : par exemple dans un entrepôt industriel, pendant une opération de maintenance ou de chirurgie. Telle est la mission de Laster Technologies. La société, incubée par le CNRS, et présente au Laval Virtual, a développé une paire de lunettes reliée à un boîtier multimédia portable, permettant de visualiser du contenu riche, personnalisé et contextualisé. Cela, sur l'un des verres (un dioptre). Le but : permettre de voir du contenu en relation avec son environnement, tout en gardant l’usage de ses mains puisque le dispositif reconnaît voix et mouvements. Selon les responsables du projet, il suffit de chausser la paire de lunettes.

Une fois activée, la webcam intégrée pourra détecter des marqueurs dans le monde réel permettant de faire afficher des informations ou du contenu multimédia sur la lunette. Les contenus sont diffusés grâce à un mini écran OLED et un miroir intégrés dans une branche des lunettes. Le verre sur lequel les images apparaissent est transparent et semi-réfléchissant, ce qui permet à l’utilisateur de bénéficier d’une vision sur son environnement réel, et virtuel. Au final, l’individu a devant lui l’équivalent d’un écran de 34 pouces, expliquent ses concepteurs à L'Atelier. De plus, une caméra orientée vers le monde réel est intégrée à la lunette et permet aux programmes – réalisés sur mesure – de reconnaître l’environnement réel, comme des marqueurs matriciels pour évoluer dans un entrepôt, par exemple.

En plus de pouvoir assister les chirurgiens, agents de maintenance ou logisticiens, cette technologie est déclinable pour diverses applications, comme pour le ski ou des opérations de défense militaire. Il existe d’ailleurs un masque permettant d’avoir une vision plus large et les yeux protégés. Enfin, ce type de vision enrichie pourra améliorer l’interactivité dans les musées, pour par exemple visualiser du contenu actualisé, ou même des pièces de musées absentes du monde réel. A terme, l’intégration du Wi-Fi, de puces GPS ou 3G permettra d’obtenir des informations utiles en temps réel, comme par exemple des messages de son manager.

L'Atelier

Nouvelle piste pour un traitement du cancer de la prostate grâce aux nanotechnologies
Jeudi, 14/04/2011 - 12:49

Une équipe internationale de recherche autour de Rutledge Ellis-Behnke, Directeur du "Nanomedicine Translational Think Tank" de la Faculté de médecine de Mannheim-Université de Heidelberg, a développé une méthode qui pourrait empêcher les cellules souches cancéreuses de se multiplier et de se métastaser. Les cellules étudiées sont des cellules souches de tumeurs de la prostate. Elles sont responsables de la progression du cancer ainsi que de la formation de métastases et représentent donc un point d'attaque important pour pouvoir contrôler et enrayer la maladie.

Le nanomatériau développé par les scientifiques est constitué de petites protéines qui s'auto-organisent en structures ordonnées (nommées self-assembling nanomaterials made of peptides, SAP). D'après les résultats de l'étude réalisée, ces "pièges" entourent les cellules souches et les empêchent ainsi de se différencier et de se déplacer. Les cellules ne se divisent plus et forment des colonies. Les nanoparticules auto-organisées pourraient donc arrêter la progression de cancers et la formation de métastases. Elles peuvent de plus bloquer les cellules souches, qui échappent normalement aux traitements locaux en migrant, et rendre ces thérapies plus efficaces.

Les résultats de l'étude ont été publiés dans la revue "Cell Transplantation" par Rutledge Ellis-Behnke et ses collègues de l'Université de Hong-Kong. "Nous avons pu montrer que les SAP pouvaient faire cesser l'auto-renouvellement des cellules souches à long terme, sans influencer leur capacité de survie ou leurs propriétés spécifiques durablement."

Les résultats offrent une nouvelle piste à partir de laquelle une nouvelle stratégie de traitement contre des cancers jusqu'ici incurables pourrait être développée. Une solution serait de coupler les SAP aux agents chimiothérapeutiques et de les injecter directement dans la tumeur. Ceci pourrait permettre d'éviter que les cellules souches esquivent le traitement. Les résultats obtenus grâce aux études réalisées sur des cultures cellulaires doivent encore être vérifiés par d'autres études.

Bulletins Electroniques

Des composants nanoélectroniques en carbone
Samedi, 09/04/2011 - 07:32

Une équipe de recherche de l'Institut Niels Bohr, de l'Université de Copenhague, a fait une découverte qui pourrait être d'importance pour les composants nanoélectroniques. Elle a montré, en collaboration avec des chercheurs japonais, que les électrons de fins tubes de graphite possèdent une interaction unique entre leurs mouvements et leur champ magnétique associé, c'est-à-dire leur spin. Cette découverte ouvre la voie à un contrôle sans précédent du spin des électrons, et aura des répercussions dans le domaine de la nanoélectronique basée sur le spin. Les résultats ont été publiés dans la revue scientifique Nature Physics.

Le carbone est un matériau quasi universel. Il est à la base de tous les organismes vivants, mais également prisé pour sa beauté et sa dureté sous forme de diamant et pour sa couleur noire dans les crayons sous forme de graphite. Il pourrait également être à la base des ordinateurs du futur, lorsque les composants électroniques pourront être faits d'une couche de graphite de l'épaisseur d'un atome, comme cela a été réalisé pour la première fois en laboratoire en 2004 (ces travaux ont d'ailleurs été récompensés l'année dernière par le prix Nobel de physique).

En plus de leur charge, tous les électrons ont aussi un champ magnétique, appelé spin. Il faut s'imaginer que tous les électrons gravitent autour d'un aimant en forme de bâton. Le spin des électrons serait potentiellement une bonne base pour les puces d'ordinateur du futur, mais leur développement a été freiné par la difficulté à maîtriser et mesurer le spin des électrons. Or, lorsqu'ils sont sous forme de couche fine de graphite, les électrons de carbone ne sont pas influencés dans leurs mouvements par leur spin, et les aimants en forme de bâtons sont dirigés dans toutes les directions. Le graphite n'a ainsi jamais été un vrai sujet pour l'électronique basée sur le spin.

"Nos résultats montrent cependant que, si la couche de graphite est tubulaire, d'un diamètre de quelques nanomètres, le spin de chaque électron est soudainement fortement influencé par le spin de ses voisins. Comme les électrons sont de plus forcés à se mouvoir uniquement en cercle autour du tube, tous les spins se font ainsi autour du tube", expliquent Thomas Sand Jespersen et Kasper Grove-Rasmussen, du centre de Nanoscience à l'Institut Niels Bohr.

On supposait précédemment que ce phénomène ne pouvait avoir lieu que dans le cas très particulier d'un électron faisant partie d'un tube de carbone flottant dans le vide, une situation très difficile à avoir en réalité. Ces résultats montrent que ce phénomène se produit également dans des situations bien plus proches de la réalité, où le tube de carbone se trouve dans une atmosphère réelle, et où il possède son lot d'imperfections et d'impuretés.

La relation entre le mouvement et le spin est calibrée pour envoyer un courant électrique dans le tube, dans lequel le nombre d'électrons peut être contrôlé à l'unité. Les deux chercheurs danois expliquent que des recherches précédentes ont montré qu'il était possible d'augmenter l'effet ou de le couper, en fonction du nombre d'électrons présents dans le tube. Cela ouvre évidemment bien des portes pour le contrôle et l'utilisation du spin d'un électron.

BE

Nanomédecine : comment échapper à la réponse immunitaire?
Vendredi, 08/04/2011 - 20:10

Les chercheurs sont aujourd'hui capables d'administrer des produits actifs médicamenteux à travers les barrières de protection du corps en les empaquetant dans des nanoparticules de la taille d'un virus. De nouvelles recherches répondent aujourd'hui à un autre défi de la nanomédecine : comment échapper à la réponse immunitaire ?

La médecine à une échelle nanoscopique offre un nombre extraordinaire de nouvelles possibilités pour le traitement précis de maladies humaines. Cela ressemble parfois à de la science-fiction, mais les chercheurs ont petit à petit découvert son potentiel. "Les chercheurs peuvent aujourd'hui empaqueter des substances médicamenteuses dans des nanoparticules de la taille d'un virus. Ces nanoparticules sont efficaces pour la distribution des médicaments, car elles peuvent très précisément trouver les cellules malades et leur apporter les médicaments. Cela signifie qu'on peut travailler avec des quantités bien inférieures de médicaments, et ainsi réduire les effets secondaires", explique le professeur Moein Moghimi de la Faculté de Pharmacie de l'Université de Copenhague, qui a publié en collaboration avec des collègues danois et étrangers un article dans la revue scientifique ACS Nano sur les réactions immunitaires humaines aux nanoparticules.

Les chercheurs ont en effet démontré que la surface des particules a une importance majeure dans l'activation de la réponse immunitaire - la couche polymère de protection peut être dessinée de plusieurs formes différentes, et la forme finale modifie drastiquement la réponse immunitaire du corps. "Délivrer des médicaments grâce à des nanoparticules couvertes d'une couche de polymères solubles dans l'eau est une solution efficace. La surface ressemble à de l'eau et les particules ressemblent donc moins à des particules nocives pour le système immunitaire corporel ; il s'agit en quelque sorte d'un camouflage. La couche protectrice leur permet de circuler relativement longtemps dans le système sanguin, et augmente donc leurs chances de trouver leur objectif. Cependant, la partie du système immunitaire appelée système complémentaire peut toujours être influencée par ces particules. Nous avons justement publié des résultats qui montrent que même la forme de la couche protectrice a une influence sur la réaction immunitaire associée", continue Moein Moghimi.

Le professeur Moein Moghimi se concentre sur la nanotoxicologie, et les nombreuses conséquences de la distribution de médicaments avec des nanoparticules. "Nos derniers résultats montrent qu'il faut être très prudent lorsque l'on dessine la forme finale de la couche protectrice de la nanoparticule qui doit se promener dans le corps. Nous avons essayé deux types différents : une forme en champignon et une forme en brosse et les deux ont activé le système immunitaire complémentaire, mais de manière complètement différente", poursuit Moein Moghimi.

Ces résultats sont d'une grande importance clinique. Une activation de la réponse immunitaire peut donner des réactions violentes chez certains patients, et serait équivalente aux effets secondaires des médicaments actuellement utilisés, mais en taille nanoscopique. Le futur défi est de former des nanoparticules compatibles avec des fluides corporels, qui soient donc hydrophile, mais qui parviennent en même temps à passer au travers de la barrière immunitaire.

BE

^ Haut
Matière
Matière et Energie
Véhicule électrique : vers la recharge sans fil
Jeudi, 14/04/2011 - 15:08

Le véhicule électrique va-t-il se libérer du fil pour recharger sa batterie ? C’est possible. En tout cas, Siemens planche sur la question. A la foire de Hanovre, en Allemagne, il a fait démonstration d’un système de recharge par induction. Le dispositif a été développé en coopération avec BMW. Il fonctionne même quand le conducteur fait des petites haltes pour se ressourcer. Selon l’équipementier allemand, les stations de recharge peuvent être facilement intégrées dans pratiquement n'importe quel endroit, ce qui les rend presque invisibles et les protège efficacement contre le vandalisme. En Juin 2011, il sera testé dans un projet financé par le ministère allemand de l'environnement sur plusieurs véhicules à Berlin.

La station de recharge est connectée au réseau électrique public par une bobine primaire enterrée. Une bobine secondaire est fixée dans la voiture de façon à ce que la distance entre les deux bobines soit généralement de 8 à 15 centimètres. Lorsque le conducteur commence le processus de recharge, un courant électrique se met à circuler dans la bobine primaire. Le champ magnétique résultant induit un courant électrique dans la bobine secondaire, qui recharge la batterie. Selon Siemens, le rendement de transmission d’énergie est supérieur à 90 %. Le champ magnétique généré se concentre dans une zone entre des deux bobines. Dans et autour du véhicule, il resterait largement en deçà des limites sanitaires.

À partir de mai, un prototype d'une puissance de recharge de 3,6 kilowatts sera testé sur un véhicule électrique. A partir de juin, le test sera suivi par des essais à Berlin afin de déterminer les améliorations nécessaires pour intégrer le système dans des véhicules fabriqués en série. Le système permet également une utilisation intelligente de l'énergie, dans la mesure où la voiture sert aussi de stockage d'énergie solaire et éolienne.

Industrie&Technologies

Récupérer la chaleur des égouts pour chauffer un groupe scolaire parisien
Jeudi, 14/04/2011 - 11:12

Afin de réduire ses émissions de gaz à effet de serre, la Ville de Paris s'est dotée, depuis 2007, d'un Plan Climat. L'un de ses axes principaux concerne le développement des énergies renouvelables, l'objectif étant que celles-ci atteignent 30 % de la consommation d'énergie de la ville de Paris à l'horizon 2020. C'est dans ce contexte que la Ville de Paris a décidé de réaliser une première expérimentation consistant à récupérer la chaleur des eaux usées circulant dans le collecteur des Coteaux de son réseau d'assainissement pour couvrir plus de 70 % des besoins annuels de chauffage du groupe scolaire Wattignies situé dans le XIIème arrondissement. Une solution, proposée par le groupement CPCU/Lyonnaise des Eaux qui permet ainsi d'éviter chaque année l'émission de 76,3 tonnes de CO2.

Rappelons que l'activité humaine en ville est productrice de chaleur, via notamment les appareils électro-ménagers qui évacuent de l'eau portée à haute température, ceci tout au long de l'année. Or les eaux usées qui circulent dans les égouts conservent une partie de cette chaleur. D'où leur température qui se situe entre 12°C et 20°C selon le moment de la journée et les saisons. Pour récupérer les calories contenues dans ces eaux, c'est la technologie Degrés Bleus, brevetée par Lyonnaise des Eaux, qui a été choisie. Il s'agit de faire passer l'eau sur la surface d'une plaque d'inox qui intègre des tuyaux parcourus par un fluide caloporteur (eau glycolée) circulant en boucle fermée à l'intérieur des échangeurs. Au contact du métal, le fluide se réchauffe avant d'alimenter une pompe à chaleur qui va alors concentrer les calories jusqu'à une température de 60°C. Il ne reste plus qu'à transmettre cette chaleur au réseau habituel de chauffage de l'école.

Sûr et non polluant, ne nécessitant aucune combustion et assurant uniquement la transmission de la chaleur, ce système de récupération de calories peut être mis en place dans certaines zones, par exemple les grands ensembles de bâtiments (écoles, complexes sportifs, bâtiments administratifs ... ) ou dans des quartiers à forte consommation de chaleur. Précisons que la réalisation de cette "première" dans le groupe scolaire Wattignies, qui a nécessité notamment l'installation d'une pompe à chaleur dans ses locaux et de 60 mètres d'échangeur dans le collecteur des Coteaux, s'est élevée à 400.000 euros, les travaux ayant été effectués entre octobre 2010 et janvier 2011, les essais de mise en service de l'installation s'étant déroulés de février à début mars 2011.

BE

^ Haut
Espace
Espace et Cosmologie
Les galaxies sont nées peu après le big bang
Jeudi, 14/04/2011 - 15:46

Une équipe de chercheurs, menée par Johan Richard (Centre de recherche et d’Astrophysique de Lyon - CNRS/Université Lyon 1/ENS Lyon) et Jean-Paul Kneib (Laboratoire d’Astrophysique de Marseille – CNRS/Université de Provence) a découvert une galaxie lointaine qui contiendrait des étoiles âgées de 750 millions d’années, plaçant l’époque de sa formation à environ 200 millions d’années après le Big Bang. Ces résultats obtenus grâce aux effets de lentille gravitationnelle d’un amas de galaxies, suggèrent que les premières galaxies se seraient formées bien plus tôt que prévu et apportent un éclairage capital sur leur formation et sur leur évolution au début de l’Univers. Ils seront publiés prochainement dans la revue Monthly Notices of the Royal Astronomical Society.

D’après Johan Richard, premier auteur de l’article : "les mesures obtenues sur cette galaxie lointaine suggèrent qu’elle aurait commencé à former ses étoiles seulement 200 millions d’années après le Big Bang." La découverte d’une telle galaxie défie les théories de formation et d’évolution des galaxies actuellement en vigueur. Elle pourrait aider à résoudre le mystère concernant la ré-ionisation du gaz d’hydrogène neutre qui remplissait l’Univers à ses débuts.

Cette galaxie a pu être détectée grâce à l’amplification gravitationnelle de l’amas de galaxies Abell 383, dont l’importante force de gravitation, selon la théorie de la Relativité Générale d’Einstein, amplifie les rayons de lumière des galaxies plus distantes à la manière d’une loupe déformante. La découverte de cette galaxie est exceptionnelle car seul un alignement naturel quasi parfait entre la source, l’amas de galaxies et la Terre en a permis la détection.

La galaxie a tout d’abord été identifiée avec le télescope spatial Hubble (NASA – ESA), puis confirmée sur des images du télescope spatial Spitzer (NASA). L’équipe a ensuite effectué des observations spectroscopiques avec le télescope Keck-II à Hawaï pour mesurer sa distance. Le décalage vers le rouge (redshift en anglais)  mesuré spectroscopiquement est de 6,027, ce qui signifie que cette galaxie est vue telle qu’elle était lorsque l’Univers était âgé d’environ 950 millions d’années. Contrairement aux autres galaxies lointaines détectées, possédant en majorité des étoiles jeunes, elle contiendrait des étoiles âgées de 750 millions d’années, plaçant l’époque de sa formation à environ 200 millions d’années après le Big Bang.

Cette découverte apporte des informations essentielles sur la période de formation des premières galaxies, mais pourrait également expliquer comment l’Univers est devenu transparent aux rayons UV dans le premier milliard d’années après le Big Bang. Au début de l’Univers, un gaz diffus d’hydrogène neutre bloque le cheminement de la lumière ultraviolette dans l’Univers. Pour laisser passer ces rayons UV, des sources de rayonnement important doivent progressivement ioniser l’hydrogène neutre. Les toutes premières populations d’étoiles telles que celles présentes dans cette galaxie lointaine pourraient jouer un rôle important dans ce processus de ré-ionisation de l’hydrogène neutre.

"Il semble probable qu’il existe en fait, dans l’Univers primitif, un plus grand nombre de galaxies formées à la même période que celle que nous avons découverte, » explique Jean-Paul Kneib. "Ces galaxies qui se formeraient alors très tôt dans l’Univers pourraient fournir le rayonnement manquant nécessaire à la ré-ionisation."

CRAL

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des reins produits à partir de cellules souches
Jeudi, 14/04/2011 - 15:32

Des chercheurs de l'Université d'Edimbourg en Ecosse ont réussi à développer en laboratoire de véritables reins humains. Pour cela, ils ont utilisé du liquide amniotique humain et des cellules fœtales animales. Une technologie qui crée l'espoir et pourrait être utilisée chez des patients d'ici une dizaine d'années.

"Cela ressemble un peu à de la science-fiction mais ça n'en est pas. L'idée est de partir de cellules souches humaines et d'aboutir à un organe fonctionnel. Nous avons fait pas mal de progrès avec ça. Nous pouvons créer quelque chose qui a la complexité d'un rein fœtal normal" a expliqué le physiologue Jamies Davies. Pour l'instant, les reins artificiels ne mesurent en effet pas plus d'un demi-centimètre de longueur, soit la taille des organes d'un fœtus. Mais les scientifiques espèrent que ceux-ci grandiront et atteindront la taille normale de reins adultes s'ils sont transplantés chez des patients.

Concluante, l'avancée pourrait présenter de nombreux avantages dans le remplacement d'organes défectueux. En effet, la technologie permettrait de limiter les risques de rejet en créant un organe à partir des propres cellules du patient. Pourtant, se pose le problème du liquide amniotique. Aujourd'hui, les médecins n'ont pas le droit d'effectuer une telle collecte, une fois le bébé né. Mais si celle-ci était autorisée, le liquide amniotique pourrait être conservé et utilisé dans l'hypothèse où le patient souffre un jour de problèmes rénaux. "Congeler quelques cellules est rentable comparé au coût engendré lorsque l'on garde quelqu'un sous dialyse pendant des années" a précisé le Docteur Davies. Les chercheurs travaillent à présent à améliorer la technologie afin d'obtenir des reins parfaitement fonctionnels, dans l'espoir que la conservation de liquide amniotique soit un jour autorisée.

Scotsman

Identification d'un nouveau groupe de mutations génétiques
Jeudi, 14/04/2011 - 14:42

Pour la première fois, Patrick Edery du Centre de recherche en neurosciences de Lyon (Inserm/CNRS/Université de Lyon 1), Anne-Louise Leutenegger de l'unité Inserm 946 « Variabilité génétique et maladies humaines » à Paris et leurs collaborateurs ont décrit un nouveau groupe de mutations génétiques grâce au séquençage du génome. Les chercheurs ont montré l'implication d'un petit ARN dans une maladie génétique chez l'Homme (syndrome de Taybi-Linder). Ce petit ARN, appelé ARNsn – pour Small Nuclear ARN – intervient lors d'une étape cruciale qui précède la synthèse des protéines. La découverte de mutations sur l'ARNsn permettrait à terme l'identification rapide de gènes impliqués dans le développement du cerveau, des os et d'autres tissus. Des perspectives thérapeutiques pourraient en découler. Ces résultats sont publiés dans la revue Science datée du 8 avril 2011.

Lors du développement embryonnaire, l'information génétique supportée par l'acide désoxyribonucléique (ADN), organisé en gènes, subit plusieurs opérations qui mènent à la synthèse des protéines qui constituent l'organisme. Cette information est d'abord transcrite en acide ribonucléique (ARN) messager puis traduite en protéines. Chez les eucaryotes, il existe une étape intermédiaire de maturation de l'ARN pré-messager. Ce processus, connu sous le nom d' « épissage de l'ARN », est rendu possible par l'action du « spliceosome », un outil particulier constitué de petits ARNsn et de protéines. Ce complexe permet d'enlever les parties non codantes de l'ARN pré-messager que l'on appelle « introns » et de souder celles qui sont codantes, appelées « exons », qui seront utilisées lors de la synthèse des protéines.

Les chercheurs révèlent ici une anomalie au sein du « spliceosome » qui est un acteur essentiel en amont de la synthèse des protéines, dès le développement embryonnaire et durant toute la vie pré- et postnatale. Les scientifiques ont identifié une anomalie au niveau d'un des petits ARNsn du spliceosome chez des patients présentant un décès rapide post-natal et des malformations graves du cerveau, des os et d'autres tissus (nanisme microcéphalique primordial de type 1, MOPD1, ou syndrome de Taybi-Linder, TALS).

« Dans un premier temps, l'utilisation d'une nouvelle méthode statistique a permis de localiser le défaut génétique sur une petite région du chromosome 2. Ensuite, les dernières techniques de séquençage haut-débit ont rendu possible l'identification de 4 mutations liées à l'ARNsn dont le nom est U4atac », souligne Anne Louise Leutenegger. Selon les chercheurs, ces mutations sont responsables de la mort précoce quelques mois après la naissance et des malformations sévères du cerveau et des os, observées chez les patients atteints du syndrome de Taybi-Linder. « Grâce à cette découverte, il est maintenant possible de proposer un diagnostic prénatal précoce de cette affection très grave, mais au-delà, l'identification des protéines perturbées par cette anomalie pourrait permettre d'envisager des stratégies thérapeutiques permettant d'éviter le décès », explique Patrick Edery.

Plus important encore, il s'agit de la première implication d'un petit ARNsn du complexe « spliceosome » dans une maladie génétique. Ce travail indique qu'un épissage efficace, c'est-à-dire la maturation de l'ARN pré-messager, est nécessaire pour un développement embryonnaire normal et pour la vie post-natale chez l'homme. En effet, une anomalie observée en amont de la synthèse des protéines a des répercussions importantes sur l'ensemble des étapes du développement embryonnaire et postnatal des individus. « La découverte de ce nouveau mécanisme responsable d'anomalies du développement devrait permettre, grâce à la technique de séquençage du génome, d'identifier de nombreux gènes impliqués dans de graves malformations génétiques », conclut Patrick Edery.

CNRS

L'influence de la vitamine A sur les défenses immunitaires
Jeudi, 14/04/2011 - 14:30

L'équipe du professeur Sidonia FAGARASAN, chercheur au Center for Allergy and Immunology de Yokohama du RIKEN, est parvenue à mettre en évidence la nature de l'effet de la vitamine A sur les lymphocytes B1, démontrant comment une carence peut avoir de lourdes conséquences sur les défenses immunitaires. Stimulatrice des défenses de l'organisme, la vitamine A est largement employée. Cependant, les informations concernant son influence sur les cellules immunitaires restaient encore peu précises.

Présents notamment dans la cavité péritonéale bordant les intestins, l'abdomen et le pelvis, les lymphocytes B1 sont des cellules du système immunitaire capables de produire des anticorps sans l'aide des lymphocytes T. Ils assurent ainsi une réponse de l'organisme dans les premiers instants de l'infection. Une fois sollicitées, les cellules B1 entament un processus de maturation et libèrent des Immunoglobulines M et A (IgA et IgM), anticorps ciblant les bactéries et virus présents dans les intestins et le flux sanguin.

Les scientifiques ont étudié des souris ayant subi un régime alimentaire sans vitamine A. Ils ont alors constaté une baisse notable du nombre de cellules B1 dans la cavité péritonéale et d'une diminution progressive de leur prolifération. Ces cellules ne pouvaient également libérer qu'un nombre très faible d'immunoglobuline A et M.

Malgré la transplantation de lymphocytes B1 provenant de sujets sains, les souris n'ont pas survécu à l'injection d'un vaccin anti-pneumonie employé afin de tester l'efficacité des défenses immunitaires. En effet, une baisse constante dans la prolifération de ces lymphocytes B1 n'a pas permis une défense adaptée à la maladie. Les scientifiques se sont alors intéressés à l'échelle moléculaire et à un facteur de transcription nommé Nuclear Factor of Activited T cells 1 (NFATc1). Ce facteur régule l'expression de nombreux gènes vitaux pour le maintien de l'intégrité et de l'activité des cellules B1. Or les souris avec une carence en vitamine A ont montré un taux de transcription du gène codant pour NFATc1 extrêmement faible.

L'injection de trétinoïne (acide tout-trans-rétinoïque ATRA), molécule dérivée de la vitamine A, dans les cellules B1 a permis une large reprise du niveau de transcription du gène. Ainsi, la prolifération a été restaurée et la population de cellules B1 a quasi quadruplé pendant les 10 jours de traitement. Les scientifiques ont donc démontré que la vitamine A permet une induction d'un des facteurs de transcription les plus importants dans la réponse immunitaire au niveau des lymphocytes B1.

Bulletins Electroniques

Une rétine fabriquée à l'aide de cellules souches embryonnaires
Jeudi, 14/04/2011 - 14:21

Des chercheurs ont réussi à fabriquer en laboratoire une rétine à partir de cellules souches embryonnaires de souris, selon des travaux publiés en ligne par la revue scientifique Nature. Ces travaux pourraient contribuer à la recherche thérapeutique pour les maladies causes de cécité, comme la rétinite pigmentaire, et même déboucher sur la possibilité de restaurer la vue à partir de l'injection de cellules rétiniennes fabriquées à partir de cellules du patient, avancent-ils. Les cellules souches embryonnaires sont virtuellement capables de se transformer en tous types de cellules spécialisées de l'organisme.

Les résultats de l'équipe de chercheurs japonais, dirigée par Yoshiki Sasai du RIKEN Center for Developmental Biology de Kobe démontrent, plus fondamentalement, les capacités à s'auto-organiser des cellules souches embryonnaires, tout en éclairant la dynamique des cellules de l'oeil en développement. En culture, la structure embryonnaire obtenue se développe en trois dimensions - les cellules se divisent et se différencient - pour donner forme aux principales cellules de la rétine, y compris les photorécepteurs, tout en étant "correctement organisées", soulignent les spécialistes britanniques.

Ce travail est qualifié de "extrêmement novateur" par Olivier Goureau de l'Institut de la Vision (Paris) qui travaille dans le même domaine mais avec des cellules souches adultes reprogrammées "iPS". Plus tôt cette année, l'entreprise Advanced Cell Technology a reçu le feu vert de la FDA américaine pour commencer un essai clinique sur le traitement de la dégénérescence maculaire à l'aide de cellules issues de cellules souches embryonnaires, chez les personnes âgées.

A présent, les chercheurs sont en train de s’assurer que les cellules ainsi formées sur la paroi interne de la cupule optique sont bien sensibles à la lumière et capables d’envoyer des signaux. S’il s'avère que c’est bien le cas, ils essaieront de les implanter sur des souris atteintes de dégénérescence rétinienne afin de voir si elles recouvrent la vue. Ils tentent également de reproduire cette expérience avec des CSE humaines mais l’œil humain est une structure plus complexe qui met bien plus de temps à se former.

Nature

Arrêter de fumer diminue le risque suicidaire
Jeudi, 14/04/2011 - 11:03

Une étude parue dans le dernier numéro de la revue canadienne de psychiatrie et présentée par le psychiatre Daniel Yaworski, de l’Université de Manitoba à Winnipeg, montre que le tabagisme est un facteur de risque de suicide, et qu’arrêter de fumer est associé à une baisse importante de ce risque.

La relation entre tabagisme et comportement suicidaire a été largement débattue depuis des années. Les auteurs ont utilisé une vaste enquête représentative, portant sur 34 653 personnes (la National Epidemiologic Survey on Alcohol and Related Conditions Cycle 2 (NESARC; 2004–2005), pour analyser, par des études de régression logistique multiples, la relation entre les tentatives de suicide et la maladie tabagique. Il découle de cette analyse que le tabagisme est associé, de façon indépendante aux autres troubles mentaux ou aux autres maladies à un risque de tentatives de suicide au cours de la vie ou durant la dernière année.

Plus on fume, plus le risque de suicide est élevé. L’arrêt du tabac se traduit par une forte baisse du risque de tentative de suicide, par comparaison avec le risque couru par les personnes qui continuent à fumer. Selon le professeur Dautzenberg: « Le tabagisme apparaît une nouvelle fois dans cette étude comme un facteur causal du risque suicidaire, l’arrêt du tabac étant associé au retour à un risque voisin de celui du non fumeur. Alors que beaucoup ont peur de décompenser une dépression en arrêtant de fumer avec ou sans médicaments d’aide au sevrage, il apparaît qu’arrêter de fumer est bon pour le moral et diminue le risque de tentatives de suicide. Mais comme le risque suicidaire reste élevé en France avec 30 suicides pour 100 000, une surveillance de ce risque chez les fumeurs jusqu’au sevrage complet reste nécessaire».

Information Hospitalière

L’action inattendue du bisphénol A sur l’oreille interne de certains vertébrés
Jeudi, 14/04/2011 - 10:41

Le bisphénol A (BPA) est un composé chimique de synthèse largement utilisé dans la fabrication industrielle des récipients en plastique de type polycarbonates, tels les CD, les lunettes, certaines bouteilles plastiques ou certains biberons. On le retrouve également dans les résines époxy constituant les revêtements intérieurs des boîtes de conserve, les canettes de boissons ou les amalgames dentaires. Or, cette molécule peut modifier les équilibres hormonaux des vertébrés, en interagissant directement avec les récepteurs hormonaux ou bien avec les enzymes qui assurent le métabolisme de ces hormones : c’est un perturbateur endocrinien. En effet, le BPA est capable de se lier aux récepteurs des œstrogènes, les hormones sexuelles féminines, et de mimer leur action dans l’organisme.

C’est pourquoi il est aujourd’hui classé reprotoxique de catégorie 3, c’est-à-dire jugé "préoccupant pour la fertilité de l’espèce humaine" en raison "d’effets toxiques possibles" mais non démontrés sur la reproduction. Les évaluations de risque ont conduit à définir une dose journalière tolérable (DJT) de 50 µg de BPA par kg de poids corporel et par jour, soit 2,5 mg par jour pour un individu de 50 kg. Jusqu’à présent, la plupart des études menées pour caractériser et évaluer ses effets dans le corps humain ont concerné la fonction de reproduction et le développement du cerveau .

Les chercheurs se sont intéressés à l’effet de ce composé sur le développement embryonnaire. Pour cela, ils ont exposé des œufs de poissons zèbre (Danio rerio) à des concentrations de plus en plus importantes de BPA (de 1 mg/L à 20 mg/L). Et le résultat n’a pas manqué de les surprendre : la plupart des embryons de poissons zèbre ont, après exposition au BPA, présenté des anomalies au niveau des otolithes, de petites structures de l'oreille interne qui servent à contrôler l'équilibre et jouent aussi un rôle dans l'audition. Pour 60 % des embryons, des agrégats d’otolithes se sont formés.

D’autres anomalies de l’oreille interne, moins fréquentes, ont également été relevées. Au-delà d’une concentration de 15mg/L, tous les poissons zèbre ont développé des anomalies. Mais cette dose correspond à une exposition très aigüe, bien plus élevée que la gamme d’exposition possible de l’être humain. Allant plus loin, les scientifiques ont renouvelé leur expérience sur un autre vertébré de la famille des amphibiens, le xénope. Là aussi, ils ont constaté le développement d’anomalies sur l’oreille interne, suggérant que cet effet pourrait exister chez d’autres vertébrés.

Les scientifiques ont ainsi mis en évidence un effet inattendu du BPA, jamais observé jusqu’à présent. Bien entendu, rien ne peut être déduit pour l’homme, tant que des mécanismes d’action n’auront pas été totalement élucidés et que des recherches approfondies n’auront pas été menées chez les mammifères et sur l’être humain en particulier. De plus, les chercheurs ont constaté qu’en bloquant les récepteurs des oestrogènes, la cible classique du bisphénol A, ces anomalies persistaient, supposant que le BPA se fixerait sur un autre récepteur. Ce nouvel effet serait donc totalement indépendant des récepteurs des oestrogènes. Ces travaux démontrent clairement qu’outre ses effets reprotoxiques, le bisphénol A, à des doses assez élevées, agit aussi sur le développement embryonnaire.

INRA

Des avancées dans la compréhension de la communication neuronale
Jeudi, 14/04/2011 - 10:30

Des avancées médicales en Europe se poursuivent à un rythme rapide, et une équipe de recherche basée en Belgique maintient ce dernier en découvrant le mécanisme qui garantit la signalisation neuronale pour de longues périodes de temps, un processus qui se perturbe dans les maladies neurologiques dont la maladie de Parkinson. La découverte pourrait conduire à une solution pour éviter les problèmes de communication parmi les cellules cérébrales à l'avenir. Les résultats de l'étude, présentés dans la revue Cell, sont en partie financés par deux projets de l'UE : NEURORECYCLING et SYNAPSEFUNCTION.

Coordonné par l'Institut flamand pour la biotechnologie (VIB) en Belgique, NEURORECYCLING («Maintaining neurotransmission : clathrin-mediated endocytosis and kiss-and-run») a obtenu une subvention d'excellence Marie Curie d'une valeur de 1,5 million d'euros au titre du sixième programme-cadre (6e PC) afin d'améliorer notre compréhension des mécanismes du recyclage de la vésicule à l'aide d'essais morphologiques et fonctionnels.

SYNAPSEFUNCTION («Molecular studies of synaptic vesicle recycling in health and disease»), également sous la direction du VIB, est soutenu par une bourse du Conseil européen de la recherche s'élevant à 1,5 million d'euros. Lancé au début 2011, SYNAPSEFUNCTION se penche sur les nouveaux mécanismes régulateurs qui opèrent au niveau de la synapse et pourraient éventuellement réguler la plasticité synaptique.

Le co-auteur Dr Patrik Verstreken du département de génétique moléculaire et développementale du VIB ainsi que de Human Genetics à la Katholieke Universiteit Leuven, en collaboration avec des collègues, a découvert l'enzyme baptisée «Skywalker», responsable de l'équilibre délicat au niveau de la communication. D'après les experts, les pannes de communications neuronales pourraient déclencher des maladies neurodégénératives chez l'homme. «J'espère qu'en découvrant le fonctionnement de Skywalker, nous comprendrons comment communiquent les neurones entre eux et que nous serons également conduits vers de nouveaux diagnostics et thérapies pour des maladies neurologiques telles que celle de Parkinson», explique le Dr Verstreken.

L'impact des troubles cérébraux sur les individus est énorme. Au moins 20 % des patients souffrent de troubles mentaux, et environ 1 milliard souffrent des effets des maladies neurologiques. Plus de 8 % des patients vivant en Occident dépendent des analgésiques. Afin de trouver une solution à ce problème, les chercheurs doivent mieux comprendre la communication neuronale dans les moindres détails. La communication des cellules cérébrales a lieu au niveau des synapses, ce que les experts définissent de signaux électriques traversant les vésicules (de petites poches protégées par la membrane comprenant des substances de signalisation). Une fois que la vésicule libère les substances de signalisation, une autre cellule cérébrale est activée. Mais les vésicules sont réutilisées plusieurs fois, ce qui résulte en la dégradation des protéines nécessaires pour leur fonctionnement correcte. C'est ainsi que la libération des substances de signalisation est affectée.

Mais qu'est-ce qui fait que les vésicules fonctionnent correctement lors du processus de recyclage ? Une étape supplémentaire dans le processus de recyclage est retrouvée au sein de la plupart des cellules, à travers les endosomes. Les protéines des vésicules dans ces compartiments cellulaires spéciaux sont triées afin de garantir le bon fonctionnement des vésicules recyclées. C'est là que la recherche de l'équipe entre en jeu : ils ont découvert que l'enzyme Skywalker régule l'étape supplémentaire. Les chercheurs ont mis à l'essai des drosophiles dépourvues de Skywalker, et leurs données ont montré que ce manque stimulait le signal entre deux cellules cérébrales, en augmentant les niveaux de stress des mouches.

Découvrir la connexion entre Skywalker et les signaux pourrait permettre de conduire à un nouveau traitement pour les maladies neurologiques telles que celle de Parkinson. Pour les personnes touchées par la maladie de Parkinson à des étapes précoces de la maladie, les signaux entre les cellules cérébrales sont très faibles.

Cordis

Trisomie 21 : premier essai thérapeutique encourageant
Jeudi, 14/04/2011 - 10:18

L'une des premières causes de handicap mental d'origine génétique, la trisomie 21, pourrait bientôt être partiellement corrigée ont indiqué des spécialistes de la maladie réunis aux deuxièmes Journées internationales Jérôme Lejeune organisées à l'Institut Pasteur du 24 au 26 mars 2011. «C'était encore inimaginable il y dix ans», témoigne le Dr Henri Bléhaut, organisateur scientifique de ce congrès consacré aux maladies génétiques de l'intelligence et aussi le premier au monde pour la recherche sur la trisomie 21.

Plus de 50.000 personnes sont atteintes de trisomie 21 en France et vivent de plus en plus longtemps, les progrès de la médecine ayant fait passer leur espérance de vie de moins de trente ans dans les années 1980 à près de soixante ans aujourd'hui. Le dépistage prénatal de la maladie a atteint ses limites, car il naît encore un enfant trisomique chaque jour dans notre pays, le plus souvent d'une jeune mère non testée car moins à risque. La trisomie 21 doit son nom à l'existence dans les cellules de l'organisme des malades d'un chromosome supplémentaire, le 21e, hérité le plus souvent de la mère pour une raison encore inexpliquée. Les gènes excédentaires apportés par ce chromosome causent de nombreuses anomalies du développement et du fonctionnement de l'organisme, avec notamment un retard intellectuel s'accumulant dès l'âge d'un an ainsi qu'un risque beaucoup plus élevé de leucémies et d'apparition précoce de la maladie d'Alzheimer.

Côté recherche, plusieurs avancées récentes ont ouvert de nouveaux espoirs de modifier le cours de la maladie. En 2000, le séquençage du chromosome 21 a permis d'identifier la plupart des gènes, environ 300, qu'il porte. Puis des souris rendues trisomiques pour des segments homologues de ce chromosome servent de modèle expérimental. Ces deux approches offrent maintenant la possibilité de cibler les multiples causes génétiques possibles de la maladie et de tester l'action de traitements candidats chez l'animal.

En 2009, l'équipe de Jean-Maurice Delabar de l'université Paris-Diderot a ainsi montré que l'inhibition dès la naissance d'une enzyme excédentaire présente sur le chromosome 21 (la Dyrk1a) corrigeait tous les symptômes cognitifs de la maladie chez la souris. Les chercheurs ont découvert qu'ils pouvaient utiliser pour cela un inhibiteur naturel de l'enzyme, un puissant antioxydant extrait du thé vert, le gallate d'épigallocatéchine ou EGCG. Cette substance naturelle a l'avantage supplémentaire de ne présenter aucun effet secondaire et de pouvoir être administrée par voie orale.

En 2010, l'équipe du Pr Mara Dierssen, du Centre sur la régulation génomique à Barcelone en Espagne, a lancé un premier essai clinique entièrement financé par la Fondation Jérôme Lejeune. Ce premier test chez l'homme paraît déjà très positif. «Trois mois après le début du traitement, la plupart des familles avaient deviné si leur enfant trisomique recevait l'EGCG ou un placebo, précise au Figaro Mara Dierssen, et un mois de traitement semble suffire pour observer un effet positif sur la mémoire et la psychomotricité. Cet effet disparaît avec l'arrêt du traitement.»

La puissante action de cette molécule s'explique par le rôle clé joué par l'enzyme Dyrk1a dans de nombreux processus cellulaires et cela à tous les niveaux de l'organisme. Après cet essai pilote effectué auprès de trente patients âgés de 18 à 26 ans, les chercheurs espagnols vont lancer une grande étude internationale dans une dizaine de centres hospitaliers. «Les résultats encourageants avec l'EGCG obtenus sans aucun effet indésirable, bien au contraire, nous incitent à tester d'autres paramètres tels que le dosage et la durée du traitement», ajoute Mara Dierssen. À plus long terme, et lorsque les autorisations éthiques seront données, ce traitement pourrait démarrer plus tôt, ce qui démultiplierait son effet bénéfique sur l'évolution de la maladie.

Le Figaro

Des cellules fabriquées à la chaîne
Samedi, 09/04/2011 - 07:45

Des chercheurs américains ont conçu un dispositif qui forme des vésicules semblables aux enveloppes cellulaires. Une avancée importante pour la création de cellules synthétiques ou de nouveaux vecteurs thérapeutiques. Les chaînes industrielles inspirent de plus en plus les biologistes. S'ils disposent de techniques pour fabriquer en masse les gènes ou les protéines, aucune méthode fiable n'existe encore pour reproduire la structure complexe des membranes cellulaires. La bicouche lipidique, qui peut être facilement synthétisée, n'a soit pas la forme sphérique recherchée, soit un diamètre trop variable.

Sandro Matosevic et Brian Paegel du Scripps Research Institute en Floride (USA) ont assemblé une chaîne microscopique pour fabriquer de façon standardisée des vésicules synthétiques. Le dispositif consiste en un circuit microfluidique en forme de Y : dans une des branches, des gouttelettes d’eau s'écoulent dans une solution huileuse, tandis que de l’eau circule dans l’autre branche. A l’embranchement du Y, les deux liquides se rejoignent. Les gouttelettes s'entourent alors d'une nouvelle couche lipidique en traversant l'interface eau-huile. L’avantage du système des chercheurs est que le diamètre des vésicules est uniforme et paramétrable, pour l’instant entre 20 et 50 micromètres. Il permet également de charger les vésicules avec n’importe quelle molécule, potentiellement des protéines membranaires ou des fragments d’ADN.

Industrie&Technologies

Quand l'organisme se vaccine lui même !
Vendredi, 08/04/2011 - 20:19

Des chercheurs du BRIC, le laboratoire de l'Université de Copenhague travaillant sur les biotechnologies, ont découvert que le corps humain peut créer ses propres vaccins, qui stimulent le système immunitaire et aident à la prévention de maladies inflammatoires chroniques. Leurs résultats ont été publiés dans la revue scientifique Journal of Clinical Investigation, et pourraient avoir des conséquences surprenantes dans le développement de nouvelles médicamentations. Les chercheurs ont en effet découvert qu'une protéine couramment présente dans le corps humain peut servir à prévenir les inflammations tissulaires chroniques. Quand elle est administrée sous la forme d'un vaccin thérapeutique, elle peut prévenir efficacement et même traiter un certain nombre de maladies inflammatoires telles que la sclérose multiple, l'arthrite rhumatoïde, l'hypersensibilité dermique ou encore l'asthme allergique.

L'étude a été dirigée par le professeur Shohreh Issazadeh-Navikas, directrice de l'unité de recherche "Neuroinflammations" au BRIC, et fut l'objet d'une collaboration internationale à laquelle ont participé des chercheurs danois, suédois et allemands. Cet article est la conclusion heureuse de plus d'une décennie de recherches sur les possibilités de combat contre les inflammations et les maladies inflammatoires. "Ces résultats nous apprennent également beaucoup sur un des moyens principaux par lequel le corps humain combat les inflammations et les maladies auto-immunes. De plus, ils nous montrent une approche thérapeutique pour l'utilisation de nouvelles protéines comme traitement pour des maladies multiples," explique Shohreh Issazadeh-Navikas.

Beaucoup de maladies inflammatoires et auto-immunes sont chroniques et elles affectent une grande majorité de la population. Par ailleurs, il y a des composantes inflammatoires à beaucoup de maladies communes, telles qu'Alzheimer, Parkinson, l'arthrite rhumatoïde, la sclérose multiple, le diabète de type 2 ou encore certains cancers. Le vaccin découvert par les chercheurs stimule certaines cellules du système immunitaire, appelées cellules NKT.

Les cellules NKT sont un type de cellules T qui exercent divers effets régulateurs lors de maladies, partant de l'auto-immunité jusqu'aux réponses aux pathogènes et aux cancers. Depuis leur découverte, il y a plus de deux décennies, on a toujours supposé que les cellules NKT étaient activées par des antigènes lipidiques exprimés à la surface de cellules présentatrices d'antigène. Cependant, le groupe de recherche du professeur Issazadeh-Navkas a pu démontrer que des peptides peuvent également activer ces cellules NKT et supprimer un certain nombre d'états inflammatoires spécifiques au tissu, incluant des maladies autoimmunes. Ces découvertes révolutionnaires offrent une nouvelle perspective dans la lutte contre les inflammations et constituent d'une avancée majeure dans le domaine de l'autoimmunité.

BE

Hépatite C : vers une nouvelle ère thérapeutique
Vendredi, 08/04/2011 - 19:57

Deux nouveaux inhibiteurs de protéase, le boceprevir et le telaprevir, devraient profondément modifier la prise en charge des hépatites C à virus de génotype 1. Le New England Journal of Medicine publie simultanément deux études pivots concernant le  boceprevir. Il s’agit d’un inhibiteur compétitif de la protéase non structurelle NS3 des virus de l’hépatite C (HCV) de génotype 1 (le produit est inactif sur les autres génotypes). Ce nouvel antiviral ne peut être utilisé qu’en association avec le traitement recommandé aujourd’hui par peg-interféron et ribavirine, dans la mesure où, seul, il induit rapidement l’émergence de virus résistants. L’adjonction de boceprevir au traitement par peg-interféron et ribavirine a été testée dans deux situations cliniques différentes.

Dans l’étude SPRINT-2, après une phase préliminaire de traitement de 4 semaines par peg-interféron et ribavirine, 1 097 patients souffrant d’infection à HCV de génotype 1, ont été randomisés en double aveugle en 3 groupes assignés à des traitements par :

- peg-interféron et ribavirine durant 44 semaines (contrôle) ;

- le même protocole associé à du boceprevir (800 mg 3 fois par jour) durant 24 semaines, suivi de 20 semaines de peg-interféron et de ribavirine chez les sujets ayant encore une charge virale détectable ;

- l’association peg-interféron, ribavirine, boceprevir durant 44 semaines.

Sachant que les sujets noirs répondent moins bien à l’association peg-interféron/ribavirine que les autres, les résultats ont été analysés en fonction du groupe ethnique des patients (déterminé par les sujets eux-mêmes). Cette moindre efficacité de l’interféron chez les sujets noirs serait due pour partie à une moindre fréquence d’un polymorphisme génétique associé à une bonne réponse à l’interféron (IL28B). Chez les patients « non noirs » le pourcentage de réponse virologique prolongée est passée de 40 % dans le groupe contrôle à 67 % et 68 % dans les groupes boceprevir (p<0,001). Chez les patients se considérant comme noirs ces pourcentages ont été respectivement de 23 %, 42 % et 53 % (p=0,004). L’addition du boceprevir au traitement standard améliore donc les résultats virologiques de façon hautement significative chez les sujets infectés par un HCV de génotype 1 et ce quelle que soit l’ethnie des patients. Une durée de 24 semaines de traitement par boceprevir semble à peu près équivalente en terme d’efficacité à une durée de 44 semaines.

L’étude HCV RESPOND-2, avec un schéma proche, a inclus 403 patients en échec thérapeutique (rechute ou absence de réponse) après un traitement par peg-interféron et ribavirine. Les taux de réponses virologiques prolongées ont été de 21 % dans le groupe contrôle (peg-interféron/ribavirine) et de 59 % et 66 % dans les groupes ayant reçu également du boceprevir (pendant une durée fonction du résultat virologique ou fixe) (p<0,001).  Là encore l’association peg-interféron-ribavirine-boceprevir améliore donc très significativement les résultats virologiques.

JIM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Pollution de l'air : le gouvernement veut interdire les véhicules les plus polluants en ville
Jeudi, 14/04/2011 - 10:53

La ministre de l'Ecologie et des Transports, Nathalie Kosciusko-Morizet, a annoncé le 6 avril, lors d'assises à Paris sur la qualité de l'air, la création de "zones d'action prioritaire pour l'air" d'ici à 2012 dans huit grands centres urbains, dont Paris, Lyon et Bordeaux.

Des zones d'actions prioritaires pour l'air (Zapa) seront ainsi créées dans les villes, chaque commune pouvant décider du périmètre concerné et du type de véhicule qu'elle souhaite proscrire. "Sauf à transformer les centres-villes en immense zone piétonne, les agglomérations ne pourront pas interdire tous les véhicules d'un seul coup. Ils peuvent en revanche agir progressivement en excluant certains poids lourds ou véhicules de livraison trop polluants" explique la ministre. Tout dépendra donc des villes. Ce sont elles qui délimiteront, chacune à sa convenance, le périmètre géographique de leurs Zapa, où les restrictions de circulation seront mises en place. Les horaires ou les périodes d'interdiction sont également laissés à leur discrétion. Au sein même des Zapa, chaque municipalité sera libre de définir quels sont les véhicules autorisés à circuler.

Concrètement, il s'agira de chasser progressivement des villes environ 10 millions de véhicules, dont 8 millions de voitures de plus de 13 ans, 1,6 million de deux-roues et 300.000 poids-lourds trop vieux pour être équipés de filtres à particules.

La France est dans ce domaine très en retard sur d'autres pays européens. A l'étranger, huit pays européens et 180 villes, dont Londres et Berlin, ont déjà adopté un système interdisant les véhicules polluants, et ont constaté une amélioration de la qualité de l'air dans ces zones...

De nombreuses études scientifiques ont montré de longue date que la pollution automobile avait des conséquences sur la santé humaine dans les grandes villes, avec l'asthme, les allergies et les maladies respiratoires en général.

En France, la pollution de l'air par les particules serait la cause de 42.000 morts prématurées chaque année, dit le ministère de l'Ecologie.

Les premiers résultats du projet Aphekom, mené durant trois ans dans 12 pays européens par plus de 60 scientifiques, montrent que l'espérance de vie dans les grandes villes européennes pourrait augmenter jusqu'à 22 mois pour les personnes âgées de 30 ans et plus si la valeur guide préconisée par l'Organisation mondiale de la santé (OMS) pour les particules fines était respectée. Dans les 25 grandes villes étudiées, totalisant 39 millions d'habitants, le dépassement du seuil de 10 microgrammes par m3 d'air fixé par l'OMS pour le niveau moyen annuel de particules fines PM2,5 (moins de 2,5 microns) se traduit par 19.000 morts par an.

Le Figaro

Une Leaf très branchée
Samedi, 09/04/2011 - 07:20

Première voiture 100 % électrique, la Leaf – qui a été élue Voiture de l’année 2010 – va débarquer sur le marché mondial. Les objectifs retenus par Nissan pour la diffusion de ce modèle propre et de type zéro émission restent toutefois mesurés. De fait, à compter de 2013, le constructeur pense livrer 250 000 exemplaires par an à l’échelle planétaire. Il convient de souligner que ses usines japonaises et anglaises en fabriqueront 50 000 dès cette année… Plus de la moitié de ces véhicules auraient déjà trouvé preneur. En Europe, Nissan ambitionne de diffuser annuellement 30 000 Leaf à court terme. Cela représenterait près de 5 % des 700 000 immatriculations validées sous ses couleurs courant 2010.

Ces dernières lui ont permis d’occuper plus de 3 % du marché continental. En l’état, sa star branchée a déjà été commercialisée en Grande-Bretagne, au Portugal, aux Pays-Bas, et au Danemark. Elle sera lancée en Espagne et en France l’été prochain. Dans notre pays, les consommateurs pourront en faire la pré-commande dès le début avril via Internet. Les commandes effectives seront prises à la mi-2011. Les livraisons, qui seront assurées par 12 à 15 des concessionnaires titulaires d’un contrat spécifique, débuteront dans la foulée. Les distributeurs devront investir de 40 000 à 50 000 euros dans la mise en fonction d’une borne de charge, la formation des équipes, l’identification des sites et le déploiement d’une PLV spécifique.

Proposée à 30 900 euros TTC, avec inclusion tarifaire de sa batterie, cette voiture électrique s’adresse à une population constituée à 50/50 de particuliers et d’entreprises. Son coût d’entretien serait 15 % moins élevé que celui d’une berline traditionnelle. Un client pourra l’acquérir grâce à une formule de location étalée sur 37 mois et 45 000 km, avec promesse de reprise à 36,60 % de sa valeur initiale à partir de 499 euros par mois. Cette location avec promesse de vente (LPV) débute par un premier loyer de 5 339 euros, déduction faite d’un bonus écologique de 5 000 euros. Côté volume des ventes, Nissan avance seulement une prévision pour notre territoire : la « débutante » pourrait être vendue entre 500 et 1 000 unités pendant sa première année pleine de commercialisation.

Côté ADN, la Leaf se destine au segment C et sera exclusivement en mode de propulsion électrifié. Ce choix a déterminé un design qui se caractérise surtout par un excellent aérodynamisme (Cx de 0,29). Recyclable à 95 %, cette berline de 4,45 m de longueur, de 1,55 m de hauteur et de 1,77 m de largeur embarquera cinq personnes. De plus, sa carrosserie a spécialement été traitée en vue des intempéries, sa caisse a été renforcée (protection de batterie oblige), et son châssis bénéficie d’une rigidité particulière. Son moteur électrique de 109 ch (80 kW) autorise d’excellentes performances en délivrant au démarrage un couple maxi instantané de 180 Nm de 0 à 2 730 tr/min, équivalent à celui d’une classique V6 de 2,5 l. D’où une accélération immédiate et parfaitement adaptée aux évolutions urbaines et suburbaines de cette auto citadine.

De type lamellaire et affichant un poids de 200 kg, sa batterie Lithium/ion a été conçue en partenariat avec l’équipementier NEC. Son retraitement est prévu via une revente à la société Sumitomo. Le temps de charge normal est estimé entre sept et huit heures, mais il sera possible de réaliser sa recharge rapide de 80 % en 30 minutes. En outre, elle garantira une autonomie de 175 km/jour en moyen-ne. Le tout, pour une utilisation qui inclut deux modes de roulement dégradés et progressifs. Il convient de préciser que les équipements du modèle sont garantis sur trois ans ou 100 000 kilomètres. Par ailleurs, ses composants spécifiques (batterie incluse) bénéficient d’une garantie de cinq ans ou 100 000 km, avec, en outre, une prise en charge assurée sur un an et par Nissan Assistance au cas où un véhicule tomberait en panne de courant. Précision utile : la Leaf sera livrée avec un cordon de raccordement à une prise.

Son rechargement énergétique va aussi impliquer l’emploi d’une borne domestique ou « Home Box » qui sera installée par un technicien du partenaire Schneider qui a été sélectionné par Nissan. Parallèlement, la Leaf est dotée d’un système télématique d’informations de bord appelé Carwings. Ce dernier transmet en permanence les données sur l’état de charge de la batterie, puis il indique les emplacements de stations de charge les plus proches. Sur route, la nouvelle venue s’avère spécialement silencieuse à toutes ses allures de déplacement. Elle présente des capacités de tenue de route de premier ordre. De quoi s’imposer et faire passer le courant !

Auto Infos

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top