RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 620
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Octobre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le marché de la télévision connectée est encore à conquérir
Livre électronique: Amazon veut s'imposer en France avec son Kindle
Matière
Fusion froide : une nouvelle source d’énergie ?
Usine pilote du PROJET FUTUROL : une étape décisive pour le bioéthanol de 2e génération soutenue par l'Inra
Perpignan inaugure la plus grande centrale solaire du monde intégrée aux bâtiments
Une nouvelle vague d’hydroliennes
Les algues comme source d'énergie durable
Espace
Pour la première fois, un satellite permettra d’observer la Terre en temps réel
La relativité générale d'Einstein confirmée à l'échelle cosmique !
Terre
Face au réchauffement climatique, les agronomes conseillent de diversifier les récoltes
De meilleures prévisions climatiques à long terme
Le champ magnétique terrestre s'inverse au rythme de la tectonique des plaques
La Terre « boule de neige » : une hypothèse à revoir
Vivant
Le rat nu, roi de la longévité
Le fonctionnement du cerveau modifié par les smartphones !
Vers un vaccin plus sûr contre la maladie d'Alzheimer
De l'eau douce au fond de la mer Morte
Un rat-taupe doté d’une denture singulière : elle se renouvelle continuellement !
Les tranquillisants pourraient être mis en cause dans la maladie d’Alzheimer
Régénération de la colonne vertébrale de souris grâce aux cellules iPS
L'Afssaps autorise une banque privée française de cellules souches dentaires
Localisation des cellules tumorales en temps réel par fluorescence
Comment gagner 10 ans d’espérance de vie ?
La pollution de l'air fait 2 millions de morts par an
Une nouvelle thérapie virale contre le cancer
Le modus operandi des cellules tueuses dévoilé
Dormez, mais pas trop !
Homme
On savait déjà peindre il y a plus de 100.000 ans
Recherche
Le plus gros camion de livraison électrique mondial testé à Lyon
Air france inaugure le vol écolo
PSA Peugeot Citroën présente son concept de Véhicule électrique Léger de Ville
Edito
La photosynthèse artificielle : une voie prometteuse pour produire une énergie propre et bon marché



La photosynthèse est le processus naturel et universel qui permet aux plantes et à de nombreux autres êtres vivants de transformer, à partir de gaz carbonique et d'oxygène, l'énergie lumineuse reçue du soleil en énergie chimique stockée sous forme de sucres. Mais la photosynthèse n'est pas seulement le processus qui permet à la végétation de capter le gaz carbonique pour rejeter de l'oxygène : elle est aussi capable de reproduire de manière très efficace ce que l'homme fait avec l'électrolyse : séparer l'hydrogène de l'eau à l'aide d'un courant électrique.

La photosynthèse représente un prodigieux réservoir d'énergie : notre planète reçoit en effet suffisamment d’énergie en une heure d’ensoleillement pour répondre aux besoins en énergie de l'humanité pendant un an ! Mais, faute de savoir l'exploiter et la transformer efficacement et facilement, cette forme d'énergie reste largement inexploitée et ne représente encore qu'une part très modeste de nos besoins énergétiques, principalement sous forme de biomasse.

Pourtant, depuis des décennies, les chercheurs essayent de reproduire artificiellement la photosynthèse qui permet, grâce à son rendement inégalé, de produire de grandes quantités d'énergie sans rejet de CO2 dans l'atmosphère. Mais, si le processus de l'électrolyse classique de l'eau est maîtrisé, de nombreux obstacles restent à surmonter pour parvenir à maîtriser la photosynthèse artificielle à grande échelle, à partir de la lumière solaire.

En mars 2010, des scientifiques de l'Université de Cincinnati ont réussi à reproduire la photosynthèse en s'inspirant du nid d'écume produit par une grenouille tropicale ! Les chercheurs se sont aperçu que l'écume était composée de glucose grâce à sa perméabilité à l'air et au soleil. Ils ont pu identifier la protéine responsable de la formation de cette écume, la Ranaspumin-2. Le rendement obtenu par cette photosynthèse artificielle est excellent (près de 96 %) car, contrairement à ce qui se passe dans la photosynthèse naturelle, toute l'énergie est convertie en glucose.

De leur côté, des chercheurs français du Centre de recherche Paul Pascal de Bordeaux (CNRS) ont mis au point une biopile qui fonctionne à partir des produits de la photosynthèse : le glucose et l’oxygène, et qui est composée de deux électrodes modifiées avec des enzymes. Cette biopile a ensuite été placée dans un cactus et les chercheurs ont alors pu suivre l’évolution de la photosynthèse in vivo, en temps réel et constater, grâce à l'extrême sensibilité des électrodes utilisées, une augmentation de l'intensité du courant électrique lorsqu’une lampe est allumée et une diminution lorsque celle-ci est éteinte. Par ces expériences, les chercheurs ont aussi pu observer pour la première fois la production et la transformation du glucose en temps réel lors de la photosynthèse.

D’autre part, les chercheurs ont montré que ce type de biopile pouvait générer une puissance de 9 μW par cm2. Comme ce rendement est proportionnel à l’intensité de l’éclairage, plus la lumière est intense, plus la production de glucose et d’oxygène par photosynthèse s'accélère. Ces travaux devraient permettre la mise au point d’une biopile destinée à des applications médicales. Celle-ci serait autoalimentée et pourrait être implantée sous la peau ; elle produirait son énergie chimique à partir du couple oxygène-glucose présent dans les fluides physiologiques. Mais à plus long terme, cette avancée technologique pourrait surtout permettre de transformer, de manière simple, écologique et peu coûteuse, les immenses gisements d’énergie solaire non exploités en énergie électrique.

Une autre étude dirigée par Michael Grätzel et publiée dans "Nature Materials" le 8 mai 2011, s'est attaquée au défi du stockage de l'hydrogène produit par photosynthèse artificielle. Les chercheurs sont parvenus à éviter l'oxydation du semi-conducteur permettant le stockage de l'hydrogène en déposant une couche uniforme d'atomes par la technique du dépôt atomique sous vide. Cette avancée technologique majeure devrait permettre d'utiliser l'oxyde de cuivre comme semi-conducteur, tout en le protégeant de l'eau efficacement et simplement.

Plus récemment, en juin 2011, une équipe du MIT dirigée par Daniel Nocera a réussi à recréer une feuille artificielle capable de décomposer l'eau en oxygène et hydrogène grâce à la seule lumière du soleil. Cette étonnante innovation repose sur un matériau composite associant silicium, cobalt et nickel. Cette "feuille" placée dans 4 litres d'eau permettrait, par temps ensoleillé, de fournir suffisamment d'énergie à un foyer pendant une journée et serait donc particulièrement adaptée à la production locale d'énergie dans les pays en voie de développement.

La société Suncatalytix fondée par le professeur Nocera annonce, avec seulement 12 litres d'eau consommés par jour, pouvoir transformer la lumière solaire reçue sur une surface de panneau de 30 m2 en diverses sources d'énergie renouvelable, électricité ou hydrogène notamment, susceptibles de fournir en énergie un foyer américain moyen de quatre personnes. Le Professeur Nocera a d'ailleurs signé un accord avec le groupe indien Tata afin de construire d'ici 2013 de petites centrales électriques, de la taille d'un réfrigérateur, utilisant ce procédé de photosynthèse artificielle sur lequel il travaille depuis de longues années.

Enfin, en juillet 2011, une équipe britannique de l’Université de Manchester a mis au point des capteurs solaires de taille nanométriques qui utilisent des boîtes quantiques pour piéger les photons. La longueur d’onde de la lumière absorbée peut être choisie en modifiant la taille de ces boîtes. Il est ainsi possible d’extraire de l’hydrogène à partir d’eau ou de transformer du méthane en méthanol liquide. Cette approche permet également d’obtenir ou de transformer, sans recours aux énergies fossiles, certaines matières premières nécessaires à l’industrie chimique. Ce dispositif présente la remarquable propriété de pouvoir transférer l’énergie des photons captés directement dans la molécule produite, ce qui réduit de manière drastique les pertes d'énergie qui caractérisent la production d'hydrogène par électrolyse.

Pouvoir utiliser l'énergie solaire dans des processus industriels imitant la photosynthèse naturelle constitue donc un enjeu scientifique et économique tout à fait majeur pour plusieurs raisons. La première est que cette voie technologique est neutre pour l'environnement et n'émet pas de gaz à effet de serre. Autre avantage, ce procédé offre un rendement incomparablement meilleur dans l'exploitation et la transformation de l'énergie solaire, par rapport à l'électricité photovoltaïque actuelle. Enfin, et ce n'est pas le moins important, cette voie technologique est particulièrement adaptée aux immenses besoins énergétiques des pays pauvres ou en voie de développement.

On voit donc, à la lumière des récentes avancées, que la maîtrise à un niveau industriel de la photosynthèse artificielle est à présent envisageable à l'horizon 2020 et pourrait bien constituer le "chaînon manquant" qui permettra l'essor décisif au niveau mondial du vecteur hydrogène produit par des sources d'énergies renouvelables non émettrices de CO2, qu'il s'agisse du solaire, de l'éolien, de la biomasse ou de l'énergie des mers. Les Etats-Unis ne s'y sont pas trompés et ont lancé en 2010 un ambitieux programme de recherche sur 5 ans pour mettre au point cette photosynthèse artificielle. Face à ces enjeux immenses, souhaitons que l'Europe se donne les moyens de rester dans cette compétition scientifique et industrielle qui va bouleverser, bien plus rapidement que nous l'avions imaginé, nos modes de production d'énergie et le paysage énergétique mondial.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le marché de la télévision connectée est encore à conquérir
Lundi, 17/10/2011 - 01:10

Pour Alexandre Lafond, directeur de Mediactive, ce que l'on nomme télévision connectée peut se diviser en deux branches. Il y a tout d'abord la "TV connectée". Le principe est de rassembler toutes les fonctions connectées au sein de la télévision elle-même. Cette dernière ne nécessite donc aucun apport matériel externe. On trouve d'autre part l'IPTV, qui est une offre fournie par les grands opérateurs TV (Free, Orange...), et qui permet à travers un boîtier d'ajouter les fonctions connectées en question à une télévision classique. Ces fonctions sont extrêmement diverses : enregistrement d'émission, VOD, accès à des services Internet, à des jeux en ligne...

Celui-ci souligne que les deux produits risquent d'engendrer une évolution profonde du paysage télévisuel, mais chacun à sa façon. Dans le cas des opérateurs IPTV, c'est l'apparition de contenu vidéo téléchargeable qui va constituer un changement intéressant. A l'inverse, les fabricants de TV connectées ne possèdent pas les droits pour fournir de la VOD, ou pour réorienter le consommateur vers des chaînes payantes. Par défaut, ils devront donc axer leur activité sur l'expérience ludique. Dans les deux cas, le changement majeur va être l'accroissement de l'interaction entre la télévision et les autres outils numériques, tels l'ordinateur, ou les smartphones des utilisateurs. A terme, la télévision connectée devrait constituer une sorte d'amalgame entre une télévision usuelle, un ordinateur, et une console de jeux.

Mais là encore, Alexandre Lafond souligne que les potentiels diffèrent en fonction des entreprises. Prenons tout d'abord la TV connectée. Dans le cas d'Apple, la très grande base de données dont ils disposent via iTunes constitue un potentiel important. Quant à Google, malgré les relations tendues que la société entretient avec les majors de diffusion (ABC, CBS...), le rachat de Motorola leur permet de faire une entrée remarquée sur le marché des équipements. Enfin, sur le marché de l'IPTV, Free possède une longueur d'avance conséquente, du fait de la qualité des logiciels et des interfaces fournis aux consommateurs. A terme, il est plus que probable que l'actuel éclatement du marché disparaisse au profit d'une concentration dans les mains de quelques gros opérateurs. Et les plus gros fournisseurs actuels ne sont absolument pas assurés de l'être encore une fois que le marché sera arrivé à maturité.

L'Atelier

Livre électronique: Amazon veut s'imposer en France avec son Kindle
Vendredi, 14/10/2011 - 06:10

Lancé en 2007 sur le marché américain, le Kindle aura pris son temps avant d'arriver jusqu'à chez nous. Mais le Kindle est enfin disponible en France depuis le 7 octobre. Ce modèle est présenté comme le plus léger avec seulement 170 grammes et le plus rapide jamais conçu par la marque. Il est également le plus abordable avec un tarif de 99 euros.

Son écran est à encre électronique. Il n'est donc pas rétroéclairé, mais propose un contraste élevé et garantit un rendu du texte et des images d'une très grande netteté, très proche de celui d'un vrai livre. Il dispose d'une connexion Wi-Fi pour le téléchargement des contenus. Ce tout nouveau Kindle peut d'ores et déjà être pré-commandé sur le site d'Amazon.fr.

Le géant du web en profite pour proposer également sa boutique Kindle en France. Il s'agit d'un catalogue de plus de 35 000 titres en langue française, une grande variété de bestsellers, des centaines de bandes dessinées parmi les plus populaires, et plus de 4 000 œuvres gratuites classiques de la littérature franc?aise et e?trangère. Par ailleurs, la boutique Kindle offre plus de 825 000 titres en tout, dont des milliers de best-sellers internationaux, en anglais et dans d'autres langues.

Cette boutique Kindle donne également un accès aux principaux journaux franc?ais, tels que Le Monde, Les Echos, Le Figaro, Libération, et Aujourd'hui en France/Le Parisien. Ils sont proposés au numéro ou en abonnement. Quant aux auteurs indépendants, ils pourront publier directement leurs textes sur la boutique Kindle via la plate-forme de publication directe d'Amazon, avec un partage de revenus classique : 70 % pour l'auteur, 30 % pour Amazon.

Les livres achetés sur le service Kindle peuvent ensuite être lus sur plusieurs autres supports mobiles tels que les applications gratuites iPhone, iPad ou Android. La technologie Whispersync d'Amazon synchronise la lecture entre les différents terminaux, permettant ainsi d'arreêter la lecture sur un appareil et de la reprendre sur un autre exactement au même endroit. Enfin, grâce au service d'archivage de Kindle, tous les livres achetés et toutes les notes ou annotations apportées dessus sont sauvegardés automatiquement en ligne dans une bibliothèque personnalisée Kindle. Ils peuvent être retéléchargés gratuitement, à tout moment.

En réaction à cette arrivée du Kindle, la Fnac a annoncé qu'une « nouvelle solution de lecture numérique » sera dévoilée « dans les prochains jours ». Une annonce qui pourrait prendre place durant le salon du livre de Francfort et qui pourrait concerner un éventuel Fnacbook 2, que le PDG de la Fnac Alexandre Bompard annonçait comme étant en développement en septembre dernier. Si telle est l'annonce du commerçant, il faudra que ce dernier soit persuasif et agressif niveau prix pour rivaliser avec l'offre à 99 euros d'Amazon.

Clubic

01net

Les mobiles

^ Haut
Matière
Matière et Energie
Fusion froide : une nouvelle source d’énergie ?
Jeudi, 20/10/2011 - 01:10

Le 14 janvier 2011 à Bologne, deux scientifiques italiens on fait une démonstration publique d’un générateur fondé sur la « Fusion Froide ». Andrea Rossi et Sergio Focardi ont montré à un panel de scientifiques un nouveau type de réacteur l’« E-cat », capable de produire jusqu’à 10 kW d’énergie thermique avec environ 400 Watts de chauffage système.

Cette aventure est la concrétisation de plus de 22 ans de recherches. Le 23 mars 1989, les professeurs Stan Pons de l’Université de l’Utah aux États-Unis et Martin Fleischmann de l’Université de Southampton en Grande-Bretagne avaient annoncé la découverte d’une nouvelle manière de produire de l’énergie nucléaire propre : la « Fusion froide ». Ils avaient fait passer du courant électrique dans une cellule contenant deux électrodes, l’une en platine, et l’autre en palladium. Les deux électrodes plongeaient dans un électrolyte composé principalement d’eau lourde. Ils avaient remarqué qu’il se dégageait plus de chaleur que d’énergie électrique qui était appliquée. Cette découverte avait créé de grands remous dans la communauté scientifique. Après quelques semaines de tentatives diverses pour essayer de reproduire ces résultats, le sujet disparut de la science officielle sous les coups des expérimentateurs qui n’avaient pas réussi leurs expériences, et des théoriciens qui ne pouvaient pas expliquer ces résultats contraires à leurs modèles classiques.

Depuis lors, une petite centaine de chercheurs de par le monde ont continué les recherches. Les résultats se sont améliorés au cours du temps. Il a été montré des dégagements de chaleur anormaux, des transmutations, la production d’hélium. Alors que la grande majorité des expériences ont été réalisées avec du palladium et de l’eau lourde, Rossi et Focardi ont utilisé un système différent, ils ont mis en contact de l’hydrogène gazeux ordinaire sous pression avec une poudre de nickel auquel était associé un catalyseur. Ce nouveau type de réacteur est un progrès important dans l’utilisation de la fusion froide à des fins industrielles.

Les deux scientifiques ne donnent pas tous les détails de leur invention dont le brevet est en cours de dépôt. La théorie expliquant ces réactions n’existe pas encore. Néanmoins, les inventeurs disent que le nickel se transformerait en cuivre au cours de la réaction. Il se produirait également des rayons gamma qui s’arrêteraient une heure après l’arrêt du réacteur. À la suite de la démonstration du mois de janvier à Bologne, d’autres ont eu lieu, en particulier une, avec des scientifiques suédois qui ont confirmé les mesures de production de chaleur. Rossi est en train de préparer un générateur de 1MW en Grèce qui devrait être opérationnel à la fin de cette année.

Atlantico

Usine pilote du PROJET FUTUROL : une étape décisive pour le bioéthanol de 2e génération soutenue par l'Inra
Mercredi, 19/10/2011 - 01:20

Le PROJET FUTUROL, soutenu par l'Inra, vise à mettre au point et à commercialiser un procédé complet de production de bioéthanol de deuxième génération. Ce projet a atteint une nouvelle étape de son développement, le 11 octobre dernier : la mise en fonction de la première usine pilote française sur le site de Pomacle-Bazancourt.

Cette étape décisive concrétise la production de bioéthanol de deuxième génération, et va permettre de valider à l'échelle préindustrielle les résultats des recherches entreprises depuis 2008. Trois années d’essais seront désormais nécessaires pour déterminer les choix technologiques qui permettront le passage à l’échelle industrielle.

Lancé en 2008, le PROJET FUTUROL regroupe 11 acteurs, dont l'Inra, qui couvrent l’ensemble de la filière, du végétal à la pompe. Financiers, industriels et laboratoires de recherche apportent au projet leurs compétences et expertises, issues de plusieurs années d’implication dans le domaine des biocarburants.

  • S’approvisionner localement et durablement

Le PROJET FUTUROL privilégie une approche multi-ressources des matières premières. Dans une perspective d’approvisionnement durable et de non-concurrence avec l’alimentation, le PROJET FUTUROL vise l’utilisation de matières premières végétales diversifiées : co-produits de l’agriculture, ressources forestières, déchets.

Le PROJET FUTUROL a pour vocation de développer une filière de production adaptable au contexte local. La production de bioéthanol de deuxième génération doit pouvoir être localisée n'importe où dans le monde, alterner les matières premières utilisées selon les saisons et être, le cas échéant, mise en œuvre dans les unités de première génération.

  • L’usine pilote : vers la deuxième génération

La construction de l’usine pilote a débuté à l’automne 2008 sur le site de Pomacle, dans la Marne, au cœur du complexe agro-industriel de Bazancourt. L’usine pilote constitue aujourd’hui un ensemble de 5 000 m2.

Ce site va permettre de tester, à l’échelle 1/1000è soit 180 000 litres/an, la mise en cohérence des avancées technologiques. L’objectif est de valider à l'échelle préindustrielle les résultats obtenus en laboratoire et de choisir les technologies à mettre en œuvre à l'échelle industrielle. Les sources d’optimisation possibles, notamment les consommations énergétiques ou la gestion des flux de matières seront également étudiées lors de cette étape. Inauguré le 11 octobre 2011, le pilote est mis à la disposition des équipes de recherches impliquées dans le PROJET FUTUROL.

INRA

Perpignan inaugure la plus grande centrale solaire du monde intégrée aux bâtiments
Mercredi, 19/10/2011 - 01:10

Perpignan a inauguré la plus grande centrale solaire du monde intégrée aux bâtiments sur le site de Saint Charles International.

Il s’agit de la première plate-forme européenne de distribution des fruits et légumes, pour un volume d'investissement de 54 M€. Avec une capacité de production de 9 800 mégawatts par heure, la centrale produira 10 % de la consommation d'électricité des Perpignanais.

La société Saint Charles Solaire, en partenariat avec ses associés Akuo Saint Charles, la Caisse des Dépôts, Solaire France international, le Pool central solaire et Solaire France finançaient la centrale, avec le concours des banques Natixis et Banque Populaire du Sud. Ainsi, après deux ans de travaux de construction, les toits du site de Saint Charles International ont fait peau neuve : les 68 000 m² de couvertures en tôle ondulée des entrepôts ont laissé place à 97 000 tuiles photovoltaïques, contribuant à faire de ce projet une aventure à la fois écologique et innovante.

Cette nouvelle intervient alors que les professionnels de l'énergie solaire accusent les mesures gouvernementales, notamment la baisse des crédits d'impôt pour le photovoltaïque du budget 2011. La branche Soler du Syndicat des Énergies renouvelables avançait certains chiffres : « la filière a probablement perdu près de 10 000 emplois depuis mars 2011", de nombreuses sociétés "fragilisées par les nouveaux dispositifs" auraient déposé le bilan », comme le note nos confrères de econostrum.info.

Avec une puissance installée de 8,8 MW, la centrale produira annuellement 9.800 MWh d'électricité d'origine solaire, soit l'équivalent de 10 % de la consommation en électricité de la ville de Perpignan. Le courant produit par la centrale sera injecté dans le réseau public et vendu à EDF sur la base d'un contrat d'achat sur 20 ans, dans le cadre du dispositif pour « l'intégration du photovoltaïque au bâtiment », peut on lire dans un communiqué de presse.

Cette centrale, sans égal dans le monde, s'inscrit avec détermination dans le cadre d'un développement durable. Cette opération consacre résolument la possibilité d'une production de courant électrique d'origine solaire intégrée au patrimoine bâti, à grande échelle.

Actualité News Environnement

Une nouvelle vague d’hydroliennes
Dimanche, 16/10/2011 - 01:30

Tout au nord de l’Ecosse, là où confluent les eaux agitées de l’océan Atlantique et de la mer du Nord, se trouve un chapelet de soixante-dix îles, pour la plupart inhabitées, appelées les Orcades. Soumises à de puissantes marées, ces îles ont été choisies par le Centre européen de l’énergie marine comme premier laboratoire au monde pour l’exploitation d’une source d’énergie renouvelable : l’énergie marémotrice, dont le développement stagne depuis des années. Si les nouvelles turbines résistent à la violence des courants écossais, elles pourraient enfin nous permettre de contrôler l’une des sources d’énergie renouvelable les plus prometteuses. Les équipements doivent résister à l’environnement agité des fonds océaniques, où les possibilités de réparation sont limitées. Bon nombre de sociétés misent donc sur la robustesse, tandis que d’autres cherchent à concevoir des turbines facilement récupérables en cas de problème.

Le principal inconvénient de cette source d’énergie est la rareté des courants suffisamment puissants. Des tentatives ont été faites afin d’exploiter les courants marins de faible profondeur, mais ces derniers sont incompatibles avec la plupart des turbines actuelles, qui ont besoin d’au moins 20 mètres de fond pour fonctionner.

La société Pulse Tidal, installée à Sheffield, au Royaume-Uni, a mis au point une turbine composée de deux axes sur lesquels sont fixées deux ailes immergées. Le courant marin fait osciller les ailes et leur mouvement entraîne un générateur. Contrairement à la plupart des turbines [rondes], ce dispositif a la forme d’un rectangle bas, ce qui lui permet de fonctionner même en eaux peu profondes. D’autres entreprises essaient de concevoir des turbines capables de capter l’énergie de courants moins puissants, ce qui n’est pas une mince affaire : la moindre baisse de vitesse du courant peut compromettre la rentabilité des turbines sous-marines.

Minesto, une société créée par le constructeur automobile suédois Saab, propose un système permettant à ses installations de se maintenir à contre-courant : la turbine est fixée à une sorte de cerf-volant sous-marin, lui-même ancré dans le plancher océanique grâce à un câble qui permet également d’acheminer l’énergie produite. Ce câble est relié à un système de contrôle mécanique permettant d’orienter le cerf-volant. A l’instar du vent, le courant marin permet de faire “voler” le cerf-volant. La turbine se met alors à tourner à contre-courant, ce qui augmente la vitesse de l’eau qui passe à travers [et ainsi l’énergie récupérée]. D’après Minesto, cette technique permet d’augmenter la puissance du courant et de multiplier par dix la production d’énergie.

Plus un courant est faible et plus son exploitation peut être intéressante et rentable. “Je pense qu’une vitesse de courant de 1 à 1,5 m/s est suffisante”, explique Gareth Davies, d’Aquatera, un cabinet de conseil sur l’environnement installé à Stromness, en Ecosse, qui travaille avec plusieurs entreprises spécialisées dans l’énergie marémotrice. Une étude réalisée pour la Commission européenne estime que les 106 sites maritimes répertoriés en Europe où les vitesses de courant sont supérieures à 1,5 m/s pourraient générer 12 000 mégawatts d’électricité, l’équivalent de 12 centrales électriques conventionnelles.

Courrier International

Les algues comme source d'énergie durable
Dimanche, 16/10/2011 - 01:00

La biomasse à base d'algues a le potentiel de fournir de l'énergie durable et de contribuer fortement à la réduction des émissions de CO2. A travers le nouveau projet européen "EnAlgae", 19 partenaires unissent leurs compétences pour favoriser le développement de la production de biomasse à base d'algues dans le nord-ouest de l'Europe. Le projet "EnAlgae" est une initiative stratégique du programme de coopération transnationale "Europe du Nord-Ouest Interreg IVB", financé en partie par le Fonds européen de développement régional. Ce projet sera financé à hauteur de 14 millions d'euros pour une durée de quatre ans. La gestion de projet sera tenue par l'Université de Swansea au Pays de Galles. Les partenaires allemands pour ce projet seront l'Agence des matières premières renouvelables (FNR), l'Institut de technologie de Karlsruhe (KIT) et l'Etablissement d'enseignement supérieur technique et scientifique de la Sarre.

L'objectif de "EnAlgae" est de réduire les émissions de CO2 et la dépendance aux énergies fossiles dans l'Europe du Nord-Ouest. Les algues peuvent convertir jusqu'à 5 % de la lumière solaire en énergie chimique et absorber de grandes quantités de CO2 dans l'atmosphère. Puisque les algues peuvent être cultivées dans des bassins ou des réservoirs, leur production ne nécessite pas de terres arables et ne concurrence pas la production alimentaire. "Les algues possèdent donc du point de vue de la durabilité un énorme potentiel", comme le souligne Christine Rösch, chef de projet au KIT. Sous la direction du KIT, des experts vont mener des analyses sur la durabilité de différents procédés de production à base de micro- et macro-algues. Leur objectif sera de déterminer la chaîne de production la plus efficace et la plus avantageuse, autant d'un point de vue écologique qu'économique, et de définir quels seraient les emplacements les plus appropriés pour la culture d'algues. La conception d'installations de production durable d'algues sera également envisagée.

Les moyens mis en oeuvre seront le développement accéléré de technologies durables pour la production de biomasse et pour la capture des gaz à effet de serre, depuis la phase pilote jusqu'aux applications commerciales.

Bulletins Electroniques

^ Haut
Espace
Espace et Cosmologie
Pour la première fois, un satellite permettra d’observer la Terre en temps réel
Jeudi, 20/10/2011 - 01:30

Une première mondiale. Astrium, géant de l'industrie spatiale, annonce avoir signé un contrat de 275 millions d'euros pour permettre l'observation de la Terre par satellite en temps réel. Le système, sans équivalent à ce jour dans le monde, qu'Astrium Services doit mettre en place pour l'Agence spatiale européenne (ESA) permettra notamment d'observer les conséquences des catastrophes naturelles.

Astrium Services, filiale d'Astrium (groupe EADS), a signé cet accord avec l'ESA pour livrer et exploiter un système européen de relais des données recueillies par les satellites d'observation de la Terre. Ces satellites, en orbite à basse altitude, ne peuvent actuellement transmettre les photos qu'ils ont prises que lors de leur passage au-dessus de la station terrestre qui leur est affectée. Le projet consiste à utiliser deux satellites en orbite géostationnaire qui, grâce à leur très haute altitude (36 000 km), pourront communiquer de façon beaucoup plus continue avec les satellites d'observation et recueillir leurs images.

"L'accès à des images satellitaires permet d'établir rapidement une carte de la zone sinistrée et donc de mieux coordonner les actions au sol", souligne l'ESA. Un premier satellite, fabriqué par Astrium (et non par l'opérateur Eutelsat), doit être lancé en 2014 et le second, construit par la société allemande OHB-System, en 2015. En développant ce projet commercial, Astrium espère travailler non seulement pour l'ESA et l'Union européenne mais aussi pour des agences spatiales nationales. Il servira aussi indirectement les clients des systèmes de géo-observation, comme les pétroliers qui s'en servent pour la prospection, les assureurs qui surveillent les zones à risque et les agriculteurs.

Le Monde

La relativité générale d'Einstein confirmée à l'échelle cosmique !
Samedi, 15/10/2011 - 01:00

La théorie de la relativité générale d'Albert Einstein a été confirmée à l'échelle cosmique par des astrophysiciens qui ont analysé comment la lumière provenant de lointains amas de galaxies est affectée par la gravitation. Hasard du calendrier, la publication de cette étude survient quelques jours seulement après l'annonce d'une découverte qui jette une ombre sur la théorie d'Einstein. Une équipe internationale de physiciens a en effet observé des neutrinos, particules élémentaires de la matière, se déplaçant à une vitesse légèrement supérieure à celle de la lumière, pourtant considérée comme une "limite infranchissable" dans la théorie de la relativité.

Bien avant cette observation de neutrinos plus rapides que de raison, Radek Wojtak (Dark Cosmology Centre, Université de Copenhague) et ses collègues ont voulu confirmer la théorie d'Einstein en analysant la lumière qui nous parvient de galaxies situées au sein de quelque 8.000 amas abritant chacun des milliers de galaxies. La gravité, qui assure la cohésion de l'amas, laisse aussi son empreinte sur la lumière que chacune de ces galaxies émet dans l'espace, selon l'étude publiée récemment dans la revue scientifique britannique Nature.

D'après la théorie d'Einstein, la fréquence de la lumière est ralentie et sa longueur d'onde allongée sous l'effet de la gravitation. Il en résulte un décalage du spectre lumineux vers le rouge ("redshift") gravitationnel, différent de celui dû à l'éloignement des galaxies. En comparant la longueur d'onde de la lumière provenant des galaxies situées au coeur des amas, là où la gravité est la plus forte, à celle issue de galaxies situées à la périphérie, l'équipe d'astrophysiciens a pu mesurer "de petites différences dans leur redshift", selon Radek Wojtak. "Nous avons pu voir que la lumière des galaxies situées au milieu d'un amas +peine+ à sortir du champ gravitationnel, alors que la lumière des galaxies périphériques émerge plus facilement", explique-t-il dans un communiqué.

Après avoir calculé la masse de chaque amas, les astrophysiciens ont utilisé la théorie de la relativité générale pour évaluer le "redshift gravitationnel" des galaxies selon leur position au sein de l'amas. Ces "calculs théoriques" du redshift gravitationnel se sont avérés "en complet accord avec les observations", souligne M. Wojtak. Le décalage de la lumière vers le rouge varie "proportionnellement en fonction de l'influence gravitationnelle de la gravité de l'amas", ajoute-t-il. "Nos observations confirment ainsi la théorie de la relativité", relève-t-il. Des tests avaient déjà été conduits à l'échelle du système solaire ou de quelques étoiles. Maintenant, elle a été "testée à l'échelle cosmique et cela confirme que la théorie de la relativité générale fonctionne", conclut le chercheur.

L'équipe d'astrophysiciens a aussi comparé les résultats obtenus avec les prédictions de plusieurs modèles cosmologiques. M. Wojtak fait état de "fortes indications de la présence d'une énergie sombre", responsable de l'accélération de l'expansion de l'univers, sans exclure toutefois une théorie l'expliquant autrement. Selon des calculs fondés sur la relativité générale, une énergie sombre de nature inconnue représenterait 72 % du contenu de l'univers. Une mystérieuse matière noire, invisible, en constituerait 23 %, en sus des quelque 5 % dus à la matière visible : étoiles, planètes, règne du vivant compris.

Université de Copenhague

Science NOW

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Face au réchauffement climatique, les agronomes conseillent de diversifier les récoltes
Jeudi, 20/10/2011 - 01:00

Il est grand temps de diversifier les récoltes vitales face aux menaces croissantes dues à la sécheresse, aux inondations et aux parasites qu'entraîne le changement climatique, ont mis en garde des agronomes. La population mondiale - qui frôle les 7 milliards d'habitants - dépend massivement d'une dizaine de productions agricoles. A cause de la modernisation de l'agriculture, seul un faible nombre de variétés sont cultivées de façon intensive. Lorsque le réchauffement va s'intensifier, beaucoup de ces variétés souffriront à cause du temps plus chaud et sec - ou au contraire plus humide - et seront exposées à des insectes et des parasites ayant investi de nouvelles zones d'habitat.

«Les agriculteurs se sont toujours adaptés, mais le rythme de changement à cause du changement climatique va être bien plus rapide que dans le passé. Il y aura une réelle nécessité d'aller vite», a déclaré à l'AFP Bruce Campbell, directeur du Programme de recherche sur le changement climatique, l'agriculture et la sécurité alimentaire (CCAFS).

Dans une série d'études, les experts soulignent les risques pour des produits de base comme le blé, le maïs, les bananes et le manioc. Ils citent aussi en exemple la pomme de terre, dont l'amidon est un nutriment vital pour des centaines de millions de personnes. La pomme de terre est vulnérable à la chaleur qui réduit sa croissance et la formation d'amidon. Avec le réchauffement, la culture des pommes de terre va devenir plus risquée dans le Sud de l'Afrique et dans les hautes terres tropicales. Dans les latitudes plus septentrionales, la propagation des parasites, comme la teigne de la pomme de terre, est redoutée. Mais le mildiou, responsable de famines par le passé en Europe, deviendra moins menaçant.

Il faudrait investir au moins 7 milliards de dollars supplémentaires par an dans l'irrigation, la recherche agronomique et les infrastructures rurales, selon le volumineux livre publié récemment, présentant les stratégies d'adaptation des récoltes au changement climatique («Crop Adaptation to Climate Change»). Pour diversifier les productions agricoles, les banques de conservation des graines et des génomes connus devraient jouer un rôle-clé, selon les chercheurs. L'identification de caractéristiques génétiques particulières chez des plantes sauvages peut fournir un stock de gènes permettant d'affronter des conditions plus difficiles. Le recours à des organismes génétiquement modifiés, contesté par de nombreuses organisations écologistes, est également possible. Mais «c'est une question à laquelle la société doit répondre», déclare prudemment Bruce Campbell.

Le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) estime que les températures à la surface de la Terre vont probablement augmenter de 1,8 à 4°C au cours du 21e siècle. Ce réchauffement climatique est probablement déjà en marche, selon des nombreux scientifiques, a rappelé Bruce Campbell, mettant en garde contre le risque qu'il y aurait à «attendre dix ans» pour diversifier les variétés agricoles. «Deux sortes de changements vont se produire : une hausse graduelle des températures et des épisodes extrêmes de canicule et d'inondations. Je pense qu'ils sont déjà là. Dans les données météorologiques, il y a tant de records battus, même s'il est très difficile de les attribuer au changement climatique», dit-il.

20 minutes

De meilleures prévisions climatiques à long terme
Mercredi, 19/10/2011 - 01:30

Des chercheurs de France et des États-Unis ont découvert le moyen d'améliorer la validité et la durée des prévisions climatiques de long terme. Présentée dans la revue Proceedings of the National Academy of Sciences (PNAS), cette étude montrait comment prévoir les conditions météorologiques jusqu'à 12 mois à l'avance, doublant ainsi le temps de prévision obtenu jusqu'à présent.

Un chercheur participant à l'étude précise que les prévisions climatologiques sont plus générales que les prévisions météorologiques à court terme, étant donné qu'elles ne prédisent pas les températures précises pour des villes données. Mais le professeur Michael Ghil, du département de sciences océaniques et atmosphériques de l'université de Californie à Los Angeles (UCLA) aux États-Unis ajoute qu'elles peuvent quand même influencer les activités des secteurs agricoles, économiques et industriels.

«On peut prévoir certaines caractéristiques du climat, mais sans trop de précision, à savoir la température ou les précipitations à Los Angeles dans deux ans jour pour jour», explique le professeur Ghil, de l'Institut d'enseignement et de recherche environnementale de l'École normale supérieure en France, auteur principal de l'étude. «Il s'agit plutôt des moyennes sur des vastes régions et sur des périodes plus longues.»

L'étude révèle que les prévisions à long terme pourraient aider les scientifiques à réaliser des prédictions plus précises de phénomènes climatiques tels qu'El Niño, par exemple. Ces phénomènes sont caractérisés par des changements de température de surface de l'océan Pacifique tropical Est (un réchauffement ou un refroidissement connus sous le nom d'El Niño et de La Niña), et de pression de surface dans le Pacifique tropical Ouest. Ces événements déclenchent des phénomènes climatologiques extrêmes tels que des crues ou des sécheresses dans plusieurs régions du monde, en moyenne tous les deux ans.

Il est difficile de séparer la variabilité naturelle du climat des changements climatiques induits par l'homme. Une autre difficulté pour les chercheurs est de tenir compte de la variabilité naturelle pendant le développement de modèles climatiques.

Pour cette étude, le professeur Ghil et ses collègues ont évalué les températures de surface des océans du monde entier. Pour renforcer ces prévisions, l'équipe a créé un algorithme basé sur les observations mathématiques de l'interaction des conditions météorologiques à court terme et du climat à long terme. Les conditions météorologiques couvrent une période quotidienne, tandis que le climat couvre une période mensuelle ou même plus longue.

Ils ont utilisé 50 années de données climatiques et de prévisions d'essais de manière rétrospective, dont les données climatiques datant de 1950 à 1970, pour réaliser des «prévisions» pour janvier 1971, février 1971 et ainsi de suite. Ils voulaient également déterminer la précision des prévisions. Les chercheurs sont parvenus à obtenir des prévisions précises pour 16 mois au-delà de la date atteinte par d'autres scientifiques lors d'études antérieures.

Dans un développement récent, le professeur Ghil et ses collègues ont évalué l'impact macroéconomique des événements extrêmes. Les résultats, partiellement financés par le projet E2C2 («Extreme events: causes and consequences»), qui a reçu une subvention de 1,5 million d'euros au titre de l'activité NEST («New and emerging science and technology») du sixième programme-cadre (6e PC), ont montré que les événements extrêmes posent un plus grand problème lorsque les catastrophes arrivent en période d'expansion économique.

«Ces phénomènes sont moins nuisibles en période de récession économique», conclut le professeur Ghil. «Si votre toit est emporté par un ouragan, il est plus simple de le réparer lorsque beaucoup de personnes n'ont pas d'emplois et que les salaires sont réduits. Ces résultats étayent et permettent d'expliquer les rapports de la Banque mondiale sur l'impact des catastrophes naturelles.»

CORDIS

Le champ magnétique terrestre s'inverse au rythme de la tectonique des plaques
Mercredi, 19/10/2011 - 01:00

Au cours de l'histoire de la Terre, le champ magnétique s'est inversé à de nombreuses reprises, à un rythme irrégulier. De longues périodes sans inversion ont été séparées par des phases de renversements plus fréquents. Quelle est l'origine des inversions et de leur irrégularité ? Des chercheurs du CNRS et de l'Institut de Physique du Globe apportent un élément de réponse nouveau en démontrant que la fréquence des inversions dépend de la répartition des plaques tectoniques à la surface du globe ces 300 derniers millions d'années. Ce résultat ne signifie pas que les plaques terrestres déclenchent elles-mêmes le basculement du champ magnétique. Il établit que si le phénomène d'inversion se produit in fine dans le noyau liquide de la Terre, il est sensible à ce qui se passe hors du noyau, plus précisément dans le manteau terrestre. Ces travaux ont été publiés le 16 octobre 2011 dans Geophysical Research Letters.

Le champ magnétique terrestre est produit par les écoulements du fer liquide qui ont lieu dans le noyau, trois mille kilomètres sous nos pieds. Comment l'idée d'une relation entre la tectonique des plaques et le champ magnétique est-elle venue aux chercheurs ? De la découverte que la symétrie des écoulements de fer liquide joue un rôle dans les inversions magnétiques : des expériences et de travaux de modélisation réalisés ces cinq dernières années ont en effet montré qu'une inversion survient lorsque les mouvements de métal en fusion ne sont plus symétriques par rapport au plan de l'équateur. Cette « brisure de symétrie » se ferait progressivement : elle commencerait d'abord dans une zone située à la frontière noyau-manteau (le manteau sépare le noyau liquide de l'écorce terrestre), puis gagnerait l'ensemble du noyau (constitué de fer liquide).

Prolongeant ces recherches, les auteurs de l'article se sont demandés si une trace des brisures de symétrie initiales, à l'origine des inversions qui ont jalonné l'histoire de la Terre, se retrouvait dans les seules archives des écoulements géologiques à grande échelle que nous possédons, c'est-à-dire les déplacements des continents (ou tectonique des plaques). Il y a 200 millions d'années, la Pangée, nom donné au supercontinent rassemblant la quasi-totalité des terres, a commencé à se disloquer en une multitude de morceaux qui ont façonné la Terre comme on la connaît aujourd'hui. En faisant le bilan de la surface des continents situés dans l'hémisphère Nord et ceux dans l'hémisphère Sud, les chercheurs ont pu calculer un degré d'asymétrie (par rapport à l'équateur) dans la répartition des continents durant cette période.

La conclusion ? Le degré d'asymétrie a varié au même rythme que le taux d'inversions magnétiques (nombre d'inversions par million d'années). On peut presque superposer les deux courbes tant elles ont évolué en parallèle. Autrement dit, plus le centre de gravité des continents s'éloignait de l'équateur, plus le rythme des inversions s'accélérait (jusqu'à atteindre huit par million d'années pour un degré d'asymétrie maximal).

Que faut-il en déduire sur le mécanisme à l'origine des inversions ? Les scientifiques envisagent deux scénarios. Dans le premier, les plaques terrestres pourraient être directement responsables des variations de la fréquence des renversements : après leur plongée dans le manteau terrestre au niveau des zones de subduction, les plaques parviendraient jusqu'au noyau, où elles modifieraient les écoulements de fer. Dans le second, les mouvements des plaques ne feraient que refléter le brassage de matière à l'œuvre dans le manteau et notamment à la base de celui-ci. Dans les deux cas, ce sont bien des mouvements de roches extérieures au noyau qui provoqueraient l'asymétrie des écoulements dans le noyau liquide, et détermineraient la fréquence des inversions.

CNRS

La Terre « boule de neige » : une hypothèse à revoir
Mardi, 18/10/2011 - 01:00

L'hypothèse selon laquelle, il y a 635 millions d'années, la Terre aurait été entièrement recouverte de glace, vient de prendre un coup de chaud. La concentration atmosphérique en CO2 durant cette période est beaucoup plus faible que prévu, c'est ce que révèle une équipe de chercheurs français de l'Institut de physique du globe de Paris (CNRS/IPGP/Université Paris Diderot), en collaboration avec le laboratoire Géologie et gestion des ressources minérales et énergétiques ainsi qu'avec des scientifiques brésiliens et américains. Leur étude, parue dans la revue Nature du 6 octobre 2011, remet en cause une partie de cette hypothèse dite de la Terre « Boule de Neige » et relance le débat sur l'origine du mécanisme de déglaciation.

La Terre a traversé plusieurs épisodes glaciaires extrêmes, dont deux durant la période géologique bien nommée du Cryogénien (il y a 710-630 millions d'années). En 1992 et en 1998, des scientifiques ont émis l'hypothèse qu'il y a environ 635 millions d'années, notre planète aurait connu un épisode glaciaire majeur, laissant le globe entièrement recouvert de glace. Encore aujourd'hui, la question de la sortie d'un tel épisode reste en suspens, sachant que la glace renvoie une plus grande partie du rayonnement solaire que les roches. Dans cette hypothèse de la Terre « Boule de Neige », on supposait que du CO2 d'origine volcanique s'était accumulé dans l'atmosphère en quantité suffisante pour que ce gaz à effet de serre ait pu réchauffer la surface de la planète et provoquer la fonte des glaces. Théoriquement, les teneurs en CO2 proposées dans le cadre de cette hypothèse devaient varier autour de 120 000 ppmv (soit 12 %), un taux 300 fois supérieur aux teneurs actuelles.

Afin d'estimer la teneur en CO2 atmosphérique pour cette période, les chercheurs français, brésiliens et américains ont étudié des carbonates déposés il y a 635 millions d'années (glaciation Marinoenne). Ces premiers sédiments recouvrent les dépôts glaciaires de cette période, considérée comme le témoin d'une glaciation globale, la fameuse Terre « Boule de Neige ». Cette étude se base sur la différence des compositions isotopiques du carbone entre les carbonates et la matière organique d'organismes fossilisés, reliée à la teneur en CO2 atmosphérique. Les résultats montrent une concentration très proche de l'actuelle (et inférieure à 3 200 ppmv), soit une teneur très insuffisante pour sortir d'un épisode glaciaire d'une telle importance.

Cette étude non seulement remet en cause une partie de l'hypothèse Terre « Boule de Neige », mais elle implique également que ces épisodes glaciaires n'ont pas été aussi intenses que précédemment proposé. En outre, ces mêmes données s'accordent avec l'idée qu'à la même période, l'atmosphère aurait été beaucoup plus pauvre en oxygène, autour de 1 %, alors qu'aujourd'hui, elle est de l'ordre de 20 %. Dès lors, les scientifiques doivent se pencher sur d'autres mécanismes de déglaciation ou bien sur d'autres gaz que le CO2, tel que le méthane, également avancé dans le cadre de cette hypothèse.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le rat nu, roi de la longévité
Jeudi, 20/10/2011 - 01:40

Il vit 10 fois plus longtemps que ses cousins rats et souris et ne souffre pas du cancer. Pour mieux connaître les secrets du rat taupe nu, des scientifiques ont séquencé son ADN.

Il n’a pas le physique idéal du petit rongeur de compagnie et pourtant... Le rat taupe nu a un énorme avantage : sa longévité. 30 ans en moyenne en captivité, contre 2 à 3 ans pour une souris. Cette étonnante espérance de vie, conjuguée à l’absence de cancers, ont fait du rat taupe un sujet d’étude de premier ordre pour les scientifiques –à défaut d’être la coqueluche des foyers.

Une équipe internationale de chercheurs (États-Unis, Chine, Corée, Danemark) a publié récemment dans la revue Nature la séquence génétique du rat taupe nu (Heterocephalus glaber). Avec l’ADN du petit rongeur africain en main, les scientifiques ont commencé à chercher les clefs de son métabolisme.

  • Une reine et un harem de mâles

Le rat taupe nu, rongeur glabre à la peau claire et fripée, creuse des galeries et vit dans l’obscurité de colonies souterraines, dans des régions arides de l’Est de l’Afrique (Kenya, Éthiopie, Somalie, Érythrée). Avec ses jolies dents qui se croisent devant son museau, il se nourrit de tubercules au goût amer. Le mode de vie des colonies s’apparente à celui des fourmis ou des termites : une reine assure la reproduction, avec quelques mâles choisis. Les autres membres de la colonie ont donc abandonné toute vie reproductive (et donc sexuelle).

Autre différence majeure avec l’immense majorité des mammifères : le rat taupe n’est pas capable de produire la chaleur dont son corps a besoin. Sa température corporelle peut descendre très bas et le rat nu doit alors remonter près de la surface pour se réchauffer.

  • Air vicié

Ce qui fascine les biologistes, c’est non seulement la longévité des rats taupes, mais aussi le fait qu’ils survivent dans un air chargé de CO2 et pauvre en oxygène. Et surtout qu’ils ne développent pas de cancer spontanément malgré leur grand âge, ni en laboratoire lorsqu’on tente d’implanter des cellules tumorales.

Les chercheurs ont déjà commencé à identifier des gènes liés à l’adaptation à un milieu pauvre en oxygène, au vieillissement ou à la lutte contre les cellules cancéreuses (via une protéine "suppresseur de tumeur"). Le travail d’analyse se poursuit. Même s’il est peu probable que l’ADN du rat taupe nous fournisse dans un délai raisonnable les clefs d’une vie encore plus longue et délivrée du cancer, ce génome constitue un modèle unique pour la recherche biomédicale.

Sciences et Avenir

Le fonctionnement du cerveau modifié par les smartphones !
Jeudi, 20/10/2011 - 01:20

Jean-Philippe Lachaux, directeur de recherche au Centre de recherche en neurosciences de Lyon, explique comment l’usage des smartphones modifie notre cerveau. Ce spécialiste part du constant que les smartphones « détournent régulièrement notre attention du moment présent pour la plonger dans un monde d'informations abstraites ». Ce comportement serait dû à la stimulation du « circuit de récompense du cerveau » qui « joue un rôle central dans la motivation et le plaisir et dans les phénomènes d'addiction ». C’est par exemple ce système qui nous pousse à boire quand nous avons soif.

Il a ainsi été démontré que certains neurones réagissent de la même manière à la perspective d’obtenir une information importante véhiculée par les e-mails ou les SMS. Il est toutefois trop tôt pour savoir si les smartphones ont « des effets durables sur l'organisation fonctionnelle du cerveau » comme « l'apparition de zones dédiées à leur usage ». Il est en revanche certain qu’ils le mettent dans une « situation permanente de multitâche pour laquelle il n'est pas forcément conçu ».

Chaque situation dans laquelle on se trouve est donc désormais perturbée par l’usage de nos smartphones. Notre cerveau doit donc « apprendre à définir une hiérarchie dans ses priorités, auparavant imposée par le contexte unique dans lequel nous nous trouvions à chaque moment ». En vacances au bord d’une piscine, on peut ainsi penser à son collègue de bureau qui vient de nous envoyer un mail. « Cet effet de sélection conduit à un appauvrissement de notre expérience sensorielle », explique Jean-Philippe Lachaux. Dans les moments « en creux » de notre journée, notre cerveau n’est alors plus disponible pour les « phases d'écoute et de réceptivité accrue à ce qui nous entoure, ou à ce que nous ressentons ».

Le chercheur ne jette pas pour autant la pierre à la technologie, mais plutôt aux usages que l’on en fait. Il faut être « conscients de la charge qu'ils font peser sur nos capacités attentionnelles ». Et de conclure par une plaidoirie en faveur de l’éducation : « dans cet univers de multitâche permanent, ce bon usage ne va plus de soi et il est peut-être temps d'envisager une véritable éducation de l'attention, notamment en milieu scolaire, qui prépare dès l'enfance à la vie connectée ».

Best of Micro

Vers un vaccin plus sûr contre la maladie d'Alzheimer
Lundi, 17/10/2011 - 01:40

Des facteurs génétiques influencent la réponse immunitaire aux vaccins contre la maladie d’Alzheimer, l’une des pistes thérapeutiques les plus prometteuses contre cette pathologie. C’est ce qu’a étudié, dans un modèle chez la souris, l’équipe du professeur Pierre Aucouturier, Laboratoire Système Immunitaire et Maladies Conformationnelles (Inserm / UPMC) de l’Hôpital Saint-Antoine.

Ces travaux montrent, qu’en plus des molécules du Complexe Majeur d’Histocompatibilité (CMH), qui présentent l’antigène vaccinal aux cellules immunitaires, des facteurs génétiques, contrôlant certaines cellules immunitaires, influencent la qualité de la réponse à la vaccination. Ces résultats pourraient permettre de prévenir des réactions neuroinflammatoires, obstacle majeur à l’utilisation du vaccin contre la maladie d’Alzheimer chez l’homme. Cette étude vient d’être publiée dans The Journal of Immunology.

Depuis le début des années 2000, la recherche sur la maladie d’Alzheimer s’est orientée en partie sur l’étude d’un vaccin constitué du peptide amyloïde ß (Aß), dont l’accumulation dans le cerveau est notamment responsable de la pathologie. La vaccination de patients avec ce peptide a entraîné des réactions neuro-inflammatoires graves chez 6 % d’entre eux. Afin de mettre au point un vaccin plus sûr et plus efficace, il est donc primordial de comprendre les facteurs qui influencent les réponses de l’organisme au peptide Aß.

  • La clé du vaccin serait génétique

L’équipe mixte de recherche Inserm/UPMC de Pierre Aucouturier, avec Cécile Toly-Ndour et Guillaume Dorothée, a mené ses travaux sur des souris exprimant différentes formes du Complexe Majeur d’Histocompatibilité (CMH). Ces molécules, dont le rôle est de présenter les antigènes aux cellules immunitaires, présentent une importante diversité génétique qui peut expliquer des réponses différentes. En effet, des souris aux CMH différents présentent des réactions immunitaires cellulaires différentes après vaccination par le peptide Aß. Les chercheurs sont ensuite allés plus loin. En exprimant le CMH d’une lignée de souris chez une autre, ils ont montré que des facteurs indépendants du CMH mais liés au fond génétique, influencent de façon dominante la réponse anti-Aß. Ils ont ensuite prouvé que ces facteurs mettent en jeu une sous-population de globules blancs, les lymphocytes T régulateurs.

Ces résultats apportent une nouvelle piste pour orienter les cellules immunitaires de manière favorable, et ainsi améliorer l’approche immunothérapeutique, qui reste un des espoirs majeurs contre la maladie d’Alzheimer. Ces observations menées sur la souris demandent cependant à être validées chez l’homme.

INSERM

De l'eau douce au fond de la mer Morte
Lundi, 17/10/2011 - 01:00

L'agitation de l'eau à la surface de la mer Morte laisse présager depuis des années que quelque chose se cache dans ses profondeurs.

Cette année, des plongeurs israéliens et allemands ont bravé ces eaux chargées de sel et ont fait une découverte édifiante : des sources d’eau douce jaillissent, à plus de 30 mètres de profondeur dans des cratères de 15 mètres de largeur et 20 mètres de profondeur, couronnées par des formations géologiques hors du commun, selon un article du Scientific American. Ils ont filmé ce trésor géologique et biologique.

Les formes de vie qu’ils ont trouvées à proximité des panaches sous-marins sont exceptionnelles d’un point de vue biologique, notamment des couches de bactéries et des biofilms, dont l’existence était complètement insoupçonnée dans la mer Morte.

Et, ce qui est le plus étonnant, selon un article du National Geographic, c'est la capacité qu’ont ces bactéries présentes dans les sources d’eau douce à résister à l’eau extrêmement salée de la mer Morte. Car comme l’explique Danny Ionescu, spécialiste de la microbiologie marine à l’institut Max Planck en Allemagne, c’est la première fois qu’on découvre une espèce capable de s’adapter aux deux environnements. Normalement, les espèces vivant dans les eaux très salées meurent en eau douce et inversement, selon Kelly Bible, spécialiste des bactéries vivant en eaux salées, à la Rider University du New Jersey.

Personne ne s’était jusqu’alors empressé d’aller chercher la cause des ondulations à la surface de l’eau, étant donné la dangerosité de la plongée dans la mer Morte, selon l’article du Scientific American. Avaler un peu de cette eau salée en profondeur peut entraîner une asphyxie immédiate. L’équipement aussi en a fait fuir plus d’un. Le port d’un masque intégral protégeant les yeux et la bouche est une nécessité et ce ne sont pas les poids habituels d’environ 5kg qu’il faut attacher à sa ceinture de plongée pour descendre dans les profondeurs, mais de 40kg.

On n'avait jusqu’alors pu observer aucune présence vivante dans la mer Morte. Plantes, poissons, ou autre forme de vie auraient été bien incapables d'y survivre étant donné la concentration en sel de l'eau –environ un tiers, c’est-à-dire une quantité 9 fois supérieure à celle de n’importe quel océan (3,5 %).

Slate

Un rat-taupe doté d’une denture singulière : elle se renouvelle continuellement !
Dimanche, 16/10/2011 - 01:40

Laurent Viriot, professeur à l'Université Claude Bernard, et son équipe de l'Institut de Génomique Fonctionnelle de Lyon (ENS de Lyon-CNRS-Université Claude Bernard Lyon1) viennent de publier dans le prestigieux PNAS (Proceedings of the National Academy of Sciences), revue de l'Académie des sciences américaine, une découverte qui pourrait avoir des implications à terme au niveau des recherches sur la régénération des tissus dentaires chez l'homme.

Après étude de 55 crânes provenant de la Collection de Mammalogie du muséum de l'Afrique centrale à Tervuren (Belgique) et du Muséum national d'histoire naturelle de Paris, il s'avère qu'un rongeur d'Afrique de l'est, le rat-taupe argenté, remplace continuellement ses dents selon un système tout à fait ingénieux : quand la première dent de la rangée est totalement usée, une nouvelle apparaît complètement à l'arrière et pousse les autres dents en produisant un effet de tapis roulant. Helder Gomes-Rodrigues, l'auteur de l'article, explique que, par ce système, ce rongeur perd autant de dents qu'il en a de nouvelles.

Sur les 5 500 espèces de mammifères existantes, seules trois ont cette caractéristique : une espèce très rare de wallaby, le lamantin et le rat-taupe argenté. Parce qu'il n'est ni rare ni très gros (moins de 500 gr pour un adulte) le rat-taupe argenté de Tanzanie pourrait bien constituer un nouveau modèle pour découvrir comment régénérer des dents chez l'homme. Affaire à suivre.

ENS de Lyon

Les tranquillisants pourraient être mis en cause dans la maladie d’Alzheimer
Dimanche, 16/10/2011 - 01:20

Selon les premiers résultats d’une étude française publiée en exclusivité par le magazine Sciences et Avenir, l’abus de tranquillisants et de somnifères sur la durée favoriserait les risques de développer une maladie neurodégénérative, telle que la maladie d’Alzheimer. Bernard Bégaud, principal auteur de ces travaux, souhaite sur cette question une véritable prise de conscience des pouvoirs publics et des français qui restent les premiers consommateurs au monde de ce type de traitement.

Après l’affaire Médiator, les travaux de Bernard Bégaud, pharmaco-épidémiologiste, auteur de l’étude (Inserm-Université de Bordeaux) pourraient bien créer un nouveau séisme dans le monde pharmaceutique et dans celui de la santé publique. L’équipe de ce dernier a en effet montré que la consommation régulière de tranquillisants et de somnifères serait susceptible de déclencher la maladie d’Alzheimer. S’ils sont confirmés, ces résultats sont particulièrement inquiétants car chaque année, plus de 120 millions de boîtes de ce type de traitement sont vendues à travers la France. Selon les dernières données de la Caisse nationale d’assurance maladie, nous en consommerions 5 à 10 fois plus que nos voisins européens.

Bernard Bégaud et son équipe ont suivi au fil du temps le devenir de 3 777 patients de 65 ans et plus ayant pris des benzodiazépines pendant des périodes allant de deux à plus de dix ans. Les premiers résultats qui font l’objet d’un article dans le dernier numéro de Sciences et Avenir démontreraient que le risque de déclencher la maladie serait accru de 20 à 50 %, suite à la prise sur le long terme de ce type de traitement. Suite à leurs investigations, les chercheurs estiment que chaque année, 16 000 à 31 000 français pourraient développer la maladie d’Alzheimer suite à la prise de médicaments à base de benzodiazépines ou de dérivés. Ils mettent notamment en cause, plusieurs dizaines de médicaments tels que le Valium, le Xanax, le Lexomil, le Temesta, le Tranxène ou le Stilnox. C’est la neuvième étude qui montre l'existence d'un lien fort entre la consommation, sur plusieurs années, de tranquillisants ou de somnifères, et la maladie d’Alzheimer.

Si, jusqu’ici, les travaux scientifiques avaient surtout mis en avant le fait que ce type de molécule pouvait accélérer ou aggraver le développement de la maladie, c’est la première fois qu’est dénoncée la potentialité des médicaments psychotropes à déclencher l’apparition d’une démence sénile. A l’heure actuelle, les mécanismes qui pourraient expliquer l’impact de ces traitements sur le cerveau restent inconnus et d’autres travaux sont en cours afin de confirmer ces premiers résultats. S’il s’avère que les chercheurs bordelais ont vu juste, c’est toute la politique de prescription des tranquillisants et des somnifères qu’il faudra revoir

Information Hospitalière

Régénération de la colonne vertébrale de souris grâce aux cellules iPS
Dimanche, 16/10/2011 - 01:10

Dans un contexte de compétition internationale visant à développer des stratégies innovantes et sûres de médecine régénatrice, l'équipe du professeur Hideyuki Okano de la faculté de médecine de l'université Keio à Tokyo, est très récemment parvenue à réparer la moelle épinière endommagée de souris grâce aux cellules souches iPS.

Les cellules iPS ou induced Pluripotent Stem Cells sont induites par la reprogrammation génétique de cellules somatiques adultes. Tout comme les cellules souches embryonnaires, elles sont capables de se multiplier indéfiniment et de se différencier en cellules de n'importe quel organe. Elles représentent un outil médical prometteur et font l'objet de nombreux travaux de recherches afin de s'assurer de leur potentiel thérapeutique.

Concernant l'expérience, les scientifiques ont créé des cellules iPS à partir de fibroblastes humains grâce à la transduction de 4 gènes (Oct3/4, Sox2, Klf4, et c-Myc). Par l'application d'un milieu de culture spécifique, ces cellules ont été reprogrammées en précurseurs de cellules du système nerveux. Une fois ces précurseurs greffés au sein de la moelle épinière de souris rendues infirmes, ils ont migré et se sont différenciés en neurones, astrocytes et oligodendrocytes. Plusieurs effets positifs ont alors été observés : formation de synapses entre les neurones induits par les cellules iPS et les neurones de souris, expression de facteurs neurotrophiques, angiogénèse marquée, croissance axonale et production de myeline dans les zones blessées.

Environ quatre mois après ce traitement, l'ensemble des 18 souris infirmes et incapables de se déplacer avant l'expérience ont pu retrouver une mobilité satisfaisante et marcher à la vitesse de 8cm/s. A la suite de ces travaux, le processus de réparation s'est poursuivi et aucun sujet n'a développé de cancer d'après les scientifiques de la faculté de Keio. Les résultats exhaustifs de cette expérience ont été publiés dans la revue scientifique Proceedings of the National Academy of Sciences (PNAS) le 28 septembre 2011.

L'obtention de cellules souches neuronales capables d'assurer avec succès la régénération d'une partie du système nerveux à partir de cellules iPS constitue une avancée notable dans le domaine de la médecine régénératrice. D'après le professeur Okano, ces résultats représentent un espoir quant au développement de thérapies permettant la réparation de certaines lésions de la moelle épinière.

Bulletins Electroniques

L'Afssaps autorise une banque privée française de cellules souches dentaires
Samedi, 15/10/2011 - 01:40

Le 14 juin 2011, l’Institut Clinident BioPharma a reçu l'autorisation de l’Afssaps pour la préparation et la conservation des tissus humains (pulpe dentaire et ses cellules souches) utilisés à des fins thérapeutiques autologues chez l’Homme.

Deux ans de développement ont été nécessaires à l’accréditation du site de Saint Beauzire (proche de Clermont-Ferrand) en tant que biobanque.

Pourquoi vouloir conserver les cellules souches des dents extraites pour des raisons médicales (dents de sagesse, dents temporaires…) ?

- Les cellules souches dentaires ont démontré leur capacité (cellules souches mésenchymateuses adultes pluripotentes) à régénérer des tissus issus des trois feuillets embryonnaires : mésoderme (ostéoblastes, cellules musculaires et cardiaques...), ectoderme (cellules neuronales, mélanocytes...), endoderme (cellules du pancréas, glandes salivaires...).

- L’utilisation thérapeutique des cellules souches est en pleine croissance, ce qui laisse présager leur importance dans la médecine du XXIème siècle.

Il est donc désormais possible pour chacun d’accéder au stockage de ses propres cellules souches provenant de dents (extraites pour raison médicale), et d’avoir la possibilité de les utiliser ultérieurement dans le cadre d’une thérapie cellulaire.

Pour plus d’informations : Institut Clinident

Localisation des cellules tumorales en temps réel par fluorescence
Samedi, 15/10/2011 - 01:30

Le prix Erwin Schrödinger a été attribué le 21 septembre 2011, lors du congrès annuel de la société Helmholtz, à des chercheurs du Centre Helmholtz de Münich (HMGU, Bavière) et du Centre médical universitaire de Groningen (Pays-Bas) pour le développement d'un nouveau procédé d'imagerie moléculaire permettant d'identifier les cellules tumorales en temps réel en salle d'opération, grâce à une caméra à fluorescence. Les scientifiques récompensés, Vasilis Ntziachristos de l'Institut d'imagerie biologique et médicale du HMGU et Gooitzen Michell van Dam de Groningen, se sont ainsi partagé 50.000 euros.

Les technologies d'imageries actuelles (IRM, scanner, PET) permettent un diagnostic et une localisation des tumeurs avant l'opération mais les chirurgiens doivent principalement utiliser leurs propres yeux pendant celle-ci. Les tumeurs enfouies et de petite taille restent ainsi souvent invisibles, ceci augmentant le taux d'erreur.

Cette nouvelle technologie est basée sur une caméra en temps réel capable de détecter et d'afficher les agents fluorescents sur l'écran de sortie. Un produit de contraste, capable de se fixer spécifiquement aux cellules cancéreuses et comprenant un agent fluorescent, est injecté dans les tissus par le chirurgien pendant l'opération. La fluorescence dans l'infrarouge proche permet au chirurgien de visualiser les cellules tumorales jusqu'à deux centimètres de profondeur sur l'image donnée par la caméra. Cette technique devrait permettre des interventions chirurgicales plus fiables. Les chercheurs ont mis au point le procédé pour le cancer des ovaires, mais aimeraient l'étendre à d'autres maladies, en chirurgie mais aussi en endoscopie.

Bulletins Electroniques

Comment gagner 10 ans d’espérance de vie ?
Samedi, 15/10/2011 - 01:20

Suivre un régime méditerranéen (incluant une consommation modérée d’alcool), s’efforcer de rester mince, ne pas fumer ou bien encore pratiquer une activité physique régulière sont des habitudes de vie clairement associées à une meilleure longévité. Cette étude prospective d’envergure a pour objectif d’évaluer pour la première fois l’effet cumulé de ces 4 paramètres hygiéno-diététiques sur la mortalité toutes causes confondues. En 1986, des informations sur l’hygiène de vie ont été récoltées chez 120 852 hommes et femmes âgés entre 55 et 69 ans.

Un score a été établi allant de 0 point (la plus mauvaise hygiène de vie) à 4 points (la meilleure hygiène de vie) de la manière suivante : 1 point a été accordé à chaque participant s’il adhérait à une diète méditerranéenne avec un score ‘aMED’ > 5 points (‘aMed’ est un questionnaire qui évalue l’adhérence à 9 composantes diététiques du régime méditerranéen avec un score allant de 0 à 9 ) ; 1 point si son IMC se situait entre 18 et 25 Kg/m² ; 1 point s’il était non-fumeur (ou sevré depuis plus de 10 ans) et enfin 1 point s’il pratiquait une activité physique de 30 minutes ou plus par jour .

Au total, 9 691 décès ont été rapportés en 10 ans de suivi. Le risque de décès parmi les participants ayant la plus mauvaise hygiène de vie (score de 0) était près de 4 fois plus élevé chez les femmes (HR 4,07 ; p<0,001) et près de 3 fois chez les hommes (HR 2,61 ; p<0,001) comparé aux participants avec la meilleure hygiène de vie (score de 4). Le nombre d’années perdues étant en moyenne de 15,1 années chez les femmes et de 8,4 années chez les hommes (9,9 années tous sexes confondus).

Selon les auteurs, les individus avec une mauvaise hygiène de vie meurent de manière très prématurée tandis que ceux avec une bonne hygiène de vie (c'est-à-dire cumulant les 4 composantes hygiéno-diététiques étudiées) peuvent espérer vivre 10 ans de plus en moyenne. Cette étude puissante nous surprend surtout par le nombre impressionnant d’années de vie perdues lorsqu’on a une mauvaise hygiène de vie (plus de 15 ans chez les femmes !). Etant donné que la composante la plus difficile à inverser, à savoir l’IMC, semble posséder l’impact le plus limité sur la mortalité (HR de 1,06), les bonnes résolutions n’en demeurent que plus faciles à prendre !

AJCN

La pollution de l'air fait 2 millions de morts par an
Samedi, 15/10/2011 - 01:10

Chaque année dans le monde, plus de 2 millions de décès sont imputables à la pollution de l'air, selon une étude publiée lundi 26 septembre par l'Organisation mondiale de la santé (OMS). Sur ces 2 millions, 1,3 million décèdent pour avoir trop respiré de pollutions urbaines. «L'air pollué peut pénétrer dans les poumons, entrer dans la circulation sanguine et provoquer des cardiopathies, des cancers du poumon, des cas d'asthme et des infections respiratoires», indique l'OMS, qui a compilé les données sur la qualité de l'air, fournies par 1.100 villes dans 91 pays. Les effets les plus graves de la pollution de l'air s'observent chez les personnes déjà malades, les enfants et les personnes âgées. Dans de nombreuses villes, indique Maria Neira, médecin et directrice du département Santé publique et environnement de l'OMS, «la pollution atmosphérique atteint des niveaux dangereux pour la santé».

Les zones les plus dangereuses sont situées dans les pays à croissance rapide, comme l'Inde et la Chine. Dans certaines métropoles, indique l'OMS qui se refuse à dresser un classement, la concentration des particules fines est jusqu'à 15 fois supérieure au seuil maximum fixé par l'OMS. Cette pollution provient surtout de sources de combustion, comme les centrales électriques et les véhicules à moteur. Pour Maria Neira, si les pays contrôlent et gèrent correctement l'environnement, «nous pouvons réduire considérablement le nombre de gens qui souffrent d'affections respiratoires et cardiaques et de cancer du poumon». Pour mémoire, 80 des 91 pays ayant transmis des informations à l'institution onusienne ne respectent pas les valeurs de référence de l'organisation internationale en matière de pollution de l'air.

«De nombreux pays sont dépourvus de réglementation sur la qualité de l'air, et lorsqu'il y en a une, les normes nationales et leur application varient considérablement», complète la directrice du département.

Les premières causes de la pollution de l'air sont les moyens de transport, l'industrie, l'utilisation de biomasse ou de charbon dans les cuisines et pour le chauffage, ainsi que les centrales électriques au charbon. Selon l'OMS, sur les 2 millions de décès, 1,1 million pourraient être évités si les normes étaient respectées. Pour lutter contre la pollution de l'air, l'organisation basée à Genève recommande de développer les transports publics, promouvoir la marche et le vélo, et réduire l’utilisation du charbon dans les centrales thermiques. Mais l’étude publiée reste incomplète, puisqu’«il manque les chiffres de nombreux pays, comme la Russie et certains pays africains».

Journal de l'environnement

Une nouvelle thérapie virale contre le cancer
Vendredi, 14/10/2011 - 06:40

Une équipe de chercheurs dirigée par le Docteur John Bell de l'Universzité d'Ottawa (Canada) a nnoncé qu'elle avait obtenu des résultats encourageants contre certains cancers grâce à une thérapie virale par voie intraveineuse capable de s'attaquer aux tumeurs, sans pour autant affecter les tissus normaux du corps humain. Cette étude est également la première à démontrer qu'un gène étranger peut s'attaquer de façon sélective aux tumeurs une fois administré par voie intraveineuse.

L'essai a porté sur un total de 23 patients, dont sept d'Ottawa, tous atteints de cancers avancés qui s'étaient propagés à plusieurs organes et qui étaient réfractaires aux traitements habituels. Chaque patient s'est vu administrer une dose précise (parmi cinq doses de forces différentes) d'un virus appelé JX-594, dérivé d'une souche du virus de la vaccine largement utilisé comme vaccin vivant contre la variole. Outre sa propension naturelle à se reproduire dans les cellules cancéreuses, ce virus a été génétiquement conçu pour offrir des propriétés anticancéreuses améliorées.

Les biopsies effectuées chez les patients ont révélé que, chez 87 % de ceux ayant reçu l'une des deux doses les plus élevées, le virus s'était reproduit dans les tumeurs sans toucher les tissus normaux. De plus, chez six des huit patients (75 %) ayant reçu l'une des deux plus fortes doses, une régression ou une stabilisation de la tumeur a été observée, ce qui laisse entrevoir d'intéressantes possibilités quant à l'efficacité du traitement. Le traitement, par ailleurs, s'est révélé extrêmement sûr. La plupart des effets secondaires variaient de faibles à modérés, s'apparentaient aux symptômes de la grippe et duraient moins d'une journée.

Nature

Le modus operandi des cellules tueuses dévoilé
Vendredi, 14/10/2011 - 06:30

L'étude, partiellement financée par une subvention intraeuropéenne Marie Curie au titre du septième programme-cadre de l'UE (7ème PC), a examiné les leucocytes dites tueurs qui protègent l'organisme en identifiant et en détruisant les tissus malades. L'équipe a découvert que pour créer un trou par lequel il émet des granules d'enzymes mortels visant à détruire les tissus malades, les lymphocytes tueurs réarrangent leur structure de protéines à l'intérieur de leur membrane. L'un des chercheurs de l'étude, le Docteur Alice Brown de l'Imperial College de Londres, explique : «Ces événements auparavant indétectables au sein des cellules n'ont jamais été observés à une telle résolution. C'est véritablement excitant d'observer ce qui se passe lorsque un lymphocyte tueur entre en action.»

Mieux comprendre l'identification des tissus à détruire et le lancement du processus de destruction par les cellules tueuses pourrait mener à de meilleurs soins de santé et au développement de nouveaux traitements médicaux, espèrent les scientifiques. Les lymphocytes tueurs sont importants dans la réponse immunitaire aux virus et aux tissus malades comme les tumeurs. Ils joueraient également un rôle dans les greffes de moelle osseuse en déterminant si l'organisme du receveur rejette ou accepte le tissu donné.

Un autre auteur de l'étude menée par l'Imperial College de Londres, le professeur Daniel Davis commente : «À l'avenir, les médicaments influençant le mécanisme de destruction des cellules tueuses pourraient être introduits dans les traitements médicaux afin de détruire les tumeurs. Ils seraient également utiles pour éviter la destruction indésirable par les cellules tueuses dans le cas d'un rejet de greffe ou de maladies auto-immunes.» Les chercheurs ont immobilisé un lymphocyte tueur et sa cible à l'aide d'une paire de pinces laser «optiques» pour que le microscope capture toutes les actions dans l'interface intercellulaire. Ensuite, ils ont observé l'intérieur de la cellule ainsi que les filaments d'actine servant de minuscule portail et le déplacement de granules d'enzymes vers celui-ci, prêt à passer de la cellule tueuse à la cellule à détruire.

Ce contact se déroule dans un espace d'une largeur de seulement un centième de millimètre ; de plus, les minuscules protéines d'actine et les granules changent continuellement de position pendant les quelques minutes du contact initial jusqu'à la destruction de la cible. Dans de telles conditions d'évolution rapide, le microscope doit pouvoir capturer des images assez rapidement et avec une précision visuelle élevée pour observer ces activités.

C'est pour cette raison que l'équipe a utilisé ces pinces laser pour obtenir une meilleure vision de l'action. Ils ont ainsi obtenu des images sans précédent de cellules tueuses vivantes en capturant des images à super résolution de la structure interne de la cellule au double de la résolution normale d'un microscope lumineux traditionnel. Cette méthode maximise la quantité de lumière capturée du spécimen étudié, tout en minimisant la quantité de lumière parasite dans l'appareil.

Le professeur Paul French de l'institution britannique était l'un des chercheurs ayant oeuvré au développement du microscope. «En utilisant des pinces laser pour manipuler l'interface entre les cellules vivantes dans une orientation horizontale, notre microscope peut capturer des images de l'interface de contact de la cellule en succession rapide. Ce qui nous a offert un moyen innovant d'observer directement de manière dynamique les processus moléculaires entre les cellules vivantes», explique-t-il.

Cordis

Dormez, mais pas trop !
Vendredi, 14/10/2011 - 06:20

Il n’a échappé à personne que la quantité et la qualité du sommeil allaient plutôt en se dégradant dans notre société stressante, rapide et qui sacrifie au culte du 24 heures sur 24, 7 jours sur 7. Il a été précédemment démontré qu’un sommeil trop long ou trop court majorait la mortalité globale, les risques de diabète de type II, d’hypertension, de pathologies respiratoires ainsi que d’obésité. La relation entre durée du sommeil et événement vasculaire semble par ailleurs suivre une courbe en U. Une méta-analyse a été mise en place pour préciser la relation entre durée du sommeil et morbi-mortalité cardiovasculaire : cardiopathies ischémiques, accidents vasculaires cérébraux (AVC) et cardiopathies en général.

Il a été possible de réunir 15 études prospectives avec un suivi supérieur à trois ans, qui avait relevé d’une part la durée du sommeil au départ et d'autre part les taux de survenue des différentes pathologies cardiovasculaires prédéfinies. Ces études ont inclus 474 684 hommes et femmes. Au cours du suivi moyen de 6,9 à 25 ans, 16 067 événements sont survenus : 4 169 cardiopathies ischémiques, 3 478 AVC et 8 420 cardiopathies en général.Une durée de sommeil courte (dans la plupart des études ≤ 5-6 h par nuit) était associée avec un risque supérieur de présenter une cardiopathie ischémique (risque relatif RR : 1,48, p<0,0001), d’AVC (RR : 1,15, p=0,047), mais pas de cardiopathies en général (RR 1,03, p=0,52).

Une durée de sommeil longue (dans la plupart des études > 8-9 h) était également associée avec un risque supérieur de cardiopathie ischémique (RR : 1,38, p= 0,0005), d’AVC (RR :1,65, p<0,00011) et de cardiopathie en général (RR : 1,41, p<0,0001). Il n’a pas semblé y avoir de biais de publication. Comme souvent en toute chose, il faut savoir garder mesure. Cette étude ne déroge pas à la règle : la durée de sommeil idéale est une durée comprise entre six et huit heures, le cœur ne supportant ni trop de sommeil ni pas assez.

JIM

^ Haut
Homme
Anthropologie et Sciences de l'Homme
On savait déjà peindre il y a plus de 100.000 ans
Mardi, 18/10/2011 - 01:10

Dans une étroite cave d’Afrique du Sud, des archéologues ont découvert un «atelier» de peinture primitif vieux d’environ 100.000 ans et contenant de nombreux outils servant à mélanger les pigments, notamment des récipients en forme de coquille, les plus anciens jamais trouvés rapporte le Los Angeles Times.

Cette découverte, décrite dans la revue scientifique Science, suggère selon le Los Angeles Times que les humains ont été capables de penser avec des symboles et des images bien plus tôt qu’on le pensait. L’acquisition de la «pensée symbolique» aurait été une étape clés dans le développement de l’intelligence humaine et du langage.

Les objets ont été retrouvés dans la cave de Blombos, un site archéologique déjà bien connu, sur les côtes d’Afrique du Sud qui bordent l’océan Indien, à 290 kilomètres de Cape Town. Les deux récipients en terre présentent des résidus de couleur rouge, venant de fragments d’ocre, une pierre friable riche en fer qui permet de créer des nuances de rouge ou de jaune, et que les archéologues ont retrouvée en grande quantité sur les fresques de la grotte de Lascaux.

En mesurant les effets d’isotopes radioactifs sur les sédiments de quartz de la grotte, les chercheurs sont parvenus à montrer que ces instruments ont environ 100.000 ans. Cette découverte suggère ainsi que nos ancêtres savaient déjà peindre 80.000 avant que les peintures de Lascaux ne soient réalisées, même s’il reste désormais peu de peintures de cette époque aussi lointaine, explique le co-auteur de l’étude Francesco d’Errico, archéologue à l’université de Bordeaux.

Pour l’archéologue Christopher Henshilwood de l’université de Witwatersrand à Johannesburg interviewé par la BBC, ces outils ont pu servir à peindre de nombreuses choses : «Il est possible qu’ils aient servi pour peindre les corps, et la peau humaine.  Ils peuvent avoir été utilisés pour faire des croquis sur du cuir ou sur d’autres objets. Ils peuvent aussi avoir été utilisés pour peindre sur les murs, bien que les parois des grottes en Afrique du sud ne sont pas idéales pour la préservation de peintures sur roche.»

  • L'Afrique, bien avant l'Europe

Depuis quelques années, les scientifiques se demandent si ces mélanges de pigments ne servaient pas plutôt de résine afin de fixer des pierres aiguisées à des bouts de bois pour la chasse. Dans ce cas, le Los Angeles Times explique que ces récipients seraient plus un signe de progrès technique, que d’évolution cognitive et culturelle. Mais pour Francesco d’Errico l’analyse des résidus des deux bols est claire et montre bien que les mélanges d’ocre ont été utilisés pour peindre : «L’absence de résine ou de cire suggère que l’ocre n’a pas été utilisée comme de la colle.»

Quoi qu’il en soit, le professeur Chris Stringer du Musée d’histoire naturelle de Londres explique que cette découverte aura un impact considérable : «Il y a 20 ou 30 ans, on pensait que l’Europe était vraiment l’endroit où toutes les grandes avancées avaient eu lieu –des caves ornées de peintures magnifiques vieilles de 30.000 à 35.000 ans, et des gens qui décoraient leur corps. On sait maintenant que ce comportement existait bien avant en Afrique : ça date de 100.000 ans, et peut-être même plus.»

Slate

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le plus gros camion de livraison électrique mondial testé à Lyon
Lundi, 17/10/2011 - 01:30

C’est une première mondiale : le plus gros camion de distribution 100 % électrique va être expérimenté durant un an dans l’agglomération lyonnaise pour livrer en produits frais des magasins du groupe Carrefour.

Présenté officiellement le 13 octobre devant l’hôtel de ville de Lyon, en présence de Gérard Collomb, qui a salué ce « saut technologique », le Renault Midlum électrique de 16 tonnes est le fruit du partenariat d’acteurs très différents. Labellisé par le pôle de compétitivité Lyon urban trucks & bus, ce projet, soutenu par l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie) à hauteur de 3 millions d’euros, a un coût de 9 millions d’euros.

La conception et la fabrication du camion ont été pilotées par Renault Trucks, en collaboration avec IFP énergies nouvelles et PVI, entreprise spécialisée dans la traction électrique des véhicules industriels. Son assemblage a été achevé dans l’atelier prototype de Renault Trucks à Saint-Priest.

Camion frigorifique, ce Midlum électrique sera exploité par un grand spécialiste de la logistique du froid, STEF-CFE, pour le compte de Carrefour. Il livrera, le matin, six magasins Carrefour City, 8 à huit et Marché +, et l’après-midi, le Carrefour market de Saint-Fons et l’hypermarché Planet de Vénissieux. Soit un trajet de 75 km lui laissant une marche d’autonomie de sécurité de l’ordre de 25 km.

Stephano Chmielewski, président de Renault Trucks, a précisé que dans un an, deux autres exemplaires de ce camion électrique doivent être également expérimentés en d’autres lieux. S’il souligne tout l’intérêt de cet investissement technologique, il ne cache pas que pour arriver à une phase d’industrialisation d’un camion de livraison de 16 tonnes électrique, « il faudra un fort engagement des pouvoirs publics ». Il ajoute aussi qu’en bout de chaîne, « le consommateur paiera pour avoir une ville moins polluée, tout en conservant des magasins approvisionnés ». Un camion hybride, et non 100 % électrique comme celui-ci, coûte déjà deux fois plus cher que sa version thermique.

Les camions thermiques, dont la consommation et les émissions de gaz à effet de serre se sont effondrées en l’espace de dix ans, constitueront probablement toujours l’essentiel des flottes du transport routier dans les toutes prochaines décennies. Pour Francis Lemor, président de STEF-TFE, les gros camions de livraison électriques seront réservés au centre-ville des grandes agglomérations.

Le Progrès

Air france inaugure le vol écolo
Lundi, 17/10/2011 - 01:20

La compagnie veut faire baisser de 50 % les émissions de gaz à effet de serre sur un vol Toulouse-Paris. D'après la compagnie, c'est une première mondiale. Air France vient d'inaugurer son premier vol "écolo", un Toulouse-Paris.

Premier objectif de la compagnie : réduire la consommation de carburant. Sur ce vol AF 6129, on a donc mélangé de l'huile de friture recyclée au kérosène classique. Ce n'est pas une nouveauté en soit, de nombreux vols biocarburants ont déjà été réalisés. Ce qui est plus nouveau, c'est l'avion : un appareil allégé des sièges aux armoires, sans oublier la moquette... Un gain de poids qui permet d'économiser 80 tonnes de CO2 par an.

Enfin, Air France mise sur l'optimisation du trafic aérien avec des routes aériennes plus courtes et sur l'éco-pilotage pour consommer moins de CO2. Au final, ce vol Toulouse-Paris aura consommé 44g de CO2 par passager et par kilomètre contre 119g pour un vol traditionnel.

Un vol écolo unique, dans tous les sens du terme : c'était un essai pour la compagnie. Il faudra attendre plusieurs années avant que de tels vols soient généralisés.

France 3

PSA Peugeot Citroën présente son concept de Véhicule électrique Léger de Ville
Vendredi, 14/10/2011 - 06:00

PSA Peugeot Citroën présente, au Forum de l’ADEME, un projet innovant de véhicule pour faire évoluer les modes de déplacement en milieu urbain : Le Véhicule électrique Léger de Ville. Le VéLV a été développé par le Groupe avec un consortium d’entreprises françaises et un laboratoire de recherche qui se sont associés pour répondre aux enjeux de la mobilité de demain. Il s’agit d’un tricycle électrique sûr et économe pour 3 personnes, doté d’une puissance de 20 kW pour une masse de 650 kg (100 km d’autonomie et 110 km/h de vitesse de pointe). Particulièrement maniable avec seulement 7,20m de diamètre de braquage, il offre la possibilité d'indiquer en temps réel le périmètre d'action en fonction de l'autonomie et d'identifier les bornes de recharge accessibles avec l'énergie encore disponible.

L’objectif de ce projet est de limiter significativement la quantité d’énergie embarquée en proposant un objet ludique doté d’un très bon agrément de conduite grâce au moteur électrique et son couple maximum immédiatement disponible associé à une très faible masse. La consommation très faible de 85 Wh/km limite l’empreinte environnementale à un niveau équivalant à un déplacement d’un voyageur en train. VéLV répond par ailleurs aux exigences de la réglementation des véhicules particuliers en matière de sécurité passive.

Ce concept est destiné aux flottes d’entreprise, à la location de véhicules (classique ou type Autolib’), à des acheteurs d’une seconde voiture et à de nombreux clients particuliers qui souhaitent améliorer leur mobilité en ville. Le VéLV répond aux nouveaux enjeux du transport de demain en contribuant au développement de chaînes de traction électrique légères, soutenant ainsi toute la filière de la voiture électrique française avec l’appui de l’ADEME.

PSA

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top