|
|
|
|
|
NUMERO 628 |
|
|
|
|
|
|
|
Edition du 16 Décembre 2011
|
|
|
|
|
Edito
La mer : avenir de l'humanité !
Alors que le sommet de Durban sur le climat s'est terminé il y a quelques jours par des résultats en demi-teinte, même si l’échec annoncé a heureusement été évité, l'humanité va être confrontée au cours des prochaines décennies à trois grands défis, le défi alimentaire, le défi énergétique et le défi des maladies liées au vieillissement.
Les mers et les océans, qui constituent les trois quarts de la surface de notre planète recèlent d'immenses potentialités qui peuvent nous permettre de relever ces défis majeurs pour notre espèce.
En matière alimentaire, l'aquaculture, qui représentait moins d'un million de tonnes au début des années 50, a produit 70 millions de tonnes de poissons et plantes aquatiques en 2010, dont 30 millions de tonnes de poissons, ce qui représente, en moyenne, plus de quatre kilos de poissons par terrien ! Depuis 1970, la croissance moyenne de la production aquacole mondiale a été de 9 % par an, bien supérieure à celle de l'agriculture et de l'élevage.
L'aquaculture a une empreinte énergétique et écologique intrinsèquement bien inférieure à celles de l'agriculture et de l'élevage terrestre, même durable. Contrairement aux mammifères à sang chaud, les poissons utilisent en moyenne deux fois moins d'énergie pour entretenir leur métabolisme et nourrir leur croissance. On peut donc obtenir, grâce à l'aquaculture, deux fois plus de protéines d'excellente qualité avec la même mise énergétique de départ. En outre, l'élevage de poisson ne produit pas d'émissions de méthane et permet la capture du carbone.
L'aquaculture, déjà très performante, pourrait connaître une véritable révolution grâce à la généralisation de l'utilisation de larves d'insectes pour nourrir les poissons d'élevage. Ces larves étant elles-mêmes nourries par des déchets agricoles : des expérimentations actuellement menées en Asie montrent que 60 tonnes d'insectes nourris à l'aide de déchets de palmiers à huile permettent d'obtenir en bout de chaîne plus de 25 tonnes de poissons !
Un rapport publié en janvier 2011 et intitulé "Perspectives de développement d'une aquaculture durable pour 2050" montre que l'aquaculture est appelée à contribuer de manière décisive à l'approvisionnement alimentaire mondial à l'horizon 2050 (Voir rapport). Elle pourrait en effet permettre de produire de façon durable et respectueuse de l'environnement plus de 55 millions de tonnes d'ici 40 ans, soit plus de six kilos par an et par terrien (en tenant compte de l'augmentation de la population mondiale), en moyenne, contre quatre aujourd'hui.
Autre ressource alimentaire potentiellement exploitable à l'échelle planétaire et riche de promesses : les algues et notamment la famille des cyanobactéries ou « algues bleues ». Parmi ces algues, la spiruline, véritable concentré de protéines, minéraux et vitamines est à présent produite de manière industrielle dans plusieurs régions du monde. Ses propriétés nutritionnelles sont telles que 3 grammes de spiruline pendant un mois suffisent à guérir un enfant atteint de malnutrition sévère ! Cette algue extraordinaire est en outre bien plus productive que n'importe quelle production agricole terrestre : pour produire la même quantité de protéines, la Spiruline a besoin d'une surface trente fois moins grande que le soja ! Dernier atout, la consommation régulière de cette algue est très bénéfique pour la santé.
Mais dans le futur, la mer ne sera pas seulement capable de nourrir l'humanité, elle lui fournira également l'immense quantité d'énergie non carbonée dont elle aura besoin pour faire face à son développement tout en diminuant de manière drastique ses émissions de gaz à effet de serre.
Grâce aux biotechnologies, il est à présent envisageable de cultiver à l'échelle industrielle le phytoplancton présent en grande quantité dans les océans. Ces minuscules organismes qui comptent plusieurs dizaines de milliers d'espèces différentes, utilisent pour leur développement un mécanisme de photosynthèse proche de celui des plantes et jouent un rôle tout à fait essentiel dans le cycle global du carbone.
En France, un vaste projet de recherche associant l'Etat et plusieurs entreprises du privé vise la production industrielle de micro-algues dans les régions littorales humides du sud de la France. Avec les importantes quantités de biomasse ainsi obtenues, il est possible de nourrir poissons et crustacés mais on peut également obtenir d'excellents produits de substitution aux carburants actuels en transformant la biomasse en éthanol. Ces biocarburants marins devraient commencer à être disponibles en grande quantité dès 2015.
Outre leur rendement sans égal et leur neutralité carbone, ces biocarburants de “troisième génération” présentent un avantage décisif : ils n’entrent pas en compétition avec les cultures alimentaires et ne nécessitent pas la mobilisation de terres cultivables. En outre, la production de ces carburants de la mer peut s'effectuer en milieu ouvert mais également en milieu fermé, dans de grands bioréacteurs verticaux qui limitent considérablement l'emprise au sol de cette production. Pour l'instant, le coût de production du litre de biocarburant à base d'algues est de l'ordre de 6 euros et il doit descendre à moins de quatre euros pour commencer à être rentable mais, si l'on extrapole la hausse inéluctable du prix de pétrole qui pourrait atteindre, selon l'AIE, plus de 100 euros le baril en 2020, ces biocarburants marins pourraient devenir rentables d'ici une dizaine d'années.
Mais les océans sont également une immense machine thermodynamique qui ne cesse de convertir d'énormes quantités de chaleur en énergie et vice-versa. Si l'humanité parvenait à utiliser simplement une petite partie de cette énergie potentielle, elle aurait réglé une grande partie du défi énergétique auquel elle est confrontée.
C'est ainsi que depuis octobre 2011, la France expérimente une hydrolienne au large de l’île de Bréhat (Côtes d’Armor). Cette machine de 16 mètres de diamètre et d'un poids de 850 tonnes a été immergée à 35 mètres de profondeur. Elle utilise le mouvement des courants sous-marins et devrait produire assez d'électricité pour alimenter 600 à 800 foyers.
En Suède, il est prévu la construction d'ici 2015 d’un parc de récupération d’énergie des vagues à Sotenäs. Ce parc sera composé à terme de 420 bouées capables de récupérer l'énergie des vagues, encore appelée énergie houlomotrice et pourra approvisionner plusieurs milliers de foyers en électricité propre. Selon la communauté scientifique, 7 % de la demande annuelle mondiale en électricité pourrait être couverte en 2020 par la seule production houlomotrice, soit un gisement énergétique de l'ordre de 1.400 TWh/an.
Il faut bien entendu évoquer également l'immense potentiel énergétique de l'éolien marin. Les machines de prochaine génération de 10 MW pourront produire chacune, en moyenne, plus de 30 millions de kWh par an (l'équivalent de la consommation électrique de 12 000 foyers hors chauffage). 300 000 de ces "monstres des mers", regroupés en fermes éoliennes marines, suffiraient à produire le tiers de la consommation électrique mondiale prévue en 2050 (26 000 TWh par an).
Quant aux marées, selon l’IFREMER, elles dissiperaient une énergie de l’ordre de 22.000 TWh par an, suffisante en théorie pour couvrir l'ensemble de la production électrique mondiale qui est d'environ 20 000 TWH par an. Mais en réalité, les sites disponibles et utilisables sont rares, une dizaine dans le monde. La France, rappelons-le, est pionnière en la matière avec la célèbre usine marémotrice de La Rance, inaugurée en 1966 par le Général de Gaulle et toujours en exploitation.
Mais le plus grand gisement d'énergie reste sans doute l'énergie thermique des mers, c'est-à-dire la chaleur stockée dans les océans : elle représenterait plus de 80 000 TWh, soit quatre fois la production mondiale d'électricité mais elle nécessite, pour être exploitée de manière rentable et à grande échelle, des avancées technologiques qui représentent au moins 10 ans de recherche. D'ici 2050, en exploitant simultanément ces différentes formes d'énergie des mers, le Monde pourrait sans doute satisfaire au moins un quart des ces besoins globaux en énergie, tout en réduisant massivement ses émissions de gaz à effet de serre et en luttant efficacement contre le réchauffement climatique.
Enfin, la mer constitue, on l'oublie souvent, le plus gigantesque réservoir de biodiversité et de médicaments potentiels dont nous disposons. Les scientifiques connaissent seulement 1 % des 500 000 espèces marines recensées à ce jour et il ne se passe pas un mois sans qu'apparaisse une nouvelle molécule ou une nouvelle classe de médicaments issus de la mer. La première molécule issue de la mer a été un champignon, la céphalosporine et a permis la mise au point d'un nouvel antibiotique très puissant. Depuis, de nombreuses molécules aux propriétés remarquables sont sorties des océans : il faut citer la cytarabine, molécule tirée d'une éponge de mer et utilisée contre certaines leucémies, ou encore l’AZT, une molécule issue du sperme de hareng et utilisée dans le traitement du sida.
De multiples médicaments contre le cancer, en cours d'expérimentation, viennent également des océans. C'est le cas de la squalamine, issue du requin, qui empêche la vascularisation des tumeurs. Autre exemple, la bryostatine, une substance produite par des bactéries vivant sur les larves de Bryozoaires, de minuscules animaux marins (un millimètre de long en moyenne) qui vivent en colonies dans l'ensemble des mers du Globe. La bryostatine-1 s'est avérée active contre les mélanomes et les cancers du rein et du pancréas.
Enfin, grâce au venin des cônes des mers tropicales, les scientifiques ont découvert une nouvelle famille d’antalgiques bien plus puissante que la morphine. Ce nouveau médicament est à présent indiqué pour traiter les douleurs chroniques, résistantes aux traitements conventionnels.
Il est paradoxal de constater que nous connaissons mieux, par bien des aspects, la Lune ou Mars, que le fond des océans qui regorgent pourtant de trésors biologiques aux immenses potentialités. Si nous voulons relever ces trois immenses défis, le défi alimentaire, le défi énergétique et le défi médical, nous devons passer à la vitesse supérieure dans l'exploration et l'exploitation des richesses et ressources marines. Dans cette perspective, il est urgent que l'Europe et la communauté internationale initient de grands projets à long terme visant à mieux connaître et à inventorier les richesses de nos océans, afin de les exploiter de manière durable pour le plus grand bénéfice de notre espèce.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Chose promise, chose due. Le gouvernement avait annoncé en février dernier sa volonté d'entrer dans l'ère de l'open data en créant la mission Etalab. L'open data ? Ce sont des données publiques accessibles gratuitement en ligne. Le site data.gouv.fr a ouvert ses portes le 5 décembre 2011. Les informations qu'il contient étaient jusque-là inédites, ou accessibles sur des sites de villes ou de collectivités, comme celui de la communauté urbaine de Bordeaux.
« Les données publiques représentent toutes les informations rassemblées, créées, conservées ou éditées par les administrations et les services publics. Il s’agit aussi bien de renseignements géographiques, environnementaux, épidémiologiques, statistiques, de catalogues, d'annuaires ou de données liées au fonctionnement interne des institutions (budgets, dépenses, marchés publics…). Jusqu'alors rarement accessibles, elles sont aujourd'hui ouvertes et mises à disposition », indique data.gouv.fr.
Les données peuvent être récupérées dans différents formats (XLS, DOC, CSV et PDF essentiellement). Leur communication est censée « renforcer la transparence des actions de l'Etat comme des collectivités locales ». Elles sont à disposition des « universitaires, chercheurs, entrepreneurs de l’économie numérique, développeurs Web, journalistes, pour donner naissance à de nouveaux services et à de nouvelles applications, à destination notamment du Web et des téléphones mobiles ». Leur réutilisation se fait sous une licence ouverte dévoilée il y a quelques semaines.
Data.gouv.fr annonce que 352 000 jeux de données publiques sont déjà en ligne, émanant de 90 institutions (Matignon, ministères, villes, conseils généraux, etc.). On y trouve notamment : les effectifs de la fonction publique, des données sur la sécurité et la criminalité, le catalogue de la BNF, le budget de l'Etat 2011…
La vogue de l'open data gagne donc du terrain en France. A l'étranger, le gouvernement américain avait inauguré sa propre plate-forme en mai 2009, data.gov. Des villes comme Vancouver, au Canada, Londres ou San Francisco ont aussi déjà ouvert leur site. Dans l'Hexagone, Rennes a été une pionnière, imitée depuis janvier par Paris. Récemment, le concours CheckMyMetro a abouti à la création de cartes originales du métro parisien.
01net
data gouv
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Délivrer le médicament au coeur même des cellules malades, parvenir à cibler les seules cellules cancéreuses ou infectées par un virus ou une bactérie, diagnostiquer des pathologies plus précocement et les traiter simultanément (ce qu'on appelle la « théranostique »), régénérer un organe, une cornée, une dent... Telles sont les promesses de la nanomédecine, cette nouvelle branche de la médecine qui recourt aux nanotechnologies. Avec deux grands champs d'application : le diagnostic et la thérapeutique, objets d'une journée scientifique à la faculté de médecine Pierre et Marie Curie (Paris).
La nanomédecine fait appel soit à la miniaturisation (pour le diagnostic in vitro avec des puces à ADN, puces à cellules, laboratoire sur puce...) soit à la fabrication de nanoparticules, d'une dimension de 1 à 100 nanomètres (milliardième de mètre). Ces dernières sont utilisées en diagnostic in vivo avec des techniques classiques d'imagerie (optique, IRM, échographie...) car elles s'insinuent au coeur des cellules, des vaisseaux et des organes. Mais elles peuvent aussi être utilisées à des fins thérapeutiques pour encapsuler, par exemple dans des biopolymères dégradables, des médicaments et soigner de façon sélective à l'échelle de la cellule. Les principaux domaines thérapeutiques sont la cancérologie, les maladies infectieuses, neurodégénératives et cardiovasculaires.
Aujourd'hui, la plupart des produits à base de nanoparticules concernent la cancérologie. Une trentaine ont été mis sur le marché depuis 1995 aux Etats-Unis et en Europe : produits pour l'imagerie par résonance magnétique (IRM) à base de nanoparticules de fer (Endorem, Feridex, Resovist) ou nanomédicaments comme Oncospar, Abraxane ou Caelyx. « Dans la pratique, ces chimiothérapies nanocapsulées n'ont rien de révolutionnaire pour l'instant : les molécules actives sont les mêmes qu'il y a trente ans », regrette Laurent Zelek, oncologue au CHU Avicenne à Bobigny. Des propos que nuance Patrick Couvreur, du laboratoire mixte CNRS-faculté de pharmacie de Châtenay-Malabry, en banlieue parisienne : « Mettre d'anciens médicaments sous forme de nanoparticules ou de liposomes modifie considérablement la biodistribution et la pharmacocinétique. »
Prenons le cas de l'Abraxane, utilisé contre le cancer du sein métastatique : l'agent anticancéreux (paclitaxel) pénètre la tumeur car la nanoparticule d'albumine dans laquelle il est encapsulé transporte des nutriments dont les cellules tumorales sont friandes. « Son efficacité est légèrement supérieure à celle du paclitaxel seul, sa toxicité est moindre et son administration simplifiée », précise Laurent Zelek. Même si on est encore loin des promesses attendues, améliorer l'efficacité, diminuer la toxicité, tirer profit de principes actifs inutilisables jusqu'alors sont autant de pistes susceptibles d'apporter des progrès majeurs.
Pour cela, Laurent Lévy, président de Nanobiotix qui développe des nanoparticules pour le traitement du cancer, conceptualise une nouvelle vision des cibles thérapeutiques qui pourrait apporter des solutions inédites : « Il faut cibler le développement de nanoparticules en termes de propriétés physiques au lieu de cibler les seules anomalies moléculaires liées par exemple au cancer. On peut tirer parti de l'effet de la température ou d'un champ magnétique sur une tumeur ». C'est le cas du produit NanoXray, développé par Nanobiotix et depuis peu en essai chez l'homme à l'Institut Gustave-Roussy pour traiter le sarcome des tissus mous. Des nanoparticules d'hafnium sont injectées dans la tumeur. Par radiothérapie on déclenche localement l'émission d'une grande quantité d'électrons, donc de radicaux libres qui détruisent la tumeur. Jusqu'ici, beaucoup d'essais cliniques exploitent les propriétés physiques des nanoparticules, mais les possibilités qu'elles offrent sont encore mal connues.
En tout cas, si l'on en croit le nombre de publications scientifiques (près de 700 en 2011 sur les nanomédicaments) et d'essais cliniques (350 dans le monde), les chercheurs planchent. Même si c'est parfois vers des voies de garage... Selon Laurent Levy, en effet, les laboratoires académiques sont trop déconnectés de la réalité industrielle et clinique. Les résultats d'un grand nombre de projets européens pourraient être cliniquement inutilisables. « Ils font avancer la science, mais sans se poser la question de l'utilisation de leurs résultats dans le système de santé, résume-t-il. Il est fondamental d'insérer recherche et innovation dans une expertise médicale, en tenant compte des pratiques existantes et des besoins réels. »
Enfin, le succès de la nanomédecine dépendra de son coût d'utilisation et de sa prise en charge. Une utilisation qui, parfois, suppose de nouveaux équipements, à l'instar de la solution de MagForce, qui a reçu une autorisation européenne de mise sur le marché pour combattre le glioblastome (une forme de cancer du cerveau) au moyen de nanoparticules magnétiques. Excitées par un champ magnétique, elles chauffent et détruisent les cellules cancéreuses. Au prix d'un équipement spécifique coûteux de champ magnétique à haute fréquence.
Les Echos
|
|
|
|
|
|
|
|
Le manipulateur parallèle de Sébastien Briot est plus efficace que les robots industriels composés d’un bras unique.
Avec ses trois grands bras articulés suspendus à une grande plaque métallique et reliés à leur extrémité à une petite plate-forme centrale, il ressemble un peu à une araignée recroquevillée. Le robot mis au point par Sébastien Briot lors de sa thèse peut soulever jusqu’à 20kg - plus que son propre poids ! Mais surtout, il a permis au jeune roboticien de multiplier les expériences, pour étudier de plus près le comportement d’une espèce nouvelle : les manipulateurs parallèles.
- Plus légers, plus rapides
« Contrairement aux robots composés d’un bras unique que l’on voit souvent dans les usines, dont l’une des extrémités est “libre”, les bras des manipulateurs parallèles, des robots nés dans les années 60, sont liés à leurs deux extrémités. Ils forment des chaînes fermées : on peut partir de la base, passer par un bras puis par un autre pour revenir à la base sans revenir en arrière. Cela les rend plus rigides. » Imaginez-vous en train de soulever un poids de 20kg. Avec une main, cela fait reposer beaucoup d’efforts sur votre poignet et votre coude. Si vous formez une boucle en joignant vos deux mains en une petite plate-forme, l’effort sera mieux réparti. « Ces robots parallèles sont aussi plus légers, donc plus rapides. En laboratoire, certains prototypes atteignent les 100G, plus de dix fois l’accélération d’un avion de chasse ! »
Bien sûr, cette médaille d’efficacité a son revers. Les deux mains attachées ensemble, vos mouvements seront beaucoup plus limités. Les manipulateurs parallèles n’échappent pas à cette contrainte. « Leur espace de travail est plus restreint, et leurs lois de commande sont plus complexes. Pour effectuer une simple translation vers le haut ou vers la droite, il ne suffit pas de bouger l’un des bras dans la direction souhaitée, car ils sont tous liés ! Pendant ma thèse, j’ai cherché à pallier cet inconvénient en séparant certains mouvements d’une façon nouvelle. Mon robot pouvait effectuer des translations simples de haut en bas grâce à un moteur puissant capable de monter et descendre la plate-forme qui supporte la charge le long d’un axe vertical. Et pour les déplacements horizontaux, il fallait combiner les mouvements des bras, qui ne pouvaient que tourner sur eux-mêmes. » Cette configuration est même économique, car les bras supportent moins de poids et peuvent être équipés de petits moteurs. Or, pour les robots comme pour les voitures, plus un moteur est puissant, plus il est cher !
« J’ai aussi analysé un autre problème, qui apparaît sur tous les manipulateurs parallèles. C’est l’existence de mouvements non désirés dans certaines zones de l’espace de travail. On les appelle des singularités. Par exemple, dans certaines positions, alors qu’on voudrait immobiliser le robot, la plate-forme peut toujours bouger. J’ai cherché à identifier les positions qui posent ce type de problèmes, les zones à éviter, ou à traverser sous certaines conditions de vitesse et d’accélération. »
Aujourd’hui, le robot de Sébastien Briot, dont la réalisation a demandé près de deux ans et dont l’architecture a été brevetée, est reparti en pièces détachées, utilisées pour d’autres travaux. « Il est impossible de conserver tous les prototypes, les pièces coûtent trop cher, les matériaux sont recyclés dans d’autres projets ! » Mais les publications dans les revues scientifiques restent. La thèse a même reçu en 2007 le prix de la meilleure thèse, décerné par le groupement de recherche CNRS en robotique. Et à Nantes, le roboticien continue à apprivoiser les robots parallèles, qui fabriqueront peut-être nos voitures demain.
Sciences Ouest
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La molybdénite, un nouveau matériau, pourra-t-il prendre le relais du silicium dans la construction de puces électronique pour poursuivre la miniaturisation et donc perpétuer la loi de Moore ? Une chose est sûre : ce minéral s’avère prometteur pour dépasser les limites physiques qui se font sentir actuellement avec le silicium. Et des chercheurs de l’Ecole Polytechnique Fédérale de Lausanne (EPFL), en Suisse, le prouvent en réalisant un premier circuit intégré avec ce matériau.
Après avoir mis en lumière les vertus électroniques de la molybdénite, le Laboratoire d'électronique et structures à l'échelle nanométrique (LANES) de l’école hélvétique a en effet réussi à créer une puce électronique avec des transistors composés de ce minéral. « Nous avons créé un premier prototype mettant deux à six transistors en série et démontré que des opérations de logique binaire basiques étaient possibles, ce qui prouve que nous pourrons réaliser des circuits plus importants », explique Andras Kis, responsable du LANES, qui a récemment publié deux articles sur le sujet dans le journal ACS Nano.
Au début de l’année, ce laboratoire avait dévoilé le haut potentiel du sulfure de molybdène (MoS2), un minéral que l’on trouve en grande quantité à l’état naturel. Sa structure et ses propriétés de semi-conducteur en font un matériau idéal pour la réalisation de transistors. Il concurrence ainsi directement le silicium, composant le plus utilisé actuellement dans le domaine de l’électronique, et aussi en plusieurs points le graphène, un autre candidat à la succession au silicium.
Selon le chercheur, avec le MoS2, il est possible d’aller plus dans la miniaturisation en descendant à des couches de trois atomes seulement, alors qu’avec le silicium, il semble difficile d’envisager des couches de moins de 2 nanomètres. On peut ainsi réaliser des puces au moins trois fois plus petites, avec des propriétés électroniques stables. Autre avantage : les transistors dans ce nouveau matériau sont bien moins gourmands en énergie que leurs équivalents en silicium. Sur le plan de l’amplification des signaux électroniques, ce minéral rejoint le silicium et se montre donc quatre fois plus performant que le graphène. Enfin, la molybdénite affiche des propriétés mécaniques adaptées à la réalisation de circuits intégrés souples pour, par exemple, des ordinateurs enroulables ou des appareils appliqués sur la peau.
Industrie & Technologies
|
|
|
|
|
|
|
|
Il suffit d'expérimenter la chose durant quelque temps ou de compter le nombre de fois où vous avez oublié de mettre votre téléphone en charge pour admettre que brancher sa voiture le soir n'est pas un geste naturel, ni même pratique. La recharge par induction ne nécessite pas de câble, Mercedes va lancer une expérimentation grandeur nature avant de commercialiser ce système.
Mercedes n'est pas le seul à s'intéresser à cette technologie prometteuse qui devrait permettre aux étourdis (ou à ceux qui ont tellement d'autres choses à faire ou penser que brancher sa voiture en rentrant à la maison) de bénéficier d'une voiture chargée à 100 % chaque matin. La recharge par induction permet en effet de se passer de câble, l'élément qui rend la voiture électrique peu pratique. Un câble se vole, se perd, bref, s'en passer sera un plus.
Mercedes qui a étudié un système de recharge à induction pour sa Classe B E-Cell en collaboration avec Conductix-Wampfler, Röchling Automotive KG et le ministère de l'environnement allemand, vient d'annoncer la mise en place dès mars 2012 d'une expérimentation d'envergure en conditions d'utilisation réelles et quotidiennes réalisée à Berlin et baptisée « Effizienzhaus-Plus mit Elektromobilität ». Ce projet qui expérimentera grandeur nature la vie avec 3 véhicules électriques (Smart E, Classe B E-Cell et vélo) au sein d'une famille habitant une maison équipée des dernières technologies en lien avec les capacités ou les demandes spécifiques des véhicules électriques, comportera un volet 'recharge à induction'.
Leurs premières constatations montrent qu'à condition d'être parfaitement placé au-dessus de la borne de recharge (quelques centimètres suffisent à réduire le potentiel), la perte d'efficacité de l'induction par rapport au câble n'est que de 10 %. Ce résultat est encourageant (le positionnement au-dessus de la borne pourrait être automatisé) surtout en regard des avantages procurés par ce système de recharge sans câble. Mercedes a identifié plusieurs voies de travail pour améliorer l'intégration du système au châssis et dit espérer que les constructeurs (Mitsubishi, Nissan, Toyota ...etc) travaillant sur ce système se mettent d'accord pour trouver une norme standard utilisée par tous.
Caradisiac
|
|
|
|
|
|
|
|
Le régime végétarien aidera-t-il un jour à alimenter nos voitures? Lorsqu’il s’agit de transformer des fibres végétales, les enzymes digestives d'un végétarien s’avèrent beaucoup plus efficaces que celles de leurs homologues omnivores. C'est ce qu'a constaté l’équipe de Gabrielle Véronèse, du Laboratoire d’ingénierie des systèmes biologiques et des procédés (LISBP), à l’INSA de Toulouse.
C’est la famille des Cazymes, qui transforme les carbohydrates, qui est à l'origine de ces performances : elle regroupe des hémicellulases, des amylases, des pectinases… toutes sont actives pour dégrader les sucres végétaux. L'équipe du LISBP a dressé le profil génétique de la flore intestinale d’un individu végétarien. Dans les zones codant pour la synthèse des Cazymes, des centaines de gènes ont été isolés, et ceux associés au meilleur rendement mis en évidence.
Ces informations ont ensuite été implémantées dans une bactérie de l'espèce Escherichia coli. Laquelle a servi de réacteur pour produire les enzymes d’intérêt. L’objectif des chercheurs est maintenant de trouver le cocktail enzymatique idéal pour convertir n’importe quel type de biomasse en monomères valorisables par l’industrie : détergents, produits cosmétiques, médicaments, additifs alimentaires. Les carburants, produits par fermentation, sont un autre débouché possible.
Ces travaux vont être développés dans le cadre du consortium Toulouse White Biotechnology, qui regroupe 18 partenaires industriels, ainsi que les pôles de compétitivité Industrie agroressources et Agrimip innovation.
Industrie & Technologies
|
|
|
|
|
|
|
|
Une équipe du CEA Liten spécialisée dans les véhicules électriques a parcouru 1.280 km en 24 heures, en alternant des roulages et des charges rapides avec une Citroën AX électrique équipée de batteries Lithium Ion à base de phosphate de fer (LiFePO4). Ce record montre la fiabilité et la robustesse de cette technologie de batteries. Les données enregistrées viendront enrichir les bases de données du CEA Liten qui exploite, au quotidien, une flotte de véhicules électriques.
Du 25 octobre 2011 9h00 au 26 octobre 2011 9h00, les membres d’une équipe spécialisée dans la conception de véhicules électriques du CEA Liten (Laboratoire d'Innovation pour les Technologies des Energies Nouvelles et les nanomatériaux) se sont relayés au volant de l’AX électrique, en alternant 1h25 de roulage autour de Grenoble, soit 105 à 115 km suivant la circulation, suivi d’une charge rapide de 38 minutes. Cette équipe du CEA a ainsi parcouru 1 280 km, un record sur une durée de 24 heures .
Le véhicule utilisé comme « support » par le CEA Liten dispose de 14 kWh d’énergie, fournis par deux packs de batteries réalisés au sein des différentes plates-formes dédiées du CEA Liten. Les accumulateurs à base de LiFePO4 utilisés ayant peu de pertes thermiques, les batteries ne sont pas refroidies. Ainsi, le véhicule avec les batteries ne pèse que 900 kg alors que les voitures standards font généralement 400 à 500 kg de plus. Au cours des 24h, la température maximale atteinte par la batterie a été de 52.5°C pour une température maximale conseillée de 60°C.
Pour cet essai comme pour tous les autres essais réalisés par les chercheurs du CEA, les packs sont instrumentés en capteurs de température. Le véhicule était également équipé d’une télétransmission permettant d’envoyer, sur les ordinateurs du laboratoire, les coordonnées GPS et les données de la centaine de capteurs mesurant les paramètres de fonctionnement du véhicule.
Ce « record » fait suite au record du monde insolite de trois étudiants hollandais ayant réalisé, en avril 2011, 1 254 km en alternant roulage et charges rapides sur autoroute avec un véhicule électrique de série. Ces essais de roulage - recharges rapides montrent que certaines professions libérales (taxis, livreurs en ville, infirmières médicales...), par exemple, pourraient utiliser sans modération un véhicule électrique pour leurs trajets professionnels lorsque les infrastructures urbaines de bornes de recharges rapides seront implantées.
CEA
|
|
|
|
|
|
|
|
Stocker l'hydrogène sous forme solide permet d'en conserver beaucoup plus dans un même volume. Aussi, c'est sûr et peu coûteux en énergie. Nous réalisons actuellement les tests sur le réservoir de 15 kg pour qualifier ses performances", a annoncé Julie Mougin, du CEA-Liten à Grenoble. Ledit réservoir contient de l'hydrogène sous forme solide, combiné de manière réversible avec d'autres éléments chimiques pour former un hydrure. On peut aussi le stocker sous forme gazeuse (de 200 à 700 bars) ou liquide (à - 253 °C), mais l'option « solide », sûre et peu coûteuse en énergie, permet d'en conserver beaucoup plus dans un même volume. Son handicap : le poids, les hydrures étant souvent métalliques. « Inadaptée aux véhicules légers, elle convient à l'usage industriel de l'hydrogène (chimie) et surtout au stockage de l'énergie d'origine solaire ou éolienne, une fois transformée en hydrogène par électrolyse de l'eau », explique la chercheuse.
La société McPhy Energy, avec laquelle le CEA-Liten collabore depuis 2008, a misé sur l'hydrure de magnésium, valorisant ainsi les travaux de l'Institut Louis Néel à Grenoble sur ce type de matériaux. En effet, à sa température d'équilibre (340 °C), le magnésium absorbe l'hydrogène à une pression de 10 bars, tandis que l'hydrure le relargue à une pression de 2 bars. Pour stocker la chaleur émise à l'absorption et fournir celle nécessaire à la libération d'hydrogène, les réservoirs de McPhy Energy comportent un matériau à changement de phase qui se solidifie ou se liquéfie selon que l'on stocke ou déstocke l'hydrogène.
Après avoir participé à la conception et la réalisation de ces réservoirs, le CEA-Liten leur ouvre sa plate-forme de test. « Nous les bardons de capteurs et mesurons leur cinétique d'absorption, leur comportement thermique, leur durabilité. Nous pouvons aussi les coupler à un électrolyseur et une pile à combustible pour des essais en conditions réelles », explique Albin Chaise, du laboratoire.
Après un premier modèle stockant un kilo d'hydrogène, déjà testé au CEA-Liten en 2010, McPhy Energy a conçu un module élémentaire qui en stocke 5 kg, assemblable en réservoirs de toutes tailles. C'est l'un de ces ensembles de trois modules qui est actuellement sur le banc de test du CEA-Liten.
Enerzine
|
|
|
|
|
|
|
|
Le 25 novembre 2011, l'entreprise automobile Mazda annoncait à Hiroshima avoir mis au point un système de freinage permettant de régénérer de l'énergie via un supercondensateur. Cette première mondiale a été nommée "i-ELOOP", acronyme de "Intelligent Energy Loop". Ces systèmes intelligents de régénération d'énergie bénéficient actuellement d'un vif interêt en raison des économies d'énergie qu'ils permettent de réaliser. i-ELOOP permet ainsi d'obtenir une réduction substantielle de consommation de carburant de l'ordre de 10 %.
La nouveauté réside dans la nature du composant qui est au coeur du système : un supercondensateur double couche à faible résistance. Ce dernier permet de convertir efficacement l'énergie cinétique dégagée lors du ralentissement du véhicule en énergie électrique. L'électricité ainsi générée est utilisée pour alimenter le système audio, la climatisation et d'autres composants électroniques. En sus du supercondensateur, i-ELOOP est constitué d'un alternateur à tension variable 12-25V et d'un convertisseur AC/DC.
i-ELOOP fonctionne sur le principe suivant : au moment où le conducteur commence à ralentir, le système récupère l'énergie cinétique ainsi dégagée via l'alternateur. Cette électricité est envoyée au supercondensateur, qui la stocke. Ce dernier, grâce à sa capacité de charge rapide, permet de récupérer l'énergie de manière efficace. La tension est diminuée par la suite à 12V par le convertisseur afin d'alimenter les différents appareils électroniques présents dans la voiture. Le supercondensateur, qui a été développé spécialement pour être utilisé dans un véhicule, a pour particularité de se charger en quelques secondes.
Ce système de régénération d'énergie intelligent fonctionne conjointement au système "i-stop", mis au point lui aussi par Mazda. Ce système d'arrêt intelligent est monté sur les moteurs essence à injection directe. Il éteint le moteur de la voiture lorsque celle-ci est à l'arrêt, à un feu rouge par exemple. Le redémarrage est assuré par combustion, c'est-à-dire que le carburant est directement injecté dans un cylindre en compression. Le démarreur exerce une légère impulsion supplémentaire. Le redémarrage est alors rapide et économe en énergie. Ceci permet d'assurer une réduction de consommation de carburant d'environ 10 %.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Alors que notre capacité de production d'énergie solaire et éolienne augmente, il est vital que nos capacités de distribution efficace connaissent une telle progression. C'est dans cet objectif qu'oeuvre un projet financé par l'UE dans le but de tester les systèmes de distribution d'électricité du futur. Avec un budget de 12,7 millions d'euros au titre du thème Énergie du septième programme-cadre (7e PC), le projet EcoGrid (A Prototype for European Smart Grids) rassemble 16 partenaires d'Autriche, de Belgique, du Danemark, d'Estonie, d'Allemagne, des Pays-Bas, de Norvège, du Portugal, d'Espagne et de Suisse.
La production de 20 % de notre énergie à partir de sources renouvelables et la réduction de 20 % des GES (gaz à effet de serre) étant les principaux objectifs de la stratégie Europe 2020, des projets comme ceux-ci contribuent à réaliser ces objectifs politiques phares.
Le projet EcoGrid gérera un marché pilote en temps réel pour les ressources énergétiques distribuées sur l'île danoise de Bornholm en demandant à 2000 clients de réduire leur consommation énergétique lorsque le vent est trop faible ou trop fort pour que les éoliennes implantées fonctionnement correctement. En retour, ils pourront réduire leurs factures d'électricité à l'aide d'un système intelligent baptisé «Smart Grid». Les participants seront équipés d'appareils de demande/réponse résidentiels qui présenteront en temps réel les informations aux clients et leur permettront de programmer leurs préférences automatiques. À l'heure actuelle, 50 % de l'électricité de l'île provient de l'énergie éolienne.
Le chercheur principal, Ove Grande, de l'institution de coordination SINTEF Energy Research en Norvège, commente : «Lorsqu'un pays développe une forte capacité à produire de l'énergie solaire et éolienne, l'hypothèse naturelle est que les opérateurs systèmes ont besoin de sources de réserve pouvant rapidement être activées si la puissance du vent ne correspond pas aux prévisions météorologiques ou que les nuages couvrent les piles solaires. Et ces sources de réserve devant répondre à une demande énergétique de la même ampleur sont généralement coûteuses.»
Normalement, ces problèmes sont résolus par l'utilisation de turbines de gaz ou l'importation d'énergie en provenance d'autres régions ou pays. Ove Grande espère que les résultats du projet indiqueront qu'une autre approche est possible. «Dans le système que nous étudierons à Bornholm, ce sont les clients eux-mêmes la solution du problème ; en effet, ils sont appelés à réduire leur consommation électrique pour une courte période. Cela est beaucoup plus rentable qu'une énergie de réserve, et également plus écologique. Et en raison de cette rentabilité, les limites de l'énergie solaire et éolienne sur lesquels s'appuie une grille électrique sont dépassées.»
Smart Grid travaille de manière automatique et déconnecte une proportion convenue de la consommation de chaque client lorsque les prix d'électricité sont élevés. Ce même système permet aux clients d'augmenter leur consommation lorsque les prix sont bas.
Les participants au projet verront l'installation de nouveaux compteurs électriques dans leur domicile. Ces derniers sont totalement différents des compteurs classiques car ils indiquent l'électricité utilisée ainsi que la consommation électrique totale. Le projet développera un système informatique qui calcule automatiquement le prix de l'électricité pour les clients sur base de la situation dans le système de génération et de distribution. Ce prix reflète toujours ce qu'il coûte de générer de l'énergie de réserve pendant les mêmes périodes.
Le système communique continuellement ces prix à une petite boîte intelligente qui sera installée chez les clients en plus des compteurs. En cas de besoin, ce petit lecteur éteindra ou allumera les appareils électriques, en fonction de l'évaluation du client au préalable du prix d'électricité acceptable pour différents types de consommation.
Cordis
|
|
|
|
|
|
|
|
Les carburants de 1ère génération sont déjà disponibles à la pompe et mélangés à l'essence ou au gazole : biodiesel fabriqué à partir des huiles de colza, tournesol, soja, et éthanol produit par la fermentation du sucre ou de l'amidon, incorporé à l'essence. La directive européenne dite EnR prévoit de porter à 10 % la part des énergies renouvelables utilisées dans les transports d'ici à 2020, avec des biocarburants répondant à des objectifs de durabilité.
Pour faire face à ces défis, la France privilégie le développement de biocarburants de deuxième génération en complément des biocarburants de 1ère génération. Après une dizaine d'années de travaux de recherche conduits en laboratoire, il est nécessaire aujourd'hui de mettre au point un pilote avant de passer à l'échelle industrielle. C'est tout le sens du projet BioTfuel qui vise à la production de biogazole et de biokérosène par thermochimie. Programmé jusqu’en 2017, il représente un investissement de 112,7 millions d’euros, et regroupe six partenaires, parmi lesquels Sofiprotéol, Total, le CEA et l’IFP Energies Nouvelles. Une présentation a eu lieu le 23 novembre dernier à Paris.
La partie prétraitement de la biomasse (séchage, broyage et torréfaction) avec un pilote de torréfaction d'environ 3 tonnes/heure sera construite en 2013 sur le site de Sofiprotéol à Venette (Oise). Les pilotes aval (gazéification, purification et synthèse) seront installés sur le site de l'établissement des Flandres du groupe Total près de Dunkerque (Nord). Au total, le pilote pourrait traiter 1 million de tonnes de biomasse par an pour une production de 200 000 tonnes de biocarburants.
Par opposition à la voie enzymatique, BioTfueL n'utilise pas de micro-organismes. Si les procédés mis en œuvre ne sont pas neufs et sont pour certains issus de la pétrochimie (torréfaction, gazéification, synthèse Fischer-Tropcsh), c'est bien la première fois qu'on cherche à les adapter à un tel volume de biomasse, puisque 3 tonnes seront traitées à l'heure. En particulier, le gazéifieur de 15 mégawatts, conçu par le sidérurgiste allemand ThyssenKrupp, a une taille qui permet d'envisager l'échelle industrielle (200 000 tonnes de carburant par an).
Deux sites ont été retenus pour BioTfueL : Venette (60), qui accueillera le torréfacteur, et Dunkerque (59), sur le site de l'ancienne raffinerie de Total, où sera acheminée la poudre, pour être gazéifiée en carburants. Ce ne sera pas forcément le schéma industriel retenu à terme. L'objectif est aussi de disposer de procédés suffisamment flexibles pour s'adapter à différents types de biomasse lignocellulosique (déchets agricoles et forestiers, taillis courte rotation...), et donc d'exporter le concept à l'étranger. Le consortium vise 15 à 20 % du marché mondial des biocarburants de seconde génération, bioéthanols exclus. Sachant que ces derniers représenteront en volume, à l'horizon 2030, environ 8 % de la totalité des biocarburants.
IFP
|
|
|
|
|
|
|
|
Une diode est un composant électronique qui laisse passer le courant électrique dans un sens et le bloque dans l’autre. Son équivalent optique vient d'être inventé par des chercheurs du MIT et constitue une avancée décisive vers fabrication de puces entièrement photoniques sur silicium qui seront au cœur des appareils électroniques de demain.
Dans de nombreux systèmes de communication optique actuels, les données transitent sous forme de signal lumineux via des fibres optiques. Une fois le signal optique arrivé à sa destination, il est converti sous forme électronique, traité par des circuits électroniques et ensuite reconverti en signal lumineux à l’aide d’une diode laser. Le nouveau dispositif créé par les chercheurs du MIT pourrait éliminer ces étapes de conversion, permettant au signal lumineux d'être traité tel quel.
A l’instar de la diode électronique, la ''diode optique'' crée un passage à sens unique pour le signal lumineux. « Cela est essentiel, explique Caroline Ross, professeur au MIT et coauteur de la publication scientifique en ligne sur cette découverte dans le journal Nature Photonics. Sans un tel dispositif, des réflexions parasites pourraient déstabiliser les lasers utilisés pour produire les signaux optiques et réduire l'efficacité de la transmission de données. Actuellement, un dispositif discret appelé isolateur est utilisé pour exécuter cette fonction, mais le nouveau système permettrait à cette fonction de faire partie de la même puce qui effectue d'autres tâches de traitement du signal ».
Pour développer le dispositif, les chercheurs ont dû trouver un matériau à la fois transparent et magnétique, deux caractéristiques rarement réunies. Ils ont fini par utiliser une forme d'un matériau appelé grenat, qui est normalement difficile de pousser sur les plaquettes de silicium utilisées pour les puces électronique. Le grenat présente la caractéristique de transmettre de façon différente la lumière dans une direction et dans l'autre, à cause d’une différence d’indice de réfraction. Un film mince de grenat a été déposé pour couvrir la moitié d'une boucle reliée à un canal transmission lumineuse sur la puce. Résultat : dans un sens, la lumière passe librement, tandis que, dans l'autre sens, elle est détournée dans la boucle.
MIT
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Inria et ALMA (Atacama Large Millimeter/submillimeter Array) conçoivent ensemble, avec la participation du CNAM (Conservatoire National des Arts et Métiers), les interfaces homme-machine de contrôle du radio-télescope révolutionnaire en phase de construction dans le désert d’Atacama, au nord du Chili.
Situé sur le plateau de Chajnantor, à 5000 mètres d'altitude, l'observatoire donnera la possibilité aux chercheurs et astronomes d’étudier divers phénomènes sur la formation de l’univers. Une fois achevé, il constituera le plus important observatoire astronomique au monde, avec 66 antennes de haute précision.
Cet ambitieux projet international compte avec la participation de différents pays d'Europe, d'Amérique du Nord et d'Asie, en collaboration avec la République du Chili.
Suite aux résultats fructueux de ces deux premières années de collaboration, Michel Cosnard, P-dg d’Inria, et Thijs de Graauw, Directeur d'ALMA, ont signé le 30 novembre dernier un protocole d’accord qui renforcera les liens entre ces deux institutions. Cette coopération s’inscrit dans le cadre du CIRIC (Communication and Information Research & Innovation Center) qu’Inria s'apprête à ouvrir au Chili début 2012, en collaboration avec 9 universités du pays.
INRIA
|
|
|
|
|
|
|
|
Deux trous noirs ayant une masse équivalente à dix milliards de fois celle du Soleil, ont été découverts au coeur de deux galaxies géantes situées à plusieurs centaines de millions d'années-lumière de la Terre. Jusqu'alors, le record était détenu par le trou noir de 6,3 milliards de masses solaires, situé au centre de la galaxie spirale M 87, l'une des plus grandes au voisinage de la nôtre, la Voie Lactée. M 87 se trouve tout de même à plus de 53 millions d'années-lumière (une année-lumière = 9.460 milliards de km) de la Terre.
L'équipe de Nicholas McConnell et Chung-Pei Ma (Université de Californie, Berkeley) rapporte dans la revue scientifique Nature la découverte d'un trou noir de 9,7 milliards de masses solaires au coeur d'une brillante galaxie, NGC 3842, située à plus de 310 millions d'années-lumière. Un trou noir de "masse comparable ou plus grande" se trouve dans la plus brillante galaxie de l'amas de Coma, NGC 4889, à une distance de quelque 330 millions d'années-lumière, selon l'étude. Ces deux trous noirs sont "nettement plus massifs" que le supposaient les prédictions tenant compte du rapport entre masse du trou noir, vitesse de dispersion des étoiles et luminosité du coeur des galaxies hôtes, relèvent les auteurs.
Ces résultats laissent supposer que les processus intervenant dans la croissance des galaxies les plus grandes et de leur trou noir sont différents de ceux concernant les galaxies de plus petite taille. Les astronomes supposaient déjà que les lointains quasars, lumineux noyaux actifs de galaxies datant de l'enfance de l'univers, abritaient des trous noirs de plus de dix milliards de masses solaires. L'existence de ces monstres du cosmos avait été invoquée pour expliquer l'intense énergie rayonnée par les quasars. Leur extrême luminosité proviendrait du dernier éclat du gaz accéléré à très grande vitesse avant d'être englouti par le trou noir géant.
Il n'y a plus aucun quasar dans notre univers proche, mais les deux monstres découverts "représentent probablement les reliques endormies des trous noirs géants ayant alimenté les quasars les plus brillants aux premiers temps de l'univers", relève Michele Capellari (Université d'Oxford, Grande-Bretagne), dans un commentaire accompagnant l'article paraissant dans Nature. Contrairement à leurs homologues de plus petite taille, ajoute-t-il, ces trous noirs n'auraient pas acquis l'essentiel de leur masse en absorbant le gaz environnant mais via un autre processus : plusieurs fusions successives de galaxies déjà pauvres en gaz et de leur trou noir central.
Science Daily
|
|
|
|
|
|
|
|
La moisson des instruments «chasseurs» de planètes est chaque jour plus impressionnante. Récemment, la Nasa a ainsi dévoilé une liste de 1094 exoplanètes potentielles trouvées par son satellite Kepler. Une grande partie viendront sans nul doute grossir les rangs des 708 planètes extra-solaires déjà recensées depuis le début des années 90. Plus enthousiasmant, les chercheurs américains ont confirmé à cette occasion l'existence d'une petite cousine de la Terre, Kepler 22b, à 600 années-lumière du Soleil.
La nouvelle venue avait été détectée en 2009. Comme la grande majorité des exoplanètes, elle était masquée par l'éclat de son étoile et ne pouvait pas être observée directement. Sa présence a toutefois été trahie par les subtils changements de luminosité qu'elle provoque chez son étoile lorsqu'elle lui tourne autour. La Nasa a observé trois passages de Kepler 22b devant son étoile avant de rendre son existence officielle.
Malheureusement, cette méthode indirecte de détection ne permet pas de glaner beaucoup de renseignements. On ne sait pas, par exemple, si la planète a un cœur rocheux, une atmosphère, ou n'est composée que de gaz. Tout ce que l'on sait de Kepler 22b, c'est qu'elle est 2,4 fois plus grosse que la Terre et presque 10 fois plus massive, tourne en 290 jours autour d'une étoile similaire à notre Soleil et se situe dans une orbite compatible avec la présence d'eau liquide à sa surface.
Ce dernier point est fondamental. Cela veut en effet dire qu'elle est située ni trop loin, ni trop près de son étoile pour que la température à sa surface, grossièrement estimée à 22°C par la Nasa, soit favorable à l'existence ou l'apparition de la vie. Sous certaines autres conditions, notamment leur masse, les astrophysiciens qualifient ces astres de «potentiellement habitables».
Bien que rien ne permette d'assurer pour l'instant que l'eau ruisselle à la surface de Kepler 22b comme le suggère la vue d'artiste présentée par la Nasa, la planète a obtenu in extremis ce statut qui la rend très spéciale. Elle n'est que la troisième exoplanète après Gliese 581d et HD 85512b, respectivement découvertes en 2007 et 2011 par le système européen Harps situé au Chili, à obtenir ce statut très convoité. Et encore, Gliese ne l'a obtenu que très récemment, après que des astrophysiciens français ont démontré qu'elle n'était peut-être pas aussi glaciale qu'on l'avait pensé au début. Si une épaisse couche de dioxyde de carbone la recouvre, une hypothèse très probable selon leur modèle, alors il y ferait plutôt bon vivre grâce à un important effet de serre.
Pour l'instant, Kepler 22b est elle aussi une petite pépite dans le foisonnement des exoplanètes identifiées. Elle devrait attirer l'attention des chercheurs dans les années à venir. Les planètes similaires pourraient toutefois s'avérer bien plus nombreuses. La Nasa a d'ores et déjà annoncé que sa liste de 1094 candidates s'allongerait bientôt de plus de 1200 unités ! Dans cette abondance, 14 sont déjà candidates au titre de «potentiellement habitable». La Terre devrait se trouver d'autres cousines. Et pourquoi pas une sœur jumelle ?
Le Figaro
|
|
|
|
|
|
|
|
Si tout va bien, la France disposera à nouveau de "grandes oreilles" capables de détecter toutes les liaisons électromagnétiques sur un territoire donné. Une fusée Soyouz opérée depuis la base de Kourou, en Guyane, va mettre en orbite le 16 décembre prochain quatre petits satellites Elisa, prélude à l'établissement d'un vrai système d'écoute électromagnétique.
Fabriqués par Astrium (EADS), ces "grandes oreilles" spatiales ne sont pas plus grosses qu'une machine à laver. Leur charge utile - les capteurs - et le segment sol, ont été conçus et produits par la filiale de Thales spécialisée dans la guerre électronique, Thales Systèmes Aéroportés.
"Ces satellites vont nous permettre de détecter et de cartographier la totalité de l'activité électromagnétique, c'est-à-dire toute forme de communication ou d'émission. Et surtout, on pourra analyser l'évolution de ces émissions", explique le général Yves Arnaud, le patron du commandement interarmées Espace à l'Etat-major. Une brusque augmentation des émissions dans une zone donnée - d'Afghanistan par exemple - peut être analysée comme un signe de menace imminente. Autre avantage, cette mission est par nature discrète puisque sans intrusion dans l'espace aérien.
Il était toutefois temps que la France relance son programme d'écoute électromagnétique. Fin 2004, un premier démonstrateur baptisé Essaim avait été lancé. Mais il a été désorbité fin 2009. La France ne disposait donc plus de moyens notamment lors de l'opération Harmattan en Libye.
Théoriquement, les satellites Elisa, dont le coût atteint 110 millions d'euros, ont une durée de vie de quatre à cinq ans, soit jusqu'en 2015 ou 2016 dans le meilleur des cas. Nous aurons donc encore un trou capacitaire d'au moins trois ans, car le véritable système d'écoute électromagnétique, le programme Ceres, ne sera opérationnel au mieux qu'en 2019.
Réjouissons-nous toutefois : quand Ceres fonctionnera, la France fera partie du petit club de pays disposant de ce type de moyens, qui compte à l'heure actuelle les Etats-Unis, la Russie et la Chine.
L'Usine Nouvelle
|
|
|
|
|
|
|
|
Déjà célèbre pour les progrès qu’il a permis de réaliser en médecine humaine et en biologie fondamental, le ver C. elegans est aujourd’hui devenu le premier organisme animal qui a fait la preuve de son adaptation à l’espace.
Si l’humanité veut continuer sa conquête de l’espace, elle devra être capable d’envoyer des hommes pour des missions spatiales de plusieurs années et peut-être un jour même pour plusieurs générations. L’un des obstacles à franchir pour réaliser ces voyages est d’ordre médical : comment faire face aux changements physiologiques (connus et inconnus) provoqués par l’apesanteur.
Les scientifiques manquent cependant de modèles biologiques pour la détection et l'étude de ces changements. Dans le Journal of the Royal Society, des chercheurs de l'Université de Nottingham décrivent un système de culture à distance automatisé, véritable vivarium spatial dans lequel douze générations de vers Caenorhabditis elegans se sont développées de l’éclosion à l’âge adulte en passant par une phase de reproduction avec des timings similaires à leur évolution sur Terre.
De plus, ces animaux affichent des taux normaux de mouvements et de déplacement lorsqu’ils sont complètement alimentés et une déflation cinétique lorsqu’ils sont privés de nourriture. Ils réagissent également comme sur Terre en stoppant leur croissance en période de famine et en récupérant leurs capacités dès qu’ils sont réalimentés.
Ces observations établissent que C. elegans constitue un modèle biologique qui peut être utilisé pour étudier les changements physiologiques et le comportement en réponse aux conditions environnementales lors de vols spatiaux de longue durée.
Le dispositif qui a été testé sur la Station spatiale internationale et récupéré lors du dernier vol de la navette Discovery est prêt à être incorporé sur les futures missions interplanétaires estiment les auteurs de l’étude. Il pourrait être utilisé pour étudier les effets de ces missions sur les processus biologiques et l'efficacité des nouveaux systèmes d'aide à la vie ainsi que des technologies de protection anti-rayonnement.
Sciences et Avenir
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Dans les villes françaises, la pierre et le béton règnent aujourd'hui en maître. Demain, le bois pourrait concurrencer le parpaing.
On les aperçoit quelquefois, au détour d'une ruelle, ou cachées au fond d'une cour. Avec leur couleur brune et leur architecture souvent atypique, les maisons en bois commencent à faire leur apparition dans les centres des villes. Y compris à Paris. Et d'aucuns en sont persuadés : la construction bois devrait être l'une des grandes tendances de l'avenir.
Certes, la présence du bois dans les métropoles reste encore timide, et pour cause : qu'elles soient en bois ou en parpaings, les quelque 200.000 maisons individuelles neuves qui se construisent chaque année dans l'hexagone se trouvent, de toutes façons, essentiellement à la campagne ou dans les périphéries urbaines.
Mais là aussi, le bois commence à avoir droit de cité. Selon Loic de Saint Quentin, secrétaire général de l'association française des constructeurs bois (Afcobois), les maisons bois représenteront en 2011 10 % des nouvelles constructions individuelles. Soit quelque 20.000 nouvelles maisons. Un chiffre qui plafonnait, il y a quelques années, à 5.000.
Mais le bois séduit aussi de plus en plus de constructions collectives : des maisons de retraites aux gymnases, des collèges aux salles de fêtes… Même l'habitat collectif de petite hauteur (deux ou trois, voire quatre niveaux) peut désormais se construire en bois. Car le matériau est tendance. «Il bénéficie indéniablement de l'effet “Grenelle”», analyse Patrick Molinié, responsable bâtiment au FCBA (Institut Technologique Forêt, Cellulose, Bois, Ameublement). C'est un matériau naturel, renouvelable, surtout s'il est issu de forêts en croissance comme les forêts françaises ou d'Europe du Nord.
Mais surtout, le bois est adapté aux nouveaux impératifs d'une construction moins émettrice de gaz à effet de serre : bien sûr, il affiche un bilan carbone particulièrement flatteur – le bois absorbe du gaz carbonique lorsqu'il pousse, et ne le libère qu'en toute fin de vie- et même une fois scié, tronçonné et transporté, il a en général provoqué bien moins d'émissions de CO2 que bien d'autres matériaux de construction.
Mais ce n'est pas tout. Les méthodes de construction en bois rendent quasiment naturelle la pose d'une isolation thermique efficace. Explications de Patrick Molinié : «Quand on construit en parpaing, isoler oblige à ajouter des couches d'isolants, à l'extérieur ou à l'intérieur. Dans une maison à ossature bois, où l'on installe un montant tous les 60 cm environ, il faut remplir cette ossature. L'isolation s'insère donc naturellement dans la paroi, sans nécessiter de volume supplémentaire».
Ceux qui en douteraient peuvent passer une semaine de blizzard dans une maison canadienne ou finlandaise : dans les contrées nordiques, où l'on sait se protéger du froid, la maison en bois règne en maître. Elle semble pourtant bien légère lorsqu'on la voit s'élever sur une simple couche de béton, voire sur un gros rocher, où elle ne paraît qu'arrimée ! Mais en matière de construction comme d'habillement, l'apparence est parfois trompeuse. Avantage de la légèreté de la construction: il arrive (rarement cependant, c'est vrai!) que l'on croise une maison en bois en plein déménagement, suivant son propriétaire dans ses pérégrinations.
Aujourd'hui, la maison en bois apparaît du coup comme un choix privilégié des futurs propriétaires en quête d'un logement au label BBC-effinergie®, garantissant une basse consommation d'énergie. Non que l'habitat en pierre ou en parpaings soit incapable d'afficher des performances similaires, bien au contraire. Simplement, le bois était prêt avant, bénéficiant de son expérience en la matière. En 2010, 75 % des maisons bois construites par Maisons Nature et Bois (filiale du breton Trecobat) bénéficiaient ce label.
- La différence de prix s'amenuise
Autre avantage environnemental : une maison bois est construite en usine, préfabriquée. Le chantier ne sert qu'à l'assembler, une opération réalisée en quelques jours, souvent moins d'une semaine. Certains se sont même amusés à l'ériger en une seule journée ! «Or, note Loic de Saint Quentin, le transport quotidien des ouvriers et de leurs machines représente souvent le poste le plus important dans le bilan carbone d'un chantier». Les (éventuels) riverains aussi apprécient, qui évitent de cohabiter pendant plusieurs mois avec les bruits et nuisances du chantier. Marteaux piqueurs et bétonnières ne font ici qu'un passage éclair.
Certes, la maison bois coûte encore plus cher. Elle revient en moyenne à 1.500 euros du mètre carré soit 20 % environ de plus qu'une maison «de maçon». A performance thermique égale, cependant – label BBC-effinergie®—, l'écart de prix tend à disparaître. Or, à partir du 1er janvier 2013, toutes les nouvelles maisons construites devront afficher des performances thermiques au même niveau que ce label. Le bois deviendra donc relativement plus abordable.
Reste que la filière construction française n'est pas encore prête : architectes, maîtres d'oeuvres, artisans, tous ont été plus formés au béton qu'au bois. Mais même les premiers concernés ont du pain sur la planche : car si la forêt française regorge de bois, les constructeurs de maison sont bien souvent contraints de l'importer d'Allemagne et des pays scandinaves. Parfois même, les grumes hexagonales sont transformées à l'étranger. Après l'énergie, le bois (qui inclut aussi l'ameublement par exemple) est du reste l'un des principaux déficits de balance commerciale française (environ 6 milliards d'euros de déficit).
La ville en bois de demain cherche donc …. ses industriels du bois !
Slate
|
|
|
|
|
|
|
|
Publiés dans Nature d'octobre dernier, les résultats d'une étude menée par des chercheurs d'AgroParisTech, de l'Inra, de l'Université d'Aarhus (Danemark), du CNRS, de l'Université de Strasbourg et de l'Inventaire Forestier National, avec le soutien financier de l'Ademe et de la Région Lorraine, révèlent que les espèces végétales des forêts de plaine seraient peu réactives face au réchauffement climatique.
Aussi devraient-elles être particulièrement vulnérables au cours des prochaines décennies. Jusqu'à présent, les chercheurs s'étaient surtout intéressés aux espèces de montagne, celles-ci étant considérées comme plus vulnérables au réchauffement climatique. Ainsi, une étude réalisée en 2008 par des chercheurs d'AgroParisTech, de l'Inra et du CNRS avait montré que les plantes montagnardes avaient commencé à migrer en altitude, suite à l'augmentation de la température. Mais en comparant les changements de composition en espèces observés dans les communautés végétales de plaine à ceux des communautés de montagne, les chercheurs ont constaté que les premières sont moins réactives face au changement climatique, ce qui les rend évidemment plus vulnérables.
Selon les chercheurs, trois raisons principales peuvent expliquer ce manque de réactivité de la part des espèces de plaine. La première est que ces espèces sont plus adaptées aux températures chaudes donc plus tolérantes au réchauffement climatique. La seconde est qu'elles souffrent d'une plus grande fragmentation de leur habitat par rapport aux communautés végétales forestières de montagne. Les routes, les zones d'habitation et les champs cultivés constituent en effet autant de barrières à leur migration, des barrières que leurs modes de dispersion, par le vent ou via les animaux, ne leur permettent pas toujours de traverser.
La troisième de ces raisons, et sans aucun doute la plus préoccupante, est la distance à parcourir d'une génération à la suite pour retrouver un climat favorable à leur développement. Car si les espèces de montagne doivent en moyenne migrer sur 1,1 km, principalement vers les sommets, pour retrouver des conditions de température identiques à celles d'avant le réchauffement climatique, celles des plaines doivent migrer vers le nord sur des distances plus importantes - en moyenne 35,6 km - pour compenser un réchauffement similaire. Or les espèces herbacées forestières peuvent difficilement compenser la hausse de température observée en plaine par une migration naturelle sachant que la distance de dispersion excède rarement quelques centaines de mètres chaque année.
Bulletins Electroniques
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une collaboration entre une équipe de chercheurs français de l’Unité Inserm 862 "Neurocentre Magendie, Bordeaux" dirigée par Cyril Herry et une équipe de chercheurs suisses du Friedrich Miescher Institute of Biomedical Research dirigée par Andreas Lüthi à l'Institut de recherche biomédicale Friedrich Miescher a montré, pour la première fois, que le cortex, la plus importante zone du cerveau qui est généralement associée à de hautes fonctions cognitives, est également une zone clé pour les apprentissages émotionnels. Cette étude initiée par les chercheurs suisses et publiée dans la revue Nature constitue un travail d'avant-garde en matière d'exploration des émotions dans le cerveau.
Les troubles anxieux constituent une famille de pathologies complexes touchant environ 10 % des adultes. Les patients atteints de ces troubles craignent certaines situations ou objets de manière exagérée sans proportion aucune avec le danger qu'ils présentent en réalité. L'amygdale, structure cérébrale profonde, joue un rôle clé dans le traitement de la peur et de l'anxiété. Son fonctionnement peut être perturbé en cas de troubles anxieux.
Bien que les chercheurs connaissent les neurones de l'amygdale et leur rôle dans l'expression de la peur, leur connaissance de l'implication d'autres régions du cerveau reste limitée. Or, il ne peut y avoir de peur sans stimulation sensorielle : avant d’avoir peur, nous entendons, nous voyons, nous sentons, nous goûtons ou nous ressentons quelque chose qui la déclenche. Ce signal sensoriel est notamment traité dans le cortex, région la plus vaste du cerveau. Pour la première fois, des scientifiques français et suisses ont réussi à visualiser le trajet d'un stimulus sensoriel dans le cerveau lors de l’apprentissage de la peur et à identifier les circuits neuronaux sous-jacents.
- Que se passe-t-il dans le cerveau ?
Au cours des expériences réalisées par les chercheurs, des souris ont appris à associer un son à un stimulus désagréable de sorte que le son lui-même devienne désagréable pour l'animal. Les chercheurs ont utilisé l'imagerie calcique biphotonique afin de visualiser l'activité des neurones dans le cerveau au cours de ce processus d'apprentissage. Cette technique d'imagerie implique l'injection d'un indicateur chimique qui est ensuite absorbé par les neurones. Lorsque les neurones sont stimulés, les ions calcium pénètrent dans les cellules, où ils accroissent la brillance de l'indicateur, qui peut alors être détecté au microscope à balayage.
Dans des conditions normales, les neurones du cortex auditif sont fortement inhibés. Au cours de l'apprentissage de peur, un microcircuit "désinhibiteur" au niveau du cortex s’active : Ainsi, pendant une courte fenêtre temporelle au cours de l'apprentissage, la libération d'acétylcholine dans le cortex permet l'activation de ce microcircuit et la désinhibition des cellules de projection excitatrices du cortex. Ainsi, lorsque l'animal perçoit un son pendant l'apprentissage de la peur, il sera traité de façon bien plus intense que dans des conditions normales, ce qui favorise la formation de la mémoire. Toutes ces étapes ont été visualisées grâce aux techniques développées par les chercheurs.
Pour confirmer leurs découvertes, les chercheurs ont eu recours à une autre technique récente très innovante (l’optogénétique) pour perturber la désinhibition de façon sélective au cours de l'apprentissage. Lorsqu'ils ont testé la mémoire de leurs souris (c'est-à-dire l’association entre le son et le stimulus désagréable) le lendemain, ils ont observé une altération sévère de la mémoire démontrant directement que le phénomène de désinhibition corticale est indispensable à l'apprentissage de la peur.
La découverte de ce microcircuit désinhibiteur cortical ouvre des perspectives cliniques intéressantes et les chercheurs peuvent désormais imaginer, dans des situations bien précises, comment empêcher qu’un traumatisme se mette en place et ne devienne pathologique.
INSERM
|
|
|
|
|
|
|
|
Des chercheurs développent des simulateurs d’environnement pour les non-voyants. Grâce à ces jeux vidéo, ils tentent de percer à jour les mécanismes du cerveau qui permettent aux aveugles de s’orienter.
Le jeu vidéo auquel joue Rachel Buchanan, 28 ans, sur un ordinateur portable ne paie pas de mine – un peu comme les murs nus de sa salle de classe, ici, au Carroll Center for the Blind. A l’écran, un plan sommaire du centre. Bien qu’aveugle depuis l’enfance à cause d’une lésion du nerf optique, elle déplace rapidement son avatar dans le labyrinthe en lui faisant frôler les murs, comme s’il s’orientait du bout des doigts. Son secret ? Les écouteurs qu’elle a sur les oreilles et grâce auxquels elle s’immerge dans un labyrinthe sonore en trois dimensions.
Un coup qui résonne dans l’un ou l’autre des écouteurs révèle la présence d’une porte à gauche ou à droite. Le bruit de pas monte de plusieurs tons à mesure que Buchanan conduit son avatar vers l’étage supérieur. Les meubles émettent un bruit quand elle les heurte, les joyaux qu’elle recherche tintent de plus en plus fort quand elle s’en approche. Bref, Rachel se sent présente physiquement dans les couloirs du labyrinthe. “Ah ! Va-t’en !” s’exclame-t-elle au passage d’un “monstre”. Ses doigts courent alors sur les touches pour mettre son avatar à l’abri.
Au bout d’un certain temps, le spécialiste des neurosciences Lofti Merabet et sa coordinatrice d’études Erin Connors, l’un et l’autre travaillant pour le Massachusetts Eye and Ear Infirmary, arrêtent la partie et conduisent Buchanan dans le bâtiment réel, situé juste à côté. Ils invitent la jeune femme à se diriger vers différentes pièces et sorties, et notent au fur et à mesure les itinéraires qu’elle choisit. Comme les autres volontaires aveugles de l’étude, Rachel Buchanan n’a jamais mis les pieds dans ce bâtiment avant de jouer à l’Audio-Based Environment Simulator (AbES). Mais, après ne serait-ce qu’une demi-heure passée à éviter des monstres et à rechercher des joyaux dans les locaux virtuels du jeu, les patients connaissent si bien la disposition des lieux qu’ils peuvent rapidement s’orienter eux-mêmes dans n’importe quelle pièce du bâtiment réel. Ces résultats sont particulièrement prometteurs. En effet, bien souvent, les aveugles ont du mal à se déplacer dans les espaces clos, car les systèmes GPS ne traversent pas les murs et les chiens guides ne sont pas toujours les bienvenus.
Le projet AbES a démarré dans les rues de Santiago, où les enfants aveugles des quartiers défavorisés sont pauvres parmi les pauvres. Jaime Sánchez, chercheur à l’université du Chili, à Santiago, avait travaillé sur des logiciels éducatifs dans les années 1980, alors que ce secteur n’en était qu’à ses débuts. En 1993, le jeu Doom révolutionnait les jeux vidéo : c’était le premier à offrir un univers 3D en vue subjective. Dans Doom, le joueur devait se déplacer dans un dédale de couloirs et de salles et abattre les démons qui croisaient sa route. Sánchez, qui travaillait au développement de jeux auditifs en tant qu’outils d’apprentissage pour enfants handicapés, s’est demandé si ces derniers pourraient se déplacer dans un espace aussi complexe que celui de Doom. Il s’en est inspiré pour concevoir son propre jeu, AudioDoom, qu’il a lancé en 1998. Ancêtre de l’AbES, AudioDoom comportait lui aussi un système de murs émetteurs de sons, ainsi que des monstres courant vers le joueur avec des bruits de pas de plus en plus forts. Sánchez a recruté cinq ou six enfants de 8 à 11 ans, tous aveugles de naissance, et les a regardés jouer, chez eux ou à l’école. AudioDoom a été un “succès incroyable”, assure Sánchez. Lui et Merabet se sont rencontrés lors d’une conférence en 2008, et ils ont décidé de s’associer pour étudier les différences entre joueurs aveugles et joueurs voyants. Les chercheurs ont ainsi étudié un panel de jeunes aveugles, qu’ils ont organisé en deux groupes.
Le premier était dirigé à travers le bâtiment virtuel de l’AbES comme pour une visite. Les autres pouvaient l’explorer à leur guise en “mode jeu”, avec les joyaux et les monstres en prime. Ensuite, quand les chercheurs ont évalué la capacité des jeunes à évoluer dans le bâtiment réel, ils ont observé que tous les participants étaient à même de retrouver n’importe quelle pièce ou sortie facilement. Mais il y avait une différence subtile entre les deux groupes : ceux qui avaient fait l’exploration en mode jeu pendant une demi-heure trouvaient plus facilement le plus court chemin vers une sortie. Avec leurs défis à relever, leur système de récompense et leur capacité à capter l’attention du joueur, les ludiciels “simulent la manière dont le cerveau aime travailler”, explique Merabet.
Sánchez et Merabet travaillent actuellement sur une version “AudioZelda” de l’AbES, qui cartographie tout le campus alentour. Comme dans le jeu vidéo The Legend of Zelda, les joueurs vont devoir courir d’un bâtiment à l’autre en récoltant des bijoux et dénicher des clés permettant d’accéder aux différents locaux. Sánchez a aussi mis au point un jeu pour aveugles inspiré du métro de Santiago. Il veut désormais utiliser la technique de navigation audio afin d’initier les enfants aveugles à des disciplines comme la géométrie ou l’anatomie. Ils pourront ainsi explorer un corps humain virtuel, comme dans Le Voyage fantastique. But de l’opération : leur permettre de “commencer l’école au même niveau que les enfants voyants”, commente-t-il. Pendant plus de dix ans, les neuroscientifiques ont étudié les cerveaux de sujets voyants pendant que ceux-ci apprenaient à se déplacer dans des labyrinthes virtuels, placés à l’intérieur d’appareils d’imagerie à résonance magnétique (IRM) ou de scanners. Aujourd’hui, Merabet cherche à savoir si l’activité cérébrale des aveugles est différente dans ces mêmes conditions.
Comme tous ses sujets d’expérience sont aveugles de naissance, leur cortex visuel, qui représente entre 30 et 40 % de la zone corticale, n’a jamais reçu de stimulations. Cela dit, au cours de la dernière décennie, les chercheurs ont découvert que les cerveaux des aveugles “réattribuaient” cette zone : elle est activée notamment dans la lecture du braille, la compréhension de la langue ou la localisation des perceptions sonores.
- Le cortex visuel sollicité
L’équipe a adapté l’AbES de manière que les sujets de l’étude puissent y jouer à l’intérieur d’un appareil IRM qui enregistre l’activité cérébrale en continu. Quand le joueur rencontre un monstre ou s’arrête pour se demander à quel endroit du labyrinthe il se trouve, l’AbES date l’événement. Cela permet aux chercheurs de déterminer exactement les zones du cerveau sollicitées par le processus de décision à cet instant précis. Les premiers résultats des chercheurs indiquent qu’à ces moments critiques les joueurs voyants utilisent généralement l’hippocampe, une structure qui joue un rôle important dans la mémoire, pour se rappeler où ils sont et décider de la direction à prendre. Mais, chez les joueurs aveugles, c’est le cortex visuel qui est le plus sollicité. Les chercheurs prévoient d’effectuer des expériences sur des personnes devenues aveugles tardivement, afin de déterminer si le cerveau de l’adulte présente encore une plasticité suffisante pour utiliser le cortex visuel de cette manière.
Le caractère addictif des jeux vidéo a fourni aux chercheurs des cobayes pleins de bonne volonté. Quand il ouvre l’appareil IRM après une séance, Merabet trouve les volontaires en train de jouer à l’AbES. “Encore quelques minutes, je dois finir ce niveau !” le supplient-ils. Les jeunes aveugles du Carroll Center rivalisent même d’habileté : c’est à celui qui ramassera le plus de joyaux. “La cécité vous isole tellement ! explique Rachel Buchanan. Pouvoir jouer à des jeux, c’est formidable.”
Courrier International
|
|
|
|
|
|
|
|
L’équipe emmenée par Kristina Schoonjans et Johan Auwerx s’est intéressée à une molécule de synthèse (INT-777), a récemment écrit l’Ecole polytechnique fédérale de Lausanne (EPFL). Précédemment, ces scientifiques avaient découvert que ladite molécule était prometteuse pour lutter contre le diabète de type 2. Celle-ci peut contrôler dans l’intestin la sécrétion du GLP-1, un peptide jouant un rôle important dans la régulation du taux de sucre dans le sang. La sécrétion de GLP-1 diminue chez le patient diabétique de type 2. En régulant le taux de sucre dans le sang, la molécule INT-777 agit aussi contre l’obésité. D’où le grand intérêt qu’elle suscite.
Les chercheurs ont pu prouver que la molécule INT-777 protège du diabète et de l’obésité des souris alimentées en nourriture grasse. Dans une nouvelle étude, ils cherchent maintenant à déterminer si la molécule peut aussi agir comme médicament dans les maladies cardio- vasculaires. Celles-ci surviennent souvent en raison d’artères sclérosées dont souffrent davantage les diabétiques et les personnes en excès de poids. Dans un article du magazine professionnel «Cell Metabolism», l’équipe de l’EPFL rapporte que les souris traitées avec la molécule INT-777 présentaient nettement moins de caillots dans leurs veines.
Dans d’autres recherches, l’équipe a pu indiquer que cet effet protecteur résulte de la propriété anti-inflammatoire de la molécule INT-777. Beaucoup de scientifiques estiment que l’obésité et le diabète amènent une faible inflammation chronique favorisant l’artériosclérose. Selon Kristina Schoonjans, cette molécule est un candidat prometteur dans la lutte contre l’obésité, le diabète et les maladies cardio-vasculaires. Par comparaison avec d’autres médicaments contre le diabète déjà sur le marché, elle provoque rarement une hypoglycémie dangereuse. En outre, l’effet anti-inflammatoire n’est pas si puissant qu’il interfère avec le système immunitaire. Des tests cliniques sont en préparation afin d’évaluer l’efficacité et l’innocuité du médicament pour l’être humain.
Tribune De Genève
|
|
|
|
|
|
|
|
Traiter un cancer, ce n’est plus seulement tenter de détruire la tumeur. C’est aussi s’attaquer à l’environnement proche de la tumeur, notamment les cellules de défense du patient qui facilitent la dissémination de la maladie. Avoir plusieurs fers au feu est une expression qui est en train de prendre tout son sens en cancérologie, si l’on en croit le nombre de travaux scientifiques présentés à San Antonio (Texas) du 7 au 10 décembre 2011, lors de la 34e édition du SABCS, le plus important congrès consacré au cancer du sein. On constate, en effet, que les cellules cancéreuses bénéficient de complicités plus ou moins voulues de la part de nombreux éléments de notre système de défense. C’est particulièrement vrai dans le cadre de l’essaimage de cellules tumorales à partir de la lésion d’origine, ce qu’on appelle des métastases.
Autour de la masse cancéreuse, il se passe beaucoup de choses et d’abord des signes d’inflammation chronique. On observe aussi un remodelage des structures environnantes, avec la fragilisation de barrières naturelles. Enfin, les vaisseaux sanguins et lymphatiques sont le siège d’une intense activité. Ces tissus inflammatoires sont infiltrés par des globules blancs. Ce sont surtout des lymphocytes et des macrophages. Ces globules blancs sont normalement dévolus à la défense de l’organisme et devraient donc n’avoir de cesse d’attaquer le cancer. Or, ils font quasiment le contraire ! L’heure est donc à la chasse aux traîtres !
Et les recherches pointent surtout du doigt les macrophages qui semblent favoriser la formation des métastases. Ces macrophages, sous l’influence de lymphocytes CD4, libèrent des substances qui jouent des rôles différents, mais défavorables à l’organisme. Ils libèrent en particulier des facteurs de croissance qui vont stimuler la pousse des cellules tumorales et favoriser leur migration vers d’autres parties de l’organisme, comme les os, les poumons et le cerveau. La présence en excès des macrophages va réduire les réponses des cellules cancéreuses aux traitements, qu’il s’agisse de la chimiothérapie ou de la radiothérapie.
L’équipe de Lisa Coussens, de l’université de Californie à San Francisco, a récupéré des prélèvements obtenus par biopsie chez des femmes atteintes de cancers du sein. Ces tumeurs ont été mises en culture et greffées sur des modèles animaux. Le but était de démontrer qu’en rétablissant l’équilibre dans le microenvironnement de la tumeur, on arriverait à la rendre plus sensible à la chimio et à la radiothérapie, en provoquant le "suicide" des cellules cancéreuses. Pour cela, plusieurs molécules expérimentales sont testées, l’une étant le PLX-3397. Cette molécule, prise par voie orale, joue sur des mécanismes très particuliers de fonctionnement des macrophages et en réduit l’activité.
Ainsi, le rapport entre macrophages et lymphocytes CD8 se modifie en faveur de ces derniers, nécessaires à la défense de l’organisme et opposés à la présence de la tumeur. Les modèles animaux ont montré qu’on arrivait à faire disparaître jusqu’à 85 % des métastases cancéreuses. L’évaluation du PLX-3397 va bientôt débuter chez deux mille femmes atteintes de cancer du sein très avancé et porteuses de métastases.
Cette démarche d’un traitement ciblé sur le microenvironnement tumoral a déjà apporté des résultats concrets avec l’utilisation des biphosphonates, toujours dans le cancer du sein. Un membre de cette famille, l’acide zoledronique, utilisé à l’origine pour renforcer des os déminéralisés, a démontré des vertus antitumorales dans plusieurs études. La plus récente, présentée également à San Antonio et réalisée par l’équipe autrichienne de Michael Gnant, de l’université de Vienne, a montré que cette molécule associée à des antihormones dans le cancer du sein réduisait le risque de récidive et la mortalité. L’acide zoledronique aiderait à détruire les cellules cancéreuses qui cherchent à coloniser l’os et aussi la moelle osseuse, d’où elles peuvent ensuite essaimer. Avec l’arrivée de ces méthodes de traitement ce sera la première fois, sans doute, qu’on pourra se réjouir de dommages collatéraux.
France TV
|
|
|
|
|
|
|
|
Une équipe de chercheurs suisses a découvert qu'une simple protéine, la périostine, pourrait être la clé pour bloquer le développement de métastases qui constituent l'un des grands risques de complications pour les malades atteints d'un cancer. Leur découverte est publiée dans Nature, sous le titre "Les interactions entre cellules souches cancéreuses et leur niche gouvernent la colonisation métastasique".
Sans cette protéine existant naturellement dans le corps, les cellules cancéreuses diffusées à partir d'une tumeur maligne initiale ne peuvent se développer ailleurs en métastases, à savoir en nouvelles tumeurs. On sait déjà qu'une tumeur diffuse dans le corps des cellules cancéreuses et que seules certaines de celles-ci, les "cellules souches cancéreuses", sont capables de développer des métastases, à condition de trouver un terrain propice, ce que les cancérologues appellent une "niche".
Des chercheurs de l'Institut suisse de recherche expérimentale sur le cancer (Isrec) et de l'Ecole polytechnique fédérale de Lausanne (EPFL) ont pu isoler la périostine dans ces niches chez la souris et démontrer chez ce rongeur que sans cette protéine, il n'y a pas de métastase.
«Sans cette protéine, la cellule souche cancéreuse ne peut pas développer une métastase. Elle disparaît ou devient dormante», explique le Professeur Joerg Huelsken de l'EPFL, qui cosigne l'article dans Nature. Les chercheurs de l'EPFL et de l'Isrec affirment que «bloquer le fonctionnement» de la périostine «empêche la métastase». Cela a d'ailleurs déjà été réalisé sur des souris. «Nous avons développé un anticorps qui adhère à la protéine et l'empêche de fonctionner», explique le Professeur Huelsken. «Nous espérons de cette façon être capables de bloquer le processus de formation des métastases».
Le cancer est une cause majeure de mortalité dans le monde, à l'origine de 7,6 millions de décès en 2008, soit environ 13 % de la mortalité mondiale, selon l'Organisation mondiale de la santé (OMS).
Nature
|
|
|
|
|
|
|
|
Que manger quand on a un coup de fatigue en milieu d’après-midi, à défaut d’avoir un endroit pour dormir au bureau ? La mauvaise idée serait de manger un carré de sucre ou autre aliment très sucré, révèlent plusieurs études de la neurophysiologie du sommeil, raconte Wired.
C’est l‘orexine, hormone cérébrale produite par des neurones de l’hypothalamus, qui régule l’équilibre énergétique et l’éveil. Pour se maintenir éveillé, il faut stimuler les orexines, notamment via l’équilibre nutritif des repas. En 2006, une étude de chercheurs de l’université de Cambridge a ainsi montré que la consommation de glucose aura tendance à bloquer, ou ralentir, l’activité des cellules orexines, ce qui pourrait expliquer la somnolence qui s’ensuit. Une nouvelle étude, publiée en novembre dans la revue Neuron, montre que les acides aminés, constitutifs des protéines, ont, en revanche, un effet particulièrement stimulant sur les orexines.
La diminution de l’activité des cellules orexines par le sucre avait été la conclusion à laquelle avait déjà abouti une étude d’une équipe de chercheurs du Sleep Research Centre de l’université de Loughborough, publiée dans la revue Human Psychopharmacology : Clinical and Experimental en 2006. Une heure après le déjeuner, ces derniers avaient fait boire une boisson énergétique contenant 42 grammes de sucre et 30 milligrammes de caféine à cinq adultes et une boisson au goût identique mais ne contenant aucun sucre à cinq autres adultes. Les deux groupes avaient mangé le même déjeuner et dormi cinq heures la nuit précédant l’expérimentation. Cinquante minutes après, les adultes ayant eu droit à la boisson énergétique sucrée commençaient à montrer des signes de somnolence.
«Une surdose de sucre n’est pas effective pour combattre l’envie de dormir», avait alors avancé le professeur et directeur du Sleep Research Centre, Jim Horne, lequel estime qu’une meilleure façon de la surmonter est de boire une boisson à forte teneur en caféine et faire une courte sieste.
Doit-on alors faire une croix sur les desserts trop sucrés pour le déjeuner ? Pas nécessairement, selon la dernière étude des mêmes chercheurs de Cambridge qui, voulant savoir si l’effet inhibitif du glucose sur les cellules orexines pouvait être surmonté par la consommation de protéines, se sont rendu compte que les signes de somnolence n’étaient pas manifestes quand les glucoses et les protéines étaient consommés simultanément dans un même dessert par exemple.
Slate
|
|
|
|
|
|
|
|
Une équipe de chercheurs belges et britanniques a trouvé le moyen de concevoir des médicaments pouvant cibler des zones spécifiques du cerveau. Présentés dans la revue Proceedings of National Academy of Sciences (PNAS), ces résultats pourraient aider les chercheurs à développer des traitements pour lutter contre certaines maladies sans déclencher d'effets secondaires dans d'autres parties du système nerveux.
Les chercheurs, menés par le professeur Neil Marrion de la Faculté de physiologie de Bristol, au Royaume-Uni, travaillaient sur un sous-type de canaux ioniques appelés canaux SK (canaux potassiques à faible conductance activés par le calcium). Les canaux ioniques sont des protéines pouvant contrôler l'excitabilité des nerfs. Les canaux ioniques, qui sont construits comme un circuit électrique, permettent le passage d'ions de potassium, de sodium et de calcium «chargés» a l'intérieur ou à l'extérieur des membranes cellulaires par un réseau de pores formées par les canaux, dont un sous-type est la famille des canaux SK.
Les chercheurs ont utilisé l'apamine, une toxine naturelle que l'on trouve dans le venin des abeilles et qui peut bloquer divers types de canaux SK. Ces canaux permettent aux ions de potassium de circuler à l'intérieur et à l'extérieur des cellules nerveuses qui contrôlent l'activité. Grâce à la capacité de l'apamine à bloquer un sous-type de canal SK mieux que les autres, les chercheurs sont parvenus à identifier comment bloquer de manière sélective les canaux de sous-types de SK (SK1 à SK3).
La capacité de l'apamine et d'autres ligands à bloquer les canaux SK révèlent que les canaux se plient de manière à permettre la liaison d'un médicament. Ainsi, on pourra créer des médicaments pour bloquer des canaux SK composés d'au moins deux sous-unités de canal SK pour assurer une lutte plus efficace contre la démence et la dépression.
«Le problème dans le développement de médicaments pour cibler les processus cellulaires est que beaucoup de types de cellules répartis dans le corps pourraient tous avoir les mêmes canaux ioniques», explique le professeur Neil Marrion de l'université de Bristol, l'un des auteurs de l'étude. «Les canaux SK sont également répartis dans le cerveau, mais il devient évident que ces canaux peuvent être composés d'un type ou plus de sous-unités de canaux SK. Il est fort probable que les différents nerfs possèdent des canaux SK constitués de sous-unités différentes. Ceci signifie que le développement d'un médicament pour bloquer un canal composé d'une seule protéine de canal SK ne sera pas utile du point de vue thérapeutique, mais savoir que les canaux sont composés de diverses sous-unités SK multiples sera essentiel.»
Commentant les résultats de l'étude, le co-auteur Vincent Seutin du Centre interfacultaire de recherche du médicament (CIRM) de l'Université de Liège, en Belgique, ajoutait : «Notre étude montrait la différence dans la façon dont l'apamine et les ligands non peptidiques (un médicament potentiellement utile) interagissent avec le canal. Ceci pourrait avoir d'importantes implications en terme de conception de médicaments.»
CORDIS
|
|
|
|
|
|
|
|
Selon une étude américaine, la combinaison de deux médicaments accroît la survie des femmes atteintes du cancer du sein le plus fréquent. Ce cancer, dit cancer du sein à récepteur oestrogène positif parce que les oestrogènes poussent les cellules cancéreuses à se développer, représente plus de la moitié de tous les cancers du sein. Cette étude, présentée à un colloque de spécialistes du cancer du sein à San Antonio (Texas, sud des Etats-Unis), représente la première avancée dans le traitement de cette affection depuis dix ans, se félicitent ses auteurs.
En combinant deux molécules, l'anastrozole (médicament Arimidex du britannique AstraZeneca) et le fulvestrant (Faslodex du même groupe), les chercheurs ont abouti à un allongement de la survie des femmes ménopausées atteintes de ce cancer, par rapport au groupe traité uniquement avec l'anastrozole. L'étude, menée à partir de 2004, englobait au total 700 femmes ménopausées. Les deux traitements sont habituellement utilisés séparément.
"Les patientes atteintes de ce cancer n'avaient pas eu de nouveau traitement leur apportant un bénéfice en termes de survie depuis plus d'une décennie", s'est félicité Rita Mehda, coordinatrice de l'étude. "Ce résultat devrait modifier la manière dont nous traitons ces patientes", a souligné Kathy Albain, une des co-auteurs de l'étude.
Stanford
|
|
|
|
|
|
|
|
Une étude présentée à l'occasion du congrès de la Radiological Society of North America montre que la consommation régulière de poisson, cuit au four ou à la poêle, au moins une fois par semaine, pourrait favoriser la santé du cerveau et réduire le risque de développer des maladies dégénératives des neurones.
La consommation de poisson pourrait donc, dans une certaine mesure, prévenir ou retarder la maladie d'Alzheimer et les démences apparentées dues à l'âge dont le nombre de malades devrait doubler en vingt ans dans le monde, passant de 35,6 millions actuellement à 65,7 millions en 2030, selon des estimations de l'association Alzheimer's Disease International.
Réalisée à l'université de Pittsburgh, cette étude a porté sur 260 personnes qui participent au Cardiovascular Health Study, un vaste et long programme de surveillance de la santé des participants. Ce programme suit de nombreux paramètres, comme l'âge, le sexe, le degré d'éducation, la profession, le poids, l'activité physique et la présence ou l'absence d'une protéine (ApoE4), produite par un gène soupçonné d'accroître le risque de développer la maladie d'Alzheimer.
Les personnes choisies ont été régulièrement suivies par la technique d'imagerie par résonance nucléaire (IRM), technique 3D qui permet d'apprécier le volume de matière grise du cerveau. A dix ans d'intervalle, les scientifiques ont cherché à savoir s'il y avait une relation entre volume de matière grise, consommation de poisson et pathologies dégénératives des facultés cognitives.
L'étude de ces données montre que «consommer du poisson cuit au four au à la poêle permet aux neurones de la matière grise de rester plus résistants. Ils sont plus grands et en meilleure santé, écrit ainsi le Docteur Cyrus Raji. Ce simple choix de vie accroît la résistance du cerveau à la maladie d'Alzheimer et permet de réduire les risques de son apparition.» Mais les consommateurs de poissons frits ne montrent pas les mêmes signes de protection contre la déclin des facultés intellectuelles.
L'étude ne dit pas de quelle manière manger du poisson protège mais d'autres études ont déjà suggéré que certains acides gras, en particulier les Oméga 3, pourraient être à l'origine de ce bénéfice. On les trouve surtout dans les poissons dits «gras», comme le saumon, le flétan, le hareng, le maquereau, les anchois et les sardines et aussi le thon.
RSNA
|
|
|
|
|
|
|
|
« Les déterminants précoces de la santé de l’adulte : alimentation et épigénétique » faisaient l’objet d’un colloque organisé par le Fonds Français Alimentation & Santé le 6 octobre 2011 à Paris. Le concept et les mécanismes de l’origine développementale de la santé et des maladies (DOHaD) y ont été explorés, avec des interventions de Claudine Junien et Pascale Chavatte-Palmer de l’unité Biologie du Développement et Reproduction (BDR), Inra de Jouy-en-Josas. Les deux scientifiques nous éclairent sur ce champ de recherche prometteur qui a émergé depuis deux décennies.
- La santé et la prédisposition à certaines maladies se forgent au cours des phases précoces du développement
La santé des enfants, et surtout plus tard des adultes, est influencée, avant même et après leur naissance, par l’alimentation et l’hygiène de vie de leurs parents. Ainsi, par exemple, s’il est bien établi que l’obésité se développe à la faveur de la sédentarité et d’un déséquilibre nutritionnel excédentaire, sous l’influence de facteurs génétiques, l’environnement joue aussi un rôle. L’alimentation, le métabolisme, l’état psycho-affectif ou la condition sociale de la mère peuvent ainsi transmettre des influences non génétiques à l’enfant au cours de la grossesse et de l’allaitement. Même avant la conception, la nutrition, qu’il s’agisse d’excès ou de sous-nutrition, la composition corporelle et des perturbations métaboliques de la mère mais aussi du père peuvent avoir une influence sur le développement du futur enfant. Ces effets, jusqu’ici méconnus, sont très importants et permettent de comprendre des observations que la génétique ne peut pas expliquer. Ainsi, au cours des deux dernières décennies, un ensemble de données épidémiologiques chez l’Homme et des études expérimentales chez l’animal ont confirmé "l’origine développementale de la santé et des maladies" (DOHaD pour : Developmental Origin of Health and Diseases), également connue comme l’hypothèse de Barker.
- Tout n’est pas écrit dans les gènes… l’environnement influence leur lecture à terme
Les données scientifiques ont mis en évidence des marques, dites épigénétiques (du grec "epi" = dessus), qui s’apposent sur les gènes tout au long du développement, en particulier de la conception à la naissance (qui sont des périodes particulièrement "plastiques"), puis tout au long de la vie. Ces marques, servent à moduler l’expression des gènes sans altérer les gènes eux-mêmes. Mais ces marques peuvent être, à tout instant, perturbées par l’environnement. L’épigénétique concrétise ainsi la marque de l’environnement sur les gènes. Elle est un des mécanismes reconnus de la DOHaD. Par ce mécanisme, notre mode de vie, notre alimentation, nos relations psycho-affectives peuvent laisser dans nos cellules une "trace épigénétique" éventuellement transmissible d’une génération à l’autre.
- Les marques épigénétiques peuvent être modifiées à des stades clés du développement
Les altérations de marques épigénétiques, lorsqu’elles interviennent à certaines étapes clé du développement, peuvent provoquer des perturbations au niveau de la formation de certains organes entraînant une prédisposition à développer, plus tard, des maladies chroniques de l’adulte (diabète, obésité, etc.). La période précédant la conception, la grossesse, la période néonatale, l’allaitement, la petite enfance ou l’adolescence sont des phases très importantes du développement pendant lesquelles les conditions environnementales peuvent avoir des effets durables sur le développement d’un grand nombre d’organes et de fonctions, y compris le goût. Chacune de ces fenêtres développementales est caractérisée par une sensibilité distincte à certains facteurs environnementaux. À l’inverse des mutations altérant les gènes, les effets à long terme des modifications épigénétiques ne sont pas inéluctables. Il a été montré qu’un environnement adapté, appliqué très tôt, quand la plasticité du génome est encore optimale, peut contrecarrer ces effets néfastes.
- Informer et poursuivre les recherches pour agir à bon escient
Le grand intérêt des marques épigénétiques est qu’elles sont malléables. Le fait de pouvoir agir sur ces inscriptions épigénétiques pour préserver la santé future de l’enfant ouvre un immense champ de perspectives. Les connaissances actuelles sont encore parcellaires et il est nécessaire d’amplifier les recherches vers ces nouvelles pistes. Mais, comme l’a montré le débat Science/Société qui a clôturé ce colloque, co-animé par Claudine Junien et un sociologue, sur les implications médicales et sociétales de ces découvertes, le potentiel en termes de santé publique est considérable. Le corps médical et le public doivent être mieux informés. D’ores et déjà, la prise de conscience de ces nouvelles données permet de proposer des recommandations d’ordre général basées sur le bon sens quant à l’hygiène de vie des (futurs) parents. Ces marques existent aussi chez les animaux, qui sont souvent utilisés comme modèles. Dans le domaine de l’élevage, ces recherches trouvent également de nombreuses applications pour comprendre le rôle de l’environnement sur la santé des animaux, leur production et la qualité de leurs produits. De plus, elles pourront permettre d’optimiser les systèmes existants en se servant de l’environnement comme levier pour produire des animaux plus robustes et mieux adaptés aux changements (climatiques, économiques, etc.).
INRA
|
|
|
|
|
|
|
|
En pleine campagne de vaccination 2011-2012 contre la grippe saisonnière, Odile Launay, directrice du centre d'investigation clinique en Vaccinologie Cochin Pasteur (Inserm/AP-HP/Institut Pasteur/Université Paris Descartes) rend compte des résultats de l'étude clinique PREFLUVAC menée pendant la pandémie grippale de 2009. Les chercheurs ont étudié la réponse à la vaccination de 107 femmes enceintes après l'injection d'une dose de vaccin antigrippal H1N1 administré sans adjuvant. Les chercheurs concluent que la vaccination antigrippale est immunogène chez la femme enceinte et protège les nourrissons par les anticorps transmis à travers le placenta.
Ces résultats, publiés dans la revue Annals of Internal Medicine datée du 6 Décembre 2011, sont disponibles en ligne.
La grippe est une infection respiratoire aiguë, contagieuse, due aux virus Influenzae. Les virus grippaux se répartissent entre différents types : A, B et C. Les virus A et B sont à l’origine des épidémies saisonnières mais seul le virus A est responsable de pandémies. Très tôt au cours de la pandémie grippale de 2009, les femmes enceintes et les nourrissons sont apparus comme étant à très haut risque de complications et de décès en cas d’infection comme cela avait été observé au cours des pandémies grippales antérieures. Dès août 2009, une étude publiée dans The Lancet montrait que 10 % des formes graves étaient observées chez les femmes enceintes alors qu’elles représentent environ 1 % de la population (en France). La vaccination antigrippale H1N1 a donc été recommandée de façon prioritaire chez la femme enceinte.
L'équipe d'Odile Launay, directrice du centre d'investigation clinique en Vaccinologie Cochin Pasteur (Inserm/AP-HP/Institut Pasteur/Université Paris Descartes) a mis en place une étude vaccinale dont le but était de démontrer l’immunogénicité, c'est-à-dire la réponse en terme de production d’anticorps, après une injection unique du vaccin A (H1N1) administré sans adjuvant chez la femme au 2e et 3e trimestre de la grossesse et de mesurer le passage trans-placentaire des anticorps maternels chez le nouveau-né.
Dans cette étude, 107 femmes entre 22 et 32 semaines d’aménorrhée suivies dans 5 maternités en France, ont été vaccinées entre le 3 novembre et le 4 décembre 2009 par une injection unique du vaccin A H1N1 administré dans le bras. Des prélèvements sanguins ont été pratiqués pour mesurer le taux d'anticorps protégeant contre le virus de la grippe avant la vaccination, 3 et 6 semaines après la vaccination, à l’accouchement, 3 mois après l’accouchement. A l’accouchement un prélèvement du sang du cordon ombilical a permis de mesurer la quantité d'anticorps antigrippaux transmis au nouveau-né. Tous les événements observés chez la mère et chez l’enfant ont été recueillis pendant le suivi de l’étude.
Avant la vaccination, 19 % des patientes avaient déjà des anticorps dirigés contre le virus H1N1 à des taux considérés comme protecteurs. Trois et 6 semaines après la vaccination, 98 % des patientes avaient des anticorps à des taux considérés comme protecteurs. A l’accouchement et 3 mois après l’accouchement, la proportion des patientes ayant des anticorps à des taux considérés comme protecteurs étaient de 92 % et 90 %. Chez le nouveau-né (au sang de cordon), des anticorps à des taux considérés comme protecteurs étaient mesurés dans 95 % des cas avec des concentrations d’anticorps plus élevés que chez la mère (rapport de 1,4 entre les taux chez le nouveau-né et les taux chez la mère à l’accouchement).
"Ces résultats montrent que la vaccination antigrippale est immunogène chez la femme enceinte et permet également de protéger les nourrissons par les anticorps transmis à travers la placenta", conclut Odile Launay.
Cette étude mais aussi d’autres, portant sur un nombre plus important de femmes enceintes, ont confirmé l’absence de toxicité du vaccin antigrippal administré au cours de la grossesse. Cette année encore, la vaccination antigrippale est fortement recommandée chez la femme enceinte. La composition du vaccin contre la grippe est actualisée tous les ans en fonction des souches virales qui ont circulé majoritairement durant l’hiver précédent et qui sont susceptibles d’être présentes lors de l’hiver suivant. "Le virus grippal H1N1 2009 est toujours circulant, c'est pourquoi le virus vaccinal H1N1 inactivé est intégré dans la vaccination antigrippale saisonnière actuelle. Il est donc vivement recommandé de vacciner les femmes enceintes pour les protéger et protéger leur enfant pour lequel le vaccin ne peut être administré qu’à partir de l’âge de 6 mois" explique Odile Launay.
INSERM
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Le plus ancien bracelet en obsidienne, datant du Néolithique, a été retrouvé lors de fouilles en Turquie, révélant un artisanat hautement technique, rivalisant avec les méthodes actuelles de polissage ! Grâce à l'analyse multiéchelle de topographie de surface, adaptée aux objets archéologiques, les chercheurs ont pu étudier toutes les opérations effectuées sur cet objet unique.
Des chercheurs de l'Institut français d'études anatoliennes d'Istanbul (IFEA, CNRS/MAEE) et du Laboratoire de tribologie et de dynamiques des systèmes (LTDS, CNRS/école centrale de Lyon/école nationale d'ingénieurs de Saint-Étienne) ont analysé le plus ancien bracelet en obsidienne (du verre volcanique riche en silice) recensé à ce jour, découvert dans les années 1990 sur le site turc d'A??kl? Höyük. En étudiant la surface de l'anneau et ses microreliefs avec des méthodes high-tech développées par le LTDS, les chercheurs ont révélé l'étonnante technicité des artisans du VIIIe millénaire avant J.-C. Une maîtrise impressionnante pour la Préhistoire récente, digne de nos techniques de polissage actuelles. Ces travaux publiés dans le Journal of Archaeological Science de décembre 2011 éclairent les sociétés du Néolithique, des communautés encore très énigmatiques.
Le bracelet en obsidienne étudié, daté de 7.500 avant J.-C., est unique. Il s'agit du premier témoin d'un artisanat de l'obsidienne qui n'a connu son essor que plus tard aux VIIe et VIe millénaires av. J.-C., un artisanat qui a par ailleurs produit toutes sortes d'objets de prestige et notamment des vaisselles et des miroirs. Présentant une forme complexe et un épaulement central singulier, il mesure 10 cm de diamètre et 3,3 cm de large. Découvert en 1995 sur le site exceptionnel d'A??kl? Höyük en Turquie et exposé depuis au Musée archéologique d'Aksaray.
- La haute technologie moderne pour étudier la hi-tech néolithique
Laurence Astruc, chercheuse CNRS à l'Institut français d'études anatoliennes d'Istanbul, et ses collègues l'ont analysé avec des technologies informatiques très puissantes développées par Hassan Zahouani (Enise) et Roberto Vargiolu (ECL), chercheurs au LTDS (CNRS/école centrale de Lyon/école nationale d'ingénieurs de Saint-Étienne). Mises au point pour l'industrie afin de caractériser les « effets peau d'orange » sur les tôles de voitures peintes, ces méthodes dites d'analyse multiéchelle de topographie de surface ont été adaptées à l'étude des microreliefs sur les objets archéologiques. Avec un but : déterminer toutes les opérations réalisées sur leur surface.
Appliquées au bracelet, ces méthodes ont révélé que l'objet avait été produit dans le cadre d'un artisanat ultraspécialisé. Les analyses réalisées ont montré une régularité presque parfaite du bracelet. La symétrie de l'épaulement central est extrêmement précise, au degré et à la centaine de micromètres près. Ce qui laisse penser que les artisans de l'époque ont utilisé des patrons pour contrôler sa forme lors de sa fabrication. La finition de la surface du bracelet – très régulière, à l'aspect de miroir – a nécessité des techniques de polissage complexes permettant des qualités de poli à l'échelle du nanomètre, dignes de celles de nos lentilles de télescope.
Réalisés en collaboration avec l'université d'Istanbul sous la direction de Laurence Astruc, ces travaux ont été financés par l'Agence nationale de la recherche dans le cadre du programme « Obsidiennes, pratiques techniques et usages en Anatolie » (ANR 08-Blanc-0318). Dans ce programme, le bracelet d'A??kl? Höyük est le premier objet à être étudié parmi une soixantaine d'autres polis en obsidienne.
En collaboration avec l'université de Manchester et avec le British Museum, l'équipe de Laurence Astruc analyse désormais des objets de prestige découverts sur les sites Halaf de Domuztepe en Anatolie centro-orientale et d'Arpachiyyah en Irak.
Futura Sciences
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le constructeur de poids lourds a mené une réflexion sur ce à quoi ressemblera le transport urbain de marchandises en 2030 ou 2040. Le résultat s’appelle Connect, un Concept-Truck qui présente une architecture novatrice, une motorisation électrique et une connexion permanente aux réseaux d’information.
Renault Trucks vient de lever un coin du voile sur sa vision du camion urbain idéal pour le futur, en présentant le concept Connect, sous la forme d’une maquette à l’échelle 1/25e. Celui-ci propose différentes pistes de réflexion pour concevoir le véhicule urbain du futur. Il projette aussi dans l’avenir la philosophie du constructeur : mettre le bon camion, avec la bonne énergie, au bon endroit et au bon moment.
Pour ce concept, le choix de la propulsion électrique s’imposait. D’une part, parce qu’en 2040, l’accès aux centres-villes sera certainement réservé aux véhicules non-polluants et silencieux, d’autre part parce que cette technologie offre de nouveaux horizons dans l’architecture d’un véhicule de transport.
- Une architecture revue et corrigée
Grâce à la présence de moteurs électriques dans les roues avant et au logement des batteries dans le châssis, le plancher de Connect est parfaitement plat. Cette caractéristique permet d’obtenir un seuil d’accès au niveau du trottoir et rend les chargement et déchargement, par l’arrière comme sur les côtés, plus sûrs et moins fatigants pour le livreur.
Pour encore faciliter ses déplacements, le siège du chauffeur a été placé en position centrale. Ce dernier peut alors descendre et monter indifféremment par la gauche ou par la droite. Il peut même accéder, de sa cabine, directement à sa marchandise et limiter donc ses montées et descentes.
La position centrale offre au chauffeur un champ de vision très large, aussi bien de face que sur les côtés. Elle renforce donc la sécurité à la fois pour le chauffeur et pour les autres usagers, les piétons particulièrement. La rétro vision arrière est assurée par un écran sur le tableau de bord, via des caméras situées à l’arrière du véhicule.
L’appellation Connect n’a pas été choisie au hasard. Elle fait bien évidemment référence à la possibilité de le connecter pour le recharger, mais également à la télématique embarquée. Déjà présente sur les camions Renault Trucks actuels avec notamment Optifleet ou encore les applications Renault Trucks pour smartphones (le navigateur spécial poids lourds NavTruck, le cahier de conduite virtuel Time Book…), elle va prendre de plus en plus d’importance dans le futur. Elle sera indispensable et omniprésente pour renseigner le conducteur sur l’état du trafic par exemple, le niveau d’autonomie de son véhicule ou la borne de recharge la plus proche.
S’il préfigure plutôt les camions d’après-demain que ceux de demain, Connect n’est en rien une utopie. Sa conception s’inscrit dans une réflexion globale de Renault Trucks sur le transport urbain de marchandises et les solutions qu’il propose sont fondées sur des éléments qui, à terme, pourraient être réalisés au niveau industriel. La mise en œuvre de ces solutions sur une maquette est la première étape pour les tester et les étudier de manière plus concrète. D’autres solutions, d’autres ‘‘Concept Trucks’’ viendront enrichir cette réflexion et nourriront au final les futurs modèles commercialisés par Renault Trucks.
Industries & Technologies
|
|
|
|
|
|
|
|
Connecter une caméra installée à un feu rouge à un système d'évaluation de la vitesse d'une voiture approchante permettrait de savoir si cette dernière compte s'arrêter et, dans le cas contraire, d'en avertir les véhicules alentour.
Pour prévenir une partie des accidents sur route, il serait possible de prévoir et d'informer les automobilistes sur les risques qu'un conducteur tiers ne respecte pas un feu rouge, affirme une équipe du MIT. Elle a mis au point un algorithme capable de prévoir à l'avance si oui ou non un automobiliste risque de franchir le feu alors que celui-ci interdit le passage. Concrètement, une caméra est placée au niveau du feu tricolore. Lorsqu'une voiture approche, le logiciel intégré à la caméra en question détermine à la fois sa vitesse et la distance à laquelle elle se trouve. A partir de ces deux données, il calcule ensuite la distance d'arrêt nécessaire au véhicule. Si celle-ci est supérieure à la distance restante, et que le feu est rouge, alors le logiciel en déduit que la voiture en question ne compte pas s'arrêter.
- Un dispositif utile si mis en réseau
Pour les chercheurs, le système pourrait prendre tout son sens, à condition de parvenir à mettre au point des voitures capables d'interagir avec leur environnement. En l'occurrence, il serait nécessaire de fournir à un véhicule tiers le moyen d'obtenir l'information collectée par la caméra, puis de le communiquer au conducteur. Par exemple, si le conducteur en question provient d'une route perpendiculaire à celle où le feu est rouge (le sien est donc au vert), le logiciel serait capable de le prévenir en cas de risque. Cela, afin de lui permettre de ralentir par avance, d'anticiper la situation.
- Un outil qui se doit d'être précis pour être utilisable
Pour les chercheurs, la difficulté réside en fait à trouver l'équilibre entre un dispositif trop laxiste, et donc peu sécurisé, et trop "pessimiste". Comme l'expliquent les chercheurs, "si l'outil commence à signaler des problèmes là où il n'y a finalement aucun risque, alors très rapidement, les conducteurs préfèreront désactiver l'outil". Testé sur un panel de 15000 voitures, l'algorithme a montré une capacité à prévoir avec 85 % d'exactitude l'attitude du véhicule en approche, soit d'après les chercheurs "une amélioration de 15 à 20 % par rapport aux algorithmes existants".
L'Atelier
|
|
|
|
|
|
|
|
Le service de voitures électriques en libre-service, inspiré du fameux Vélib', est accessible au public depuis le 5 décembre. Ce service, qui constitue une nouvelle offre de déplacement, a été inauguré en grande pompe le 5 décembre par le maire de Paris, Bertrand Delanoë -c'est un projet phare de sa mandature- et par Vincent Bolloré, dont le groupe a conçu le véhicule.
Après une phase de test qui a débuté le 2 octobre, le lancement grandeur nature d'Autolib' sera, selon le maire PS de la capitale, « une révolution » qui améliorera « la qualité de vie » dans Paris et sa métropole. La philosophie du projet ? Inciter Parisiens, Franciliens et touristes, à renoncer à leur voiture personnelle en mettant à leur disposition une flotte de véhicules disponibles, peu chers et écolos, pour un usage ponctuel. Objectif de la Ville de Paris, décongestionner le trafic. Selon une étude municipale, une voiture de ce type peut se substituer à 5 voitures privées.
Les 250 Bluecars couleur « aluminium brossé » de Bolloré vont desservir, silencieusement, 46 communes d'Ile-de-France dont Paris. Selon Annick Lepetit, adjointe PS chargée des transports et présidente du syndicat mixte « Autolib », les 250 premières voitures sont réparties dans 250 stations, dont 180 dans Paris intra muros. Parmi les premières communes de Première couronne à lancer Autolib' figurent Malakoff, Montrouge, Issy-les-Moulineaux, Saint-Ouen, Pantin, etc.. Chaque mois jusqu'en mai 2012 , de nouvelles voitures seront installées pour atteindre 3.000 voitures et 1.200 stations.
Concrètement, l'utilisateur pourra ainsi, comme avec le « Vélib », prendre une voiture dans une station A et la déposer dans une station B à l'issue de son trajet, selon un système de « trace directe ». Le tarif est appliqué à la demi-heure . « On peut prendre une Autolib' 24h d'affilée mais ce n'est pas le but.
Fabriquée en Italie avec Pininfarina, la « Bluecar » proposée par Autolib affiche une autonomie de 250 kilomètres pour un temps de recharge d'environ quatre heures. L'usage moyen devrait être inférieur à 1 heure. Les formules tarifaires proposées encouragent d'ailleurs les déplacements courts : au forfait (annuel à 144 euros, hebdomadaire à 15 euros ou quotidien à 10 euros) s'ajoutera le prix de la location à raison de cinq à sept euros la première demi-heure, quatre à six euros la deuxième, puis six à huit les suivantes.
Selon l'industriel breton, Autolib sera profitable à partir de 80.000 abonnés. Avec une contribution publique de 50.000 euros par station, l'investissement pour la Mairie de Paris s'élève à 35 millions d'euros. « Nous estimons qu'à partir de la septième année, ce sera rentable, et un groupe industriel comme le nôtre a l'habitude de n'avoir des rentabilités qu'au bout de six ou sept ans », a prévenu Vincent Bolloré, PDG du groupe. Autolib constitue aussi une vitrine pour les batteries Bolloré, fabriquées en Bretagne, à la veille de la grande bataille du véhicule électrique. Contrairement aux autres constructeurs qui ont choisi le lithium-ion, la Bluecar fonctionne avec une technologie radicalement différente : la batterie solide lithium-métal-polymères dérivée de l'expérience historique du groupe dans les condensateurs.
Les Echos
|
|
|
|
|
|
|
|
Pour améliorer l'autonomie des véhicules électriques, une idée est de leur envoyer de l'énergie alors qu'elles circulent sur l'autoroute. Cela, en utilisant un circuit électromagnétique.
Comment optimiser l'autonomie des voitures électriques ? En leur permettant de se recharger lorsqu'elles circulent sur l'autoroute, répond une équipe de chercheurs du Centre pour la Recherche Automobile de l'université de Stanford. Leur projet repose sur la mise en place d'un circuit de résonance, déjà expérimenté en 2007 par des scientifiques du MIT qui avaient réussi par ce biais, à transférer de l'énergie, sans fil, entre deux objets stationnaires espacés de deux mètres. Ici, les ingénieurs californiens ont tenté de prolonger cette méthode avec des corps en mouvement. De petites bobines électromagnétiques seraient ainsi placées à l'intérieur de la route et agiraient comme des émetteurs, créant une sorte de petit champ de force. Ce dernier serait alors capté par des disques métalliques de même nature, faisant office de récepteurs, situés sous les véhicules et reliés à la batterie.
- Un ensemble de capteurs électromagnétiques
Programmés sur la même fréquence, ces deux ensembles d'éléments entreraient alors en résonance électromagnétique, transférant de l'énergie directement à la voiture. D'après leurs calculs, les chercheurs estiment que la puissance générée serait de l'ordre de 10 kW, transmise en 7 microsecondes, de la route à la voiture avec une efficacité de 97 %. Les éléments devraient donc être placés dans des parties de l'autoroute où les conducteurs ralentissent un peu, pour avoir le temps d'effectuer le transfert. Sachant que la consommation d'un véhicule électrique classique est d'environ 30 kW aux 100 km à l'heure actuelle, ce système ouvre de nouvelles perspectives.
- Une hausse du confort et des économies potentielles
"L'intérêt principal de cette résonance, c'est qu'un conducteur ne risquerait plus de se retrouver à l'arrêt sur l'autoroute avec aucun endroit où recharger sa voiture", explique Shanhui Fan, professeur associé en ingénierie électrique et co-auteur du rapport. "D'autre part, cela permettrait de réduire la taille des batteries et donc de diminuer le prix de ces véhicules". Sachant que la portée du champ magnétique est très faible et qu'il ne peut entrer en résonance que sur une fréquence bien particulière, le système ne devrait pas provoquer d'interférences avec d'autres instruments électroniques des voitures.
L'Atelier
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|