RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 654
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 31 Mai 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Pour affiner la localisation indoor, l'homme devient un capteur
Matière
Une anomalie de l'eau expliquée
Vers une baisse de 10 à 15 % de la consommation d'électricité grâce au compteur intelligent Linky
Le jeu s'installe résolument comme un pan de la stratégie marque employeur
Jouer avec les ondes pour rendre les objets invisibles
Bilan positif pour la recherche sur l'éolien en mer
Stockage de l'hydrogène sur hydrures de bore pour piles à combustible
Le graphène, bientôt détrôné par un nouveau matériau
Récupérer l'énergie des gaz d'échappement !
L'Inde, le pays où l'énergie solaire est compétitive
Nexcis, le photovoltaïque compétitif « made in France »
Des matériaux performants pour les électrodes de batteries lithium-ion
Espace
Rendez-vous orbital réussi entre Dragon et la station spatiale
Terre
Le Saguenay, royaume des terres rares ?
La consommation d’eau par les hommes ferait augmenter le niveau mondial des mers
Une étude indique que la réduction d'émissions de gaz à effet de serre est possible
Vivant
Les sciences cognitives confirment la dimension mimétique du désir
L'ADN pour lutter contre la pêche illégale
Alzheimer : vers une prévention précoce ?
Émotion et raison au cœur de la morale
L’autisme implique-t-il un trouble de la connectivité ?
Augmenter le taux de bon cholestérol ne réduit pas forcément les risques cardiovasculaires
L'huile de palme pourrait lutter contre le cancer
Trop de propreté nuit !
Le secret de la résistance cellulaire : plus de lipides à la membrane !
Protéger des effets indésirables de la chimiothérapie contre le cancer du cerveau
Cancer du col de l'utérus : expérimentation d'un dépistage par test urinaire
Un nouveau test pour le cancer de la prostate
Un bébé de 16 mois reçoit un tout petit cœur artificiel
Voir le vivant à l'échelle moléculaire !
Cancer mammaire : un vaccin associé au létrozole à l’essai chez la souris
Homme
La Bethléem biblique existe !
Recherche
Bientôt la fin des lecteurs CD dans les voitures
Des autoroutes intelligentes pour résorber les bouchons
Edito
La science va-t-elle vaincre le handicap ?



En juillet 2011, un Japonais de 49 ans, Seiji Ushida, paralysé depuis 27 ans à la suite d'un accident de moto, avait pu grimper en haut du Mont Saint-Michel et réaliser ainsi le rêve de sa vie grâce à un exosquelette de dernière génération, fabriqué par Cybery, le HLA ou "Hybrid Assistive Limb" (membre assisté hybride). Ce remarquable dispositif de seulement 23 kg possède trois heures d'autonomie et permet de démultiplier les efforts musculaires de son porteur grâce à un complexe ensemble de capteurs et de micro-moteurs.

Fin 2011, des scientifiques de l'université de Caroline du Nord ont expérimenté avec succès sur des singes, un implant qui leur a permis, après seulement quelques semaines d'apprentissage, de contrôler directement  par la pensée de manière très précise un bras virtuel.

Il y a quelques semaines, des chercheurs de l'Université de Chicago sont parvenus à restaurer, à l'aide d'une neuroprothèse directement connectée sur le cortex, 80 % de la mobilité des mains de plusieurs singes paralysés.

Le mois dernier un anglais de 42 ans, Andrew Glenie, paralysé depuis 19 ans, a expérimenté avec succès un exosquelette bionique qui lui permet de marcher. D'un coût de 120 000 euros, ces jambes robotisés sont constituées de capteurs et de micro-moteurs qui permettent la station debout et la marche pour les personnes paralysées des membres inférieurs.

Début mai, toujours en Grande-Bretagne, Claire Lomas, une anglaise de 32 ans, paralysée, a réussi à boucler pour la première fois, en 16 jours, le marathon de Londres à l'aide de jambes bioniques grâce auxquelles elle a pu rester debout et marcher pendant 42 kilomètres.

Il y a quelques jours, une équipe américaine dirigée par le Professeur Leigh Hochberg du Massachusetts General Hospital de Boston, a annoncé qu'elle avait testé avec succès, au terme de six ans de recherche, un dispositif robotisé directement commandé par la pensée. Ce bras robotique piloté à l'aide d'un micro-réseau d'électrodes implanté dans son cerveau, a permis à Cathy Hutchinson, tétraplégique depuis quatorze ans à la suite d'un accident vasculaire cérébral, de se saisir d'une tasse café puis de la porter à ses lèvres pour la boire !

Ce système d'assistance robotique aux personnes handicapées repose sur la fameuse interface homme-machine "BrainGate" qui récupère les signaux électriques produit par le cortex et les traduit en instructions numériques transmises au robot. Après un apprentissage rapide, Cathy Hutchinson est parvenue à réaliser de manière coordonnée les mouvements qu'elle souhaitait exécuter.

Pour le Professeur Leigh Hochberg, il ne s'agit que d'une étape et il se dit persuadé qu'il sera possible avant 10 ans de restaurer dans un grand nombre de cas la mobilité des personnes paralysées en connectant directement sur leur cerveau, via des interfaces adéquates, des neuroprothèses robotisées (Voir article de Nature).

Autre avancée impressionnante, après une journée complète d'intervention à l'hôpital John Radcliffe d'Oxford, début mai, Chris James, aveugle depuis 20 ans, a recouvré en partie la vue grâce à un œil bionique connecté à son nerf optique. Cet œil artificiel peut transmettre suffisamment d'informations au cerveau pour que celui-ci puisse reconstruire des formes et images simples. Ce dispositif comprend pour l'instant 1.500 diodes photosensibles et des microélectrodes pour transmettre l'information au cerveau. A terme, cet œil bionique pourrait rendre en partie la vue à plus de 25 000 britanniques atteints de rétinite pigmentaire, une maladie qui entraîne la destruction irréversible des cellules photo-réceptrices présentes au fond de l'œil.

De leur côté, des scientifiques de l'Université de Nouvelle-Galles du Sud (Australie) se préparent également à tester deux versions d'un œil bionique conçu pour les patients souffrant de certaines affections de la rétine. La première version intègrera une centaine d'électrodes et sera expérimentée l'an prochain. Elle devrait permettre aux personnes ayant la rétine endommagée de voir grossièrement les gros objets : bâtiments, voitures, arbres et de se déplacer de manière autonome. La deuxième version contiendra plus de 1 000 électrodes et aura pour but la lecture des gros caractères sur les affiches et la reconnaissance des silhouettes et des visages.

Parallèlement à ces avancées extraordinaires dans les domaines bioniques et robotiques, des chirurgiens américains de Saint Louis (Missouri), dirigés par Susan Mackinnon ont réussi une première mondiale en redonnant à un patient tétraplégique l'usage de ses mains. Pour parvenir à ce résultat, les chirurgiens ont interconnecté les nerfs de l'avant-bras du patient. Après une rééducation de huit mois, celui-ci a pu se remettre à écrire et à manger seul (Voir article). Ce résultat est d'autant plus surprenant que le patient a 71 ans et que, chez les patients âgés, la régénération cellulaire des tissus nerveux se fait généralement moins bien.

En août 2010, une autre équipe américaine dirigée par Oswald Steward (Université de Californie) avait réussi à régénérer des fibres nerveuses de la moelle épinière de rats en les restaurant, par l'inhibition d'une enzyme PTEN, impliquée dans le contrôle de la prolifération cellulaire et le mécanisme de régénération des cellules nerveuses.

Enfin, il faut rappeler les remarquables travaux d'Alain Privat et des chercheurs français de l’Inserm, du CNRS et de l’UPMC qui ont annoncé en juillet 2009 la découverte d'un mécanisme permettant, dans certaines conditions, de régénérer les connexions axonales entre neurones. Ce mécanisme utilise la thérapie génique et les ARN2 interférents pour bloquer le mécanisme cicatriciel des astrocytes qui empêche la repousse des axones. Cette nouvelle voie est considérée comme très prometteuse et devrait permettre à terme de réparer, au moins en partie, des lésions aujourd'hui encore incurables de la moelle épinière.

Ces avancées décisives à la fois dans le domaine de la recherche fondamentale en neurobiologie et dans les secteurs de la cybernétique, de la bionique et de la robotique devraient déboucher, d'ici une dizaine d'années, sur de nouveaux et puissants outils thérapeutiques combinant approches chirurgicales, neurobiologiques et neuroniques. Il deviendra alors possible d'améliorer considérablement l'autonomie des personnes lourdement handicapées, qu'il s'agisse d'un handicap moteur ou sensoriel, comme la cécité et même, dans certains cas, de restaurer les fonctions lésées par l'âge ou la maladie. On mesure mieux les enjeux de cette prise en charge et de cette réinsertion sociale quand on sait qu'il y a environ 30.000 personnes paraplégiques ou tétraplégiques en France mais près de trois millions de personnes lourdement handicapées par l'âge ou la maladie, selon l'Insee.

Mais cette médecine de pointe aura un coût important et il est nécessaire de réfléchir dès aujourd'hui aux réformes qui permettront à notre système de santé et de protection sociale de prendre en charge ces progrès, en tenant compte du gain collectif considérable qui résultera de la restauration de l'autonomie, et de la possibilité de reprendre un emploi et de retrouver un sentiment d'utilité dans la société pour des centaines de milliers de personnes. Souhaitons que notre pays, en pointe dans ces recherches, maintienne son excellence scientifique et technologique dans ce domaine si porteur d'espoirs pour chacun d'entre nous.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Pour affiner la localisation indoor, l'homme devient un capteur
Vendredi, 25/05/2012 - 05:30

Navatar, qui s'adresse aux personnes malvoyantes, identifie la position d'une personne via les capteurs de son téléphone. Pour préciser sa position, l'utilisateur peut indiquer les choses à sa proximité en les touchant.

Si les systèmes de localisation indoor se multiplient - en témoigne le dernier projet du Fraunhofer, qui a mis au point un module qui s'ajoute au téléphone - cela ne veut pas dire qu'ils soient accessibles à tous. Du coup, pour permettre aux malvoyants de profiter de systèmes de guidage en intérieur comme en extérieur, une équipe de l'université du Nevada a mis au point une solution qui combine capteurs et interaction homme-ordinateur. Baptisé Navatar, le système utilise les plans architecturaux en 2D, présents dans la plupart des bâtiments et les technologies basiques telles que l'accéléromètre ou le compas, présents sur une grande majorité de smartphone.

  • Un chemin adapté aux besoins de son utilisateur

Celle donne ainsi la possibilité de localiser, suivre l'utilisateur dans une galerie commerciale par exemple. Néanmoins, "les capteurs des smartphones qui servent à calculer le nombre de pas et l'orientation de l'utilisateur, ont tendance à capter de faux signaux", explique Eelke Folmer, chercheur de l'université. Ainsi il faut utiliser les facultés de repérage de la personne aveugle.

  • L'utilisateur devient un capteur

En effet, en plus de combiner un algorithme de probabilité à l'utilisation des capteurs, Navatar se sert de la capacité de détection de points de repères des personnes malvoyantes. Le smartphone guide l'utilisateur par la voix. Celui-ci interagit par le touché ou la voix pour indiquer la présence de repères telle qu'une intersection entre couloirs, une porte, un escalier ou encore un escalator. L'itinéraire s'adaptera en fonction des besoins spécifiques de l'utilisateur et en donnant des instructions pas-à-pas.

L'Atelier

^ Haut
Matière
Matière et Energie
Une anomalie de l'eau expliquée
Mercredi, 30/05/2012 - 01:20

Pour des températures inférieures à une centaine de kelvins, des effets quantiques contrôlent le volume qu'occupe en moyenne une molécule. Mais pour l'eau, ce volume présente une anomalie dont on vient de comprendre l'origine.

L'eau, sous forme de glace, a un comportement surprenant. À très basse température, lorsqu'on échange les atomes d'hydrogène par des isotopes plus lourds, la variation de volume est anormale : le cristal de glace devient plus grand. Une équipe dirigée par Maria Fernández-Serra de l'Université Stony Brook, aux États-Unis, a modélisé les phénomènes quantiques qui reproduisent ce comportement de l'eau.

Le volume occupé en moyenne par un atome (ou une molécule) est déterminé en mesurant les dimensions de l'échantillon de matière considéré et en divisant par le nombre d'atomes (ou de molécules) qu'il contient. Quand la température baisse, les atomes s'agitent moins et le volume effectif d'un atome diminue... jusqu'à une certaine limite due au principe d'incertitude de Heisenberg. Comme il n'est pas possible d'avoir simultanément une bonne précision sur la position et la vitesse d'une particule, un atome garde une certaine agitation même à la température du zéro absolu. Cette agitation donne le volume minimal occupé par l'atome.

Prenons le cas de l'atome de néon et comparons le volume de deux isotopes ayant respectivement 20 et 22 nucléons. Le néon 20, plus léger, est plus volumineux – de 0,6 pour cent. En effet, le principe de la dualité onde-corpuscule indique que plus un corpuscule est léger, plus les effets ondulatoires, ou quantiques, sont importants. Ainsi, l'agitation quantique est plus forte pour le néon 20 et son volume effectif est supérieur. La différence de taille entre les deux isotopes augmente quand la température baisse. On retrouve ce comportement dans de nombreux atomes et molécules, mais l'eau fait exception.

La molécule d'eau a une masse sensiblement égale à l'atome de néon. Que se passe-t-il si on échange un atome de la molécule par un isotope plus lourd ? Si on remplace l'atome d'oxygène 16 par l'oxygène 18, on retrouve le même comportement que pour le néon : la molécule ayant l'isotope le plus léger est la plus volumineuse. Mais si on remplace les atomes d'hydrogène par du deutérium – dont le noyau a un neutron en plus du proton –, on observe une anomalie : dans la glace, la molécule d'eau composée de deutérium est plus grosse de 0,1 pour cent à zéro kelvin et la différence croît quand la température augmente.

M. Fernández-Serra et ses collègues ont montré l'influence importante sur le volume moléculaire des liaisons covalentes entre les atomes d'oxygène et d'hydrogène ainsi que des liaisons hydrogène. Ces dernières lient faiblement un atome d'hydrogène d'une molécule d'eau à un atome d'oxygène d'une molécule voisine. Les deux types de liaisons ne sont pas indépendantes, elles sont anti-corrélées : si deux molécules d'eau se rapprochent, la liaison hydrogène se renforce et affaiblit la liaison covalente. Cela crée des modes de vibration au sein des molécules. En remplaçant les atomes d'hydrogène par du deutérium, on modifie ces modes de vibration.

L'équipe de M. Fernández-Serra a montré que l'agitation quantique des atomes et des liaisons hydrogène agissent simultanément sur le volume de la molécule. L'atome d'hydrogène, plus léger que l'atome de deutérium, a une agitation plus grande. La distance moyenne aux autres molécules est alors réduite, ce qui renforce la liaison hydrogène et tend à réduire la taille du cristal, donc le volume effectif occupé par chaque molécule. Les physiciens montrent ainsi que la molécule composée d'hydrogène a un volume effectif plus petit. Des observations par diffraction aux rayons X au synchrotron du Laboratoire américain de Brookhaven confirment que le modèle des physiciens reproduit bien le comportement de la glace d'eau à des températures extrêmement basses.

Pour La Science

Vers une baisse de 10 à 15 % de la consommation d'électricité grâce au compteur intelligent Linky
Mercredi, 30/05/2012 - 01:00

Si tous les Français, entreprises comprises, réussissaient à baisser de 10 à 15 % leur consommation d'électricité, cela ferait quelques tranches de centrales nucléaires de moins à utiliser ! C'est ce à quoi pourrait déboucher une expérimentation menée par ERDF, la filiale de transport d'électricité basse et moyenne tension d'EDF auprès d'un millier de locataires de l'Office HLM « Grand Lyon Habitat » .

Tel est du moins le résultat constaté lors des expériences de ce type déjà engagées à travers le monde. Et celui espéré par ses promoteurs qui se refusent néanmoins à se fixer des objectifs précis. Cette expérimentation inscrite dans le Plan Climat du Grand Lyon qui vient de débuter a été rendue possible par la pose, pour la première fois en France, de 170 000 compteurs intelligents Linky chez autant de foyers de la région lyonnaise.

Le premier avantage pour ERDF chargée de facturer la consommation d'électricité est d'abandonner le relevé des compteurs, ceux-ci communiquant directement leur consommation à un ordinateur central. Première conséquence donc : la facture des 170 000 foyers concernés n'est plus estimée, mais ajustée au centime près à la consommation effective.

Mais ERDF veut aller encore plus loin, en utilisant ces compteurs électriques communicants comme levier pour amener les familles à mieux réguler leur consommation. Et in fine à la diminuer. « C'est comme pour la consommation d'essence. Lorsqu'on sait précisément combien l'on consomme et le type de conduite l'on doit pratiquer pour moins consommer, on finit par diminuer sa facture », assure Didier Nadal, directeur d'ERDF Lyon-Métropole.

C'est ce que cette expérimentation veut prouver. Pour ce faire, un site Internet « Watt et moi.fr » a été créé, au sein duquel, chacun des mille foyers expérimentateurs a accès, de manière sécurisée bien sûr (grâce à un login et un mot de passe), à toute les données sur sa consommation électrique. Toute une batterie d'indicateurs lui permettent de connaître et de visualiser sa consommation, par jour, par mois, par saison. Le site leur permet également de se fixer un objectif mensuel de consommation d'électricité et d'en suivre l'évolution.

Les familles concernées vont-elles s'emparer de ces nouveaux outils pour gérer elles-mêmes au plus prêt leur consommation ? Tout l'enjeu est là. Un suivi par des spécialistes en sciences humaines et sociales sera mis en place pendant les deux années de cette expérimentation dans le but d'appréhender la manière dont les consommateurs vont se saisir de l'opportunité qui leur est offerte.

Une telle démarche nécessite, on le comprend, un minimum d'explications et de pédagogie. Ainsi, le site comporte des pages sur lesquelles « Grand Lyon Habitat » et ERDF émettent des conseils permettant aux locataires de mieux consommer pour économiser l'électricité au quotidien. En remplaçant par exemple leur ampoules à filaments par des fluo-comptactes basse consommation, etc.

De même, une dizaine de salariés en insertion de « Grand Lyon Habitat » vont devenir « éco-conseillers » et frapper à la porte des locataires concernés pour leur prodiguer des conseils. Une ligne directe avec un éco-conseiller sera également mise en place. L'enjeu de cette cinquième expérimentation en matière de smart-grids à Lyon apparaît suffisamment importante pour qu'elle soit suivie au niveau national par la CRE, la Commission de Régulation de l'Energie.

Le comité de suivi national de cette expérimentation comprendra les principaux acteurs concernés : des associations de consommateur, des fournisseurs d'électricité, des communes, des autorités concédantes, etc. Un pool similaire sera mis en place à Lyon. Premier retour d'expérience attendu : d'ici six mois. Il servira aux applications qui seront mises en place lors de la généralisation du compteur Linky au plan national. Il va falloir remplacer des dizaines de millions de vieux compteurs. La décision de principe a été prise au plan national. Reste au nouveau gouvernement à lancer le mouvement : un processus qui est destiné à s'étendre jusqu'en 2020..

Lyon Entreprises

Le jeu s'installe résolument comme un pan de la stratégie marque employeur
Mardi, 29/05/2012 - 01:40

Total propose à ses collaborateurs un jeu dont le but est de sensibiliser aux stratégies de la marque en matière de nouvelles énergies.

Pour mieux engager les collaborateurs et les informer le plus efficacement possible sur la stratégie de la marque, le jeu sérieux est de plus en plus exploré comme une piste fiable. Dernière initiative, remarquée à l'occasion de la quatrième édition du salon e-virtuoses qui se tenait à Valenciennes du 23 au 24 mai, celle de Total. Le groupe s'est rapproché de Paraschool pour mettre au point Genius Play the energy mix, un module basé sur la formation, et dont le but est d’expliquer aux collaborateurs pourquoi Total a décidé de développer d’autres énergies.

  • Fonctionnement du jeu

Dans le jeu, le joueur incarne le Ministre de l’énergie d’un pays fictif : GeniusLand. Il a pour rôle d’implanter différents types d’énergies (solaire, gaz, biomasse, pétrole). Il doit contrôler les émissions de CO2 et faire face à des contraintes énergétiques et budgétaires. Un processus plutôt classique, mais au but de sensibilisation en interne assez intéressant. "Son objectif est de permettre aux participants de se rendre compte par eux même des enjeux de la diversité énergétique", explique à L'Atelier, Patrick Gadat responsable commercial de Paraschool.

  • Outil de communication

Pour avoir le plus de chances d'être connu des collaborateurs, les fondateurs du projet l'ont intégré à toute une stratégie de communication interne : création d’une page dédiée sur l'intranet, diffusion d’un teaser, distribution de petits cadeaux, etc. "Déployé auprès de 100 000 collaborateurs, le jeu a ensuite été adapté pour les étudiants et proposé sur le site Internet" précise Blandine Ruty, Directrice Communication chez Total Gaz & Energies Nouvelles.

L'Atelier

Jouer avec les ondes pour rendre les objets invisibles
Mardi, 29/05/2012 - 01:10

Réunis au CNRS mercredi 23 mai, des spécialistes mondiaux des métamatériaux ont fait le point sur des recherches qui visent aussi bien sur la réalisation d’antennes miniaturisées, de digues anti-tsunami, des barrières antisismiques… que de "capes d’invisibilité".

Le domaine de recherche est jeune - une quinzaine d’années- mais il fait déjà dialoguer plusieurs générations. Dans l’amphi du CNRS où se tenait le colloque sur les métamatériaux, se sont ainsi succédés Sir John Pendry, théoricien de la physique des matériaux à l’Imperial College de Londres, "père fondateur" de ces recherches, et Sébastien Guenneau, jeune chargé de recherche du CNRS à l’Institut Fresnel (Marseille), qui multiplie les projets visant à élargir les applications des principes énoncés par son aîné.

Ce qui donne lieu à des rapprochements inhabituels, dans un colloque scientifique ultra spécialisé : pendant que Sir John, suivi par nombre de laboratoires, s’intéresse à la manipulation des ondes électromagnétiques (radars, télécommunications, optique…), le français, et d’autres équipes, parlent de systèmes antisismiques, de dispositifs anti-tsunami, ou encore de protections contre les vibrations…

Leur point commun ? La manipulation d’ondes. Car les métamatériaux, des matériaux dont les propriétés ne tiennent pas à leur composition chimique mais aux structures savamment calculées qu’ils comportent, savent modifier le parcours des ondes de manière inédite.

Leur application la plus spectaculaire : la "cape d’invisibilité". Une enveloppe de métamatériaux rend invisible l’objet qu’elle contient : la lumière, déviée progressivement, contourne l’objet et reconstitue son faisceau de l’autre côté. L’observateur n’y voit que du feu !  Le principe a été démontré, d’abord avec les microondes, et plus récemment, et avec plus de difficultés, dans le spectre visible.

"Travailler sur les capes d’invisibilité, c’est intéressant, et cela fait publier des articles. Mais il y a bien d’autres applications", soulignait John Pendry. Et de citer la réalisation récente d’une "cape" qui isole d’un champ magnétique (par un groupe d’Harvard). Les instruments qui, comme l’IRM, utilisent de forts champs magnétiques, pourraient être un terrain d’application.

A l’Institut d’électronique fondamentale (IEF) de l’université Paris-Sud, on étudie des composants de télécommunications qui s’inspirent des principes posés par John Pendry. Par exemple, pour réaliser des antennes bien plus petites pour les avions. Des prototypes ont été réalisés. "Nous avons montré que le concept fonctionne. Il reste à faire un travail d’ingénierie pour s’assurer que l’antenne garde bien toutes ses fonctionnalités", indique André deLustrac, qui dirige l’IEF.

Nicholas Fang, du MIT, a quant à lui, développé un matériau qui rend un objet invisible aux ultrasons dans l’eau. Intéressant, pour des navires qui veulent échapper aux sonars…

Le domaine des métamatériaux est évidemment prospectif, mais les chercheurs ne restent pas plongés dans leurs calculs. Sébastien Guenneau prolonge ses travaux théoriques ou de simulation par des expérimentations. Son système anti- vagues, après un premier essai en laboratoire, a été testé dans un canal à houle de 15 mètres. Quant au système anti-sismique, il doit être testé cette année avec une filiale de Vinci. Des colonnes de béton armé de différents diamètres, judicieusement réparties, sont enfouies dans un terrain de 5000 m2. L’onde "sismique" sera créée en laissant tomber une cloche de 30 tonnes sur le terrain. L’objectif est de mesurer comment l’onde est redirigée pour atténuer son effet sur les fondations d’un bâtiment.

Cette intense activité imaginative ne laisse pas de marbre le théoricien John Pendry. Au contraire, il  ne se prive pas de rêver, lui-aussi, aux multiples applications des métamatériaux. Le rêve de Sir John Pendry ? Introduire des métamatériaux dans les circuits électroniques ultra denses des ordinateurs, pour y diriger des faisceaux lumineux qui interconnecteront les puces sans le moindre risque d’interférences.

L'Usine Nouvelle

Bilan positif pour la recherche sur l'éolien en mer
Mardi, 29/05/2012 - 01:00

La plate-forme de recherche RAVE (Research at Alpha Ventus) a organisé une conférence internationale du 8 au 10 mai 2012 pour présenter un bilan de ses recherches menées depuis 2009. 300 participants issus de l'industrie et de centres de recherche français, belges, danois, espagnols, britanniques, norvégiens et allemands, se sont ainsi rendus à Bremerhaven (Basse-Saxe), chef-lieu de l'éolien off-shore allemand.

Le parc Alpha Ventus est un site test de l'énergie éolienne en mer du Nord, le premier parc allemand off-shore, inauguré en 2009. Soutenu par le Gouvernement fédéral et de grandes entreprises énergétiques allemandes (E-On, Vattenfall et RWE), le site éolien dans sa totalité a produit 270GWh en 2011, sa première année complète de fonctionnement, un chiffre largement supérieur aux attentes des exploitants. Autre chiffre notable, en 2011, le parc a affiché un taux de disponibilité de 97 % et plus de 4.400 heures de fonctionnement en base.

45 instituts et entreprises partenaires d'Alpha Ventus travaillent depuis trois ans dans 35 équipes de recherche distinctes pour un budget du Ministère fédéral de l'environnement (BMU) de 51,7 millions d'euro. Coordonnées par l'Institut Fraunhofer pour l'énergie éolienne et de génie des systèmes énergétiques (IWES) de Kassel (Hesse), ces équipes ont travaillé à des thématiques allant de la réduction des coûts aux impacts environnementaux, en passant par la dynamique des sédiments et l'acceptation du public.

Entres autres installations, les chercheurs de RAVE disposent de 1.200 capteurs disposés en mer et sur les côtes, qui délivrent en continu des informations sur l'état de fonctionnement des éoliennes, les câbles sous-marins et l'environnement. L'intégration de ces éoliennes au réseau national reste une thématique-clé de recherche. Les équipes consacrées à cette thématique travaillent notamment à l'amélioration des systèmes de prévision de puissance du vent, en particulier ceux permettant des ajustements précis à court terme.

Bulletins Electroniques

Stockage de l'hydrogène sur hydrures de bore pour piles à combustible
Lundi, 28/05/2012 - 01:30

"Bor4Store", un nouveau projet européen coordonné par le Centre Helmholtz de Geesthacht (HZG, Schleswig-Holstein) et financé par l'Initiative technologique conjointe sur l'hydrogène et les piles à combustibles (FCH JU), vise à développer des matériaux basés sur les hydrures de bore et capables de stocker de l'hydrogène. Les composés obtenus, constitués d'hydrogène et de bore, sont alors déversés sous forme de poudre dans un réservoir, alimentant à son tour une pile à combustible produisant de l'électricité ainsi que de la chaleur.

"Parmi l'ensemble des hydrures métalliques connus à ce jour, les hydrures de bore possèdent la plus grande capacité à stocker de l'hydrogène. Dans un réservoir de 50L, ce qui correspond à la quantité de carburant d'une voiture de taille moyenne, il est possible de stocker 5kg d'hydrogène grâce aux hydrures de bore. Cette quantité suffirait à accomplir une distance de 400 à 500km", explique Klaus Taube, coordinateur du projet au HZG. L'avantage de l'utilisation du bore réside dans sa possibilité de stockage de l'hydrogène à des pressions modérées, inférieures à 100bar, sans avoir recours à la liquéfaction.

Dans le cadre de "Bor4Store", un premier prototype de réservoir doit être développé et constituer un modèle pour l'approvisionnement en énergie d'une pile à combustible à oxyde solide (SOFC). L'interaction avec la SOFC doit être optimisée en collaboration avec des partenaires industriels. Les expériences se focaliseront sur différents types d'hydrures de bore ainsi que la caractérisation des réactions intervenant lors du remplissage et de la consommation du réservoir. A partir des résultats obtenus, des catalyseurs seront étudiés en vue d'obtenir des réactions rapides ainsi qu'une grande stabilité des propriétés de stockage lors des cycles de remplissage/consommation du réservoir. Les questions relatives aux coûts de fabrication des matériaux stockeurs de l'hydrogène constitueront également un axe essentiel des recherches.

Des chercheurs d'instituts implantés en Norvège, Danemark, Suisse, Italie, Grèce, une PME allemande et une PME tchèque ainsi qu'une grande entreprise espagnole participent également au projet "Bor4Store", officiellement lancé en avril 2012. "Bor4Store" est financé par l'initiative FCH JU à hauteur de 2,27 millions d'euros, dont 330.000 euros reviennent au Centre Helmholtz de Geesthacht.

Bulletins Electroniques

Le graphène, bientôt détrôné par un nouveau matériau
Lundi, 28/05/2012 - 01:10

Des chercheurs américains ont découvert qu’un mélange de bismuth et d’antimoine présentait des propriétés similaires à celle du graphène.

Des travaux menés au MIT parus dans Nano Letters révèlent qu’un film mince de bismuth-antimoine présenterait des similitudes, en termes de propriétés électroniques, avec le graphène. L’enjeu est de taille car le graphène, matériau récent, possède des propriétés exceptionnelles très convoitées en électronique : c’est un semi-conducteur de gap nul avec une mobilité électronique impressionnante ainsi qu’une capacité d’auto-refroidissement.

Seul problème, la fabrication du graphène est très coûteuse. Or, un film mince de bismuth-antimoine serait moins onéreux, tout en présentant les avantages du graphène. Avec un flux d’électron des dizaines de fois plus rapide que dans des puces de silicium, ces films minces pourraient donc trouver des applications dans les prochaines générations de puces électroniques, pour des générateurs thermoélectriques ou encore des refroidisseurs. Néanmoins, tous ces résultats sur les films bismuth-antimoine dérivent uniquement de simulations et de modélisations théoriques. Il est donc nécessaire de tester ces films en réel avant de valider officiellement leur potentiel.

Techniques de l'Ingénieur

MIT

Récupérer l'énergie des gaz d'échappement !
Dimanche, 27/05/2012 - 01:20

IFP Energies nouvelles (IFPEN) conduit actuellement des travaux de recherche sur le système Rankine pour récupérer la chaleur perdue dans les gaz d'échappement et la transformer en énergie mécanique ou électrique.

Même si les motorisations des véhicules ont accompli ces dernières années des progrès significatifs en matière de réduction de la consommation et d'émissions de CO2, l'amélioration de leur efficacité énergétique reste un enjeu important.

Des technologies existent afin de récupérer l'énergie calorifique du carburant perdue dans les gaz d'échappement et dans l'eau de refroidissement pour la transformer en énergie mécanique ou électrique. Parmi les technologies existantes de récupération de la chaleur des gaz d'échappement, IFPEN a choisi d'explorer le procédé thermodynamique Rankine qui apparait comme le plus mature pour un développement industriel à moyen terme.

Le système Rankine permet de transformer la chaleur via un échangeur dans lequel circule un fluide. Au contact des gaz d'échappement, le fluide se transforme en vapeur sous pression, laquelle va alimenter une turbine. La rotation de cette turbine produit alors de l'énergie mécanique. L'enjeu, pour une application automobile, est de développer un système performant et fiable, avec des matériaux et composants peu coûteux. Le contrôle commande est particulièrement délicat, la quantité de chaleur dégagée par les gaz d'échappement étant imprévisible et très variable. La miniaturisation de cet équipement constitue également un défi technique majeur.

IFPEN participe, dans ce cadre, au projet TIGRE, soutenu par le fonds démonstrateur de recherche de l'Ademe et piloté par Renault Trucks. TIGRE vise à mettre au point des technologies innovantes pour des poids lourds économes. Un système embarqué de récupération d'énergie, sur la base du procédé Rankine est en cours de développement. IFPEN est en charge des essais sur banc moteur et du développement du contrôle commande du système.

Avec une réduction potentielle de 10 % de la consommation de carburant, la technologie Rankine offre des perspectives intéressantes. Si elle peut être envisagée, dans un délai de 3 à 5 ans pour des flottes captives, l'adaptation à des véhicules particuliers sera opérationnelle à beaucoup plus long terme.

Enerzine

L'Inde, le pays où l'énergie solaire est compétitive
Dimanche, 27/05/2012 - 01:00

Le programme national instauré il y a deux ans porte ses fruits. L'électricité solaire ne revient pas plus cher que celle issue du charbon ou du gaz. Tous les grands groupes spécialisés dans le solaire se pressent pour profiter de ce nouveau marché, mais les conditions de financement restent délicates. Deux ans seulement après le lancement de son programme solaire national, "National Solar Mission" en janvier 2010, l'Inde apparaît comme l'un des marchés les plus prometteurs pour les prochaines années. Surtout à un moment où les marchés européen et américain, plus matures, sont ralentis par la baisse drastique des tarifs de rachat de l'électricité d'origine solaire.

En deux ans, les capacités installées ont bondi de 17,8 à plus de 500 mégawatts (MW). Certes, on est encore loin de l'objectif de 22 gigawatts (GW) fixé pour 2022 : 20 GW raccordés au réseau auxquels s'ajouteront 2 GW hors réseau, plus particulièrement destinés à l'alimentation des zones rurales qui ne sont pas équipées de réseau. Ce qui reste de toute façon insignifiant au regard des 830.126 gigawattheures (GWh) consommés chaque année par les quelque 1,19 milliard d'Indiens.

Plus impressionnante que les volumes installés, la baisse des prix augure d'un développement rapide du secteur. A 0,15 cents par kilowattheure, un plancher atteint plus rapidement que ne l'avait anticipé la majorité des experts, l'électricité solaire est compétitive avec celle issue du charbon (qui compose aujourd'hui 69 % du mix énergétique) ou du gaz naturel. Ce programme national s'est traduit pour de nombreux fournisseurs d'équipements solaires par une explosion de leurs exportations vers l'Inde. L'américain First Solar, leader mondial des panneaux à couches minces, a ainsi vu passer ses ventes de 10 à 100 MW entre 2010 et 2011. Le chinois Suntech a également vendu pour 100 MW de panneaux.

D'autres acteurs importants du marché mondial se sont installés en Inde ou ont conclu des accords avec des acteurs indiens. C'est le cas notamment du développeur allemand Juwi et du fabricant chinois de panneaux TrinaSolar. Tata Power, filiale du conglomérat national Tata, est également actif sur ce marché. A l'heure où la téléphonie mobile se déploie à toute vitesse sur le sous-continent, les antennes relais constituent à elles seules un marché potentiel de 2 GW. En plus du programme national, certains états ont lancé leur propre plan solaire. Le Gujarat, qui a également instauré des incitations il y a deux ans, s'est montré particulièrement dynamique, avec 600 MW de projets attribués au cours des douze derniers mois, dont 214 MW pour un seul parc, situé dans la région de Patan.

La Tribune

Nexcis, le photovoltaïque compétitif « made in France »
Samedi, 26/05/2012 - 01:00

Sur un secteur extrêmement concurrentiel, dominé par les coûts, comment relancer une filière française compétitive ? Spin-off de l’IRDEP (Institut de Recherche et Développement pour l’énergie Photovoltaïque), Nexcis fait le pari de cellules de technologie CIGSe2 (cuivre, Galium, Indium, Séléniure) au prix du silicium cristallin. Une stratégie qui pourrait bien s’avérer gagnante.

Pour Olivier Kerrec - fondateur et Directeur de Nexcis – l’important « c’est d’avoir un bon procédé de fabrication pour développer des produits robustes et pas chers. » D’où ce choix d’une technique d’électro-dépôt de cuivre, d’indium et de gallium, couplé à un four de recuit sous atmosphère de sélénium et souffre. Ces matériaux déposés et encapsulés sur du verre forment des modules standards CIGSe2 qui atteignent, en moyenne, 10,5 % de conversion (énergie solaire/énergie électrique) et parfois même jusqu’à 12,3 %. Le standard actuel sur le marché du photovoltaïque approchant 14 %.

« Le premier challenge est d’amener au niveau industriel ce matériau semi-conducteur CIGSe2 et prouver qu’il peut atteindre de hauts rendements de conversion » souligne ainsi Olivier Kerrec. Avec un avantage économique notable : le procédé de fabrication éléctro-dépôt et four coûte bien moins cher que le procédé de co-évaporation des mêmes matériaux, sous vide, préféré par ses concurrents. De quoi expliquer, la présence aux-côtés de Nexcis d’industriels comme Solar Frontier (Japon) et St Gobain-Avancis (France).

En service depuis 2011 (dans d’anciens locaux de ST Microelectronics), la ligne de fabrication-pilote de Nexcis a déjà démontré qu’il est tout à fait possible de fabriquer une cellule CIGSe2 de qualité - homogène, avec de bons rendements de conversion, sur de grandes surfaces - via des procédés low cost. C’est-à-dire des dispositifs offrant une capacité de production très élevée malgré des investissements limités. « Aujourd’hui, nous sommes de plus en plus confiants dans notre capacité de créer une rupture de coûts de production qui permette d’être compétitif par rapport à la concurrence actuelle, qui tourne autour d’un coût de production de 0,5 et 0,7 €/Watt. »

Soutenue par Oséo et l’Ademe, la politique de Recherche & Développement menée par la start-up devrait bientôt prendre un nouveau tournant. « Jusqu’ici, la bataille a été une bataille technique pour atteindre nos objectifs de performance. À présent, tout en poursuivant nos efforts techniques, le challenge est aussi d’ordre financier car nous devons lever les capitaux nécessaires au lancement du pilote de production industrielle et faire de cette réussite technologique une réussite commerciale. » Pour relever ce défi, Nexcis pourra s’appuyer sur l’expérience et les conseils de ses actionnaires IBM et EDF.

Cleantech

Des matériaux performants pour les électrodes de batteries lithium-ion
Vendredi, 25/05/2012 - 05:20

Le Centre de recherche sur l'énergie solaire et l'hydrogène (ZSW) du Bade-Wurtemberg a développé deux nouveaux matériaux actifs pour la cathode et l'anode de batteries lithium-ion. Le ZSW présentera ces résultats sur son stand du salon Achema de Francfort-sur-le-Main, du 18 au 22 juin 2012.

Pour l'électrode positive, les chercheurs ont développé un phosphate de lithium-manganèse de structure lamellaire, dont le potentiel standard s'élève à 5V. Ce matériau présente une très bonne densité énergétique ainsi qu'une meilleure sécurité envers les matériaux conventionnels, plus particulièrement en cas de surcharge de la batterie. Chaque métal de transition peut céder plusieurs électrons, ouvrant la voie vers une meilleure capacité de stockage ainsi qu'une tension nominale plus élevée. Le phosphate de lithium et de manganèse a été conçu en collaboration avec des partenaires industriels.

Un oxyde de titane mésoporeux constitue le matériau de l'anode (électrode négative), ce qui confère à la batterie une capacité de recharge plus rapide ainsi qu'une haute résistance contre les basses températures jusqu'à -40°C. Entre outre, l'oxyde de titane est facilement disponible, non toxique et relativement peu coûteux à produire. Il a été développé en partenariat avec l'Université d'Ulm. Enfin, grâce aux équipements disponibles au ZSW, les chercheurs ont fabriqué et testé des cellules de batteries en utilisant ces nouveaux matériaux.

Bulletins Electroniques

^ Haut
Espace
Espace et Cosmologie
Rendez-vous orbital réussi entre Dragon et la station spatiale
Mercredi, 30/05/2012 - 01:30

SpaceX Dragon est le premier transporteur spatial privé lancé vers la station spatiale. Ce rendez-vous orbital ouvre une nouvelle ère. Mais la mission n'est pas terminée...

Pour la première fois aujourd’hui, un système de transport spatial conçu par une entreprise privée, SpaceX, a rejoint la station spatiale internationale. Jusqu’à présent, tous les véhicules spatiaux destinés à desservir l’ISS ont été mis au point par des agences spatiales gouvernementales –le privé n’étant que contractuel. La capsule Dragon et la fusée Falcon-9 qui l’a mise en orbite le mardi 22 mai, ont elles été entièrement conçues par la firme SpaceX fondée par Elon Musk –qui a fait fortune avec PayPal.

Ce premier vol de démonstration concrétise une nouvelle ère de collaboration avec le secteur spatial privé pour la Nasa. Une évolution amorcée il y a déjà plusieurs années.

La capsule Dragon a été attrapée par Canadarm2, le bras robotisé de la station spatiale. C'est l'astronaute américain Don Pettit (Nasa), assisté du spationaute Hollandais André Kuipers (ESA), qui a guidé le bras depuis la Coupole de l'ISS. «Houston, il semble que nous ayons attrapé un dragon par la queue» a lancé Don Pettit. La capsule, chargée de plus de 500 kg de matériel, a ensuite été arrimée à l’un des ports de la station (situé sur le module Harmony) afin que les six astronautes à bord de la station puissent ouvrir le sas, récupérer le matériel et remplir de nouveau Dragon pour son retour vers la Terre.

Le rendez-vous en orbite était l’un des moments clefs de cette mission test. Il n’a été concrétisé qu’après plusieurs heures de délicates manœuvres au cours desquelles Houston –le centre de contrôle de la Nasa- pouvait stopper le rendez-vous. Pas question de prendre le moindre risque pour la station spatiale et ses six habitants. La capsule a donc réalisé plusieurs tests d’approches et de retrait avant d’avoir le feu vert de la Nasa.

SpaceX-Dragon est équipée d’un système de télédétection par laser (LIDAR) pour mesurer sa distance avec la station spatiale. Un pulse de faisceau laser est envoyé vers la cible et le temps qu’il met à revenir permet de calculer très précisément les distances. Cependant les manœuvres ont pris du retard car les contrôleurs ont réalisé que le LIDAR captait une lumière renvoyée par le très brillant laboratoire Kibo de la station. Les ingénieurs de SpaceX ont rapidement réglé le problème et le rendez-vous a pu avoir lieu.

D'autres étapes importantes restent à franchir pour Dragon, notamment son retour dans le Pacifique sous son parachute.

Sciences et Avenir

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le Saguenay, royaume des terres rares ?
Jeudi, 31/05/2012 - 01:40

La société minière Iamgold affirme être assise sur le plus important gisement de terres rares du monde à l'extérieur de la Chine. Et ce gisement serait situé à Saint-Honoré, juste au nord de Chicoutimi, à quelques centaines de mètres de la mine de niobium en exploitation depuis 35 ans.

En entrevue avec La Presse Affaires, le président et chef de la direction d'Iamgold, Steve Letwin, débordait d'enthousiasme en parlant de ce «gisement massif, monstrueux» et récemment mis au jour. Il a souligné la proximité de la mine de niobium et du port de Saguenay, l'hydroélectricité à bas prix (4,5 cents le kilowattheure), et la présence d'un bassin de main-d'oeuvre de 160 000 personnes.

«Il n'y a pas un autre endroit sur la surface de la Terre qui ressemble à ça, je peux vous le dire, un endroit où vous avez le deuxième gisement de niobium en importance, et potentiellement le plus important gisement de terres rares, situés à moins d'un kilomètre l'un de l'autre, entourés par des infrastructures comme cela.»

M. Letwin soutient que le procédé d'extraction des terres rares est similaire à celui du niobium et qu'il sera aisé d'adapter les installations actuelles pour la production de terres rares.

Le projet est encore jeune, il faut le préciser. L'évaluation économique préliminaire, qui permettra d'évaluer l'étendue des revenus que pourrait générer une exploitation, sera dévoilée au troisième trimestre. Iamgold entend construire d'ici là une galerie d'exploration de 1300 mètres qui permettra d'atteindre le gisement de terres rares à partir de la mine de niobium. Il est encore trop tôt aussi pour savoir quand pourrait démarrer la mine, et s'il serait question d'une mine à ciel ouvert ou en souterrain. Les tests de métallurgie, clef dans l'exploitation des terres rares, ne sont pas encore terminés.

Il reste que les données du premier calcul de ressources font rêver Iamgold. La société estime que la zone ciblée à Saint-Honoré contient 467 millions de tonnes de minerai à des teneurs de 1,65 %, pour 7,7 millions de tonnes d'oxydes de terres rares. C'est davantage de terres rares que l'addition de trois autres des plus importants projets de terres rares au Québec. Il s'agit de terres rares légères, dont du cérium, du lanthane, mais surtout du néodyme, largement utilisé dans la fabrication d'aimants de toutes sortes.

  • 1 milliard pour l'expansion de Niobec

Iamgold a déjà annoncé un investissement de près de 1 milliard pour l'expansion de sa mine Niobec (auparavant détenue par Cambior), l'une des trois seules mines de niobium de la planète. Ce projet permettra de tripler la production annuelle en privilégiant une méthode d'extraction à fort tonnage, mais toujours en souterrain.

Cela permettra une durée de vie d'au moins 46 ans pour Niobec. Le nombre d'employés passera de 440 à près de 600. Selon Steve Letwin, Québec retirera environ 74 millions par année en taxes et redevances, tandis que les retombées économiques s'élèveront à 16 milliards. Pour Iamgold, le projet permettrait de générer des flux de trésorerie de 300 millions par année, et la construction d'une nouvelle usine permettra de libérer l'ancienne pour y traiter éventuellement les terres rares. Or, un investissement initial de 1 milliard, c'est beaucoup pour une société dont la capitalisation est maintenant sous les 4 milliards.

«Nous pouvons financer le projet nous-mêmes, mais ce n'est pas notre premier choix», explique Steve Letwin. Iamgold aimerait gagner l'appui d'un partenaire stratégique, fort probablement un utilisateur de niobium, qui sert à la fois à renforcer et à alléger l'acier. Selon M. Letwin, des sociétés chinoises, allemandes et américaines auraient démontré un certain intérêt. Il y a fort à parier qu'un partenaire stratégique sera aussi de mise pour les terres rares.

  • Caisse de dépôt et Investissement Québec

Iamgold tente aussi d'intéresser les sociétés d'État québécoises à ses projets. M. Letwin et d'autres membres de la direction étaient à Montréal la semaine dernière pour présenter leurs projets à la Caisse de dépôt et placement et à Investissement Québec. Il a été question du projet d'expansion de la mine de niobium et du lancement de la mine d'or Westwood en Abitibi (au premier trimestre 2013), mais aussi du potentiel de terres rares de Niobec. Les sociétés d'État pourraient soit investir directement dans le projet, soit offrir des plans de financement, soutient Steve Letwin.

Tous les autres actifs d'Iamgold sont des mines d'or. À plus long terme, Iamgold envisage d'essaimer ses activités de niobium et de terres rares pour en réaliser la pleine valeur.

«On aimerait garder cela dans la famille, garder le contrôle, mais peut-être créer une autre entité sur les marchés, confirme Steve Letwin. Nous pourrions avoir 55 % des actions, avoir un partenaire stratégique et lancer un appel public à l'épargne. Mais pour l'instant, les marchés ne sont pas propices à cela.»

La Presse.ca

La consommation d’eau par les hommes ferait augmenter le niveau mondial des mers
Jeudi, 31/05/2012 - 01:20

Le changement climatique, avec la fonte des calottes glaciaires et des glaciers qui lui est associée, est le suspect habituel lorsqu’il s’agit d’expliquer l’augmentation du niveau des mers au niveau mondial. Cependant, une nouvelle étude montre désormais que la consommation d’eau par les hommes a un impact majeur sur les changements enregistrés par le niveau des mers et cette relation a été largement sous-estimée.

Au cours de la dernière moitié du 20ème siècle, le niveau mondial des mers a augmenté d’environ 1,8 millimètre par an, d’après les données recueillies par les capteurs de marée. Cette augmentation provient à la fois du réchauffement des océans, qui entraîne une expansion de l’eau, mais aussi de la fonte des calottes glaciaires et des glaciers. Ces deux phénomènes contribuent à 1,1 millimètre d’augmentation par an, ce qui laisse 0,7 millimètres dont les scientifiques ne connaissaient pas l’origine.

Ce fossé a été considéré comme une pièce manquante du puzzle importante pour estimer les changements passés et actuels du niveau de la mer et pour prévoir les augmentations futures. Il semble désormais que les effets de la consommation d’eau par les hommes sur terre pourraient être à l’origine de ces 0,7 millimètres d’augmentation. Une équipe de chercheurs a indiqué dans une étude publiée dans le journal Nature Geoscience que les réserves d’eau terrestres pouvaient représenter 0,77 millimètres d’augmentation du niveau des mers par an, soit 42 % de l’augmentation observée entre 1961 et 2033.

De cette quantité, l’extraction de l’eau des nappes phréatiques pour l’irrigation et l’alimentation des maisons et pour un usage industriel, avec des écoulements vers les fleuves et les océans, représente la majeure partie de cette contribution. Taikan Oki, un hydrologue mondial à l’Université de Tokyo et auteur de l’étude, indique qu’il avait été « stupéfait » du fait que les estimations de son équipe en matière de consommation d’eau terrestre comblait parfaitement le déficit entre l’augmentation observée du niveau des mers et ce qui est attribué à l’expansion thermique de l’eau et  à la fonte des glaces.

« Je ne pensais pas que les réserves terrestres d’eau avaient un tel impact sur le niveau des mers » a déclaré Taikan Oki. « Je ne pensais pas que l’extraction par les hommes de l’eau des nappes phréatiques aurait une telle importance ». La diminution des réserves souterraines d’eau a plus que doublé ces dernières années en conséquence de la croissance de la population et de la demande accrue en eau potable et pour l’irrigation des terres agricoles. Une grande partie de l’eau puisée en profondeur dans les nappes n’est pas remplacée : elle s’évapore dans l’air ou s’écoule dans les fleuves et cours d’eau, alimentant les mers et les océans.

News Environnement

Une étude indique que la réduction d'émissions de gaz à effet de serre est possible
Lundi, 28/05/2012 - 01:40

Nous pouvons réduire les émissions de gaz à effet de serre d'environ 4,5 millions de tonnes chaque année si nous réalisons des changements nécessaires. Ces réductions devront être appliquées au logement, au transport de passagers et au secteur de l'alimentation entre maintenant et 2020. C'est ce qui ressort d'une nouvelle étude finlandaise qui a examiné si la possibilité de réduire les émissions de GES était réelle.

Des chercheurs de l'institut finlandais pour l'environnement (SKYE), du centre national de recherche sur le consommateur et de l'institut gouvernemental de recherche sur l'économie (VATT) expliquent que la plus grande réduction dans le secteur de l'habitation pourrait être déclenchée par des changements énergétiques. En effet, économiser le chauffage et l'électricité, ainsi qu'encourager les consommateurs à opter pour des appareils écologiques, font partie des moyens visant à réduire les émissions.

Pour ce qui est du transport de passagers, il existe deux méthodes pour réduire les émissions : repenser les impôts sur le carburant et les véhicules, et adopter le système de recharge pour véhicules électriques. Les chercheurs ont établi que, pour ce qui concerne les émissions associées au secteur alimentaire, une alimentation faible en carbone doit être introduite dans les services alimentaires des secteurs privés et publics. De même, réduire au maximum les gaspillages des aliments serait également important.

Les résultats sont importants, notamment car le gouvernement finlandais a établi des objectifs pour réduire les émissions de GES dans les années à venir.

Les données indiquent que les émissions totales de la Finlande s'élèvent à 70 millions de tonnes. Le logement, le transport de passagers et l'alimentation représentent pratiquement un tiers de ces émissions en équivalents de dioxyde de carbone (CO2). Selon les chercheurs, les émissions attribuables pour la Finlande et ailleurs s'élèvent à 35 millions de tonnes, en prenant en considération les cycles de vie complets et les émissions mondiales.

Leur étude met également en avant comment les instruments de politiques utilisés dans les politiques climatiques et centrées sur les ménages n'ont pas été créés pour ce domaine particulier, mais sont généralement utilisés dans d'autres domaines, dont la génération de recettes fiscales. De plus, ces instruments de politiques ne sont pas tous 100 % cohérents : les décisions sensées guider la consommation des citoyens ont été prises à différentes périodes et depuis différents points d'observation.

Dans leur étude, les chercheurs expliquent qu'il est essentiel pour les ministères et agences au niveau du gouvernement central d'encourager les liens et d'établir des cibles de réduction d'émission en faveur de programmes de politiques.

Par exemple, l'équipe a identifié le rapport entre le logement et le transport de passagers. Selon les chercheurs, les taux d'émissions sont influencés par les choix des consommateurs concernant leurs domiciles ou lieux de travail et sur les choix concernant la dépense et l'utilisation énergétique.

En ce qui concerne la réduction des émissions découlant du logement, les chercheurs disent qu'il est possible de réduire les émissions de 1,3 million de tonnes si nous modifions le système de chauffage et procédons à des rénovations énergétiques. Vivre une vie plus écologique entraînerait une diminution de 0,36 million de tonnes d'émissions issues du chauffage et de l'électricité. 0,34 million de tonnes supplémentaires pourraient être supprimées si les consommateurs privilégiaient les appareils économiques.

Plus de 2,1 millions de tonnes de CO2 pourraient être supprimées du secteur des transports si la marche à pied et le vélo étaient privilégiés pour les déplacements de courte distance.

Cordis

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les sciences cognitives confirment la dimension mimétique du désir
Jeudi, 31/05/2012 - 01:30

Pourquoi les enfants désirent-ils tous le même jouet quand il en existe d’autres tout aussi attractifs, voire identiques dans la pièce ? Ce phénomène, connu de longue date, s’appelle en fait le désir mimétique. Il a été initialement décrit par un philosophe français nommé René Girard dans les années 1960. L’objet n’est pas voulu seulement pour ses qualités intrinsèques, ses performances, son utilité, sa physionomie, mais parce qu’il est convoité par d’autres. Il s’agit en quelque sorte d’une contagion motivationnelle d’un individu à l’autre pour l’obtenir. Plus les gens s’intéressent à lui, plus il devient désirable.

Des chercheurs de l’Inserm ont souhaité décrypter les mécanismes cérébraux à l’origine de ce phénomène. Pour cela, ils ont étudié les comportements et l’activité cérébrale de 116 adultes âgés de 18 à 39 ans. Ils les ont installés dans des appareils d’IRM et ont diffusé des dizaines de petites vidéos présentant des objets différents, vêtements, accessoires, aliments, etc, convoités ou non. Par exemple, une part de gâteau montrée du doigt par un acteur alléché et la même part de gâteau délaissée sur une table dans une autre vidéo. A chaque fois, le sujet devait indiquer une "note de désirabilité" allant de 1 à 10 pour l’objet en question. Les résultats montrent que les objets convoités par d’autres, obtiennent de meilleures notes que ceux auxquels personne ne s’intéresse.

Grâce à l’imagerie par résonance magnétique (IRM), les chercheurs ont observé en parallèle l’activité cérébrale des sujets soumis à ces tests. Ils ont constaté deux phénomènes déjà connus. Le premier est l’activation d’une zone appelée système des neurones miroirs quand un sujet observe une action. « Cette région s’active dès qu’un individu fait un geste ou voit quelqu’un d’autre l’effectuer. Cela permet de comprendre l’action d’autrui », explique Mathias Pessiglione (Inserm U975), coauteur des travaux. Le second est l’activation d’une autre zone appelée système cérébral des valeurs si ce même sujet observe un objet séduisant.

Mais les auteurs ont constaté un troisième phénomène. Celui-là nouveau. Quand un participant observe un acteur voulant se procurer quelque chose, l’allumage du système des neurones miroirs stimule le système cérébral des valeurs. Par conséquent, la valeur accordée à l’objet augmente et le désir de l’obtenir également. « Le fait d’observer un individu voulant se procurer un objet augmente son propre désir pour cet objet », résume Mathias Pessiglione.

Ces travaux montrent bien que le désir est contagieux et à l’origine d’un mécanisme cérébral. « A ce titre, un dysfonctionnement des zones impliquées pourraient expliquer certains problèmes de sociabilité, par exemple chez des enfants autistes qui n’accordent pas la même valeur aux objets que les autres ou ne s’intéressent pas aux mêmes choses. Mais cela reste à démontrer », illustre Mathias Pessiglione.

Inserm

L'ADN pour lutter contre la pêche illégale
Jeudi, 31/05/2012 - 01:10

La pêche illicite ou non déclarée, qui représente jusqu'à un quart des prises, joue un rôle important dans la surexploitation des stocks de poissons mondiaux. Des certificats de capture précisant l'espèce et la région d'origine sont désormais exigés pour les poissons et produits dérivés commercialisés au sein de l'UE. Mais il manque encore les moyens de contrôler de façon indépendante ces certificats. "Dans certaines circonstances, en particulier pour les poissons transformés ou cuits, il peut être très difficile d'identifier les espèces, et encore davantage leur origine", a souligné un des chercheurs, le Professeur Gary Carvalho (Université de Bangor, Royaume-Uni), coordinateur du projet FishPopTrace.

L'équipe internationale de scientifiques a développé des outils d'analyse ADN (SNP ou polymorphisme mononucléotidique), utilisables pour tracer l'origine du poisson tout au long de son parcours, "du filet de pêche à l'assiette". Les chercheurs ont montré l'efficacité de leur méthode sur quatre espèces commerciales européennes, la morue de l'Atltantique, le hareng de l'Atlantique, la sole commune et le merlu européen, toutes menacées par la surpêche. Ils ont découvert que l'origine des poissons pouvait être attribuée correctement avec une fiabilité de 93 % à 100 %.

Selon les chercheurs, cette méthode peut être développée ultérieurement pour les autres espèces de poisson. Récemment, la coalition d'associations Ocean2012 a affirmé que les professionnels du marché de la pêche n'hésitaient pas à vendre des poissons de moindre qualité faussement étiquetés, pour faire face à l'épuisement des stocks du fait de la surpêche.

Selon cette alliance, 28 % des poissons vendus en Irlande sous l'appellation "morue" n'en sont pas. Il s'agit en réalité de lieu jaune, de lieu noir ou de merlan portant des étiquettes frauduleuses. En Espagne, un tiers des poissons vendus sous l'étiquette "merlu" sont en fait une variété de second rang pêchée dans les eaux africaines, selon des études menées par l'université espagnole d'Oviedo.

Orange

Fish Pop Trace

Alzheimer : vers une prévention précoce ?
Jeudi, 31/05/2012 - 01:00

Plus de 600 cliniciens, neurologues, ou gérontologues se sont  réunis à l’Hôtel-Dieu de Toulouse afin de mettre en commun leurs connaissances sur la maladie d’Alzheimer et les syndromes apparentés, et faire le point sur les dernières avancées de la recherche.

En quelques mois, les découvertes sur cette pathologie se sont accélérées et permettent de mieux comprendre son fonctionnement. C’est d’ailleurs ce qui a permis à certains chercheurs de mettre en évidence certains marqueurs de la maladie, capables de détecter précocement son arrivée. « Contrairement à ce qu’on pourrait croire, la maladie d’Alzheimer n’est pas une maladie de vieillard », explique Bruno Vellas, responsable du Gérontopôle de Toulouse Midi-Pyrénées. « En effet, les premières lésions apparaissent dès la quarantaine ou la cinquantaine. Les derniers travaux en matière de diagnostic permettent de déceler ces dernières trente ans avant l’apparition des premiers symptômes cliniques. »Les méthodes sont de plus en plus nombreuses pour identifier les patients « futurs Alzheimer », que ce soit par une analyse sanguine qui révèle la présence d’un composé spécifique à la maladie, ou par une étude approfondie d’images du cerveau obtenues par IRM.

C'est dans ce contexte qu'une étude allemande vient de montrer que des patients présentant des symptômes neuropsychiatriques résultant d'une démence vasculaire légère à modérée, de la maladie d'Alzheimer et bénéficiant d'un traitement par l'extrait spécial de ginkgo biloba EGb 761, avaient vu leur état s'améliorer au bout de 6 mois de traitement.

« Dans la pratique médicale quotidienne, nous observons que la plupart des patients atteints de démence souffrent de symptômes neuropsychiatriques », souligne le Professeur Herrschaft. « Nous avons spécifiquement étudié ce groupe de patients caractéristiques en condition contrôlée. « Le fait d'inclure à la fois des patients atteints de la maladie d'Alzheimer et des patients atteints de démence vasculaire, ainsi que de certaines formes mixtes de démence, présentait également un intérêt particulier pour la pratique médicale quotidienne.

En outre, dans la mesure du possible, des patients n'ayant pas reçu auparavant de traitement par des agents anti-démence ont été inclus dans l'étude. Le fait que nous ayons pu démontrer une amélioration des symptômes neuropsychiatriques avec le traitement par EGb 761® dans notre groupe d'étude a été important, non seulement pour le bien-être des patients mais également pour leurs proches. Ceux-ci éprouvent du soulagement, que nous avons pu également mettre en évidence par une amélioration significative de score NPI de détresse chez les aidants familiaux. »

Information Hospitalière

Émotion et raison au cœur de la morale
Mercredi, 30/05/2012 - 01:10

« À votre avis, est-il acceptable de lancer un missile sur un avion de ligne pour qu’il ne s’écrase pas sur un gratte-ciel en tuant des centaines d’innocents ? » Pour la majorité des personnes interrogées, la réponse à cette question, formulée de façon abstraite, est affirmative. En revanche, la réponse est plus souvent négative quand la question devient : « Lanceriez-vous le missile pour détruire l’avion ? » On a longtemps considéré que cette différence s’expliquait par le fait que la raison s’imposait (sauver le plus de vies) sur l’émotion (refuser de sacrifier les passagers) dans la première formulation, conduisant à une réponse utilitariste, et que l’inverse se produisait dans la seconde formulation.

En fait, la question n’est pas aussi simple, comme l’ont montré Sébastien Tassy et ses collègues de l’Institut des neurosciences cognitives de Marseille. Dans une expérience, ils ont soumis des participants à des dilemmes moraux de ce type et ont bloqué, au moyen d’un champ magnétique traversant la boîte crânienne, la zone de leur cerveau censée analyser les situations de façon rationnelle (une région nommée cortex préfrontal dorsolatéral). Ils ont constaté que les sujets continuaient à répondre plus souvent par l’affirmative à la première question, alors que l’on aurait attendu que la réponse émotionnelle (non) l’emporte. En revanche, l’inactivation de cette zone supposée rationnelle n’a pas modifié le type de réponses fournies à la seconde question.

Selon les auteurs de cette expérience, le cortex préfrontal dorsolatéral n’est pas purement rationnel ! Il traiterait des émotions secondaires lors de l’élaboration d’un jugement abstrait. Il ne s’agit pas de ressentis bruts, mais d’émotions reconstituées à partir de situations imaginées, de mots, de concepts. Le raisonnement intervient, mais il est fortement marqué par l’émotion. C’est pourquoi le fait d’inhiber cette zone cérébrale ne réduit pas la fréquence des jugements utilitaristes. En revanche, cela ne change pas la prise de décision personnelle, « en situation » (seconde question) qui fait intervenir des émotions dites primaires... Le jugement moral est une mosaïque d’émotions et de raisonnements que l’on commence à disséquer.

Pour La Science

L’autisme implique-t-il un trouble de la connectivité ?
Mercredi, 30/05/2012 - 01:00

Archives of General Psychiatry publie une étude britannique s’appuyant sur l’imagerie cérébrale par résonance magnétique pour confirmer le lien (déjà suspecté) entre des « modifications neuro-anatomiques » et les « troubles du spectre autistique » (troubles autistiques et apparentés).

Portant sur 89 patients avec autisme et 89 sujets-contrôles (de même âge moyen et de quotient intellectuel comparable), cette étude montre que les personnes avec autisme présentent « des différences dans l’anatomie et la connectivité du cerveau » associées à la présence de traits autistiques. Toutefois, ces différences neuro-anatomiques ne concernent pas le volume cérébral global qui ne diffère guère de façon statistiquement significative entre les témoins et les autistes. En revanche, les évaluations volumiques (voxel-based morphometry) entre ces deux populations révèlent que « les sujets autistes ont une augmentation significative du volume de matière grise dans la partie antérieure du lobe temporal et la partie dorso-latérale du cortex préfrontal (une région impliquée dans les processus cognitifs et les fonctions exécutives). On observe en outre une « corrélation entre ces modifications neuro-anatomiques et la sévérité des symptômes d’ordre autistique. »

L’analyse statistique des données (reposant notamment sur la méthode des moindres carrés) a identifié les structures où l’altération des réseaux neuronaux présente une « corrélation maximale » avec les troubles autistiques : cervelet, noyaux gris centraux (dits encore ganglions de la base), amygdale, lobule pariétal inférieur, cortex cingulaire, cortex médian, cortex orbitofrontal et régions latérales du cortex préfrontal. Quant à la substance blanche, on constate au contraire des « réductions diffuses » (spatially distributed) dans la population avec troubles autistiques. Au total, les auteurs considèrent les résultats de leur étude « compatibles avec l’hypothèse » envisageant l’autisme comme un « syndrome lié à une connectivité (cérébrale) atypique » (syndrome de dysconnection fonctionnelle)]. »

JIM

NCBI

Augmenter le taux de bon cholestérol ne réduit pas forcément les risques cardiovasculaires
Mardi, 29/05/2012 - 01:30

Depuis des années, le mauvais cholestérol, le LDL, était systématiquement opposé au bon cholestérol, HDL, ce dernier étant censé avoir un effet bénéfique sur le risque cardio-vasculaire… Mais une nouvelle étude publiée dans le Lancet lance un pavé dans la mare en concluant qu’un taux élevé de "bon" cholestérol ne réduirait pas les risques cardiovasculaires…

  • La prise en compte du "bon cholestérol" recommandée par les autorités de santé

Depuis des années, la communauté scientifique et médicale s’est appuyée sur le soi-disant rôle bénéfique du HDL cholestérol, le "bon", pour définir les stratégies de prise en charge des patients présentant des risques cardiovasculaires. Ainsi, en France, d’après les recommandations émises par l’Agence nationale de sécurité du médicament et des produits de santé (ANSM, anciennement Afssaps), "une concentration de HDL-cholestérol dans le sang supérieure ou égale à 0,60 g/l est considérée comme étant un facteur protecteur. Il convient alors de soustraire "un risque" au score de niveau de risque du patient".

En clair, un taux élevé de HDL cholestérol contrebalancerait les risques liés à un taux élevé de LDL. Dans le cadre de la prévention primaire (patient présentant des risques cardio-vasculaires) et secondaire (mise en place après un accident cardiovasculaire), l’un des objectifs est donc bien souvent d’augmenter le taux de ce "bon cholestérol"…

  • Une nouvelle étude qui remet en question ce postulat ?

Dans un premier temps, le Docteurr Sekar Kathiresan et de son équipe ont analysé le patrimoine génétique de plus de 170 000 personnes pour déterminer ceux qui exprimaient une version particulière d’un gène, LIPG Asn396Ser. En effet, la présence de cette version de gène se traduit par un taux élevé de HDL cholestérol. D'après le postulat actuellement en vigueur, ces personnes auraient dû avoir moins d’infarctus que la population générale. 

Mais en comparant le nombre d’attaques cardiaques chez les porteurs du gène "protecteur" par rapport aux autres, ils n’ont pas trouvé de différence significative...

Pour mieux comprendre ce paradoxe, les auteurs ont élargi leur étude à 14 autres gènes associés à la production d'HDL-cholestérol… Même résultat ! Au final, les 15 gènes testés connus pour augmenter le taux de "bon cholestérol" ne semblaient pas réduire le risque d’infarctus…

Pour les auteurs, "le concept d’une augmentation du taux plasmatique de HDL cholestérol qui va se traduire systématiquement par une réduction des risques cardiovasculaires" est donc remis en cause par ces résultats.

  • Des résultats à confirmer, infirmer ou à préciser

Cette étude demande bien sûr confirmation avant d'envisager de changer les recommandations et les pratiques médicales. Mais ce travail rappelle déjà que la physiologie du corps humain est très complexe : on sait désormais que l'environnement (stress, alimentation, exercice physique, etc.) influe sur l'expression des gènes, ces derniers comportent de multiples variants, il y a beaucoup de phénomènes d'auto-organisation spontanée qui contrebalancent tel ou tel facteur négatif, etc. 

Peut-être que seules certaines formes d'HDL sont protectrices ? Ou que certains facteurs environnementaux annulent, ou non, la protection ? A suivre avec les prochains travaux scientifiques que ne manqueront pas de réaliser les chercheurs intrigués par ce résultat....

Doctissimo

L'huile de palme pourrait lutter contre le cancer
Mardi, 29/05/2012 - 01:20

Selon Time Magazine, des scientifiques de Davos Life Science, un centre de recherche et de développement singapourien, vont se lancer à partir de juin dans des essais cliniques humains pour tester les effets bénéfiques de l’huile de palme sur des patients atteint d’un cancer. «La raison pour laquelle les essais cliniques sont en cours, c’est parce que les résultats préliminaires ont été prometteurs», indique Pramod Khosla, un professeur agrégé du département de nutrition de l’université Wayne State à Détroit.

A partir de juin, Davos Life Science se lancera dans un essai clinique humain sur des patients d’un hôpital de recherche à Kuala Lumpur à un stade avancé du cancer de la prostate. Au cours d’une phase initiale de six mois, on administrera à haute dose du tocotriénol, une molécule de la vitamine E issue de l’huile de palme. Bien que le composé puisse être trouvé à des niveaux faibles dans le riz, le son ou l’orge, l’huile de palme est la source la plus riche en tocotriénol, indique Pramod Khosla.

La récompense de ces essais pourrait être alors énorme : en utilisant une alimentation naturelle à base d’huile de palme, on pourrait prévenir ou traiter le cancer ainsi que les accidents vasculaires cérébraux. «L'avantage de composés alimentaires, c'est qu'ils sont naturels et sans danger», précise Arthur Ling, chef de la direction de Davos Life Science. «Ils peuvent faire partie de votre alimentation quotidienne», ajoute-t-il.

La plupart des recherches sur la promesse biomédicale de l’huile de palme se déroulent en Asie du Sud, où le produit est cultivé. Davos Life Science, qui est détenue par Kuala Lampur Kepong, est l’une des plus grandes sociétés de plantations de palmiers à huile en Malaisie. En 2009, le site PalmOilHQ soulignait déjà que ce centre de recherche avait découvert, avec la faculté de médecine Li Ka Shing de l’Université de Hong Kong, et le Centre de recherche australien sur le cancer de la prostate, que le fruit du palmier à huile était riche en tocotriénol. Des expériences in vitro aveint montré que ce composé naturel était plus puissant que le docétaxel, un médicament utilisé en chimiothérapie pour traiter le cancer du sein. Ils avaient ainsi découvert que le tocotriénol avait des effets anti-cancéreux qui permettaient de lutter contre les métastases. Et surtout qu'il n'avait pas les effets secondaires de la chimiothérapie qui attaque aussi les cellules saines.

D’autres études de laboratoires effectuées aux Etats-Unis, au Canada, et en Malaisie ont confirmé cette découverte, indique Pramod Khosla à Time Magazine.

Cependant, en raison de sa haute teneur en acides gras saturés après cuisson, cette huile massivement utilisée par l’industrie agro-alimentaire pour son faible coût est aussi fortement suspectée de favoriser les troubles cardio-vasculaires chez les populations occidentales. Selon le nutritionniste Raphaël Gruman, cité par Le Figaro, consommée sur le très long terme, elle provoquerait des dépôts de graisse dans les artères, qui grossissent, forment des caillots et favorisent les infarctus.

Slate

Trop de propreté nuit !
Lundi, 28/05/2012 - 01:20

Les mamans vont devoir revoir leurs principes d'éducation. L'exposition aux microbes dès la petite enfance est indispensable pour protéger les enfants mais aussi les adultes des maladies auto-immunes comme l’asthme et les allergies affirme une récente étude américaine qui confirme la thèse hygiéniste défendue par certaines chercheurs depuis plusieurs années.

Une nouvelle étude américaine publiée dans la revue Science accrédite la thèse selon laquelle l’excès d’hygiène chez les enfants augmenterait les risques d’asthme et d’allergies. Evoquée dans Le Figaro, l’étude des chercheurs américains de l’école de médecine de Harvard révèle que si la flore intestinale ne se forme pas chez la souris après la naissance, des cellules immunitaires impliquées dans l’asthme allergique s’accumulent dans les poumons des animaux.

Le développement exponentiel des allergies et de l’asthme chez les petits occidentaux interroge depuis de nombreuses années. Au-delà de la dimension héréditaire de ces affections, et des éventuelles conséquences de la pollution environnementale, ces problèmes de santé résulteraient également en partie d’une société devenue trop hygiéniste dans les pays occidentaux, soucieux notamment de protéger les enfants des microbes.

L’hypothèse hygiéniste est née en Angleterre en 1989. Un médecin épidémiologiste anglais avait noté dès cette date que dans les familles nombreuses, le rhume des foins et l’eczéma touchaient plus souvent les aînés, moins exposés que leurs cadets aux infections et aux défauts d’hygiène.

Confirmant cette observation, on constate également que les petits ruraux, en contact avec une plus grande variété de microbes, sont généralement moins embêtés par des problèmes d’asthme ou d’allergies. « Ce travail confirme l’importance de l’environnement infectieux du nouveau-né pour le bon développement du système immunitaire » affirme le Professeur Jean-François Bach, de l’académie des Sciences, spécialiste de la théorie hygiéniste. Ce serait donc l’équilibre de la faune bactérienne de nos intestins qui régulerait notre système immunitaire dès la prime enfance. Et cette sensibilisation progressive aux microbes dès la naissance serait indispensable pour bénéficier de cette protection.

Enviro 2B

Le secret de la résistance cellulaire : plus de lipides à la membrane !
Lundi, 28/05/2012 - 01:00

D’où vient la résistance des cellules, capables de supporter de fortes tensions sans se déchirer ? Par exemple, comment les cellules musculaires résistent aux forces de contraction, ou comment les levures présentes sur le raisin supportent la pluie qui les fait gonfler ? En partie grâce à leur faculté à synthétiser des lipides en masse pour augmenter la résistance de leur membrane au stress mécanique. C'est ce que suggère une étude menée sur des cellules de levure par Tobias Walther, de l’Institut Max Planck de biochimie de Martinsried, en Allemagne, Robbie Loewith, du Département de biologie moléculaire de l’Université de Genève, en Suisse et leurs collègues. En soumettant les cellules à un stress mécanique, les biologistes ont explicité le mécanisme de ce recrutement de lipides.

Composée de protéines et de lipides, la membrane cellulaire est constituée en divers domaines caractérisés par des protéines spécifiques. En 2006, T. Walther, alors à l’Université de Californie, à San Francisco, et ses collègues, ont mis en évidence un tel domaine qu’ils ont nommé eisosome, réparti régulièrement à la surface des cellules de levure et qui semble impliqué dans la régulation de l’architecture membranaire. Les nouveaux travaux apportent des précisions sur son mécanisme d’action.

Quand un étirement ou une dilatation est exercé sur la cellule, une protéine des eisosomes, Slm1, se déplace vers d’autres domaines membranaires nommés MCT, lesquels contiennent un complexe dit TORC2 qui régule la production de lipides. La protéine Slm1 s’y lie au complexe TORC2 et le suractive, ce qui augmente la production de lipides, lesquels s’insèrent dans la membrane. Lorsque la tension de la membrane se relâche, les eisosomes cessent d’envoyer leur messager, et TORC2 stoppe la production supplémentaire de lipides.

Assez lent (quelques heures), ce mécanisme ne permet pas une réponse immédiate à un stress brutal, tel un choc osmotique, explique Aurélien Roux, un des auteurs, professeur assistant à l’Université de Genève. Néanmoins, il pourrait améliorer la tolérance de la cellule à une série de contraintes.

Un autre mécanisme plus rapide (quelques secondes) a été mis en évidence en 2011 par l'équipe de Christophe Lamaze et Pierre Nassoy, de l’Institut Curie (CNRS, UMR144 et 168), à Paris, dans des cellules de mammifères (souris et homme) : sous une contrainte mécanique, des domaines membranaires en forme d’invagination nommés cavéoles se détendent brusquement, augmentant ainsi l’élasticité de la membrane, puis se reforment quand le stress est passé.

Ce mécanisme pourrait être une première réponse immédiate de la cellule. Le mécanisme de suractivation du complexe TORC2, activé en même temps mais plus lent, augmenterait la résistance de la cellule sur le long terme et, par conséquence, l’efficacité de la réponse rapide. Reste à trouver le messager qui, dans les cellules de mammifères, activerait le complexe TORC2.

Pour La Science

Protéger des effets indésirables de la chimiothérapie contre le cancer du cerveau
Dimanche, 27/05/2012 - 01:30

La thérapie génique pourrait aider à protéger les patients atteints d'un cancer du cerveau des effets toxiques de la chimiothérapie indique une nouvelle étude. Cette approche permettrait alors d'augmenter les doses de chimiothérapie administrée sans élever pour autant le risque de dangereuses complications comme une chute des cellules sanguines.

Cette dernière expose alors à des infections, des saignements excessifs et a d'autres conséquences, obligeant beaucoup de patients à interrompre leur thérapie jusqu'au retour d'un plus grand nombre de cellules sanguines. Le problème est que cette interruption donne une chance au cancer de s'étendre et de devenir résistant au traitement. Les cellules cancéreuses du cerveau élaborent une protéine appelée MGMT qui les rend résistantes à la chimiothérapie et les médecins ont alors recours à un autre médicament, le benzylguanine, pour bloquer la MGMT et rétablir la sensibilité des cellules tumorales à la chimiothérapie. La combinaison du benzylguanine avec la chimiothérapie est malheureusement toxique pour les cellules de la moelle osseuse et du sang qui ne font pas de MGMT, et ce traitement s'avère souvent nocif pour les cellules saines.

Jennifer Adair et ses collègues ont conçu un moyen de contourner ce problème en modifiant génétiquement les cellules de la moelle osseuse chez un petit groupe de patients ayant un cancer du cerveau. Ils avaient des tumeurs résistantes à la chimiothérapie et une chance de survie très limitée. Les chercheurs ont inséré un gène protecteur appelé PK140 dans les cellules de la moelle osseuse des patients. Le P140 est utilisé pour protéger les cellules des dégâts causés par les médicaments courants en chimiothérapie comme le temozolomide.

Après transplantation de la moelle osseuse modifiée, les patients ont reçu de plus fortes doses de chimiothérapie, qu'ils ont mieux tolérées comparés à des patients dont la moelle osseuse n'avait pas été traitée. En outre, les patients transplantés ont vécu plus longtemps que prévu sans les effets négatifs dus à l'atteinte aux cellules saines. Ces résultats ouvrent la voie à des thérapies visant à vaincre la résistance à la chimiothérapie et à améliorer la survie des patients avec un cancer du cerveau.

Eurekalert

Science

Cancer du col de l'utérus : expérimentation d'un dépistage par test urinaire
Dimanche, 27/05/2012 - 01:10

Le Professeur Payan, chef de service de microbiologie du CHU de Brest, vient de démontrer l'efficacité du test urinaire dans le dépistage du cancer du col de l'utérus grâce à l'étude Papu29 menée sur 3 115 bretonnes volontaires. Appréciée pour sa simplicité, cette solution convient tout particulièrement aux femmes qui n'ont pas accès aux examens gynécologiques ou qui les refusent. L'étude montre d'ailleurs que les femmes sont cinq fois plus nombreuses à préférer le test urinaire au frottis.

Ce dépistage facile devrait inciter à une meilleure surveillance ; un argument de poids car les chiffres sont inquiétants : au niveau national, le dépistage du cancer du col de l'utérus est insuffisant (moins de 60 % de femmes dépistées). La situation est encore plus mauvaise dans le Finistère ou moins de 40 % des femmes ont bénéficié d'un frottis de dépistage.

Pour améliorer cette situation, le CHRU de Brest a reçu le soutien de l'Association de dépistage du cancer (ADEC29) et la Ligue contre le cancer pour mener l'étude Papu29. 15 489 femmes (7 % de la population du Finistère) ont reçu un courrier leur proposant un frottis classique (avec le suivi adéquat en cas de résultat positif ou un suivi à trois ans en cas de résultat négatif). Celles ayant refusé cette méthode se voyaient proposer un test urinaire développé par l'équipe du CHRU de Brest. En cas de résultat positif, un frottis classique était effectué ; pour les autres, un suivi à trois ans était recommandé.

3 115 femmes volontaires pour le test urinaire ont reçu un kit de prélèvement d'urines (5 fois plus que celles ayant accepté un frottis). En présentant les résultats de l'étude, le Professeur Payan a précisé : "Cette méthode a permis de détecter des lésions précancéreuses de stades élevés chez 13 femmes, un adénocarcinome chez une femme de 36 ans et un cancer épidermoïde chez une femme de 53 ans. Mais nous sommes encore en train de collecter les données complémentaires, notamment le suivi à 3 ans". En pratiquant le test urinaire, les femmes ont la garantie de bénéficier d'une détection plus précoce des lésions cancéreuses et précancéreuses et d'être mieux suivies.

Cette étude a aussi permis d'identifier les tranches d'âge les plus à risque et les zones géographiques les plus touchées au niveau du département. Autant d'indices permettant d'améliorer localement la politique sanitaire.

Un cancer du col de l'utérus est une maladie des cellules de la muqueuse du col de l'utérus. Dans la très grande majorité des cas, c'est le papillomavirus humain ou HPV, un virus qui se transmet par voie sexuelle, qui est à l'origine de la maladie. La plupart du temps, ce virus disparaît mais il persiste parfois au niveau de la muqueuse du col de l'utérus et peut, avec le temps, modifier les cellules créant des lésions dites précancéreuses. Ces lésions peuvent disparaître spontanément, persister ou évoluer progressivement, d'abord vers une forme précoce de cancer, puis, vers une forme plus avancée. Le cancer du col de l'utérus est à l'origine de 900 décès par an en France. La prévention repose sur des frottis réguliers et depuis peu des vaccins anti-papillomavirus.

News Press

Un nouveau test pour le cancer de la prostate
Samedi, 26/05/2012 - 01:40

MXxHealth, un leader du diagnostic moléculaire qui développe et commercialise des tests épigénétiques pour soutenir le traitement du cancer, a annoncé le lancement de ConfirmMDx, son test pour le cancer de la prostate, qui permet aux urologues de distinguer les patients qui reçoivent un vrai résultat négatif de biopsie de ceux qui peuvent souffrir d'un cancer occulte. Les tests seront réalisés dans le laboratoire CLIA de MDxHealth basé à Irvine en Californie. Les tests parviendront au laboratoire soit directement par les médecins qui enverront des échantillons de tissu de la prostate, soit via son partenaire commercial exclusif PLUS Diagnostics.

« En raison des limites que connaît la procédure actuelle de biopsie de la prostate, un homme sur quatre risque d'être confondu. C'est ce que l'on appelle communément une erreur d'échantillonnage. En conséquence, pour ces hommes qui présentent des facteurs à haut risque persistants, mais aucune trace avérée de cancer de la prostate dans une biopsie, il est de coutume de surveiller de façon continue et de procéder à des biopsies répétées. Cela signifie que des biopsies sont réalisées fréquemment sur des hommes sains. Le test pour le cancer de la prostate ConfirmMDx détecte les changements épigénétiques associés à la présence ou à l'absence du cancer de la prostate » a déclaré le Professeur Dr. Wim van Criekinge, Chief Scientific Officer chez MDxHealth.

«Le lancement de ConfirmMDx pour le cancer de la prostate représente le point culminant d'une recherche approfondie, d'efforts de développement et démontre l'engagement de l'équipe de MDxHealth à réaliser sa nouvelle stratégie commerciale » a déclaré le Docteur Jan Groen, directeur général de MDxHealth. MDxHealth est particulièrement bien placée avec son portefeuille de tests épigénétiques pour tirer parti de la réalisation d'une vraie médecine personnalisée, qui améliore le soin apporté aux patients, tout en réduisant le coût des soins de santé ».

Chaque année, plus de 650.000 américains reçoivent le diagnostic d'une biopsie négative ; néanmoins, pour environ 25-35 % de ces hommes, il s'agit d'un résultat faussement négatif. Selon les normes de soins actuelles, la procédure de biopsie de la prostate consiste en un prélèvement de 10 à 12 biopsies, réalisé à l'aide de fines aiguilles. Ce prélèvement n'échantillonnerait qu'environ 1 % de la prostate. Avec cette approche, le risque d'un cancer occulte est bien présent chez les hommes testés, ce qui conduit à un taux élevé de biopsies répétées, souvent sur des hommes parfaitement sains.

Un test de diagnostic efficace est nécessaire pour résoudre ce dilemme et répondre à un besoin médical actuellement non satisfait. Le test ConfirmMDx pour le cancer de la prostate est capable de détecter un effet de champ épigénétique ou« halo », qui a été démontré, dans le processus de cancérisation au niveau de l'ADN dans les cellules adjacentes au foyer cancéreux. Ce « halo » autour de la région cancéreuse peut être présent en dépit d'une apparence normale au microscope. Le test ConfirmMDx pour le cancer de la prostate aidera les urologues à identifier les patients présentant une vraie biopsie négative et leur éviter des biopsies répétées et inutiles.

LCI

Un bébé de 16 mois reçoit un tout petit cœur artificiel
Samedi, 26/05/2012 - 01:30

Un cœur artificiel,  "le plus petit jamais implanté", a pu sauver pendant treize jours la vie d'un bébé de seize mois, avant qu'il ne bénéficie d'un don d'organe. L'hôpital Bambino Gesu de Rome a réalisé une première mondiale en implantant un minuscule cœur artificiel sur un bébé de 16 mois. Grâce à ce dispositif encore expérimental, l'enfant a pu survivre pendant 13 jours en attendant de bénéficier d'un don d'organe, très difficile à trouver à cet âge.

«Au mois de mars à l'hôpital Bambino Gesu, a été implanté pour la première fois au monde le plus petit cœur artificiel existant», a indiqué Antonio Amodeo, un des responsables de l'hôpital dans un communiqué. La fillette de 16 mois souffrait d'une cardiomyopathie à laquelle s'était ajoutée une infection grave du système d'assistance ventriculaire qui lui avait été implanté.

Le «cœur artificiel» est un prototype expérimental qui a été prêté à l'hôpital italien par les National Institutes of Health (NIH) américains. L'engin est en titane, ne pèse que 11 grammes et peut pomper 1,5 litre de sang par minute. L'opération pour implanter ce cœur artificiel a duré 8 heures et a été tentée car la gravité de l'état de santé de l'enfant rendait impossible le recours à d'autres solutions temporaires comme une circulation externe du sang.

Depuis la transplantation d'un vrai cœur il y a un peu plus d'un mois, le bébé se porte bien. L'hôpital Bambino Gesu est en pointe en Italie dans le domaine des transplantations et a été le premier au monde à implanter un cœur artificiel permanent à un adolescent de 16 ans il y a deux ans. Les cœurs artificiels sont devenus des outils importants pour maintenir en vie des patients en attente de transplantation cardiaque. Les progrès de miniaturisation des dispositifs et de leurs appareils de contrôle font qu'ils sont maintenant accessibles à des enfants. Le premier cœur artificiel fut implanté avec succès en 1982 à l'Université d'Utah aux États-Unis, sur Barney Clark, un dentiste à la retraite qui vécut 112 jours grâce à l'engin. Ce cœur mécanique, le Jarvik-7, était asservi à un centre de contrôle et à un compresseur fixe, de 180 kg.

Le Figaro Santé

Voir le vivant à l'échelle moléculaire !
Vendredi, 25/05/2012 - 05:10

Il est nécessaire pour les chercheurs de pouvoir visualiser les virus qu'ils étudient dans l'environnement de leur cellule cible, afin de définir les interactions hôte-pathogène contribuant à l'infection. La microscopie optique, qui utilise des molécules fluorescentes (comme les protéines GFP ou des anticorps couplés à des fluorophores synthétiques) permet de mettre en avant les différentes structures d'une cellule, dont les protéines. Cependant, cette méthode est limitée par son faible pouvoir de résolution, ne pouvant distinguer des structures cellulaires et moléculaires qu'à une échelle de 200 à 300 nanomètres (nm). La plupart des virus étant de taille inférieure, il est nécessaire de recourir à des techniques d'imagerie plus précises, afin de définir leur structure interne.

Une étude coordonnée par le Docteur Christophe Zimmer (Institut Pasteur/CNRS), en collaboration avec le Docteur Nathalie Arhel au sein du laboratoire du Professeur Pierre Charneau (Institut Pasteur/CNRS), révèle que l'association de deux techniques récentes d'imagerie permet d'obtenir des images uniques d'assemblages moléculaires de la capside du VIH-1, avec une résolution environ 10 fois meilleure que les microscopes optiques traditionnels. Cette approche, qui utilise la microscopie super-résolutive PALM et le marquage FlAsH, n'affecte pas la capacité du virus à se répliquer. Elle représente une avancée majeure pour la recherche en biologie moléculaire, permettant de visualiser des complexes microbiens à une échelle de 30 nm dans les cellules sans perturber leur fonction.

L'approche développée combine la microscopie super-résolutive PALM et le marquage FlAsH. La microscopie PALM se fonde sur la prise de milliers de clichés en basse résolution, dont chacun ne montre que quelques molécules fluorescentes. Les positions de ces molécules sont ensuite calculées et assemblées par ordinateur afin d'obtenir une seule image en haute résolution. Le marquage FlAsH, quant à lui, implique la fusion d'un peptide de 6 acides aminés à la protéine étudiée, auquel se lie le fluorophore FlAsH. Cette liaison génère de la fluorescence, permettant ainsi la visualisation de cette protéine. C'est la première fois qu'une équipe de chercheurs regroupe ces deux méthodes afin d'obtenir des images en haute-définition d'une structure moléculaire aussi bien dans des cellules fixées que dans des cellules vivantes.

Grâce à cette nouvelle approche, les chercheurs ont pu visualiser la morphologie du virus du sida à une échelle de 30 nm et localiser sa capside dans des cellules humaines. Les capsides sont des structures coniques qui contiennent le génome du VIH. Ces structures doivent se défaire pour permettre au génome du VIH de s'intégrer dans celui de la cellule hôte. Cependant, la chronologie de ce désassemblage a longtemps été débattue. Selon une hypothèse dominante, la capside se désassemblerait immédiatement après infection de la cellule et ne jouerait donc qu'un rôle marginal dans le voyage intracellulaire du virus vers le noyau. Les résultats obtenus par les chercheurs de l'Institut Pasteur et du CNRS indiquent, au contraire, que de nombreuses capsides restent intactes jusqu'à l'entrée du VIH dans le noyau des cellules, confirmant et renforçant de précédentes études en microscopie électronique. Ainsi, les capsides pourraient jouer un rôle plus important que communément admis dans le cycle réplicatif du virus.

Le développement de cette nouvelle approche de microscopie optique par les chercheurs de l'Institut Pasteur et du CNRS offre des perspectives uniques pour la biologie moléculaire. En effet, cette nouvelle technique d'imagerie pourrait devenir un outil important dans l'analyse de nombreux complexes microbiens et de leurs interactions avec des cellules hôtes à l'échelle moléculaire. Cette technique non-invasive permet d'observer des protéines sans détruire, ni altérer, leur fonction biologique. Par ailleurs, elle pourrait, à terme, rendre possible l'analyse de micro-organismes à des résolutions de l'ordre du nanomètre.

CNRS

Cancer mammaire : un vaccin associé au létrozole à l’essai chez la souris
Vendredi, 25/05/2012 - 05:00

Une étude publiée par l’équipe de l’Américain Michael DeGregorio dans « Clinical Cancer Research », l’association d’un vaccin ciblant les cellules tumorales et de létrozole, un antiestrogène, accroît significativement la survie chez la souris.

Le vaccin Stimuvax, connu aussi sous son nom de code L-BLP25, cible de façon spécifique la glycoprotéine Mucine-1 (MUC1), un antigène qui est exprimé sous une forme altérée à la surface des cellules cancéreuses. Dans l’organisme, ce vaccin induit une réponse à lymphocytes T qui reconnaît et détruit les cellules tumorales.

Dans l’étude dont il est ici question, les souris ont reçu toutes les semaines pendant huit semaines soit une dose de vaccin soit un placebo. Parallèlement, elles ont été traitées soit par létrozole soit par tamoxifène, deux antiestrogènes couramment utilisés en hormonothérapie dans le cancer du sein. Surprise : alors que ces deux produits ont des modes d’action similaires, les bénéfices du vaccin ont été plus grands chez les souris recevant le létrozole ; chez les souris recevant vaccin + tamoxifène, les résultats étaient moins bons que chez celles qui recevaient le vaccin seul ou le tamoxifène seul. Ce qui souligne l’importance de conduire des essais rigoureux avec toutes les combinaisons possibles avant de les administrer aux patients.

Le Quotidien du Médecin

Clinical Cancer Research

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La Bethléem biblique existe !
Samedi, 26/05/2012 - 01:10

Des archéologues viennent de découvrir, à Jérusalem, un petit sceau en argile sur lequel figure le nom de la localité.

Des archéologues ont découvert un petit sceau en argile sur lequel figurait le nom "Bethléem" et qui pourrait constituer la preuve de l'existence de cette localité à l'époque biblique, a indiqué récemment l'Autorité israélienne des antiquités. "Ce premier objet ancien qui constitue la preuve tangible de l'existence de la cité de Bethléem, qui est mentionnée dans la Bible, a été découvert récemment à Jérusalem", a précisé l'Autorité dans un communiqué.

L'objet, une pièce en argile utilisée pour apposer un sceau sur les documents ou d'autres objets, est connu. Il a été mis au jour durant des travaux d'excavation sur le site dit de la Cité de David situé en contrebas des murailles de la Vieille Ville de Jérusalem. Sur le sceau, qui mesure environ 1,5 cm, le nom de Bethléem est inscrit en ancien hébreu.

  • La ville natale de Jésus

"C'est la première fois que le nom de la cité apparaît en dehors de la Bible dans une inscription datant du premier Temple juif, ce qui prouve que Bethléem était bien une localité du royaume de Juda, voire d'une période antérieure", a affirmé Elik Shukron, directeur des fouilles de l'Autorité. Selon lui, ce sceau fait partie de documents fiscaux de Bethléem envoyés au roi de Jérusalem, dans le cadre d'un système de taxation utilisé dans ce royaume aux VIIIe et VIIe siècles avant notre ère.

Bethléem est mentionnée pour la première fois dans la Genèse, le premier livre de la Bible, comme le site où est enterrée Rachel, l'épouse du patriarche Jacob. Selon le Nouveau Testament, la cité de Bethléem, située en Cisjordanie au sud de Jérusalem, est également le lieu de naissance de Jésus.

Le Point

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Bientôt la fin des lecteurs CD dans les voitures
Dimanche, 27/05/2012 - 01:40

Les lecteurs CD pourraient devenir la prochaine victime de la bataille menée par les constructeurs automobiles pour faire perdre du poids aux voitures dans le but de limiter la consommation de carburant.

Le principal designer de Ford Michael Arbaugh a récemment révélé, dans une interview avec le Detroit Free Press, qu'il "attendait le jour" où les designers mettront pour de bon à la poubelle les lecteurs CD. La raison est simple : les lecteurs CD pèsent environ 2 kg (et encore plus quand on inclut leurs boîtiers) et ont un impact direct sur la consommation de carburant des voitures modernes.

Il y a environ un an, ce détail n'avait pas autant d'importance, mais dans un monde où le prix élevé des carburants est devenu la norme et où l'aspect écologique est plus important que jamais, les constructeurs s'intéressent aux moindres détails qui pourraient être éliminés.

"Je pense que tous les moins de 30 ans utilisent probablement des lecteurs MP3. Ils n'achètent pas de CD", a ajouté Michael Arbaugh. Cela signifie que l'on pourrait assister à une mort des lecteurs CD bien plus rapide que celle des lecteurs cassette.

L'an dernier, Ford a retiré les lecteurs multi-CD de sa gamme européenne de Ford Focus, après avoir remarqué que 95 % des acheteurs du modèle choisissaient la version avec la connexion à un appareil MP3 et que 90 % d'entre eux optaient pour une connexion Bluetooth.

La Chevrolet Sonic RS a également supprimé son lecteur optique pour le système MyLink qui permet de connecter des lecteurs MP3 et de diffuser de la musique via des sites comme Pandora.

La société d'études Stratacom a prédit cette année qu'environ 331 000 voitures seraient vendues sans lecteur CD cette année aux États-Unis - et que ce chiffre passerait à 12,1 millions d'ici 2018.

La Presse.ca

Des autoroutes intelligentes pour résorber les bouchons
Samedi, 26/05/2012 - 01:20

Des feux de signalisation sur les voies d’accès à l’autoroute pour prévenir les embouteillages. Des ingénieurs de l’EPFL (Ecole Polytechnique Fédérale de Lausanne) testent ce modèle pour augmenter la capacité de trafic.

Les autoroutes suisses ont atteint un niveau d’encombrement proche de la saturation dans plusieurs endroits du pays ; tous ceux qui avançant quotidiennement pare-chocs contre pare-chocs sur la voie rapide peuvent en témoigner. Des indicateurs suggèrent que nous approchons un point critique: de 2009 à 2010, une augmentation de seulement 2,6 % du trafic sur autoroute a amplifié d’un tiers le nombre d'embouteillages. Avec l’appui de l’Office Fédéral des Routes, les ingénieurs du Laboratoire de systèmes de transports urbains (LUTS) développent des systèmes intelligents de gestion du trafic. Il s’agit d’optimiser le flux en temps réel, en adaptant la vitesse autorisée et en régulant l’accès par l’installation de feux de circulation sur les bretelles.

L’idée d’utiliser des feux de circulation sur des voies d’accès à l’autoroute date de plus d'un demi-siècle ; elle a déjà été mise en œuvre avec succès dans de nombreux pays. Cependant, en Suisse, les voies d’accès à l’autoroute sont courtes et se situent près des zones urbaines, si bien que les files d'attente générées par ces feux de circulation pourraient rapidement s'étendre pour pénétrer dans les villes. Les bouchons autoroutiers laisseraient alors la place à la congestion urbaine.

Selon Nikolas Geroliminis, le directeur du laboratoire LUTS, il ne suffit pas de réguler le trafic sur l’autoroute à certains points d’accès. Le chercheur préconise une approche globale : «Il faut une stratégie qui permette de contrôler l’afflux de véhicules à chaque point d'entrée de l'autoroute simultanément pour s'adapter à la file d’attente» explique-t-il. Il serait ainsi possible de réduire les files d’attente sur les voies d’accès et les bouchons sur l’autoroute, en modulant la vitesse maximale et en limitant l'accès sur une partie du réseau.

Un algorithme, actuellement développé au sein du groupe de recherche du professeur Geroliminis, devra coordonner les feux de circulation et les limitations de vitesse. En utilisant des données provenant de dispositifs de suivi du trafic installés le long de l'autoroute et sur les voies d’accès, l’algorithme agira comme un surveillant virtuel du trafic, qui le fluidifie en régulant la vitesse autorisée et en limitant les flux d’accès à l’autoroute en temps réel.

Nicolas Geroliminis et son équipe vont sélectionner deux portions d’autoroute fréquemment congestionnées, dont l’une se situera dans le canton de Vaud, afin de fournir des données concernant le trafic et de servir d’emplacement d’essais pour leurs modèles. Dans un premier temps, les chercheurs doivent optimiser le système actuel de contrôle du trafic, afin qu’il fournisse les données qui permettront de réguler efficacement l’accès. Par la suite, ils utiliseront ces données pour tester la faisabilité de leur méthode, lors de simulations sur ordinateur. Idéalement, ces essais virtuels devraient être suivis d’un test en grandeur nature.

Ailleurs dans le monde, des expériences ont montré que la régulation des accès peut réduire l'apparition de bouchons sur l'autoroute de 10 à 20 %. « Réduire les problèmes de congestion permet d'éviter la circulation en accordéon, de consommer moins de carburant et de réduire les émissions de CO2 » explique Nikolas Geroliminis. Certes, les Suisses qui empruntent l’autoroute chaque jour devraient s’habituer à patienter aux feux avant d’y pénétrer. Mais il est fort probable qu’ils seront disposés à payer ce prix, s’il permet un trajet plus court et plus sûr.

EPFL

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top