RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 625
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Novembre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Réservez votre taxi dans toute l’Europe grâce à une application iPhone
Le permis de conduire à puce sécurisé arrivera en 2013
Avenir
La plus petite voiture du monde !
Matière
Souple comme le caoutchouc et façonnable comme le verre
Un nouveau projet de l'UE renforce l'efficacité électronique
L'énergie des mers : futur champ de bataille
Le projet Desertech prend forme au Maghreb
Les centrales solaires spatiales, futures sources d'énergie ?
Espace
Des lacs sur Europe, une lune de Jupiter
Traînardes bleues : des étoiles vampires
Terre
Mongolie : un «bouclier de glace» pour rafraîchir la capitale
La pollution perturbe le cycle d'azote des forêts tropicales
Climat : plus de canicules, de sécheresses et d'inondations
Réchauffement climatique : l'impact majeur des micro-organismes !
Vivant
Des cellules programmables comme un système d'exploitation
Les cellules dendritiques : éléments clés du système immunitaire
Cancers de l’ovaire : Découverte d’une double signature prédictive de l’agressivité tumorale et de la réponse au traitement
Text neck : quand les portables génèrent de nouvelles pathologies
L'origine de la marche humaine
La sympathie et la confiance en soi sont en partie génétiques
Aller chez le dentiste pour préserver son cœur
Sclérose latérale amyotrophique : identification d'un nouveau gène
Un nouvel anticoagulant réduit la mortalité et la rechute en cas d'infarctus
L'obésité infantile peut être prédite dès trois ans et demi
Les cellules souches au secours des victimes d’infarctus du myocarde
Une activité physique régulière réduit les risques de dépression chez les seniors
Recherche
France : un véhicule lourd va rouler au carburant GNL !
Le CNRS facilite l'accès à ses brevets
E-volo: un multicoptère électrique
James Bond aura sa voiture volante en 2015 !
Des chercheurs du KIT développent un nouveau concept pour des batteries fluorure-ion rechargeables
Edito
Nucléaire : le paradoxe français



Après la décision de l'Allemagne de sortir définitivement du nucléaire d'ici 2022, la banque d'investissement allemande KFW a estimé, le 19 septembre, à 250 milliards d'euros au total les investissements nécessaires en Allemagne d'ici 2020 pour sortir du nucléaire et financer les énergies renouvelables.

Mais si la France décidait elle aussi de sortir du nucléaire, combien cela coûterait-il ? Sur cette question capitale qui est devenue l'un des enjeux politiques majeurs des prochaines présidentielles, il existe peu d'études rigoureuses et objectives récentes et les chiffres avancés varient bien entendu considérablement en fonction des acteurs interrogés.

Le patron d'EDF, Henri Proglio, a par exemple affirmé le 9 novembre qu'abandonner le nucléaire "menacerait 400.000 emplois directs et indirects de la filière nucléaire et 500.000 emplois dans les entreprises actuellement localisées en France, qui risqueraient de partir à l'étranger." Selon lui, un million d'emplois seraient menacés et le coût pour le pays serait d'au moins 0,5 point de PIB. Dans le scénario d'un remplacement du parc nucléaire français par une production constituée pour moitié d'énergies renouvelables et pour moitié de centrales au gaz, il estime que les prix seraient multipliés par deux et que 400 milliards d'euros seraient nécessaires pour substituer les énergies propres au nucléaire et adapter le réseau à cette mutation énergétique.

On peut bien sûr rétorquer que les hypothèses de Monsieur Proglio manquent d'objectivité mais il n'en demeure pas moins qu'une sortie du nucléaire aurait un coût très important et, qu'en s'appuyant sur les données disponibles et publiées dans différents rapports officiels, on peut essayer de l'évaluer.

Avec 62 600 MW de puissance nucléaire installée, la France représente à elle seule 17 % de la puissance nucléaire mondiale. Le parc nucléaire français, le deuxième au monde, compte 58 réacteurs répartis sur 19 sites. Avec environ 410 TWh par an, la production d'électricité nucléaire représente les trois quarts de la production totale d'électricité française et 80 % de notre consommation brute d'électricité.

En supposant, par souci de simplification des calculs, que notre consommation électrique puisse être stabilisée à son niveau actuel et que la part de l'électricité thermique et hydraulique reste constante, pourrions-nous remplacer notre production électrique nucléaire actuelle par des sources d'énergies renouvelables ?

Imaginons que, d'ici 2040, on veuille remplacer notre électricité nucléaire pour moitié par de l'énergie solaire et pour moitié par de l'éolien (un quart avec de l'éolien terrestre et trois quarts avec de l'éolien marin). Dans cette hypothèse, il faudrait, en se basant sur les rendements moyens actuels de production de ces énergies, installer au moins 2000 km2 de panneaux solaires, plus de 3 400 éoliennes terrestres géantes (115 par an) et 8 400 éoliennes marines (280 par an). Une telle montée en charge des énergies renouvelables représenterait au moins 100 milliards d'euros d'investissement.

A ces sommes, il faudrait encore ajouter la construction probable d'une quinzaine de centrales thermiques supplémentaires de 400 MW (soit un investissement de 5 à 10 milliards d'euros), pour pallier, dans tous les cas de figure, les inévitables fluctuations de la production d'électricité solaire et éolienne (ces énergies étant par nature diffuses, intermittentes et irrégulières). Il faudrait encore financer l'adaptation complète de notre réseau (environ 5 milliards d'euros) et sa transformation "en grille" avec des compteurs intelligents et des moyens massifs de stockage de l'électricité (air comprimé, hydrogène, gaz, sels fondus).

Il faut enfin ajouter le coût considérable du démantèlement de nos centrales nucléaires, de l'ordre de 26 milliards d'euros (450 millions d'euros par réacteur selon les dernières estimations).

En supposant même que nous puissions réussir à stabiliser notre consommation globale d'énergie au niveau actuel, ce qui serait déjà très difficile, une telle transition énergétique serait donc longue, très coûteuse et très complexe à mettre en œuvre : un ordre de grandeur d'au moins 150 milliards d'euros semble réaliste.

Encore faut-il préciser que cette estimation a minima ne prend pas en compte le coût de reconversion des 125 000 emplois directs (4 % de l'emploi industriel) et 410.000 emplois au total (directs et indirects) et de l'impact économique sur ce secteur industriel stratégique : 12,3 milliards d'euros de valeur ajoutée, soit 0,71 % de la contribution au PIB.

Elle n'intègre pas non plus le gain économique et environnemental considérable que représentent les 380 millions de tonnes de CO2 évitées par an (l'équivalent des émissions réelles annuelles de la France), grâce à notre production d'électricité nucléaire. Si l'on retient comme "valeur-carbone", sur le marché européen d'échange de quota, l'hypothèse défendue par Christian De Perthuis (100 € la tonne de CO2 en 2030), c'est donc au moins 38 milliards d'euros que la France devrait débourser en 2040 si elle devait se passer du nucléaire à cette date pour produire son électricité, sauf si elle parvenait à produire en 30 ans plus de 400 TWh d'électricité en émettant aussi peu de CO2 qu'avec le nucléaire, ce qui semble, sans rupture technologique majeure, un objectif très difficile à atteindre.

Il faut en effet rappeler que, comparée à d’autres pays développés, la France émet moins de CO2 grâce à son énergie électrique produite à 90 % avec des technologies non émettrices de CO2 : énergie nucléaire (entre 75 % et 78 %) et énergie hydroélectrique (entre 11 et 13 %). En 2010, un Français émettait en moyenne 6,1 tonnes de CO2 par an, contre 10,5 tonnes pour un Allemand et 8 tonnes pour un Européen (moyenne par habitant des 27 pays de l'UE). Rappelons le : grâce au nucléaire, un Français émet 40 % de CO2 en moins qu'un Allemand, soit une différence de plus de 4 tonnes de CO2 par habitant et par an de part et d'autre du Rhin !

Il est vrai que la production d’un kWh entraîne en France l’émission de seulement 80 grammes de CO2, contre 620 g aux Pays Bas, 670 g en Allemagne, 870 g au Danemark ! Si nous voulions sortir du nucléaire en maintenant notre consommation électrique à son niveau actuel et en continuant à diminuer nos émissions de CO2 pour lutter contre le réchauffement climatique, nous devrions, non seulement développer de manière massive les énergies renouvelables, mais également généraliser l'installation dans les centrales thermiques de systèmes de capture et de séquestration de carbone et accélérer la mise aux normes énergétiques très coûteuse de l'ensemble des bâtiments et logements.

Au total, si l'on prend en compte l'ensemble des coûts économiques, sociaux et environnementaux d'une sortie du nucléaire, la facture totale serait en tout état de cause de plusieurs centaines de milliards d'euros. Cette sortie du nucléaire, même étalée sur 30 ans, aurait pour notre pays un coût global direct et indirect très important qui se traduirait inévitablement par une hausse de nos émissions de CO2 (alors qu'elles ont fortement diminué depuis 1990) et une augmentation sensible du prix de l'électricité pour les entreprises et les ménages, même si l'ampleur de cette augmentation fait l'objet d'âpres débats entre spécialistes et varie en fonction des hypothèses énergétiques retenues.

Or, toutes les enquêtes d'opinion récentes montrent que, si une majorité de Français semble plutôt favorable à une sortie progressive du nucléaire sur une longue période, nos concitoyens refusent à 72 % de payer plus cher leur facture d'énergie pour sortir du nucléaire ! Il y a là un paradoxe français redoutable dont il faut absolument sortir.

La question de la sortie du nucléaire est donc une question politique qui relève d'un choix démocratique majeur. Cette question peut être formulée ainsi : quand nous aurons estimé, en nous appuyant sur les scénarios les plus probables et les plus objectifs possibles, le coût réel global de sortie du nucléaire et son impact inévitable sur le prix de l'énergie, serons-nous prêts à assumer toutes les conséquences de ce choix et à payer en outre sensiblement plus cher notre énergie en échange de la suppression d'un risque certes réel mais d'une faible probabilité de survenue dans notre pays, compte tenu du très haut niveau de sûreté de nos installations et de la spécificité géographique et climatique de la France ?

Certains écologistes lucides et non des moindres, comme Patrick Moore, ex-dirigeant et fondateur de Greenpeace, ont changé de position sur le nucléaire et admettent l'idée que le recours au nucléaire, comme énergie de transition, est inévitable, avec des normes de sûreté accrues, pour les décennies à venir, si nous considérons que la priorité absolue de l'humanité est de limiter le réchauffement climatique en réduisant drastiquement ses émissions de CO2.

Le mouvement écologiste n'échappera pas à ce débat et devra évoluer sur la question du nucléaire qui constitue avec les autres grands leviers définis par Solow (économie d'énergie, amélioration de l'efficacité énergétique, lutte contre la déforestation, réorientation de l'agriculture, capture du CO2 et développement des énergies renouvelables) un moyen de production massif d'énergie non carbonée que nous ne pouvons pas nous permettre de refuser, face à l'immense péril du réchauffement que de nouvelles observations et études scientifiques confirment chaque jour.

Les réponses paradoxales de nos concitoyens, qui souhaitent majoritairement, après le traumatisme de Fukushima, sortir du nucléaire mais refusent totalement de prendre en charge le coût de cette sortie, montrent bien à quel point il est nécessaire d'ouvrir un vrai et long débat démocratique pour ne pas céder aux visions réductrices et idéologiques qui polluent et dominent ce débat et éclairer sereinement ses enjeux économiques, sociaux et politiques, complexes mais décisifs pour notre avenir.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Réservez votre taxi dans toute l’Europe grâce à une application iPhone
Mardi, 22/11/2011 - 00:10

La coopérative Taxi Radio qui fédère quatre cents artisans taxis dans le Rhône lance une application iPhone pour répondre à la demande de ses clients.

Le phénomène des applications n’a de cesse de conquérir tous les pans de notre économie. Il n’a pas échappé à l’univers des taxis lyonnais puisque la coopérative Taxi Radio qui chapeaute les marques Taxi radio Lyon, Taxi villeurbannais, Télé taxi banlieue et Taxi entreprise, vient de lancer son application « Taxi Lyon ».  Laquelle se singularise par sa déclinaison dans quatre-vingt-dix villes d’Europe et permet aux utilisateurs lyonnais et étrangers de réserver instantanément, via leur iPhone, un taxi à Berlin, Genève, Vienne, Stockholm… ou vice et versa.

Une application vouée à parfaire la qualité de services de Taxi Radio auprès de ses utilisateurs lyonnais et étrangers mais aussi de ses quatre cents adhérents artisans taxis qui répondent à la demande 7 jours sur 7, 24 heures sur 24 dans tout le département. Une flotte de véhicules qui assurerait, hormis lors des salons exceptionnels de type Sirha ou Solutrans… de 3 000 à 4 000 courses par jour entre septembre et décembre et environ 1 800 par jour en basse saison, l’été.

Le leader des taxis à Lyon qui recense « 400 taxis sur les 1 700 taxis dénombrés dans le Rhône », détaille Gilles Montbel, président de Taxi Radio (25 salariés basés à Lyon 4e) se dit porté irrésistiblement « vers la technologie ». Une des clés de voûte selon lui du succès de la coopérative Taxi Radio créée en 1965 par une poignée d’artisans taxis lyonnais.

S’il explore à moyen terme le paiement sans contact, un système de covoiturage, il dit soutenir le péage urbain « à condition que l’argent récolté soit réaffecté au développement des transports en commun », avant de reconnaître que « la principale obsession des artisans taxis reste le kilomètre à plein. » Et par ricochet l’éternel prix du baril de brut qui pourrait flamber de nouveau dans les semaines à venir et impacter une profession dominée aujourd’hui à 70  % par les centrales de réservations contre 30  % seulement de « chapeaux blancs », sans bannière.

Après avoir téléchargé l’application gratuite sur Iphone ou Android, il ne vous ne reste plus qu’à indiquer votre position, votre nom et votre numéro de portable pour réserver le taxi le plus proche de chez vous correspondant à vos critères de recherche et vos modes de paiement. L’interface vous indique, instantanément, une estimation du délai d’attente, de la durée du trajet et du prix, et vous pouvez suivre le trajet du taxi en temps réel. L’application dépasse les frontières puisque vous pouvez réservez des taxis à l’étranger ou vice et versa.

Le Progrès

Le permis de conduire à puce sécurisé arrivera en 2013
Samedi, 19/11/2011 - 00:10

D'ici à 2033, le bon vieux document rose aura totalement disparu de la circulation. A partir du 19 janvier 2013, un nouveau permis de conduire remplacera progressivement l’ancien document. Le ministère de l’Intérieur vient d'en détailler les caractéristiques et les modalités de déploiement, conformément aux exigences d’une directive européenne de décembre 2006. Les détails ont été publiés au Journal officiel. Flanqué d’une puce électronique, le prochain permis aura le format d’une carte bancaire. Celle-ci stockera l’identité du titulaire et ses empreintes digitales. Pour les conducteurs, la présence d’une puce permettra de consulter en ligne son solde de points sur le site du ministère de l’Intérieur.

C’est surtout l’Administration qui devrait en tirer le plus de bénéfices. La police pourra en effet lutter plus efficacement contre la fraude, en vérifiant la validité d’un document grâce à des lecteurs de cartes à puce installés dans ses véhicules. Elle pourra également consulter l’historique des automobilistes, qui pourront plus difficilement échapper au paiement des amendes. Ce dispositif, déployé à l’échelle européenne, devrait améliorer le recouvrement des amendes auprès des ressortissants étrangers.

Le permis à puce ne sera plus illimité dans le temps. Les conducteurs devront le renouveler tous les quinze ans, mais sans passer d’examen supplémentaire. Le ministère de l'Intérieur n’a pas encore précisé si le changement de document sera facturé comme c’est le cas des passeports. Financièrement, l’opération est loin d’être neutre : près de 40 millions de permis roses sont actuellement en circulation.

01Net

^ Haut
Avenir
Nanotechnologies et Robotique
La plus petite voiture du monde !
Samedi, 19/11/2011 - 00:40

Des chercheurs néerlandais ont annoncé avoir conçu le plus petit véhicule du monde, une « nano-voiture » longue de seulement un milliardième de mètre, capable de se mouvoir sous l'effet d'un faisceau d'électrons. Cet engin nanométrique, qui mesure 60 000 fois moins que l'épaisseur d'un cheveu humain, est composé d'un corps central auquel sont attachées quatre « roues » constituées de seulement quelques atomes chacune.

La voiture est propulsée et dirigée par l'énergie émise par un microscope électronique « à effet tunnel ». Les électrons envoyés par le microscope modifient les interactions entre les « roues » et une surface en cuivre, ce qui induit un mouvement de rotation et fait avancer le véhicule. Selon Tibor Kudernac, un des chercheurs concernés, "C'est la plus petite voiture électrique au monde".

Ces recherches, dirigées par Ben Feringa de l'université de Groningen et publiées dans la revue Nature, pourraient avoir des applications dans le domaine médical et toutes les recherches en nanotechnologies entamées au cours des dernières années.« La molécule à l'allure de voiture pourrait notamment servir à transporter des éléments à l'échelle du nanomètre », souligne Nature.

Nature

^ Haut
Matière
Matière et Energie
Souple comme le caoutchouc et façonnable comme le verre
Jeudi, 24/11/2011 - 00:10

Des chimistes français ont créé un nouveau matériau : un polymère qui a des propriétés comparables aux résines tout en étant plus facile à façonner et remodelable à volonté.

Voilà un matériau qui ressemble à du caoutchouc par sa légèreté, sa souplesse et sa plasticité. Mais il peut aussi être dur et s’apparente alors à une résine très résistante. Comme le verre, il peut se travailler sans moule, dans une phase intermédiaire propre à ce matériau obtenu à partir de la silice. Le nouveau polymère mis au point par les chercheurs du Laboratoire Matière molle et chimie (CNRS/ESPCI ParisTech) de Paris n’a pas encore de nom de baptême mais semble déjà promis à un bel avenir.

L’équipe de Ludwik Leibler a publié dans la revue Science la recette de ce nouveau matériau organique, conçu à partir d’acides gras, de résine époxy et d’un catalyseur. L’objectif des chercheurs étaie de reproduire les excellentes propriétés mécaniques des matériaux composites, ces polymères thermodurcissables, comme la bakélite ou les résines époxy, sans avoir leurs inconvénients. Contrairement aux polymères thermoplastiques (comme le polystyrène ou le polycarbonate), les polymères thermodurcissables ne sont pas recyclables. Il faut leur donner leur forme définitive dans un moule et, leur polymérisation étant irréversible, ils ne peuvent pas être de nouveau chauffés pour être remodelés.

Leibler et ses collègues ont réussi à concevoir un polymère qui peut être façonné à volonté. Mieux, il présente, comme le verre chauffé, ce passage progressif à l’état solide qui permet de le façonner sans moulage (ce qui n’est pas possible avec les polymères thermoplastiques). Des matériaux aussi résistants que les résines époxy mais recyclables à l’infini pourraient donc être conçus, affirment les chimistes. Leur nouveau polymère peut être souple (tout en conservant la mémoire d’une forme) ou rigide sans être cassant comme le verre. On peut pratiquer des soudures, des réparations…. des qualités très intéressantes pour faciliter la réparation composites.

Sciences et Avenir

Un nouveau projet de l'UE renforce l'efficacité électronique
Lundi, 21/11/2011 - 00:20

Des chercheurs de Belgique, d'Allemagne, d'Italie, d'Autriche et de Slovaquie ont joint leurs forces pour lancer un tout nouveau projet financé par l'UE visant à réaliser des convertisseurs énergétiques plus puissants et compacts pour le secteur des TIC (Technologies de l'information et de la communication) et de la technologie des inverseurs photovoltaïques.

Le projet HIPOSWITCH («GaN-based normally-off high power switching transistor for efficient power converters»), bénéficiaire de la somme de 3 578 938 d'euros de financement dans le cadre du thème des TIC du septième programme-cadre (7e PC), couvrira l'ensemble de la chaîne de valeur ajoutée, depuis le développement des produits à leur application industrielle.

Le projet se concentrera sur un élément important des inverseurs électroniques : les transistors d'énergie qui transforment le courant continu et alternatif en voltages utilisés par les systèmes. On trouve ces transistors dans la plupart des appareils techniques actuels, mais en TIC, ils jouent un rôle crucial dans les stations de communications mobiles. Ils ont également utilisé dans l'apport énergétique en courant alternatif/courant continu (CA/CC) dans les ordinateurs, réseaux et pour le stockage de données, ainsi que dans les convertisseurs photovoltaïques, véhicules électriques et hybrides.

Le défi auquel sont confrontés les scientifiques à l'heure actuelle est de développer des systèmes de conversion énergétiques consommant moins d'énergie mais produisant une plus grande quantité énergétique, tout en protégeant les ressources naturelles. Les chercheurs HIPOSWITCH se concentrent sur les transistors de nitrure de gallium (GaN), des dispositifs commutateurs assurant l'efficacité des futures systèmes d'inverseurs énergétiques qui requièrent moins d'espace et pèsent moins tout en offrant une performance améliorée.

En effet, l'efficacité d'un système peut être limitée par les composants actifs utilisés ; les modèles actuels sont faits à base de silicium (Si), qui ont tellement été travaillé qu'aucune amélioration n'est possible. Le GaN est un matériau qui offre de nombreuses possibilités innovantes, notamment en tant que commutateur, grâce à ses propriétés matérielles supérieures. En effet, grâce à lui, les interrupteurs énergétiques peuvent fonctionner à des fréquences plus élevées sans souffrir de pertes majeures. Cela est possible grâce à la résistance plus faible en mode allumé des transistors d'énergie de GaN, associée aux capacités considérablement réduites d'entrée et de sortie.

Les scientifiques mettent également en évidence le fait que l'augmentation de la fréquence de commutation a d'autres conséquences pour les composants passifs, car le volume des inducteurs, des transformateurs et condensateurs peut être considérablement réduit. Ainsi, en utilisant du nitrure de gallium en tant que matériel, le système entier est plus petit et plus léger.

Le projet utilisera la caractérisation d'appareils sophistiquée et des techniques d'évaluation de fiabilité. Il rassemblera des partenaires expérimentés de la technologie automobile, des systèmes électroniques et de la conception de circuits, de la technologie des semi-conducteurs, des technologies de conditionnements à haute température et de la technologie d'appareil de GaN dont l'épitaxie GaN sur Si.

Le projet mettra en évidence l'importance de la collaboration entre le secteur universitaire et l'industrie, notamment pour la commercialisation d'idées innovantes.

Cordis

L'énergie des mers : futur champ de bataille
Dimanche, 20/11/2011 - 09:40

Siemens, le géant industriel allemand a annoncé le 4 novembre dernier avoir porté à 45 % sa participation dans la société "Marine Current Turbines (MCT)" basée à Bristol, au Royaume-Uni et spécialisée dans les générateurs d'énergie marémotrice.

"Avec cette opération, Siemens renforce ses activités dans la production d'énergie marine. Nous allons développer activement la phase de commercialisation des engins novateurs de Marine Current", a déclaré Michael Axmann, directeur financier de la Division Solaire et Hydro du secteur Énergie chez Siemens.

L'énergie des océans connaît un fort taux de croissance au niveau mondial, tirée par les engagements de réduction de CO2. Jusqu'en 2020, les experts prévoient une croissance à deux chiffres sur ce marché. De nouvelles estimations du potentiel mondial de production d'électricité utilisant des centrales marémotrices avancent le chiffre de 800 térawattheures (TWh) par an. A titre de comparaison, cela équivaudrait entre 3 % et 4 % de la consommation mondiale d'électricité.

MCT prévoit de présenter dans les prochains mois à des investisseurs 2 projets comprenant 8 mégawatts (MW) et 10 MW, respectivement le projet Kyle Rhea en Ecosse et celui d'Anglesey Skerries au Pays de Galles. Par ailleurs, MCT a prévu d'installer un système marémotrice dans les infrastructures "FORCE" basées dans La baie de Fundy au Canada et a reçu un bail du Domaine Royal (Crown Estate) pour déployer 100 MW au large de Brough Ness, sur la pointe la plus méridionale des Iles Orkney en Ecosse.

MCT a déjà mis en place avec succès son premier démonstrateur d'envergure, le SeaGen, en Irlande du Nord à Strangford Lough. Depuis Novembre 2008, les deux turbines axiales du SeaGen, d'une capacité combinée de 1,2 MW, ont été reliées au réseau alimentant l'équivalent d'environ 1.500 foyers. A ce jour, le SeaGen aurait injecté sur le réseau plus de 2.7 GWh d'électricité !

Les hydroliennes génèrent de l'électricité en utilisant le courant des marées. La turbine 'SeaGen' est fixée sur une structure et est entraînée par le flux des marées avec un avantage clé : la puissance générée est prévisible dans le cycle des marées. Cette technologie est similaire à celle d'une éolienne comprenant des pales actionnées non pas par l'énergie éolienne, mais par le courant des marées. L'eau a une densité énergétique de plus de 800 fois à celle du vent. Les turbines jumelles tournent avec un angle de 180 degrés afin de capter d'une façon optimale le courant des marées (direction + vitesse).

De son côté, le groupe Alstom - concurrent direct de Siemens - se prépare également à faire un plongeon dans l'énergie marémotrice l'année prochaine. Le groupe français est en train de construire un démonstrateur d'un mégawatt de puissance, utilisant une technologie sous licence du canadien Clean Current Power Systems. Lors d'une conférence à Bali le mois dernier, Philippe Gilson, directeur d'Alstom énergie des océans, a affirmé que son groupe prévoyait d'installer en 2012 sa turbine entièrement submersible de 20 mètres de haut dans la baie de Fundy (Nouvelle-Écosse).

Enerzine

Le projet Desertech prend forme au Maghreb
Dimanche, 20/11/2011 - 09:34

Après le Maroc, le mégaprojet Desertec, initié par l'Allemagne et qui consiste en la production d'électricité propre à partir d' énergies renouvelables (vent et du soleil) dans le désert, s'étend à l'Algérie. Celle-ci va signer, en décembre prochain, un accord de coopération avec le consortium Desertec Industrial Initiative (DII) qui regroupe des actionnaires et des partenaires de 15 pays. Rappelons que ce projet vise, d'une part, à permettre aux pays concernés de produire de manière propre l'électricité dont ils ont besoin pour faire face à leur croissance et, d'autre part, à assurer à l'Europe, à l'horizon 2030, environ 20 % de sa consommation électrique de manière propre.

Ce contrat sera le deuxième du genre au Maghreb, ce consortium multinational ayant déjà signé un premier accord avec le Maroc. D’autres projets sont prévus en Tunisie et en Egypte. DII et l’entreprise tunisienne STEG Energies Renouvelables ont convenu de mener une étude de faisabilité. DII explique que «l’initiation d’une sélection de projets de référence vise à démontrer la faisabilité du concept et de réduire les coûts et qu’il est possible de produire, transporter et vendre des énergies renouvelables, mais aussi pour rendre plus concrète la nature abstraite de la vision Desertec».

Pour ce faire, DII lance des appels d’offres concernant deux ou trois projets de référence en Afrique du Nord. Le premier projet se déroulera en collaboration avec MASEN, l’Agence marocaine de l’énergie solaire. «L’énergie issue du projet commun DII/MASEN pourra commencer à alimenter en courant les réseaux marocains et espagnols autour de 2014», informe DII.

«D’autres projets de référence devraient être définis d’ici 2012, en Algérie, Tunisie et en Égypte», escompte Dii. Le rôle de ce consortium variera selon la nature de l’accord de coopération conclu avec le pays producteur. Le projet Desertec promet de «favoriser le développement d’industries locales, la création d’emplois, un transfert de connaissances, une croissance, une impulsion économique suite à d’importants investissements et une diversification économique». Concernant la compétitivité de l’énergie qui sera produite, DII estime que «les énergies renouvelables devraient ainsi être intégrées sur le marché le plus rapidement possible et sans avoir recours à des subventions». DII explique que «dans les 10 à 15 premières années, des mécanismes de soutien seront essentiels».

Ce consortium se veut optimiste : «l’électricité en provenance des déserts, estime-t-il, sera compétitive sur le marché dans les années à venir, en Europe et dans la région MENA (Moyen-Orient et Afrique du Nord)». «Au cours des dernières années, l’évolution des prix a rendu économiquement très intéressantes ces technologies qui restent faciles à installer et à faire fonctionner», souligne DII. «Des analyses datant de 2005 ont montré que le seuil de rentabilité sera atteint entre 2020 et 2030», indique encore le consortium.

El Watan

Les centrales solaires spatiales, futures sources d'énergie ?
Samedi, 19/11/2011 - 00:00

Si l'inépuisable énergie solaire venait à être captée dans l'espace, elle pourrait constituer d'ici 30 ans une solution peu coûteuse aux besoins énergétiques de la planète, à condition que les Etats apportent leur soutien financier, révèle un groupe scientifique international. Mettre sur orbite des centrales électriques pour collecter l'énergie solaire et la transmettre vers la Terre sera "techniquement possible" d'ici dix ou vingt ans, au vu des technologies actuelles, a révélé l'Académie internationale d'Astronautique, dont le siège est à Paris. Un tel projet serait rentable d'ici 30 ans ou moins, selon l'Académie, qui n'a pas défini de feuille de route.

"Il est certain qu'une énergie solaire distribuée depuis l'espace pourrait jouer un rôle extrêmement important pour subvenir aux besoins en énergie de la planète au XXIe siècle", affirme l'étude dirigée par John Mankins, qui a travaillé 25 ans à la NASA, où il fut directeur des études prospectives.

L'académie est dirigée par Madhavan Nair, ancien président de l'Organisation indienne pour la recherche spatiale. L'étude a été présentée comme la première estimation internationale des moyens potentiels de collecter l'énergie solaire dans l'espace, et de la livrer sur terre via une transmission électrique sans fil. Selon l'étude, les financements du secteur privé ne suffiront pas à commercialiser ce concept, étant donné le temps nécessaire à son développement et les "incertitudes économiques" des phases de développement et de démonstration, souligne l'étude, qui ne mentionne pas de coût total potentiel.

L'énergie solaire venue de l'espace est une solution énergétique possible à long terme pour la Terre, et n'a "par essence aucun impact" environnemental, selon l'association National Space Society (NSS). Cette dernière a organisé une conférence de presse à Washington pour rendre public le rapport final de l'académie, qui fait 248 pages. Reuters en a obtenu une copie avant publication.

L'idée consiste à mettre en orbite géosynchronique un, puis plusieurs, puis une douzaine de satellites à énergie solaire au-dessus de l'Equateur. Chaque engin, large de plusieurs kilomètres, collectera la lumière du soleil, au total jusqu'à 24 heures par jour. L'énergie serait transformée en électricité à bord, et envoyée sur Terre là où les besoins le nécessitent, via une grosse antenne de transmission à micro-ondes, ou via des lasers, puis injectée dans le réseau électrique.

Les sceptiques jugent ce concept voué à l'échec, au moins tant que le coût de mise en orbite d'une centrale électrique commerciale n'est pas divisé par dix ou plus. Les débris spatiaux constituent un autre obstacle, de même que l'absence d'études de marché ciblées, et les coûts de développement élevés.

Un projet pilote visant à expliquer la technologie, même aussi colossale que la station spatiale internationale, pourrait être mis en place en utilisant des véhicules de lancement facilement remplaçables et à bas coût, a déclaré dans une interview téléphonique John Mankins, également président d'Artemis Innovation Management Solutions, un cabinet de conseil californien.

Son entreprise a passé un contrat d'un peu moins de 100.000 dollars avec la Nasa pour effectuer des recherches sur le développement de stations solaires spatiales. "C'est peu mais c'est un début", a déclaré Mankins. Selon l'étude, des dizaines de milliards de dollars seraient nécessaires pour développer un parc de véhicules suffisamment peu coûteux, réutilisables, afin de lancer à grande échelle des satellites solaires commerciaux.

L'intérêt de la communauté internationale pour ce concept a augmenté au cours de la dernière décennie, renforcé par les craintes d'un pic puis d'un déclin de la production de pétrole et d'autres carburants fossiles. A cela s'ajoutent la quête de nouvelles sources d'énergie pour répondre à l'augmentation de la demande mondiale et l'inquiétude vis-à-vis de l'accumulation de gaz à effet de serre issus des carburants fossiles. L'idée d'exploiter l'énergie solaire dans l'espace est étudiée depuis 40 ans de manière irrégulière, notamment par le ministère de l'Energie des Etats-Unis et la Nasa.

Le Point

^ Haut
Espace
Espace et Cosmologie
Des lacs sur Europe, une lune de Jupiter
Jeudi, 24/11/2011 - 07:47

De grandes étendues d'eau aussi vastes que les Grands Lacs nord-américains pourraient se trouver sous la glace recouvrant Europe, une lune brillante et mystérieuse de Jupiter, ont annoncé récemment des astronomes. Cette découverte, si elle est confirmée par une future mission robotique, est décisive parce que l'eau est l'un des éléments essentiels pour que la vie existe, en tous cas comme nous la connaissons. Entièrement recouverte d'un océan gelé, Europe est le deuxième satellite le plus proche de Jupiter, une énorme planète gazeuse, la plus grosse du système solaire.

Des images d'Europe transmises par le vaisseau américain Galileo durant la période d'exploration 1995-2003 ont révélé une surface déformée par des fissures et de la glace brouillée. Les scientifiques surpris par cette topographie aussi insolite dans un endroit aussi froid et où la lumière du soleil est faible, pensent pouvoir l'expliquer en le comparant avec le phénomène de "terrain chaotique" identifiable sur la Terre. Des interactions entre la glace et les panaches d'eau chaude provoquent, sur notre planète, ces "terrains chaotiques", expliquent ces chercheurs.

Selon leurs calculs, l'épaisseur de la couche de glace recouvrant Europe est d'environ 10 km, avec à l'intérieur des poches géantes d'eau se situant jusqu'à 3 km de la surface. L'eau plus chaude contenue dans ces lacs remonte vers la surface en panaches et fait craquer la glace, qui s'effondre. "Les meilleures chances de trouver de la vie sur Europe" se situent dans ces lacs cachés sous la couche de glace, explique, dans le Washington Post, Britney Schmidt, une géophysicienne à l'université du Texas, principal auteur de cette étude parue dans la revue britannique Nature.

Nature

Traînardes bleues : des étoiles vampires
Vendredi, 18/11/2011 - 05:20

Les traînardes bleues, des étoiles résidant dans les amas de vieilles étoiles, doivent leur apparente jeunesse au fait qu'elles accrètent la matière d'étoiles compagnons.

Les amas stellaires sont formés de vieilles étoiles qui sont toutes nées en même temps et doivent donc avoir le même âge. Mais l'astronome Allan Sandage a découvert en 1953 des étoiles atypiques au sein de ces amas : brillantes, chaudes et bleues, elles ont toutes les caractéristiques des étoiles jeunes.

Comment expliquer la présence de ces « traînardes bleues » (blue stragglers) au milieu des vieilles étoiles des amas stellaires ? Les observations et simulations de l'amas d'étoiles NGC 188 par Aaron Geller, de l'Université Northwestern, et Robert Mathieu, de l'Université Wisconsin-Madison, aux États-Unis, suggèrent aujourd'hui que les traînardes bleues doivent leur apparente jeunesse à l'absorption de matière arrachée à des étoiles compagnons.

Jusqu'à présent, deux scénarios s'affrontaient pour expliquer l'apparence juvénile des traînardes bleues. Dans le premier, deux vieilles étoiles entrent en collision et forment ainsi une nouvelle étoile, massive et brillante. Cette traînarde bleue peut capturer une autre étoile ayant participé à la collision. Dans l'autre scénario, dit de transfert de masse, une étoile accrète la matière d'une étoile compagnon géante. Celle-ci sera alors peu à peu transformée en une naine blanche.

C'est cette dernière hypothèse que viennent de confirmer A. Geller et R. Mathieu. Les deux astrophysiciens ont étudié les mouvements de 21 traînardes bleues de l'amas NGC 188. Dans une précédente étude, ils avaient déterminé par spectroscopie que 16 d'entre elles ont un compagnon (la rotation d'une étoile autour du centre de masse du couple induit en effet un décalage périodique de la longueur d'onde, par effet Doppler). Restait à obtenir les masses de ces compagnons. En suivant pendant plusieurs années les décalages Doppler de ces traînardes bleues, A. Geller et R. Mathieu ont réussi à déterminer les orbites des compagnons et donc leurs masses. Ces dernières se révèlent toutes proches d'une demi-masse solaire.

Les deux chercheurs ont alors comparé ces observations à des simulations numériques de formation des traînardes bleues par collision ou par transfert de masse dans l'amas NGC 188. Dans le premier cas, la masse des compagnons résultants est de l'ordre de celle du Soleil, alors que dans le second, elle vaut la moitié d'une masse solaire, en accord avec les observations. Les traînardes bleues doivent bien leur apparente jeunesse à la vampirisation de leurs compagnons !

Pour La Science

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Mongolie : un «bouclier de glace» pour rafraîchir la capitale
Mercredi, 23/11/2011 - 00:10

Pour combattre les effets néfastes du réchauffement climatique et l'effet d'îlot thermique urbain, la Mongolie prévoit de créer en hiver un immense bloc de glace aux abords de sa capitale, Oulan-Bator, qu’elle utiliserait pendant la période estivale pour limiter les dépenses de climatisation, rapporte The Guardian.

Les scientifiques à l’origine du projet affirment que cela va réduire la consommation d’énergie des climatiseurs et réguler l’approvisionnement d’eau potable ainsi que l’irrigation. En cas de succès, le procédé pourrait être exporté à d’autres villes, notamment dans le nord du pays.

Le principe est de créer des plaques très épaisses de glace provenant de l’eau des rivières qui, par certaines fissures, regèle par-dessus les couches de glace déjà formées et qui se superposent. Ce processus crée ainsi un glacier artificiel.

La qualité de ces «naleds» –couches successives de glace– est connue depuis des centaines d’années. L’armée nord-coréenne les avait utilisés pour construire des ponts au-dessus des rivières.

«Tout le monde est paniqué par la fonte des glaciers et des calottes glaciaires, mais personne encore n’a trouvé d’alternatives écologiques», déclare Robin Grayson, géologue mongol. Il précise que le processus peut fonctionner dans les villes où les chaleurs de l’été sont insupportables et dans lesquelles la période hivernale comprend des températures oscillant entre -5 et -20 degrés.

Slate

La pollution perturbe le cycle d'azote des forêts tropicales
Lundi, 21/11/2011 - 00:00

Les activités anthropogéniques perturberaient les forêts tropicales en influençant le cycle de l'azote. Présentés dans la revue Science, les résultats de l'étude internationale constituent les premières preuves des effets à long terme de la pollution d'azote pour les arbres tropicaux. Des scientifiques d'Autriche, du Canada, d'Allemagne et du Panama ont effectué leurs travaux dans deux sites éloignés de l'observatoire Smithsonian Institution Global Earth Observatory au Panama et en Thaïlande.

«La pollution aérienne fertilise les forêts tropicales avec l'un des nutriments les plus importants à leur croissance», commente l'auteur S. Joseph Wright du Smithsonian Tropical Research Institute au Panama. «Nous avons comparé l'azote des feuilles de spécimens secs rassemblés en 1968 avec de l'azote d'échantillons de feuilles collectées en 2007. La concentration d'azote des feuilles et la proportion d'isotopes d'azote lourds et légers a augmenté ces 40 dernières années, tout comme nous l'avons observé dans une autre expérience lorsque nous avons appliqué des engrais au sol forestier.»

Les températures et pressions élevées observées dans les étoiles permettent de générer de l'azote ; dans sa forme élémentaire, il est incolore, insipide et inodore, et ne réagit pas à d'autres substances. Plus de 75 % de l'azote se trouve dans l'air et agit comme un composé protéique essentiel.

L'azote peut s'«activer», lorsque certaines bactéries colonisent la racine des plantes, extraient l'azote de l'air et le transforment ou le 'fixent' sous une forme nécessaire à la croissance. Une fois que les bactéries n'ont plus besoin de cet azote, la plante absorbe le gaz, qui peut être utilisé par les animaux. Nous utilisons le procédé Haber pour fixer l'azote. Ce processus transforme l'azote en ammoniac, l'un des principaux ingrédients des engrais. La fixation de l'azote par l'homme a renforcé la quantité d'azote réactif émis d'environ 100 %.

«Les anneaux des arbres offrent un calendrier pratique pour mesurer les changements de teneur en azote», explique Peter Hietz de l'institut de botanique de l'université de ressources naturelles et des sciences de la vie de Vienne, en Autriche. «Nous avons découvert qu'au siècle précédent, il y eut une augmentation de la forme d'azote plus lourde par rapport à son homologue plus léger, ce qui nous indique une augmentation de l'azote dans ce système mais également des pertes élevées. Nous avons obtenu des résultats similaires en étudiant les anneaux d'arbres de la forêt tropicale brésilienne ; ainsi, il semblerait que l'azote fixé par l'homme affecte désormais certaines régions reculées du monde.»

Commentant les résultats de l'étude, l'un des auteurs de l'étude, Ben Turner, également du Smithsonian Tropical Research Institute au Panama, s'explique : «Les résultats ont un grand nombre de répercussions intéressantes. La plus évidente est pour les arbres de la famille des légumineuses (ou fabacées), un groupe important des forêts tropicales qui fixent leur propre azote en association avec des bactéries du sol. L'augmentation d'azote pourrait éliminer leur avantage compétitif et raréfier ainsi les plantes, changeant par là la composition des communautés des arbres. Il existe également de sérieuses implications pour les modèles de changement mondial, qui commencent à intégrer la disponibilité d'azote en tant que facteur affectant la réaction des plantes aux concentrations élevées de dioxyde de carbone.»

Cordis

Climat : plus de canicules, de sécheresses et d'inondations
Dimanche, 20/11/2011 - 09:24

Vagues de chaleur plus intenses en Europe, sécheresses plus régulières en Afrique, submersions plus dévastatrices dans les îles : les épisodes "extrêmes" vont s'accroître à cause du réchauffement climatique, avec des disparités régionales fortes, selon un rapport qui vient d'être publié. Ce document du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec), discuté en Ouganda, est le travail le plus complet mené à ce jour pour tenter de mesurer l'impact que peut avoir le réchauffement sur l'intensité et la fréquence des événements climatiques extrêmes.

Selon les pires scénarios établis par cet organe scientifique de référence sur le climat, certaines régions pourraient devenir franchement inhospitalières, prévient ce rapport qui poursuit "Si des désastres surviennent plus fréquemment et/ou avec plus d'amplitude, certaines régions deviendront de plus en plus inadaptées en tant que lieux où vivre ou dans lesquels maintenir des activités de subsistance".

Sur un sujet sensible, où les climatologues s'avancent toujours prudemment, la prise en compte exhaustive de milliers d'études récentes conclut que le changement climatique va accroître la fréquence et l'intensité des vagues de chaleur, des inondations, des cyclones et des sécheresses. Mais toutes les régions ne seront évidemment pas touchées avec la même intensité et pas de la même façon, soulignent les scientifiques.

En outre, rappelle le rapport avec force, la vulnérabilité des zones peuplées dépend autant - si ce n'est plus - du degré de préparation ainsi que de la capacité à réagir que des événements naturels extrêmes eux-mêmes. L'Europe de l'ouest apparaît particulièrement à risque pour les vagues de chaleur, notamment en bordure de la Méditerranée. L'été 2003, où les températures caniculaires avaient causé quelque 70.000 décès supplémentaires à travers le continent, pourrait ainsi n'être qu'un été moyen dès la moitié du 21e siècle, estime le Giec dans ce document. La température moyenne de la planète a augmenté d'environ 1°C durant le siècle passé. Les scientifiques prévoient une hausse supplémentaire de 1 à 5°C d'ici 2100 en fonction du niveau d'émissions de gaz à effet de serre (GES).

Libération

Réchauffement climatique : l'impact majeur des micro-organismes !
Samedi, 19/11/2011 - 00:30

Tous les scientifiques sont d'accord : le pergélisol, sous-sol gelé en permanence de l'Arctique, devrait fondre en grande quantité au cours des prochaines décennies, ce qui est très inquiétant car il emprisonne une quantité de CO2 au moins équivalente à celle stockée dans les plantes et l’atmosphère de toute la planète. La fonte de ce pergélisol risque donc d'augmenter très sensiblement les émissions de gaz à effet de serre. Mais selon une étude américaine, ce processus pourrait être contrôlé par la libération de la faune microbienne également retenue dans le pergélisol.

Cette étude montre que d’énormes quantités de méthane ont été émises au début de la fonte des glaces. Ce gaz, emprisonné lors de la congélation de l’eau, est libéré dans l’atmosphère lors du processus inverse et ce, à un taux considérable. Toutefois, les observations ont constaté une chute très rapide de sa concentration juste après son émission.

Il semble donc que les micro-organismes, en transformant de très grandes quantité de méthane et de protoxyde d'azote en CO2, jouent un rôle majeur de régulation dans le contrôle des émissions des gaz à effet de serre.

La micro-faune encore très mal connue (90 % de ces micro-organismes restent à identifier) contenue dans les glaces pourrait donc permettre de neutraliser de grandes quantités de méthane et de protoxyde d'azote en les digérant et en les transformant en CO2 dont le pouvoir radiatif est certes connu mais bien moins puissant, à quantité égale, que celui de ces deux autres gaz.

New Scientist

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules programmables comme un système d'exploitation
Jeudi, 24/11/2011 - 07:40

Une équipe de biologistes, chimistes et informaticiens de l'université de Nottingham travaillent, en collaboration avec d'autres universités américaines, israéliennes, ecossaises et espagnoles, sur une solution permettant de créer des cellules re-programmables, à l'image du fonctionnement d'un système d'exploitation. Ce projet, baptisé "Towards a Biological Cell Operating System", ouvre la porte à la création de nouvelles formes de vie.

L'équipe s'est inspirée du fonctionnement des systèmes d'exploitations de nos ordinateurs, qui arrivent à assurer de multiples fonctions sans avoir à modifier leur matériel. Sur le même principe, un groupe de cellules pourrait être simplement re-programmé afin d'exécuter une action précise. Cette méthode pourrait permettre de créer des entités vivantes qui n'existent pas dans la nature à ce jour. Le but n'étant pas de créer une créature tout droit sortie des livres de science-fiction, mais plutôt de mettre au point de nouveaux médicaments adaptés aux besoins précis d'un patient, ou encore de créer de nouvelles sources de nourriture.

La biologie synthétique, qui associe la biologie avec les principes d'ingénierie, pourrait d'ici cinq ans, d'après les chercheurs, permettre de programmer des cellules bactériennes, qui seront capables d'exécuter ce programme. En bref, créer un système d'exploitation pour une cellule biologique.

Les premiers tests s'effectueront sur la programmation d'une bactérie E. Coli. Ensuite, de multiples autres rôles que ceux cités précédemment pourraient être envisagés, comme la programmation de micro-organismes capables de purifier de l'eau de source, aider à la croissance d'organes pour des patients ayant subi une transplantation, supprimer le carbone indésirable dans l'air, nettoyer les conséquences de catastrophes environnementales, etc.

Techno Science

Les cellules dendritiques : éléments clés du système immunitaire
Jeudi, 24/11/2011 - 07:32

Afin de lutter contre les infections virales et bactériennes, les lymphocytes, globules blancs circulant dans le sang, s'acheminent vers les ganglions lymphatiques. Ils pénètrent dans les ganglions grâce à un type particulier de vaisseaux sanguins, appelés HEV. Ces vaisseaux HEV constituent des portes d'entrée très efficaces puisque l'on estime que dans l'organisme, à chaque seconde ? au moins 5 millions de lymphocytes entrent dans les ganglions via les vaisseaux HEV.

Depuis plusieurs années, l'équipe de Jean-Philippe Girard, directeur de recherche Inserm, s'efforce de mieux comprendre comment un vaisseau sanguin normal se transforme en vaisseau HEV (et vice versa). En étudiant les cellules présentes au voisinage des vaisseaux HEV, les chercheurs toulousains viennent de mettre en évidence le rôle fondamental des cellules dendritiques dans la fabrication des vaisseaux HEV. Grâce à de longs prolongements, ces cellules de forme étoilée entrent en contact avec les vaisseaux sanguins afin de leur délivrer un signal indispensable à leur transformation en vaisseaux HEV. Sous l'action des cellules dendritiques, les vaisseaux sanguins qui constituaient une barrière infranchissable pour les lymphocytes deviennent alors capables de les faire entrer massivement dans les ganglions lymphatiques. Ce processus est un élément nécessaire à la surveillance immunitaire de l'organisme.

En effet, les cellules dendritiques connues comme les sentinelles du système immunitaire, sont chargées de collecter et de présenter les antigènes étrangers provenant de virus, de bactéries ou de cellules cancéreuses, aux lymphocytes T. En contrôlant aussi l'accès des lymphocytes aux ganglions via les vaisseaux HEV, les cellules dendritiques vont permettre la rencontre entre les lymphocytes et les antigènes étrangers contre lesquels ils sont dirigés. Les cellules dendritiques jouent ainsi un nouveau rôle essentiel dans le système immunitaire, rôle insoupçonné jusqu'alors.

Les chercheurs ont également étudié les mécanismes mis en jeu dans le dialogue entre les cellules dendritiques et les vaisseaux HEV. Une meilleure connaissance de ces mécanismes pourrait avoir des applications importantes pour le traitement des maladies inflammatoires chroniques et du cancer. En effet, des vaisseaux HEV apparaissent dans la plupart des maladies inflammatoires chroniques (polyarthrite rhumatoïde, maladie de Crohn, dermatite atopique, psoriasis, asthme, …) et contribuent à l'inflammation du tissu. Bloquer la fabrication des vaisseaux HEV permettrait donc de diminuer l'inflammation. A l'inverse, dans le cancer, les vaisseaux HEV ont un effet bénéfique car ils facilitent l'entrée dans les tumeurs des lymphocytes tueurs. Mieux comprendre les mécanismes de fabrication des vaisseaux HEV pourrait permettre d'augmenter la quantité de ces vaisseaux dans les tumeurs afin d'améliorer l'éradication des cellules cancéreuses par les cellules tueuses.

CNRS

Cancers de l’ovaire : Découverte d’une double signature prédictive de l’agressivité tumorale et de la réponse au traitement
Mercredi, 23/11/2011 - 00:30

Dans les cancers de l’ovaire, l’équipe de Fatima Mechta-Grigoriou vient de découvrir deux signatures moléculaires exclusives ayant une valeur pronostique. La signature de « stress oxydant » permet d’identifier des tumeurs, certes agressives, mais plus sensibles au traitement. La signature de type « fibrose » caractérise les tumeurs à fort risque de dissémination tumorale. La signature « stress oxydant » est donc de meilleur pronostic que la signature « fibrose ». Cette découverte publiée online dans Nature Medicine du 20 novembre 2011 devrait faire évoluer le pronostic et la prise en charge des cancers de l’ovaire.

La contrepartie de la respiration est la production de dérivés de l’oxygène qui peuvent agresser la cellule. C’est le stress oxydant. Le plus souvent, la cellule élimine ce stress. Toutefois lorsque les cellules sont débordées ou qu’elles ne disposent pas de ressources anti-oxydantes suffisantes, le stress oxydatif provoque des altérations, favorisant le développement des cancers.

Ces mécanismes sont au coeur des recherches de l’équipe « stress et cancer », dirigée à l’Institut Curie par Fatima Mechta-Grigoriou, directrice de recherche Inserm. Elle vient de mettre en évidence, dans les cancers de l’ovaire, deux signatures moléculaires, qui permettent d’émettre un pronostic sur l’évolution de la maladie. En effet, les tumeurs de l’ovaire présentent soit une signature « stress oxydant » soit une signature « fibrose ». La fibrose est le résultat d’une modification de certaines propriétés des cellules cancéreuses, augmentant leur capacité à migrer.

  • Adapter le traitement selon la signature moléculaire identifiée chez la patiente

Dans les modèles animaux étudiés, l’existence de la signature « stress oxydant » accélère la croissance tumorale. Le stress oxydant est donc bien un accélérateur du développement des cancers de l’ovaire. Néanmoins, il améliore aussi la réponse au traitement. Ainsi, si des cellules tumorales souffrant d’un stress oxydant se multiplient très vite, elles meurent aussi plus facilement des suites du traitement. Au contraire, la signature « fibrose », favorise la migration des cellules tumorales, et est donc propice à la dissémination métastatique. La signature « stress oxydant » est donc de meilleure pronostique que la signature « fibrose ».

« Quoique hautement prolifératives, les tumeurs présentant la signature « stress oxydant » sont plus sensibles à certaines chimiothérapies, notamment le paclitaxel (taxol) et ses dérivés. » précise Fatima Mechta-Grigoriou. Les chercheurs observent alors une diminution de la taille de la tumeur et une augmentation de la mort des cellules tumorales.

En collaboration avec les médecins de l’Institut Curie, le Dr Xavier Sastre-Garau, pathologiste, et le Docteur Paul Cottu, oncologue, un test permettant d’identifier facilement si chaque nouvelle patiente atteinte d’un cancer de l’ovaire est porteuse d’une tumeur de type « stress oxydant » ou « fibrose » est envisagé pour pouvoir adapter la prise en charge thérapeutique.

Institut Curie

Text neck : quand les portables génèrent de nouvelles pathologies
Mercredi, 23/11/2011 - 00:20

Les nouvelles technologies peuvent avoir des conséquences sur la santé. Ainsi, l'utilisation intense d'un téléphone portable, dans une mauvaise attitude corporelle, peut causer des douleurs musculaires et cervicales.

L'utilisation prolongée du téléphone portable dans ses applications de lecture de textos ou de vision de films vient d'être rapportée responsable de douleurs de la nuque, du cou et des épaules. Ceci n'est pas surprenant et doit être rapproché de ce qui est connu, depuis de nombreuses années, sous le nom de technopathie d'attitude.

Le terme de technopathie regroupait initialement les pathologies de surmenage articulaire, musculaire et tendineuse rencontrées lors des pratiques sportives intensives qui entraînent la répétition d'un même geste sportif. L'un des exemples le plus connu est celui de l'épicondylite du joueur de tennis ("tennis elbow" pour les anglo-saxons). Par extension, il est classique de décrire des technopathies d'attitude qui rendent compte de douleurs musculaires et tendineuses liées au maintien d'attitudes prolongées, le plus souvent en mauvaises positions.

Celles-ci ont été particulièrement bien décrites chez les utilisateurs d'ordinateur, notamment lors de la position assise. C’est ainsi que des critères de bonne position assise et d’attitude du cou et de la tête ont pu être définis pour les utilisateurs intensifs d’ordinateur au travail (distance invariable oeil-écran, alignement de la tête sur l’horizontal, renforcement des muscles de soutien du rachis cervical par des exercices appropriés, délassement du cou après une attitude figée prolongée...).

Toutes ces mesures ont permis de réduire grandement l’incidence des douleurs cervicales chez les utilisateurs d’ordinateurs. Ainsi le "Text neck" apparaît être une technopathie d’attitude déjà connue, mais nouvelle dans sa cause : l’utilisation intense du téléphone portable dans de mauvaises conditions d’attitude.

Les conseils de prévention vont comporter : l’apprentissage d’une bonne attitude, des exercices de renforcement des groupes musculaires sollicités dans cette bonne attitude qui seront à compléter par des exercices d’étirement. Le respect de ces recommandations préviendra l’apparition du "Text neck".

Atlantico

L'origine de la marche humaine
Mercredi, 23/11/2011 - 00:00

Les jeunes rats comme les petits humains apprennent à marcher en utilisant la même chaîne de commande nerveuse motrice, rapporte une nouvelle étude.

Les résultats de cette étude réalisée par des chercheurs de la Santa Lucia Fondation à Rome (Italie) et publiée dans la revue Science suggèrent que la locomotion chez les humains et les autres animaux a évolué à partir d'un même réseau neuronal ancestral. Ces réseaux sont constitués de neurones individuels qui peuvent avoir des fonctions différentes mais sont interconnectés. Ils communiquent entre eux par des signaux électriques et ces signaux peuvent être captés et mesurés par les chercheurs.

Pour cette étude, ils ont comparé l'activité électrique produite par 20 différents muscles squelettiques chez le jeune enfant et l’adulte, à celle produite par le nouveau-né pendant la marche automatique, un réflexe archaïque qui mime des mouvements de marche lorsqu’on soutient un nouveau-né en position debout. La marche automatique disparaît comme d’autres réflexes archaïques entre le troisième et le sixième mois.

Les auteurs ont trouvé que chez les nouveau-nés, les neurones de la moelle épinière sont activés en deux étapes : une première qui commande aux jambes de se plier et de se tendre, et une seconde d'alterner pour avancer.

Le circuit neural des enfants qui ont adopté la « vraie » marche, demande quatre étapes permettant de commander le mouvement de jambes mais aussi des gestes plus subtils comme le décollage des doigts des pieds avant que la jambe ne commence à se plier. Ce motif en quatre étapes se renforce avec l'âge. Des circuits neuraux similaires ont été aussi observés chez le rat, le chat, le singe et la pintade. Cette  étude montre ainsi que même s’il a divergé pour prendre en compte la bipédie, le modèle de marche humaine préserve certains aspects de la fonction motrice communs à plusieurs espèces animales.

Sciences et Avenir

La sympathie et la confiance en soi sont en partie génétiques
Mardi, 22/11/2011 - 00:00

Etre gentil relève de notre personnalité ou de notre code génétique ? Selon une nouvelle étude, une grande partie de nos comportements avec autrui est en réalité déterminée par notre ADN explique le site health.com. Ainsi, être ouvert et sympathique, avoir une certaine facilité pour le contact avec les gens sont des qualités qui dépendent d’une certaine «variation dans les gènes».

Des recherches plus anciennes ont montré que de nombreux traits de la personnalité dépendaient de la manière dont certains gènes, agissant comme des récepteurs, fixent l’oxytocine, aussi appelée «hormone de l’amour», qui joue un rôle important dans la détermination de nos comportements sociaux, comme l’empathie, l’anxiété ou même l’agressivité.

La nouvelle étude publiée dans la revue scientifique Proceedings of the National Academy of Sciences, révèle en se basant sur l’observation des génotypes de 46 personnes que ceux qui ont les deux nucléotides G sur les gênes récepteurs de l’oxytocine ont une meilleure estime d’eux et sont plus sociables que ceux qui ont d’autres combinaisons. Au contraire, les personnes qui ont au moins un A (pour adénine) ont plutôt tendance à être plus angoissées, et ont un plus grand risque d’être autistes.

Serena Rodrigues Saturn, co-auteure de l’étude et professeure assistant de psychologie à l’université d’Etat de l’Oregon, insiste sur l’importante avancée de ces recherches : «C’est la première fois que quelqu’un observe comment les différents génotypes se manifestent dans les comportements, à un tel point que des étrangers peuvent les reconnaître.»

Pour cette étude, les chercheurs ont créé 23 couples à partir des 46 participants pour ensuite les filmer en train de se confier l’un à l’autre sur un moment particulièrement difficile de leur vie, selon le Huffington Post. Avec le son coupé, les vidéos ont été alors montrées à un groupe de 116 personnes. Ils devaient ensuite évaluer en observant seulement les gestes, la gentillesse, l’attention et la sincérité de celui des deux qui écoutait.

Selon Health.com, même si les chercheurs s’attendaient à ce qu’il y ait une certaine corrélation entre le génotype des 46 participants et leur classement, ils ont été «stupéfaits» de voir que l’intuition des observateurs était si juste. Sur les dix personnes considérées comme «les plus pro-sociales» 6 ont le génotype GG, et sur les 10 personnes classées dans la catégorie «les moins dignes de confiance», 9 ont au moins un nucléotide A dans leur génotype.

Keith Kendrick, neuroscientifique à l’université de science électronique et de technologie de Chine, à Chengdu, tient à préciser que les récepteurs d’oxytocine sont aussi connus pour être modifiés par l’environnement. Les expériences de la vie jouent donc aussi un rôle selon lui : «Ce n’est pas parce que vous avez une version “A” de ce gène récepteur que vous êtes marqué comme une personne complètement associable. Evidemment de nombreux autres gènes contribuent à ce phénomène aussi complexe qu'est le comportement en société, mais il est intéressant que celui-ci en particulier semble jouer un rôle.»

Slate

Aller chez le dentiste pour préserver son cœur
Lundi, 21/11/2011 - 00:30

Le congrès annuel de l'association américaine de cardiologie est l'occasion de faire le point sur les  facteurs de risque et la prévention des maladies cardiaques. L'hygiène dentaire fait partie de cette stratégie.

Comme chaque année, le congrès de l’American Heart Association (qui s’est tenu du 12 a 16 novembre à Orlando, en Floride) est l’occasion pour les spécialistes du cœur de faire le point sur les dernières découvertes en cardiologie. Cette année, l’accent est mis sur la prévention des maladies cardiovasculaires et le dépistage des facteurs de risques.

Parmi les nouvelles mesures de prévention, peut-être faudra-t-il un jour inclure des visites régulières chez le dentiste. Une étude taïwanaise présentée lors du congrès fait en effet état d’une diminution de 24 % du risque de crise cardiaque et de 13 % du risque d’accident vasculaire chez les personnes qui effectuent un nettoyage -et détartrage- des dents régulier (au moins une fois par an) chez le dentiste.

A prendre en compte, car l’étude a porté sur plus de 50.000 personnes pendant une moyenne de sept ans. L’existence d’un lien entre l’état dentaire et la santé cardiaque est connue depuis longtemps -il y a quelques années encore les futurs opérés à cœur ouvert devaient se faire arracher les dents- mais c’est la première fois qu’il est évalué ainsi.

Le nettoyage régulier des dents permettrait de diminuer la croissance des bactéries gingivales qui peuvent générer un état inflammatoire pouvant favoriser l’apparition d’une maladie cardiovasculaire. « Ces résultats ne sont pas surprenants car il y a de nombreuses études montrant une association entre l'inflammation et les maladies cardiaques », a déclaré le Docteur Lawrence Phillips, cardiologue au Langone Medical Center (Etats-Unis) « Une bonne hygiène dentaire est recommandée pour tous les patients », a-t-il ajouté.

Sciences et Avenir

Sclérose latérale amyotrophique : identification d'un nouveau gène
Lundi, 21/11/2011 - 00:10

Un nouveau gène, principal responsable de la sclérose latérale amyotrophique (SLA, ou maladie de Charcot) de forme familiale sporadique, a été identifié. L'étude qui a débuté il y a dix ans, a été menée par des chercheurs italiens du centre SLA de l'hôpital Le Molinette de Turin, de l'Université catholique du Sacré Coeur et de l'Université de Cagliari, avec l'intervention du Laboratoire Neurogénetique du National Institute of Health.

L'identification du gène, basée sur les analyses de 268 cas familiaux de SLA américains, allemands et italiens, et de 402 cas familiaux et sporadiques de SLA finlandais, a permis de découvrir que 38 % des cas familiaux et environ 20 % des cas sporadiques étaient porteurs d'une altération d'un gène spécifique. L'altération identifiée consiste en une expansion exonucléotidique (GGGGCC) au niveau du premier intron du gène. Le mécanisme à travers lequel le gène c9orf72 induit la SLA n'est pas encore bien connu. La protéine c9orf72 est normalement située à l'intérieur du noyau, mais sous sa forme mutée elle est généralement située dans le cytoplasme. Cette localisation altérée de la protéine pourrait être à l'origine de son disfonctionnement. De plus, l'expansion exonucléotidique engendre une altération de la transcription de l'ADN en enlevant des protéines et de l'ARN, normalement impliqués dans la régulation de cette transcription.

L'importance de la découverte du gène ouvre la porte à une thérapie génique. Le directeur du Centre SLA du Département de Neurosciences de l'Hopital Molinette de Turin, le professeur Adriano Chiò, précise que l'étude se poursuivra maintenant en analysant l'ADN de cinq footballeurs atteints de la maladie ; des cas qui n'ont rien à voir avec ceux cités précédemment, mais qui pourraient tout de même apporter d'autres considérations, c'est-à-dire identifier si parmi ces sportifs atteints de SLA il peut y avoir des conditions environnementales particulières capables d'activer la maladie chez ceux qui en sont génétiquement prédisposés. L'étude a été publiée sur la revue internationale Neuron, la plus importante dans le domaine de la Neurologie.

Bulletins Electroniques

Un nouvel anticoagulant réduit la mortalité et la rechute en cas d'infarctus
Dimanche, 20/11/2011 - 00:00

Selon une étude clinique publiée le 13 novembre, les personnes hospitalisées pour un infarctus et traitées avec un nouvel anticoagulant, le Xarelto, ont un risque de rechute ou de mortalité nettement réduit.

Le Xarelto – rivaroxaban, nom de la molécule – qui est administré oralement en combinaison avec un anticoagulant standard, présente en revanche plus de risques d'hémorragie importante que les autres traitements visant à rendre le sang plus fluide, ont souligné les auteurs de cette étude clinique parue dans la version en ligne de la revue médicale américaine New England Journal of Medicine. Les résultats ont été simultanément présentés à la conférence annuelle de l'American Heart Association à Orlando en Floride.

Ces chercheurs ont suivi plus de 15 000 patients de différents pays hospitalisés à la suite d'une crise cardiaque ou d'une angine de poitrine instable. Une partie de ces malades pris au hasard ont été traités avec le Xarelto combiné à un anticoagulant standard, tandis que les autres ont pris un placebo au lieu du Xarelto. Les participants à cette étude ont été suivis pendant plus d'un an en moyenne.

Les patients traités avec du Xarelto ont vu le risque de succomber à un infarctus ou un accident vasculaire cérébral réduit de 16 % comparativement à ceux ayant pris un placebo. Le risque de mortalité de toutes causes a diminué de plus de 30 % avec le Xarelto, un inhibiteur de la coagulation du sang. Il a aussi permis de réduire de 31 % le risque de formation de caillot avec un stent (sorte de ressort métallique placé à l'intérieur d'une artère pour la maintenir ouverte et assurer la circulation du sang) comparé au groupe témoin.

Les auteurs de l'étude ont aussi constaté un risque accru d'hémorragie interne sérieuse avec cet anticoagulant, mais il n'y a eu aucun cas mortel. "Malgré les efforts déployés jusque-là pour traiter les personnes venant de subir un infarctus ou souffrant d'angine de poitrine aiguë, ces patients voyaient leur risque de subir une nouvelle crise cardiaque, une attaque cérébrale ou de décéder dans les douze mois augmenter d'au moins 10 %", souligne le Docteur Michael Gibson, de la faculté de médecine de l'université Harvard et principal chercheur chargé de cette partie de l'essai clinique sur le Xarelto.

NEJM

L'obésité infantile peut être prédite dès trois ans et demi
Vendredi, 18/11/2011 - 05:10

Les signes de surpoids et d'obésité infantile se manifesteraient dès l'âge de trois ans et demi. À partir de ce moment, les enfants ayant un indice de masse corporelle (IMC) élevé se détachent rapidement du lot. Cinq ans plus tard, la moitié d'entre eux sont obèses et les autres affichent un surpoids.

Ce sont les résultats obtenus par Laura Pryor, doctorante au Département de médecine sociale et préventive de l'Université de Montréal et première auteure d'une étude publiée sur le sujet dans le dernier numéro d'Archives of Pediatric and Adolescent Medicine. "De cinq mois à deux ans et demi, tous ont un IMC semblable. À partir de trois ans et demi, un groupe d'enfants se développent de façon atypique. Leur IMC augmente davantage avec l'âge, atteignant à huit ans une moyenne de 24", indique la jeune chercheuse, qui est associée au Groupe de recherche sur l'inadaptation psychosociale chez l'enfant et au Centre de recherche du CHU Sainte-Justine.

L'International Obesity Task Force a établi des seuils d'embonpoint et d'obésité par âge et par sexe. Selon ces normes, Laura Pryor a déterminé que la moitié des enfants de ce groupe était obèse et que l'autre était en surpoids.

Mille-neuf-cent-cinquante-sept enfants ont participé à cette recherche. Mme Pryor et ses collègues ont pu obtenir leurs caractéristiques physiques ainsi que des renseignements sur leur mère et leur famille grâce à l'Étude longitudinale du développement des enfants du Québec. Ces données ont l'avantage d'être plus représentatives de l'évolution de l'enfant dans le temps car elles sont collectées chaque année.

Les chercheurs ont ainsi calculé l'IMC de chaque enfant, c'est-à-dire le poids en kilogrammes divisé par la taille en mètres au carré. Trois trajectoires ont été définies : un IMC bas mais stable, un IMC moyen et un IMC élevé et croissant. Environ 54 % des participants faisaient partie du premier groupe, 41 % empruntaient la deuxième trajectoire et 4,5 % entraient dans la dernière catégorie, ceux dont le développement est atypique.

  • Des causes périnatales

"Des mécanismes menant à l'obésité infantile se mettent en place bien avant la naissance", observe la doctorante, qui est dirigée par la professeure Sylvana Côté. En effet, elle a désigné deux facteurs de risque associés de près à un IMC élevé et croissant : le tabagisme et le surpoids, voire l'obésité, pendant la grossesse.

Les enfants de mères en situation de surpoids pendant leur gestation courent 2,38 fois plus de risques de souffrir d'embonpoint. Si les mères sont obèses, cette probabilité grimpe à 6,33. Si elles fument durant leur grossesse, le risque est multiplié par 2,28. "Les effets négatifs du tabagisme et de la surcharge pondérale dans ce contexte sont déjà connus, bien qu'on se questionne toujours sur la manière dont la cigarette peut influer sur le développement corporel de l'enfant, signale Mme Pryor. Quant au surpoids et à l'obésité, il y a des facteurs tant génétiques qu'environnementaux à prendre en compte, ce que nous n'avons pu préciser dans cette recherche."

La chercheuse dit être consciente que les habitudes de vie sont difficilement modifiables. "Ces comportements peuvent représenter un état de vulnérabilité plus large, c'est pourquoi il est dur pour les gens de les changer", analyse-t-elle.

Mais l'obésité augmente rapidement chez les enfants canadiens - une progression de un pour cent chaque année. Laura Pryor espère donc que les résultats de son étude encourageront les interventions auprès des futures mères. "Les conclusions de notre recherche vont dans le sens des arguments de plus en plus nombreux dans la littérature concernant le lien entre la période périnatale et le surpoids pendant la croissance, souligne-t-elle. D'autres études devraient être menées afin d'évaluer les mesures de prévention à mettre en oeuvre pendant la grossesse. Une modification des habitudes de vie chez ces femmes pourrait réduire la transmission intergénérationnelle de l'obésité."

Laura Pryor suivra la croissance de ces enfants qui sont maintenant âgés de 12 ans. "J'aimerais savoir ce qui leur arrive une fois qu'ils sont adolescents, car l'obésité persiste généralement dans le temps", mentionne-t-elle.

Techno-Science

Les cellules souches au secours des victimes d’infarctus du myocarde
Vendredi, 18/11/2011 - 05:00

Pour la première fois au monde, des médecins américains démontrent l’efficacité d’un traitement régénérateur révolutionnaire.

Cette annonce est à la fois une éclaircie et une promesse. Eclaircie dans l’épaisse forêt des publications contradictoires quant à l’intérêt médical à accorder aux cellules souches humaines. Promesse dans le développement à court terme d’une amélioration des traitements de l’infarctus du myocarde, cette affection fréquente, handicapante, parfois mortelle et socialement coûteuse.

Résumons : pour la première fois au monde une équipe de médecins américains apporte la démonstration que des cellules souches (présentes au sein du muscle cardiaque de chacun) peuvent aider à améliorer les performances d’un cœur infarci.

Ces résultats ont été rendus publics lundi 14 novembre à Orlando (Floride) dans le cadre d’un meeting scientifique de l’Association américaine de cardiologie. Ils font également l’objet d’une publication détaillée sur le site de l’hebdomadaire médical britannique The Lancet. Le travail a été mené sous l’autorité des Professeurs Roberto Bolli (University of Louisville) et Piero Anversa (Brigham and Women’s Hospital, Harvard Medical School, Boston).

L’infarctus du myocarde, la plus fréquente des «crises cardiaques» est la conséquence d’un brutal arrêt d’une partie de la vascularisation du muscle myocardique. On sait que ce phénomène est dû à l’obturation plus ou moins importante de la circulation sanguine dans le réseau des artères coronaires. Quand il n’est pas mortel, ce phénomène a pour conséquence, au-delà de la crise douloureuse qu’il provoque, d’entraîner une destruction irréversible d’une fraction de ce muscle qui a été durablement privée d’oxygène.

Corollaire: diminution de la puissance de la pompe cardiaque (calculée à partir de la fraction d’éjection du ventricule gauche) avec tous les symptômes et les insuffisances qui l’accompagnent.

Depuis deux ou trois décennies, de nombreux progrès ont été réalisés dans la prise en charge médicale et chirurgicale des personnes victimes d’infarctus; grâce notamment au développement des Samu et des unités hospitalières de soins cardiaques intensifs. Pour autant, la restitution ad integrum du muscle infarci demeurait un objectif inaccessible. Du moins jusqu’au début des années 2000, quand on a découvert que des cellules souches étaient toujours présentes au sein du muscle cardiaque des organismes adultes.

  • Redonner vie au muscle

Par définition, de telles cellules sont à la fois capables de se reproduire à l’identique et/ou de se diviser en donnant naissance aux cellules différenciées (musculaires et vasculaires) qui constituent la pompe cardiaque.

C’est dans ce contexte qu’ont été menés chez l’animal les premiers travaux expérimentaux. Ils  ont démontré qu’il était possible, en pratique, de redonner vie à un muscle cardiaque infarci. La tentative n’avait toutefois pas encore été réalisée chez l’homme. C’est désormais chose faite, avec succès.

L’équipe américaine  explique avoir procédé à un essai clinique (dit de phase I) destiné à établir l’innocuité, la faisabilité de la technique ainsi que le principe de son efficacité. Elle précise avoir travaillé grâce à des fonds publics et respecté toutes les dispositions réglementaires et éthiques en vigueur aux Etats-Unis.

Cet essai a au total été mené chez vingt-trois personnes ayant été victimes d’un infarctus du myocarde sévère, entraînant une fraction d’éjection du ventricule gauche inférieure à 40 %. Toutes avaient bénéficié d’un pontage aorto-coronarien. Deux groupes ont été constitués. Dans le premier, sept malades ont été pris en charge de manière standardisée. Chez les seize autres, les médecins ont injecté (via un simple cathéter, en différents endroits du système vasculaire coronarien) environ un million de cellules souches quatre mois après l’intervention de chirurgie cardiaque. Ces cellules avaient préalablement été prélevées au sein d’une petite zone du muscle cardiaque chez chaque malade avant d’être cultivées et différenciés in vitro.

Au final, les chiffres sont éloquents : chez quatorze des seize malades du second groupe, la fraction d’éjection du ventricule gauche est passée, quatre mois après l’injection, de 30,3 % à 38,5 % tandis qu’elle demeurait inchangée dans le premier groupe. Mieux encore, un an après l’injection de cellules souches, le pourcentage était passé à 42,5 % soit un gain total de 12,3 %. Et cette amélioration spectaculaire de la fonction cardiaque a été confirmée via l’imagerie par résonance magnétique nucléaire : la zone musculaire cardiaque infarcie (initialement de 32,6 grammes) a été réduite de 30 % en un an.

Les auteurs qualifient leurs propres résultats de «très encourageants». Ils estiment en substance avoir mis au point ce qui devrait, en toute logique, constituer une avancée majeure dans le traitement complémentaire des formes les plus sévères des infarctus du myocarde.

Si ces résultats sont confirmés, une question annexe pourrait bientôt émerger, comme c’est le cas avec certaines avancées thérapeutiques : le détournement de la technique à des fins d’améliorations substantielles des capacités d’un muscle cardiaque normal. Des sportifs (et leur entourage) en rêvent sans doute déjà.

Slate

Une activité physique régulière réduit les risques de dépression chez les seniors
Vendredi, 18/11/2011 - 00:30

Cette grande enquête (sur la base de l’étude SHARE) a été réalisée auprès de 17.500 personnes de toute l'Europe, âgées de 64 ans en moyenne. Selon Magnus Lindwall de l'Université de Göteborg, en charge de cette étude, « nous ne savons pas encore ce qu'est vraiment la relation de cause à effet entre l'activité physique et la dépression. Ce qui est évident, c'est que les personnes âgées physiquement actives sont moins déprimées ».

Et d’ajouter : « mais les niveaux élevés de dépression peuvent aussi entraîner une baisse de l'exercice physique, ce qui laisse supposer qu'il existe une influence mutuelle. Cette étude est l'une des premières à se pencher sur la façon dont l'activité physique affecte la dépression future et vice-versa, et elle montre que les changements dans l'activité physique sont associés aux changements dans la dépression au fil du temps ». « Une question importante pour les chercheurs est de déterminer ce qui motive les personnes âgées à être physiquement actives » poursuit Magnus Lindwall.

« Les théories motivationnelles modernes établissent par exemple que les personnes se sentant en mesure de faire une activité, de prendre des décisions et d'avoir la liberté de leurs choix, et qui ont une relation sociale liée à l'activité physique connaissent une forme plus interne et moins contrôlée de motivation pour une activité physique. Cette forme de motivation, contrairement à une forme externe non auto-déterminante, est également associée au maintien d'une activité physique régulière sur le long terme qui améliore également les perspectives d'effets positifs de l'activité physique sur la santé mentale et physique ». « Nous développons et testons actuellement un programme structuré pour améliorer la motivation pour une activité physique chez les personnes âgées sur la base de théories qui bénéficient aujourd'hui d'un grand soutien dans la recherche » conclut le chercheur.

Dans une population européenne qui vieillit, de telles études sont essentielles pour soutenir les recommandations du gouvernement sur l'utilité de l'activité physique en tant que mesure préventive importante contre les problèmes de santé mentale chez les personnes âgées. Si la dépression chez les personnes âgées les empêche d'être physiquement actives, cela aura des répercussions sur tout le système de santé.

Senior Actu

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
France : un véhicule lourd va rouler au carburant GNL !
Jeudi, 24/11/2011 - 00:00

Les premiers essais sur véhicule lourd roulant au carburant Gaz Naturel Liquéfié (GNL) à Bénesse-Maremne (département des Landes) vont être réalisés par la société Transports P. MENDY en partenariat avec IVECO France et GNVERT (groupe GDF Suez).

Les 3 entités ont annoncé la mise en place conjointe des premiers essais d'utilisation du GNL carburant en condition d'exploitation, sur un ensemble poids lourd IVECO à Bénesse-Maremne (40). Les essais s'étaleront sur près de 3 semaines d'exploitation, sur un circuit de livraison régionale pour la grande distribution et un circuit technique en longue distance.

Cette première française résulte de l'engagement de tous les acteurs impliqués dans le développement et la promotion d’une filière « propre » dans le secteur du transport de marchandises. Considéré comme plus "écologique" que son homologue dérivé du pétrole (gazole), le carburant GNL se révèle aussi être plus économique à l'usage pour une autonomie équivalente.

En développement dans plusieurs pays européens (Suède, Pays-Bas, Grande-Bretagne, Suisse…), et expérimenté depuis quelques années aux Etats-Unis et au Canada, le carburant GNL fait aujourd'hui ses premiers kilomètres dans l'hexagone. Stocké sous forme liquide à -160°, le carburant gaz naturel permet réellement une autonomie de 1 000 kilomètres pour les poids lourds, ouvrant la voie au transport longue distance tout en constituant une alternative crédible au gazole.

La fiabilité du GNL est éprouvée par l'utilisation depuis près de 15 ans du carburant gaz naturel sous sa forme gazeuse (GNV), qui alimente quotidiennement en France plus de 2 300 bus (près de 15 % des bus roulent au GNV en France) et plusieurs centaines de véhicules de propreté urbaine (près de 14 % des véhicules de propreté urbaine roulent au GNV en France).

Majoritairement composé de méthane, le carburant gaz naturel n'émet aucune particule fine (souvent responsables des maladies respiratoires en zones urbaines), réduit de 80 % les émissions d'oxydes d'azote et jusqu'à 25 % les émissions de CO2. Par ailleurs, il divise par 2 les émissions sonores des moteurs et atténue les vibrations à tous les régimes de fonctionnement. Il existe aussi sous forme renouvelable avec le bioGNV.

Le Stralis AT 440S33 GNL est le dernier né de la grande famille des poids-lourds IVECO conçue depuis 1998 pour fonctionner au carburant gaz naturel et le premier à l'employer sous forme liquide. Son moteur Cursor 8 CNG turbo de 330 ch., produit depuis 2004 à l'usine FPT Industrial de Bourbon Lancy (Saône et Loire), utilise le principe de la combustion stœchiométrique afin d’atteindre un haut rendement énergétique et des émissions de NOx et de particules 3 fois inférieures aux limites qui seront imposées en 2014 par la règlementation Euro VI.

Enerzine

Le CNRS facilite l'accès à ses brevets
Mardi, 22/11/2011 - 00:20

Renforcer les capacités d’innovation et donc la compétitivité des petites et moyennes entreprises et industries françaises en leur cédant des brevets non exploités. Tel est l’objectif du programme PR2 (Partenariat renforcé PME-Recherche) que lance le CNRS.

Présenté pour la première fois le 15 novembre 2011 par le président du CNRS, Alain Fuchs, à l’occasion des journées « Contacts innovation » organisées par le Ministère de l’enseignement supérieur et de la recherche, ce dispositif  s’inscrit dans la stratégie de l’organisme pour soutenir le développement économique du pays. « Le commerce extérieur de la France reste très déficitaire, rappelle Pierre Gohar, à la tête de la Direction de l’innovation et des relations avec les entreprises  (DIRE) du CNRS. Or, l’innovation technologique peut permettre aux PME/PMI françaises de renforcer leur leadership à l’international, les brevets définissant un territoire dans lequel les entreprises peuvent évoluer sereinement sans problème de concurrence. »

Le CNRS dispose aujourd’hui d’environ 4500 familles de brevets (Une famille de brevets est constituée du brevet national et de ses déclinaisons internationales) dont certaines, pourtant très proches de la maturité, ne sont pas exploitées. Alors plutôt que de laisser ces inventions en sommeil, le CNRS a décidé de les céder aux PME/PMI dans le cadre d’un véritable partenariat. « Une entreprise intéressée par l’un de nos brevets devra s’engager à mener à bien, avec nos laboratoires, le programme de recherche de quelques mois qui permettra de transférer les savoir-faire et d’adapter l’invention à ses besoins spécifiques », explique Pierre Gohar. La réussite de ce programme et la mise en place par la PME/PMI d’une stratégie d’innovation durable conditionnent la cession du ou des brevets à un coût forfaitaire très attractif pour l’entreprise ; pas question pour le CNRS de transférer ces actifs pour qu’ils soient oubliés ensuite.

Selon les estimations de la DIRE, environ 1000 familles de brevets, déjà proches d’un transfert, sont éligibles. « C’est un programme gagnant-gagnant, assure Pierre Gohar. Les PME/PMI acquerront des brevets facilement et surtout rapidement tandis que le CNRS s’ouvrira les portes d’un monde économique auquel il a encore peu accès. Une majorité de nos accords concernent en effet les grands groupes. » Sans compter les économies réalisées sur les deniers publics : l’organisme dépense chaque année près de 17 millions d’euros pour entretenir ses 4500 brevets. Maintenir un brevet en vigueur nécessite en effet de payer des annuités dans chaque pays où il a été déposé. Plus le brevet est ancien, plus les annuités sont élevées. Quant aux retombées financières, elles seront certes modestes pour chaque inventeur mais bénéficieront à un plus grand nombre. Et rien n’empêche les chercheurs et les PME/PMI avec lesquelles ils travaillent de déposer de nouveaux brevets à l’issue du programme de recherche partenariale.

Développé par le CNRS avec le soutien de la Direction générale pour la recherche et l’innovation du Ministère, le programme PR2 associera une bonne part du monde académique. D’abord, nombre de brevets sont détenus en copropriété avec les universités ou d’autres organismes de recherche. Ensuite, les Instituts Carnot, les Pôles de compétitivité, les Sociétés d’accélération de transfert de technologie (SATT) ainsi qu’OSEO pourront être sollicités pour identifier les PME/PMI susceptibles d’être intéressées et pour mener à bien leurs projets. « Grâce au programme PR2, le CNRS, qui voit le nombre de ses brevets déposés croître exponentiellement depuis quelques années, s’implique durablement dans la vie économique du pays en soutenant ses PME/PMI avec ce qu’il fait de mieux : innover », conclut Pierre Gohar.

CNRS

E-volo: un multicoptère électrique
Lundi, 21/11/2011 - 00:40

Trois inventeurs allemands ont créé un engin volant muni de multiples hélices, très maniable et permettant de transporter un passager. Vous vous souvenez de l'AR Drone (voir article ici) qui se pilote depuis un iPhone ? L'e-volo est quelque peu semblable excepté qu'il est grandeur nature et qu'il ne se pilote pas avec un mobile.

Muni de pas moins de 16 rotors et d'hélices contrôlés par ordinateur, l'e-volo peut décoller à la verticale comme un hélicoptère et demeure fonctionnel même si quatre de ses hélices tombent en panne en plein vol. Il est alimenté par des batteries Lithium-ion. Il se commande facilement à l'aide d'un joystick, comme dans un jeu vidéo. Le passager se trouve sur un siège, au dessus des rotors, qui offre la possibilité de s'éjecter sur commande contrairement aux hélicoptères équipés de cabines.

L'engin est calme, écologique et économique: une heure de vol consomme environ 6 euros d'électricité. Les inventeurs ne manquent pas d'idées quant à son utilité : ils l'imaginent comme moyen de locomotion, comme ambulance aérienne, ou bien encore comme engin permettant de prendre des photos aériennes...

Quelques améliorations restent encore à apporter à ce prototype. Premièrement, son autonomie n'est que de 10 à 30 minutes aujourd'hui: ce problème pourrait être résolu facilement en utilisant un moteur hybride. Ensuite, cette première version n'offre la possibilité de transporter qu'un seul passager. Enfin, les inventeurs souhaitent développer une structure pliable et globalement plus ergonomique, et intégrer un logiciel GPS afin qu'il se dirige seul vers une destination saisie tout en évitant les éventuels obstacles.

Techno-Science

James Bond aura sa voiture volante en 2015 !
Dimanche, 20/11/2011 - 00:10

James bond n'a qu'a bien se tenir car la fameuse voiture volante chère au célbre espion pourrait bien devenir enfin réalité ! L'affaire est tout à fait sérieuse et Michel Aguilar, un ingénieur français à la retraite, s'est vu accorder une enveloppe budgétaire d'un million d'euros de la Délégation générale de l'armement (DGA) et du ministère français de l'Industrie, pour développer d'ici 5 ans un prototype d'engin futuriste hybride : mi voiture - mi avion.

Depuis 9 ans, l'ingénieur toulousain consacre tous ses efforts dans le projet "Xplorair" tout droit sorti d'un scénario de film de science-fiction. L'engin se présente comme un aéronef monoplace décollant grâce à de petits thermoréacteurs, des moteurs à réaction incorporés dans les ailes, qui soufflent sur un aileron mobile.

L'engin ressemble à un aéronef monoplace capable de décoller grâce à de petits thermoréacteurs incorporés dans les ailes, "soufflant" sur un aileron mobile. "Quand vous prenez une feuille de papier entre vos mains, elle se gondole. En soufflant dessus, elle se relève. C'est ce qui permet le décollage" précise-t-il. "Grâce aux subventions que j'ai obtenues, je vais pouvoir financer la validation du concept des thermoréacteurs, qui constitue une rupture technique importante dans le monde de l'aéronautique".

le coeur de l'innovation de rupture repose sur son thermoréacteur breveté dont la particularité est de réaliser une combustion pulsatoire à volume constant offrant des gains en consommation. Par ailleurs, sa très grande puissance volumique fait qu'il peut se loger directement dans les ailes.

L’effet Coanda est le résultat de l’attraction d’un jet de fluide par une paroi convexe voisine. Le fluide en suit la surface et subit une déviation avant de s'en détacher avec une trajectoire différente de celle qu'il avait en amont. Ce phénomène a été appliqué pour la première fois par l'aérodynamicien Henri Coanda.

Le prototype qui pourra voler à 2.500 m d'altitude et devrait avoir une autonomie d'environ trois heures sera même en mesure de fonctionner avec du biocarburant à base d'algues, entraînant au passage une économie de carburant de 15 % à 20 %. La vitesse de croisière a été évaluée à 200 km/h. Enfin, le prix de commercialisation devrait tourner autour de 50.000 euros. Conçu dans un premier temps en monoplace, il sera ensuite décliné en biplace, puis en quadriplace. "Le premier prototype volant devrait exister en 2015, sans pilote à l'intérieur", a affirmé Michel Aguilar au « Parisien. » "On fera des essais l'année suivante afin de proposer le premier véhicule Xplorair sur le marché vers 2017-2018."

Enerzine

Des chercheurs du KIT développent un nouveau concept pour des batteries fluorure-ion rechargeables
Samedi, 19/11/2011 - 00:20

Les batteries lithium-ion utilisées actuellement dans les véhicules électriques possèdent des capacités de stockage limitées. Maximilian Fichtner et Munnangi Anji Reddy, respectivement chef et membre du groupe Systèmes de stockage d'énergie à l'Institut de nanotechnologie (INT) de l'Institut de technologie de Karlsruhe (KIT - Bade-Wurtemberg), ont développé un concept de batterie rechargeable basé sur les fluorures métalliques.

Les fluorures métalliques sont certes déjà utilisés en tant que matériau de conversion dans les batteries lithium-ion. Cependant, il est possible de s'affranchir de l'élément lithium en employant des électrolytes contenant du fluor, une anode en métal et une cathode en fluorure métallique. Les batteries ainsi obtenues présentent une capacité et une sécurité nettement plus élevées que celles utilisant la technologie lithium-ion. Dans le cas présent, ce sont les anions fluorure qui assurent le transfert de charges. "Du fait que plusieurs électrons par atome métallique peuvent être transférés, ce concept permet d'obtenir des densités d'énergie importantes - jusqu'à dix fois plus élevées que les batteries lithium-ion actuelles", explique Maximilian Fichtner.

Les chercheurs du KIT travaillent désormais à la conception des matériaux ainsi qu'au développement de l'architecture de la batterie, afin d'augmenter leur capacité de départ et améliorer la stabilité de leurs cycles décharge/recharge. Un autre champ d'étude concerne le développement de l'électrolyte. En effet, les matières solides jusqu'alors constitutives de ce dernier ne sont adaptées que pour des applications à haute température. Le but est ainsi d'obtenir un électrolyte liquide utilisable à température ambiante.

Bulletins Electroniques

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top