RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 547
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Mars 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Fibre optique : la couverture du territoire plus coûteuse que prévu
Une technologie qui donne la parole aux muets
La paume de la main se transforme en clavier !
Un téléphone mobile pour les malades cardiaques
IBM développe des interconnexions optiques pour ses prochaines générations de puces
Matière
La relativité générale testée par interférence atomique
Terre
Stockholm élue capitale verte de l'Europe
Le stockage énergétique : un enjeu bien compris par la Californie
Vivant
L'espoir d'un vaccin contre « le cancer de l'amiante »
Les récepteurs à dépendance : une nouvelle arme anti-cancer ?
Cancer du sein: de nouveaux progrès
Les secrets génétiques de nos bactéries intestinales
Un exercice physique vif et fractionné serait plus efficace qu'un entraînement traditionnel
Restaurer la vue par thérapie génique
Recherche
Voitures électriques et hybrides mettront au moins dix ans à s'imposer
Edito
les incertitudes sur l'évolution climatique doivent-elles justifier l'immobilisme ?



Face aux attaques et remises en cause violentes et souvent injustifiées qui se déchaînent depuis quelques semaines contre les travaux du GIEC et ses recommandations aux responsables politiques, il faut rétablir quelques vérités.

Contrairement à ce qu'affirment les "climatosceptiques", les scientifiques savent aujourd'hui faire la part entre les causes naturelles et les activités humaines. Comme le souligne Jean JOUZEL, climatologue de renommée mondiale, "Les activités humaines ont commencé à sérieusement modifier le climat à partir des années 1960". Les modèles du climat simulent tous une forte amplification arctique du changement climatique: c'est ce qui est observé depuis quelques décennies.

Les scientifiques du GIEC n'ont jamais évoqué une quelconque disparition de l'homme ou toute autre apocalypse telle que certains sceptiques aimeraient bien le faire croire. Mais une chose est sûre : le niveau de CO 2 atmosphérique a augmenté ces dernières années plus vite que ne le prévoyait le pire scénario du Giec . Contrairement à ce qu'affirment les "climatosceptiques", les modèles climatiques utilisés ne sont pas des extrapolations des données observées ou une prolongation des phénomènes constatés dans le passé.

Lorsque les modèles évoquent une hausse possible des températures entre 2 et 6 °C, la moitié de cette fourchette exprime cette incertitude et ces incertitudes sont toutes dans les rapports du Giec", encore faut-il les avoir lus. Les modèles ne font pas tous les mêmes projections. Aucun ne propose une hausse linéaire des températures, mais tous prédisent un réchauffement. Le rôle du Soleil fait partie du débat scientifique. Le dernier rapport du Giec y consacre plus de 50 pages. Mais le Soleil compte beaucoup moins que l'orbite de la Terre, qui modifie lentement la répartition de l'ensoleillement et a été le moteur des glaciations.

Depuis une cinquantaine d'années environ, l'effet de serre intervient à hauteur de plus de 2 w/m² dans les températures, alors que l'activité solaire compte pour moins de 2/10 de w/m². Ce n'est pas du tout le même ordre de grandeur. Si l'activité solaire était la grande responsable du réchauffement actuel, on devrait constater un réchauffement des basses couches de l'atmosphère, ce qui est le cas, mais également des hautes couches. Or, pour ces dernières, c'est le contraire qui se produit : elles se refroidissent.

Le réchauffement moyen constaté à la surface de la terre au cours du siècle écoulé s'élève à 0,74°C dont 0,55 °C depuis 1950.Le réchauffement global enregistré depuis 50 ans est le plus important depuis 1000 ans !.

Depuis 1980, la banquise arctique estivale a perdue 11 % de sa surface par décennie et son épaisseur hivernale moyenne a été divisée par deux, passant de 3,64 à 1,89 mètre.

Après être resté quasiment stable pendant 2000 ans, le niveau moyen des océans s'est mis à augmenter de 1 mm par an à partir de la fin du XIXème siècle. Cette augmentation n'a cessé de s'accélérer pour atteindre à présent 3,3 mm par an (dont un tiers du à la dilation thermique et deux tiers à la fonte des glaces), soit 3,3 cm par décennie, ce qui est considérable.

Les derniers travaux du GIEC montrent qu'au niveau mondial, les émissions de CO2 continuent d'augmenter. Depuis 1990, ces émissions annuelles sont passées de 6,5 à 8 gigatonnes et le rythme d'augmentation annuel serait passé de 1,1 à 3,1 %. Depuis 1950, nous avons multiplié par 8 nos émissions mondiales de CO2 !

Nous avons la preuve incontestable que la capacité des "puits" naturels comme les forêts ou les océans à absorber le gaz carbonique diminue depuis 50 ans (- 10 % en 50 ans).

Nous savons également que les concentrations actuelles de CO2 dépassent de 35 % celles de l'ère préindustrielle, surpassant de loin les taux des 800 000 dernières années. Elles sont passées de 280 ppm à l'époque pré-industrielle à 379 ppm en 2005, et celles de méthane ont augmenté de 150 %. L'origine humaine des gaz à effet de serre est avérée.

Engendrée par l'augmentation des concentrations de dioxyde de carbone, l'acidification des océans progresse à une vitesse jamais observée depuis 65 millions d'années. Et cette augmentation extrêmement rapide du phénomène d'acidification aura rapidement un impact néfaste sur de nombreux organismes marins.

Plusieurs éléments prouvent que nous sommes responsables de cet excédent de CO2, comme la baisse du taux de carbone 14 (un isotope du carbone) dans l'atmosphère pour la période comprise entre 1850 et 1954. Une baisse qui n'est explicable que si une bonne partie du carbone relâché dans l'atmosphère à l'époque provenait de combustibles fossiles, qui ne contiennent pratiquement pas de carbone 14.

Les membres du GIEC n'ont jamais nié les lacunes et incertitudes qui caractérisent la connaissance des mécanismes complexes du climat au niveau planétaire mais doit-on attendre indéfiniment que toutes ces incertitudes soient levées et que tous les scientifiques soient d'accord, ce qui est une manière de ne rien faire, pour agir raisonnablement et commencer à réduire sensiblement nos émissions de GES ?

Le GIEC ne dit pas non plus que l'homme est entièrement responsable de l'accélération incontestable du réchauffement climatique enregistré depuis 150 ans.

Il reconnaît que la Terre est évidemment soumise à des variations climatiques cycliques, mais sur de grandes échelles de temps, alors que nous assistons depuis 150 ans à une accélération sans précédent du rythme de concentration de CO2 dans l'atmosphère et du rythme du réchauffement global.

Au rythme d'accroissement actuel des concentrations de gaz à effet de serre (GES), il y a de fortes probabilités pour que le réchauffement moyen de la planète augmente de 0,2° par décennie durant les trente prochaines années.

Nous pouvons bien entendu nous mettre la tête dans le sable et, invoquant des incertitudes inévitables dans notre compréhension du climat, continuer à nier la responsabilité de l'homme et de l'utilisation massive des énergies fossiles (pétrole, gaz et charbon) dans le réchauffement global de la planète mais une telle attitude ne fera pas disparaître la réalité du problème auquel est confronté l'humanité et ne peut que justifier l'immobilisme et le conservatisme. Ce sont nos enfants et petits enfants qui feraient les frais de cet aveuglement irresponsable.

Rappelons enfin qu'en admettant même que l'accélération sans précédent des émissions humaines de CO2 dans l'atmosphère (un milliard de tonnes en 1950, entre 8 et 10 milliards de tonnes en 2009) n'ait aucune conséquence sur le climat, position soutenue seulement par une infime minorité de scientifiques, il n'en resterait pas moins vrai qu'au rythme où le monde consomme les énergies fossiles, nous aurons consommé d'ici la fin de ce siècle la totalité des réserves connues de pétrole.

Nous devrons donc trouver d'autres sources d'énergie durables et renouvelables pour remplacer le pétrole, que l'on croit ou non au réchauffement climatique et à la responsabilité humaine dans ce domaine !

Ce n'est pas en refusant d'admettre qu'il y a bien un réchauffement climatique accéléré de la planète et que les activités humaines en sont pour partie responsables que nous ferons disparaître ce problème. Au contraire, plus nous anticiperons et prendrons des mesures globales et réalistes, sans catastrophisme mais sans faiblesse, plus nous aurons de chances de surmonter ce défi majeur de civilisation.

Cependant, en science il ne doit pas y avoir de vérité "officielle", définitive et immuable. C'est pourquoi les "climatosceptiques » ont toute leur place dans le débat scientifique et leurs thèses sont d'ailleurs présentées dans les travaux du GIEC et largement présentes dans les médias.

Mais la reconnaissance de ces opinions divergentes et le débat légitime qu'elles alimentent ne doit pas nous conduire à l'immobilisme, comme le souhaitent de manière avouée ou implicite beaucoup de leurs auteurs qui contestent également l'utilité de toutes les mesures prises au niveau national ou international pour réduire massivement nos émissions de GES.

En nous appuyant sur les avancées scientifiques nombreuses, raisonnables et convergentes dont nous disposons déjà, nous avons la responsabilité historique et le devoir moral, tout en poursuivant le débat scientifique de manière rigoureuse, ouverte et sereine, de commencer à agir maintenant pour prendre toutes les mesures nécessaires, même si elles sont difficiles et impopulaires, pour éviter ou limiter les effets désastreux que pourrait avoir pour l'humanité un dérèglement climatique de grande ampleur.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Fibre optique : la couverture du territoire plus coûteuse que prévu
Vendredi, 12/03/2010 - 00:00

Grand chantier pour l'aménagement du territoire et la réduction de la fracture numérique, le déploiement de la fibre optique en France est aujourd'hui sur les rails. D'un côté, les règles du jeu ont été fixées et validées, notamment en zones denses. De l'autre, le gouvernement a décidé d'utiliser 2 milliards d'euros tirés du grand emprunt pour soutenir la couverture.

Concrètement, dans les zones denses, les opérateurs investiront seuls puisque la rentabilité sera très vite au rendez-vous. Dans les zones moyennement denses, des appels à projets régionaux seront lancés d'ici six mois pour encadrer le déploiement de la fibre. Il s'agira d'associer opérateurs et collectivités.

Enfin, dans les zones rurales, le gouvernement a retenu un schéma de cofinancement des projets des collectivités territoriales puisqu'il est acquis que les opérateurs n'équiperont pas ces zones, le retour sur investissement étant loin d'être assuré.

Objectif affiché par l'Elysée : couvrir 100 % du territoire d'ici 2025. Pour autant, les coûts de déploiements pourraient être bien supérieurs à ce qui a été prévu. Et l'Etat pourrait avoir à mettre à nouveau la main à la poche.

C'est ce qui ressort d'une étude menée par Tactis pour la Datar (délégation interministérielle à l'aménagement du territoire et à l'attractivité régionale).Les auteurs estiment d'abord que conduire la fibre optique jusqu'à chaque habitation et entreprise coûterait 30 milliards d'euros décomposés comme suit :

500 000 km pour desservir les 80 % de prises situées dans les zones les plus denses : coût 15 milliards d'euros, 300 000 km supplémentaires pour atteindre 95 % de taux de couverture : coût 8,5 milliards, 300 000 km pour desservir les cinq derniers pourcents : coût 7 milliards.

L'étude souligne ensuite que sans soutien public, seul 25 % à 40 % de la population aura le très haut débit. Plusieurs scénarios sont alors possibles...

80% de la population et des entreprises couverts en fibre optique jusqu'à l'abonné (FTTH) : coût total :15 milliards d'euros, financement public à mobiliser : 6 milliards.

100 % de la population et des entreprises couverts : coût total : 30 milliards, financement public à mobiliser : 15 milliards,

100 % de la population et des entreprises couverts dont 80 % en FTTH, 5 % par équipement des sous-répartiteurs et 15% en 4G/LTE : coût total : 18 milliards, financement public à mobiliser : 8 milliards d'euros.

Dans tous les scénarios, l'effort de l'Etat est donc largement supérieur à ce qui est prévu, une couverture à 80% exigera ainsi un investissement trois fois supérieur aux 2 milliards initialement débloqués.

La mise de départ semble donc insuffisante pour soutenir une couverture massive et globale (notamment dans les habitats dispersés). Il faudra donc trouver des ressources ailleurs. Pour certains, la solution n'est pas compliquée à trouver. La CFE-CGC/UNSA, un syndicat de cadres de France Télécom remet à nouveau sur le tapis le rôle des géants du Web qui profitent de la montée en charge des réseaux sans participer à leurs financements.

Les subventions liées au Grand Emprunt, seront vraisemblablement insuffisants pour couvrir 70% de la population sous 10 ans. Il devient donc nécessaire de trouver des ressources complémentaires pour financer les réseaux. L'État mettra-t-il en oeuvre son projet audacieux de taxer la publicité sur Internet ? Il serait en effet logique que des « pure players » tels Google, qui bénéficient directement des nouvelles richesses créées par le développement d'Internet, contribuent au financement des réseaux sans lesquels leur activité ne pourrait exister. Au même titre que les chaines de télévision sont taxées pour financer l'industrie cinématographique", peut-on lire dans une tribune de ce syndicat.

No

Une technologie qui donne la parole aux muets
Vendredi, 12/03/2010 - 00:00

Des scientifiques de l'Institut de technologie de Karlsruhe ont présenté le 2 mars une expérience aussi simple que révolutionnaire au cours de laquelle un jeune homme a pu se faire parfaitement entendre de son interlocuteur, sans avoir émis un seul son.

A droite, Mathias, dont le nez et la bouche sont entourés de capteurs se contente de remuer les lèvres pour communiquer avec un autre jeune homme, qui tient dans sa main un téléphone portable. Immédiatement après que Mathias ait formé quelques paroles simples uniquement en bougeant les lèvres, son interlocuteur peut entendre ses réponses, articulées par une voix artificielle et entendues par le biais du téléphone portable.

Ainsi, sans langage des signes, sans qu'il soit nécessaire de lire sur les lèvres, la méthode de « son silencieux » offre aux personnes privées de la possibilité de parler un mode de communication simple et direct. Ce sont les électrodes placées sur le visage de Mathias qui enregistrent les mouvements réalisés par les muscles de la bouche, ces impulsions électriques étant ensuite traduites par un logiciel en paroles intelligibles et audibles.

Michael Wand, de l'institut de technologie de Karlsruhe à l'origine de ce dispositif dont les applications dans le domaine de la santé sont déjà pressenties souligne : « Aujourd'hui nous utilisons des électrodes collées à la peau, mais à l'avenir ces électrodes pourraient être incorporées par exemple à des téléphones portables ». Pour lui, il ne fait d'ailleurs aucun doute que cette sortie du monde du silence représentera dans « cinq, dix ans une technologie de tous les jours ».

JIM

La paume de la main se transforme en clavier !
Vendredi, 12/03/2010 - 00:00

Contrôler son smartphone simplement en tapotant sur son bras plutôt que sur le clavier de l'appareil ? C'est ce que proposent des chercheurs de Microsoft et de l'université de Carnegie. La technologie qu'ils ont développée - baptisée Skinput - s'appuie sur la reconnaissance des transmissions acoustiques corporelles, du bras en particulier.

Pour transformer la pression d'un doigt sur la peau en données exploitables par une interface homme-machine, les chercheurs ont développé un brassard équipé d'une batterie de capteurs. Ceux-ci détectent les vibrations réalisées sur la peau et qui produisent une légère déformation après un contact. Chaque capteur est par ailleurs conçu pour détecter une échelle de fréquence propre.

Les chercheurs expliquent que, selon la partie exacte du bras qui va être effleurée, la fréquence des vibrations sera différente. Cela est dû au fait que le bras et la main sont faits d'un système osseux complexe qui accentue la diversité acoustique des différentes zones. Le brassard est donc capable, non seulement de déterminer quand un contact aura eu lieu sur la peau du bras, mais également à quel endroit précisément. Pour montrer le potentiel de leur système en termes d'interface, les chercheurs ont développé plusieurs prototypes.

L'utilisation d'un pico-projecteur, par exemple, permet de projeter un clavier ou un menu sur la main ou l'avant-bras. Il est ainsi possible de taper un numéro directement dans la paume de la main.Lors de premiers tests avec des volontaires, les chercheurs ont identifié plusieurs zones pouvant clairement servir de "clavier" sur les mains et le bras. La précision du système a été testée en situation de marche et de jogging, et les résultats se sont montrés très encourageants.

Atelier

Un téléphone mobile pour les malades cardiaques
Vendredi, 12/03/2010 - 00:00

Le H'andy sana 210 est doué d'un électrocardiogramme permettant aux malades cardiaques d'effectuer un examen du coeur partout et à n'importe quel moment de la journée. Pourvu des mêmes fonctions qu'un téléphone mobile classique, le H'andy sana 210 sera disponible dès août prochain en France.

Grâce à cet électrocardiogramme incorporé, les patients atteints de maladies cardiaques pourront envoyer les données enregistrées par leur téléphone à un centre hospitalier à distance via satellite. Dès la réception des données, le personnel médical pourra analyser ces données afin de déterminer si le patient présente ou non des anomalies cardiaques.Dès le printemps prochain, une version du H'andy sana 210 sera réservée aux médecins afin qu'ils puissent effectuer et enregistrer les données de l'électrocardiogramme au cours d'une visite à domicile chez un patient.

TS

IBM développe des interconnexions optiques pour ses prochaines générations de puces
Vendredi, 12/03/2010 - 00:00

Les laboratoires d'IBM sont proches d'une innovation majeure avec l'élaboration de puces qui utilisent des impulsions lumineuses en lieu et place des signaux électriques pour transporter des informations à une vitesse de 40 Gbit/s. La société d'Armonk a en effet créé un dispositif de faible puissance électrique qui permet de transférer des informations à grande vitesse utilisant la lumière. "Le dispositif, appelé un détecteur d'avalanche photonique, est le plus rapide de son genre et pourrait permettre des avancées qui auront des implications importantes pour l'avenir de l'électronique», explique IBM dans un communiqué.

Le dispositif, détaillé dans un article publié par la revue Nature, est capable de transmettre des données à des vitesses allant jusqu'à 40 Gbit par seconde, en utilisant une alimentation électrique de 1,5 volts. Les signaux lumineux sont transportés sur des circuits de silicium au lieu des fils de cuivre traditionnellement utilisés pour transporter des signaux électriques entre les puces. L'appareil, qui repose sur la technologie actuelle des semi-conducteurs, est particulièrement intéressant sur le plan éco énergétique car il utilise une puissance environ 20 fois moindre que les précédents dispositifs, précise IBM.

L'objectif des chercheurs est de construire une puce d'interconnexion optique qui permettrait la construction d'ordinateurs offrant des performances d'un exaflop, équivalent à 1.000.000.000.000.000.000 opérations à virgule flottante par seconde (flops). Pour mettre ce dernier point en perspective, un ordinateur d'un exaflop serait à peu près 600 fois plus rapide que l'ordinateur le plus puissant du monde, le Cray XT5 « Jaguar » du Laboratoire national d'Oak Ridge au Tennessee, qui atteint 1,75 pétaflop, ou 0,0175 exaflop.

MI

^ Haut
Matière
Matière et Energie
La relativité générale testée par interférence atomique
Vendredi, 12/03/2010 - 00:00

Une horloge en mouvement retarde par rapport à une horloge immobile : cette « dilatation du temps » est un effet bien connu dans le cadre de la théorie de la relativité restreinte, qui ne considère pas les mouvements accélérés. Un autre effet de ralentissement du temps est le « décalage gravitationnel vers le rouge » prédit par la relativité générale, théorie qui assimile la gravitation à une courbure de l'espace-temps. En réinterprétant une expérience de physique atomique effectuée il y a une dizaine d'années, trois physiciens auraient vérifié ce décalage gravitationnel avec une précision inégalée. Il s'agit de Holger Müller, physicien à Berkeley en Californie, Achim Peters, de l'Université Humboldt à Berlin, et de Steven Chu, prix Nobel en 1997 et actuellement secrétaire d'État pour l'énergie aux États-Unis.

Une traduction du décalage gravitationnel vers le rouge est qu'une horloge soumise à un champ de gravitation retarde par rapport à une horloge identique en l'absence de gravité. Pour un photon, cela signifie que sa fréquence est ralentie, ou que sa longueur d'onde est augmentée, d'où l'expression « décalage vers le rouge ». L'effet est infime dans le champ de gravité terrestre, et il est donc difficile à mesurer directement. La mesure directe la plus précise remonte à 1976 et a consisté à comparer deux horloges atomiques, l'une au sol et l'autre emportée par une fusée à une altitude de 10 000 kilomètres ; la précision atteinte était de 7 x 10-5.

L'expérience réalisée par A. Peters en 1999 au laboratoire de S. Chu était très différente et avait pour but de mesurer l'accélération de la pesanteur. Elle mettait en jeu les propriétés ondulatoires ou quantiques des atomes. Les lois de la physique quantique stipulent qu'à tout corpuscule est associée une onde, dont la longueur d'onde est d'autant plus petite que la masse est élevée. La fréquence correspondante varie en sens inverse et est extrêmement élevée pour un objet tel qu'un atome. Ainsi, celle de l'onde associée à un atome de césium dépasse les 1025 hertz. Une fréquence aussi élevée est ce qui permet, dans l'expérience réalisée, ou plus exactement dans sa réinterprétation, d'effectuer une mesure de nature temporelle très précise.

Lors de son expérience, A. Peters avait fait interférer deux ondes atomiques identiques ayant suivi des chemins un peu différents, la trajectoire de l'une ayant atteint une altitude différente, donc un champ de gravité différent. L'interférence des deux ondes indique le déphasage de leurs oscillations, donc la différence entre les temps écoulés pour chacune. On en déduit le décalage temporel dû au champ gravitationnel.

Dans cette expérience, A. Peters avait piégé et refroidi à une température proche du zéro absolu un nuage d'environ un million d'atomes de césium. Puis il avait soumis le nuage atomique à trois impulsions d'un couple de faisceaux laser verticaux de fréquence, durée et intensité bien ajustées.

La première impulsion dédouble l'onde atomique de telle façon que les deux ondes résultantes suivent des trajectoires différentes. La deuxième impulsion laser envoie les atomes ayant suivi la trajectoire haute vers le bas, et les autres vers le haut, afin que les deux ondes se rejoignent. La troisième impulsion mesure l'interférence atomique, c'est-à-dire le déphasage des deux ondes atomiques.

L'intervalle de temps entre les impulsions était de 160 millisecondes ; et la différence maximale d'altitude entre les deux trajectoires atomiques n'était que de 0,12 millimètre ! Une différence minuscule, mais qui donne lieu à un décalage gravitationnel vers le rouge mesurable, correspondant à une différence de temps d'environ 2 x 10-20 seconde, sur un parcours d'une durée d'environ 0,3 seconde. Cette différence de temps a été déduite avec une précision d'environ 10-29 seconde. L'effet prédit par la relativité générale a été ainsi vérifié avec une précision de sept milliardièmes, soit une amélioration d'un facteur 10 000 par rapport aux mesures de 1976.

PLS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Stockholm élue capitale verte de l'Europe
Vendredi, 12/03/2010 - 00:00

Ville de 800.000 habitants, la capitale suédoise s'est fixé pour objectif de ne plus avoir recours aux énergies fossiles d'ici 2050. Une ambition qui, alliée aux efforts déjà nombreux de la ville pour placer le développement durable au centre de l'environnement urbain, a conquis la Commission européenne.

"La ville a mis en place un système de gestion intégrée qui garantit la prise en compte des aspects environnementaux dans le budget de la municipalité, la planification opérationnelle, les rapports et le suivi de ses activités" a expliqué la Commission pour justifier son choix d'élire Stockholm capitale verte de l'année 2010.

Construite au milieu d'une forêt sur un archipel de la mer Baltique, la ville a enregistré en 2009 un niveau d'émission de CO2 de 3,4 tonnes par habitant, visant 3 tonnes à l'horizon 2015. Dans le reste de l'Europe, les émissions de CO2 sont proches de 10 tonnes par habitant et ont tendance à augmenter, tient à souligner le directeur du service municipal de l'Aménagement et de l'Environnement, Gustaf Landhal.

C'est surtout sur les transports et le chauffage verts que Stockholm a misé pour parvenir à de tels résultats. "Nous sommes parvenus à réduire les émissions dans le secteur du transport bien que la ville ne cesse de grandir" se félicite M. Landhal. Et d'expliquer que pour réduire les émissions de CO2 engendrées par le chauffage, indispensable durant au moins cinq mois de l'année, la capitale suédoise a investi dans un système central municipal fonctionnant aux énergies renouvelables. 75% des habitations de la ville sont reliées à ce système produisant sa propre électricité.

MS

Le stockage énergétique : un enjeu bien compris par la Californie
Vendredi, 12/03/2010 - 00:00

La Californian Energy Storage Alliance s'est empressée de relayer la nouvelle. La proposition de loi dont l'objectif est de promouvoir la Californie au statut de leader dans le stockage d'énergie a été introduite à l'assemblée. En favorisant l'utilisation des énergies renouvelables et en réduisant le coûts des nouvelles centrales et des lignes de transmission, la nouvelle législation devrait aider les consommateurs à économiser significativement sur leurs factures en énergie. Elle devrait également permettre la création de milliers d'emplois permanents et ainsi dynamiser un état où le taux de chômage a atteint un niveau très élevé (les prévisions le placent au-dessus de 12 % cette année). Enfin sur le plan international, l'objectif est de réduire le fossé entre les Etats-Unis et les autres nations dans le déploiement et l'investissement des systèmes de stockage d'énergie

Concrètement, cette loi prévoit l'obligation d'incorporation d'une capacité de stockage d'énergie au moins équivalente à 2,25% du pic de consommation pendant la journée d'ici 2014 et 5 % du pic en 2020, pour tous les producteurs d'électricité présents dans l'état. En reprenant les chiffres donnés par le Californian Iso, le pic de consommation est d'environ 29 GW, ce qui représenterait donc une capacité de stockage de 652 MW en 2014 et de 1.5 GW en 2020.

Plus qu'une ambition politique ou économique, le déploiement des systèmes de stockage d'énergie et plus généralement du réseau électrique intelligent est un enjeu capital pour la Californie, l'un des plus grands consommateurs en électricité des Etats-Unis. Pour reprendre les mots de l'Attorney General Jerry Brown, initiateur du projet de loi : "Le stockage d'énergie est le futur. C'est une industrie parmi le secteur des technologies propres en croissante rapide qui réduira les dépenses de l'état ainsi que la pollution. Ce qui est encore mieux, c'est que cette technologie pourrait créer 8500 nouveaux emplois en Californie durant la prochaine décennie". Cette annonce a également attiré l'attention d'un grand nombre d'investisseurs présents dans le domaine. Les projets récents annoncés représentent approximativement 1 Gigawatt de nouvelle capacité ce qui doublerait les capacités de stockage énergétique actuelles.

Cette loi fait également suite à un investissement massif dans le réseau intelligent (Smart Grid). En novembre dernier Obama avait annoncé un financement à hauteur de $620 millions par le stimulus package, dont $435 millions seront attribués à des projets de démonstrations du réseau intelligent.

Le reste des financements est alloué à 16 projets de capacités de stockage expérimentales pour parvenir à terme à une meilleure efficacité et une meilleure fiabilité du réseau. Parmi ces projets, sont présents des systèmes basés sur des batteries de type Li-ion, des volants d'inertie (fly-wheel), des systèmes à air comprimé. Ces aménagements permettront l'intégration des ressources renouvelables énergétiques sur le réseau ainsi qu'une meilleure gestion des pics d'énergie.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'espoir d'un vaccin contre « le cancer de l'amiante »
Vendredi, 12/03/2010 - 00:00

Une équipe néerlandaise progresserait actuellement, dans l'élaboration d'un vaccin thérapeutique contre le mésothéliome de la plèvre, une tumeur qui frappe essentiellement les victimes de l'amiante.Les premiers essais semblent montrer une bonne tolérance du vaccin. C'est une nouvelle encourageante dans la lutte contre une affection dont le pronostic est aujourd'hui des plus sombres.

Le candidat-vaccin a été mis au point à partir de cellules dendritiques des cellules du système immunitaire de patients, placées au contact d'antigènes tumoraux. La réponse immunitaire spécifique qui en a résulté a permis de lutter efficacement contre la maladie : sur les 10 patients sur lesquels le candidat-vaccin a été testé, trois ont vu leur cancer régresser.

Avec 700 à 800 nouveaux cas déclarés chaque année en France, le taux de survie à 5 ans du mésothéliome de la plèvre est estimé à 5%. Selon le premier bilan du Programme national de Surveillance du Mésothéliome mis en place en 1998, près de 90% de ses victimes sont atteintes à la suite d'une exposition professionnelle à l'amiante. L'utilisation de ce produit est interdite depuis 1997, mais ces cancers se déclarent généralement des années, voire des décennies après l'exposition. En outre, le diagnostic est souvent difficile, les manifestations cliniques étant peu spécifiques. Ainsi ce type de cancer est-il trop souvent, diagnostiqué à un stade avancé.

Yahoo

Les récepteurs à dépendance : une nouvelle arme anti-cancer ?
Vendredi, 12/03/2010 - 00:00

Le couple formé par un ligand (la Neurotrophine-3) et son récepteur à dépendance (TrkC), constitue un nouveau mécanisme de contrôle antitumoral dans des cancers pédiatriques comme le neuroblastome et pourrait également être important dans le contrôle d'autres cancers comme celui du sein. Réalisés par une équipe du Laboratoire Apoptose, cancer et développement (CNRS/Université Lyon 1/Centre de lutte contre le cancer Léon Bérard), ces travaux appuient le concept proposé depuis quelques années par ce laboratoire : concevoir des stratégies thérapeutiques anti-tumorales ciblées sur un nouveau type de récepteur, les récepteurs à dépendance. Ces récepteurs sont en effet capables d'induire la mort des cellules quand ils sont privés de leur ligand. Ces résultats sont publiés dans le numéro de mars 2010 de la revue Journal of Clinical Investigation.

Placé à la surface de la cellule, un récepteur capte les signaux du milieu extracellulaire (ligands) pour induire un signal à l'intérieur de la cellule via différentes cascades moléculaires. Un récepteur est ainsi considéré comme un interrupteur qui est éteint en absence de son ligand. Depuis une dizaine d'années, l'équipe du Laboratoire Apoptose, cancer et développement (CNRS/Université Lyon 1/Centre de lutte contre le cancer Léon Bérard), dirigée par Patrick Mehlen, travaille sur certains récepteurs, appelés récepteurs à dépendance, qui, en absence de leur ligand, induisent un signal qui conduit la cellule à mourir.

Il a été montré que ces récepteurs contrôlent la progression tumorale : en effet, les cellules cancéreuses surnuméraires se retrouvent en compétition pour fixer le ligand disponible et sont amenées à mourir via leur récepteur à dépendance. Les récepteurs à dépendance constitueraient donc un nouveau mécanisme de contrôle anti-tumoral.

Dans cette étude, les chercheurs se sont particulièrement intéressés au récepteur à dépendance TrkC et à son ligand, la Neurotrophine-3 (NT-3). Il a été montré que dans des cancers pédiatriques tels que le neuroblastome, la présence de TrkC est un facteur de bon pronostic. Les scientifiques ont donc cherché à savoir si TrkC en tant que récepteur à dépendance pouvait contrôler la progression tumorale. Ils ont étudié des échantillons issus de tumeurs particulièrement agressives obtenus auprès des Centres de Ressources biologiques du Centre de lutte contre le cancer Léon Bérard à Lyon et de l'Institut Gustave Roussy de Villejuif qui collectent ce type d'échantillons à des fins de diagnostic et de recherche.

Les résultats obtenus montrent que près de 40% des tumeurs de neuroblastome parmi les plus agressives produisent elles-mêmes le ligand NT-3 afin de pouvoir progresser sans déclencher la mort induite par le récepteur à dépendance TrkC. En empêchant les cellules tumorales de produire NT-3, les chercheurs ont ainsi rétabli la mort cellulaire.

Le couple ligand/récepteur à dépendance NT-3/TrkC contrôle donc en partie la tumorigénèse dans le contexte du neuroblastome. Ces résultats apportent la preuve qu'interférer avec la liaison TrkC/NT-3 peut constituer une nouvelle stratégie thérapeutique ciblée. Cette découverte est protégée par un brevet. Les chercheurs vont maintenant étudier si elle peut s'appliquer à d'autres types de cancers. Des résultats préliminaires indiquent déjà que le couple NT-3/TrkC pourrait aussi avoir un rôle important dans le cancer du sein.

La société Netris Pharma, start-up du Laboratoire Apoptose, cancer et développement, développe des agents thérapeutiques ciblant NT-3. Les phases de développement pré-clinique devraient débuter prochainement.

CNRS

Cancer du sein: de nouveaux progrès
Vendredi, 12/03/2010 - 00:00

Un nouveau système radiothérapeutique est utilisé pour la première fois au sein de l'Istituto Europeo di Oncologia de Milan, pour traiter avec précision les tumeurs de patientes atteintes d'un cancer du sein tout en protégeant les tissus et organes avoisinants des malades. Baptisé AssuBoost, ce traitement permet de tuer les cellules cancéreuses grâce à une source de radiation placée à l'intérieur ou à proximité de la tumeur en question.

Développé par les sociétés Nucletron et Art, ce système novateur combine le guidage de l'image mammographique en temps réel avec l'usage de la curiethérapie, une radiothérapie de haute précision qui permet au médecin d'appliquer une forte dose de radiation dans une zone restreinte. Ainsi, les tissus et organes sains de la patiente ne sont pas endommagés.

Grâce à ce nouveau système, les patientes atteintes d'un cancer du sein bénéficieront également d'une durée de traitement plus courte. "AccuBoost permet d'économiser du temps, donc cette année, nous seront en mesure de traiter 50 pour cent des patientes plus rapidement et efficacement qu'auparavant, en réduisant le temps de traitement de six semaines à trois semaines", explique le professeur Roberto Orecchia qui dirige l'utilisation du nouveau système au sein de l'institut milanais.

TS

Les secrets génétiques de nos bactéries intestinales
Vendredi, 12/03/2010 - 00:00

Les bactéries hébergées par le tube digestif humain (ou métagénomes) comportent 150 fois plus de gènes que le génome humain. C'est ce que vient de montrer un consortium international de chercheurs coordonné par l'Inra de Jouy-en-Josas, auquel participe la Direction des sciences du vivant du CEA (Génoscope, Évry). Selon lui, seul un millier d'espèces bactériennes sont habituellement présentes en grande quantité dans l'intestin de l'homme, chaque individu en abritant au moins 170. Et, contrairement à ce qui était établi, la plupart des espèces sont semblables d'un individu à l'autre. Ces résultats sont publiés dans la revue Nature du 4 mars 2010.

Pour mémoire, l'homme vit en association permanente avec les bactéries présentes sur toutes les surfaces et dans toutes les cavités de son corps, la majorité étant hébergées par son tube digestif. Les cellules bactériennes qui nous accompagnent sont au moins dix fois plus nombreuses que nos propres cellules. Ces communautés, dynamiques et complexes, influencent profondément notre physiologie, notre nutrition, ainsi que notre immunité et son développement. Par exemple, les bactéries synthétisent des vitamines et contribuent à la dégradation de certains composés, qu'il serait impossible d'assimiler sans leur aide. Elles jouent un grand rôle dans les fonctions immunitaires en nous protégeant contre les bactéries pathogènes et en "dialoguant" avec nos cellules.

Des recherches ont montré des différences significatives dans la composition du métagénome chez les personnes obèses ou atteintes de maladies inflammatoires intestinales et chez les sujets sains, d'où l'hypothèse que des déséquilibres de la flore digestive peuvent contribuer au développement de maladies. Le projet européen MetaHIT (METAgenomics of the Human Intestinal Tract) a permis de caractériser, pour la première fois, les gènes de bactéries provenant de selles de 124 individus d'origine européenne.

85 % des gènes bactériens portés par la population humaine étudiée ont ainsi été séquencés ; ils représentent environ 3,3 millions de gènes bactériens. La connaissance de ce métagénome ouvre, selon cette équipe, de nombreuses perspectives d'application dans le domaine de la nutrition, de la prévention et dans le traitement des maladies dans lesquelles les microorganismes intestinaux jouent un rôle.

LP

Un exercice physique vif et fractionné serait plus efficace qu'un entraînement traditionnel
Vendredi, 12/03/2010 - 00:00

"L'entraînement fractionné est deux fois plus efficace que des exercices normaux", affirme Jan Helgerud, de l'Université norvégienne de sciences et de technologie. "C'est comme découvrir une nouvelle pilule qui marche deux fois mieux", ajoute ce chercheur qui prône l'abandon "immédiat" des méthodes d'exercice traditionnelles.

Selon certains experts, l'entraînement fractionné, qui consiste à entrecouper des séries d'exercices intensifs par de courtes périodes de récupération, permet d'obtenir en moins d'une heure les bénéfices d'un entraînement d'une semaine entière.Comparé à un sport modéré pratiqué régulièrement, comme le jogging, l'entraînement fractionné permet de doubler l'endurance, de bâtir des muscles plus forts, d'améliorer l'oxygénation de plus de 10% et la vitesse de plus de 5%. Et même s'il ne dure que quelques minutes, ses effets se font sentir durant des heures.

"On s'exerce à une intensité telle qu'on crée un déséquilibre important dans les muscles", ce qui augmente le métabolisme, assure Stephen Bailey, un expert en sciences sportives à l'Université britannique d'Exeter.Ce type d'entraînement, à l'origine conçu pour les athlètes de haut niveau, conviendrait également à un grand nombre de personnes, affirment des études récentes, menées sur des sujets plus âgés ou présentant des problèmes de santé. Si tel est effectivement le cas, cela pourrait amener à repenser les messages officiels encourageant à faire du sport et permettre l'économie d'heures d'entraînement dans les salles de gym.

Jan Helgerud recommande ainsi quatre séances de quatre minutes chacune, entrecoupées d'intervalles de trois minutes, qui entraînent une légère perte de souffle mais "pas de sensation d'épuisement".Afin de prévenir les problèmes cardiaques et de surpoids, la plupart des pays occidentaux recommandent à leurs citoyens de pratiquer deux heures et demie à trois heures d'exercice modéré par semaine.

Selon Jan Helgerud, les autorités sanitaires se sont montrées trop frileuses en ne recommandant pas l'entraînement fractionné, de peur que certains soient poussés à aller au delà de leurs capacités. "Je crains beaucoup plus que les gens ne fassent aucun exercice", a-t-il ajouté: "c'est l'inactivité qui nous tue".

Yahoo

Restaurer la vue par thérapie génique
Vendredi, 12/03/2010 - 00:00

Une nouvelle étude chez l'animal met en relief le potentiel de la thérapie génique pour traiter l'amaurose congénitale de Leber (ACL), une maladie génétique incurable qui mène à la cécité totale à l'âge adulte.

L'amaurose congénitale de Leber est une maladie génétique grave de la rétine qui débute dès les premiers mois de la vie et évolue en quelques dizaines d'années vers la cécité sans traitement possible. Sept gènes sont actuellement connus comme responsables de cette pathologie : CRX, CRB1, GUCY2D, AIPL1, RDH12, RPGRIP1, et RPE65. Les mutations de ces gènes sont retrouvées dans 30 à 50 % des cas d'amaurose congénitale de Leber.

L'année dernière, un essai clinique inédit chez 12 enfants avait permis de réduire en partie une cécité presque complète, le remplacement d'un gène muté restaurant partiellement la vision pour un oeil. Comme il fallait s'y attendre, ce succès a fait que les patients ont demandé le traitement pour leur second oeil. Une équipe de chercheurs a franchi une étape importante pour pouvoir offrir à ces patients le même traitement de la vue à leur deuxième oeil.

Dans la plupart des travaux de thérapie génique, une molécule appelée vecteur est utilisée pour apporter un gène « actif » dans les cellules des patients. Ces vecteurs sont typiquement dérivés de virus qui ont été génétiquement modifiés pour porter de l'ADN humain. Bien que le vecteur dérivé de virus associé à l'adénovirus utilisé dans les récents essais clinique ait réussi à rétablir en partie la vue d'un oeil de patients atteints d'ACL, il n'était pas sûr que le même traitement du second oeil soit sans effets secondaires car il pouvait engendrer une réaction immunitaire au virus suite à la première injection.

Dans leur étude, Defne Amado de l'Université de Pennsylvanie à Philadelphie montre que la nouvelle administration du vecteur au second oeil chez le chien et le singe, des animaux ayant des yeux similaires en taille et en structure à ceux de l'homme, est à la fois sûre et efficace. De plus, cela reste le cas lorsque les animaux ont déjà acquis une immunité contre le virus vecteur, une caractéristique qui excluait certains patients des essais de thérapie génique. Ces résultats élargissent la gamme de patients éligibles au traitement : ceux ayant déjà une immunité contre le vecteur pourraient recevoir le traitement pour un premier oeil tandis que ceux déjà traités une fois pourraient avoir l'opportunité de recouvrir en partie la vue de leur second oeil.

No

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Voitures électriques et hybrides mettront au moins dix ans à s'imposer
Vendredi, 12/03/2010 - 00:00

Electriques et hybrides ont beau être les stars des salons automobiles, les technologies coûteuses sur lesquelles ils reposent pourraient mettre une dizaine d'années à s'imposer sur les routes européennes, nécessitant la poursuite de l'amélioration des moteurs classiques pour tenir à court terme les objectifs de CO2.Le lancement cette année des premières voitures entièrement électriques de Nissan, Daimler et Mitsubishi, ainsi que l'arrivée de modèles hybrides chez les constructeurs européens a relancé l'engouement médiatique pour les alternatives aux motorisations uniquement thermiques comme solution d'avenir pour réduire les émissions de dioxyde de carbone.

Mais la plupart des constructeurs présents cette semaine au salon de l'auto Genève précisent que le moyen le plus simple pour atteindre l'objectifs européen de 130g/km d'émissions moyennes de CO2 en 2015 reste d'améliorer les performances des moteurs classiques, de réduire la taille des voitures, ou de proposer plus de diesel, carburant 20 à 30% plus économe que le moteur à essence.Je pense que l'opportunité pour les hybrides en Europe est assez restreinte", a ainsi indiqué le vice-président Europe de Hyundai, Allan Rushforth.

Alors que Hyundai développe par ailleurs des voitures hybrides et électriques, Rushford a précisé que la seule introduction de moteurs diesels plus propres et de voitures à essence améliorées permettrait au premier constructeur sud-coréen de réduire ses émission de CO2 en Europe à 115g/km en 2015, au lieu de 142 g/km l'an dernier.

Au Japon et aux Etats-Unis, des primes vertes généreuses ont contribué à lancer de nombreux véhicules hybrides sur les routes, tandis que de leur côté l'Europe privilégie depuis longtemps le diesel, carburant moins taxé et alimentant des moteurs à la durée de vie bien plus longue. Avec des volumes de ventes si faibles, Honda, l'un des rares constructeurs mondiaux de voitures hybrides à grande échelle, mais qui ne détient que moins de 1% du marché automobile européen, n'a quasiment pas bénéficié de sa spécialisation. La firme japonaise aura ainsi besoin dans sa gamme d'un petit véhicule diesel pour atteindre ses objectifs au-delà de 2015, a indiqué à Reuters le P-DG de Honda lors du salon. "Je pense que les Européens ne se sont pas pressés pour lancer des véhicules hybrides parce que ceux-ci ne sont pas forcément plus économes en carburant que les diesels", analyse Michael Tyndall, spécialiste automobile chez Nomura International.

"Le rapport coût-bénéfice ne leur est pas forcément favorable aux yeux des consommateurs européens, car un véhicule hybride sera plus cher à l'achat et la différence ensuite en terme d'économie de carburant n'est pas suffisante pour justifier cet investissement initial", a-t-il ajouté. Toyota, le leader des véhicules hybrides, a dans le même temps réduit drastiquement ses émissions à 130,1 g/km l'an dernier - seul Fiat, qui construit des voitures petites, a fait mieux - mais il doit surtout cette performance à la pénétration en Europe de sa berline compacte Yaris, selon l'étude menée par l'entreprise JATO Dynamics. Toyota a vendu 44.000 Prius, son célèbre hybride, l'an dernier en Europe, à comparer aux 210.000 Yaris écoulées.

Même l'alliance Renault-Nissan, qui proposera à partir de 2011-2012 une gamme complète de véhicules électriques, a souligné que ces voitures "zéro émission à l'usage" ne suffiront pas à atteindre les objectifs européens de réduction des émissions de gaz à effet de serre. Les constructeurs automobiles affirment qu'une réduction plus conséquente du CO2 à 95g/km d'ici 2020 nécessiterait une technologie hybride, des véhicules entièrement électriques, ou bien des véhicules à pile à combustible fonctionnant à l'hydrogène. C'est pour cette raison que certains constructeurs comme BMW et Volkswagen ont prévu eux aussi de présenter des voitures électriques et diesels dans les salons.

PSA Peugeot Citroen, qui proposera l'an prochain un hybride diesel, s'attend également à ce que l'électrification de la propulsion, sous une forme plus ou moins poussée, gagne du terrain d'ici une dizaine d'années. "Si l'on compare le marché tel qu'il est aujourd'hui et tel qu'il sera en 2020 (...) nous estimons que les véhicules électriques et hybrides devraient constituer jusqu'à 15% du marché" a assuré le président du directoire du groupe, Philippe Varin.

LP

_

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top