RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 422
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Mars 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La radio numérique sera lancée en 2008
Orange lance la fibre optique jusqu'à l'habitant à Toulouse
Japon : trouver chaussure à son pied via un moteur de recherche "tangible"
Avenir
Des robots japonais savent servir le thé et allument la lumière pour vous
Un robot salamandre qui marche et nage !
Matière
Si vous êtes porteur d'un projet en géothermie, contactez @RTFlash !
USA : la géothermie profonde pourrait fournir 10 % de la puissance électrique en 2050
Une nouvelle étape franchie vers le contrôle de la fusion thermonucléaire
Un nouveau projet offshore hybride gaz/éoliennes en Mer d'Irlande
Honda affirme ses ambitions en matière de voiture à hydrogène
Espace
Le Teflon, nouveau carburant de l'espace ?
Terre
L'Union européenne adopte une politique ambitieuse de lutte contre le réchauffement climatique
La protection de l'ozone plus efficace contre l'effet de serre que le protocole de Kyoto !
Une commune se chauffe et se rafraîchit à l'eau de mer
Vivant
Un stylo permettant de mesurer la teneur en oxygène dans le sang
La tomothérapie, radiothérapie guidée par l'image pour mieux cibler la tumeur
Les gènes du cancer sont nombreux mais jouent des rôles très variés
Epilepsie : une enzyme du métabolisme énergétique en cause
Edito
Edito : Va-t-on pouvoir prédire nos intentions grâce à un scanner cérébral ?



Dans notre lettre 398 de juin 2006, je vous avais fait part, dans un éditorial intitulé "La pensée affirme son pouvoir sur la matière" des extraordinaires progrès intervenus au cours de ces dernières années dans la mise au point de dispositifs capables de commander directement par la pensée des prothèses, robots ou ordinateurs. J'avais notamment évoqué la première démonstration en France, en juin 2006, du système BCI (Brain Computer Interface) qui permet aux personnes totalement paralysées de déplacer un curseur sur un écran d'ordinateur ou de « dicter » un texte simplement par la pensée.

Nous vous avions également parlé, fin 2005, du bras robotisé mis au point par L'Université de Pittsburgh. Ce bras, directement contrôlé par la pensée, a été expérimenté avec succès sur un singe et utilise un système de sondes et de capteurs directement insérés dans le cerveau. Il peut ainsi exécuter fidèlement les instructions transmises directement par la pensée de l'animal.

Enfin, récemment (Voir mon éditorial de la lettre 413) une équipe de recherche américaine, dirigée par Rajesh Rao, à l'université de Washington, a réussi à créer une interface non invasive permettant le contrôle d'un robot par la pensée par la simple formulation d'ordres généraux, la machine se chargeant de les exécuter de manière précise.

Mais voici qu'une nouvelle étape vient d'être franchie en matière de commande cérébrale. Aux Etats-Unis, une société de jeux électroniques "Emotiv Systems" vient de présenter un casque de jeu qui est capable d'analyser les signaux électriques provenant de l'activité cérébrale du joueur et peut ainsi modifier directement l'action ou le comportements des personnages du jeu vidéo en fonction de l'évolution de son état émotionnel (stress, excitation, peur, détente etc...). Mais Emotiv System veut aller plus loin et prépare également un logiciel qui pourra permettre au joueur muni de ce casque de commander certaines actions dans le jeu directement par la pensée.

Plus près de nous, Outre-Rhin, une équipe de chercheurs allemands a mis au point un appareil d'imagerie cérébrale qui permet de déterminer les intentions d'un individu, tout du moins lorsqu'il s'apprête à réaliser une tâche simple. Les volontaires qui ne se doutaient pas une seconde que dans la pièce à côté, des scientifiques tentaient de lire dans leurs pensées, s'apprêtaient soit à compter (addition ou soustraction), soit à presser un des deux boutons à proximité.

Ces travaux, conduits par le Dr John-Dylan Haynes, du centre Bernstein de Berlin, ont débuté en juillet 2005 à l'Institut de la cognition et des neurosciences Max Planck à Leipzig (150 km environ au sud-ouest de Berlin) et ils ont suscité un vif intérêt dans la communauté scientifique. (MPI)

Les chercheurs ont demandé aux participants de choisir entre additionner ou soustraire deux nombres quelques secondes avant que ces nombres ne soient visibles sur un écran. Dans cet intervalle, un ordinateur a retranscrit en images les mouvements cérébraux, de manière à prédire la décision, un modèle suggérant une addition, l'autre une soustraction.

L'équipe de Haynes a d'abord essayé d'identifier la partie du cerveau commandant les intentions. En scannant le cerveau, à la recherche d'une zone d'hyperactivité cérébrale observée lorsqu'un patient a à choisir, ils ont découvert que le centre de commande des intentions se situe dans le cortex pré-frontal. Ensuite, ils ont étudié quel modèle était associé aux différentes intentions. "Si vous saviez quelles signatures de pensée chercher, vous pourriez en théorie prédire avec plus de précision ce que les gens vont faire", a estimé Haynes.

Pour l'heure, lire les pensées est un processus laborieux et les scientifiques n'ont aucune chance de pouvoir espionner subrepticement un processus de décision : l'étude de Haynes ne concerne que des gens face à deux alternatives, et non confrontés aux innombrables choix de chaque jour. Mais les scientifiques font suffisamment de progrès pour inquiéter les défenseurs de l'éthique, la recherche étant déjà passée de l'identification des régions du cerveau dans lesquelles apparaissent certaines pensées à l'identification de leur contenu.

"Pour la première fois, ces technologies nous donnent la possibilité réelle d'aller chercher à la source ce que quelqu'un pense ou ressent, sans qu'il puisse nous en empêcher", a déclaré le Docteur Hank Greely, directeur du centre Loi et Sciences biologiques de l'Université de Stanford. "Le concept même de garder ses pensées privées pourrait être profondément modifié dans le futur", a-t-il jugé.

Certains s'inquiètent déjà de la portée de ces découvertes qui, à l'image du film de science-fiction "Minority report", pourraient inciter les autorités à agir contre des individus avant même qu'un crime ait été commis. Les Britanniques ont déjà mis en place un fichier ADN qui pourrait aider les autorités à suivre les personnes jugées violentes. De plus, le gouvernement a lancé l'idée de détenir les gens présentant un trouble de la personnalité susceptible de conduire à un comportement criminel.

Mais pour l'instant, Haynes envisage des applications pratiques destinées aux personnes handicapées ou paralysées. De précédentes recherches ont déjà montré que les patients peuvent commander des prothèses ou des ordinateurs par la seule puissance de leur esprit. Mais les résultats de Haynes ouvrent des perspectives complètement nouvelles. On peut en effet imaginer qu'à l'avenir il sera possible de lire et de « traduire » également les pensées et les intentions abstraites et complexes telles que « va ouvrir la chemise bleue posée sur le bureau » ou « réponds au dernier courriel d'Henri » !

Il est frappant de constater que des perspectives qui relevaient, il y a quelques années encore, de la pure science-fiction, sont en train de devenir réalité. Mais dans ce domaine, les avancées sont si rapides que notre société a du mal à mesurer toutes les conséquences sociales, morales et éthiques que risquent d'entraîner des systèmes qui pourront, plus tôt qu'on ne le pense, lire à notre insu dans nos pensées les plus intimes. J'avais lancé il y a déjà plusieurs années de cela l'idée d'un débat autour de la « neuroéthique » à l'instar de celui qui s'est ouvert sur la bioéthique. Aujourd'hui, alors que la réalité est en train de rattraper la fiction, le moment est venu pour notre société d'entamer cette réflexion et de réfléchir tous ensemble aux limites que nous voulons fixer à ces nouvelles et extraordinaires possibilités ouvertes par la science.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La radio numérique sera lancée en 2008
Vendredi, 16/03/2007 - 00:00

Le Gouvernement vient d'indiquer son choix technologique pour la diffusion de la future radio numérique : le T-DMB (Terrestrial Digital Multimedia Broadcasting). Après le succès de la TNT, la radio se devait - elle aussi - d'entrer dans l'ère du numérique. Le choix d'une norme de diffusion était une première étape essentielle. Les premières émissions en numérique pourraient être diffusées en 2008.

Comme la télévision, la radio va donc bénéficier des avantages du numérique. La qualité du son devrait s'améliorer et l'offre de stations s'enrichir. La bande FM est, elle, au bord de la saturation. La France compte en effet quelque 6 000 fréquences. Cette densité, l'une des plus fortes d'Europe, n'empêche pas une disparité en fonction des régions. « Les trois quarts des auditeurs n'accèdent qu'à une quinzaine de programmes », précise Philippe Gault, président du Sirti (Syndicat interprofessionnel des radios et télévisions indépendantes, qui regroupe 140 opérateurs audiovisuels locaux, régionaux et thématiques indépendants).

La numérisation permettra aussi d'offrir une diversité thématique et d'améliorer le confort d'écoute, par exemple en donnant la possibilité de mettre en pause un programme. Les récepteurs radio actuels sont incapables de capter le signal T-DMB. L'émergence de la radio numérique va donc donner naissance à une nouvelle génération de postes. Ils pourront prendre la forme de radios de poche, d'autoradios et seront également combinés à des appareils mobiles déjà existants (téléphones, PDA, etc.).

GVT

Orange lance la fibre optique jusqu'à l'habitant à Toulouse
Vendredi, 16/03/2007 - 00:00

France Télécom, et Monsieur Jean-Luc Moudenc, Maire de Toulouse, ont annoncé le plan de pré-déploiement de la fibre à Toulouse. Dès l'été, ce sont les habitants des quartiers de Saint Michel, Saint Aubin, Marengo, Montplaisir, Jolimont qui pourront bénéficier de l'offre «la fibre» Orange. Pour Bruno Janet, conseiller spécial du Président de France Télécom, : « France Télécom, avec la technologie FTTH, prépare la France à un profond bouleversement des usages. Le Groupe poursuit ainsi, après le plan « haut débit pour tous » pour le grand public et le très haut débit pour les entreprises, son action afin que le très haut débit, la fibre, soit un facteur de progrès et de développement économique pour les territoires ».

Jean-Luc Moudenc, Maire de Toulouse, s'est félicité que « Toulouse soit la première ville en région à accueillir le Très Haut Débit pour le grand public. Terre d'innovation par tradition, elle a toujours été portée vers les projets d'avenir qui visent à favoriser le développement de nouveaux usages innovants au bénéfice des ses habitants et de leur vie quotidienne ».

Après une première phase pilote réussie sur la région parisienne, Orange démarre sa phase de pré-déploiement. Dans un premier temps, quelques centaines de clients seront raccordés en 2007 et quelques milliers en 2008.

Sur le plan national, Orange cible 150 000 à 200 000 clients raccordés sur une base de plus d'un million de clients raccordables d'ici fin 2008. Les investissements cumulés pour la période 2007-2008 sont évalués à 270 millions d'euros.

« La fibre » inclut un accès internet très haut débit, aussi bien en réception (jusqu'à 100 Mb) qu'en émission (jusqu'à 10 Mb), la TV numérique et le téléphone illimité. Elle permet également de bénéficier d'un portail Orange dédié, totalement personnalisable, donnant accès à des chaînes TV, de nombreuses vidéos et des services pour partager en toute simplicité ses contenus autoproduits (vidéos, photos...).

Orange a conçu une offre modulaire pour tester, dans cette phase de pré-déploiement, les préférences de ses clients. En complément de l'offre de base à 44,90 EUR/mois, chaque client est ainsi libre de concevoir son offre en fonction de ses goûts et envies : TV Haute Définition, multi écran TV ou encore 100 Mb symétriques, 3 options pour profiter pleinement des nouveaux usages multimédias.

Edubourse

Japon : trouver chaussure à son pied via un moteur de recherche "tangible"
Vendredi, 16/03/2007 - 00:00

Une paire de chaussures vous plaît, mais vous la voudriez en 40, en cuir et d'une autre couleur ? Pour dénicher les mocassins de vos rêves dans les stocks, ou les faire fabriquer sur mesure, il y a au Japon un moyen simple et ludique : l'informatique "tangible". Il s'agit d'un nouvel outil de recherches dans des bases de données et de création virtuelle à la portée de tous, en cours de développement chez NTT Comware, filiale du géant des télécommunications japonais NTT.

Le principe est simple : si l'on cherche, par exemple, une paire de chaussures, il suffit de déposer devant un écran de PC, sur une tablette spéciale, une maquette du modèle, un morceau du cuir que l'on veut ainsi que le coloris souhaité (à l'aide d'un nuancier). Sans avoir besoin de saisir au clavier ces différents éléments. Aussitôt s'affichent les modèles en stock qui correspondent précisément aux critères demandés. "Nous appelons ça la recherche "tangible" car il s'agit de manipuler des objets palpables pour entrer les données dans l'ordinateur", explique un ingénieur de NTT Comware, Norio Shioiri.

"C'est utile pour les gens qui ont du mal à décrire ce qu'ils cherchent ou pour les personnes âgées n'ayant pas l'habitude d'utiliser un clavier", ajoute son collègue Hideo Deguchi. Ce système repose sur une technologie d'identification par radio-fréquence (RFID). Chaque objet intègre une étiquette électronique dans laquelle sont pré-enregistrées ses caractéristiques. "Sous le carré de cuir, il y a une puce où est écrit sous forme numérique +morceau de cuir de vachette+", précise M. Shioiri.

Quand on pose le carré de cuir devant l'écran, les informations contenues dans la puce sont captées à distance grâce à un lecteur intégré dans la tablette. Le lecteur est capable de lire simultanément plusieurs étiquettes électroniques. Quand, par exemple, le chercheur se sert d'une plaquette marron, apparaissent tous les modèles de ce coloris de la chaussure recherchée.

Cet instrument de recherche est associé à un outil de création virtuelle en 3-D qui permet de voir une représentation parfaite des objets sélectionnés. "Nous envisageons aussi de recourir à ce concept technologique pour l'architecture intérieure", indique Asunobu Narita, directeur du département de recherches et développement de NTT Comware. "L'avantage, c'est que les clients pourront sélectionner le design des objets, les revêtements muraux et autres matériaux sur la base d'éléments tangibles. Ils pourront voir ainsi instantanément sur l'écran le rendu en trois dimensions dans leur maison", s'enthousiasme un ingénieur. Des applications sont aussi envisagées dans le domaine éducatif, notamment pour apprendre à des enfants à faire le lien entre objets réels et figures géométriques.

JDNet

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots japonais savent servir le thé et allument la lumière pour vous
Vendredi, 16/03/2007 - 00:00

La cérémonie du thé au Japon prend des allures futuristes à l'université de Tokyo où les chercheurs étudient la façon dont les robots et autres technologies peuvent améliorer le quotidien des humains et s'y intégrer. Un robot humanoïde pourvu de caméras à la place des yeux a ainsi versé du thé dans une tasse lors d'une démonstration organisée par son fabricant Kawada Industries, une entreprise japonaise de robotique. Une autre fois, c'est un robot monté sur roulettes qui a servi le thé dans une pièce expérimentale truffée de capteurs et de caméras, pour simuler ce que serait un quotidien bardé de robotique.

"Un humain serait plus rapide, mais il faudrait lui dire merci", a commenté le professeur de l'Université de Tokyo, Tomomasa Sato. "Ce qui est bien avec un robot, c'est qu'on n'a pas de complexes à lui donner des ordres". L'universitaire estime que le Japon, dont la population vieillissante compte 20 % de personnes de plus de 65 ans, va être précurseur dans la création de robots capables de s'occuper des personnes âgées, malades ou dépendantes.

Canada.com

Un robot salamandre qui marche et nage !
Vendredi, 16/03/2007 - 00:00

Une équipe de recherche franco-suisse a conçu un robot-salamandre qui marche et nage en reproduisant les processus neuronaux qui commandent la marche chez la salamandre et la nage par ondulation chez la lamproie. La salamandre est un amphibien considéré comme ressemblant le plus au premier vertébré terrestre issu de la vie aquatique. La lamproie est, elle, un poisson primitif qui se déplace en faisant onduler son corps de la tête à la queue. La performance est que ce robot - c'est l'un des rares à pouvoir le faire - reproduit ces deux modes de locomotion avec un seul et même système de commande : passer de l'un à l'autre se fait en augmentant l'intensité électrique du réseau de neurones virtuels qui commande le robot. Ce qui montre, d'un point de vue neurologique, qu'il a sans doute été relativement aisé à nos ancêtres aquatiques de sortir de l'eau et de s'adapter à la marche.

Le robot salamandre, long de 85 centimètres, comporte 7 segments reliés par 6 joints flexibles et 4 pattes rotatives. Il est équipé de 10 petits moteurs qui jouent le rôle des muscles. La matière plastique utilisée a été très étudiée pour avoir une densité qui permette au robot de se comporter en matière de flottabilité comme une salamandre. Il est télécommandé par un ordinateur portable.

« Nous avons créé un réseau de neurones virtuels sur ordinateur. Lorsqu'il fonctionne, il envoie ses informations aux moteurs qui animent le robot », précise Jean-Marie Cabelguen, neurobiologiste à l'unité Inserm U 862 de Bordeaux. L'un des autres pères du robot, Auke Jan Ijspeert, de l'École polytechnique de Lausanne (Suisse) estime que la salamandre « est un animal clé pour comprendre la transition dans l'évolution de la nage à la marche ».

Les chercheurs ont donc commencé par modéliser l'innervation et le réseau de neurones de la salamandre. Celle-ci possède deux groupes distincts de neurones ayant des activités rythmiques. L'un des groupes, une moelle épinière ancestrale, contrôle l'ondulation, l'autre les pattes. Quand le groupe qui contrôle l'ondulation s'active, des « vagues » de stimuli sont envoyés aux muscles qui vont se contracter rythmiquement et entraîner l'ondulation du corps de l'animal. Quand le groupe de neurones qui contrôle le mouvement des pattes s'active, celles-ci se mettent à bouger.

Jean-Marie Cabelguen et ses collègues avaient déjà réussi à démontrer, chez la vraie salamandre, que les deux groupes de neurones étaient « liés ». Ainsi, en excitant électriquement une certaine partie du cerveau de l'amphibien, ses pattes se mettaient à bouger. Mais le plus remarquable est qu'en stimulant la même zone du cerveau avec une intensité croissante, le groupe de neurones contrôlant les pattes se déconnecte, celles-ci s'immobilisent, et celui contrôlant l'ondulation prend le relais, le corps de la salamandre commençant alors à « nager ».

Cette machine démontre que des robots peuvent être utilisés pour tester des modèles biologiques et que dans le même temps, la biologie peut apporter des solutions à la robotique pour mettre au point des systèmes de contrôle de la locomotion de robots. « La prochaine étape est de mettre en place un retour sensoriel sur le robot, précise Jean-Marie Cabelguen. Actuellement, il n'agit que grâce aux commandes motrices que l'ordinateur envoie. Le robot ne sait pas où il est. Nous voulons donc l'équiper dans un premier temps de capteurs de pression et d'humidité. Ensuite, nous lui donnerons la vue grâce à une petite caméra ».

Science

^ Haut
Matière
Matière et Energie
Si vous êtes porteur d'un projet en géothermie, contactez @RTFlash !
Vendredi, 16/03/2007 - 00:00

Chers lecteurs,

A la suite de notre éditorial du 2 mars dernier "La géothermie, grande oubliée des énergies renouvelables", le Président du Club des ECO Business Angels, Monsieur André Brouchet, a aimablement fait savoir à @RT Flash que son club était prêt à accompagner un porteur de projet dans la géothermie en France.

Si vous êtes dans cette situation et que vous souhaitez présenter un projet dans ce domaine de la géothermie, envoyez-nous votre demande et nous le transmettrons à Mr Brouchet.

René Trégouët

Directeur de la publication de @RTFlash

USA : la géothermie profonde pourrait fournir 10 % de la puissance électrique en 2050
Vendredi, 16/03/2007 - 00:00

Décidément, la géothermie est à l'honneur aux Etats-Unis. Après un récent rapport du MIT sur l'avenir de la géothermie, un groupe d'étude regroupant des scientifiques, des industriels et fonctionnaires fédéraux vient de publier un rapport sur l'avenir de la géothermie profonde aux USA, encore appelée EGS (Enhanced geothermal systems).

Selon ce rapport, un investissement public de R&D de l'ordre de 1 milliard de dollars permettrait de vaincre les obstacles technologiques qui s'opposent encore à la valorisation de cette source énergétique. Le potentiel de la géothermie profonde à l'horizon 2050 correspondrait à 100 gigawatts, soit 10 % de la puissance électrique installée actuellement aux Etats-Unis.

La géothermie profonde consiste à exploiter des formations géologiques profondes (de 3 à 10 km) comme des échangeurs de chaleur. La fracturation naturelle de la roche est développée et utilisée pour réchauffer de l'eau introduite dans des puits d'injections et dont une fraction est récupérée dans des puits d'extraction. Cette technologie est notamment exploitée dans l'installation pilote de Soultz-sous-Forêts en Alsace. (Voir notre éditorial sur la géothermie du 2 mars).

Selon cette étude américaine, le développement massif de la géothermie profonde permettrait aux Etats-Unis de réduire sa dépendance vis-à-vis des énergies fossiles. Le principal avantage de cette technologie EGS est qu'elle peut être installés sur l'ensemble du territoire des Etats-Unis et non pas seulement les "points chauds". Dans cette hypothèse, le coût du kilowattheure s'établirait entre 12,7 et 104,9 cents dans la phase de développement et entre 3,6 et 9,2 cents dans la phase de production.

Article @RT Flash

Une nouvelle étape franchie vers le contrôle de la fusion thermonucléaire
Vendredi, 16/03/2007 - 00:00

Une équipe de recherche dirigée par le professeur David Anderson vient de montrer que le prototype symétrique hélicoïdal (HSX), une chambre de confinement magnétique d'un nouveau type, peut surmonter une barrière importante dans la production d'un plasma suffisamment chaud pour amorcer la réaction de fusion. Ces résultats montrent que la conception originale du HSX perd en fait moins d'énergie et qu'on peut envisager de l'utiliser pour atteindre la fusion. Le plasma est un gaz très chaud et ionisé qui peut conduire l'électricité. Si ce plasma peut satisfaire simultanément à trois critères (les fameux critères de Lawson), atteindre une certaine densité et une certaine température pendant un temps suffisamment long, les atomes d'hydrogène fusionneront et se transformeront en hélium, selon un processus analogue à celui qui se déroule dans notre soleil, ce qui entraînera un production d'énergie considérable.

Depuis des décennies, les recherches sur le plasma utilisent deux types de dispositif, les tokamaks, qui produisent un plasma plus énergétique mais moins stable et les enceintes magnétiques de confinement du plasma qui produisent au contraire un plasma plus stable mais moins énergétique. Le HSX, qui vise à combiner les points forts de ces deux systèmes, est le premier anneau de confinement magnétique qui utilise un champ magnétique quasi-symétrique. "Ces résultats sont très encourageants car ils montrent, après 17 ans de travail, la justesse de notre approche théorique et nous confortent dans notre conviction que la fusion est possible en poursuivant dans cette voie" souligne John Canik, l'assistant du Professeur Anderson.

SD

Un nouveau projet offshore hybride gaz/éoliennes en Mer d'Irlande
Vendredi, 16/03/2007 - 00:00

Le Department of Trade and Industry (DTI, Ministère du commerce et de l'industrie) a validé, le 8 février 2007, le projet de développement d'un parc énergétique hybride gaz/éoliennes au large des côtes de Cumbrie au nord-ouest de l'Angleterre. Ce parc baptisé "Ormonde" et développé par l'entreprise Eclipse Energy sera en mesure de produire jusqu'à 200 MW d'électricité (de quoi alimenter 150.000 foyers britanniques), la moitié de cette énergie provenant des éoliennes installées. Le concept proposé est une première mondiale : il s'agit de produire de l'électricité "en continu", une turbine à gaz prenant le relais des éoliennes en cas de mauvais temps ou d'absence de vent. Le gouvernement a donné son accord sur ce projet, les impacts environnementaux occasionnés par celui-ci, concernant notamment la conservation de la biodiversité et les effets sur la navigation, ayant été jugés soit négligeables, soit réductibles via des contraintes de construction et d'exploitation imposées par le DTI.

Au total, le projet Ormonde se composera d'un parc de trente éoliennes de 3,6 MW de capacité chacune, de deux puits de gaz naturel offshore (Ormonde North et Ormonde South), d'une turbine à gaz installée sur une plate-forme mobile et d'un raccordement sous-marin vers le réseau de transmission national (raccordement au niveau de Heysham sur la cote Ouest du Royaume-Uni). La plate-forme mobile permettra d'exploiter tout d'abord le gisement d'Ormonde South avant de se déplacer vers le gisement d'Ormonde North pour la seconde phase d'exploitation. Tout le matériel sera installé à 10 km de Walney Island, près d'un des premiers parcs éoliens britanniques, le parc Barrow. Eclipse Energy prévoit un investissement global de 280 millions de livres (420 millions d'euros environ) pour ce parc qui devrait avoir une durée de vie de 25 ans. Les travaux en onshore et en offshore devraient débuter dès 2008 pour s'achever et permettre une mise en route d'ici 2009.

Selon Eclipse Energy, le projet Ormonde permettra une réduction de 286.000 tonnes des émissions de CO2, de 3 300 tonnes des émissions de SO2 et de 1.000 tonnes des émissions de NOx, en comparaison avec une centrale thermique au charbon de capacité comparable. Ainsi ce type de projet permettra d'assurer la transition vers une production importante d'énergie d'origine renouvelable en offshore, faiblement émettrice de Gaz à Effet de Serre (GES) et de polluants atmosphériques.

Le feu vert au projet Ormonde arrive quelques semaines seulement après la validation de deux autres gros projets éoliens offshore dans l'estuaire de la Tamise (London Array et Thanet) Voici donc une nouvelle preuve de la volonté gouvernementale d'accélérer le développement des projets énergétiques propres et de forte capacité en mer.

BE

DTI

Honda affirme ses ambitions en matière de voiture à hydrogène
Vendredi, 16/03/2007 - 00:00

Honda vient de présenter son nouveau véhicule à hydrogène Honda FCX Concept entièrement fonctionnel. Le Honda FCX Concept de nouvelle génération de Honda Motor Co., Ltd., Tokyo, se distingue par un tout nouvel assemblage compact de piles à combustible Honda à haut rendement et sera lancé en nombre limité en 2008 au Japon et en Amérique du Nord.

Honda a doté le FCX Concept d'une plate-forme accueillant la pile à combustible V-Flow qui consiste en un module compact à haut rendement disposé sur une console centrale novatrice. Ainsi, les ingénieurs ont réussi à créer une berline élégante à suspension basse qui aurait été difficilement réalisable avec un véhicule à hydrogène classique. La nouvelle pile à combustible (PAC) de Honda est 20 % plus petite et 30 % plus légère que le module actuel du Honda FCX FC, mais elle a gagné 14 kilowatts (kW) en puissance de sortie. Le moteur d'entraînement a été placé de manière coaxiale avec la boîte de vitesses pour un design plus compact et une puissance de sortie accrue de 15 kW.

Dans l'ensemble, le moteur est plus léger d'environ 180 kilogrammes que celui du FCX actuel et environ 40 % plus compact. Cela donne lieu à une amélioration de l'efficience énergétique et de la performance, tout en libérant plus d'espace pour l'habitacle intérieur.

Dans le cas des assemblages à piles à combustible antérieurs, l'hydrogène et l'eau formés lors de la production d'électricité s'écoulaient horizontalement. Le nouveau véhicule FCX Concept intègre un système à écoulement vertical. La gravité contribue donc à éliminer l'eau produite, d'où une nette amélioration de l'écoulement de l'eau, élément clé d'une performance efficiente de l'assemblage des piles à combustible. Le démarrage par temps froid a également été grandement amélioré et peut se faire jusqu'à moins 30 degrés C.

Comme source d'énergie d'appoint, le FCX Concept est doté d'une batterie au lithium-ion compacte à haut rendement, pour une meilleure puissance de sortie et un moteur plus compact. Ces améliorations au chapitre du rendement d'importants éléments du moteur permettent de parcourir des distances d'environ 30 % supérieures à celles permises par l'actuel modèle FCX. Le véhicule est également extrêmement efficient, son rendement énergétique tournant autour de 60 %, soit près de trois fois celui d'un véhicule à moteur à essence, de deux fois celui d'un véhicule hybride fonctionnant au gaz-électricité et de 10 % supérieur à l'actuel modèle FCX.

NA

^ Haut
Espace
Espace et Cosmologie
Le Teflon, nouveau carburant de l'espace ?
Vendredi, 16/03/2007 - 00:00

Des chercheurs de l'institut des systèmes spatiaux (IRS) de l'université de Stuttgart sont en train de développer un procédé permettant d'utiliser le polytétrafluorèthylène (Teflon) comme carburant pour des engins à propulsion spatiale, en coopération avec l'entreprise ElringKlinger Kunststofftechnik, spécialisée dans les polymères. Les chercheurs Herdrich et Nawaz de l'IRS ainsi que M. Schlipf de l'entreprise ElringKlinger ont pour cela reçu le prix DuPont Plunkett 2007. L'institut de recherche compte équiper une sonde lunaire d'un moteur ionique propulsé grâce au Téflon.

L'avantage d'un propulseur magnétoplasmadynamique non stationnaire est sa robustesse et sa compacité. Grâce à lui, un satellite peut être manoeuvré avec énormément de précision, l'avantage résidant entre autres dans le fait que le moteur est réallumable. Le moteur développé par l'IRS a une vitesse de poussée de 12 km/s et nécessiterait 50 kg de Teflon pour effectuer le voyage vers la Lune. Par comparaison, un moteur propulsé chimiquement aurait besoin de trois fois cette quantité. L'entreprise ElringKlinger a développé, sur la base des dessins fournis par l'institut de recherche, un procédé pour la fabrication d'une pièce hélicoïdale en Teflon qui répond aux exigences d'une telle mission et compatible avec les conditions interstellaires.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'Union européenne adopte une politique ambitieuse de lutte contre le réchauffement climatique
Vendredi, 16/03/2007 - 00:00

L'Union européenne a adopté le 9 mars 2007 une ambitieuse stratégie de lutte contre le réchauffement climatique pour inciter les plus gros pollueurs de la planète, USA et Chine en tête, à suivre son exemple. Les chefs d'Etat et de gouvernement des Vingt-Sept ont clairement voulu prendre les devants en se fixant toute une série d'objectifs contraignants en matière de politique énergétique pour réduire les émissions de gaz à effet de serre. "Cela permettra à l'Europe de jouer son rôle d'avant-garde", a déclaré Angela Merkel, qui préside pour l'instant l'Union européenne. "Il était terriblement important de montrer le bon exemple."

Dix ans après avoir joué un rôle essentiel dans l'adoption du protocole de Kyoto en tant que ministre de l'Environnement de son pays, la chancelière allemande a obtenu un résultat qui, selon elle, pèsera lourd "pour toute l'humanité". Sans exception, tous les dirigeants européens ont rivalisé de superlatifs sur l'importance de cet accord qui doit inciter les plus gros pollueurs - USA, Chine, Russie et Inde - à prendre au sérieux le menace du réchauffement de la planète. "Nous pouvons une fois de plus dire au reste du monde : 'l'Europe prend les devants, vous devriez nous rejoindre'", a déclaré le président de la Commission, José Manuel Barroso. Merkel utilisera cette série de décisions pour peser sur le sommet du G8, qui réunira en juin prochain sous sa présidence les dirigeants de huit pays les plus industrialisés de la planète.

Pour Jacques Chirac, dont c'était le dernier Conseil européen formel, cette décision "fait partie des grands moments de l'histoire" de l'UE, au même titre que l'euro. L'accord est d'autant plus remarquable qu'il s'agit de la décision politique la plus importante prise par l'UE depuis qu'elle a été plongée dans la crise par les "non" français et néerlandais à la Constitution européenne et ce sur un sujet, la politique énergétique, qui a toujours divisé les Européens. Les Vingt-Sept ont fixé pour objectif unilatéral de réduire de 20 % au moins en 2020 par rapport au niveau de 1990 leur production de gaz à effet de serre, comme le CO2. Ils iront jusqu'à 30 % si les pays industrialisés font de même. L'UE rendra également obligatoire à cet horizon l'incorporation d'au moins 10 % de biocarburants dans les carburants utilisés par les automobiles.

Le point le plus délicat a été la fixation d'un objectif contraignant de 20 % en 2020 pour les énergies renouvelables. La France, la Finlande et la plupart des pays de l'Est ne voulaient pas d'un tel objectif qu'ils jugent irréaliste dans ce domaine et prônaient la prise en compte des autres sources d'énergie peu productrices de CO2, comme le nucléaire. Mais cette requête se heurtait au refus des pays qui, comme l'Allemagne, ont décidé de renoncer au nucléaire et qui voulaient des engagements fermes pour être crédibles.

Le compromis accepté prévoit bien la fixation d'un objectif moyen contraignant de 20% en moyenne à l'échelle de toute l'UE. Mais lorsque cet objectif sera décliné par Etat membre, il sera tenu compte des "points de départ nationaux différents" et de la politique énergétique de chacun, une référence étant faite à la contribution du nucléaire à la sécurité de l'approvisionnement et à la lutte contre les émissions de CO2. Des "objectifs globaux nationaux différenciés" devront donc être trouvés pour les énergies renouvelables avec la Commission, qui a annoncé des propositions pour le troisième trimestre de 2007 "en toute équité et avec le consentement des pays membres".

Il s'agit donc d'une victoire pour les deux camps : les partisans de l'énergie renouvelable obtiennent un objectif contraignant qui permettra aux industriels de planifier leurs investissements et les autres, comme la France, voient reconnue leur souveraineté sur leur politique énergétique. L'énergie nucléaire représente 70 % de la production d'électricité française et constitue un choix stratégique. Même les écologistes ont salué ces décisions, comme Greenpeace, qui s'est félicité de la fixation d'objectifs contraignants, même si l'organisation a critiqué la "victoire" française qui permet des traitements nationaux différents.

UE

La protection de l'ozone plus efficace contre l'effet de serre que le protocole de Kyoto !
Vendredi, 16/03/2007 - 00:00

Le protocole de Montréal destiné à protéger la couche d'ozone stratosphérique a été plus efficace pour lutter contre l'effet de serre et le réchauffement climatique que le protocole de Kyoto qui est pourtant entièrement consacré à cette question, affirment aujourd'hui des chercheurs. Guus Velder, de l'Agence hollandaise pour l'environnement, et ses collègues américains montrent que les efforts menés depuis 1989 pour éliminer les substances nocives pour l'ozone ont fait gagner une dizaine d'années à la lutte contre l'effet de serre. Ils publient leurs travaux dans les Proceedings of the National Academy of Sciences.

Certes, il y a des liens bien connus entre les mécanismes du réchauffement climatique et la préservation de la couche d'ozone. Les produits nocifs pour l'ozone, comme les CFC, les halons et les HCFC, sont aussi des gaz à effet de serre très puissants -plusieurs milliers de fois plus efficaces que le dioxyde de carbone pour piéger la chaleur. D'un autre côté, l'amincissement de la couche d'ozone a un effet refroidissant sur le climat. Pour mesurer plus précisément l'impact du protocole de Montréal, adopté en 1989, sur le climat, Velders et ses collègues ont modélisé plusieurs scénarios, avec ou sans réglementation sur les CFC et autres substances appauvrissant l'ozone (SAO).

Guus Velders reconnaît qu'il ne s'attendait pas à un tel impact. D'après les calculs de son équipe, l'élimination progressive des SAO aura permis d'éviter de rejeter dans l'atmosphère l'équivalent de 8 milliards de tonnes de CO2 par an (de 1990 à 2010). En comparaison, les chercheurs estiment que l'application à la lettre du protocole de Kyoto permettrait de réduire les gaz à effet de serre d'environ 2 milliards de tonnes d'équivalent CO2 par an entre 2008 et 2012.

La préservation de la couche d'ozone -qui se remet lentement- et la lutte contre l'effet de serre doivent inciter à appliquer jusqu'au bout le protocole de Montréal en éliminant les SAO qui sont encore utilisés, concluent les chercheurs.

PNAS

Une commune se chauffe et se rafraîchit à l'eau de mer
Vendredi, 16/03/2007 - 00:00

La Seyne-sur-Mer, commune varoise du bord de la Méditerranée, a décidé d'exploiter l'eau de mer pour chauffer et climatiser des bâtiments publics et des logements nouveaux, un gisement d'énergie "propre" encore largement ignoré en France et en Europe. Le directeur général des services de la commune de 61.000 habitants, Jean-Paul Cabanis, se félicite d'avoir franchi le pas sur le site, en friche depuis 1986, des anciens chantiers navals. "C'est une énergie gratuite et renouvelable", souligne-t-il. C'est la première fois dans l'Union européenne qu'un projet exploitant l'eau de mer est développé à une telle échelle, sur 60.000 mètres carrés, note Philippe Nunes, directeur du bureau d'études monégasque Ingetec qui a conseillé La-Seyne. La technologie employée est pourtant connue depuis plus de cent ans puisqu'elle sert à faire fonctionner les réfrigérateurs, en capturant les frigories contenues dans l'air.

A La-Seyne, calories et frigories sont capturées dans l'eau de mer grâce à trois échangeurs thermo-dynamiques et un système de pompes à chaleur, afin de restituer chaleur ou froid selon la saison, dans un circuit où l'eau douce circule en boucle dans les bâtiments. La "boucle" va dans un premier temps alimenter un palais des congrès et un pôle théâtral de 500 places chacun ainsi qu'un ensemble de 500 logements à construire.

Mais la municipalité compte étendre le circuit à des bâtiments publics anciens comme l'Hôtel de Ville. Elle va aussi encourager à se raccorder au dispositif les promoteurs immobiliers et les organismes HLM dont les immeubles sont situés à 600 mètres maximum de la côte car au-delà "l'investissement est trop coûteux", explique André Tueux, responsable du pôle énergie de l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) en Provence-Alpes-Côte d'Azur.

L'investissement de 2,5 millions d'euros, dont la moitié à la charge de la commune, est lourd mais sera rentabilisé en quelques années selon la Municipalité. Selon le responsable des services techniques de La-Seyne, André Thomas, la consommation d'énergie sera divisée par trois, la facture des utilisateurs allégée de 40 % tandis que 1.300 tonnes annuelles de gaz à effet de serre en moins seront rejetées dans l'atmosphère grâce à cet équipement dont les travaux vont débuter début avril et s'achever en octobre.

LSSM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un stylo permettant de mesurer la teneur en oxygène dans le sang
Vendredi, 16/03/2007 - 00:00

Des chercheurs de l'université Leibniz d'Hanovre ont développé une pointe métallique, pas plus grande qu'un stylo a bille, permettant de mesurer la saturation en oxygène dans les tissus humains. Ce nouveau système de mesure est composé de fibres optiques.

Il peut être utilisé sur tout le corps et peut aussi être introduit dans tous ses orifices. Cette nouvelle technique pourrait également jouer un rôle important pour les soins postopératoires des transplantations d'organes. Un prototype de cet appareil a été développé par les scientifiques de l'institut de technique de mesure de régulation (IMR) de l'université Leibniz d'Hanovre en collaboration avec l'établissement d'enseignement supérieur médical d'Hanovre.

Le principe utilisé par le système n'est pas nouveau : de la lumière est envoyée à travers les fibres optiques du stylo puis l'analyse de la lumière transmise ou réfléchie par le tissu permet aux experts de calculer la saturation en oxygène du sang dans ce tissu. Les médecins utilisent actuellement l'oxymétrie qui fonctionne selon ce principe. L'appareil utilisé est appelé oxymètre ou saturomètre. Il est constitué d'un capteur, lui-même forme d'une source lumineuse rouge et d'un capteur de lumière (sous forme de pince ou d'adhésif), relié à un boîtier analyseur. On place un doigt ou le lobe de l'oreille entre la source de lumière rouge et le capteur qui analyse la quantité de lumière transmise. La procédure a toutefois le désavantage que la teneur en oxygène n'est mesurée qu'au niveau du doigt ou du lobe de l'oreille (selon la position de l'appareil).

Le nouveau système d'analyse de sang offre l'avantage d'être applicable sur tout le corps. En outre, cette méthode est non invasive et l'appareil fonctionne grâce à des piles, il est donc portable. Ainsi les médecins disposent d'un système supplémentaire pour diagnostiquer des patients atteints de maladies cardiaques. Le système envoie la lumière à travers le tissu grâce à une LED blanche. La lumière réfléchie passe par une fibre optique (diamètre : 0,2 mm) qui transmet le signal à un microspectromètre. Selon la couleur du sang (proportionnelle au degré de saturation en oxygène du sang), la lumière est plus ou moins fortement absorbée par le tissu, et une mesure sur la lumière réfléchie permet de déterminer le contenu du sang en oxygène (saturation). En principe, il est également possible avec cet appareil d'analyser d'autres éléments du sang, tel que la bilirubine qui est une substance du corps humain provenant de la dégradation de l'hémoglobine.

BE Allemagne

La tomothérapie, radiothérapie guidée par l'image pour mieux cibler la tumeur
Vendredi, 16/03/2007 - 00:00

La tomothérapie, ou "radiothérapie guidée par l'image", permet de cibler avec davantage de précision la tumeur en réduisant les risques pour les organes sains, selon des spécialistes de l'Institut Curie, premier centre en France équipé de cet appareil de pointe. Les centres de lutte contre le cancer de Bordeaux et Nantes devraient également disposer cette année de cette nouvelle technique de radiothérapie, déjà utilisée dans une dizaine à une vingtaine de centres hospitaliers en Europe et plus largement aux Etats-Unis.

A Curie où le premier patient a bénéficié de cette technologie le 10 janvier, au total onze patients sont actuellement en cours de traitement ou l'ont terminé, a précisé le Docteur Alain Fourquet, chef du département de radiothérapie de l'Institut, lors d'une présentation à la presse. Chez ces patients souffrant de cancers de la sphère ORL (nez, bouche, larynx, pharynx), la tomothérapie est plus précise, grâce à l'imagerie en temps réel couplée à l'appareil, que la radiothérapie jusque là employée, et permet d'éviter l'irradiation involontaire des glandes salivaires (risque de bouche sèche), expliquent le Docteurr Fourquet et le Docteurr Philippe Giraud, radiothérapeute pilotant ce projet en association avec le physicien médical Alejandro Mazal.

L'appareil de tomothérapie permet, grâce à la présence d'un scanner, de faire de l'imagerie 3D en temps réel et en position de traitement : on peut ainsi délimiter précisément les contours de la tumeur à irradier et suivre son évolution, tout en réduisant au maximum l'irradiation des organes sains situés à proximité. Il est également possible de moduler l'intensité de l'irradiation pour réaliser une distribution de dose très précise. Chaque séance de traitement dure 30 minutes durant lesquelles le patient est totalement immobilisé par un système de contention, un masque thermoformé qui, par exemple, enveloppe la tête pour les tumeurs ORL. Le patient est introduit à l'intérieur de l'appareil comme pour l'imagerie IRM, ce qui peut représenter une gène pour les personnes claustrophobes.

Le traitement dure cinq à huit semaines, les doses délivrées à chaque séance étant les mêmes qu'avec d'autres appareils de radiothérapie. Mais la précision de la tomothérapie pourrait permettre à terme d'augmenter les doses sur l'organe cible, sans endommager les tissus voisins, espère le Docteur Fourquet. Destinée aux "traitements complexes", la tomothérapie devrait outre les cancers ORL, concerner les cancers du poumon, certains types de cancers du sein, les sarcomes des bras ou des jambes et, dans le cadre d'un projet de recherche, des patients nécessitant une irradiation corporelle totale avant une greffe de moelle osseuse. Sur une année, quelque 150 patients pourraient, selon le Docteur Fourquet, bénéficier de la tomothérapie à l'Institut Curie qui doit accueillir aussi des malades d'autres hôpitaux ou cliniques du pôle régional de cancérologie de l'ouest parisien.

CP

Les gènes du cancer sont nombreux mais jouent des rôles très variés
Vendredi, 16/03/2007 - 00:00

Le nombre de mutations génétiques impliquées dans le développement des cancers est beaucoup plus important qu'on ne le pensait, selon des chercheurs anglais dirigés par Andrew Futreal (Wellcome Trust Sanger Institute, GB). Cette équipe a passé au crible plus de 500 gènes isolés à partir de 210 cancers et a ainsi identifié un millier de mutations impliquées dans le développement des cancers. Cependant, toutes ces mutations n'ont pas le même rôle, précisent les chercheurs : il y a les ''conducteurs'' et les ''passagers''.

Futreal et ses collègues ont choisi de séquencer des gènes qui permettent la fabrication de kinases car on connaît déjà certaines anomalies chez ces enzymes qui sont liées à des cancers. A partir d'échantillons prélevés sur 210 cancers différents, les chercheurs ont traqué les mutations qui sont présentes chez les cellules cancéreuses mais pas chez les cellules normales. Ils ont ainsi trouvé plus de 1.000 mutations.

Parmi ces mutations, il y a celles qui entraînent la croissance des cellules cancéreuses et celles qui sont embarquées sur le même navire mais qui ne contribuent pas au développement du cancer. Les chercheurs ont identifié des mutations ''conductrices'' sur 120 gènes, pour la plupart encore inconnues. La majorité des mutations sont des passagers, expliquent Andrew Futreal. Le défi est de permettre aux biologistes de faire la différence entre les deux. En étoffant leurs connaissances des gènes impliqués dans les cancers -350 sont déjà connus- les scientifiques espèrent trouver de nouvelles cibles pour les traitements.

WTSI

Epilepsie : une enzyme du métabolisme énergétique en cause
Vendredi, 16/03/2007 - 00:00

L'épilepsie compte parmi les affections neurologiques les plus fréquentes. En France, près d'un demi million de personnes en souffrent, dont 25 à 30 % ne répondent pas aux divers traitements médicamenteux connus. Pour certains de ces patients épileptiques dits « pharmacorésistants », seule la chirurgie peut apporter une solution curative à leurs crises.

Dans une étude publiée dans les PNAS, l'équipe de René Pumain et de Jacques Laschet (Unité Inserm 573 « Neurobiologie et pharmacologie moléculaire » dirigée par Jean Michel Arrang) décrit un nouveau mécanisme physiopathologique de l'épilepsie, qui ouvre de nouvelles perspectives thérapeutiques. Les résultats de ces chercheurs montrent que l'inhibition neuronale est contrôlée par une enzyme du métabolisme énergétique et que, chez les épileptiques, ce contrôle est déficient, favorisant ainsi le déclenchement des crises. L'épilepsie, ou plutôt les épilepsies, correspondent à un dysfonctionnement soudain et passager des structures cérébrales, dont les origines sont diverses. La maladie se caractérise par des crises spontanées et répétées dans le temps, qui peuvent se manifester de façon très variée d'un patient épileptique à un autre : convulsions, perte de connaissance, absences, hallucinations, etc.

La crise d'épilepsie survient lorsqu'un groupe plus ou moins important de neurones corticaux produit brusquement une décharge électrique intense de façon simultanée, se propageant comme un orage électrique. Habituellement, l'activité cérébrale est régulée grâce, notamment, à l'action de l'acide gamma-aminobutyrique (GABA), le principal neurotransmetteur inhibiteur du système nerveux central. Chez les patients épileptiques, l'action inhibitrice du GABA serait réduite, ce qui favoriserait une hyperactivité des neurones et donc le déclenchement des crises.

Dans une étude parue en 2004 dans The Journal of Neuroscience, l'équipe de René Pumain et Jacques Laschet avait montré que l'action du GABA était contrôlée par une enzyme ayant également un rôle clé dans le métabolisme du glucose : la glycéraldéhyde-3-phosphate déshydrogénase (GAPDH). Au niveau de la membrane plasmatique post-synaptique, la GAPDH permet de maintenir en fonction les récepteurs au GABA de type A, en phosphorylant une de leurs sous-unités.

Cette même équipe démontre aujourd'hui que le contrôle de cette enzyme sur les récepteurs au GABA est déficient chez les patients épileptiques. Ces chercheurs ont effectué une série d'études sur du tissu cortical prélevé dans un but strictement thérapeutique chez des patients épileptiques pharmacorésistants (Service de Neurochirurgie de l'hôpital Sainte-Anne à Paris et de l'hôpital Pontchaillou à Rennes). Ils ont découvert que, chez les patients épileptiques, le mécanisme dépendant de la GAPDH est déficient pour maintenir le rôle des récepteurs au GABA. Ces derniers sont alors moins nombreux à être en fonction au niveau de la membrane des neurones, ce qui diminue l'action inhibitrice des neurotransmetteurs sur l'activité électrique de ces neurones et, donc, favorise la survenue des crises d'épilepsie.

Etant donné la double fonction de la GAPDH, ces observations permettent aussi de suspecter l'existence d'un lien étroit entre l'épilepsie et le métabolisme énergétique. En effet, il est connu depuis longtemps que l'utilisation du glucose pour la production d'énergie (ATP) est sensiblement diminuée (hypométabolisme) dans les zones du cerveau à l'origine des crises d'épilepsie, sans que jusqu'ici la relation avec la pathologie en ait été élucidée. Ces résultats permettent de mieux comprendre les mécanismes physiopathologiques de l'épilepsie humaine, dont une partie reste encore à décrypter.

Ils fournissent également des pistes intéressantes pour contrecarrer la déficience observée et ainsi développer de nouvelles molécules antiépileptiques, destinées notamment au traitement des épilepsies pharmacorésistantes. Par ailleurs, d'autres pathologies du système nerveux pourraient être concernées par ces nouvelles données, des pathologies où l'hypométabolisme du tissu nerveux est également observé, comme la maladie d'Alzheimer ou celle de Parkinson.

Inserm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top