|
|
|
|
|
NUMERO 314 |
|
|
|
|
|
|
|
Edition du 08 Décembre 2004
|
|
|
|
|
Edito
Notre Univers est-il le fruit d'une simulation informatique ?
La vie sur la Terre et tout l'univers pourraient n'être qu'une simulation informatique gigantesque, un rêve de super-ordinateur, supputent dans leurs derniers écrits deux scientifiques britanniques renommés, le physicien Martin Rees et le mathématicien John Barrow. La question de l'existence réelle du monde, posée par les penseurs de toutes les époques, est abordée, selon eux, sous un angle nouveau par les progrès fantastiques et continuels de l'informatique. "Il y a quelques décennies, les ordinateurs n'étaient capables de reproduire que des schémas très simples, explique à l'AFP Martin Rees. Ils peuvent maintenant créer des mondes virtuels avec de nombreux détails". "A terme, observe-t-il, on pourrait imaginer des ordinateurs qui seront capables de simuler des mondes peut-être aussi compliqués que celui dans lequel nous pensons vivre". Ce n'est qu'une théorie, ajoute Sir Martin, cosmologue de l'université de Cambridge. Mais "elle doit nous conduire à nous demander si nous-mêmes pourrions nous trouver dans une telle simulation". (voir l'article de Propanganda Matrix). L'univers, dans ce cas, ne serait pas un tout mais une partie d'un ensemble que Martin Rees et John Barrow appellent des "multivers". Ce concept de Multivers s'appuie notamment sur les travaux d'Andrei Linde, un des plus grands cosmologistes de notre temps. Celui-ci a formulé en 1982 une nouvelle théorie de l'univers qui tente de dépasser les faiblesses du modèle du Big Bang. Linde critique la théorie du Big Bang pour les nombreux problèmes physiques et philosophiques qu'elle soulève. Il considère notamment que les équations physiques qui déterminent le Big Bang prédisent un univers beaucoup plus petit qu'il ne l'est en réalité et que le modèle théorique n'explique pas pourquoi les différentes régions de l'univers se ressemblent et les lointaines galaxies sont distribuées de façon aussi uniforme dans toutes les directions au sein de l'univers. Linde propose la théorie d'un univers auto-reproducteur et à très forte croissance (self-reproducing inflationary univers) qu'il a modélisé grâce à des simulations sur ordinateur. Selon lui, la croissance de l'univers à son origine aurait obéi à un modèle d'"inflation chaotique". Alors que la théorie classique du Big Bang décrit un univers semblable une bulle de savon se gonflant graduellement, la théorie de Linde décrit un univers semblable à une bulle qui produirait des bulles identiques, et ainsi de suite. L'univers décrit par Linde enfanterait de nouveaux univers par autoreproduction et selon une arborescence empruntée aux mathématiques fractales découverte par Benoit Mandelbrot. Pour Linde, il faudrait imaginer l'univers comme un ensemble de bulles intereliées qui se développent de manière fractale (chaque partie du tout ressemble au tout). Il y aurait donc eu création d'un univers à partir duquel plusieurs bulles se seraient formées de façon indépendante. Ces nouvelles bulles seraient en fait des points de l'univers qui seraient entrés en expansion en eux-mêmes, sans affecter l'univers originel. Chacun de ces univers aurait ses propres lois de la physique et pourrait donner naissance à d'autres univers, et ainsi de suite. Ce mécanisme donnerait lieu à un univers auto-reproducteur éternel et infini dans le temps et dans l'espace. "On sait depuis longtemps que des civilisations techniques à peine plus avancées que les nôtres auront la capacité de simuler des univers dans lesquels des entités conscientes pourront émerger et communiquer entre elles", rappelle pour sa part John Barrow, directeur d'études à Cambridge également, dans un récent article scientifique. Des sociétés disposant d'une "puissance informatique beaucoup plus élevée que la nôtre, poursuit-il, pourraient simuler non seulement le climat ou la formation des galaxies, comme nous le faisons, mais aussi l'apparition des étoiles et la formation des systèmes planétaires". "Puis, imagine le chercheur, en intégrant les lois de la biochimie aux simulations astronomiques, elles seraient capables d'observer l'évolution de la vie et de la conscience". Tout aussi simplement que nous "suivons le cycle des insectes sur un fruit", elles regarderaient "les civilisations croître et communiquer, se disputer sur le fait de savoir s'il existe un 'Grand Programmateur' dans le Ciel", pouvant "intervenir à volonté, au mépris des lois de la nature habituellement observées". D'autres scientifiques refusent d'envisager l'hypothèse d'un monde créé par les machines. Seth Lloyd, un physicien du Massachusetts Institute of Technology (MIT) cité par le Sunday Times du 14 novembre, avance comme principale objection qu'un ordinateur capable de simuler la vie terrestre devrait être "inimaginablement puissant". Mais pour réfuter cette objection John Barrow ne s'appuie pas que sur l'informatique. Pour étayer sa thèse d'un univers simulé il souligne un fait extrêmement troublant : l'équilibre infiniment subtil des conditions naturelles rendant la vie possible sur Terre. Un équilibre, suggère le chercheur, qui pourrait même s'avérer trop délicat pour se perpétuer sans que "de légers changements" lui soient apportés de temps à autre. Cette question fondamentale du « réglage » des grandes constantes de l'univers dans un sens qui permet l'apparition de la vie est développée de manière remarquable dans un passionnant article intitulé « L'ajustement fin des constantes de l'univers » et publié dans le dernier numéro hors série de la revue « Sciences&Avenir ». Dans cet article (non disponible en ligne), Dominique Lambert, Professeur à l'Université de Namur, souligne de manière pertinente que le processus qui produit le carbone dépend de manière très fine des valeurs des constantes de couplage de l'interaction forte et de l'interaction électromagnétique. Il suffirait que ces constantes de couplage soient très légèrement modifiées pour détruire toute possibilité de produire du carbone, élément indispensable à la vie. S'agissant de l'interaction faible (qui intervient dans les processus de désintégration), Dominique Lambert rappelle qu'une légère modification de la constante de couplage rendrait impossible la production d'hydrogène et donc d'eau, autre élément essentiel à l'apparition de la vie. Enfin, à l'échelle cosmique, il est troublant de constater que la fameuse constante cosmologique possède exactement la valeur nécessaire à l'apparition des structures cosmiques telles que les galaxies, les étoiles et les planètes. Une valeur plus élevée rendrait impossible la formation de ces structures liées par la force de gravitation. Une valeur plus faible entraînerait une contraction trop rapide de l'univers, empêchant les étoiles de se former. On voit donc que, sans céder aux explications métaphysiques ou religieuses, un nombre croissant de scientifiques tout à fait rigoureux et attachés à la rationalité, tentent d'éclairer d'une manière nouvelle le fait troublant que toutes les constantes et forces fondamentales de l'univers sont très exactement réglées de manière à permettre l'apparition de la vie. Face à un univers dont toutes les lois et les constantes permettent une organisation de plus en plus complexe de la matière, jusqu'à l'irruption du vivant puis de la conscience, cette hypothèse d'un univers simulé, qui serait voulu et conçu par une intelligence cosmique d'une puissance presque incommensurable, mérite d'être examinée et sera de plus en plus incontournable dans les décennies à venir. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le chiffre d'affaires cumulé du marché français de l'équipement de loisirs numériques dépassera 13 milliards d'euros en 2004, selon une étude de GfK. Ce marché, qui rassemble les achats informatiques, d'électronique grand public, de photos et de télécoms, a doublé en sept ans, ajoute l'institut d'études marketing. Produits-phares, les téléphones portables équipés d'un appareil photo provoquent une hausse du taux de renouvellement des combinés, peut-on lire dans un communiqué. GfK estime ainsi que 26 % des possesseurs de téléphones portables auront renouvelé leur combiné à la fin de l'année, contre 22 % en 2003. Sur l'ensemble de l'année, le marché du portable devrait progresser de 14 %, à 12,8 millions d'unités vendues. Sur le seul second semestre, la croissance des ventes de téléphones portables devrait être de 18 %. Le marché français ne diffère pas du marché européen, sur lequel deux tiers des ventes concernent des produits de loisirs numériques. Cette croissance se fait au détriment des produits analogiques : téléviseurs LCD, écrans plasma et DVD enregistreurs de salon remplaçant les anciens postes de télévision et magnétoscopes. Les ventes de contenus numériques devraient générer plus de 4,2 milliards d'euros sur l'ensemble de l'année, contre 4,1 milliards en 2003 et 3,8 milliards en 2002. "Le DVD occupe une part croissante, tandis que le marché du CD audio rencontre les plus grandes difficultés à préserver ses niveaux de ventes des années précédentes", ajoute le communiqué. Le marché des CD audio devrait ainsi reculer à 1,58 milliard d'euros sur l'ensemble de l'année, contre 1,82 milliard l'an dernier. Reuters
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de l'Idaho National Engineering and Environmental Laboratory (INEEL) et de la société Cerametec (Utah) ont annoncé avoir obtenu expérimentalement le taux de production d'hydrogène par électrolyse à haute température (EHT) le plus élevé jamais rapporté. Ce procédé prometteur, qui décompose l'eau en hydrogène et oxygène par application d'un courant électrique, nécessite un apport d'énergie dont dépend son rendement et donc son intérêt. Dans le cas d'une électrolyse à basse température, alimentée par une centrale à charbon par exemple, le coût énergétique est trois à quatre fois plus important que la production finale d'énergie. Pour l'EHT en revanche, le rendement peut grimper jusqu'à 50 %, en particulier si elle est couplée à un réacteur nucléaire haute température (HTR). L'idée des chercheurs est donc, à terme, de construire une unité de ce genre qui porterait le gaz caloporteur (de l'hélium en l'occurrence) à une température d'environ 1000°C. Le gaz chauffé serait utilisé de deux manières : soit pour faire tourner une turbine génératrice d'électricité, soit pour amener à 800°C l'eau devant servir à l'électrolyse. A l'arrivée, ce réacteur "2 en 1" pourrait au choix générer 300 mégawatts d'énergie à destination du réseau électrique ou 2,5 kg d'hydrogène par seconde. Le problème est que la maîtrise des centrales à gaz caloporteur haute température, même classiques, est encore limitée. Cerametec et l'INEEL entendent maintenant tester la faisabilité du dispositif grâce à un projet de 2,6 millions de dollars. Un prototype à échelle commerciale est attendu par le Département de l'Energie (DOE) d'ici 2017. NYT
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'impact de l'activité humaine sur le climat a au moins multiplié par deux le risque d'été caniculaire comme celui de 2003, affirment des chercheurs dans la revue Nature. Etablir un lien de cause à effet aussi direct entre un évènement climatique et des changements induits par l'homme est très difficile en raison de la complexité des phénomènes climatiques et atmosphériques. Le caractère très exceptionnel de la canicule de l'été 2003 qui a étouffé toute l'Europe de l'ouest -du jamais vu depuis 5 ou 6 siècles- offrait cependant aux chercheurs un excellent terrain d'investigation. Peter Stott, Myles Allen et D. Stone ont fait tourner plusieurs modèles climatiques afin d'évaluer la probabilité qu'un tel été survienne. Les chercheurs britanniques ont ainsi mis en évidence que l'action anthropogénique augmentait considérablement le risque de températures extrêmes. Selon ces scientifiques, qui publient une étude dans la revue Nature du 2 décembre, l'espèce humaine, par ses émissions de gaz à effet de serre dans l'atmosphère entre 1851 et 2003 "a au moins doublé le risque d'occurrence d'étés aussi chauds que celui de 2003 en Europe". Ces résultats pourraient influencer les discussions internationales sur les changements climatiques et ouvrir des boulevards aux juristes. Si une responsabilité directe peut être établie entre les dégâts provoqués par les changements climatiques et l'action de l'homme, pourquoi les victimes ne porteraient-elles pas plainte contre les fautifs, les Etats par exemple ? Etablit un tel lien est pour l'instant tabou, expliquent le physicien Myles Allen et le juriste Richard Lord dans un second article publié dans Nature. Si les études comme celles de Stott se multiplient, notamment grâce à des simulateurs de plus en plus puissants, le tabou finira peut-être par tomber. "Notre analyse sur cent cinquante ans montre que les étés européens se réchauffent, en raison du changement climatique provoqué par l'homme", concluent les scientifiques. Réalisant une projection jusqu'à la fin du siècle, ils estiment aussi que "la probabilité d'étés dotés de températures moyennes supérieures à celles de 2003 augmente rapidement, de l'ordre d'un été sur deux jusqu'en 2040. A la fin du XXIe siècle, 2003 pourrait être classé comme un été anormalement froid en fonction des nouvelles conditions climatiques". Serge Planton, responsable de la recherche climatique à Météo France, juge également l'étude de Nature très intéressante. Ses auteurs "ont réalisé une simulation à basse résolution, avec une grille aux mailles très larges (300 km), qui prend en compte une évolution sur une période de temps très longue. Mais ils se sont focalisés sur la période estivale et prennent en compte une région européenne, alors qu'on étudie habituellement le problème pour toute la planète ou pour la France". Une simulation réalisée pour la France par Michel Déqué (Météo France) et Laurent Di (Laboratoire de météorologie dynamique) montre ainsi que la probabilité de voir la température dépasser 35 °C en été pourrait augmenter d'un facteur cinq à dix d'ici à la fin du siècle, jusqu'en 2070-2100. Nature
|
|
|
|
|
|
|
|
Un bambou qui dépollue l'eau, sans produire le moindre déchet, est utilisé dans un nouveau procédé d'épuration présenté au salon international Pollutec, qui se tient à Lyon jusqu'à vendredi. Dans l'enchevêtrement des racines du bambou, une micro-faune (vers, petits coquillages) minéralise la pollution des eaux usées, qui est ensuite prélevée par la tige de la plante. Toute l'eau usée, répandue dans la bambouseraie, est ainsi absorbée. Le procédé d'épuration utilisant ces bambous, pour lequel la société Phytorem a déposé un brevet, peut être utilisé seul ou en complément d'autres systèmes d'épuration. Il a fait l'objet d'une expérimentation à Miramas (Bouches-du-Rhône) et plusieurs projets sont en cours, avec des collectivités, des propriétaires de caves vinicoles et d'industries agroalimentaires. Deux communes des Hautes-Alpes, Chorges et Prunières, se sont alliées pour construire une station d'épuration utilisant le procédé des filtres à roseaux (bacs étanches au fond desquels se développent des bactéries qui débarrassent l'eau de sa matière organique, et qui sont oxygénées par des roseaux). Pour absorber l'eau rejetée par cette station, les deux communes ont décidé d'avoir recours aux bambous. Les autorités "nous ont donné comme impératif d'avoir un minimum de rejet et surtout en été", où un lac situé à proximité accueille des baigneurs, explique la présidente du syndicat intercommunal Chorges-Prunières, Sophie Rommens. La bambouseraie, dont la construction devrait commencer au printemps 2005, doit couvrir 6.400 m2 pour un coût de quelque 37.000 euros, précise-t-elle. Le procédé utilisant le bambou assainisseur a été validé par l'Agence de l'eau en novembre, ce qui permet aux clients d'obtenir des subventions. Cette technologie nécessite toutefois des surfaces suffisamment étendues pour accueillir une bambouseraie : il faut compter au moins un hectare pour deux mille habitants. Mais "c'est nettement moins que pour l'épandage ou le lagunage", précise Bernard Benayoun, PDG de Phytorem. L'épuration ne concerne pas encore toutes les pollutions, telles que les hydrocarbures, précise Véronique Arfi, responsable technique. Les bambouseraies ont un avantage esthétique sur les stations d'épuration classiques, souligne-t-elle. De plus, la technologie permet de recycler le bambou : une fois qu'elle a terminé sa croissance, la plante, qui peut atteindre jusqu'à 20 m, est moins performante pour dépolluer. Elle est alors coupée, et son bois peut ensuite servir à faire des lattes ou des panneaux. AFP
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le glioblastome est une redoutable tumeur du cerveau qui se développe rapidement et entraîne dans presque tous les cas la mort des malades malgré les traitements mis en oeuvre (chimiothérapie, radiothérapie ou chirurgie). Mais une équipe de chercheurs de Los Angeles, dirigée par Maria Castro, vient d'expérimenter un nouveau traitement qui permet pour la première fois, de ralentir considérablement la croissance de ce cancer. Ce traitement consiste à employer un virus génétiquement modifié pour introduire, dans les cerveaux de rats de laboratoire, une petite protéine appelée hsFlt3L Cette protéine a la particularité d'augmenter le nombre de cellules immunitaires dans le cerveau, ce qui ralenti de manière significative la croissance de la tumeur. Sur les 10 rats traités avec cette protéine, 7 ont survécu pendant plus d'une année, sans aucun effet secondaire. En revanche, les rats non traités sont morts en une semaine. Chez 3 des 10 les rats traités avec la protéine hsFlt3L, la tumeur avait complètement disparu au bout de trois mois. Maria Castro souligne que cette expérience montre qu'il est possible d'éliminer totalement un glioblastome grâce à une puissant stimulation du système immunitaire par cette protéine hsFlt3L. Le docteur Castro espère pouvoir commencer sur l'homme les essais cliniques de ce nouveau traitement d'ici 3 ans. Le docteur Jeremy Rees, expert en matière de neuro-oncologie à l'université de Londres reconnaît le grand intérêt de ces recherches mais reste prudent. Il rappelle que, malheureusement, d'autres études ont produit des résultats prometteurs sur l'animal mais n'ont pas tenu leurs promesses chez l'homme. Article @RTFlash BBC
|
|
|
|
|
|
|
|
On savait déjà que le benzène, un agent chimique industriel, pouvait augmenter le risque de leucémie et d'autres maladies du sang, mais une nouvelle étude américano-chinoise montre qu'une faible exposition pourrait également être néfaste en affectant les globules blancs. L'étude montre que les travailleurs d'une usine de chaussures en Chine exposés à moins d'une partie par million (ppm) de benzène ont vu baisser de manière importante le nombre de leurs globules blancs, qui jouent un rôle clé dans le système immunitaire. Les travaux ont également montré un déclin des cellules dans la moelle osseuse qui forment les globules blancs. La législation américaine limite le seuil d'exposition au benzène à 1 ppm sur le lieu de travail, mais l'étude révèle que la composition du sang est affectée même à des niveaux inférieurs. "Nous ne pouvons pas affirmer que cela entraîne un risque futur de maladie", souligne le Dr. Nathaniel Rothman, coauteur de l'étude. "Mais cela pose la question de savoir ce qui se passe dans la moelle osseuse", suite à une faible exposition au benzène. Très courant dans l'industrie, le benzène est notamment employé comme solvant pour fabriquer des plastiques, des résines, des adhésifs et des fibres synthétiques. Les personnes travaillant à bord de navires, dans la réparation automobile, la confection de chaussures et le raffinage et le transport de pétrole et d'essence sont souvent exposées à des émanations de benzène. Selon le Dr Rothman, l'étude montre la nécessité d'approfondir les recherches pour mieux comprendre les effets sur le sang d'une faible exposition au benzène. "La question est de savoir quelles sont les conséquences sur la santé des travailleurs", précise-t-il. Nature
|
|
|
|
|
|
|
|
La liste des méfaits du cannabis ne cesse de s'allonger. Déjà suspectée d'accroître les risques de schizophrenie, la consommation régulière de cannabis pendant l'adolescence est désormais fortement soupçonnée d'accroître, au cours des années qui suivent, le risque de développer une psychose. Une équipe de chercheurs néerlandais du département de psychiatrie et neuropsychologie de l'université de Maastricht, dirigée par le professeur Jim Van Os, s'est penché sur une population de 2 437 jeunes âgés de 14 à 24 ans - en deux temps. Au début de l'étude, les participants ont fait l'objet d'une évaluation visant à identifier ceux qui affichaient une prédisposition aux troubles psychiatriques. Quatre ans plus tard, ils ont ensuite été interrogés sur leur consommation de cannabis, ainsi que sur l'apparition éventuelle de troubles psychotiques au cours de l'étude. Les résultats de ce travail permettent aujourd'hui de mettre en évidence une augmentation modérée du risque chez les consommateurs réguliers de haschisch - et nettement plus marquée chez ceux qui, au début de l'étude, présentaient une prédisposition à la psychose. Par ailleurs, l'étude semble infirmer l'hypothèse selon laquelle les sujets présentant une prédisposition aux troubles psychotiques consommeraient plus de cannabis que les autres, procédant ainsi à une sorte d'automédication. «En évacuant ce risque de biais, nous pensons aujourd'hui avoir de bons arguments pour dire que la consommation de cannabis n'est pas sans effet sur la santé psychique», conclut Jim Van Os. Ces données confirment l'hypothèse selon laquelle les troubles psychotiques, s'ils sont en partie liés à des facteurs génétiques, ont également des causes environnementales probablement variées. BBC
|
|
|
|
|
|
|
|
Attention: le fait de manger trop gras pourrait affecter nos capacités mentales ! Lors du congrès annuel de la Société pour les neurosciences, qui s'est tenu il y a un mois aux Etats-Unis, plusieurs chercheurs ont révélé les résultats de leurs expérimentations, menées sur des rats et des souris ayant suivi un régime alimentaire riche en graisses et en calories. Tous ont constaté le même phénomène : ces rongeurs avaient plus de mal à apprendre et à mémoriser que leurs congénères normalement nourris. Ainsi, une expérience effectuée par le Dr John Morley, de l'université de médecine de Saint Louis (Missouri), a consisté à multiplier par deux, durant sept mois, le taux des matières grasses quotidiennement ingurgitées par un groupe de souris. Placés à l'intérieur d'un labyrinthe, les animaux ont, ensuite, été entraînés à retrouver leur chemin, et les scientifiques ont comparé les résultats des deux groupes de rongeurs. Bilan : toutes les souris grassement nourries ont mis deux fois plus de temps à apprendre que les autres. Une semaine plus tard, l'épreuve a été renouvelée et a abouti aux mêmes résultats, avec deux fois plus d'erreurs chez les souris gavées... «Nous pensons que ce déficit de mémorisation est lié au taux élevé de triglycérides présent dans le sang des souris obèses. Car, lorsque nous leur avons injecté un médicament destiné à faire baisser ce taux, celles-ci ont recouvré la mémoire et commis moins d'erreurs», explique Susan Farr, codirectrice de l'étude. De quoi réfléchir à deux fois avant de se jeter allègrement sur des frites ! Express
|
|
|
|
|
|
|
|
Le manque chronique de sommeil favoriserait la prise de poids, confirment deux nouvelles études publiées aux Etats-Unis portant sur le lien entre le nombre d'heures passées à dormir et l'obésité. L'une des études montre d'importantes fluctuations entre les taux de leptine, une protéine sanguine qui supprime l'appétit et de ghrelin, une hormone qui le favorise, de personnes dormant cinq heures et celles endormies durant huit heures. Le taux de ghrelin augmente de 14,9 % chez les personnes dormant cinq heures par nuit sur une longue période. Ce groupe enregistre parallèlement une diminution de 15,5 % du niveau de leptine, selon l'étude menée auprès de 1.000 personnes participant au programme "Sleep Cohort Study" du Wisconsin (nord). Les résultats de cette étude démontrent "une relation importante entre le sommeil et les hormones", a indiqué Emmanuel Mignot, professeur à l'université Stanford, en faisant remarquer que le déficit de repos dans les sociétés occidentales peut expliquer la progression de l'obésité. Dans une autre étude, des chercheurs de l'université de Chicago ont examiné une douzaine de jeunes hommes en bonne santé forcés à ne dormir que quatre heures durant deux nuits consécutives. Leur niveau de leptine a baissé de 18% tandis que le taux de ghrelin bondissait de 28 %, selon leur enquête publiée dans les Annales de médecine interne.Les hommes ont également émis le désir pour des nourritures caloriques, comme des pâtes, des biscuits ou des bonbons. Le Monde
|
|
|
|
|
|
|
|
Dans mon éditorial de la lettre 309 du 5 novembre, "Demain, l'homme neuronique", j'évoquais les extraordinaires progrès des neurosciences et des neuro-prothèses et notamment des expériences récentes montrant qu'il est possible de commander un ordinateur par la pensée. Ce vieux rêve de la science-fiction devient aujourd'hui réalité avec des recherches menées conjointement aux États-Unis et en Europe. Plusieurs patients ont réussi à déplacer un curseur sur un écran d'ordinateur en pensant simplement au mouvement désiré. Ces techniques offrent de réelles possibilités d'aide à la communication ou au déplacement pour des personnes totalement paralysées. Depuis quelques mois, des expériences semblables avaient d'abord été réussies avec des singes, puis avec un jeune tétraplégique au début de l'année. Mais à chaque fois, il avait fallu implanter des électrodes directement dans le cerveau des «cobayes» pour que les signaux électriques soient plus faciles à enregistrer. Cette fois, l'exploit a été réalisé avec de simples casques à électroencéphalogramme posés sur la tête, sans aucune chirurgie. Les risques de dommages sur le cerveau sont ainsi éliminés, et la technologie devient potentiellement accessible pour le plus grand nombre de patients. Deux équipes, une américaine et une européenne, ont annoncé presque simultanément cette semaine avoir réussi cet exploit, de manière indépendante. La première équipe est financée par un projet de la Commission européenne appelé Presencia.L'autre équipe est américaine. Elle est animée par Jonathan Wolpaw et Dennis McFarland, tous deux chercheurs au Wadsworth Center du département de la santé de l'État de New York à Albany. Les deux équipes utilisent des techniques très similaires, mais les Américains ont une longueur d'avance car leurs patients arrivent déjà à contrôler le déplacement d'un curseur dans deux dimensions (haut/bas et gauche/droite) avec une réussite des commandes qui dépasse largement les 90%. Ce système permet assez facilement d'écrire, en sélectionnant des lettres sur un clavier virtuel, de contrôler le mouvement d'un fauteuil roulant ou d'une prothèse. Deux des quatre candidats de l'étude américaine sont des paralysés, victimes de lésions de la moelle épinière. De manière assez étonnante, ils sont plus doués que les deux autres, non paralysés, pour contrôler les mouvements du curseur. Dans tous les cas, les personnes portent un casque qui envoie leur encéphalogramme vers un ordinateur. Lors d'une phase d'apprentissage, les patients essaient de déplacer le curseur en imaginant son mouvement. Un programme informatique adaptatif analyse en permanence les signaux provenant du cerveau, et sélectionne ceux que les personnes arrivent le mieux à contrôler. La plupart des patients parviennent à contrôler «mentalement» le curseur au bout de quelques dizaines de minutes. Les progrès proviennent principalement des logiciels d'apprentissages qui sélectionnent les meilleurs signaux envoyés par l'électroencéphalogramme, malgré la faiblesse des ondes, qui sont fortement atténuées en traversant la barrière crânienne. Ces systèmes, encore expérimentaux, représentent d'importants espoirs d'autonomie pour de nombreux paralysés. NewsMedical
|
|
|
|
|
|
|
|
Une méthode plus simple de stimulation électrique du cerveau que celles actuellement utilisées en neurochirurgie pourrait corriger les troubles moteurs (tremblements...) des formes évoluées de la maladie de Parkinson, selon une étude française sur l'animal paraissant jeudi dans la revue spécialisée Neuron.Mis au point sur des babouins, ce nouveau mode de traitement, basé sur une stimulation électrique à haute fréquence et bas voltage, est "peu invasive", c'est-à-dire avec une implantation des électrodes en surface du cerveau, au niveau du cortex moteur, et non en profondeur. Il devrait permettre de faire évoluer les traitements actuels et faciliter la prise en charge d'un plus grand nombre de patients, selon les auteurs de l'étude. La technique actuelle de stimulation comporte des implantations profondes et ne s'adresse qu'à un nombre limité de patients, généralement ayant moins de 60 ans. "La démence et des troubles psychiatriques sont des contre-indications", a récemment souligné le Pr Yves Agid (Pitié-Salpêtrière, Paris). La stimulation améliore de façon durable le tremblement, la rigidité qui caractérise la maladie, et permet en outre de réduire le traitement médicamenteux, et donc les mouvements anormaux qui en sont la conséquence. "Une étude clinique pilote est prévue, dans les mois à venir, sur 10 malades", a indiqué à l'AFP le Dr Stéphane Palfi, neurobiologiste, co-auteur de ces travaux avec Philippe Hantraye, directeur de l'unité d'imagerie isotopique du service hospitalier Frédéric Joliot du CEA (Orsay, région parisienne) notamment. Elle permettra d'évaluer la bonne tolérance et l'efficacité de ce mode de stimulation chez des parkinsoniens à un stade avancé de la maladie, apparu en dépit du traitement oral usuel, mimant une substance chimique - la dopamine - manquant dans le cerveau. L'équipe de chercheurs et cliniciens envisagent par ailleurs de nouvelles perspectives thérapeutiques de cette stimulation de surface pour d'autres maladies neurologiques. La maladie de Parkinson touche 1,5 million de personnes en Europe, dont plus de 100.000 en France. Cette affection neuro-dégénérative, la plus fréquente après la maladie d'Alzheimer, est diagnostiquée en général vers la soixantaine, mais dans près de 10% des cas avant 40 ans. AFP
|
|
|
|
|
|
|
|
Des chiens devenus paraplégiques après avoir eu la moelle épinière endommagée par un accident ont retrouvé l'usage de leur membre grâce à un polymère, le polyéthylène glycol (PEG). L'équipe du Pr Richard Borgens, du centre de recherche sur la paralysie de l'Université de Purdue, aux Etats-Unis, a traité une vingtaine de chiens paralysés avec ces injections de PEG. 68% ont recouvré au moins en partie l'usage de leurs pattes, alors que les méthodes chirurgicales classiques appliquées dans la clinique vétérinaire de Purdue n'ont un taux de réussite que de 24%, écrit Borgens et ses collègues dans le Journal of Neurotrauma.Après avoir testé le PEG sur des cochons d'Inde, Borgens a commencé il y a plus de trois ans à traiter des chiens. Le polyéthylène glycol a une propriété connue depuis longtemps, précise le chercheur : il fait fusionner les cellules des membranes. En cas de lésion sur la moelle épinière, le polymère formerait un film protecteur sur les fibres nerveuses endommagées, les empêchant ainsi de mourir. Le PEG doit être injecté dans les 48 heures qui suivent la blessure pour atteindre son efficacité maximum, précisent les chercheurs.Richard Borgens espère pouvoir tester dans les mois qui viennent le PEG sur l'homme, en partenariat avec des chercheurs de l'Indiana University de Bloomington. NMN
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|