RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 263
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 31 Octobre 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le "e-travail", un nouveau chantier pour le Forum des droits sur l'internet
La musique numérique débarque sur les chaînes stéréo
Matière
L'encre électronique prend de la vitesse et des couleurs
Un processeur qui calcule à la vitesse de la lumière
Terre
La fonte des glaces dans l'Arctique inquiète la Nasa
Le recul des glaciers alpins s'accélère depuis le début des années 1980
Alerte à la raréfaction des poissons dans les océans
L'année 2003, la plus chaude jamais observée en France
Vivant
Le sang en poudre va-t-il révolutionner la médecine ?
Alcool et tabac : la liste des méfaits ne cesse de s'allonger
Maladie de Parkinson : les effets de la stimulation cérébrale haute fréquence sur les neurones enfin dévoilés
Un vaccin à ADN contre la leucémie
Une équipe française tente avec succès la micro-chirurgie en apesanteur
Sédentarité et alimentation trop riche seraient responsables d'un tiers des cancers
Descellules ciliées en culture
Un nouveau moyen de multiplier les cellules souches humaines du sang
Les musiciens ont un cerveau plus développé
Recherche
La Hy-wire de General Motors se contrôle entièrement à partir du volant
De bonnes publications, mais des brevets trop rares
Edito
Commander une machine par la pensée : le rêve devient réalité



Il y a quatre ans et demi, en juillet 1999, je vous rendais compte dans l'éditorial d'@RT Flash d'une fascinante expérience qui avait eu lieu dans les laboratoires de la MCP Mahnemann School of Medicine à Philadelphie ; (voir mon édito n°59 http://www.tregouet.org/lettre/1999/Lettre59-Au.html). Au cours de cette expérience, des chercheurs américains étaient parvenus à identifier chez le rat les populations de neurones les plus actives dans le cortex en utilisant la technique dite PCA (Principal Component Analysis). En additionnant l'activité des neurones sélectionnés, ils avaient produit, par transformations mathématiques incluant des réseaux neuronaux, un signal unique appelé "neural population function" (NPF). Ils avaient enfin réussi à substituer chez le rat ce signal "neurobiotique" à l'action mécanique consistant à presser le levier pour obtenir de l'eau. Après une période d'apprentissage, les rats étaient capables d'obtenir de l'eau sans aucun mouvement du levier, en utilisant uniquement leur pensée, et, pour l'un d'entre eux, sans même une pression de la patte, celle-ci reposant simplement sur le levier. Cette étude avait démontré pour la première fois que l'information extraite simultanément grâce à l'enregistrement de populations de neurones dans le cerveau pouvait être utilisée pour diriger proportionnellement un dispositif externe en temps réel. Mais entre le fait de montrer que des rats peuvent actionner un simple levier, grâce à l'action d'une activité cellulaire, et celui de permettre à des mammifères supérieurs de contrôler de manière continue un membre artificiel complexe, il restait un pas considérable à franchir. C'est précisément ce pas décisif qui vient d'être franchi au travers de deux expériences complémentaires, l'une chez le singe (voir article dans la rubrique médecine de notre lettre 261 du 17 octobre 2003) et l'autre chez l'homme (voir article dans la rubrique neurosciences de la lettre 262 du 25 octobre 2003). Dans la première expérience, réalisée par des chercheurs de l'université de Duke (Caroline du Nord), des singes, dotés d'implants cérébraux, sont parvenus à faire bouger un bras robotisé uniquement par la pensée. Les chercheurs ont implanté une série d'électrodes minuscules dans le cerveau de deux singes, puis leur ont confié une manette qui contrôlait un bras robotisé. En échange d'une gorgée de jus de fruits, les singes se sont entraînés à manipuler la manette, pendant qu'un ordinateur enregistrait les signaux émis par leur cerveau. Dans un deuxième temps, la manette a été débranchée et le bras robotisé, qui se trouvait dans une autre pièce, a été directement contrôlé par les singes, via les signaux cérébraux émis par les électrodes. Les primates ont donc fini par ne plus se servir du "joystick" et ont appris, à la stupéfaction des chercheurs, à utiliser directement leur cerveau pour contrôler le bras robotisé. Les singes sont non seulement parvenus à corriger leurs erreurs mais ont également été capables de commander le bras articulé du robot avec une très grande précision, à partir de leur seule activité cérébrale, pour reproduire les mouvements de localisation et de préhension de la main. Des êtres humains ont déjà été équipés de tels implants cérébraux qui leur permettent, par exemple, de contrôler par la pensée le curseur d'un écran d'ordinateur. Toutefois, les implants utilisés dans l'expérience de l'université de Duke étaient plus petits et la tâche accomplie était plus complexe. Les chercheurs de Duke consacrent maintenant leurs études à des applications humaines, qui pourraient voir le jour d'ici seulement deux ans. Dans la seconde expérience, rendue publique il y a quelques jours, des médecins autrichiens ont permis à un jeune homme de saisir des objets de sa main gauche paralysée, grâce à un ordinateur capable de lire ses pensées (voir article dans la rubrique neurosciences de la lettre 262). Dans cette expérience, des électrodes placées sur la tête du jeune homme captaient les impulsions électriques du cerveau et les transmettaient à un ordinateur qui analysait le mouvement souhaité puis transmettait des impulsions électriques aux muscles pour les activer, a résumé le professeur Gert Pfurtscheller, qui dirige l'Institut de technique électro et biomédicale de l'Université technique de Graz. Après des mois d'entraînement, le paraplégique de 22 ans "est désormais capable avec sa main gauche d'attraper seul un objet et de le relâcher, de manger et de boire", s'est félicité le médecin. Pour l'instant, il ne s'agit que d'un seul mouvement de la main bien défini mais il n'existe aucune raison de penser qu'avec un entraînement approprié il ne soit pas possible de maîtriser d'autres mouvements plus complexes. Un projet de recherche avec les Etats-Unis vise à développer d'ici quatre ans une technologie similaire mais suffisamment légère pour accompagner le patient. Des électrodes implantées directement dans le cerveau enverront par les ondes des signaux à un ordinateur portatif. Ces deux expériences tout à fait extraordinaires, mais scientifiquement rigoureuses, ouvrent évidemment, pour un avenir bien plus proche qu'on ne l'imaginait, des perspectives thérapeutiques révolutionnaires pour de nombreuses personnes paralysées ou handicapées par l'âge ou la maladie. Mais au-delà des retombées médicales, ces expériences confirment que l'homme est capable, à l'aide d'un "entraînement neuronal" approprié, de commander directement par la pensée non seulement des mouvements simples mais aussi des tâches beaucoup plus complexes et élaborées. Les perspectives d'application de ces potentialités de notre cerveau sont tout simplement immenses car elles concernent, à terme, l'ensemble des activités humaines. Si ces recherches sont destinées en priorité à offrir aux personnes paralysées de nouveaux espoirs thérapeutiques, rien n'interdit d'imaginer que de tels dispositifs puissent également être utilisés pour commander machines et ordinateurs, ou conduire nos voitures, directement par la pensée. Grâce à une connaissance de plus en plus fine du fonctionnement de notre cerveau, et aux fantastiques progrès de l'électronique et de l'informatique en matière d'analyse et de traitement du signal, l'homme est sur le point de réaliser un vieux rêve, considéré il y a peu de temps encore comme inaccessible, agir directement sur son environnement par la pensée et ouvrir ainsi à son champ d'action de nouveaux et fascinants horizons. Par ces expériences encore inimaginables il y a peu, l'Homme s'apprête à faire un nouveau bond vers le futur. Puisse-t-il toujours user au mieux des pouvoirs nouveaux qui lui sont ainsi donnés...

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Le "e-travail", un nouveau chantier pour le Forum des droits sur l'internet
Samedi, 01/11/2003 - 00:00

Répondant à une requête du ministère des Affaires sociales, le Forum des droits sur l'internet a créé un comité qui va réfléchir sur les nouvelles formes de travail apparues avec le développement de l'internet. Le ministre des Affaires sociales, du Travail et de la Solidarité, François Fillon, a demandé au Forum des droits sur l'internet (FDI) de mener une réflexion sur les conséquences du développement du "e-travail". L'organisme de concertation a créé un groupe de travail sur le sujet, qui a tenu sa première réunion le 23 octobre. Ce comité sera chargé d'analyser «les différentes formes de "e-travail", de mesurer leurs impacts tant au regard du cadre juridique et fiscal que des usages, et de faire des propositions au gouvernement», précise le FDI. «Les expériences étrangères seront également étudiées.» «Il convient de porter une attention particulière aux nouvelles formes de travail désormais rendues possibles par le déploiement de l'outil informatique en réseau, au sein de l'entreprise, mais aussi au domicile du salarié», écrit le Ministre dans sa lettre de mission. «Depuis quelques années, des formes concrètes de "e-travail" sont apparues et ont modifié les repères classiques tant juridiques que sociologiques du rapport au travail.» Le groupe de travail du FDI rassemblera une quinzaine de personnes, dont le sociologue Yves Lasfargue, Jean Hildbrand, manager du «projet mobilité» d'IBM, ou encore Denis Berard, chargé de mission au département "Innovation technologique & travail" de l'Agence nationale pour l'amélioration des conditions de travail. Il intégrera également des représentants de la Commission européenne, d'une PME et de l'inspection du travail. Ses premières conclusions devraient être rendues au ministère au printemps 2004. Rappelons que le FDI s'est déjà penché sur un thème avoisinant, et a publié une étude intitulée "Internet et relations du travail en septembre 2002". Il y recommandait, entre autres, l'intégration de chartes internet dans les réglements intérieurs des entreprises, et se posait la question d'un droit à la déconnexion pour le salarié. Le FDI notait en effet que le travail nomade conduit parfois à l'empiètement de la vie professionnelle sur la vie privée, et rappelait que «le salarié ne peut être en situation de travail 24 heures sur 24, 7 jours sur 7, sans aucun moyen de se "déconnecter" de son milieu professionnel».

Forum des droits sur l'internet :

http://www.foruminternet.org/groupes_travail/lire.phtml?id=656

La musique numérique débarque sur les chaînes stéréo
Samedi, 01/11/2003 - 00:00

La plupart des amateurs de musique numérique ont connu ce sentiment de frustration: il est très facile de rassembler une abondante collection de chansons au format MP3, mais ces fichiers téléchargés via internet ou copiés depuis un CD finissent pour la plupart enfermés dans l'ordinateur, d'où il est difficile de les faire sortir. Or, chacun sait qu'en matière de qualité sonore, ce bon vieux PC et ses enceintes minuscules peinent à rivaliser avec une chaîne hi-fi. Certes, il est possible de transférer les fichiers MP3 vers un baladeur numérique, comme l'iPod d'Apple, ou encore de graver une sélection de chansons sur des CD lisibles par une platine classique. Les spécialistes de l'électronique se sont penchés sur ce problème et proposent aujourd'hui de nouveaux appareils capables de transférer la musique numérique vers la chaîne stéréo du salon, ou vers tout autre appareil doté de haut-parleurs. Reliés au PC par une connexion sans fil, un réseau câblé de type Ethernet ou même les fils électriques, la plupart de ces "récepteurs audio numériques" sont également capables de recevoir les stations de radio diffusées sur internet et permettent de regarder sur un poste de télévision les fichiers vidéo et les albums stockés sur le disque dur d'un PC. Les ventes de ces appareils sont très faibles, mais ils devraient rencontrer un succès croissant, vu la popularité de la musique au format MP3 et le développement progressif des réseaux domestiques, selon Danielle Levitas, analyste chez IDC. Dans sa maison de Washington, l'avocat David Rhodes prépare le dîner dans sa cuisine en écoutant l'une des 8.000 chansons stockées dans son Macintosh, pourtant situé trois étages plus haut. La musique voyage via le réseau électrique de la maison jusqu'à un récepteur audio SLIMP3 de la firme Slim Devices, une petite boîte noire vendue 239 dollars aux Etats-Unis, qui retransmet le son vers la chaîne hi-fi et affiche le nom de l'artiste et le titre de la chanson sur un écran fluorescent. Pour David Rhodes, cet appareil lui permet enfin de profiter pleinement de la musique numérique et d'écouter ses morceaux préférés sans faire de taches de sauce tomates sur son ordinateur. Le système a également séduit sa femme, Brooke Clagett. "Elle n'a jamais acheté autant de musique", déclare Rhodes. "Ça la ramène à ses années lycées, quand elle faisait des mix sur des cassettes audio." Le SLIMP3 est l'un des rares appareils compatibles avec les Macintosh et les PC fonctionnant sous Linux. En revanche, les utilisateurs de PC sous Windows n'ont que l'embarras du choix. Facturés entre 100 et 300 dollars aux Etats-Unis, le MediaMVP de Hauppauge Computer Works, l'AudioTron de Voyetra et l'en5000 Digital Media Receiver de Hewlett-Packard se fixent à côté d'une platine CD et se connectent au PC via un réseau Ethernet ou le réseau électrique. Ceux qui disposent d'un réseau domestique sans fil à la norme Wi-fi ont le choix entre le C200 de Cisco, le Wireless-B Media Adapter de Linksys et le Mediaplayer de Prismiq, facturés entre 180 et 300 dollars. Pour les fans de musique dotés d'un budget limité, il reste une dernière solution: relier la prise casque de l'ordinateur à l'amplificateur de la chaîne hi-fi avec un banal câble audio. Ce n'est pas très pratique si les deux appareils sont éloignés, mais la facture ne dépassera pas 30 euros.

Reuters : http://fr.news.yahoo.com/031029/85/3gxmj.html

^ Haut
Matière
Matière et Energie
L'encre électronique prend de la vitesse et des couleurs
Samedi, 01/11/2003 - 00:00

Imaginez que vous ouvriez votre journal et au lieu de simples photos vous puissiez visionner une vidéo en couleur d'une bataille ou d'un événement sportif. C'est à ce genre de défi que s'attellent les chercheurs en papier électronique. Même si une version monochrome capable d'afficher des images statiques est toujours en projet, une nouvelle technologie propose aujourd'hui d'offrir à la fois la vidéo et la couleur. Le papier électronique ressemble au papier conventionnel, à la différence près que les mots et les images peuvent être modifiés à volonté. Jusqu'à présent, la plupart des chercheurs avaient accouché de prototypes trop lents pour la vidéo. Ainsi, le projet de papier électronique d'E-Ink, à Cambridge (Massachusetts), consiste à introduire des particules monochromes à l'intérieur de milliers de minuscules billes remplies de liquide. Ces capsules contrôlées électriquement correspondent aux pixels d'un écran. Chaque hémisphère de la bille est porteur d'une charge opposée. Quand on lui applique un champ électrique, les microparticules migrent dans un sens ou dans l'autre, ce qui inverse les couleurs des deux faces du pixel. Dans l'édition du 25 septembre de la revue Nature , Robert A. Hayes et B. Johan Feenstra, des laboratoires de recherche Philips à Eindhoven (Pays-Bas), décrivent un nouveau type d'affichage sur papier électronique. Les pixels sont recouverts d'une fine pellicule d'huile colorée, ce qui leur donne une couleur sombre, mais il suffit d'une impulsion électrique pour que le colorant disparaisse dans le fond et qu'une surface d'un blanc éclatant apparaisse. Les pixels d'un quart de millimètre peuvent passer du noir au blanc en moins de 15 millisecondes - un temps de réaction largement suffisant pour l'affichage de la vidéo. Grâce à une structure de pixels plus compliquée, qui consiste en des filtres et de multiples couches d'huile, les chercheurs ont créé un papier électronique qui peut générer une large gamme de couleurs d'une intensité exceptionnelle. Cette technologie d'affichage a beau dépendre de la répartition du liquide sur les surfaces, celui-ci ne risque pourtant pas de goutter ou de baver. En effet, les fluides sont maintenus en place par des forces de capillarité qui sont supérieures à celles de la gravité et autres forces mécaniques. Selon le physicien Joseph M. Jacobson, du Massachusetts Institute of Technology (MIT) et cofondateur d'E-Ink, qui prétend avoir déjà testé cette technologie, le projet Philips présente une faille considérable : pour maintenir l'affichage d'une image, les pixels ont besoin d'une source d'énergie continue. En effet, dès que l'électricité est coupée, l'huile recouvre de nouveau la surface. La consommation d'énergie est donc très importante et les batteries risquent de s'épuiser rapidement. Il est vrai que l'alimentation en énergie pose un problème, reconnaît Hayes, mais c'est encore plus compliqué pour les images statiques qui durent quelques secondes, voire plus longtemps. "Nous nous concentrons sur des applications vidéo où nous devons de toute façon rafraîchir l'écran

Courrier international :

[http://www.courrierinternational.com/numeros/677/067706002.asp?TYPE=archives">rapidement et souvent]." Selon Jacobson, E-Ink devrait sortir au printemps prochain son nouveau papier électronique en couleur doté d'une vitesse de rafraîchissement suffisante pour la vidéo. La course pour l'affichage vidéo sur papier électronique est lancée.

Courrier international :

[http://www.courrierinternational.com/numeros/677/067706002.asp?TYPE=archives

Un processeur qui calcule à la vitesse de la lumière
Samedi, 01/11/2003 - 00:00

Lenslet, une start-up israélienne, a annoncé le prochain lancement d'un processeur utilisant des transmissions optiques plutôt que du silicium, ce qui lui permet d'effectuer certains calculs à la vitesse de la lumière. Selon Lenslet, ce processeur ouvre de nouveaux horizons dans les domaines de la défense, des télécommunications ou du multimédia. "La transmission optique est un avantage compétitif stratégique pour les nations et les entreprises", a estimé Avner Haklperin, vice-président en charge du développement économique chez Lenslet. "Le calcul à la vitesse de la lumière permet d'améliorer la sécurité dans les aéroports, de mettre en place des systèmes militaires autonomes, une diffusion multimédia haute définition, ou d'inventer des systèmes de communication de future génération", a-t-il ajouté. Le processeur optique est un processeur à signaux numériques (digital signal processor-DSP) couplé à un accélérateur optique lui permettant d'atteindre une vitesse de calcul très élevée. Le processeur peut ainsi effectuer 8.000 milliards d'opérations par seconde, soit à peu près 1.000 fois plus qu'un processeur classique, une vitesse de calcul habituellement réservée aux supercalculateurs. Ce processeur est destiné aux applications informatiques les plus gourmandes en puissance de calcul, comme la détection radar haute définition, la guerre électronique, la surveillance des bagages dans les aéroports, la compression vidéo, les calculs météorologiques et les stations cellulaires. Selon Lenslet, le processeur Enlight, dévoilé ce mois-ci au salon MILCOM à Boston, est le premier processeur DSP optique disponible sur le marché. Jim Tully, vice-président et directeur de recherche chez Gartner, estime que la majorité des entreprises s'intéressant aux technologies optiques se concentrent sur la mise au point de signaux optiques pour les télécommunications plutôt que sur les transmissions optiques d'informations dans une unité de calcul. "Je ne connais pas d'entreprise qui soit allée jusqu'à effectuer des calculs grâce à l'optique", a-t-il indiqué. Lenslet a levé 27,5 millions de dollars de capitaux auprès de Goldman Sachs, Walden VC, ou encore JK&B Capital. Pour l'instant, le prototype de l'Enlight est assez encombrant, mais lorsqu'il sera distribué dans quelques mois, sa taille devrait être réduite à 15x15 cm et son épaisseur à 1,7 cm, soit à peu près la taille d'un assistant personnel. "Dans cinq ans, nous espérons l'intégrer à l'intérieur d'une seule puce", a indiqué Asaf Schlezinger, chef de projet chez Lenslet. Pour Tully, le problème est de savoir si ces processeurs pourront être produits dans des volumes aussi importants que les processeurs classiques. "La technologie des semi-conducteurs est très au point ce qui permet de produire par millions d'unités et d'atteindre des coûts faibles", a-t-il expliqué. De son côté, Lenslet indique que le prix de son processeur devrait être comparable à celui des systèmes multiprocesseurs DSP. Aviram Sariel, fondateur et directeur général de Lenslet, a annoncé être en cours de négociations avec des entreprises et des administrations, aux Etats-Unis, en Europe et au Japon, afin d'adapter le processeur à certaines applications spécifiques. Un contrat a déjà été signé avec le ministère israélien de la Défense. "Nous n'excluons pas d'ouvrir notre technologie à d'autres par le biais de licences", a expliqué Sariel. "Nous envisageons une chaîne de production virtuelle où la production est assurée par d'autres à qui nous fournirions les équipements de contrôle qualité". Selon Tully, de nombreux fabricants de semi-conducteurs cherchent à utiliser l'optique pour faire circuler l'information plus rapidement entre les différentes parties d'un processeur. "Il est possible que cette technologie devienne courante pour les puces dans une dizaine d'années", a-t-il indiqué.

Reuters : http://fr.news.yahoo.com/031029/85/3gy9y.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La fonte des glaces dans l'Arctique inquiète la Nasa
Samedi, 01/11/2003 - 00:00

La fonte de la couche de glace permanente dans l'océan Arctique en raison du réchauffement climatique a pris un caractère inquiétant, a averti jeudi la Nasa, après avoir procédé à des observations par satellite."Cela se passe en ce moment. Nous ne pouvons pas nous permettre d'attendre longtemps pour trouver des solutions technologiques", a déclaré David Rind, de l'institut d'études spatiales Goddard de la Nasa à New York, lors d'une conférence de presse à Washington. Le satellite ICESat a été lancé l'an dernier pour étudier en particulier, l'épaisseur de la couche de glace dans l'Arctique et l'Antarctique.Grâce aux observations réalisées avec ce satellite, la Nasa a constaté que "l'Arctique a perdu environ 10% de sa couche de glace permanente tous les dix ans depuis 1980. L'étendue de la couche de glace de l'Arctique qui reste gelée toute l'année a atteint les niveaux les plus bas en 2002 et 2003", selon Josefino Comiso, chercheur à l'agence spatiale américaine. La couche de glace s'épaissit en hiver et fond en partie quand le soleil revient au printemps et à l'été. La glace qui ne fond jamais, même lors des plus fortes chaleurs de l'été, est appelée la couche de glace permanente. Les océans et les terres environnantes dans la région arctique se sont réchauffés de 2 degrés Fahrenheit (environ 1 degré Celsius) au cours de la dernière décennie, a constaté le chercheur. La fonte de la couche de glace permanente dans l'océan Arctique se transforme alors en cercle vicieux. L'océan en pleine eau absorbe davantage l'énergie du soleil que la glace, qui a un pouvoir réfléchissant, ce qui entraîne le réchauffement de l'eau, qui provoque la fonte des glaces, qui entraîne l'agrandissement de l'océan en pleine eau, selon M. Comiso. Ce réchauffement de l'océan Arctique a eu récemment des conséquences spectaculaires. En septembre, des chercheurs américains et canadiens ont annoncé que la plus importante plate-forme glaciaire de la région arctique, vieille de plus de 3.000 ans, s'était rompue entre 2000 et 2002, une conséquence selon eux du réchauffement climatique à long terme. "Des petits changements concernant la glace pourraient avoir de grandes conséquences sur le cycle de l'eau et finalement sur le climat", selon la Nasa. Les changements dans l'océan Arctique peuvent ainsi affecter les courants océaniques, entraînant des modifications dans la répartition des poissons, et les courants atmosphériques, avec des effets sur les précipitations. Ils peuvent aussi entraîner l'augmentation du niveau de la mer, avec des conséquences dramatiques pour des pays à très basse altitude, comme le Bangladesh. L'aggravation du rétrécissement de la couche de glace permanente peut en revanche faciliter le trafic des navires dans l'océan Arctique. "Le commerce entre l'est de l'Asie, l'Europe et l'Amérique du nord serait plus facile", estime David Rind. La vie des populations indigènes, elle, serait perturbée. "Les populations qui vivent de la pêche en se servant de la couche de glace comme d'une plateforme seront touchées", affirme Michael Steele, océanographe à l'Université Washington à Seattle. Les chercheurs sont donc inquiets. "L'Arctique est en train de changer rapidement. Ce qui doit nous inquiéter, c'est que cela se passe maintenant et que nous allons devoir nous adapter à ce changement", a estimé Mark Serreze, chercheur à l'Université du Colorado lors de la conférence de presse. Selon lui, les responsabilités sont claires: "le réchauffement climatique est probablement en partie dû à des variations naturelles du climat. Mais les spécialistes considèrent qu'une partie de ce réchauffement est dû à l'activité humaine".

NASA :

http://www.nasa.gov/vision/earth/environment/Arctic_Warming_ESU.html

Le recul des glaciers alpins s'accélère depuis le début des années 1980
Samedi, 01/11/2003 - 00:00

"Jamais nous n'avions vu cela, depuis plus de cinquante ans que nous suivons Sarennes !" Michel Gay, glaciologue au Cemagref de Grenoble, souffre pour son protégé. "Il a baissé cette année de plus de 3 mètres. Cinq fois plus que la moyenne. ..", déclare-t-il. Petit glacier des Alpes françaises niché dans le massif des Grandes Rousses, Sarennes, relique de la dernière extension glaciaire constitue un site d'étude privilégié pour les chercheurs. Depuis 1949, sans relâche, ils surveillent son état de santé. Or ce glaçon fond de plus en plus vite. Le mouvement s'est emballé cet été avec la canicule. Mais il était déjà bien engagé : "Depuis un demi-siècle, décrit Michel Gay, la baisse est quasi continue. Et, depuis 1985, elle s'accélère." Particulièrement spectaculaire, l'exemple de Sarennes n'est pas isolé. Les observations effectuées sur plusieurs autres glaciers alpins vont toutes dans le même sens, indique Christian Vincent, du Laboratoire de glaciologie et de géophysique de l'environnement (LGGE, CNRS-université Joseph-Fourier) de Grenoble. Cette unité tient le registre des fluctuations de quatre formations glaciaires différentes par leur taille (de 3 à 28 km2), leur altitude (de 1 600 à 3 600 mètres) et leur exposition : la mer de Glace et Argentière dans le massif du Mont-Blanc, Gébroulaz dans celui de la Vanoise, et Saint-Sorlin dans les Grandes Rousses. D'autres données, provenant d'équipes suisse et autrichienne qui auscultent les glaciers de Clariden et d'Hintereisferner, sont elles aussi concordantes. Le recul des glaciers alpins n'est pas une constatation nouvelle. Les spécialistes estiment, sur la foi de mesures objectives pour les périodes récentes et sur celle de gravures ou de récits pour les plus anciennes, que leur superficie s'est réduite de 30 % à 40 % depuis la fin du petit âge de glace. Mais, pendant longtemps, la seule jauge a été le déplacement du front des glaciers. Or chacun d'entre eux possède une dynamique d'écoulement qui lui est propre - elle est fonction notamment du profil de son lit rocheux - et tous ne réagissent pas au même rythme aux variations climatiques. Les chercheurs se fient donc davantage à un indicateur plus précis : le bilan de masse, autrement dit la variation annuelle de volume. A l'aide, d'une part, de carottages réalisés dans la zone d'accumulation (où les précipitations neigeuses sont supérieures à la fonte) ; d'autre part, de balises disposées dans la zone d'ablation (où la fonte est la plus importante), ils calculent ce qu'un glacier a gagné ou perdu en hauteur d'eau. Ils disposent désormais de séries de mesures suffisamment longues et portant sur un éventail de sites suffisamment diversifié pour pouvoir les interpréter. Au cours du siècle écoulé, les glaciers alpins n'ont pas répondu de façon uniforme aux changements climatiques : Sarennes a perdu en moyenne 60 centimètres d'eau par an, quand Hintereisferner n'en perdait que 45 cm, Saint-Sorlin 30 cm, et Argentière 6 cm seulement. Mais, note Christian Vincent, "si les glaciers les plus hauts et les plus gros résistent mieux, la tendance générale est similaire. Le signal climatique est le même". Depuis le début des années 1980, ce signal est plus marqué : le retrait des glaciers s'accentue. Le LGGE a poussé l'analyse et montré que cette régression n'est pas due à une diminution des précipitations hivernales : sur certains massifs, elles sont au contraire plus abondantes que par le passé. Elle s'explique, exclusivement, par "une forte augmentation de la fonte estivale". Alors que, durant la période 1954-1981, Clariden perdait en été une moyenne de 7,5 millimètres d'eau par jour, il a perdu plus de 13mm au cours des deux dernières décennies. Le surcroît de fusion est similaire pour Sarennes. Le lien avec le réchauffement climatique est direct : entre les deux périodes considérées, les températures moyennes dans les Alpes ont grimpé de 1,6 oC en juillet et en août et de 1 oC en septembre. Mais, souligne Christian Vincent, "la température n'est pas le seul facteur en jeu". Entrent aussi en ligne de compte l'albédo (la part du rayonnement solaire réfléchie, plus importante pour la neige que pour la glace), les flux de chaleur liés au vent, à l'évaporation ou à la sublimation... "Le réchauffement explique sans doute l'essentiel de la fonte supplémentaire des glaciers. Mais il se pourrait également que la nébulosité ait diminué dans les Alpes au cours des vingt dernières années", avance le chercheur.

Le Monde :

http://www.lemonde.fr/web/article/0,1-0@2-3244,36-339221,0.html

Alerte à la raréfaction des poissons dans les océans
Samedi, 01/11/2003 - 00:00

Un recensement de la vie marine mené par plus de 300 scientifiques du monde entier depuis trois ans a ravivé les inquiétudes sur la raréfaction de nombreuses espèces de poissons en raison de la surexploitation provoquée par l'industrie de la pêche."Chaque espèce de grand poisson sauvage a été pêchée de manière si considérable au cours des 50 dernières années que 90% de chacune de ces espèces ont disparu", dénonce un rapport publié jeudi à Washington par les scientifiques participant au "Recensement de la vie marine", le premier du genre. "L'éventail des tailles d'animaux dans l'océan change. Nous sommes en train d'avoir un océan où il est plus sûr d'être petit", explique à l'AFP Jesse Ausubel, un scientifique participant à ce recensement, qui doit durer jusqu'en 2010. Parmi les espèces menacées, il s'inquiète également beaucoup pour "les tortues luth (tortue marine de grande taille) qui risquent de disparaître". Le "Recensement de la vie marine" est une coopération scientifique internationale pour identifier et recenser toutes les formes de vie dans les océans et expliquer leur évolution au cours du temps. Plus de 300 scientifiques de 53 pays participent à ce programme, financé à hauteur de 1 milliard de dollars par des agences gouvernementales d'une cinquantaine de pays et des agences spécialisées des Nations Unies. "L'augmentation des composants toxiques et de la température de la mer ont des conséquences difficiles à prévoir. Des mesures précises sont absolument nécessaires pour répondre aux conséquences des changements dans l'océan", déclare le Dr Ron O'Dor, le principal responsable scientifique de ce recensement. Malgré les inquiétudes sur les espèces menacées, les scientifiques ont fait des découvertes passionnantes. Plus de 15.000 espèces de poissons, dont beaucoup jusque-là inconnues, ont été recensées. Environ 5.000 autres espèces de poissons doivent encore être identifiées. Environ 210.000 formes de vie marine sont actuellement connues par la science, mais elles pourraient être dix fois plus, d'après les chercheurs. Parmi les multiples découvertes, certaines retiennent plus particulièrement l'attention. "Le moment le plus excitant pour le moment a été la plongée d'un sous-marin russe dans la zone de fracture de Charly Gibbs sur la faille nord-atlantique entre les Açores et l'Islande", explique Ron O'Dor. "C'est la première fois qu'on allait dans cette région pour faire de la biologie. Ils ont trouvé beaucoup de choses: des jardins d'éponges, un habitat complexe qui accueille un grand nombre de petits thons", ajoute-t-il. Une découverte sur les tortues a retenu l'attention de Jesse Ausubel. "Les tortues du Pacifique font le tour de l'océan. Elles déposent leurs oeufs sur une plage du Mexique, nagent jusqu'aux Galapagos, puis vers la Polynésie et le Japon, et reviennent par Hawaï et la Californie. En deux ou trois ans, une tortue visite l'ensemble du Pacifique", raconte-t-il. Certaines découvertes ont un grand intérêt pour la recherche médicale. Au large de la Floride (Etats-Unis), une nouvelle espèce d'éponge rouge, surnommée "l'éponge rasta", a été identifiée récemment. Elle contient des composants chimiques qui pourraient aider à traiter certaines tumeurs cancéreuses. En Nouvelle-Calédonie (Pacifique), des scientifiques ont recensé dans seulement trois mètres cubes d'eau d'un récif coralien quelque 130.000 mollusques appartenant à 3.000 espèces, beaucoup n'ayant jamais été décrites. Parmi les projets de ces prochaines années, des scientifiques vont recenser les bactéries qui vivent dans les océans grâce aux nouvelles méthodes de séquençage de l'ADN. "Il y a des bactéries partout dans l'océan et même si chacune est microscopique, la totalité est énorme. Les bactéries sont la base de l'ensemble de la chaîne alimentaire dans l'océan", explique M. Ausubel.

AFP : http://fr.news.yahoo.com/031023/202/3gndu.html

L'année 2003, la plus chaude jamais observée en France
Samedi, 01/11/2003 - 00:00

L'année 2003 s'annonce comme la plus chaude jamais observée en France depuis le début des relevés météo mais la canicule de l'été pourrait redoubler et empirer à l'avenir."C'est la première fois que nous avons eu un été aussi chaud depuis 150 ans mais cela se reproduira dans les années à venir", relève Philippe Courtier, directeur général adjoint de Météo-France, lors d'une conférence de presse organisée mercredi par la Mission interministérielle de l'effet de serre (MIES). "Ce que nous avons déjà fait, nous allons le payer pendant de très nombreuses années", dit-il, évoquant le rejet des gaz à effet de serre par les activités humaines et la très longue durée de vie de ces substances dans l'atmosphère. La température moyenne de 2003 devrait dépasser "de près d'un demi-degré" la moyenne 1900-2002, sauf températures polaires d'ici fin décembre. Celle de l'été 2003 a surpassé de quatre degrés la moyenne 1900-2002 et de deux degrés la moyenne 1950-2003. D'après Météo-France, la probabilité de vagues de chaleur (températures diurnes égales ou supérieures à 35°, nocturnes de 22-23°), sera multipliée par cinq d'ici la fin du siècle. Les canicules pourraient être aggravées. L'été dernier, l'humidité de l'air est restée peu élevée et les ressources en eau ont bénéficié d'hivers antérieurs pluvieux et ont donc globalement suffi. Les températures françaises grimperont "surtout l'été et surtout dans le sud". Elles monteront plus faiblement en hiver, la hausse hivernale étant la plus faible dans l'ouest. Les précipitations augmenteront en hiver, surtout dans l'ouest et le nord-ouest. Au contraire le sud enregistrera un déficit pluviométrique l'été et une baisse de ses réserves d'eau. Dans le nord alpin, le nombre de jours d'enneigement baissera de quelque 20 % à 1.500 mètres mais restera probablement inchangé à 2.000 mètres. Cette prédiction est fondée sur un réchauffement climatique moyen (1990-2100) de 2-3° à l'échelle mondiale, aggravé en France (4°). Encore suppose-t-elle que la France divise par quatre ses émissions de gaz à effet de serre d'ici 2050, objectif affiché du Premier ministre Jean-Pierre Raffarin. Il faut faire "dix protocoles de Kyoto en cinq décennies", observe M. Courtier, citant un accord international de réduction du CO2 et des autres gaz responsables du changement climatique. Même dans ce cas, la concentration du CO2 dans l'atmosphère sera doublée en 2100 et les péripéties climatiques resteront nombreuses. La concentration de CO2 a déjà été multipliée par 1,3 au siècle dernier, entraînant une hausse planétaire du thermomètre de 0,6° et de 0,9° en France, a rappelé M. Courtier. Quand on parle d'une hausse future de 2-3 degrés de la température moyenne mondiale, cela "n'a rien à voir avec une gentille transition d'un climat tempéré", explique la présidente de la MIES Dominique Dron. Une hausse moyenne apparemment modérée n'exclut pas des événements climatiques extrêmes comme la canicule de 2003. La MIES, un service du Premier ministre, prépare un nouveau programme français de lutte contre le réchauffement climatique, le "Plan Climat 2003", que le gouvernement doit adopter le 27 novembre.

AFP : http://fr.news.yahoo.com/031029/202/3gyqg.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le sang en poudre va-t-il révolutionner la médecine ?
Samedi, 01/11/2003 - 00:00

C'est une "première" qui pourrait révolutionner bon nombre d'actes médicaux. Des chercheurs de l'hôpital Karolinska de Stockholm, en Suède, ont réussi à administrer du sang artificiel à huit patients. Aucun signe de rejet par le système immunitaire n'a été constaté, a indiqué le professeur Bengt Fagrell. Mis au point aux Etats-Unis selon un processus tenu secret, le produit a été créé à partir de globules rouges humains. Mais dans l'absolu, les globules rouges de n'importe quel mammifère pourraient être utilisés, selon le professeur Fagrell. Le sang artificiel se présente sous forme d'une poudre qui peut être conservée pendant des années, contre 42 jours seulement pour le vrai sang. En une heure environ, la poudre peut être transformée en liquide et utilisée immédiatement, quelque soit le rhésus sanguin du patient. Ce qui présente un intérêt évident lorsqu'une transfusion doit être réalisée rapidement, notamment après un accident, sans que les secours aient à pratiquer un test sanguin sur la victime. Le sang synthétique n'a pas vocation à remplacer le vrai sang, dont il ne possède pas toutes les qualités, mais à être utilisé en complément du sang du patient. Il a toutefois l'avantage de mieux transporter l'oxygène dans le corps que le fluide humain. "Si cela marche vraiment jusqu'au bout, alors l'humanité aura fait un grand pas en avant", annonce Pierre Lafolie, praticien en chef à l'hôpital suédois. Selon lui, cette innovation est comparable à "l'atterrissage sur la Lune".

BBC : http://news.bbc.co.uk/2/hi/health/3207291.stm

Alcool et tabac : la liste des méfaits ne cesse de s'allonger
Samedi, 01/11/2003 - 00:00

Décidemment, la liste des méfaits du tabac et de l'alcool n'en finit pas de s'allonger. Une étude norvégienne réalisée par l' l'Université de Bergen et portant sur 22.000 personnes vient en effet de montrer que les fumeurs avaient un risque de développer une sclérose en plaques augmenté de 80% par rapport aux non-fumeurs. L'augmentation du risque est plus grande chez les hommes que chez les femmes. La sclérose en plaques est une grave maladie neurologique qui se déclenche quand le système immunitaire attaque la gaine protectrice qui entoure les nerfs. La maladie évolue par poussées de plus en plus graves qui finissent par entraîner séquelles et handicaps de plus en plus importants. Les causes exactes de cette maladie ne sont pas encore totalement élucidées même si les scientifiques savent qu'un dérèglement du système immunitaire est à l'origine de la sclérose en plaques. En examinant 22.312 personnes âgées de 40 à 47 ans, les chercheurs norvégiens ont constaté que le risque de sclérose en plaques était augmenté de 2,75 pour des fumeurs, qu'ils aient ou non cessé de fumer avant l'apparition des premiers symptômes de la maladie. La maladie se déclenche en moyenne 15 ans après le début du tabagisme. Le Docteur Trond Riise, qui a mené l'étude souligne que "c'est une plus de raison pour que les jeunes évitent le tabagisme". Le tabagisme a été déjà lié à d'autres désordres "autoimmuns", dans lesquels le système immunitaire déclenche des attaques contre son propre corps. Le Docteur Trond Riise ajoute que "le tabagisme, augmente les risques d' environ 50 maladies différentes, dont le cancer de poumon, les maladies de coeur, l'AVC, la bronchite, l'emphysème, et le diabète. Nous avons à présent la preuve qu'il augmente aussi les risques de sclérose en plaques, même si le tabac ne peut, à lui seul, déclencher la maladie". S'agissant des méfaits de l'alcool, des chercheurs espagnols de l'Université de Jaen ont constaté que les patients qui boivent trop d'alcool avant une intervention chirurgicale ont un risque beaucoup plus important d' l'infection nosocomiale. Leur étude sur 717 patients masculins a montré que ceux qui boivent excessivement augmentent de 66% leurs risques d'infections. Sur les 717 patients étudiés, 178 ont été classifiés comme buveurs réguliers excessifs. Ce groupe de buveurs excessifs (plus de six verres par jour) présente un risque d'infection de 25% contre seulement 15% pour ceux qui ne boivent pas d'alcool. M. David Rosin, chirurgien et membre de l'Université royale des chirurgiens anglais souligne que "Nous avons désormais la preuve que la consommation régulière excessive d'alcool augmente de manière significative les risques d'infection nosocomiale chez les hommes qui subissent des interventions de chirurgie générale. Cette réalité doit être prise en compte et doit nous conduire à recommander l'abstinence totale de boissons alcoolisées pour tous les patients qui doivent subir de telles interventions "

Brève rédigée par @RT Flash

BBC : http://news.bbc.co.uk/2/hi/health/3211099.stm

BBC : http://news.bbc.co.uk/2/hi/health/3218403.stm

Maladie de Parkinson : les effets de la stimulation cérébrale haute fréquence sur les neurones enfin dévoilés
Samedi, 01/11/2003 - 00:00

La stimulation à haute fréquence du noyau subthalamique, une zone particulière du cerveau, a été appliquée pour la première fois en 1993 chez le singe rendu parkinsonien par le MPTP (toxine qui détruit les neurones dopaminergiques), dans le laboratoire physiologie et physiopathologie de la signalisation cellulaire du CNRS (UMR CNRS 5543 à Bordeaux). Alim Benabid (Directeur Unité Inserm 318 " Neurosciences précliniques ", Grenoble), a transféré avec succès la technique à l'homme. La stimulation continue, à 130 Hz, du noyau subthalamique, produit des effets bénéfiques spectaculaires dans les formes sévères de maladie de Parkinson. De cette stimulation résulte en effet une atténuation considérable de l'akinésie et de la rigidité, signes essentiels de la maladie de Parkinson. Son utilisation s'est ensuite étendue au traitement des dystonies généralisées (Philippe Coubes, Montpellier). La stimulation haute fréquence est par ailleurs en cours d'essai pour les troubles obsessionnels compulsifs. Cependant, ses mécanismes d'action restaient totalement inconnus avant les travaux publiés aujourd'hui par les équipes du laboratoire Physiologie et physiopathologie de la signalisation cellulaire (CNRS - Université de Bordeaux 2) et de l'institut de neurobiologie de la méditerranée de l'INSERM (Marseille). Ces deux équipes ont réussi à enregistrer les effets de la stimulation haute fréquence sur une préparation in vitro de noyau subthalamique en supprimant les artéfacts à l'aide d'un système électronique. Ainsi, les effets propres de la stimulation haute fréquence sur l'activité neuronale, ont pu être élucidés. Constance Hammond (Inserm), Liliana Garcia (CNRS) et leurs collègues ont répondu pour la première fois à la question majeure que pose cette stimulation : pourquoi n'est-elle efficace qu'à des fréquences supérieures à 80-100 Hz ? Les observations des équipes du CNRS et de l'INSERM permettent de conclure que la stimulation haute fréquence a deux effets : elle " efface " l'activité pathologique des neurones subthalamiques et la remplace par l'activité dictée par la stimulation. Ces deux effets ne sont présents, ensemble, que pour des fréquences de stimulation supérieures à 80 Hz. Cette publication intervient dans un contexte international où deux hypothèses s'affrontaient : pour de nombreux scientifiques, la stimulation réduisait les neurones au silence (théorie de l'inhibition). Pour d'autres, au contraire elle activait les neurones. Ces nouveaux résultats démontrent en fait que ces deux effets co-existent mais seulement aux fréquences comprises entre 80 et 100 Hz, c'est-à-dire des fréquences de stimulation utilisées jusqu'alors de façon empirique en thérapeutique.

INSERM :

http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite

Un vaccin à ADN contre la leucémie
Samedi, 01/11/2003 - 00:00

Un vaccin à ADN pourrait ralentir la progression et prolonger la survie dans un modèle de leucémie chez la souris, révèle une étude qui paraîtra dans l'édition de NaRose Ann Padua (King's College Hospital, Londres) et ses collaborateurs ont construit ce vaccin en fusionnant la séquence de l'oncoprotéine PML-RAR-alpha avec des séquences d'un fragment de la toxine tétanique, un stimulant puissant du système immunitaire. Ce vaccin a été injecté à des souris utilisées comme modèle de leucémie aiguë promyélocytaire ou LAP. L'injection a induit la production d'anticorps dirigés contre la protéine PML-RAR-alpha qui est fréquemment retrouvées dans les cellules cancéreuses de la LAP.La survie pouvait être encore améliorée en combinant ce vaccin avec la prise d'acide tout-trans rétinoïque (ATRA), indiquent les auteurs. L'ATRA est fréquemment employé dans le traitement de la LAP. L'efficacité de ce vaccin combiné à l'ATRA était supérieure à celle de l'ATRA seul.

Nature Medicine : http://www.nature.com/cgi-taf/DynaPage.taf?

Une équipe française tente avec succès la micro-chirurgie en apesanteur
Samedi, 01/11/2003 - 00:00

Une équipe médico-chirurgicale française du CHU de Bordeaux a réalisé avec succès des actes de micro-chirurgie sur des rats, dans un avion reproduisant les conditions d'apesanteur, ouvrant, a-t-elle annoncé mardi à Bordeaux, la voie à des interventions pendant des vols spatiaux.L'équipe du Pr Dominique Martin a ainsi opéré "par des procédés micro-chirurgicaux" quatre rats embarqués à bord d'un Airbus A300 "Zéro G", spécialement conçu pour simuler l'apesanteur pendant des cycles d'une vingtaine de secondes lors de vols paraboliques, indique un communiqué. L'opération, réalisée les 14, 15 et 16 octobre, avec le soutien du Centre national des études spatiales (CNES) et de l'Agence spatiale européenne (ESA), a comporté "des interventions micro-chirurgicales très délicates portant sur des nerfs et vaisseaux sanguins", explique l'équipe. Les chercheurs français affirment notamment avoir effectué "une suture sur une artère de 0,5 millimètre, constituant la plus petite artère repérable dans les conditions normales". Présentée comme "une première mondiale", cette expérience ouvre la voie, à terme, à des interventions complexes pendant des vols spatiaux de longue durée, voire même à la possibilité d'opérer des astronautes dans l'espace par l'intermédiaire d'un robot, télécommandé depuis la terre par un chirurgien, souligne l'équipe française.

AFP : http://fr.news.yahoo.com/031028/202/3gwlq.html

Sédentarité et alimentation trop riche seraient responsables d'un tiers des cancers
Samedi, 01/11/2003 - 00:00

Selon Dennis Savaiano, Professeur de nutrition à l'Ecole Purdue, le manque d'exercice et une mauvaise alimentation serait responsables d'un tiers des cancers. Le tabac serait responsable d'un autre tiers des cancers et les facteurs génétiques et environnementaux du dernier tiers des cancers. Dennis Savaiano dénonce les effets dévastateurs de l'alimentation américaine, trop grasse, trop sucrée et trop abondante. Il souligne notamment l'absence très néfaste de fruits, de légumes frais et de céréales sur la table de ses compatriotes. "Beaucoup d'américains mangent peu de fruits et légumes par crainte des pesticides alors que les dangers de ces produits pour la santé sont bien moindres que les risques de cancers provoqués par cette consommation insuffisante de fruits et légumes" affirme t'il. "Notre alimentation est trop calorique et présente en même temps de graves carences en micro-nutriments et sels minéraux dont le rôle protecteur est essentiel en matière de cancer" souligne encore Dennis Savaiano qui rappelle par ailleurs que la pratique régulière d'une activité physique doit également faire partie d'une prévention globale contre le cancer. La France n'est pas épargnée par les conséquences désastreuses de la mauvaise alimentation. "L'obésité connaît un développement épidémique", a rappelé le professeur Maurice Tubiana, membre de cette assemblée, en conclusion d'une séance commune avec l'Académie de pharmacie consacrée mardi à ce fléau doit s'engager dans une politique résolue de prévention de l'obésité de l'enfant, car si rien n'est fait pour enrayer la tendance de ces 30 dernières années, on peut prévoir qu'un enfant sur quatre sera obèse en 2020, selon l'Académie de médecine. "Près de 14% des enfants français de 5 à 12 ans présentent actuellement un excès de poids (environ 3,5 % sont obèses et plus de 10 % en surpoids)" et la fréquence ("prévalence") de l'obésité de l'enfant a été multipliée par 4 à 5 depuis les années 1960, a-t-il rappelé. "L'obésité et le surpoids font peser sur la santé des pays industrialisés des menaces équivalentes à celles du tabac et de l'alcool", a reconnu le cancérologue. "Les formes graves de la maladie sont de plus en plus fréquentes. Si l'augmentation de la prévalence suit la tendanceobservée au cours des 30 dernières années, on peut anticiper qu'un enfant sur quatre sera obèse en 2020".

Brève rédigée par @RT Flash

Science Daily :

http://www.sciencedaily.com/releases/2000/02/000222065054.htm

Descellules ciliées en culture
Samedi, 01/11/2003 - 00:00

Les cellules ciliées, nichées dans l'oreille interne, convertissent les ondes sonores en signaux électriques qui sont ensuite transmis au cerveau. Chez les mammifères, dont les humains, ces cellules dépérissent avec l'âge et la perte auditive qui s'en suit est irréversible. Mais des chercheurs américains du Massachusetts Eye and Ear Infirmary de l'université Harvard ont réussi à faire pousser des cellules ciliées. Ils ont prélevé des cellules souches embryonnaires dans les oreilles de souris. Dans une boîte de Petri, ils ont mis ces cellules en contact avec les éléments chimiques auxquels les cellules ciliées sont normalement exposées lors de leur développement. Les cellules se sont alors différenciées. Bien que cette percée laisse entrevoir une solution de remplacement aux implants cochléaires, on ne sait pas encore si les cellules ciliées produites en laboratoire pourront aider les malentendants. A présent, les chercheurs vont vérifier chez la souris que ces cellules peuvent être implantées dans une oreille déjà formée sans être rejetées.

Massachusetts Eye and Ear Infirmary :

http://www.meei.harvard.edu/

Un nouveau moyen de multiplier les cellules souches humaines du sang
Samedi, 01/11/2003 - 00:00

Une équipe de l'Institut Cochin dirigé par Axel Kahn vient de développer une nouvelle méthode pour multiplier le nombre des cellules souches humaines du sang, susceptible de permettre le développement de nouvelles stratégies thérapeutiques.Les cellules souches du sang - aussi appelées cellules souches hématopoïétiques - ont la propriété de pouvoir se transformer en n'importe quelle cellule sanguine, et ce, tout au long de la vie. Majoritairement présentes dans la moelle osseuse et, de façon moindre, dans le sang circulant et le sang du placenta, ces cellules ont la capacité - en fonction des besoins de l'organisme - de se renouveler ou de se différencier pour reconstituer l'ensemble des cellules du sang d'un individu, notamment après une transplantation. Ainsi, une cellule souche peut, en principe, indifféremment devenir cellule du coeur, cellule de bras ou cellule d'intestin. Mais le nombre de ces cellules souches est bien souvent insuffisant pour envisager leur utilisation dans le cadre de greffes de moelle ou de thérapies cellulaires ou géniques. Pour pallier cet inconvénient, les chercheurs se sont efforcés de trouver des moyens de favoriser leur multiplication, notamment en ayant recours à des facteurs de croissance. Cependant, ces produits présentent un inconvénient important : s'ils font, comme prévu, se multiplier les cellules souches ils leur font aussi perdre leur capacité à engendrer tous les types de cellules du sang, ce qui diminue notablement leur intérêt. Au contraire, la technique développée par le Pr Kahn et ses collègues de l'Inserm et du CNRS - et dont les résultats sont publiés sur le site internet de la revue Nature Medicine - semble s'affranchir de cet obstacle : pour provoquer la multiplication des cellules souches, ils font appel à une protéine appelée HOXB4 qui a la propriété - sans faire appel à des facteurs de croissance - de doper la production de ces cellules sans qu'il soit nécessaire pour autant d'introduire dans l'organisme le gène nécessaire à sa production. "Ce transfert "passif" de la protéine HOXB4 provoque une nette augmentation du nombre des cellules souches et, de plus, grâce à cette méthode, les cellules amplifiées gardent leur caractère souche et leur pluri-potentialité, à la différence des approches d'amplification suivies jusqu'alors", relèvent les chercheurs.

AFP : http://fr.news.yahoo.com/031027/202/3guc6.html

Les musiciens ont un cerveau plus développé
Samedi, 01/11/2003 - 00:00

Les musiciens confirmés ont un cerveau plus développé que les non-musiciens, qu'il s'agisse de la zone de l'ouïe ou de celles commandant la vue et les mouvements, selon une étude de l'université de Iéna (est de l'Allemagne) parue mardi. Cela ne signifie pas pour autant que les musiciens soient plus intelligents, précise l'étude. Pour la première fois, des scientifiques --dont un professeur de l'école de Harvard aux Etats-Unis-- ont étudié en parallèle la structure complète du cerveau chez les musiciens professionnels, les amateurs et les non-initiés. "En comparant les structures du cerveau de ces trois groupes, nous avons pu en même temps établir un rapport entre le niveau de pratique musicale et les différentes zones" du cerveau, écrit le Dr Christian Gaser, de l'université Friederich-Schiller de Iéna. Ces travaux ont été menés grâce à la méthode dite "voxel par voxel" (IRM --imagerie par résonance magnétique-- anatomique en trois dimensions). Des études menées uniquement au niveau de la zone consacrée à l'ouïe par l'université de Heidelberg (ouest de l'Allemagne) avaient déjà montré que cette dernière était plus importante et active chez les musiciens confirmés, rappelle l'étude. Jouer un instrument développe non seulement l'ouïe des musiciens mais également l'activité moteur du cerveau, notamment en obligeant le musicien à traduire rapidement des notes visuelles en mouvements de doigts, souligne l'étude.

Journal of Neuroscience :

http://www.jneurosci.org/cgi/content/abstract/23/27/9240

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La Hy-wire de General Motors se contrôle entièrement à partir du volant
Samedi, 01/11/2003 - 00:00

La Hy-wire, le concept-car de General Motors, préfigure ce que sera la voiture des années 2020. L'accélérateur et le frein sont intégrés au "volant", qui consiste en deux poignées de commande rotatives : on fait pivoter l'une des poignées pour accélérer, et on appuie dessus pour freiner. Il n'existe ni rétroviseur, ni embrayage, ni levier de vitesses, ni tableau de bord - à vrai dire, il n'y a pas grand-chose en dehors des quatre sièges et de quelques commandes de contrôle. Bien entendu la Hy-wire, utilise la technologie de la pile à hydrogène. "Nous nous sommes demandé à quoi ressemblerait l'automobile si elle n'avait été inventée qu'aujourd'hui en partant des technologies et des défis mondiaux actuels", raconte Byron McCormick, directeur de la recherche sur les véhicules à hydrogène chez GM. La marque a présenté le concept AUTOnomy en janvier 2002 au salon de l'automobile de Detroit. Il s'agissait d'une plate-forme de 15 centimètres d'épaisseur munie de quatre roues, à l'intérieur de laquelle les ingénieurs ont réussi à faire entrer la pile à hydrogène, des réservoirs d'hydrogène, des systèmes de gestion électronique, des échangeurs thermiques, des zones d'absorption des chocs avant et arrière et un moteur électrique entraînant les roues avant - le tout sous une carrosserie aux lignes épurées. L'idée était que toutes les commandes de conduite de la voiture soient assurées par le système électronique "drive-by-wire", c'est-à-dire que la direction, les freins, l'accélérateur et tout le reste soient contrôlés par des impulsions transmises électriquement, au lieu des commandes mécaniques traditionnelles. Mais, contrairement au prototype AUTOnomy, la Hy-wire, dévoilée au public au Mondial de l'automobile de Paris il y a un an, roule. Je l'ai donc récemment essayée à faible allure sur le bitume humide du parking du stade RFK, à Washington. En s'installant dans cette berline gris argenté à la silhouette effilée, la première chose que l'on remarque est le nombre infini de réglages. Les manettes de direction, qui permettent au conducteur de contrôler le véhicule, glissent en avant et en arrière sur des rails, comme les sièges. "Passer le volant" au passager avant - une opération très complexe sur les voitures traditionnelles - s'effectue en une poignée de secondes grâce à une simple impulsion. Deuxième révélation : une sensation d'espace remarquable. L'absence de compartiment moteur, de colonne de direction ou de coffre a donné aux concepteurs toute latitude pour installer des panneaux vitrés à l'avant et à l'arrière de la voiture. Le conducteur peut ainsi voir directement les obstacles situés aux extrémités avant et arrière de la voiture. Le plus tragique des accidents de voiture - écraser un enfant marchant à quatre pattes à proximité des roues avant ou arrière - ne se produirait plus avec ce véhicule. Le minimalisme est également la règle en matière d'ergonomie des commandes : l'ingénieur de développement de la Hy-wire, Jeff Wolak, assis à côté de moi sur le siège passager, a fait démarrer la voiture en appuyant simplement sur le bouton de démarrage, déclenchant le doux ronronnement de la pile à combustible en fonctionnement. Quatre boutons permettent de choisir le mode de démarrage : stationnement, point mort, marche avant et marche arrière. Mais ce qui m'a vraiment plu, c'est de conduire uniquement avec les mains, et contre toute attente c'était très facile. "Le temps de réaction est bien plus court avec les mains qu'avec les pieds", affirme Nicholas Zielinski, qui dirige le programme "drive-by-wire" chez GM. "Lever le pied, le positionner au-dessus de la pédale de frein et appuyer dessus est autrement plus long." Pour ne pas nuire à l'aérodynamisme, les rétroviseurs sont remplacés par des caméras qui transmettent des images vidéo à deux écrans à haute résolution situés dans l'habitacle, face au conducteur, à hauteur du "volant". La Hy-wire est également équipée de pneus à faible résistance au roulement et d'un système de freinage régénérateur, tous deux destinés à améliorer le rendement énergétique. Les représentants de la marque ne cachent pas que l'autonomie des véhicules à hydrogène constitue pour eux un défi. "Nous espérons atteindre les 500 kilomètres, et nous parvenons actuellement à en parcourir environ 300", affirme Timothy Vail, qui participe à la recherche sur la pile à combustible chez GM.

Courier international :

http://www.courrierinternational.com/search97cgi/s97_cgi.exe?

De bonnes publications, mais des brevets trop rares
Samedi, 01/11/2003 - 00:00

Les publications dans les revues scientifiques sont à la recherche fondamentale ce que les immatriculations sont à l'industrie automobile : un moyen de mesurer ses performances et, surtout, de se situer par rapport à la concurrence. Dans un rapport remis au président de la République, le 24 avril dernier, le Comité national d'évaluation de la recherche (Cner), présidé par l'académicien Jean Dercourt, estime que «la production des scientifiques travaillant en France est assez honorable». D'après les statistiques de l'Observatoire des sciences et des techniques (OST), la France occupe le cinquième rang mondial pour la période 1982-1997, derrière les États-Unis, le Japon, le Royaume-Uni et l'Allemagne. En outre, sa production est en très légère augmentation alors que celle des États-Unis baisse, l'Europe des Quinze pointant désormais à la première place. Si l'on prend maintenant le taux de citation de chaque article dans d'autres revues, qui mesure la «visibilité» et donc la qualité de la production scientifique, la France est moins bien placée. Son «indice d'impact», «à deux ans» (on compte le nombre de références à un article deux ans après sa publication) se situe au-dessous de la moyenne mondiale et européenne mais reste stable sur les dix dernières années, alors que le Japon est en baisse sensible. Les dépôts de brevets, qui mesurent la performance de la recherche appliquée ou industrielle, sont en baisse très nette. Dans son rapport, le Cner constate qu'entre 1995 et 2000 «les positions de la France et du Royaume-Uni se sont fortement érodées» en Europe avec des baisses respectives de 15 et 11%. C'est donc bien la valorisation industrielle des connaissances produites dans notre pays qu'il convient d'améliorer. Pour y parvenir, le ministère de la Recherche consacrera l'an prochain 679 millions d'euros au développement de partenariats entre recherches publique et privée, au travers notamment du Fonds de recherche technologique (FRT), dont les crédits augmentent de 27 %. «Les entreprises ont besoin d'avoir autour d'elles des laboratoires publics qui font de la bonne recherche fondamentale et réciproquement», explique-t-on au ministère. Ce n'est certes pas en démantelant le CNRS, comme certains en rêvent depuis longtemps dans les rangs de la majorité, que la recherche industrielle se portera mieux. «La recherche fondamentale prépare les innovations de demain», rappelle le généticien Axel Kahn. C'est aussi un pari sur l'avenir. L'imagerie par résonance magnétique (IRM), qui a valu le prix Nobel de médecine 2003 à deux Américains, est le fruit de cinquante années de recherches fondamentales sur les protons et les champs magnétiques qui n'avaient, au départ, aucune visée applicative.

Figaro :

http://www.lefigaro.fr/sciences/20031024.FIG0228.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top