RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 301
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 08 Septembre 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le très haut débit bientôt pour tous
L'ADN contre le spam !
IBM présente le plus petit PC du monde.
Le Japon teste la télécommande universelle
L'écran 3D de Sharp en met plein la vue
Les TV à tube cathodique plats arrivent
Un super-calculateur de la taille d'une boîte à pizza
Matière
Vers un contrôle des spins
Pile à combustible : 20h d'autonomie dès 2005
Une nouvelle brique pour un bâtiment calme et aéré
Terre
Plus de canicules d'ici la fin du siècle
L'augmentation des rejets de gaz carbonique accentue l'acidification des océans
L'ozone menace aussi les forêts
Climat: la forêt française menacée de bouleversement
Vivant
Crises cardiaques : des facteurs de risque universaux
Du nouveau dans la recherche contre le cancer
Suisse: nouvelle méthode expérimentale de lutte contre le cancer
La pilule de l'espoir pour les obèses
Os de mâchoire transplanté après avoir été cultivé sur le dos du patient
Un Scanner presque instantané
Anomalie dans la réponse cérébrale à la perception de la voix humaine dans l'autisme
Les mécanismes de guidage des fibres nerveuses mieux compris
Alzheimer: la consommation d'omégas 3 bénéfique
Maladie de Parkinson: l'efficacité confirmée de la stimulation cérébrale
Edito
Y aura-t-il encore des hivers en Europe à la fin du siècle ?



L'Europe se réchauffe plus rapidement que le reste du monde et les hivers froids risquent de ne plus être qu'un lointain souvenir vers 2080, selon une étude publiée le 18 août par l'Agence européenne pour l'environnement. Ce rapport alarmant prévoit que les vagues de chaleur et inondations se produiront plus fréquemment, menaçant ainsi les personnes âgées ou faibles, et les trois quarts des glaciers alpins suisses risquent de fondre d'ici à 2050 (AEE). Tout comme dans les 100 dernières années, le réchauffement sera surtout marqué au XIXe siècle dans le sud (Espagne, Italie, Grèce) et le nord-est de l'Europe. Les précipitations continueront d'augmenter dans les pays du Nord et de baisser dans les pays méridionaux. Chez ces derniers, la sécheresse sera sévère en été, avec "des conséquences considérables pour l'agriculture et les ressources en eau". La sécheresse sera entrecoupée d'épisodes de pluie intense et brutale. "Ce rapport regroupe un ensemble de données prouvant que le changement climatique est déjà en cours et qu'il a des effets très étendus - d'un coût économique souvent important - sur les personnes et les écosystèmes d'Europe", note Jacqueline McGlade, directrice déléguée de l'AEE. En moyenne, le nombre annuel de catastrophes liées au climat a doublé au cours des années 1990 par rapport à la décennie précédente et leur coût économique s'élève à 11 milliards de dollars environ, selon ce rapport qui est le premier que l'AEE consacre à l'impact du réchauffement climatique sur l'Europe. "D'après les projections, les hivers froids pourraient disparaître presque entièrement d'ici à 2080, tandis que la fréquence des étés chauds, des sécheresses, des phénomènes de fortes pluies ou de grêle pourrait augmenter fortement", dit l'étude de l'AEE, organisme de l'Union européenne siégeant à Copenhague. Les changements climatiques accroîtront sans doute la fréquence des inondations et des sécheresses comme celles qui ont frappé l'Europe ces deux dernières années, portant préjudice à l'agriculture et précipitant l'extinction d'espèces végétales, poursuit le document. Des inondations avaient fait environ 80 morts en 2001 dans onze pays européens. La vague de chaleur de l'an dernier a tué plus de 20.000 personnes en Europe de l'Ouest et du Sud. Les recherches de l'AEE concordent avec celles des chercheurs américains du NCAR (Centre National pour la Recherche Atmosphérique) qui viennent de présenter, le 12 août, les résultats d'un nouveau modèle climatique global. (Voir article dans la rubrique sciences de la terre de ce numéro). Selon ce modèle, les vagues de chaleur deviendraient plus nombreuses du fait du réchauffement du globe. Ces chercheurs soulignaient que des régions déjà soumises à la chaleur par intermittence, par exemple le Middle West américain ou la partie méditerranéenne de l'Europe, auraient à subir des épreuves encore plus marquées. Les concentrations de gaz carbonique - l'un des gaz à effet de serre reconnus comme facteurs du réchauffement de la planète - se situent actuellement, en basse atmosphère, à leur niveau le plus élevé depuis 420.000 ans et à 34 % au-dessus de ce qu'elles étaient durant la révolution industrielle du 19e siècle, indique le rapport de l'AEE. Selon l'étude, les températures ont augmenté en moyenne de 0,95 degré Celsius en Europe au cours des cent dernières années et l'on s'attend à les voir encore s'accroître de 2 à 6,3 degrés durant le siècle actuel en raison de l'augmentation des émissions de gaz à effet de serre. A titre de comparaison, les températures se sont accrues de 0,2 à 0,7 degré à l'échelle mondiale durant le siècle écoulé, et l'on s'attend à les voir augmenter de 1,4 à 5,8 degrés durant ce siècle, précise le rapport. Ils jugent probable que les niveaux de la mer en Europe augmentent à un rythme deux à quatre fois plus rapide que l'accroissement observé au siècle passé - ce qui fait planer une menace sur des régions comme celle qu'occupent les Pays-Bas, où la moitié de la population vit au-dessous du niveau de la mer. Les chercheurs du NCAR mettent également l'accent sur la canicule historique que vient de connaître le Japon : plus de 30° C depuis 38 jours consécutifs, ce qui a entraîné, comme en France l'été dernier, de nombreux décès et hospitalisations depuis le début du mois. Tokyo cet été, la France en 2003, Chicago en 1995 : si l'on en croit ces chercheurs du NCAR (Gerald Meehl et Claudia Tebaldi) les vagues de chaleur devraient s'intensifier au cours du XIXe siècle. Les deux chercheurs américains ont intégré dans leur modèle mathématique les événements climatiques extrêmes qu'ont connus Chicago en 1995 et Paris en 2003. Selon leurs prévisions climatiques, ces vagues de chaleur devraient être non seulement plus intenses et plus fréquentes, mais elles pourraient également durer plus longtemps. D'après le modèle climatique des chercheurs américains, qui suppose que les rejets de gaz à effet de serre poursuivront leur tendance actuelle, ces futures vagues de chaleur sont directement liées au changement climatique mondial.

Comme un malheur n'arrive jamais seul, une étude de l'Unesco vient de montrer qu'au cours des 50 prochaines années, les océans vont connaître une augmentation de leur acidité supérieure à toutes celles qu'ils ont subies au cours des derniers 20 millions d'années ! (Voir article détaillé dans la rubrique « Sciences de la Terre de ce numéro). Selon cette étude, si la concentration de gaz carbonique atteint 800 ppm d'ici la fin de ce siècle, la dissolution de ce dioxyde de carbone dans les océans risque de diminuer la concentration en carbonates de 60 %, ce qui pourrait avoir des effets catastrophiques sur de nombreux organismes marins qui utilisent ces carbonates pour fabriquer leur squelette ou leur coquille calcaire. A terme, c'est l'ensemble de la chaîne biologique marine qui serait gravement affecté par cette augmentation excessive de l'acidité des océans.

Enfin, dernier signe alarmant révélé début août par une étude américaine (voir article dans la rubrique « Sciences de la Terre de ce numéro), il y a aujourd'hui deux fois plus d'ozone dans la basse atmosphère de notre planète qu'au siècle dernier. Cet ozone de surface, contrairement à l'ozone de la stratosphère, entraîne des effets de plus en plus néfastes pour la santé humaine et notamment une diminution de la fonction pulmonaire les jeunes enfants. Cet ozone de surface s'attaque également à la végétation. Dans les années 50, on estime que seulement 9 % des forêts tempérées étaient touchées par des pics d'ozone. Un quart des forêts mondiales sont aujourd'hui concernées. En 2100, la moitié des forêts pourrait subir des dommages.

Face à ces perspectives très sombres, mais hélas de plus en plus confirmées par des études scientifiques rigoureuses, nos pays développés vont devoir prendre très rapidement des mesures de grande envergure pour réduire de manière beaucoup plus importante les rejets de gaz à effet de serre. A cet égard il faut savoir que les modestes objectifs du Protocole de Kyoto ne sont plus à la hauteur des défis écologiques que notre planète va devoir relever. Nous allons très rapidement devoir mettre en oeuvre, au niveau européen et mondial, de nouvelles politiques énergétiques globales qui intègrent les secteurs des transports, du logement et de l'industrie. Au niveau individuel, nous allons devoir également modifier profondément nos modes de vie et nos habitudes de consommation si nous voulons éviter des catastrophes climatiques majeures -dont le coût humain, social et économique serait insupportable- d'ici la fin de ce siècle. Le temps des tergiversations et des discours est à présent révolu et nos dirigeants doivent comprendre que leur volonté et leur capacité de prendre à bras le corps cette question du réchauffement climatique, même si cela doit entraîner des mesures difficiles et impopulaires, vont devenir des enjeux électoraux et démocratiques majeurs dans les années à venir.

René Trégouët


TIC
Information et Communication
Le très haut débit bientôt pour tous
Jeudi, 09/09/2004 - 00:00

France Télécom entend démocratiser le très haut débit. Pour cela, le groupe va faire en sorte que le dégroupage ne soit pas le seul chemin vers des débits allant jusqu'à 6 Mégabits par seconde. Son PDG Thierry Breton a annoncé que "le débit maximal permis par l'ADSL" sera accessible "partout en France" dès cette année. "Les réseaux de France Télécom seront ouverts dès cette année au maximum du débit disponible sur chaque ligne ADSL, pour chacun de ses clients, comme pour l'ensemble de ses concurrents qui utilisent son réseau sur tout le territoire national", a précisé le groupe dans un communiqué. Les modalités commerciales de cette offre seront précisées "d'ici la fin de cette année".Pour l'instant, le débit maximal proposé par France Télécom est de 2 MB/s. Pour avoir droit à un internet plus rapide, il faut passer par un opérateur alternatif et vivre dans une zone "dégroupée", où le contrôle entier de la ligne a été abandonné à ce dernier. Seules les grandes agglomérations sont pour l'instant dégroupées.Le débit maximum permis sur chaque ligne ADSL en France est fonction de la distance du central téléphonique. Ainsi, plus l'installation du client est proche du central téléphonique, plus le débit maximal permis par l'ADSL sera important. Le débit pourrait ainsi atteindre 7 à 8 Mégabits/seconde en réception, contre des offres allant au maximum de 2 à 6 Mégabits/seconde actuellement. Avec les connexions à la norme ADSL2+, qui seront déployées dans l'ensemble du réseau français dès l'année prochaine, le débit pourra dépasser les 16 Mbit/s. La nouvelle offre permettra aux clients de France Télécom, qu'ils soient clients des offres Wanadoo ou de celles des fournisseurs d'accès tiers qui utilisent les offres de gros de France Télécom, de bénéficier du potentiel maximal en haut débit de leur ligne téléphonique. Plus de 90 % de la population française (villes et campagnes) a accès au haut débit. Ce chiffre passera à 96 % avant la fin 2005, faisant de la France l'un des pays les mieux équipés au monde, souligne France Télécom.

TF1 :http://news.tf1.fr/news/multimedia/0,,3172671,00.html

L'ADN contre le spam !
Jeudi, 09/09/2004 - 00:00

Les chercheurs en bioinformatique d'IBM ont peut-être marqué un point décisif dans la lutte contre les spam, un fléau qui menace le développement du Net. Ils ont développé un algorithme, baptisé Teiresias, destiné à parcourir des séquences d'acides aminés et des fragments d'ADN pour y chercher des motifs récurrents, avec l'objectif d'isoler les rôles de certaines structures génétiques.Cette technique, modifiée au sein d'un nouvel algorithme baptisé Chung-Kwei (du non d'un Taliman feng-shui censé protégé le foyer des mauvais esprits), et appliquée non plus à des séquences de matière organique, mais à des chaînes de caractères, permettrait de lutter très efficacement contre le spam en décelant, là encore, les motifs récurrents qui caractérisent les pourriels. Cette méthode issue de la biologie permet de détecter 96,5% des spams. Sur quelque 65 000 messages préalablement identifiés comme des pourriels, Teiresias/Chung-Kwei a permis d'extraire environ 6 millions de motifs récurrents. Ces motifs doivent ensuite être comparés à ceux naturellement présents dans une collection de messages légitimes, ce qui permet de les retrancher les motifs non "suspects".Une fois collectés les motifs caractérisant bien les spams, il est alors possible d'attribuer aux e-mails entrants une pondération en fonction du nombre de ces motifs qu'il comprend. Résultat obtenu par l'algorithme : 96,56% des spams qui lui ont été soumis ont été effectivement libellés comme du spam. A l'inverse, la caractérisation d'un message légitime comme du spam (effet pervers de nombreuses technologies antispam) est survenue rarement, à raison d'1 pour 6000. Fort de ces résultats, IBM envisage d'inclure cette technologie dans son offre antispam, SpamGuru. L'avantage de cet algorithme dérivé des recherches en bioinformatique par rapport aux filtres bayesiens est décisif car il permet, avec de très bonne performance, de détecter les nombreuses astuces que déploient les spammeurs pour contourner ces filtres (changement de lettre, insertion de texte sans queue ni tête, etc.).

NS :http://www.newscientist.com/news/news.jsp?id=ns99996292

IBM présente le plus petit PC du monde.
Jeudi, 09/09/2004 - 00:00

IBM a présenté cet été le plus petit PC du monde. A peine plus haut qu'une balle de tennis (8,9 cm) et plus petit qu'un ordinateur portable, le ThinkCentre S50 mesure 27,6 x 27,3 cm. Il regroupe un processeur Intel Pentium 4 Prescott à 3,2Ghz, 1Go de mémoire vive SDRAM, un chipset vidéo i865GV (Intel), ainsi qu'un lecteur de DVD, un disque dur de 80 Go, 6 ports USB 2.0 et un port Ethernet Gigabit. Petit mais costaud, le S50 est malheureusement réservé au marché japonais où il sera commercialisé pas moins de 1 900 dollars.

CNET :http://reviews.cnet.com/IBM_ThinkCentre_S50/4505-3118_7-30413604-2.html?tag=top

Le Japon teste la télécommande universelle
Jeudi, 09/09/2004 - 00:00

Takeshi Natsuno en veut à votre portefeuille et à tout ce qu'il contient : argent, cartes de crédit, permis de conduire et photos de vos enfants... Il prendra également vos clés, votre livret bancaire et tout un tas d'autres objets. Cependant, Natsuno n'est pas un voleur. C'est le directeur général de la stratégie de développement de I-mode pour NTT DoCoMo, l'une des sociétés les plus innovantes au monde en matière de télécommunications. DoCoMo introduit sur le marché un nouveau type de téléphone cellulaire qui est véritablement multifonctions. A l'instar d'un mobile ordinaire, il peut passer et recevoir des appels téléphoniques. Comme un appareil I-mode ordinaire, il vous permet d'envoyer et de recevoir des courriels, de vous adonner à des jeux en ligne et de visiter les quelque 78 000 sites compatibles I-mode de par le monde. Ce téléphone contient également une puce élaborée par Sony qui vous permet de régler vos notes d'épicerie, de louer des films ou d'acheter virtuellement des tickets de métro. Il peut aussi vous servir de système d'identification, de clé électronique, de télécommande multifonctions, et rendre des dizaines d'autres services. Ce nouveau système DoCoMo est plus qu'une avancée technologique. Il constitue la première étape vers la version bon marché d'un grand rêve : l'"omniprésence informatique". Elaboré dans les années 80 par feu Mark Weiser, du centre de recherches de Palo Alto de la société Xerox, ce concept se réfère à la "troisième vague", qui verra l'avènement d'ordinateurs fonctionnant en réseau se fondre sans heurts dans notre environnement. L'exemple type est celui d'un employé disposant d'un réfrigérateur qui, chaque après-midi, inventorie lui-même son contenu pour vérifier s'il contient encore du lait. Lorsque l'employé prendra sa voiture pour rentrer chez lui, son téléphone contactera automatiquement l'ordinateur domestique, qui lui signalera s'il convient de racheter du lait. Jusqu'à présent, les études prospectives de l'omniprésence informatique ont envisagé deux scénarios : soit une batterie d'appareils exotiques, comme des tasses à café ou des réfrigérateurs intelligents, soit un réaménagement complet de l'environnement à partir de capteurs et de déclencheurs sophistiqués. DoCoMo, pour sa part, a élaboré une approche radicalement différente : elle a concocté une sorte de version rustique de l'omniprésence informatique, en se servant de la technologie hardware et software disponible sur le marché pour canaliser le contrôle du système dans les téléphones cellulaires que ses clients transportent d'ores et déjà dans leurs poches. Selon Tadashi Morita, responsable du projet chez Sony, le téléphone mobile devrait devenir à terme la principale interface entre les appareils mis en réseau à domicile ou au bureau et la personne qui les possède. "Lorsque vous pénétrerez dans une pièce, vous n'aurez qu'à appliquer votre téléphone contre le mur et la pièce identifiera votre présence. Un employé pourra, par exemple, se rendre dans un bureau désert pour y utiliser un ordinateur et se servir de son téléphone pour que l'ordinateur l'identifie et lui fournisse le libre accès à ses fichiers personnels. Tout sera réglé en manipulant quelques touches", explique-t-il. Les effets de ce processus sociologique sont visibles sur le quai de n'importe quelle station de métro ou de n'importe quelle gare. A toute heure du jour, près de la moitié des usagers des transports en commun utilisent leur téléphone, mais presque personne ne s'en sert pour parler. Leurs utilisateurs lisent ou envoient des SMS, jouent, consultent la météo ou bien les prédictions astrologiques. La véritable raison de l'avance qu'a prise DoCoMo dans ce domaine est due au modèle commercial japonais. Nous assurerons l'omniprésence informatique, les paiements numériques et quantité d'autres services aux consommateurs japonais. Nous permettrons à nos clients de passer plus vite aux portillons des stations de métro et des gares pour arriver plus rapidement à leur domicile, lequel sera réglé à la température idéale. Alors, ils n'auront plus qu'à regarder sur leur téléviseur le film qu'ils auront télécommandé."

CI :http://www.courrierint.com/article.asp?obj_id=25257&provenance=zop.couverture

L'écran 3D de Sharp en met plein la vue
Jeudi, 09/09/2004 - 00:00

Sharp a mis au point un écran 3D LCD qui projette une image en relief sans avoir recours aux traditionnelles lunettes bicolores ou polarisantes. Et ça marche ! Des globules rouges en enfilade, vue plongeante dans une poignée de piments ou de fraises, champs de fleurs en perspective... les sujets donnent vraiment l'impression de sortir de l'écran, à tel point qu'on ne peut s'empêcher d'essayer de les saisir en main. Et ce qui fonctionne avec les images fixes se reproduit avec des films animés. Bluffant. Pour la démonstration, Sharp a projeté des animations en images de synthèse. Mais le constructeur nous a assuré que le phénomène fonctionne à partir de prises de vues réelles. A condition de capturer deux images de la même scène avec un angle légèrement décalé, équivalent à l'espace qu'il y a entre les deux yeux d'un individu (6,5 centimètres environ). En effet, l'écran de Sharp s'appuie sur le phénomène de perception binoculaire pour générer une image en relief. L'oeil droit ne voit pas tout à fait la même chose que le gauche (pour s'en convaincre, il suffit de fermer alternativement un oeil puis l'autre), laissant au cerveau le soin de reconstituer l'image qui s'enrichit ainsi d'un effet de profondeur. A l'aide d'une "barrière parallaxe latente" située entre la source lumineuse et les pixels de l'écran LCD, Sharp réunit les deux images envoyées au moniteur et reproduit le phénomène naturel de vision en trois dimensions. Seul impératif, outre la préparation de l'image à la source : se caler parfaitement face à l'écran et ne plus bouger, au risque de perdre l'effet. Une barre verte située sous la barre des tâches de Windows XP (le seul système sous lequel fonctionne l'écran) aide l'utilisateur à trouver le bon angle. Du coup, le moniteur est réservé à un seul utilisateur et peut difficilement être utilisé comme écran de production. Mais Sharp a tout prévu : l'écran travaille à la fois dans les modes 2D et 3D. Un simple bouton permet de basculer de l'un à l'autre. Mais à 1 250 euros hors taxes pour un écran LCD 15 pouces (référencé LL-151-3D), le marché visé par Sharp n'est pas celui des joueurs mais bien de l'industrie qui exploite la 3D dans ses développements : CAO, l'imagerie médicale, cartographie, simulation, etc. La mise au point de la technologie aura nécessité dix ans de recherches aux laboratoires du constructeur situés à Oxford. Un consortium, cofondé par Sharp, Sony, Sanyo, NTT et Itochu et qui réunit 150 acteurs (dont Microsoft), vise à standardiser la technologie. Prochaine étape : améliorer le confort de vision pour la création d'écrans multi-utilisateurs. Mais il faudra encore de nombreuses années avant de pouvoir exploiter la technologie dans le domaine des loisirs grand public.

VUNet : http://www.vnunet.fr/actualite/peripheriques/ecran+3d+sharp+met+plein+vue/12706/...

Les TV à tube cathodique plats arrivent
Jeudi, 09/09/2004 - 00:00

Depuis plusieurs années, les tubes cathodiques sont mis à mal par l'explosion des technologies d'écrans plats, LCD et plasma en tête. Pour redonner un brin d'attractivité à leurs produits, les fabricants de tubes cathodiques n'ont de cesse d'innover. Et les CRT ( Cathode ray tube ), encore majoritairement utilisés dans les téléviseurs, pourraient bien trouver leur salut dans la réduction de leur profondeur, le poids et l'encombrement constituant finalement leurs seuls véritables défauts. Sur ce point, LG.Philips Displays est un précurseur puisqu'il est le premier à avoir commercialisé, fin 2003, un tube cathodique « fin » : un modèle de 21 pouces (53 cm) d'une profondeur de 35 cm, soit 8 cm de moins que sa version standard. Il s'agit du premier tube d'une famille baptisée Cybertube+ SuperSlim dont le prochain membre sera un spectaculaire CRT de 32 pouces de diagonale (81 cm) dont la profondeur sera, elle aussi, ramenée à seulement 35 cm, soit 30 % de moins que les tubes conventionnels de dimensions identiques. Cet écran 16/9, qui sera produit en volume dans l'usine coréenne de Gumi dès le début de l'année prochaine, permettra ainsi la réalisation de téléviseurs de 82 cm de diagonale de seulement 38 cm de profondeur, alors que les versions classiques se situent dans la fourchette 50-60 cm. Compte tenu du succès de la version de 21 pouces et des espoirs mis dans ce modèle jumbo, des tubes cathodiques Cybertube+ SuperSlim de 28 et 29 pouces devraient rapidement leur emboîter le pas. Si l'annonce de LG.Philips Displays était attendue, celle faite, presque au même moment, par Samsung SDI est, elle, plus surprenante. Le Coréen a en effet annoncé, lui aussi, la commercialisation, pour début 2005, d'un tube cathodique de 32 pouces de diagonale épais de seulement 35 cm alors que la société s'était montrée plus que discrète sur ce type de développement. Samsung SDI travaille en fait depuis plus de 4 ans et dans le secret sur un projet d'amincissement de ses tubes cathodiques, dont le modèle de 32 pouces constitue l'aboutissement mais aussi le point de départ d'une nouvelle gamme de CRT baptisée Vixlim. Reste le prix de ce bijou. Conscient que la gamme Vixlim n'a de raison d'être que si elle conserve un avantage substantiel sur ce point par rapport à la technologie LCD, Samsung estime qu'un téléviseur intégrant son bébé sera trois fois moins cher que son équivalent LCD. Confiant quant au succès commercial de ce premier tube Vixlim, le Coréen entend bien étoffer rapidement sa gamme avec la sortie, dès l'an prochain, de versions 28 pouces 16/9 et 29 pouces 4/3. Des modèles de 21, 25 et 34 pouces ainsi qu'une version 30 pouces capable de diffuser de la vraie TVHD (haute définition soit 1 920 x 1 080 pixels) verront, quant à eux, le jour l'année suivante. Samsung va même plus loin : il estime en effet être capable de réduire la profondeur des CRT à moins de 20 cm. Mais il faudra alors probablement passer à une tout autre structure de tube cathodique, et la commercialisation de tels modèles n'interviendra pas avant 2007, au plus tôt.

OINet : http://www.01net.com/article/249830.html

Un super-calculateur de la taille d'une boîte à pizza
Jeudi, 09/09/2004 - 00:00

Un petit constructeur informatique américain a présenté cette semaine une gamme d'ordinateurs capables de performances dignes d'un super-calculateur, dans un volume réduit à celui d'un carton à pizza et qui peuvent se brancher sur une simple prise électrique de secteur. Orion Multisystems, fondé en 2003 par deux des cofondateurs du fondeur de microprocesseurs à basse consommation d'énergie Transmeta, vise principalement le marché de la recherche scientifique et ceux qui ont besoin d'une grande puissance de calcul comme la finance, l'ingénierie ou la recherche génétique. Le PDG d'Orion, Colin Hunter, explique que sa société mise sur le fossé qui sépare les performances des ordinateurs personnels standards de celles des super-calculateurs actuels: les PC les plus rapides sont dotés de processeurs à deux ou trois milliards de cycles électriques par seconde (exprimés en hertz) alors que les super-calculateurs tournent à 1.000 milliards de cycles. Les ordinateurs Orion fonctionnent sous le système Linux avec des grappes ("clusters") de processeurs reliés de façon à agir comme une seule unité de calcul, selon un procédé appelé "traitement parallèle", dans des stations de travail personnalisées. Le constructeur Sun Microsystems avait employé la même stratégie il y a 20 ans pour battre ses concurrents IBM et Digital Equipment, racheté depuis par Hewlett-Packard. Orion y ajoute un avantage, celui d'une faible consommation d'énergie grâce aux processeurs Transmeta, qui permet d'alimenter de nombreux processeurs avec une alimentation électrique standard branchée sur une seule prise secteur. Le constructeur commercialise deux modèles de ses Cluster Workstations, l'un de la taille d'un carton de pizza équipé de 12 processeurs et l'autre plus grand avec 96 processeurs. Ce dernier, baptisé DS-96, est capable d'une puissance de calcul de 150 milliards d'opérations par seconde (téra-flops, pour "floating point operations per second", calculs en virgule flottante), voire 300 milliards en pic, le tout avec une capacité de sauvegarde de 9,6 téra-octets de données (9.600 milliards de bits). Le coût de ces machines est dans la ligne des stations de travail scientifiques, selon les dirigeants d'Orion, soit environ 10.000 dollars pour le modèle d'entrée de gamme et jusque 100.000 dollars pour la configuration maximale.

Reuters :http://fr.news.yahoo.com/040831/85/415kn.html

^ Haut
Matière
Matière et Energie
Vers un contrôle des spins
Jeudi, 09/09/2004 - 00:00

Une équipe de UCLA (CA) en partenariat avec le Laboratoire National de Los Alamos a réussi a détecter la polarisation du spin d'un électron unique dans un transistor a effet de champ. L'électron est localise dans un défaut paramagnétique de l'oxyde de grille du transistor. Les changements d'orientation du spin modifient la configuration du canal de conduction du transistor et deviennent ainsi détectables. La polarisation du spin est contrôlée par un champ électromagnétique micro-onde. Le dispositif est maintenu a une température de 30K. La prochaine étape sera de détecter les interactions entre les spins d'une paire d'électrons. L'intérêt de ces travaux est de montrer que les composants électroniques "classiques" a base de silicium pourraient être utilises pour des applications plus avancées et a terme pour l'informatique quantique. Il sont finances par les agences de recherche du Ministère américain de la Défense (la DARPA, l'United States Defense MicroElectronics Activity et le Center for Nanoscience Innovation for Defense).

UCLA

Lettre Etats-Unis Sciences Physiques :http://www.france-science.org/publications/physique/PhysUSA_N13.pdf

Pile à combustible : 20h d'autonomie dès 2005
Jeudi, 09/09/2004 - 00:00

L'objectif des piles à combustible est de multiplier par deux ou trois l'autonomie des appareils électroniques. Pour relever ce défi, Toshiba et son rival MTI MicroFuel Cells s'appuient sur la technologie DMFC (Direct Methanol Fuel Cell) qui consiste à mélanger du méthanol avec de l'air et de l'eau afin de créer de l'électricité. Jusqu'à présent, cette approche nécessitait une pompe pour réaliser le mélange. Trop encombrante, cette dernière a poussé les constructeurs à prototyper un nouveau type de pile basée sur la technologie "passive DMFC" qui n'utilise que du méthanol pur et ne nécessite pas de pompe et de mécanisme de refroidissement. Une pile de 22 x 56 x 4,5 millimètres pesant 8,5g offre alors une puissance de 100 mWatts pendant 20h pour seulement 2 cm3 de méthanol. Ce type de pile sera commercialisé par Toshiba courant 2005. Dans ce domaine, Toshiba devra compter sur la concurrence de MTI MicroFuel Cells qui commercialisera dès la fin de l'année une pile à combustible miniature destinée aux produits Hi-Tech portables comme les baladeurs numériques ou les téléphones mobiles. Cette pile offrira deux à dix fois plus d'autonomie que les batteries traditionnelles. Toshiba et MTI devront cependant trouver une solution pour contourner la législation aérienne américaine qui n'autorise pas plus de 24 % de méthanol. Leurs piles en contiennent 25 %...Pour gagner du temps avant la mise au point d'une pile à combustible pure, Toshiba commercialisera aussi dès la fin de l'année, une pile hybride. "D'une contenance de 100 cm3 de méthanol, elle fournira une autonomie de dix heures mais nécessitera une batterie lithium-ion traditionnelle pour démarrer le PC", explique Atsutoshi Nishida, PDG de la branche informatique de Toshiba. Rappelons que l'impact écologique des piles à combustible est largement inférieur à celui des batteries traditionnelles particulièrement polluantes.

Indexel :http://www.indexel.net/

Une nouvelle brique pour un bâtiment calme et aéré
Jeudi, 09/09/2004 - 00:00

Fenêtres ouvertes il y a trop de bruit, fenêtres closes on manque d'air, alors on branche la climatisation. Beaucoup de bureaux ou d'appartements situés en zone urbaine connaissent cette situation. Pour y remédier, Chris Field, jeune chercheur à l'Université de Sydney, a peaufiné une ''brique'' qui laisse circuler l'air tout en atténuant le bruit. Un réseau de résonateurs réduit de 85% le bruit venant de l'extérieur tandis que des ventilateurs permettent le renouvellement de l'air, a expliqué le chercheur devant un congrès international consacré au bruit, Inter-Noise 2004, qui s'est tenu à Prague du 22 au 25 août. Histoire de ne pas en rajouter (du bruit), ce dispositif fonctionne passivement, sans consommer d'énergie. La brique peut même être transparente pour laisser entrer la lumière. Chris Field et sa brique baptisée ''Silenceair'' ont reçu le prix Fresh Innovators en Australie, aux côtés de 15 autres inventions. Après dix années de recherches, Field espère rencontrer des industriels intéressés pour commercialiser 'Silenceair'.

S&A :http://sciences.nouvelobs.com/sci_20040830.OBS5894.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Plus de canicules d'ici la fin du siècle
Jeudi, 09/09/2004 - 00:00

Plus de 30° C depuis 38 jours consécutifs ! Tokyo n'avait jamais vu cela depuis que l'Agence météorologique nationale a commencé à enregistrer des données en 1876. Si la «vraie» canicule n'est pas jusqu'à présent au rendez-vous en France cet été (ce qui aurait défié les statistiques), c'est le Japon qui, cette année, souffre d'une vague de chaleur sans précédent. Dans la capitale du pays du Soleil-Levant, le baromètre a atteint 39,5° C le 20 juillet dernier, un record historique, depuis que l'Agence a commencé à compiler ses données en 1923. Mais le record absolu dans le pays, 40,8° C atteint le 25 juillet 1933 à Yamagata, à 300 kilomètres au nord de la capitale, n'a pas encore été pulvérisé. La moyenne des températures de juillet s'est située à 33,1° C, supérieure aux 29,6° C enregistrés en 1995, dernier été le plus chaud. Surtout, les températures ne sont jamais passées sous la barre des 31° C par période de 24 heures. De quoi entraîner une dizaine de décès en juillet et 300 hospitalisations depuis le début du mois, attribués à ces températures excessives. Tokyo cet été, la France en 2003, Chicago en 1995 : si l'on en croit une étude publiée aujourd'hui par le magazine Science (1), ces vagues de chaleur devraient s'intensifier au cours du XIXe siècle. Gerald Meehl et Claudia Tebaldi, climatologues au National Center for Atmospheric Research à Boulder, au Colorado, l'affirment en présentant les résultats d'un nouveau modèle climatique global. Les deux chercheurs américains ont intégré dans leur modèle mathématique les événements climatiques extrêmes qu'ont connus Chicago en 1995 et Paris en 2003. Selon leurs prévisions climatiques, ces vagues de chaleur devraient être non seulement plus intenses et plus fréquentes, mais elles pourraient également durer plus longtemps. Les scientifiques définissent les vagues de chaleur comme des périodes de trois jours au moins au cours desquelles les températures augmentent chaque jour de plus de 3° C par rapport aux normales saisonnières et assorties d'un accroissement des températures minimales nocturnes. A partir de 2080, ce sont, selon eux, l'ouest et le sud des États-Unis ainsi que la région méditerranéenne qui en souffriront le plus. Mais le nord-ouest de l'Amérique du Nord, la France, l'Allemagne et les Balkans seront également plus concernés qu'aujourd'hui. Chicago, par exemple, devrait connaître entre 1,65 et 2,44 jours de vagues de chaleur par an au cours de la deuxième partie du XIXe siècle, contre 1,9 à 2,14 entre 1961 et 1990. A Paris, on devrait subir entre 1,70 à 2,38 jours de températures extrêmes au cours de la même période, contre 1,18 à 2,17 dans un passé récent. Ce qui correspond à une augmentation du risque de vagues de chaleur de respectivement 25% et 31%. D'après le modèle climatique des chercheurs américains, qu'ils ont fait tourner en présupposant que les rejets de gaz à effet de serre poursuivront leur tendance actuelle, ces futures vagues de chaleur sont directement liées au changement climatique mondial.

NCAR :http://www.ucar.edu/news/releases/2004/heatwave.shtml).

L'augmentation des rejets de gaz carbonique accentue l'acidification des océans
Jeudi, 09/09/2004 - 00:00

La mer nourricière deviendra-t-elle un jour aussi acide qu'un jus de citron ? Si cette vision ne relève que du cauchemar, la Commission océanographique intergouvernementale de l'Unesco vient toutefois de tirer la sonnette d'alarme : dans les 50 prochaines années, les océans vont connaître une augmentation de leur acidité supérieure à toutes celles qu'ils ont subies au cours des derniers 20 millions d'années ! Les activités humaines produisent du dioxyde de carbone (CO2), dont la moitié s'accumule dans l'atmosphère : la concentration en dioxyde de carbone y dépasse aujourd'hui 380 ppm (parties par million) alors qu'elle n'avait varié qu'entre 200 et 280 ppm durant les 400 000 dernières années. D'après les prévisions du Groupement intergouvernemental des experts sur l'évolution du climat, elle atteindrait 800 ppm à la fin du XIXe siècle. Environ 20 pour cent des émissions anthropiques de dioxyde de carbone sont utilisés par les plantes pour la photosynthèse, et le reste, soit 30 pour cent, est dissous dans les océans (soit environ 20 millions de tonnes de dioxyde de carbone chaque jour). Ainsi, les océans contribuent notablement à réduire l'effet de serre anthropique. Nous pourrions nous en réjouir, si seulement l'accumulation du dioxyde de carbone dans les océans n'acidifiait pas leurs eaux, menaçant de nombreuses espèces marines.Le dioxyde de carbone atmosphérique se dissout dans les eaux de surface des océans, celles soumises au brassage, sur quelques dizaines de mètres. Il se forme de l'acide carbonique ( CO2 + H2O => H2CO3), qui se dissocie en ions bicarbonates et en ions hydrogène (H2CO3 => HCO3- + H+). Avec l'excès de dioxyde de carbone, l'eau de mer, naturellement alcaline (son pH varie entre 8 et 8,2), devient de plus en plus acide : le pH moyen pourrait chuter de 0,4 unité d'ici 50 ans. Cette augmentation de l'acidité est 100 fois plus rapide que celles détectées jusqu'à présent.Par ailleurs, les ions bicarbonates étant en équilibre avec les ions carbonates (CO32 - + H+<= =>HCO3-), à mesure que l'acidité augmente, des ions carbonates se transforment en ions bicarbonates. Ainsi, la dissolution du dioxyde de carbone dans les océans y diminue la concentration en ions carbonates. Selon Peter Brewer, de l'Institut de recherche de l'aquarium de Monterey Bay, aux États-Unis, cette diminution atteindrait 60 pour cent si la concentration atmosphérique en dioxyde de carbone atteignait 800 ppm. Or de nombreux organismes marins utilisent ces ions carbonates des eaux de surface pour fabriquer leur squelette ou leur coquille calcaire (CO32 - + Ca 2+ => CaCO3). Ainsi, la diminution de la concentration en ions carbonates menace toutes les espèces marines contenant du carbonate de calcium. Plusieurs équipes ont montré qu'une légère augmentation de l'acidité de l'eau de mer pouvait provoquer des anomalies des coquilles de ptéropodes (des petits mollusques de mer) et des coccolithophoridés (des algues unicellulaires entourées d'une sphère calcique), et dégrader les coraux. Toutefois, ces expériences sont à confirmer et certains organismes semblent moins sensibles. Ce n'est plus seulement l'augmentation de la température moyenne des océans qui menace les récifs coralliens et de nombreuses espèces, mais aussi des modifications biochimiques entraînées par la dissolution du dioxyde de carbone dans les eaux de surface. L'océan emmagasine le dioxyde de carbone, mais à quel prix ?

PLS :http://www.pourlascience.com/ction=3&idn3=4114#




L'ozone menace aussi les forêts
Jeudi, 09/09/2004 - 00:00

A forte concentration, l'ozone peut provoquer des maux de tête, une irritation des yeux et des poumons. Thomas Frischer, de l'université de Vienne (Autriche), a montré récemment que des jeunes enfants exposés à des périodes de pics successifs peuvent connaître au bout de trois ans un affaiblissement limité mais significatif de la fonction pulmonaire (1). Si l'impact de l'ozone sur la santé humaine est reconnu depuis peu en France, son action sur la végétation est en revanche largement ignorée. Dans leur tour d'horizon sur la pollution et la santé des forêts, le Canadien Percy et l'Italien Ferretti soulignent pourtant le fait que, parmi tous les polluants, c'est l'ozone qui risque de poser le plus de problèmes à l'avenir (2). De nombreuses expériences ont montré qu'à des concentrations supérieures à 60 ppb l'ozone provoque des lésions voire des nécroses aux feuilles des arbres et peut aussi freiner la végétation des plantes herbacées. Dans les années 50, on estime que seulement 9% des forêts tempérées étaient touchées par des pics d'ozone. Un quart des forêts mondiales sont aujourd'hui concernées. En 2100, la moitié des forêts pourrait subir des dommages. L'augmentation des taux d'ozone de surface est liée à celle des émissions d'oxyde d'azote rejeté en majeure partie par la circulation automobile, ainsi que des hydrocarbures et autres composés volatils. Ces gaz sont des précurseurs de l'ozone. Il faut toutefois des conditions météorologiques bien particulières pour que l'ozone soit «fabriqué» naturellement car la molécule de dioxygène (02) présent dans ces gaz est cassée en deux seulement par le rayonnement solaire. Chacun des deux oxygènes élémentaires, élément particulièrement réactif, peut ensuite se marier à une molécule de dioxygène et former ainsi de l'ozone (03). Les seules mesures en agglomération ne sont pas suffisantes car les panaches de pollution circulent à travers toute l'Europe et toute la France au gré des vents. Les stations installées en zones rurales voire en plein coeur des massifs forestiers sont aussi indispensables. Le réseau Renécofor, géré par l'Office national des forêts (lire ci-dessous), qui prend ces mesures, répond à une directive sur l'ozone de 2002. Cette dernière a fait de la surveillance de ce gaz une de ses priorités pour la santé des forêts. Dans le même temps, Bruxelles a fixé une nouvelle limite pour la santé humaine à 110 microgrammes par mètre cube pour une période de huit heures et à 18 000 microgrammes par an de mai à juillet pour la végétation. Des seuils régulièrement dépassés en période de fort ensoleillement. La production d'ozone est avant tout une question de proportion entre les différents hydrocarbures d'origines naturelles et les oxydes d'azote liés principalement aux activités humaines. C'est donc bien la conjonction spatiale et temporelle des deux types d'émissions (comme dans le cas du panache parisien observé les 8 et 9 août 1998) qui peut mener à des niveaux de pollution élevés. «La vraie question, c'est de savoir si la pollution va diminuer pour inverser la tendance actuelle», souligne de son côté Erwin Ulrich.

Figaro :http://www.lefigaro.fr/sciences/20040826.FIG0226.html

Climat: la forêt française menacée de bouleversement
Jeudi, 09/09/2004 - 00:00

Le chêne vert méditerranéen prospérant jusqu'en Bretagne, le sapin disparu des Vosges et le hêtre fondant comme peau de chagrin: le changement climatique pourrait bouleverser le visage de la forêt française d'ici 2100. Depuis deux ans, des chercheurs de l'Institut national de la recherche agronomique(INRA) planchent sur l'évolution de la présence des grandes essences forestières en fonction du réchauffement planétaire. Sur la base de l'Inventaire forestier national, 67 espèces d'arbres ont été retenues et classées en neuf zones géographiques. Le sort de chaque groupe a été simulé jusqu'en 2050 et 2100 sur la base du modèle Arpège-climat de Météo-France. Arpège table, entre 1990 et 2100, sur un doublement de la concentration dans l'atmosphère de CO2, le principal gaz à effet de serre, et sur un réchauffement moyen de 2 degrés. Cela se traduit notamment par plus de pluies en hiver, surtout dans le Nord, et beaucoup moins en été, surtout dans le Sud et, constitue la transposition à l'échelle française du scénario B2, le modèle le plus "optimiste" des experts internationaux du climat, comme le rappelle l'INRA. Même limité, ce réchauffement entraînerait déjà un triplement des surfaces des espèces méditerranéennes comme l'olivier, le chêne vert et diverses variétés de pins qui occuperaient dans moins de 100 ans 28% de la superficie métropolitaine contre 9% actuellement. C'est toutefois le pin maritime des Landes et quelques essences du Sud-Ouest et du littoral breton (chêne tauzin) qui connaîtraient la progression la plus spectaculaire, colonisant 46% du territoire national en 2100 contre 17% actuellement. "Tous les autres groupes auraient tendance à diminuer" de surface, note le document. Les espèces montagnardes, qui se développent entre 800 et 2.500 mètres, souffriraient tout particulièrement de l'envolée du thermomètre et des sécheresses (pins alpins et pyrénéens, aulnes, érables, sapins, épicéas). Elles verraient leur aire de répartition fondre globalement à 6% de la superficie métropolitaine contre 16% aujourd'hui. Les essences de plaines continentales pâtiraient particulièrement du manque d'eau. Emblématique de ces variétés, le hêtre ne résisterait plus que dans le nord-est alors qu'il est acclimaté actuellement dans les trois quarts du pays. Le climat, principal facteur de répartition des espèces, entraînera "un déplacement des groupes d'essences méridionaux vers le nord et l'est" tandis que les groupes montagnards et continentaux auront tendance "à régresser fortement", conclut le document. Cette évolution, avertit l'INRA, pourrait se produire avant même la fin du siècle, "dans un laps de temps de 50 ans, inférieur à la durée de révolution de la plupart des espèces forestières concernées".

AFP :http://fr.news.yahoo.com/040902/202/418d0.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Crises cardiaques : des facteurs de risque universaux
Jeudi, 09/09/2004 - 00:00

Une étude internationale dirigée par des chercheurs canadiens conclut qu'il est possible de prévenir la majorité des crises cardiaques prématurées, après avoir mis en évidence neuf facteurs qui causent 90 % des crises et qui sont faciles à mesurer. Les deux plus importants facteurs de risque sont le tabagisme et un faible taux de bon cholestérol dans le sang. À eux deux, ils causent 60 % des crises cardiaques dans le monde, indique l'étude. Selon cette étude, le tabac serait responsable, à lui seul, d'un tiers des accidents cardiaques et les fumeurs de moins de 40 ans auraient 5 fois plus de risques de faire une crise cardiaque que les non fumeurs. L'hypertension, le diabète, l'obésité abdominale, le stress et le fait de ne pas manger quotidiennement des fruits et des légumes et de ne pas faire d'exercice tous les jours constituent des facteurs de risque supplémentaires. Consommer régulièrement de petites quantités d'alcool (trois ou quatre consommations par semaine) offre une certaine protection. L'étude, menée sur plus de 29 000 personnes dans 52 pays et présentée lors du Congrès annuel de la société européenne de cardiologie, révèle que ces facteurs de risque sont les mêmes, quelles que soient les régions et les groupes ethniques. Ce qui fait dire aux chercheurs que la prévention des maladies cardiovasculaires n'a jamais été aussi simple. Les causes des maladies cardio-vasculaires semblent être les mêmes partout sur la planète, indépendamment du pays ou de la race des malades. Cette étude historique montre également que le rôle joué par le stress dans l'apparition de ces pathologies aurait été jusqu'ici sous-estimé. 80% des maladies cardio-vasculaires du monde entier se déclarent dans les pays en développement, alors que "jusqu'ici, 99% de la recherche se faisait dans les pays riches, dans la population européenne en majorité blanche. Nous ne savions pas dans quelle mesure nous pouvions appliquer ces résultats au reste de la planète", a déclaré le responsable de l'étude, le Dr Salim Yousef, professeur de médecine de l'Université Mc Master au Canada, expliquant ce qui l'a poussé à ce nouveau travail, Selon le rédacteur en chef du journal scientifique "The Lancet", c'est sans doute la plus étoffée des études sur les facteurs de risques des maladies cardio-vasculaires jamais menée. "L'étude confirme le fait que les facteurs de risque sont les mêmes d'un bout à l'autre de la planète, et permet même de déterminer la responsabilité de chacun d'entre eux", a ajouté le Dr Jean-Pierre Bassand, président de la société européenne de cardiologie. "C'est une étude fantastique". Quinze mille personnes ayant subi un premier accident cardiaque ont été comparées individuellement à une personne du même âge et du même sexe, indemne de maladie. Selon les résultats, un mauvais rapport entre le bon et le mauvais cholestérol représentait le premier facteur de risque d'accident cardiaque. En second venait le tabac, suivi par le diabète, l'hypertension artérielle et la présence d'un gros ventre. Puis le stress, suivi par une consommation insuffisante de fruits et de légumes, et par le manque d'exercice. Une consommation légère à modérée d'alcool n'apportait qu'un très léger bénéfice. Selon les résultats de l'étude, le risque cholestérol est responsable de la moitié des accidents, mais en général, dans les populations urbaines, personne n'a un taux de cholestérol qui le protège à 100% du risque d'accident cardiaque. Le tabac est responsable de 36% des accidents. Et ce quelles que soient les ethnies et les régions.

Article @RTFlash

Lancet : http://www.thelancet.com/journal

Du nouveau dans la recherche contre le cancer
Jeudi, 09/09/2004 - 00:00

Une équipe britannique a annoncé avoir découvert comment forcer les cellules cancéreuses à entrer dans le processus d'apoptose.Il est reconnu que les cellules cancéreuses ont un gène défectueux nomme Smac, dont l'activité dans les cellules saines déclenche l'apoptose quand les cellules atteignent un certain age. Le projet du docteur Iain McNeish, de l'unité d'oncologie moléculaire de Cancer Research UK à Londres, était de restaurer l'activité de Smac dans les cellules cancéreuses. Son approche par thérapie génique a confirme des études antérieures, a savoir que Smac rendait les cellules ovariennes traitées plus sensibles aux agents utilises en chimiothérapie, tels que la cis platine et le paclitaxel. Iain McNeish a cependant montre pour la première fois que la modification génétique d'un virus en lui ajoutant le gène Smac pouvait être un moyen efficace par lui-même pour induire la mort cellulaire des cellules cancéreuses, sans l'action concertée des agents chimio-therapeutiques. De plus, cette thérapie génique s'est montrée très sélective, Smac n'étant délivré par le virus qu'aux cellules malades, épargnant ainsi les cellules saines. Le mécanisme moléculaire par lequel Smac induit la mort cellulaire des cellules cancéreuses est le suivant : Smac inhibe l'activité d'une autre protéine appelée XIAP, elle-même jouant un rôle crucial dans la survie cellulaire, prévenant ainsi les cellules saines d'entrer en apoptose avant, leur temps. En inhibant XIAP, Smac induit indirectement la mort cellulaire. Smac est une molécule trop grosse pour pouvoir l'introduire directement comme une molécule synthétique anti-cancéreuse, mais Iain McNeish estime avoir contourne ce problème par l'introduction du gène dans le virus modifie. Ces résultats font suite à deux autres études, également poursuivies par des chercheurs de CRUK. Le système utilise pour tenter de détruire spécifiquement le tissu cancéreux et préserver le tissu sain s'appuie cette fois sur une thérapie connue sous le nom de ADEPT (Antibody-directed enzyme prodrug therapy). Cette thérapie utilise une enzyme, la carboxypeptidase G2(CP), qui métabolise une pro-molecule en une molécule anti-cancéreuse active, spécifiquement au sein des cellules cancéreuses (l'enzyme se lie aux cellules cancéreuses et non pas aux cellules saines). Cependant, cette enzyme n'existe pas naturellement chez l'homme, ce qui conduit l'organisme a fabriquer des anticorps après la première injection. A la seconde injection, ces anticorps détruisent l'enzyme avant qu'elle ne puisse agir. L'étude menée par le groupe " Targetting and Imaging " du CRUK a Londres a donc consiste a mettre en place un système pour que cette carboxypeptidase G2 ne soit pas reconnue par l'organisme comme un agent étranger. Une autre équipe du CRUK, basée au centre clinique du CRUK a " Barts and The London, Queen Mary's School of Medicine and Dentistry " a, quant a elle, utilise d'autres propriétés spécifiques des cellules cancéreuses pour délivrer une molécule anti-cancéreuse destinée a induire une mort cellulaire sélective. Par modification génétique, ces chercheurs ont supprime les gènes viraux responsables de l'invisibilité du virus envers la cellule hôte qu'il infecte. Dans les conditions normales, lorsqu'un tel virus entre dans une cellule hôte saine, celle-ci se suicide et entre en apoptose afin de ne pas répliquer le virus, qui disparaît avec la cellule. En revanche, la désorganisation des voies de signalisation des cellules cancéreuses fait que celles-ci continuent de se diviser et se multiplier, entraînant la multiplication du virus et la propagation de l'infection au sein de tissu malade. Pour le professeur Nick Lemoine, leader de cette étude, l'étape suivante sera d'introduire dans ce virus un gène codant pour une molécule anti-cancéreuse, de telle façon a ce que ce " poison " se répande dans le tissu malade et épargne le tissu sain. De plus, puisque le virus se multiplie avec les cellules, un petit nombre de copies du virus sera nécessaire pour que le traitement soit efficace, les cellules cancéreuses faisant le reste du travail. L'équipe prévoit de faire les premiers essais cliniques en début d'année prochaine.

BERoyaumeUni : http://www.bulletins-electroniques.com

Suisse: nouvelle méthode expérimentale de lutte contre le cancer
Jeudi, 09/09/2004 - 00:00

Une équipe de chercheurs a mis au point une méthode expérimentale permettant d'inhiber le développement du cancer en agissant sur certains gènes, a annoncé l'Université de Genève.Les travaux du professeur Ariel Ruiz i Altaba, publiés dans les comptes rendus de l'académie des sciences américaine, les PNAS, ont montré qu'il est possible de bloquer la prolifération de cellules tumorales en injectant de la cyclopamine, une molécule qui inhibe certains gènes impliqués dans la progression du cancer, a indiqué l'Université de Genève dans un communiqué. Cette approche nouvelle, qui donne des bons résultats sur des souris, n'a pas encore été testée sur des humains. Le traitement agit sur le cancer de la prostate, mais il pourrait également être utilisé pour combattre d'autres formes de cancers, comme celui de la peau ou du cerveau. L'hypothèse de départ du professeur Altaba est que la progression des cancers dépend, à tous les stades du développement de la maladie, d'un mécanisme moteur fondamental. "En démontrant le rôle moteur de deux gènes (SHH et GLI) dans la progression du cancer de la prostate, M. Altaba a découvert un moyen de mettre un terme à son développement", avance le communiqué. La plupart des cancers dépendent, à tous les stades de leur développement, d'un mécanisme fondamental, un peu comme une voiture qui ne peut se passer d'essence. En l'occurrence, chez les vertébrés, le " carburant " et le " démarrage " de la maladie pourraient notamment être la dérégulation de la cascade de réaction SHH-GLI. La famille des gènes HEDGEHOG a été découverte en 1980 chez la mouche et, en 1993, chez les vertébrés. C'est en démontrant le rôle moteur de ces deux gènes dans la progression du cancer de la prostate que l'équipe du prof. Ruiz i Altaba a découvert le moyen de mettre un terme à son développement. En effet, en traitant des cellules humaines primaires atteintes d'un cancer de la prostate avec de la cyclopamine, une molécule découverte dans les années 60, les chercheurs ont pu constater que cet agent inhibait la fonction SHH-GLI, et ont ainsi réussi à stopper la division des cellules tumorales. Autrement dit, le blocage de la cascade de signalisation SHH-GLI ou de la fonction GLI1, suffirait à combattre le cancer. La découverte de ce processus, qui vient de faire l'objet d'un article dans la revue scientifique PNAS, est d'autant plus remarquable que la fonction GLI1 est encore nécessaire pour les cellules métastatiques, stade généralement considéré comme irréversible dans la progression létale de la maladie. En fin de compte, l'effet observé est un peu comme celui d'une voiture à laquelle on aurait retiré son réservoir d'essence à quelques mètres de son objectif : elle s'arrête. L'autre fait remarquable de cette découverte est qu'elle est corroborée par de nombreux travaux, effectués à l'Université de Genève et dans le monde, sur la dépendance de différents cancers à l'égard de la cascade SHH-GLI. Ainsi, ce que l'équipe du prof. Ruiz i Altaba met en avant pour le cancer de la prostate serait également valable pour le cancer du cerveau, du pancréas, de l'estomac, ou celui de la peau. Ces résultats suggèrent donc une nouvelle approche thérapeutique qui, une fois qu'elle sera testée chez l'humain, pourrait se révéler déterminante dans la guerre engagée contre le cancer

Université de Genève :

http://www.unige.ch/presse/communique/?03-04.html

PNAS :http://www.pnas.org/cgi/content/abstract/101/34/12561?

La pilule de l'espoir pour les obèses
Jeudi, 09/09/2004 - 00:00

Fléau mondial qui frappe près d'un Français sur dix, l'obésité pourrait voir fondre sa progression grâce à une molécule mise au point par le laboratoire français Sanofi-Aventis. Son nom : Acomplia (ou rimonabant pour son principe actif). Une étude, présentée dimanche lors du congrès de la Société européenne de cardiologie, à Munich, montre les bienfaits de ce nouveau traitement à la fois dans la perte de poids et dans la lutte contre les maladies cardiovasculaires associées à l'obésité. La pilule pourrait être ainsi commercialisée dès 2006. Baptisée RIO-Europe (pour Rimonabant in obesity), l'étude a été menée auprès de 1.507 personnes en surpoids dans soixante centres européens et américains. Trois groupes ont été constitués : dans le premier, les patients ont reçu 20 mg de rimonabant par jour, dans le deuxième, 5 mg/jour et dans le troisième, les personnes n'ont ingéré qu'un placebo. Après deux années à ce régime, les scientifiques, dirigés par le docteur Luc Van Gaal de l'hôpital universitaire d'Anvers, ont relevé que les membres du groupe 1 avaient perdu en moyenne 8,6 kilos, contre 4,8 kg pour ceux du groupe 2... et 3,6 kg pour ceux du groupe 3. Au sein du premier groupe, près de quatre patients sur dix ont perdu plus de 10% de leur poids. Autre bonne nouvelle, le rimonabant permet d'augmenter le bon cholestérol (cholestérol-HDL) : +27% chez ceux les personnes traitées à 20 mg/jour. La molécule a par ailleurs directement fait baisser les risques cardiovasculaires chez les patients. Une autre étude, baptisée Stratus US, avait enfin noté l'impact positif du rimonabant pour arrêter de fumer sans prise de poids. L'Acomplia présente décidément bien des avantages.

TF1 :

http://news.tf1.fr/news/sciences/0,,3171599,00.html

Os de mâchoire transplanté après avoir été cultivé sur le dos du patient
Jeudi, 09/09/2004 - 00:00

Une homme qui avait subi l'ablation de la mâchoire inférieure à cause d'un cancer a pu prendre son premier vrai repas depuis neuf ans, après que les chirurgiens lui eurent transplanté un nouvel os de mâchoire "cultivé" sur un muscle de son dos, selon un article publié cette semaine dans la revue médicale britannique "The Lancet". Au cours de cette expérience "ambitieuse", des médecins allemands ont utilisé une cage avec des mailles, une substance chimique de croissance et la moelle épinière du patient, qui contient des cellules souches, pour créer un nouvel os de mâchoire ayant exactement la taille voulue. Des tests n'ont pas encore été pratiqués pour vérifier que l'os a été créé par les cellules souches proprement dites et il est trop tôt pour savoir si la mâchoire fonctionnera normalement sur le long terme. Toutefois, c'est la première fois que l'on annonce qu'un os entier a été fabriqué, incubé dans le corps d'un patient et transplanté. Si des chercheurs ne conviendront pas forcément qu'il s'agisse d'une avancée scientifique, cette opération a atteint son but et a changé une vie, souligne en substance Stan Gronthos, un expert des cellules souches à l'Institut de science médicale et vétérinaire à Adelaide, en Australie, qui n'a pas participé à cette première. "Un patient qui avait auparavant perdu sa mandibule (mâchoire inférieure) (...) peut désormais s'asseoir et mastiquer ses premiers repas solides depuis neuf ans (...) lui permettant ainsi d'avoir une meilleure qualité de vie", souligne-t-il. L'opération a été réalisée par le Dr Patrick Warnke, un chirurgien allemand spécialisé dans la reconstruction faciale. Le patient, un homme de 56 ans, avait subi l'ablation de la mâchoire inférieure et de la moitié de la langue à cause d'un cancer de la bouche. Depuis il ne pouvait absorber que des aliments mous ou liquides. Le patient n'a pas fait état de douleurs ou d'autre problèmes liés à la transplantation, et mange de la viande désormais. Mais il se plaint toutefois de devoir passer un moment à couper son steak en tout petits morceaux, si bien que la viande est froide lorsqu'il finit de la manger. Le Dr Warnke espère pouvoir implanter des dents dans sa nouvelle mâchoire d'ici un an. Habituellement les médecins peuvent remplacer un os de mâchoire en prélevant un os sur la jambe ou la hanche et en le modelant pour lui donner la forme voulue. Mais ce patient ne pouvait subir cette intervention en raison d'une autre pathologie.

Lancet : : http://www.thelancet.com/journal/vol364/iss9436/full/llan.364.9436.talking_point...

Un Scanner presque instantané
Jeudi, 09/09/2004 - 00:00

Ça bouge dans le petit monde de la radiographie. Le tomodensitomètre de demain -on dit aussi un scanner...- s'appelle peut-être LightSpeed VCT. Très rapide, il balaie la totalité du corps en moins de 10 secondes. Le tout en 3 dimensions...Une première ! "Ce nouveau système pourrait bientôt bouleverser la pratique de la radiologie. Il produit en effet des images de très haute qualité, et cela presque instantanément " affirme le Dr W. Dennis Foley, du Froedtert Hospital dans le Wisconsin (Etats-Unis), l'un des tous premiers médecins à l'avoir testé. Sa principale caractéristique ? Une vitesse de travail particulièrement élevée qui lui permet de produire en une seule rotation, l'image en 3D d'une bande de 40 millimètres de l'organe scanné. A titre de comparaison, le plus puissant des scanners actuellement sur le marché ne peut fournir au mieux, qu'une bande de 20 millimètres... L'équipe clinique dispose ainsi d'une vue beaucoup plus large et révélatrice.Encore faut-il y ajouter une résolution d'images "digne d'un appareil numérique très puissant", comme le souligne Jérôme Galbrun, directeur marketing Europe du constructeur General Electric HealthCare. C'est à ce jour la technique non invasive la plus performante disponible pour explorer l'ensemble du corps humain. Présenté à l'occasion du Congrès de la Société européenne de Cardiologie qui se tient actuellement à Munich, cet équipement autorise un véritable voyage à l'intérieur de l'organisme. Sa vitesse est telle qu'en moins de 5 secondes, il reproduit en 3 dimensions la totalité du coeur et des artères coronaires. Il fonctionne déjà aux Etats-Unis et devrait être disponible en France dès la fin de cette année.

DS ;http://fr.news.yahoo.com/040901/185/416l4.html

Anomalie dans la réponse cérébrale à la perception de la voix humaine dans l'autisme
Jeudi, 09/09/2004 - 00:00

La voix humaine est riche en informations verbales mais aussi non-verbales : elle constitue un véritable "visage auditif" que nous savons interpréter. Nos capacités à percevoir ces informations vocales jouent un rôle crucial dans nos interactions sociales. De plus, une équipe de chercheurs a mis en évidence, par l'imagerie cérébrale fonctionnelle, que la perception vocale implique des régions corticales spécifiques appelées "aires de la voix", situées chez la plupart des individus le long du sillon temporal supérieur. L'autisme est une pathologie sévère du développement de l'enfant qui se caractérise par des difficultés dans les interactions sociales. Des études comportementales ont permis d'observer également un déficit dans la perception de la voix humaine. Afin de préciser les bases cérébrales de cette pathologie, les chercheurs de l'équipe mixte Inserm-Cea ont étudié par imagerie fonctionnelle (IRM fonctionnelle) comment le cerveau des sujets autistes adultes perçoit la voix humaine par rapport à d'autres sons. Pour cela, l'activité cérébrale de cinq adultes atteints d'autisme et de huit volontaires sains a été enregistrée alors qu'ils écoutaient des séquences de sons alternant la voix humaine (parole, cri, rire, pleur, chant) et d'autres types de sons non vocaux (animaux, cloches, instruments de musique, voitures etc...). Les résultats obtenus révèlent chez les autistes une absence d'activation de l'aire spécifique de la perception de la voix ("aire de la voix"). Chez ces sujets, les aires cérébrales activées sont exactement les mêmes, qu'il s'agisse de voix humaines ou de sons non vocaux. Aucune activation cérébrale spécifique d'une reconnaissance de la voix humaine n'a pu être mise en évidence. Par ailleurs, à la question « qu'avez-vous entendu pendant l'examen ? », les autistes ne rapportent que 8,5% de sons vocaux contre 51,2% pour les témoins, confirmant leur faible capacité à reconnaître des voix humaines. De précédentes études dans le domaine visuel en IRM fonctionnelle avaient déjà révélé chez les autistes une absence d'activation de l'aire spécialisée dans le traitement des visages. Cette étude sur la voix, stimulus auditif riche en informations sur l'identité et l'état émotionnel de l'interlocuteur, met cette fois en évidence un trouble de la perception sociale dans le domaine auditif. Ces anomalies du traitement de la voix et des visages suggèrent que les difficultés des autistes à comprendre l'état émotionnel d'autrui et à interagir avec lui pourraient être liées à un déficit de la perception des stimuli sociaux. Ces résultats en imagerie fonctionnelle apportent de nouvelles perspectives pour comprendre les perturbations des interactions sociales dans l'autisme. Enfin, la mise en évidence de ces déficits perceptifs pourrait permettre l'élaboration de stratégies de rééducation visant à induire un traitement spécifique des informations vocales et faciales, traitement qui semble ne pas s'être développé spontanément chez l'autiste.

Inserm :http://www.inserm.fr/servcom/servcom.nsf/(Web+Startup+Page)?ReadForm&actualite

Les mécanismes de guidage des fibres nerveuses mieux compris
Jeudi, 09/09/2004 - 00:00

Notre cerveau est constitué de milliards de cellules qui établissent entre elles des connexions très précises. C'est la présence de molécules de guidage qui permet aux fibres nerveuses de s'orienter correctement vers les centres cérébraux, soit par attraction, soit par répulsion, et d'établir ainsi un réseau entre cellules nerveuses. Les équipes d'Alain Chedotal (CNRS - Université Paris 6) et de Patrick Mehlen (CNRS - Université Lyon 1) et leurs collaborateurs américains se sont intéressés à deux aspects de ce processus de guidage. Le premier concerne le développement du système visuel. Chez les vertébrés, les fibres nerveuses issuesdescellulesdelarétineseprojettentversunerégion du cerveau appelée toit optique, en respectant une organisation topographique précise. C'est une protéine exprimée dans le toit optique, la protéine RGM (Repulsive Guidance Molecule), qui guide les connexions finales dans les zones appropriées, en émettant un signal de répulsion aux terminaisons axonales. Les auteurs publient dans Nature cell biology deux articles qui identifient la néogénine comme la protéine “ récepteur ” de RGM dans les fibres nerveuses, et caractérisent le mode de fonctionnement du couple ligand-récepteur. Leurs résultats indiquent que le couple RGM-néogénine contrôle également la survie cellulaire. En perturbant l'expression de RGM ou de néogénine dans les cellules du système nerveux en formation de l'embryon de poulet, les auteurs montrent que l'excès de néogénine ou le déficit en RGM provoquent la mort des cellules (apoptose). Pour empêcher l'apoptose, les cellules exprimant la néogénine doivent fixer le ligand RGM et sont donc dépendantes de cette molécule pour leur survie. Ainsi, la néogénine est un “ récepteur à dépendance”, dont la fonction varie selon la présence ou l'absence de son ligand. A un stade précoce du développement, la néogénine, en absence de RGM, en provoquant la mort cellulaire de certaines cellules, va moduler le nombre de neurones “ habilités ” à se développer. Ultérieurement, la néogénine reçoit le signal de “ répulsion ” délivré par la protéine RGM, et fonctionne alors comme une molécule de guidage. Le second système de guidage étudié est celui de la traversée, par les axones, de la ligne médiane qui sépare les deux hémisphères cérébraux. Dans la plupart des espèces animales, les moitiés droite et gauche du système nerveux sont presque parfaitement symétriques, organisées en miroir de part et d'autre d'un axe longitudinal appelé aussi ligne médiane. Une des premières décisions que va prendre un axone en croissance est de traverser ou de ne pas traverser la ligne médiane. En outre, un axone qui traverse (on parle alors d'axone commissural) ne sera capable de le faire qu'une seule fois. Des protéines de guidage “ répulsif ”, les protéines Slits, synthétisées par les cellules de la ligne médiane sont impliquées dans ce processus. En se fixant sur leur récepteur Roundabout (Robo), ancré à l'extrémité des axones, elles contraignent les axones à s'éloigner de la ligne médiane. Les équipes d'Alain Chédotal et de Marc Tessier-Lavigne ont analysé la structure cellulaire du cerveau de souris déficientes pour Robo3, l'un des récepteurs Robo. Ces souris présentent de nombreuses malformations du système nerveux, qui sont dues à un blocage de la traversée de la ligne médiane pour certains prolongements axonaux, mais aussi à des défauts de migration de certains neurones au cours du développement. Il apparaît en particulier que certains neurones n'ont pas traversé la ligne médiane comme ils le font chez les animaux normaux. Les molécules de guidage axonal sont donc également impliquées dans le guidage de la migration des neurones eux-mêmes et donc dans la mise en place des différentes régions du cerveau. Au-delà de leur intérêt évident pour comprendre le développement et le fonctionnement du cerveau, ces travaux apportent aussi d'importantes perspectives thérapeutiques. Le gène robo3 est muté dans un syndrome humain rare associant une paralysie des mouvements oculaires horizontaux à une forte scoliose (horizontal gaze palsy with progressive scoliosis). Diverses analyses indiquent que les patients atteints de ce syndrome présentent à la fois des atrophies de certains types de neurones et des anomalies de transfert d'informations à travers la ligne médiane du cerveau. Par ailleurs, les auteurs montrent que le maintien d'une surexpression de RGM induit un phénomène similaire à la tumorigénèse. La néogénine semble impliquée dans le cancer du sein. De plus il n'est pas exclu que l'expression de RGM et de néogenine dans de nombreux tissus autres que le cerveau représente un mécanisme de limitation du développement des tumeurs. De manière générale comprendre les mécanismes de la survie des neurones, et de la croissance et de la régénération de leurs axones, est essentiel pour toute stratégie de réparation dans le système nerveux après des lésions traumatiques ou ischémiques.

CNRS :http://www2.cnrs.fr/presse/communique/526.htm

Alzheimer: la consommation d'omégas 3 bénéfique
Jeudi, 09/09/2004 - 00:00

La consommation d'omégas 3, acides gras que l'on retrouve dans le poisson, notamment le saumon et la sardine, ainsi que dans l'huile de poisson, peut contribuer à prévenir la maladie d'Alzheimer, selon une étude canadienne dont a fait état vendredi le Globe and Mail. Cette étude, menée sur des souris, démontre comme cela ne l'avait jamais jusqu'à présent été fait que la consommation insuffisante d'un élément alimentaire précis peut avoir un impact direct sur les risques courus par une personne de contracter une affection neurologique dévastatrice. «Ce que le public doit retenir, c'est que la diète est importante pour votre cerveau», a affirmé Frédéric Calon, spécialiste en endocrinologie moléculaire au centre médical de l'Université Laval, à Québec, dans une entrevue accordée au quotidien torontois. «Si vous avez une diète pauvre en omégas 3, cela va accélérer le processus de l'Alzheimer, en particulier si vous êtes génétiquement prédisposé.» Un certain nombre d'études ont laissé entendre que les gens suivant une diète riche en poisson sont moins susceptibles que les autres de développer la maladie d'Alzheimer et des problèmes cardiaques. Bien que l'on ne sache pas vraiment pourquoi, il semble que cela soit d aux acides gras de type oméga 3, que les fabricants ajoutent dans les oeufs et le lait. La nouvelle étude sur la maladie d'Alzheimer, publiée dans le journal médical américain Neuron, démontre qu'un type particulier d'oméga 3, appelé acide docosahexanoïque (ADH), semble garder les synapses en santé. La synapse est le lieu de connexion entre deux neurones, assurant la transmission de l'influx nerveux d'un neurone à l'autre. Les conclusions des chercheurs constituent une découverte heureuse. Les spécialistes travaillaient avec des souris spécialement élevées pour développer une maladie similaire à l'Alzheimer. Ils ont toutefois constaté que les animaux ne développaient pas les problèmes attendus. Les chercheurs ont alors réalisé que la nourriture donnée aux souris - du soja et du poisson - était bourrée d'omégas 3. Les spécialistes ont ensuite entrepris une nouvelle étude, nourrissant des souris avec du soja et du poisson, et d'autres avec du carthame, sans omégas 3.

Canoé : http://www2.canoe.com/techno/nouvelles/archives/2004/09/20040903-174124.html

Maladie de Parkinson: l'efficacité confirmée de la stimulation cérébrale
Jeudi, 09/09/2004 - 00:00

A 60 ans, Luitgard Treml-Lenz dit avoir "retrouvé sa dignité". Atteinte depuis l'âge de 40 ans d'une maladie de Parkinson, cette pianiste allemande contrainte de renoncer à sa passion peut rejouer sans difficulté grâce au traitement par stimulation cérébrale, une alternative au traitement médical qu'elle ne supportait plus. "Il n'existe pas une, mais des maladies de Parkinson et ce traitement n'est pas indiqué chez tous les malades", a expliqué lundi le Pr Yves Agid, chef du service de neurologie de l'hôpital parisien de La Pitié-Salpêtrière dans le cadre du 8e congrès de la Fédération européenne des sociétés de neurologie (EFNS). En France, 100.000 personnes sont atteintes de maladie de Parkinson. "Dans 15% des cas, il s'agit de formes très graves, lourdement handicapantes. Dans 15% des cas, de formes sans gravité, et dans 70% des cas, de formes intermédiaires", a-t-il précisé lors d'une conférence de presse.Les patients atteints souffrent tous d'une insuffisance en dopamine, la substance chimique qui régule la motricité. Cette déficience entraîne chez eux une hyperactivité de certains des neurones responsables du contrôle de la bonne exécution des mouvements. D'où l'apparition de symptômes invalidants: tremblement, rigidité musculaire, lenteur des mouvements, paralysies, etc. Le traitement médicamenteux consiste à donner au malade un soin de substitution par la L dopa dont les effets secondaires à terme peuvent devenir insupportables. "Les gens se bloquent, ils ne peuvent plus avancer et souffrent de mouvements anormaux involontaires", a souligné le Pr Agid. C'est à cette population que s'adresse le traitement par stimulation cérébrale, dans la mesure où ces malades ont répondu de manière spectaculaire au traitement par la L dopa, c'est-à-dire que les lésions dont ils souffrent touchent en majorité les neurones à dopamine. Ceci concerne 5% des malades, a poursuivi Yves Agid, précisant que les personnes souffrant de troubles psychiatriques ou de maladies graves ne pouvaient pas non plus bénéficier de ce traitement. En pratique, deux électrodes sont implantées dans le cerveau. Elles sont raccordées à deux extensions connectées à un neurostimulateur semblable à un stimulateur cardiaque ou pacemaker qui envoie des impulsions électriques. Le neurostimulateur est placé sous la peau dans la région pectorale et les électrodes passent sous le cuir chevelu et le long du cou. Coût de l'opération: environ 54.000 euros. Le stimulateur, dont le prix s'élève à 13.000 euros environ, doit être changé tous les six ans. "L'amélioration est de 70% en moyenne, notamment des fonctions motrices et des complications liées au traitement", s'est félicité Yves Agid. Mais "le vrai problème, c'est le changement brutal que ce traitement entraîne dans la vie du malade et de sa famille", selon lui. Depuis la première stimulation cérébrale par une équipe grenobloise en 1987, 2.000 personnes en France en ont bénéficié dans 18 centres et 30.000 dans le monde. La méthode qui est déjà appliquée aux personnes victimes de troubles importants du tonus musculaire (dystonie) pourrait être appliquée au syndrome de Tourette, une maladie à forte composante psychiatrique qui se manifeste par des tics très importants et des gestes d'automutilation, notamment. Une étude démarrera par ailleurs en octobre dans les troubles obsessionnels compulsifs (TOC).

AP :http://fr.news.yahoo.com/040906/5/41gph.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top