RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 343
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Juin 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
NTT DoCoMo a réussi une transmission en mobilité à 1.000 Mbit/s
Japon : le téléphone mobile se transforme en liftier
Lancement aux Etats-Unis du WPS, système de géolocalisation par Wi-Fi
Un logiciel qui reconnaît les archives manuscrites
Londres informe ses habitants de la qualité de l'air par SMS
Première télévision haute définition et ultra-haut débit
Avenir
Un exosquelette motorisé pour aider les handicapés
Matière
Semi-conducteurs : de nouvelles perspectives grâce aux nanotubes
Puce électronique record à un demi million de pages par seconde
Les quarks étranges, fugitifs constituants des protons
Espace
Deep Impact : une fantastique odyssée pour percer les secrets d'une comète
Galileo : l'UE choisit l'offre commune des deux consortiums
Terre
La Suisse inaugure sa plus grande centrale solaire
Vivant
Des spermatozoïdes et des ovules artificiels dans 10 ans
Des cellules souches à partir de la peau
Un espoir pour le diabète de type 1, traité à l'insuline
Des vaisseaux sanguins artificiels à tous âges
Des spirales en platine pour traiter les anévrismes intra-crâniens
Le sport protège contre le cancer
Alzheimer : des scientifiques identifient un facteur précoce de prédiction
Homme
Recherche et développement : Microsoft s'allie aux universités japonaises
Recherche
Le train le plus rapide du monde sera japonais en 2011
Edito
L'implantation d'ITER en France va nous permettre de dompter l'énergie des étoiles



La France et son site de Cadarache (Bouches-du-Rhône) ont enfin été choisis par la communauté internationale, mardi 28 juin, pour accueillir le réacteur à fusion nucléaire ITER (Iternational Thermonuclear Experimental (Reactor) qui représente un programme de 11 milliards d'euros étalé sur trente ans, avec à la clé d'innombrables retombées en physique fondamentale et appliquée et la création de près de 100.000 nouveaux emplois.

La fusion nucléaire constitue le mécanisme à l'origine du rayonnement des étoiles et en particulier du Soleil. En effet, au sein des étoiles, les noyaux légers fusionnent et produisent des noyaux plus lourds. Au cours de cette réaction de fusion, la masse du noyau produit est inférieure à la somme des masses des noyaux légers d'origine. La différence de masse, en vertu de la célèbre relation d'Einstein, E=mc2, est alors convertie en énergie. On estime ainsi que, dans le Soleil, pas loin de 600 millions de tonnes d'hydrogène sont transformés en 596 millions de tonnes d'hélium chaque seconde. La différence est alors convertie en énergie et est à l'origine de la chaleur et de la lumière que nous recevons. (Voir les dossiers du CEA et de l'UE et article de Wikipédia).

La « fusion » de deux noyaux légers en un noyau plus lourd est source d'énergie nucléaire comme la « fission » d'un noyau lourd. C'est même la source d'énergie la plus répandue dans l'univers puisque c'est elle qui est à la base du rayonnement stellaire. Mais contrairement à la fission qui met en jeu une particule neutre, insensible à l'interaction coulombienne, la fusion fait intervenir des particules chargées de même signe exerçant entre elles des forces de répulsion.

Pour surmonter ces forces et mettre les noyaux concernés « en présence », à des distances telles que le mécanisme de fusion soit enclenché, il faut élever la température du milieu (appelé plasma) à des valeurs très élevées : quelques dizaines de millions de degrés. Dans un plasma thermique, la grande agitation des ions et des électrons produit de nombreuses collisions entre les particules. Pour que ces collisions soient suffisamment violentes et entraînent une fusion, trois grandeurs interviennent: la température, la densité et le temps de confinement.

Les critères de Lawson établissent que, pour qu'une réaction de fusion s'amorce puis s'autoentretienne, le plasma doit atteindre simultanément une certaine température et une certaine densité pendant un temps minimum pour obtenir le point de rupture où l'énergie libérée par la fusion est égale à l'énergie dépensée. L'ignition se produit ensuite à un stade beaucoup plus élevé de production d'énergie (impossible à créer aujourd'hui dans les réacteurs actuels). Il s'agit du seuil à partir duquel la réaction est capable de s'auto-entretenir.

Différentes possibilités existent pour « confiner » le plasma : soit l'utilisation de champs magnétiques intenses, soit l'utilisation de faisceaux laser qui, en plus du confinement, ont pour effet de comprimer le plasma, de manière à déclencher le processus de fusion. Dans le premier cas on parle de confinement magnétique ; dans le second, de confinement inertiel. Produire sur Terre des conditions propices à la réalisation des réactions de fusion constitua rapidement un objectif important de recherche, compte tenu de l'immense potentiel énergétique de ce phénomène et de la très grande abondance de l'hydrogène.

La fusion présente trois avantages majeurs. D'abord, elle utilise comme combustible le deutérium dont les réserves terrestres sont quasiment inépuisables et le tritium relativement facile à produire ; son exploitation industrielle permettrait donc de résoudre, pour de nombreux millénaires, les problèmes liés à notre approvisionnement énergétique. En effet, les chiffres sont éloquents : l'exploitation d'une centrale électrique de 1000 MW basée sur la combustion du charbon nécessite de brûler pas loin de 3 millions de tonnes de charbon par an.

A même puissance, une centrale fonctionnant sur le principe de la fusion nucléaire ne consommerait qu'un quart de tonne d'un mélange basé pour moitié de deutérium et pour moitié de tritium. Alors que les effets liés à la combustion de combustibles fossiles (charbon et pétrole par exemple) risquent d'altérer à long terme nos conditions de vie, le développement d'une source d'énergie ne produisant aucun gaz à effet de serre rencontre évidemment un intérêt grandissant.

Le deuxième avantage majeur de la fusion est sans conteste la sécurité inhérente à ce phénomène. D'abord, seule la quantité de combustible nécessaire au fonctionnement du réacteur (à peine quelques grammes) est injectée dans l'enceinte du tokamak. Ainsi, si l'état du réacteur déviait trop des conditions normales d'exploitation, il est très simple de le mettre hors service rapidement. De même, l'injection accidentelle d'éléments indésirables (comme de l'air) dans l'enceinte, stopperait immédiatement les réactions de fusion. En fait, les quantités de plasma qui se trouveront au sein du réacteur seront si faibles qu'un incident, aussi improbable soit-il, ne pourrait jamais entraîner un événement catastrophique du type d'une explosion et limiterait ses effets à la mise hors service du réacteur.

Enfin le dernier avantage de la fusion, et non le moindre, est sa sûreté et sa propreté. La fusion nucléaire ne génère aucun gaz à effet de serre et produit des déchets radioactifs dont la dangerosité et la durée de vie n'ont rien à voir avec ceux de la fission nucléaire. En effet, le deutérium est un isotope qui se trouve à l'état naturel et dans une fraction non négligeable dans l'hydrogène qui constitue l'eau. Sa production est donc aisée et non polluante.

De plus, contrairement aux réacteurs nucléaires actuels basés sur la fission, la réaction de fusion ne génère pas, directement ou indirectement, de sous-produits radioactifs de longs temps de vie. Le tritium, quant à lui, est certes un élément radioactif. Il se dégrade en émettant des rayonnements énergétiques. Cependant, son temps de vie, c'est-à-dire la période pendant laquelle il émet des rayonnements potentiellement dangereux, est très courte (de l'ordre de la dizaine d'années).En fait, une partie importante du tritium consommé dans les réacteurs de fusion pourrait directement être produite par les interactions entre ces neutrons fortement énergétiques et le lithium constituant certains éléments des parois du réacteur. Ainsi, le seul combustible radioactif serait produit et consommé directement dans le réacteur.

Contrairement à ce qu'affirment de manière mensongère certains écologistes, les déchets radioactifs produits par la fusion auront un temps de vie court (une dizaine d'années) et leur dangerosité n'est en rien comparable a celle des déchets actuels qui restent radioactifs pendant des milliers d'années. La nuisance des déchets issus de la fusion pourra facilement être gérée par un stockage et une surveillance à court ou moyen terme. Ainsi les déchets de la fusion ne constitueront ni un fardeau ni un danger pour les générations qui nous suivront.

Il est capital de rappeler ces vérités scientifiques au moment où certains écologistes irresponsables et aveuglés par leur idéologie sectaire et technophobe rejettent par principe la fusion thermonucléaire et entretiennent dans l'esprit du grand public une confusion regrettable et malhonnête entre fusion et fission nucléaires, alors que ces deux phénomènes physiques sont fondamentalement différents.

Il faut aussi souligner que, contrairement à d'autres affirmations , la fusion thermonucléaire contrôlée a fait des progrès considérables depuis 30 ans : des réactions de fusion ont bien été produites dans des tokamaks. Ainsi, en 1997, le tokamak européen JET (situé près d'Oxford en Angleterre) est parvenu à produire une énergie de fusion de 16 MW. Cependant, en raison de la taille réduite des réacteurs actuels, le bilan énergétique de ces réactions ne permet pas encore leur exploitation.

Il est vrai que la construction d'un réacteur de fusion produisant suffisamment d'énergie est une tâche difficile et coûteuse qui ne peut se concevoir que sur le long terme et dans un cadre de coopération scientifique internationale. C'est pourquoi la réalisation d'ITER constitue un enjeu techno-économique fondamental.

Le lancement du projet ITER intervient en effet au moment où la consommation et le prix des énergies fossiles s'envolent sous l'effet de la croissance économique asiatique et de l'épuisement des réserves, avec notamment la perspective d'un baril de pétrole à 100 dollars d'ici 5 ans. La consommation de pétrole devrait passer à plus de 5 milliards de tonnes d'ici 2020 et à ce rythme, nous aurons consommé toutes les réserves connues, conventionnelles ou non, dans moins de 70 ans.

Il est donc vital pour l'Humanité de diversifier sa production énergétique et de développer de manière considérable toutes les sources d'énergie durables et respectueuses de l'environnement. Dans cette perspective, la maîtrise de la fusion thermonucléaire contrôlée représente bien un défi et un enjeu scientifique et économique majeur, même si elle ne pourra peser dans le bilan énergétique mondial qu'à partir de 2040 ou 2050. Il est vrai que les difficultés techniques qui restent à surmonter pour maîtriser cette énergie sont immenses mais le jeu en vaut la chandelle et, comme disait Sénèque, "Ce n'est pas parce que c'est difficile que nous n'osons pas mais parce que nous n'osons pas que c'est difficile."

Ceux qui, aujourd'hui, nous affirment de manière péremptoire que la fusion thermonucléaire "est un délire technologique qui ne marchera jamais" me rappelle d'autres voix qui, en leur temps, affirmaient que jamais un objet plus lourd que l'air ne pourrait voler, que jamais un train ne pourrait rouler à plus de 100 km/h ou que jamais une machine ne saurait reconnaître une voix humaine !

Pour imaginer et préparer notre avenir, nous devons élargir nos horizons de pensée et voir plus loin que nos propres vies. Je suis persuadé qu'un jour l'homme parviendra à dompter cette fabuleuse énergie des étoiles, faisant entrer notre civilisation dans une nouvelle étape de son évolution et de sa connaissance de la matière et de l'Univers.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
NTT DoCoMo a réussi une transmission en mobilité à 1.000 Mbit/s
Jeudi, 30/06/2005 - 00:00

Le numéro un japonais des télécommunications mobiles, NTT DoCoMo, a annoncé être parvenu à transmettre des données sur réseau mobile à un débit de 1.000 Mégabits/seconde (Mbit/s) en déplacement à 20 km/heure, un débit dépassant 20 fois celui des meilleurs réseaux fixes ADSL. Cette expérimentation technique concluant de réseau de 4ème génération (4G) a eu lieu le 9 mai dernier au centre de recherches de NTT DoCoMo à Yokosuka (banlieue sud de Tokyo).

Le système mis en oeuvre repose sur des technologies et algorithmes développés ou optimisés par NTT DoCoMo, fer de lance mondial des technologies mobiles, et premier opérateur à avoir offert commercialement la 3G dès octobre 2001 au Japon. L'opérateur nippon dit être parvenu à obtenir ce résultat notamment grâce à une forte augmentation de l'efficacité spectrale (quantité de données transmises par bande de fréquence) à travers une combinaison de technologies. A l'instar du ministère japonais des Télécommunications (MIC) et de l'opérateur concurrent KDDI, NTT DoCoMo prévoit une exploitation commerciale des réseaux très haut débit mobiles de 4ème génération aux alentours de 2010. Les réseaux de téléphonie de troisième génération (3G) actuellement déployés offrent un débit théorique maximum de 0,3 Mbit/s à 2,1 Mbit/s, en fonction des technologies mises en oeuvre. NTT DoCoMo prévoit d'offrir commercialement en 2006 un débit de 14,4 Mbit/s, et de 30Mbit/s en 2007/2008, devançant ainsi tous ses homologues nationaux et étrangers.

Docomo n'est pas le premier à avoir atteint ce niveau de débit sur réseau mobile, puisque Siemens l'a devancé en décembre 2004. Le groupe allemand préfère lui tabler sur 2015 quant à l'arrivée des services 4G.

Dans les deux cas, le gigabit de données a été obtenu en utilisant des antennes multiples de type "MIMO" (Multiple Input, Multiple Output). La technologie MIMO est également destinée à améliorer les débits de réseaux sans fil de type Wi-Fi, dans le cadre du développement de la norme 802.11n qui doit succéder au 802.11g.

Son principe est de s'appuyer sur un grand nombre d'antennes, bien plus que pour la 2G ou la 3G, très proches physiquement les unes des autres. Chacune peut transmettre des flux de données différents, en empruntant un seul et même canal radio, et la même bande de fréquence.

NTT

Japon : le téléphone mobile se transforme en liftier
Jeudi, 30/06/2005 - 00:00

A partir de juillet les sociétés résidentes du nouveau gratte-ciel Shinjuku Park Tower à Tokyo vont pouvoir expérimenter un nouveau système de contrôle d'accès qui transformera leur téléphone portable en télécommande pour ascenseur et en badge d'accès. Le promoteur Tokyo Gas Urban Development va mettre en oeuvre pour la première fois dans cette tour de luxe ultra-sécurisée des ascenseurs équipés d'un lecteur de carte à puce sans contact pour gérer les accès aux étages.

Les résidents équipés d'un téléphone intégrant une puce sans contact (Felica de Sony) n'auront qu'à passer leur terminal devant le lecteur pour grimper aux étages. Grâce à leur téléphone, ils pourront préprogrammer l'étage auquel ils veulent se rendre, à condition qu'ils y soient autorisés en fonction de leur statut. Ils devront au préalable télécharger un petit logiciel sur leur téléphone pour profiter de ce service. Les résidents qui n'ont pas de terminal compatible pourront utiliser des cartes à puce sans contact en plastique, mais les possibilités en seront plus limitées.

Outre la fonction de badge d'accès au sein de la tour et de groom d'ascenseur, le téléphone portable équipé de la puce Felica peut en effet aussi servir de porte-monnaie électronique (magasins, distributeurs), de carte de fidélité de boutiques, ou encore à partir de 2006 de billet de train urbain. Pour le moment seul le premier opérateur japonais NTT DoCoMo propose des terminaux compatibles, mais ses deux rivaux KDDI et Vodafone devraient également intégrer ce type d'appareils dans le catalogue d'ici la fin de cette année.

AFP

Lancement aux Etats-Unis du WPS, système de géolocalisation par Wi-Fi
Jeudi, 30/06/2005 - 00:00

La firme américaine Shyhook Wireless commercialise depuis le 20 juin 2005 une application permettant une localisation géographique à partir d'appareils gérant le Wi-Fi, sur le modèle du GPS. Cette application, baptisée WPS (Wi-Fi Positioning System) permet de localiser un appareil connecté au réseau sans fil par triangulation. Shyhook a constitué une base de données recensant l'emplacement de plus d'1,5 million de points d'accès Wi-Fi dans 25 grandes villes des Etats-Unis.

Afin de localiser un appareil, WPS envoie un signal à la machine cible, sur laquelle est installé un logiciel client qui va se charger de scanner l'environnement à la recherche de réseaux sans fil. L'application se charge ensuite de recouper les différents résultats obtenus et calcule la position géographique à partir des données contenues dans la base. Selon Shyhook, le processus prend environ une seconde et retourne des résultats d'une précision comprise entre 20 et 40 mètres.

WPS est compatible avec les systèmes Windows XP, Windows Mobile et prochainement avec Palm OS. Contrairement au système GPS, qui repose sur un faisceau de satellite, WPS n'a pas besoin de composant particulier pour fonctionner.

WPS se distingue encore du GPS par sa couverture et son efficacité en milieu urbain. Plus les points d'accès sans fil sont nombreux, plus le calcul de la position sera précis ! En outre, la technologie Wi-Fi n'est pas embarrassée par les obstacles et fonctionne très bien en intérieur, contrairement au GPS. La solution est économique puisqu'aucun matériel supplémentaire n'est à prévoir. Mais le WPS est limité aux zones couvertes par le Wi-Fi.

WFP

Un logiciel qui reconnaît les archives manuscrites
Jeudi, 30/06/2005 - 00:00

Voilà une innovation qui va faire le bonheur des généalogistes ! Le nouveau système de consultation d'archives développé par des informaticiens de l'Irisa permet en effet d'accéder automatiquement à des documents manuscrits préalablement numérisés et stockés dans une base de données. Il suffit de taper un nom sur le clavier d'un simple ordinateur pour visualiser en quelques secondes sur l'écran le ou les documents sur lesquels il figure : acte de naissance, de mariage ou de décès, recensement, matricule militaire, etc. De quoi grandement faciliter et accélérer la recherche, souvent fastidieuse, d'un lointain ancêtre dont on a perdu la trace.

Aux Archives départementales des Yvelines où ce logiciel révolutionnaire vient d'être mis en service pour la première fois, deux «postes de lecture du futur» viennent d'être installés dans l'une des salles du bâtiment ultramoderne, inauguré en octobre 2003 à Saint-Quentin-en-Yvelines. Cette fois plus besoin de souris ou de clavier. Stylo numérique en main, le lecteur écrit directement le patronyme recherché sur une tablette graphique dite «à retour visuel», sorte d'écran plat posé sur le bureau, à la manière d'un sous-main. Les documents correspondants à la requête s'affichent là aussi, quasi instantanément, sous les yeux du généalogiste qui a l'étrange impression de les avoir physiquement en main, comme s'il consultait le «vrai» registre. Les archives numérisées remontent jusqu'au XVIe siècle !

«Nous avons mis un questionnaire à la disposition des utilisateurs pour bénéficier de leur retour d'expérience», explique Bernard Coüasnon, responsable de l'équipe Imadoc de l'Irisa qui a conçu le logiciel et l'ensemble stylo-palette graphique dont l'usage pourrait se généraliser dans un proche avenir. En plus des annotations automatiques qu'il produit grâce à sa capacité à reconnaître des formes manuscrites, mais aussi à détecter des structures et des champs propres au document (tableau, paragraphe), ce qui permet de localiser le nom recherché, le système gère également les annotations manuelles apportées par les utilisateurs eux-mêmes. Une personne qui consulte un acte de naissance, par exemple, peut être amenée à préciser ou à ajouter certaines informations manquantes. De la sorte, elle en fait bénéficier les autres lecteurs qui peuvent y accéder en se connectant au réseau.

Autre intérêt : le logiciel est capable de réaliser un découpage virtuel des pages et d'occulter certaines parties qui doivent rester confidentielles. C'est notamment le cas des registres de matricules militaires de moins de cent trente ans dont certaines informations relèvent du secret médical. En masquant ces dernières, le système offre la possibilité aux généalogistes et aux historiens de prendre connaissance de précieuses données, dont l'accès leur était jusqu'ici interdit.

Figaro

Londres informe ses habitants de la qualité de l'air par SMS
Jeudi, 30/06/2005 - 00:00

Londres vient de dévoiler le projet (YourAir), développé par le Cambridge Environmental Research Consultants (Cerc). Ce projet est actuellement testé dans le centre de la capitale britannique ainsi que dans l'un des quartiers les plus peuplés de Londres (Croydon, 330 000 habitants). Les personnes asthmatiques et les individus fragiles (malades du coeur ou des poumons) pourront ainsi recevoir directement sur leur téléphone mobile des prévisions, notées sur une échelle de 1 à 10, concernant la diffusion de polluants comme l'ozone (O3) ou le dioxyde d'azote (NO2). De plus, contrairement à certaines solutions précédemment mises en place, YourAir fournit une analyse de la pollution rue par rue. Ce qui permet aux personnes informées de préparer au mieux leur itinéraire du lendemain.

Cerc

ESA

Première télévision haute définition et ultra-haut débit
Jeudi, 30/06/2005 - 00:00

Haier Corporation et Freescale Semiconductor viennent de lancer leur première télévision HDTV intégrant un module de réception UWB (Ultra-Wideband). Cette TV LCD haute définition pourra donc recevoir en très haut débit des flux audio-vidéo, sans aucun fil nécessaire.

La télévision fait une diagonale de 37'' soit 94 cm, et supporte les résolutions HDTV jusqu'au 1080i (1920 x 1080 entrelacé). Le module de réception UWB développé par Freescale « donnera à l'utilisateur la liberté de placer sa télévision où il veut ». L'UWB a pour but de compléter les technologies WiFi aux normes actuelles (802.11 b et g) et le WiMax, qui fonctionne à beaucoup plus grande échelle.

D'une portée équivalente au WiFi actuel, l'UWB possède en revanche une bande passante bien plus élevée, qui se répartit sur une large bande de fréquences radio allant de 3,1 GHz à 10,6 GHz alors que le WiFi fonctionne sur une fréquence radio fixe de 2,4 GHz. Les débits de l'UWB peuvent monter très haut, jusqu'à 110 Mb/s à une distance de 20 mètres, contre 5 à 7 Mb/s pour le WiFi. Ce gros débit sans fil permettra alors de véhiculer des flux HDTV sans aucun problème, ces derniers ne constituant « que » 20 Mb/s en moyenne. La norme UWB est estampillée 802.15.3a.

PCI

^ Haut
Avenir
Nanotechnologies et Robotique
Des patrouilles de robots pour garder les immeubles japonais
Jeudi, 30/06/2005 - 00:00

Les robots pourraient bientôt patrouiller au Japon dans les bureaux, les centres commerciaux et les banques pour assurer la sécurité des bâtiments et du personnel et maintenir les intrus à l'écart. La firme japonaise de sécurité Sohgo Security Services Co. a mis au point "Guardrobo D1", un robot de 109 centimètres, équipé d'une caméra et de capteurs, capable de patrouiller sur des zones préprogrammées et de détecter les signes d'une agitation. En cas d'alerte, le robot communiquera par radio avec les gardes humains et leur enverra le cas échéant les images des intrus, de l'incendie ou de l'inondation. D'un point de vue commercial, de tels robots sont indispensables au Japon, si l'on prend en compte le vieillissement de la population, a déclaré Sohgo Security. "Dans un futur proche, il est certain que la sécurité des forces vives de la nation sera de plus en plus difficile (...) et cela aura un fort impact sur l'industrie de la sécurité", a déclaré dans un communiqué le groupe nippon. Environ un Japonais sur cinq a actuellement 65 ans ou plus et cette proportion devrait grimper à un sur trois en 2040, selon des données gouvernementales.

Exposition d'Aichi

Un exosquelette motorisé pour aider les handicapés
Jeudi, 30/06/2005 - 00:00

La technologie des exosquelettes s'inspire du monde animal. Le terme désigne, chez les insectes, la carapace. Appliquées à l'homme, ces prothèses externes, très évoluées, couplant capteurs, “muscles artificiels” et informatique, permettent d'amplifier la force naturelle des individus.

Créée en 2004, Wotan Systems intervient sur ce secteur de pointe avec une première application dans le domaine de l'assistance aux personnes handicapées et âgées. Un 1er prototype opérationnel d'exosquelette de bras couplé à un fauteuil roulant est en cours de développement.

Pour Patrick Sadok, co-fondateur de Wotan Systems, “cet exosquelette s'adresse à des patients qui ont des déficiences musculaires ou neuromusculaires, comme des scléroses en plaque, des myopathies,..., mais aussi aux personnes âgées. Il doit permettre de redonner de l'autonomie à ceux qui l'ont en partie perdue”. Grâce à ce prototype unique au monde, l'effort de la personne handicapée est transmis à un bracelet muni de capteurs. La force ainsi exercée est analysée par l'ordinateur intégré dans le dossier du fauteuil puis amplifiée dans des proportions adéquates par des muscles artificiels pneumatiques.

La réalisation de ce système est le fruit d'une collaboration avec le laboratoire Biomécanique et Modélisation Humaine de l'Université Claude Bernard Lyon 1. D'autres collaborations scientifiques sont envisagées, notamment dans le domaine de l'électronique. Et Patrick Sadok d'ajouter, “une des forces de notre brevet réside dans notre capacité à gérer un rendu de force proportionnel à la volonté de mouvement. La réalisation de ce prototype s'attaque à des problèmes importants, l'épaule étant, mécaniquement parlant, une des articulations les plus complexes du corps humain”.

Wotan Systems envisage aussi de développer son 1er prototype des membres inférieurs pour les personnes handicapées. Ainsi un rêve pourra se réaliser : pouvoir marcher à nouveau.

WS

^ Haut
Matière
Matière et Energie
Semi-conducteurs : de nouvelles perspectives grâce aux nanotubes
Jeudi, 30/06/2005 - 00:00

Zhen Yu et Peter Burke, de l'Université de Californie à Irvine, ont mesuré la conductance électrique de nanotubes de carbone simple paroi (ou SWNT pour Single Wall Nanotubes) à des fréquences micro-ondes. Lors de précédentes recherches, les chercheurs avaient observé une transmission de courant électrique dans le spectre des micro-ondes (de 1 à 10 GHz) dans des SWNT de 10 et 100 micromètres, sans toutefois réussir à évaluer la conductance de ces nanotubes.

Leurs nouveaux travaux, publiés dans la revue Nano Letters, ont permis de déterminer ce paramètre. L'équipe a ainsi découvert que la conductance ac est sensiblement égale aux conductances dc pour des fréquences allant jusqu'à 10 GHz. Ceci implique que les SWNT sont capables de propager le signal électrique dans un régime de haute fréquence. Cette démonstration est un pas supplémentaire vers la mise au point d'interconnexions très rapides (bien plus rapides qu'avec le cuivre actuellement utilisé) à l'aide de connecteurs en nanotubes dans les circuits intégrés. L'équipe travaillant par ailleurs sur des transistors à partir de nanotubes, elle espère à terme développer des semi-conducteurs "tout nanotubes" aux performances supérieures aux semi-conducteurs actuels.

ST Presse USA 737

NL

Puce électronique record à un demi million de pages par seconde
Jeudi, 30/06/2005 - 00:00

Le géant sud-coréen de l'électronique Samsung Electronics a mis au point un microprocesseur à mémoire graphique capable de transmettre l'équivalent en données d'un demi-million de pages de journal par seconde, un record, a-t-elle annoncé. La production commerciale de cette mémoire, la plus rapide du monde, débutera à la fin de l'année. Elle possède une bande passante pouvant aller jusqu'à 8 gigabits par seconde, ce qui la rend 70 % plus rapide que les puces actuelles, a précisé le fabricant électronique. Un demi-million de pages par seconde représente l'équivalent de 34 années de publication d'un quotidien grand format de 40 pages.

Ce microprocesseur de nouvelle génération permettra de fournir des animations et des graphiques à haute résolution dans les ordinateurs personnels, ordinateurs de bureau et consoles de jeux, a affirmé le fabricant. Par ailleurs, Samsung a annoncé le début de la production de masse de sa nouvelle puce de mémoire GDDR3, dont la mise au point avait été annoncée en décembre.

Cette puce de type DRAM (Dynamic Random Access Memory, ou mémoire vive dynamique à accès aléatoire), à capacité de 512 mégabits (64 Mo), peut traiter des données à la vitesse de 1.066 Mb par seconde, soit l'équivalent de 8.000 pages de journaux et le double des puces actuelles de type DDR2 DRAM. Selon la firme Mercury Research, citée par Samsung, le marché mondial des mémoires graphique DRAM va croître de 43 % cette année pour atteindre 1,5 milliard de dollars et devrait excéder 2 mds en 2006.

AFP

Les quarks étranges, fugitifs constituants des protons
Jeudi, 30/06/2005 - 00:00

Les protons et les neutrons, qui s'assemblent pour former les noyaux atomiques, ont longtemps été considérés comme les constituants ultimes de la matière. Mais dans les années 1970, les physiciens ont montré qu'ils étaient en réalité eux-mêmes constitués de particules plus élémentaires, les « quarks » (porteurs d'une charge électrique). Plus précisément, ils sont faits de l'assemblage de quarks up et down (les deux quarks les plus légers, parmi les six existant dans l'Univers).

Ces quarks up et down sont liés par l'interaction forte : plus on cherche à éloigner deux quarks, plus ils s'attirent. Les quarks ne peuvent pas être extraits des protons ou des neutrons et observés à l'état libre. Pour rendre compte de ce nouvel état de fait, les physiciens ont construit une théorie, appelée la chromodynamique quantique (dont les auteurs ont reçu le prix Nobel en 2004). Cette théorie prévoit que protons et neutrons ne sont pas constitués des seuls quarks up et down, mais également d'une « mer » de paires quark/anti-quark, dont ceux de type « étrange », produites durant une fraction de seconde par l'interaction forte entre quarks up et down. Les quarks étranges de cette mer, les plus légers après les quarks up et down, peuvent se matérialiser fréquemment et influer sur les propriétés globales du proton. La mesure d'un tel effet sur les distributions de charges et de moments magnétiques à l'intérieur du proton est en cours depuis une décennie.

L'expérience réalisée par la collaboration G-zéro au JLab est conçue pour observer les distributions de charges et de moments magnétiques dans les protons, un peu comme on observe la structure interne du corps humain par radiographie X. Pour observer le proton à son échelle (10-15 mètre), les physiciens utilisent des faisceaux d'électrons d'une énergie de plusieurs milliards d'électrons-volts (plus les objets à observer sont petits, plus l'énergie nécessaire est grande). La qualité des faisceaux et des ensembles de détection représente une prouesse technique. Avec ces instruments, la collaboration G-zéro a réussi à mettre en évidence l'influence des quarks étranges, malgré leur apparition fugitive, sur les distributions des charges et des moments magnétiques à l'intérieur des protons. De façon générale, la connaissance de cette distribution aidera les physiciens à comprendre comment l'interaction forte crée une « mer » de particules. Ce résultat est donc important pour la compréhension générale de l'interaction forte, qui régit les comportements du monde subatomique, notamment la construction d'objets aussi fondamentaux que les protons et les neutrons, et pour sa description dans le cadre de la théorie de la chromodynamique quantique.

CNRS

^ Haut
Espace
Espace et Cosmologie
Deep Impact : une fantastique odyssée pour percer les secrets d'une comète
Jeudi, 30/06/2005 - 00:00

C'est le 4 juillet 2005 à 07h52 (heure de Paris) que la mission Deep Impact de la NASA, lancée le 12 janvier dernier, commencera l'exploration de l'intérieur d'une comète ; en y créant un cratère à l'aide de l'impacteur (une sorte de missile de 370 kilos) qu'elle aura largué, la sonde pourra examiner le coeur de la comète en le survolant immédiatement après l'impact. Pour la première fois, la croûte et l'intérieur d'une comète vont pouvoir être étudiés. Comme le noyau de la comète est composé de matière primitive, il révèlera des informations sur les débuts du Système solaire. Cette mission servira tout naturellement de précurseur à la sonde Rosetta de l'ESA, qui, pour sa part, aura la tâche délicate de se mettre en orbite autour d'une comète puis d'atterrir sur celle-ci.

L'impact produira un cratère dont le diamètre devrait être compris entre la taille d'une maison et celle d'un terrain de football, sans qu'on puisse prévoir sa profondeur. Des débris de glace et de poussière seront éjectés du cratère, mettant ainsi à jour de la matière primitive. Le reflet de la lumière du Soleil sur la matière éjectée provoquera un phénomène lumineux qui se dissipera lorsque les débris se disperseront dans l'espace ou retomberont sur la comète. La sonde et l'impacteur enverront à la Terre, en temps quasi-réel, des images spectaculaires de l'approche finale de l'impacteur, et peut-être de l'impact lui-même voire du cratère.

L'intérêt scientifique de cette expérience sans précédent est considérable : le matériel à l'intérieur du noyau de la comète est primitif. C'est-à-dire qu'il renferme les éléments de la composition initiale des débuts du Système Solaire, quelques millions d'années après sa formation. En raison de nos connaissances limitées de la structure même des comètes, les données qui seront recueillies après l'impact sont d'une grande importance.

Les informations attendues détailleront la composition chimique du gaz de la comète et de la coma, la nébulosité diffuse qui entoure le noyau. Quant à l'étude approfondie de ce matériel primitif, elle fournira des indices importants sur l'origine des comètes et de la formation du système solaire. Enfin, on en saura un peu plus sur les molécules cométaires qui pourraient avoir joué un rôle important dans la formation de l'atmosphère des planètes et l'apparition de la vie sur Terre.

L'ESA fera appel à la fois à son chasseur de comète Rosetta et à son observatoire XMM-Newton pour observer l'impact. De plus, des observations terrestres seront faites par le télescope (d'une résolution de un mètre) de la station sol optique de l'ESA, située à Tenerife (Iles Canaries, Espagne). Le télescope spatial Hubble NASA/ESA sera également mis à contribution. L'observatoire austral européen (ESO) braquera sur ce phénomène ses sept télescopes, situés à La Silla et au Paranal (Chili), qui disposent actuellement des instruments les plus puissants au monde, présentant la meilleure résolution qui soit dans le visible et l'infrarouge.

ESA

NASA

Galileo : l'UE choisit l'offre commune des deux consortiums
Jeudi, 30/06/2005 - 00:00

L'Union européenne a choisi, lundi 27 juin, de faire collaborer les deux consortiums candidats au contrat de construction et d'exploitation du système européen de navigation par satellite Galileo, réponse européenne au système de positionnement américain GPS. Le Galileo Joint Undertaking (GJU), créé par la Commission européenne et l'Agence spatiale européenne (ESA), a annoncé, par communiqué, avoir sélectionné cette offre après avoir privilégié la piste de la concurrence entre les deux groupes.

"L'évaluation de cette offre conjointe comparée aux deux offres individuelles a démontré une réduction significative de la contribution financière du secteur public et un accroissement des recettes commerciales prévisibles", peut-on y lire. Les deux groupes sont, d'une part, iNavSat - composé de l'Européen EADS, du Français Thalès et du Britannique Inmarsat - et, d'autre part, Eurely, qui comprend le Français Alcatel, l'Italien Finmeccanica ainsi que les Espagnols AENA et Hispasat. Dans un communiqué commun, Eurely et iNavSat ont salué cette décision. "La décision prise aujourd'hui par le GJU représente un pas important pour le programme Galileo", ont-ils souligné, remarquant que "la fusion des consortiums permettra de dégager de nombreuses synergies".

Ils devront avoir achevé avant le fin de l'année les négociations avec le GJU pour les détails de la concession de Galileo, sur la base de leur offre conjointe. Il s'agit de définir de manière précise les obligations du concessionnaire et des autorités publiques, notamment en ce qui concerne le financement et la couverture de risques. Le système européen doit entrer partiellement en service en 2008 avec trente satellites, essentiellement dans un but civil, pour l'orientation des automobilistes ou les missions de sauvetage

Galileo est une révolution technologique énorme qui apportera un nombre important de retombées industrielles et des bénéfices pour les entreprises européennes", s'est réjoui le commissaire aux transports, Jacques Barrot. La mise en commun des offres présente selon la Commission une réduction du financement public pendant toute la durée de la concession, jusqu'en 2026, et une accélération du calendrier, le système étant pleinement opérationnel à partir de 2010.

Les recettes commerciales seront également accrues de 20 % grâce à la combinaison du savoir-faire des deux consortiums dans le domaine des télécommunications et du transport. Une société entièrement séparée des deux groupes sera gérée afin de disposer d'une véritable autonomie. La phase de définition du projet, qui est en cours depuis 2002 et se terminera cette année, est d'un coût total de 1,1 milliard d'euros et prévoit le lancement d'un satellite.

La phase de déploiement des satellites et des stations terrestres de réception se fera de 2006 à 2008 pour un coût de 2,1 milliards d'euros, dont deux tiers seront pris en charge par le secteur privé, très intéressé par un projet qui permettra de déterminer très précisément la position des objets. Ensuite, les coûts d'exploitation sont estimés à 220 millions d'euros par an entièrement pris en charge par le privé, à l'exception d'une contribution exceptionnelle du public de 500 millions d'euros par an pour les premières années.

Le Monde

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La Suisse inaugure sa plus grande centrale solaire
Jeudi, 30/06/2005 - 00:00

Près de Genève, vient d'être inaugurée la plus grande centrale d'électricité solaire de Suisse, une installation vaste comme deux terrains de football qui doit permettre d'alimenter 300 familles pendant un an. Implantée au bord du Rhône à côté d'un barrage hydro-électrique, la centrale rassemble 6.000 panneaux solaires d'une puissance totale d'un million de watts, a indiqué Raymond Battistella, directeur général des Services industriels de Genève (SIG), le monopole public de distribution d'électricité dans le canton de Genève. La capacité de la Suisse est de près de 20 millions de watts pour l'électricité solaire, par rapport à une consommation électrique totale de 55 milliards de watts.

Cette part très faible par rapport à celle de pays du Nord de l'Europe et particulièrement de l'Allemagne doit augmenter à l'avenir. La Suisse, dont l'électricité est à 55 % d'origine hydraulique et à 35 % nucléaire, ambitionne de porter la part des nouvelles énergies renouvelables à 10 ou 15 % du total dans les 20 années qui viennent, a expliqué M. Battistella à la presse. Les SIG proposent à leurs clients de payer leur électricité plus cher en échange de la garantie que ce courant a été produit de façon écologique, notamment solaire. Déjà 6,5 % des clients ont accepté de payer leur kilowattheure 0,27 FS (0,17 EUR) au lieu de 0,22 d'où la nécessité d'augmenter d'ici à 2009 la part des énergies renouvelables à 5 % du total, selon les SIG. La nouvelle centrale a nécessité un investissement de 7,5 millions de FS (5 M EUR), somme qui doit être amortie dans 20 ans, selon la société.

Moniteur




^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des spermatozoïdes et des ovules artificiels dans 10 ans
Jeudi, 30/06/2005 - 00:00

Une étude publiée le 20 juin 2005, par les chercheurs britanniques Behrouz Aflatoonian et Harry Moore, de l'université de Sheffield, dans le centre de l'Angleterre, montre qu'il est possible d'envisager la production de spermatozoïdes et d'ovules «artificiels». «Nous sommes à encore 10 ans d'une mise en pratique clinicienne, nous avons encore beaucoup de travail à faire et nous devons prouver que cette technique est sans risque», a reconnu le professeur Moore, quelques heures avant de dévoiler officiellement les résultats de ses recherches auprès de ses pairs, à Copenhague, dans le cadre d'une conférence de la Société européenne sur la reproduction humaine et l'embryologie. Des études précédentes sur des souris signées aux Etats-Unis et au Japon avaient déjà permis de démontrer la possibilité de produire des cellules souches germinales à partir de cellules souches embryonnaires. Et l'équipe du professeur Hans Scholer, à l'université de Pennsylvanie, avait même réussi à produire des embryons de souris à partir de sperme «artificiel» généré de cette façon.

Les études menées par les professeurs Aflatoonian et Moore ont porté sur des lignées de cellules souches embryonnaires issues d'embryons produits dans le cadre d'une fécondation in vitro. Des cellules souches qui pour certaines, au bout de deux semaines d'incubation, se sont mises à produire des protéines normalement uniquement présentes dans des spermatozoïdes. Selon Anna Smajdor, chargée des questions éthiques au sein du Imperial College, une célèbre université londonienne, cette découverte «ouvre la voie à de nouveaux défis», }et par exemple «la fertilité des femmes ne serait plus limitée par la ménopause », souligne Anna Smajdor. «De même, un homme pourrait seul être à l'origine d'un enfant à partir de son sperme et d'un oeuf qu'il aurait produit lui même, via cette technique», a-t-elle commenté, estimant que cela posait «de nouvelles questions sur la façon dont nous définissons la parenté».

Le professeur Moore, prudent, a refusé de s'engager avec certitude sur le fait qu'une cellule souche germinale obtenue à partir d'un homme puisse dériver et devenir un oeuf. De même il a totalement réfuté l'accusation selon laquelle cette technique reviendrait à contourner l'interdiction du clonage reproductif. En revanche, elle permettrait de pallier le manque de donneurs de spermes et d'ovules. Au Royaume-Uni, où un couple sur sept a des problèmes de fertilité, seuls 250 hommes et 1.100 femmes font don de leur sperme ou de leurs ovocytes.

BBC

Des cellules souches à partir de la peau
Jeudi, 30/06/2005 - 00:00

Une équipe américaine a réussi à isoler des cellules souches à partir d'échantillons de la peau. Celle-ci pourrait donc constituer une réserve quasi inépuisable de cellules permettant de réparer les 3 principaux tissus constitutifs de l'organisme : les os, les muscles et le tissu adipeux. Il s'agit d'une découverte "enthousiasmante".

Des expériences restent encore à mener pour vérifier que les tissus issus de ces cellules restent fonctionnels à long terme. Si c'est le cas, des expériences devraient être rapidement menées sur les animaux. Les scientifiques pensent que ces cellules pourraient servir au traitement des fractures, des lésions musculaires et à la reconstitution de tissus adipeux. Des cellules souches présentant le même intérêt thérapeutique avaient déjà été isolées dans la moelle osseuse et dans le cordon ombilical mais sont plus difficiles à obtenir.

Généthique.org

Un espoir pour le diabète de type 1, traité à l'insuline
Jeudi, 30/06/2005 - 00:00

Pour la première fois, des chercheurs européens sont parvenus à obtenir des rémissions prolongées de diabète de type 1, après seulement six jours de traitement par injections d'anticorps spécifiques. "C'est un formidable espoir pour les diabétiques", selon l'équipe coordonnée par Lucienne Chatenoud, responsable d'une unité de recherche sur le diabète à l'Inserm (Institut national de la santé et de la recherche médicale).

Cet essai d'immunothérapie, publié vendredi dans le New England Journal of Medicine, concernait 80 diabétiques, ayant entre 12 et 39 ans, dépendant depuis peu d'un traitement à l'insuline. La moitié, par tirage au sort, a reçu pendant six jours une injection quotidienne d'un anticorps monoclonal anti-CD3, produit en Grande-Bretagne, et l'autre, un placebo. L'idée est de neutraliser un élément activateur (le CD3) des globules blancs (des lymphocytes T) qui s'attaquent aux cellules productrices d'insuline du pancréas (glande digestive) et les détruisent progressivement.

Chez 75 % des patients traités précocement, les besoins en insuline sont très nettement réduits, même après 18 mois de suivi. L'effet du traitement expérimental s'est ainsi traduit chez la plupart des patients par une réduction considérable de la dose nécessaire d'insuline injectable, en dessous du seuil généralement considéré comme une insulino-indépendance, à partir duquel on pourrait arrêter tout traitement, indique le Pr Chatenou.

"Tout laisse à penser que ce maintien de la production de l'insuline endogène (naturelle), s'il se prolonge au-delà des dix-huit mois actuellement étudiés, diminuera ou préviendra les complications dégénératives de la maladie qui en font encore toute la gravité (rétinopathie, insuffisance rénale, accidents vasculaires)", estiment les chercheurs qui entrevoient des applications pour d'autres maladies immunitaires comme la sclérose en plaque, le psoriasis ou les maladies inflammatoires de l'intestin).

Le diabète de type 1, ou insulino-dépendant (environ 15 % des diabètes, soit quelque 200.000 personnes en France) est une maladie auto-immune, c'est-à-dire que l'organisme s'attaque à certains de ses propres constituants (pour cette maladie, aux cellules fabriquant l'insuline). Sans insuline, les tissus du corps ne peuvent assimiler correctement le sucre (source d'énergie), et ce dernier se retrouve en quantité excessive dans le sang. "Ces résultats ouvrent des perspectives tout à fait nouvelles sur l'immunothérapie du diabète insulino-dépendant. Ils montrent que l'on peut arrêter la progression de la maladie prise à son début", commentent les chercheurs. Ce qui pourrait permettre aux diabétiques de vivre avec leur propre insuline, au lieu de dépendre d'injections.

AFP

Des vaisseaux sanguins artificiels à tous âges
Jeudi, 30/06/2005 - 00:00

Une équipe de l'Université Duke (Caroline du Nord) menée par Laura Nikason a réussi à synthétiser des vaisseaux sanguins à partir de cellules d'individus âgés. Pour cela, il lui a fallu augmenter la capacité de réplication limitée des cellules adultes, liée à l'érosion des télomères. Ces séquences d'ADN qui protègent les extrémités des chromosomes raccourcissent à chaque division cellulaire. Chez les personnes âgées, les télomères sont plus courts et les cellules ont donc moins de cycles de réplication devant elles. Au cours de leurs travaux, parus dans la revue The Lancet, les chercheurs ont récupéré des cellules vasculaires de 4 patients âgés de 47 à 74 ayant subi un pontage coronarien, puis les ont infectées par un virus porteur d'une enzyme, la réverse transcriptase de la télomérase humaine (hTERT), favorisant la croissance des télomères.

Grâce à ce traitement, l'équipe a pu faire se multiplier "à l'infini" les cellules sur une structure cylindrique en silicone (sauf pour les cellules des patients âgés de plus de 67 ans), et obtenir, après sept semaines, des vaisseaux sanguins artificiels qui, bien qu'encore trop fragiles pour être utilisés tels quels, n'en représentent pas moins une avancée intéressante. Chaque année en effet, près de 400000 pontages coronariens sont pratiqués aux Etats-Unis. Au cours de cette procédure, un morceau de veine normalement prélevé sur la jambe (veine saphène) est utilisé pour contourner l'occlusion d'une artère coronaire. Mais parfois, dans le cas de pontages multiples ou à répétition, ou d'âge trop avancé, le matériel disponible sur le patient ne suffit plus, d'où l'intérêt potentiel de pouvoir synthétiser en laboratoire des vaisseaux sanguins.

S&T Presse USA 740

USAT

Des spirales en platine pour traiter les anévrismes intra-crâniens
Jeudi, 30/06/2005 - 00:00

En France, 600.000 personnes environ sont porteuses d'un anévrisme intra-crânien, une hernie de la paroi artérielle dont la rupture peut entraîner la mort. Les progrès de la neurologie interventionnelle permettent aujourd'hui d'en traiter une grande partie, notamment en remplissant le sac anévrismal par des spirales en platine. "Un anévrisme qui se rompt doit être traité tout de suite. En France, 2.500 anévrismes qui saignent sont à traiter chaque année", a déclaré le Pr Jacques Moret, chef de service de neuroradiologie interventionnelle et fonctionnelle à la Fondation Adolphe-Rothschild (Paris), lors d'une conférence de presse.

Traités pendant longtemps par la chirurgie, les anévrismes intra-crâniens bénéficient aujourd'hui des avancées technologiques : le neuro-radiologue glisse un cathéter dans l'artère fémorale du patient jusqu'à l'artère carotide interne, avant de naviguer dans le système vasculaire intracrânien.

Arrivé à hauteur de l'anévrisme intra-crânien, il remplit le sac anévrismal avec une spirale en platine, un métal non corrosif, de façon à le fermer jusqu'au niveau du collet. Aujourd'hui, "70 % des malades sont traités par voie endovasculaire", a ajouté le Pr Moret. "On n'a plus jamais recours d'emblée au traitement chirurgical, sauf si le traitement endovasculaire est contre-indiqué", c'est à dire lorsque le collet est trop large ou qu'il est impossible au radiologue de rentrer dans le sac anévrismal, notamment.

Quant aux anévrismes découverts fortuitement, ne présentant pas de symptômes, ils peuvent aussi être traités par voie endovasculaire, en mesurant les bénéfices et les risques encourus par le patient. "Que l'anévrisme soit rompu ou non, les risques de complications sont de 4 %. Le risque de décès pendant l'intervention est de 0,2 % quand l'anévrisme n'est pas rompu, alors qu'il est de près de 2 % dans le cas contraire".

L'accident vasculaire cérébral est un accident dû notamment à l'occlusion d'un vaisseau (accident ischémique). En cause dans bien des cas, la sténose des artères carotidiennes, des artères situées à la base du cou. De 10.000 à 20.000 personnes dans le monde sont porteuses d'un stent carotidien, un petit ressort métallique que le neuroradiologue glisse entre les parois artérielles carotidiennes pour les tenir à distance l'une de l'autre.

Nouvel Obs

Le sport protège contre le cancer
Jeudi, 30/06/2005 - 00:00

Activité physique régulière et sport seraient protecteurs contre le cancer du côlon et le cancer du sein, selon les résultats d'une étude européenne baptisée Epic. Elle a été présentée le 22 juin à Paris dans le cadre d'Eurocancer. Le surpoids et surtout l'obésité contribueraient en revanche à leur excès de survenue. Un message à prendre en compte alors que le cancer du sein frappe aujourd'hui en France 40 000 femmes tous les ans, celui du côlon dépasse 33 000 cas. On savait depuis longtemps que le surpoids et la sédentarité étaient de grands pourvoyeurs de maladies cardio-vasculaires et de diabète. Mais la démonstration de leurs effets négatifs et promoteurs de cancer est une notion beaucoup plus nouvelle.

Après presque sept ans de recul de l'enquête Epic, les réductions de risque sont considérables, de l'ordre de 34 % pour les cancers du côlon, aussi bien chez les hommes que chez les femmes qui se dépensent en faisant du sport ou de l'exercice à la maison (ménage, jardinage) ou au cours de leur activité professionnelle. «En recherche épidémiologique, il est rare de trouver des taux aussi importants», se réjouit le docteur Christine Friedenreich, du Centre international de recherches sur le cancer (CICR). «Les plus actifs produisant un effort vigoureux de deux à trois heures par jour ont une diminution de 20 % du cancer colique, les modérément actifs une baisse de 14 %. Ces résultats sont de surcroît indépendants du type d'alimentation et de la corpulence.» D'autres analyses montrent en revanche que les individus en surpoids avec indice de masse corporelle élevé ou IMC (le rapport du poids sur la taille au carré) associé à une adiposité centrale (graisse en excès sur le ventre) ont plus d'adénome et plus de cancers du côlon. Une augmentation qui va de 50 à 100 %, tout particulièrement chez les hommes.

Pour le cancer du sein, la diminution de risque liée à l'activité physique est moindre, autour de 20 %, du moins chez les femmes après la ménopause qui continuent à se dépenser très régulièrement. Autre constatation, l'excès de poids est associé au cancer du sein, du moins chez les femmes qui ne prennent pas de traitement hormonal substitutif à l'occasion de la ménopause. «Les femmes qui prennent plus de 15 kilos entre l'âge de 20 et de 50 ans ont un surrisque de 50 %», estime le docteur Lahmann qui plaide pour une activité physique très régulière, au moins cinq fois par semaine, d'au moins 30 à 45 minutes (marche rapide, vélo, montée des escaliers à pied) et pour un IMC inférieur à 25. «Il faut encourager l'activité physique à tout âge. Il faut surtout que les politiques en prennent conscience et agissent en conséquence, à tous les niveaux (pistes cyclables, piscines, équipements sportifs», }ajoute le docteur Friedenreich.

Pour expliquer ces résultats, les chercheurs formulent pour l'heure des hypothèses. «La durée du transit intestinal est plus courte quand on se dépense, diminuant d'autant le temps de contact avec certains carcinogènes alimentaires», suggère le docteur Friedenreich pour expliquer la réduction du pourcentage de cancer du côlon. L'activité physique participe également à la réduction de l'excès de poids. Or inactivité et surpoids provoquent une cascade de réactions hormonales complexes pouvant être à l'origine des phénomènes de cancérisation au niveau du sein.

«Grâce à cette étude Epic et à d'autres grandes études prospectives, nous avons pu corréler les résultats à l'étude des modes de vie avant même l'apparition des différents cancers et montré qu'il existe bel et bien un lien», tient à souligner le docteur Elio Riboli, responsable de l'unité nutrition et hormones au Circ. «On découvre que les êtres humains, après des dizaines de milliers d'années de sélection génétique, sont faits pour bouger, pour courir, pour se dépenser.» Nouveauté ou redécouverte, une chose est sûre, il faut bouger.

Figaro

Alzheimer : des scientifiques identifient un facteur précoce de prédiction
Jeudi, 30/06/2005 - 00:00

Un simple changement de l'hippocampe, une région impliquée dans la mémoire, semble être un élément prédictif de la maladie d'Alzheimer, près de neuf ans avant l'apparition des premiers symptômes, selon les travaux de scientifiques américains présentés lors de la première conférence sur la prévention de cette neuropathologie.

Un scanner cérébral a été réalisé sur des personnes d'âge moyen et d'autres plus âgées, toutes en bonne santé. Les chercheurs ont découvert que l'utilisation d'une quantité d'énergie inférieure à la normale dans la partie du cerveau baptisée hippocampe était un facteur prédictif fiable de la survenue d'une maladie d'Alzheimer ou d'un trouble de la mémoire dans 85 % des cas.

"Nous venons de découvrir le facteur prédictif le plus précoce", a déclaré la responsable de l'équipe, Lisa Mosconi, de l'école de médecine de l'université de New York. "L'hippocampe semble être la toute première région touchée." Mais il est encore trop tôt pour proposer un PET scan (scanner sophistiqué) comme facteur de prédiction de la maladie d'Alzheimer. Cette découverte doit être confirmée. De plus se posent d'importantes questions d'ordre éthique, la maladie d'Alzheimer ne bénéficiant à l'heure actuelle d'aucun traitement.

La découverte peut toutefois conduire à la mise au point d'un traitement qui retarderait le début de cette maladie dégénérative. La maladie d'Alzheimer touche 4,5 millions de personnes aux Etats-Unis, et ce chiffre pourrait atteindre 14 millions à l'horizon 2050, selon les estimations.

"C'est enthousiasmant de pouvoir parler de prévention, une chose impensable il y a encore dix ans", a confié à l'occasion de cette conférence William Thies, directeur scientifique de l'Association Alzheimer.

D'autres études font apparaître que, chez les adultes dont les parents sont atteints d'une maladie d'Alzheimer, l'hippocampe est moins actif que chez les personnes indemnes de ce risque familial. Pour vérifier la validité de ces informations, l'Institut national du vieillissement vient de lancer une étude dont l'objectif est de réaliser un scanner à 800 américains âgés et d'y détecter des signes précoces de la maladie.

Autres découvertes présentées lors de cette conférence:

-* les gens qui boivent des jus de fruits ou de légumes au moins trois fois par semaine semblent avoir quatre fois moins de risques de développer une maladie d'Alzheimer que ceux qui n'en consomment pas.

-* un bas niveau socio-économique, une maladie parodontale ou encore un accident vasculaire cérébral sont des facteurs prédictifs de la maladie d'Alzheimer plus fiables que les gènes eux-mêmes, selon une étude portant sur 100 personnes atteintes de démence et ayant un jumeau en bonne santé. L'éducation stimulerait la croissance neuronale. La maladie parodontale serait un marqueur de l'inflammation cérébrale.

-* une baisse de l'activité au moment de la vieillesse est aussi un facteur de risque, selon les conclusions de l'Institut national du vieillissement.

MSNBV

Alz.org

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Recherche et développement : Microsoft s'allie aux universités japonaises
Jeudi, 30/06/2005 - 00:00

Microsoft a annoncé mardi un accord avec les principales universités du Japon dans le but d'accroître leur coopération dans la recherche fondamentale et appliquée, domaines dans lesquels le géant américain des logiciels compte augmenter ses investissements. Le Microsoft Institute for Japanese Academic Research Collaboration (IJARC) sera lancé le 1er juillet et sera dirigé par un professeur de l'Université de Tokyo, Katsushi Ikeuchi, a annoncé le président de Microsoft, Bill Gates. "Nous pensons que les principales innovations viendront des meilleures universités mondiales. Nous voulons trouver le meilleur moyen de réunir ce en quoi nous excellons et ce en quoi ces universités excellent", a expliqué M. Gates au cours d'une conférence de presse à Tokyo.

"L'innovation qui vient d'ici, que ce soit des entreprises ou des universités, est vraiment phénoménale", a-t-il affirmé. Il a souligné que Microsoft comptait "augmenter ses dépenses en recherche fondamentale et appliquée, parce que c'est cela qui crée notre futur". "Ce n'est pas une tendance générale : dans leur ensemble, les entreprises diminuent leurs dépenses en recherche, ce que je trouve surprenant", a commenté Bill Gates. L'accord lie Microsoft aux principales universités du Japon, notamment celles de Tokyo, Waseda, Osaka, Kyoto et Keio.

Le nouvel institut sélectionnera des projets provenant du monde universitaire, et aidera à leur réalisation en octroyant des bourses ou des stages aux chercheurs, ou encore en fournissant les logiciels nécessaires. Les critères de sélection "sont complètement ouverts", a poursuivi Bill Gates, en précisant cependant que les priorités de recherche pour Microsoft concernaient les domaines de la sécurité, de la reconnaissance vocale et visuelle ou encore des interfaces graphiques.

"Les logiciels sont aujourd'hui très simples par rapport à ce qu'ils seront dans le futur. Des défis tels que comprendre et reconnaître la voix ou l'image, grâce à des techniques d'intelligence artificielle, ne sont encore qu'un rêve. En étant capables d'inventer de telles choses nous fabriquerons des logiciels qui rendront les gens beaucoup plus productifs", a affirmé M. Gates. "Le matériel s'améliorant à un rythme très rapide, nous pouvons être très ambitieux quant à ce que nous pouvons faire avec les logiciels", a-t-il ajouté, en citant notamment les domaines de la biologie, de la génétique ou de la climatologie.

Le groupe américain a également conclu avec des universités japonaises des accords qui leur permettent d'accéder au code source de ses programmes afin de simplifier l'intégration des logiciels qu'elles développent dans l'environnement de Microsoft. Lors de son passage à Tokyo, Bill Gates a aussi signé un accord avec la police japonaise pour l'assister dans la lutte contre la cyber-criminalité. Microsoft a enfin annoncé, lundi, le lancement d'une coopération avec Toshiba pour développer conjointement des lecteurs de HD-DVD, le format de disque de nouvelle génération promu par le groupe d'électronique japonais face au format Blu-Ray Disc de Sony.

AFP

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le train le plus rapide du monde sera japonais en 2011
Jeudi, 30/06/2005 - 00:00

Les trains les plus rapides en service au Japon roulent actuellement à une vitesse de 275 km/h, moins que le TGV français (320 km/h). Les essais du nouveau train, baptisé «Fastech 360S», devaient débuter demain entre les villes de Sendai et Kamikata, au nord du Japon, et durer deux ans. Le prototype, au nez arrondi et peint en blanc et en vert pâle, a été dévoilé vendredi dans un dépôt de JR East à Rifu. JR East vise une mise en service en 2011, lors de l'inauguration du tronçon final de la ligne à grande vitesse reliant Tokyo à Aomori, à l'extrémité septentrionale de la principale île du Japon, Honshu.

L'objectif de JR East est de faire rouler le train à 360 km/h en régime d'exploitation commerciale, même s'il pourra en principe atteindre une vitesse de pointe de 405 km/h lors des essais. «Les essais permettront de tester la faisabilité de plusieurs technologies notamment dans le domaine de la sécurité, de la réduction du bruit et des secousses du train. Rouler le plus vite n'est pas le seul but», a expliqué un porte-parole de la compagnie ferroviaire.

Le Fastech 360S est notamment équipé d'un système unique au monde de freinage d'urgence, qui augmente la résistance du train aux frottements de l'air selon le principe du parachute, et qui se déclenchera automatiquement en cas de tremblements de terre, très fréquents au Japon.

TOL

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top