RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 312
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Novembre 2004
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'Internet détrône la télévision chez les jeunes
L'avenir est aux sites de contenus et d'information
Les acteurs des mobiles misent sur la télévision
Espace
Des trous noirs aussi massifs que précoces
Terre
La planète se réchaufferait-elle plus vite que prévu ?
Vivant
Sida : malgré les efforts, l'épidémie progresse
Une greffe de cellules-souches redonne vie à une hémiplégique
Risque accru de cancer du sein même avec un traitement court de la ménopause
SU.VI.MAX confirme le rôle protecteur des vitamines et minéraux pour les hommes
Des ultrasons aident à dissoudre des caillots dans le cerveau
Le manque de sommeil accroîtrait les risques d'obésité
Le thé vert pourrait ralentir la maladie d'Alzheimer
Des chercheurs japonais créent un os artificiel en éponge
Le marché des nanotechnologies égalera celui des TIC en 2014
Recherche
La technologie au service de la sécurité routière
Edito
La Voix sur IP (VoIP) sera aussi importante que le PC dans l'histoire des TIC



La différence entre la Voix sur IP (VoIP) et la téléphonie sur commutation classique telle que nous la connaissons aujourd'hui est de même nature que celle que nous éprouvons quand nous recevons une feuille de calcul Excel de notre correspondant par ordinateur ou par fax. Dans le premier cas, nous recevons un document intelligent qui nous permettra de reconstituer toutes les équations permettant de comprendre le résultat alors que dans le second cas, nous ne recevons qu'une photographie « sans intelligence ».

Cette « Voix Intelligente par son Protocole » que va devenir la VoIP va être à l'origine d'un foisonnement de nouvelles applications qui, dans quelques années, nous semblera aussi important pour le développement des Technologies de l'Information et de la Communication que le fut l'arrivée du Personal Computer (PC) pour l'avenir de l'informatique, il y a un quart de siècle.

Tout d'abord, la voix et l'image qui étaient techniquement séparées sur nos réseaux depuis l'origine des télécoms vont enfin être naturellement réunies. Nous n'imaginons pas encore aujourd'hui la diversité et la richesse des applications nouvelles qui vont enrichir dès ces prochains mois nos téléphones, nos ordinateurs, nos téléviseurs mais aussi beaucoup d'autres objets usuels.

Dans un premier temps, la visiophonie, la visio-conférence et même la vidéo-conférence vont fondamentalement changer les habitudes de vie et même les façons de travailler de beaucoup d'êtres humains.

Très rapidement, les exigences des consommateurs sur la qualité des images et la fluidité de leurs animations vont croître. La Haute définition, la 3D, l'holographie et surtout de nouvelles techniques d'appréhension des images et du son (écrans souples, vêtements supports, lunettes spécifiques) vont apparaître. Certains voudront même aller beaucoup plus loin en rendant de plus en plus difficile pour le cerveau humain la différenciation entre les situations réelles et les mondes virtuels. Ces approches nous feront découvrir des horizons nouveaux parfois inquiétants que j'ai déjà abordés dans ces entretiens hebdomadaires avec le lecteur d'@RT-Flash.(voir notre lettre 71 du 11-11-1999 Les mondes virtuels seront la drogue du 21e siècle.

Mais la voix sur IP, en dehors de sa naturelle association avec l'image, provoquera bien d'autres séismes dans les usages des nouvelles technologies. Ainsi, les recherches déployées depuis plusieurs décennies sur la reconnaissance de la parole et la traduction simultanée vont prendre une autre dimension et retrouver une nouvelle légitimité. Quel bond extraordinaire ce serait pour l'humanité de faire en sorte que la technologie permette enfin aux hommes de bonne volonté de se faire comprendre de tous les autres en faisant disparaître le terrible mur d'incompréhension dressé par le barrage des langues.

Par ailleurs, cette voie disséquée, numérisée, analysée par la machine devrait maintenant, très rapidement, permettre à celle-ci de comprendre l'être humain qui s'adresserait à elle en langage naturel, avec les mots de chaque jour.

Tous ceux qui, comme moi, se servent quotidiennement d'un ordinateur depuis un quart de siècle, ont vu la vitesse de calcul, la capacité de mémoire de nos PC être multipliées par plusieurs dizaines de milliers. Mais, dans le même temps, ma capacité personnelle à échanger avec la machine, avec le clavier et la souris, n'a pas progressé. Peut-être même a-t-elle légèrement régressé !

Aussi, le véritable goulet d'étranglement entre l'homme et sa machine est bien cette interface homme-machine qui n'a presque pas évolué depuis plusieurs décennies.

Or, avons-nous bien conscience du jaillissement d'innovations que nous connaîtrions si ce goulet d'étranglement venait à sauter ?

A mon avis, avec l'arrivée de la Voix sur IP, nous ne sommes plus qu'à quelques courtes années de cet événement majeur. Bientôt nous parlerons avec notre langue de tous les jours à nos machines et celles-ci nous comprendront. Quelle révolution !

Quand on sait l'importance que vont prendre les très hauts débits symétriques sur nos réseaux pour relever tous ces défis excitants qui s'annoncent devant nous, très vite la France et l'ensemble de l'Europe du Sud devraient abandonner leur discours « marketing » sur l'ADSL pour aborder le vrai débat du très haut débit qui, en l'état actuel des connaissances de l'homme, ne peut être résolu que par le photon et la fibre optique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'Internet détrône la télévision chez les jeunes
Jeudi, 25/11/2004 - 00:00

L'internet gagne de l'influence par rapport à la télévision. Dans une enquête Ipsos/MSN/Nurun*, 61 % des jeunes sondés déclarent qu'ils préfèreraient garder Internet plutôt que la télévision s'ils devaient choisir entre les médias. Le temps passé sur Internet au détriment de la consommation de la télévision est également un signal fort : 55 % des jeunes sondés estiment avoir passé plus de temps en ligne, quitte à délaisser le petit écran. L'ordre d'importance traditionnel des sources d'information est également bouleversé. Les jeunes internautes donnent un certain avantage au Web : 46 % des 15-25 ans interrogés placent l'Internet en premier, devant la presse quotidienne (19 %), la télévision et la radio. A l'origine, cette étude sert à promouvoir l'Internet comme un "média ancré dans la culture publicitaire des 15-25 ans". Mais, vu sous l'angle de la consommation des médias, elle conforte les tendances que l'on observe outre-Atlantique. A savoir la prédominance du média Internet sur les autres canaux de communication.

VUNet

L'avenir est aux sites de contenus et d'information
Jeudi, 25/11/2004 - 00:00

"Nous constatons que le temps consacré à la consultation de contenus en ligne augmente de plus en plus", déclare Michael Zimbalist, président de l'Online Publishers Association (OPA) ; Chiffres à l'appui : une étude mensuelle délivrée par l'OPA montre que, pour le mois d'octobre 2004, sur la totalité du temps qu'un internaute passe en ligne, 40,2 % a été consacré à la consultation de contenus, 39,8 % à la communication, notamment via les messageries, 15,8 % à des activités commerciales et 4,3 % à la recherche. Ces chiffres sont à comparer avec ceux de l'année dernière à la même période : les e-mails et autres modes de communication en ligne arrivaient alors en tête, avec 45,2 % du temps passé en ligne, alors que la consultation de contenus représentait seulement 35,3 %, les activités commerciales 16,5 % et la recherche 3 %. Zimbalist précise que ces enquêtes ne prennent pas en compte les sites officiels, dont l'extension est .gov, ni ceux des écoles et universités, dont l'extension est .edu. Reste à donner la définition des "contenus en ligne", telle qu'elle a été adoptée par l'OPA pour ses enquêtes et qui "inclut plusieurs activités, allant du téléchargement de fichiers de musique et de jeux aux abonnements à des publications. Sont exclus les achats en ligne. Parmi les contenus payants, les trois domaines qui se développent le plus rapidement sont le sport, les jeux et les sites de divertissement. Ils sont alimentés par la nouvelle génération qui a grandi avec l'arrivée d'Internet", explique Zimbalist.

Bien sûr, la consultation de contenus en ligne est également dopée par le développement des connexions à haut débit, qui permettent d'accéder à Internet de manière continue. Mais le divertissement n'est pas tout.

Selon Michelle Manafy, rédactrice en chef de EContent Magazine,, "Internet devient de plus en plus indispensable pour les personnes à la recherche d'informations en temps réel, qui ne veulent pas attendre l'arrivée des journaux ou le journal télévisé du soir". Par ailleurs, elle relève que "la définition de 'contenus en ligne' reste très large et aléatoire : après tout, de plus en plus d'entreprises disposent de sites Internet et par conséquent publient du contenu en ligne". L'évolution d'Internet et la multiplication des activités en ligne font que les catégories retenues par l'OPA dans ses enquêtes seront probablement vite dépassées, poursuit le quotidien américain, en citant Jonathan Zittrain, professeur à la Harvard University Law School, pour qui "la seule certitude est qu'Internet est un support d'information. C'est un outil très efficace qui deviendra de plus en plus puissant. Voilà, il me semble, une bonne nouvelle pour les éditeurs en ligne. »

CI

Les acteurs des mobiles misent sur la télévision
Jeudi, 25/11/2004 - 00:00

La télévision mobile pourrait être la révolution qu'attendait le marché du téléphone portable. C'est en tout cas ce qu'espèrent les opérateurs qui attendent beaucoup de ces nouveaux services à partir de 2006. "La télévision mobile est l'application la plus importante depuis la voix et la messagerie sur téléphone portable", a déclaré Andrew Cole, vice-président chez A.T. Kearney. Selon lui, les consommateurs américains dépenseront à eux seuls 30 milliards de dollars par an pour disposer de la télévision sur leur téléphone, des revenus que se partageront opérateurs, fabricants et distributeurs de programmes.

Les utilisateurs de téléphones portables de troisième génération peuvent déjà regarder certaines chaînes diffusées en basse qualité, comme par exemple celles proposées par Vodafone dans plusieurs pays pour 12 euros de l'heure. Mais le grand public n'y aura complètement accès que lorsqu'une nouvelle technologie de diffusion sera disponible ainsi que des combinés équipés d'une antenne spécifique en plus de celle utilisée pour les télécommunications. La norme de diffusion numérique pour les téléphones portables, appelée Digital Video Broadcasting Handheld (DVB-H), pourrait utiliser les fréquences aujourd'hui utilisées par les télévisions analogiques quand ces dernières les libèreront en passant au numérique.

Les utilisateurs devront alors acheter un nouveau téléphone doté d'une puce et d'une antenne appropriées, tandis que les opérateurs devront s'accorder avec les chaînes sur un modèle de répartition des revenus. Dans les pays où la plupart des consommateurs possèdent déjà un téléphone portable, les opérateurs veulent continuer à grandir en vendant de nouveaux services comme l'accès à internet, les échanges de photographies ou la visiophonie. Ces services tardent pourtant à décoller et la plupart des clients continuent à utiliser leur téléphone pour téléphoner ou pour envoyer des messages textes. Pourtant, un test mené en Allemagne par Nokia et Vodafone a montré que 80 % des personnes souhaitent pouvoir regarder la télévision sur leur téléphone portable et étaient prêts à payer 12 euros par mois pour ce service. Des études conduites par le fabricant Sony Ericsson a montré que jusqu'à 40 % des utilisateurs étaient intéressés. Tout semble indiquer que c'est un service très prometteur", a déclaré Bengt Stavenow, un responsable de Sony Ericsson spécialisé dans les technologies de télévision mobile.

Selon Andrew Cole, les consommateurs américains dépenseront jusqu'à 20 dollars par mois pour la télévision mobile. Nokia a également lancé des tests aux Etats-Unis et Qualcomm a annoncé qu'il souhaitait construire un réseau spécial pour la télévision numérique. Nokia prévoit que les combinés seront disponibles en 2006 et qu'ils pourront recevoir 20 à 50 chaînes. De son côté, Qualcomm prévoit de lancer son réseau spécialisé aux Etats-Unis à la même époque. Sprint, qui propose déjà de la vidéo à la demande pour téléphones portables, a indiqué qu'il allait lancer un service de télévision en direct. "En moyenne, les gens regardent de trois à quinze minutes. Généralement, il s'agit des informations ou de clips musicaux. Il est très rare qu'ils souhaitent regarder un film", a déclaré Seppo Sutela, directeur de la division Rich Media de Nokia. "Cela va être une 'killer application' pour le téléphone portable", a-t-il ajouté.

Les programmes télévisés pourront également être diffusés par les opérateur télécoms sur leur réseau de troisième génération grâce à une technologie appelée Multimedia Broadcast & Multicast Services, attendue pour 2006. Les téléphones Nokia utilisés lors des tests en Allemagne, Finlande, Grande-Bretagne, Etats-Unis et Australie, sont plus imposants que les téléphones traditionnels à cause de l'antenne et des nouveaux composants. Selon Stavenow de Sony Ericsson, le coût additionnel d'un récepteur de télévision dans les téléphones est compris entre 10 et 15 dollars. Un dirigeant de haut niveau reconnaît néanmoins que la télévision mobile pourrait ne pas rencontrer le succès attendu. "Je suis optimiste mais prudent", a déclaré Ron Garriques, qui dirige la division téléphones portables de Motorola. "Je pense qu'il est très important de regarder ce phénomène marché par marché", a-t-il ajouté.

Les messages textes sont par exemple beaucoup plus populaires en Europe qu'aux Etats-Unis. Les consommateurs japonais ont quant à eux adopté beaucoup plus rapidement les téléphones de nouvelle génération que le reste du monde. Les différents standards technologiques et les problèmes de disponibilité de la télévision numérique dans certains pays pourraient freiner la croissance du marché. Jason Chapman, analyste chez Gartner, se montre prudent quant à la viabilité de la télévision mobile. Selon lui, les opérateurs vont se sentir obligés de suivre le mouvement et de proposer ce service comme beaucoup l'ont fait pour la visiophonie, lancés en Europe et en Asie mais qui doit encore faire ses preuves. "La télévision mobile procèdera de la même façon", a déclaré Jason Chapman. Seul un petit pourcentage de consommateurs a répondu que la télévision mobile figurait parmi ses priorités lors d'une étude récente du Yankee Group.

Reuters

^ Haut
Espace
Espace et Cosmologie
Des trous noirs aussi massifs que précoces
Jeudi, 25/11/2004 - 00:00

Un milliard d'années seulement après le Big Bang, des trous noirs massifs s'étaient déjà formés dans l'univers. Si les astrophysiciens supposaient que ces géants étaient apparus assez tôt dans l'histoire de l'univers, l'observation de deux trous noirs situés à plus de 12 milliards d'années lumière repousse encore la limite chronologique. L'équipe de Daniel Schwartz (Harvard-Smithsonian Center for Astrophysics) a détecté grâce à l'observatoire spatial Chandra de la NASA un trou noir dont la masse équivaudrait à un milliard de fois celle du Soleil, éloigné de 12,7 milliards d'années lumière -ce qui signifie que sa lumière a mis tout ce temps pour parvenir jusqu'au voisinage de la Terre. L'âge de l'univers étant estimé entre 13 et 14 milliards d'années, ce trou noir nommé SDSSp J1306 aurait existé environ un milliard d'années après la naissance de l'univers. Ces résultats, publiés en novembre dans l'Astrophysical Journal, suivent de peu ceux d'une autre équipe publiés en août dans la même revue. Duncan Farrah et ses collègues ont détecté un trou noir situé à 12,8 milliards d'années lumière. Ces chercheurs ont étudié SDSSp J1030 grâce à un autre télescope détectant les rayons X, XMM-Newton de l'Agence spatiale européenne. Ces télescopes n'observent pas le trou noir en lui-même, par nature invisible puisqu'il absorbe tout, même la lumière. En revanche, via les rayons X, ils repèrent la chaleur dégagée par des gaz fatalement attirés par la gueule du glouton. Ces gaz forment un disque qui tourne autour du trou noir et dans la partie interne de ce disque les températures peuvent atteindre des milliards de degrés. Comment de tels trous noirs ont-ils pu se former si tôt dans l'univers ? Aucun modèle ne permet aujourd'hui de l'expliquer de façon certaine.

Sciences&Avenir

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La planète se réchaufferait-elle plus vite que prévu ?
Jeudi, 25/11/2004 - 00:00

Une récente étude américaine, s'appuyant sur des relevés de l'observatoire de Mauna Loa a Hawaï, montre une augmentation inexpliquée de la concentration de dioxyde de carbone (CO2) mondiale au cours des deux dernières années. En effet, au cours des décennies précédentes la quantité de CO2 présent dans atmosphère augmentait de 1.5 ppm par an. Or en 2002 et 2003 son augmentation a été supérieure à 2 ppm. Certains phénomènes climatiques, tel qu'El Nino, pourraient expliquer ce phénomène mais aucun n'a eu lieu depuis 2001. Ainsi, la communauté scientifique s'interroge sur une éventuelle diminution de capacité d'absorption de CO2 par la planète. Sir David King, Conseiller Scientifique en Chef de Tony Blair, a déclaré qu'aux vues des relevés de CO2 la menace était imminente et probablement plus proche qu'on ne le pensait. Une des conséquences possibles du réchauffement de la planète est la fonte de la calotte glaciaire qui résulterait en une élévation du niveau de la mer de 6 a 7 m. Lorsque la température moyenne du Groenland atteindra 2.7.C (actuellement 0.6.C) donc une concentration de CO2 de 500 ppm (actuellement 379 ppm), ce phénomène deviendra irréversible. Selon David King, si l'on considère une augmentation de l'ordre de 2 ppm par an non exponentielle, le point critique est estimé à 60 ans. Il est à rappeler que la Grande-Bretagne pourrait connaître des inondations et des changements climatiques plus vite que prévus si aucune action n'est mise en place.

BBC

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Sida : malgré les efforts, l'épidémie progresse
Jeudi, 25/11/2004 - 00:00

La semaine dernière, dans notre lettre 311, nous vous annoncions qu'une équipe de chercheurs français avait réussi à fabriquer, chez le lapin, des anticorps capables de bloquer, en laboratoire, l'infection de cellules immunitaires humaines par le virus du sida. Cette étape importante ouvre des perspectives intéressantes pour le développement d'un vaccin contre le sida. Mais voici que deux autres percées scientifiques de taille viennent d'être annoncées dans la lutte contre le Sida. Tout d'abord un traitement thérapeutique capable d'inactiver le virus du sida pourrait être rapidement rendu public par deux chercheurs français. Ce nouveau traitement, mis au point par les scientifiques français Jean-Marie Andrieu et chinois Wei Lu, consiste "non pas à faire disparaître le virus mais à l'empêcher de se multiplier grâce à un processus vaccinal appliqué à un organisme déjà atteint", affirme l'hebdomadaire. Jean-Marie Andrieu et Louis Wei Lu comptent, dans les prochains jours, communiquer sur leur découverte, laquelle fera très prochainement la une de la revue américaine Nature, selon la même source. Testé depuis deux ans sur des macaques atteints du VIS (le sida des singes), il "pourrait déboucher rapidement sur la mise au point d'une innovation décisive, un traitement vaccinal à l'usage des personnes déjà atteintes de la maladie". Les deux chercheurs ont travaillé sur les cellules dendritiques qui "jouent le rôle de 'sentinelles' chargées de repérer la présence d'un intrus dans l'organisme. Ce sont elles qui indiquent ensuite aux lymphocytes l'ennemi à éliminer".

Contrairement aux virus classiques, contre lesquels les lymphocytes génèrent des anticorps reconnaissant et détruisant une infection, le VIH se sert du lymphocyte pour proliférer. Jean-Marie Andrieu, chef du service d'oncologie de l'hôpital parisien Georges Pompidou, et Wei Lu, attaché à l'Institut de recherche pour le développement, ont fait en sorte que "les cellules dendritiques apprennent préalablement au lymphocyte à se protéger des antigènes présents dans la capsule du VIH". "Activer les défenses immunitaires naturelles - les immuniser pourrait-on dire, puis les multiplier au lieu d'assister, impuissants à leur inexorable dégradation, voici la nouveauté", explique Valeurs actuelles . De plus, le traitement permettrait de limiter les effets secondaires des trithérapies.

Le Fonds des Nations unies pour l'enfance (Unicef) a annoncé pour sa part le 19 novembre une « percée majeure » dans la lutte contre le Sida. Cette avancée consiste à combiner deux médicaments constituant l'un des antibiotiques les moins onéreux au monde. Cette association a fortement réduit le taux de mortalité chez des enfants contaminés par le virus du sida. »Il y a là "le potentiel pour sauver la vie de centaines de milliers d'enfants chaque année". Ces résultats, publiés dans la revue médicale britannique The Lancet, ont été analysés dans une étude réalisée par le Département pour le développement international (DFID, Royaume-Uni) auprès de 534 enfants zambiens âgés de moins de 15 ans porteurs du virus de l'immunodéficience humaine (VIH). Il a été administré à la moitié d'entre eux par voie orale du co-trimoxazole, un médicament courant qui associe deux antibiotiques, tandis que l'autre moitié a reçu un placebo. Dix-neuf mois après, les auteurs de l'étude ont relevé que 74 (soit 28 %) des enfants ayant pris l'antibiotique étaient décédés, tandis que 112 (42%) des mineurs de l'autre groupe (ceux n'ayant eu que le placebo) étaient morts.

Pour des raisons éthiques et compte tenu de ces résultats jugés remarquables, les enfants auxquels on avait administré un placebo ont aussitôt après cette découverte à leur tour eu droit au co-trimoxazole. Les raisons cliniques de ce succès ne sont pas clairement établies, mais on pense que cet antibiotique permet de lutter contre les bactéries de la pneumonie et la tuberculose qui provoquent en général la mort des personnes dont les systèmes immunitaires ont été fragilisés par le VIH. "Le défi est dorénavant de traiter autant d'enfants que nous le pouvons et immédiatement", estime en conséquence l'Unicef. Et de souligner : "Ce médicament bon marché, largement disponible, rend possible de s'assurer que chaque enfant en ayant besoin l'obtienne". Le sida est la principale cause de mortalité dans l'ensemble de la population africaine. Sur environ 38 millions de personnes porteuses du VIH dans le monde, quelque 25 millions vivent en Afrique sub-saharienne, selon les chiffres fournis en juillet dernier par l'Onusida, agence de l'ONU chargée de la lutte contre le sida.

"En dépit des progrès accomplis pour élargir l'accès au traitement du VIH, l'épidémie de sida continue à avancer plus vite que la riposte mondiale", indique l'Onusida en préambule du document. "Plus de 20 ans et 20 millions de décès après le premier diagnostic de sida en 1981, près de 38 millions de personnes vivent avec le VIH", pointe le Programme onusien. Certes, "des progrès importants sont intervenus" pour "prévenir de nouvelles infections et améliorer la qualité de vie et la prise en charge des personnes vivant avec le VIH". Des médicaments antirétroviraux ont également été découverts. Et pourtant, "d'énormes problèmes" demeurent : le financement est insuffisante et "pas toujours utilisé efficacement". "Bien que les dépenses mondiales sur le sida aient été multipliées par 15, de 300 millions de dollars en 1996 à un peu moins de 5 milliards de dollars en 2003, ce total couvre moins de la moitié des besoins estimés pour 2005 dans les pays en développement", note l'Onusida.

Article @RTFlash

Sciences&Avenir

Lancet

Une greffe de cellules-souches redonne vie à une hémiplégique
Jeudi, 25/11/2004 - 00:00

Une Brésilienne de 54 ans, victime d'une hémorragie cérébrale l'ayant laissée hémiplégique et sans l'usage de la parole, a bénéficié d'une greffe de cellules souches dans le cerveau et a recommencé à marcher et à parler en 17 jours. C'est ce qu'a déclaré hier le docteur Hans Fernando Dohmann, directeur de l'hôpital Pro-Cardiaco de Rio de Janeiro où a été testé pour la première fois ce traitement «à titre expérimental». Les cellules souches tirées de la moelle osseuse du bassin de la patiente, ont été injectées dans son cerveau cinq jours après l'hémorragie. Les cellules souches implantées dans cette région du cerveau ont déclenché la formation de nouveaux petits vaisseaux sanguins. La revascularisation de la région cérébrale lésée a permis d'y acheminer l'oxygène et le glucose qui contribuent à régénérer les neurones. En l'absence de publication scientifique, il convient d'être prudent face à cette annonce médiatisée au Brésil portant sur un cas unique. La patiente, Maria da Graça Pomeceno, a été montrée à la télévision montant les escaliers de sa maison et prononçant quelques mots. L'évolution naturelle de la maladie, et non la greffe, pourrait rendre compte de cette amélioration. L'expérience effectuée par l'Université fédérale de Rio (UFRJ) et le Pro-Cardiaco sur Maria da Graça Pomeceno sera réitérée sur quatorze autres personnes. Le docteur Dohmann n'est pas un inconnu dans la discipline de la thérapie cellulaire. Il avait, entre autres, publié l'an dernier un article dans la revue Circulation relatant l'injection réussie de cellules souches à des malades cardiaques.

Figaro

Risque accru de cancer du sein même avec un traitement court de la ménopause
Jeudi, 25/11/2004 - 00:00

Le traitement combiné hormonal de la ménopause comporte un risque accru de cancer du sein même lorsqu'il est prescrit sur une courte durée, inférieure à deux ans, selon une étude sur près de 55.000 Françaises publiée dans l'International Journal of Cancer. Toutefois avec certaines combinaisons hormonales, le risque ne serait pas augmenté, révèle l'étude. L'étude E3N (étude épidémiologique de femmes de la Mutuelle générale de l'éducation nationale), confirmant l'augmentation du risque de cancer du sein parmi les utilisatrices des traitements hormonaux substitutifs (THS), prend en compte les traitements courts, inférieurs à 2 ans notamment, leur composition et la voie d'administration. Chez les femmes sous THS, le risque de développer un cancer est globalement augmenté de 20 % par comparaison aux femmes qui ne suivent pas ce type de traitement. "Ce risque existe même lorsque la durée de prescription ne dépasse pas deux ans", soulignent les auteurs. "Lorsque l'oestrogène est associé à un progestatif de synthèse, le risque de cancer du sein est augmenté de 40 % et ce, indépendamment de la voie d'administration de l'oestrogène (gel, timbres ou "patchs", voie orale)", commente Françoise Clavel-Chapelon (Inserm, Institut Gustave-Roussy, région parisienne), responsable de l'étude. "Mais quand les oestrogènes sont combinés avec de la progestérone micronisée (principe actif de structure semblable à celle de l'hormone naturelle), le risque ne semble pas être augmenté", souligne-t-elle. "Ce résultat inédit reste à confirmer pour des durées de traitement supérieures à 4 ans", poursuit-elle.

Le THS, introduit en France en 1960, avait été paré de toutes les vertus. Mais la parution de deux études anglo-saxonnes, l'une américaine, l'autre anglaise, concluant à un accroissement du risque d'avoir un cancer du sein, mais aussi des accidents cardio-vasculaires (infarctus, attaques cérébrales, ou bouchons veineux) alors que les médecins croyaient à un effet cardio-protecteur des THS, a conduit à plus de prudence. Cette prudence avait amené à recommander des traitements de courte durée. Cependant, le THS de ces études différait des formules prescrites en France. Le THS consiste à remplacer les deux hormones (l'oestrogène et la progestérone) dont la production cesse au moment de la ménopause. Il vise à soulager les troubles (bouffées de chaleur, insomnie...) qu'éprouvent certaines femmes à cette période de la vie.

Inserm

SU.VI.MAX confirme le rôle protecteur des vitamines et minéraux pour les hommes
Jeudi, 25/11/2004 - 00:00

Les résultats de l'étude française SU.VI.MAX ont été publiés dans les Archives of Internal Medicine. Après sept ans et demi de suivi, cette étude d'une durée et d'une ampleur sans précédent confirme que la supplémentation en vitamines et minéraux antioxydants réduit bien le risque de mortalité par cancer chez les hommes (risque relatif de 0,69 contre 1,4 pour les femmes) ainsi que le risque de mortalité toutes causes confondues (risque relatif 0,69 chez les hommes contre 1,3 chez les femmes). En revanche, et c'est le grand enseignement de cette étude, les femmes ne semblent tirer aucun bénéfice de cette supplémentation en vitamines et minéraux (risque relatif 1,04).

Cette étude montre que l'incidence des cancers chez les hommes est plus faible chez ceux qui avaient reçu les antioxydants (Les sujets ont reçu un placebo ou une gélule contenant 120 mg d'acide ascorbique, 30 mg de vitamine E, 6 mg de beta-carotène, 100 µg de sélénium et 20 mg de zinc), avec une réduction du risque de 31 % par rapport au groupe placebo. Une tendance similaire était observée pour les taux de décès masculins. Mais ces effets positifs ne sont pas retrouvés chez les femmes. Pourquoi une telle différence selon les sexes ? Les auteurs soulignent que "chez les hommes le niveau de base des anti-oxydants, et plus spécialement celui du bêta carotène, est plus faible que celui des femmes". Ils retireraient donc un plus grand bénéfice d'un apport complémentaire. L'étude SU.VI.MAX - pour Supplémentation vitaminique et minérale en antioxydant-, a été coordonnée par Serge Hercberg, Directeur de l'Unité Inserm 557 " Nutrition et maladies chroniques: épidémiologie et intervention en santé publique " à Paris. Elle a réuni 13 017 volontaires de 35 à 60 ans. Répartis en 2 groupes égaux, ils ont reçu quotidiennement pour les uns une association de vitamines et minéraux antioxydants à doses nutritionnelles, et pour les autres, un placebo.

AIM




Des ultrasons aident à dissoudre des caillots dans le cerveau
Jeudi, 25/11/2004 - 00:00

Des ultrasons combinés à un médicament spécifique permettent de dissoudre plus efficacement des caillots sanguins dans le cerveau, selon des essais cliniques réalisés aux Etats-Unis et dont les résultats ont été publiés mercredi. Une équipe de médecins conduite par Andrei Alexandrov, professeur de neurologie à l'école de médecine de l'université de Houston (Texas), a examiné 126 personnes victimes d'un accident cérébrovasculaire et ayant tous été traités dans les trois heures avec du t-PA, un activateur du plasminogène. Le plasminogène est une protéine des parois artérielles qui aide l'organisme à éliminer les caillots de sang. "Pour la première fois, nous avons montré cliniquement l'efficacité de la combinaison des ultrasons et du t-PA pour traiter des personnes victimes d'un accident cérébrovasculaire" provoqué par un caillot, indique le Dr Alexandrov dans un article paru dans la revue New England Journal of Medecine. "Cette approche améliore les flux sanguins dans le cerveau et accroît la récupération clinique dans les minutes suivant l'application du traitement", ajoute-t-il. Les ultrasons provoquent des vibrations dans les molécules à la surface et à l'intérieur des structures du caillot facilitant l'action dissolvante du t-PA (tissue plasminogen activator). La moitié du groupe de patients ayant été soigné avec des ultrasons et du t-PA ont enregistré une très nette amélioration de leur condition avec la quasi ou totale disparition du caillot dans les deux heures après le traitement, a expliqué le Dr Alexandrov. Ce chiffre est à comparer avec les 30 % de l'autre groupe de patients ayant été traités seulement avec du t-PA. Des hémorragies cérébrales se sont produites chez 4,8% des patients des deux groupes, ont précisé ces chercheurs.

NEJM

Le manque de sommeil accroîtrait les risques d'obésité
Jeudi, 25/11/2004 - 00:00

Les experts en obésité ont une nouvelle prescription pour les personnes désireuses de perdre du poids : dormir. C'est en tous cas ce qu'affirme une nouvelle étude américaine qui, de manière un peu surprenante, associe le manque de sommeil au risque de devenir obèse. Les personnes qui dorment moins de quatre heures par nuit ont 73 % plus de risques de grossir que ceux qui dorment entre sept et neuf heures, comme on le recommande généralement. Celles qui dorment cinq ou six heures en moyenne, ont respectivement 50 % et 23 % plus de risques de devenir obèses. "Il y a peut-être une possibilité d'aider les gens à dormir plus, et cela les aiderait peut-être au niveau de leur poids", remarque le Dr Steven Heymsfield, qui travaille à l'université Columbia et à l'hôpital St-Luke's-Roosevelt de New York. Avec James Gangwisch, un épidémiologiste de Columbia, il a dirigé cette étude dont les résultats ont été présentés cette semaine lors d'une réunion de l'Association nord-américaine pour l'étude de l'obésité. Ils ont utilisé des informations concernant environ 18.000 adultes ayant participé à une étude du gouvernement fédéral sur la santé et la nutrition (National Health and Nutrition Examination Survey-NHANES) entamée dans les années 1980. L'étude a recueilli sur une longue durée des informations sur les habitudes en matière de santé et d'activités physiques.

Il peut apparaître paradoxal que le fait de dormir plus diminue les risques de devenir obèse alors que l'on brûle moins de calories quand on se repose, note James Gangwisch. Mais on mange aussi quand on est éveillé, et l'effet d'une privation chronique de sommeil sur les circuits de recherche de nourriture dans le corps est ce qui, selon les spécialistes, doit faire la différence dans le risque d'obésité. "Il y a de plus en plus d'indices scientifiques montrant qu'il existe un lien entre le sommeil et les circuits nerveux contrôlant la prise d'aliments", précise M. Heymsfield. La privation de sommeil fait baisser le taux de leptine, une protéine sanguine qui supprime l'appétit et semble influer sur la manière dont le cerveau réagit quand le corps a ingurgité suffisamment de nourriture.

Et à l'inverse la privation de sommeil augmente le niveau d'une hormone, la ghrelin, qui contribue à ouvrir l'appétit. Un sommeil insuffisant nuit aussi à l'aptitude à prendre des décisions claires, souligne le Dr Philip Eichling, spécialiste du sommeil et des problèmes de poids à l'Université d'Arizona. "Un de mes traitements, c'est de leur dire qu'ils devraient prendre de six à sept heures de sommeil. Quand ils ont moins sommeil, ils ont moins faim". Le Dr Eichling n'a pas participé à la nouvelle étude mais il observe qu'elle apporte des éléments à une hypothèse qui était émise depuis longtemps. Les Américains ne dorment en moyenne qu'un peu plus de six heures par nuit, et un rapport publié il y a quelques années suggérait que la prévalence croissante de manque de sommeil pourrait aussi être responsable de l'augmentation des cas d'obésité.

AP

Le thé vert pourrait ralentir la maladie d'Alzheimer
Jeudi, 25/11/2004 - 00:00

Dans une étude publiée dans le journal "Phytotherapy Research", les chercheurs de Université de Newcastle upon Tyne démontrent que la consommation de deux variétés de thés, vert et noir, inhibe l'activité de certaines enzymes présentes dans le cerveau et dont l'activité est associée au développement de la maladie d'Alzheimer. Deux caractéristiques importantes de la maladie d'Alzheimer sont représentées par une réduction significative des taux acétylcholine dans les synapses du cerveau et l'accumulation de protéines dans le cerveau, nommés "dépôts de protéines". Le thé noir, comme le thé vert, dérivent de la plante Camellia sinensis. L'apparence et le goût diffèrent cependant l'un de l'autre en raison du processus de fermentation du thé noir. Alors que la consommation de l'une ou l'autre de ces variétés inhibe les enzymes acétylcholinestérase (AChE) ou encore butyrylcholinesterase (BuChE), le café s'est révèle être sans effet. AChE métabolise le neurotransmetteur acétylcholine, conduisant à une réduction des taux de cette dernière (première caractéristique de la maladie) et il a été découvert que BuChE est présente dans des dépôts de protéines. Par ailleurs, les chercheurs démontrent que le thé vert inhibe l'activité de la beta-secretase, une troisième enzyme jouant un rôle important dans la formation des dépôts de protéines. Cet effet persiste pendant une semaine alors que les effets du thé noir disparaissent au bout de 24 heures. L'existence et le rôle de ces enzymes dans l'étiologie de la maladie d'Alzheimer ne sont pas nouveaux. En effet, la majorité des études cherchent à découvrir et améliorer des inhibiteurs efficaces de ces trois enzymes.

La nouveauté et l'avantage présentés par ces résultats reposent sur le fait que la consommation de thé aurait peu de risque de présenter des effets secondaires, par contraste avec la plupart des médicaments actuellement sur le marché. Pour les scientifiques ayant mené cette étude, convaincus que la consommation de thé vert pourrait ralentir le développement de la maladie, la prochaine étape sera de découvrir quel est l'agent chimique du thé noir, mais surtout du thé vert, responsable de ces effets inhibiteurs. Ils souhaitent mettre en place de nouveaux tests et, à terme, des essais cliniques utilisant le thé vert, dans le but de développer un thé vert médicinal, spécialement adapté pour les personnes atteintes de la maladie d'Alzheimer. Ces découvertes pourraient donner naissance à de nouveaux traitements pour des maladies telles que celle d'Alzheimer, qui affecte plus de 10 millions de personnes a travers le monde. Selon le Professeur Clive Ballard, directeur de recherche à la "Alzheimer's Society", cette étude ne fait que renforcer d'autres résultats suggérant que les vertus du thé vert pourraient dériver de ses propriétés anti-oxydantes.

WebMD

Des chercheurs japonais créent un os artificiel en éponge
Jeudi, 25/11/2004 - 00:00

Un groupe de chercheurs japonais a mis au point un os artificiel en éponge, que l'on peut découper avec des ciseaux, déplacer facilement à l'intérieur du corps et qui se fixe au tissu osseux existant pour donner naissance, en quelques mois, à un nouvel os, véritable celui-là. L'os artificiel spongieux, fait de cristaux d'hydroxyapatite (phosphate de calcium) et de collagène, pourrait ainsi affranchir les malades de la douleur provoquée par une transplantation osseuse. "Cet os est mou et on peut le découper avec des ciseaux comme une éponge", a indiqué un porte-parole du fabricant japonais d'équipements de précision, Pentax, qui a développé le produit avec des universitaires. "Nous espérons lancer sa commercialisation à la fin 2007 ou peut-être au début 2008", a-t-il ajouté. Des expériences sont en cours sur des animaux. Un os spongieux de deux centimètres transplanté dans le corps d'un chien a fait place à un os véritable en trois mois, a affirmé Pentax. "Comme le tissu osseux possède un métabolisme en constante évolution, un nouvel os pousse à l'endroit de l'os artificiel en éponge (...) jusqu'à le détruire", selon le porte-parole. Les os artificiels en céramique, utilisés pour l'instant, se fixent au tissu osseux sans avoir la propriété chimique de disparaître au profit d'os véritables.

AFP

Le marché des nanotechnologies égalera celui des TIC en 2014
Jeudi, 25/11/2004 - 00:00

Un rapport de Lux Research Inc. intitule "Sizing Nanotechnology's Value Chain " estime que le montant des ventes de produits issus des nanotechnologies devrait atteindre, en 2014, 2600 milliards de dollars, soit le même montant que les technologies de l'information ou encore 10 fois le montant des biotechnologies. Les ventes des nanomatériaux comme les nanotubes de carbone devraient s'élever a 13 milliards de dollars. En 2014, les produits issus des nanotechnologies devraient concerner (en revenus) 4 % des produits manufactures, 50 % des produits électroniques et 16 % des produits liés à la santé et aux sciences de la vie. Le rapport estime à 10 millions le nombre d'emplois industriels liés aux nanotechnologies sur le plan mondial. Lux Research prédit que cette croissance s'effectuera en 3 phases :

- La première phase qui se termine cette année correspond à l'introduction des nanotechnologies dans des produits haut de gamme. En 2004, leurs revenus s'élèvent a 13 milliards de dollars dont 8,5 milliards pour les applications aérospatiales et automobiles,

- Jusqu'en 2009 : des percées commerciales vont ouvrir des marches pour les nanotechnologies notamment en électronique avec des revenus atteignant les 292 milliards de dollars,

- A partir de 2010, les nanotechnologies devraient jouer un rôle plus important notamment au niveau des produits manufactures et des nouvelles applications en santé et sciences de la vie.

A long terme, les nanotechnologies devraient simplifier les procédés de fabrication en éliminant certaines étapes et en diminuant les coûts.

LR

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La technologie au service de la sécurité routière
Jeudi, 25/11/2004 - 00:00

Pour augmenter la sécurité des piétons lors d'un impact avec une voiture, deux types de solutions peuvent être intégrées aux véhicules : des mesures passives ou actives. Les systèmes passifs atténuent les effets de l'impact. Par exemple, en cas de collision avec une voiture, le piéton est généralement projeté contre le capot ou le pare-brise. Pour y remédier, les manufacturiers construisent des pare-chocs moins agressifs et des capots pouvant absorber un impact minimisant les effets sur le piéton tout en garantissant la sécurité des occupants du véhicule. En cas de choc, les essuie-glaces absorbent l'énergie. Cependant, ces mesures sont peu utiles sur les véhicules utilitaires sport. En cas de collision, le piéton est projeté au dessus du véhicule ou en dessous. Adoucir les angles de ces véhicules et abolir les grilles de brousse posées à l'avant des VUS améliorerait la situation. Les systèmes actifs ont comme fonction de prévenir de tels accidents. Les mesures actives sont plus sophistiquées et ne sont pas toutes encore sur le marché ou, quand elles le sont, c'est principalement à bord de véhicules luxueux. Par exemple, les détecteurs radar, à infrarouges, ou les amplificateurs de lumières permettent de repérer les obstacles sur la route et d'en avertir le conducteur ou (prochainement), lorsque couplés sur des systèmes automatisés, d'activer les freins. D'autres projets sont également sur la table.

Ainsi, Siemens VDO Automotive, compte commercialiser en 2007 un détecteur à fibres optiques intégré. En cas de collision avec un piéton un calculateur déclenchera un soulèvement du capot et modifiera son angle afin d'amortir l'impact. En Europe, les constructeurs se sont entendus pour intégrer des mesures passives dans leurs véhicules d'ici octobre 2005. Par la suite, des mesures plus innovatrices devront être mises de l'avant d'ici 2010. «Il est encourageant de voir que les manufacturiers se sentent désormais imputables de la sécurité des piétons, croit Pierre de Coninck, professeur agrégé à l'École de design industriel de l'Université de Montréal. Si la voiture peut accepter des améliorations, autant qu'elle le fasse». Par contre, il faut faire attention que les progrès technologiques ne déresponsabilisent les conducteurs. «Au même titre que les conducteurs de véhicules 4x4 trop confiants sont souvent les premiers à sortir de la route quand il neige, il ne faut pas que les conducteurs se sentent trop sûrs d'eux et négligent la sécurité des piétons en étant persuadés que leur voiture limitera les dégâts».

D'autre part, certaines mesures actives ont des limites importantes. «Même les systèmes de détections les plus sophistiqués ne peuvent rien faire quand un enfant surgit brusquement entre deux voitures stationnées», avance Martin Hétu, directeur circulation du groupe conseil Genivar et président de l'association québécoise du transport et des routes. Pour sa part, René Desaulnier, ingénieur à la sécurité des transports à la SAAQ, déplore que la plupart de ces systèmes soient uniquement disponibles dans les voitures de luxe. «Il faut que la technologie devienne aussi disponible dans les voiture de masse». «Il faut aller au-delà de la technologie», avance Carl Tremblay du service de la promotion de la sécurité à la SAAQ. Car le problème est humain. «Il faut avant tout respecter les règles de base». Ainsi, les rapports de police démontrent que les accidents sont régulièrement provoqués par des négligences de la part des piétons. Par exemple, celui-ci n'a pas respecté la signalisation ou encore il a surgi d'entre deux voitures stationnées. En fait, une collision sur deux avec un véhicule a lieu suite à une violation de la signalisation par le piéton.

Il ne faut pas toutefois blâmer uniquement les victimes. Les conducteurs ont également leurs torts. Plus de la moitié de ceux-ci ne respectent pas les limites de vitesses et le quart accélèrent au feu jaune. «Il faut donc sensibiliser la population, tant les piétons que les automobilistes, à se respecter mutuellement», conclut Carl Tremblay. Selon Martin Hétu, le comportement délinquant des piétons est en partie provoqué par le peu de considération qu'ils reçoivent. «Beaucoup de gens ne traversent pas aux endroits réservés car ça ne change rien. Ils ne se sentent pas réellement plus en sécurité à un passage réservé qu'ailleurs». Même si le piéton est prioritaire, selon les termes de la loi, les conducteurs n'hésitent pas à forcer le passage. L'éducation respective serait, selon lui, une partie de la solution. Il croit également qu'en plus d'intégrer des mesures de sécurité actives et passives dans les véhicules «il faut également faire en sorte que le piéton se sente respecté». Améliorer l'éclairage au dessus du passage piétonnier de façon à ce que le visage de la personne qui traverse soit éclairé, ou faire des avancées solides dans la chaussée qui conféraient une certaine sécurité au passage traversier sont des solutions à l'étude. «On commence à peine à se pencher sur la façon d'améliorer les infrastructures, la solution passe, en partie du moins, par là», conclue-t-il. La route est partagée, il faut donc que tous ses usagers se respectent. La technologie est sans aucun doute un outil, mais tant les piétons que les conducteurs doivent respecter certaines règles.

Cyberpresse

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top