RTFlash

RTFLASH Recherche & Technologie
NUMERO 163
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Octobre 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'e-mail fête ses trente ans cet automne
L'info en ligne a gagné ses lettres de noblesse
La grande distribution commence à croire à l'avenir du cybermarché
Voir loin même avec une canne blanche
L'Ethernet à 10 Gbit/s arrive !
Le Japon bascule dans la troisième génération
Avenir
Les 4 forces de la nature chamboulées
Un nouvelle étape vers la téléportation
Infiniment petit, infiniment prometteur
Matière
Le fullerène de silicium matériau de l'électronique du futur ?
Terre
Climat : le pire est à venir
De l'urée dans le moteur
Vivant
Thérapie cellulaire par cellules souches adultes
Parkinson et Alzheimer, même traitement ?
Des traitements pour abaisser la pression artérielle diminuent les risques de rechute d'accidents vasculaires cérébraux
Espérance de vie : vers une stagnation ?
Un nez électronique pour détecter rapidement les agents infectieux du sang
Le premier gène du langage identifié
Un gène potentiellement suppresseur de cancers humains
Des vaisseaux sanguins qui poussent... presque tout seuls !
Le "sacré numéro" de la génétique...
La thérapie génique pour voir le jour de nouveau...
La génétique accentuerait les risques d'hypertension artérielle
Pourra-t-on bientôt lire dans les pensées ?
Homme
Le cartable électronique fait sa rentrée
Edito
La ville a-t-elle encore un avenir ?



Les deux avions lancés à grande vitesse et avec leurs réservoirs pleins ont fait s'effondrer les deux plus grandes tours de New York. Une explosion dans une usine de chimie à Toulouse a tué plusieurs dizaines de personnes, blessé des centaines d'autres et littéralement démoli quelque 20.000 logements. Pendant ce même temps, un sentiment d'insécurité se développe dans nos grandes villes. Devant un tel amoncellement d'éléments stressants pour les habitants des grandes unités urbaines, le moment est venu de se poser la question de savoir si les villes ont encore de l'avenir. Historiquement, les villes ont été avant tout des lieux protégés. Il y a plusieurs siècles, les plus pauvres venaient se réfugier derrière les remparts des cités. Depuis quelque deux siècles, nos sociétés étant devenues plus policées, ce n'était plus ce caractère protecteur qui justifiait seul l'extension des villes mais beaucoup plus leur fonction accélératrice. Le temps est ainsi devenu un facteur majeur dans la vie de chacun d'entre nous. Or, aujourd'hui, ces deux traits essentiels, qui souvent définissent la qualité de notre vie, que sont la sécurité d'une part et l'efficacité d'autre part au travers d'une volonté de ne plus perdre de temps, semblent rapidement s'estomper dans les grands ensembles urbains. J'ai souvent décrit combien les grandes villes devenaient de moins en moins efficaces, surtout dans les déplacements de leurs habitants. Pour aller d'un point à un autre de nos grandes cités, entre notre appartement et notre bureau par exemple, nous mettons souvent plus de temps qu'il y a cinquante ans. Cela est devenu plus sensible encore pour ceux qui ont moins de moyens financiers car, au fur et à mesure du déploiement des services massifs de transports en commun tels que les métros et RER, ils ont dû s'exiler de plus en plus loin, l'immobilier des centre-villes n'étant plus à leur portée. Il est inutile de reprendre les centaines de dépêches qui, chaque jour, tombent et relatent des méfaits de plus en plus nombreux pour vérifier la montée de l'insécurité dans nos villes. Il suffit d'observer les traits figés d'une mère qui, le soir, attend sa fille rentrant du travail et qui a un peu de retard, pour comprendre que cette douleur anxieuse frappe au ventre de toutes nos grandes cités. Face à cette problématique, beaucoup de spécialistes continuent à affirmer, comme il y a 40 ans, que la modernité et l'aménagement du territoire ne peuvent s'imaginer sans une croissance permanente des grands ensembles urbains. Si le développement industriel de notre pays suivait la même voie que pendant les « trente glorieuses », ils auraient sans aucun doute raison. Mais pourquoi se le cacher. Il y aura inexorablement de moins en moins de personnes qui travailleront dans les grandes unités industrielles. Si ces grandes entités ne sont pas délocalisées hors de notre pays, elles utiliseront de plus en plus de robots. Et ce n'est certainement pas la réduction unilatérale du temps de travail dans notre pays qui ralentira ce processus... Les emplois « nouveaux » qui seront créés dans ces prochaines décennies seront essentiellement des emplois de services s'appuyant, d'une part, sur le « signal » et, d'autre part, ceux attachés à la personne et plus particulièrement aux personnes âgées. La différence essentielle entre les emplois industriels qui ont porté notre passé récent et les emplois de services qui vont porter notre avenir est que les premiers ont besoin de matières physiques et réelles devant emprunter les autoroutes, les voies ferrées et les routes pour parvenir jusqu'aux usines, alors que les seconds s'appuyant sur un signal « virtuel » n'ont besoin que d'un câble ou même plus rustiquement de l'éther pour se propager. Par définition, les emplois industriels sont donc sédentaires et essentiellement urbains alors que les emplois de services s'appuyant sur le signal sont beaucoup plus nomades et pourront, à l'extrême, être exercés quel que soit notre lieu de résidence. Les services à la personne n'ayant besoin ni de matière ni de signal pour être exercés se développeront là où il y aura des personnes qui voudront et surtout pourront se payer de tels services. Or, les chiffres récemment publiés du dernier recensement mettent en évidence qu'en silence, la France a entrepris une grande migration générationnelle. De plus en plus rejetés par les villes et de plus en plus attirés par le soleil, les jeunes retraités qui ont souvent encore plusieurs décennies à vivre font de plus en plus fréquemment le choix de quitter les grandes cités. Ainsi, les régions du Sud avec leurs plages, leurs cigales, leur soleil, leurs campagnes calmes et bien desservies, voient-elles leur population croître imperturbablement alors que les coeurs et surtout la première couronne de nos grandes villes, insensiblement mais avec la même réalité, perdent des habitants. Il faut avoir conscience que cette migration « héliotropique » n'est souvent accessible qu'aux personnes les plus aisées, qui ont les moyens de rémunérer des emplois de services à la personne alors que les inactifs, les plus démunis, doivent continuer à vivre, avec tension, dans les banlieues les plus stressantes et les plus polluées. Si les pouvoirs publics ne prenaient pas conscience de cette migration d'un nouveau genre, nous pourrions constater que les emplois de services à la personne seraient dans quelques courtes décennies créés et rémunérés sur des fonds publics dans les villes et que les emplois de services à la personne à haute valeur ajoutée, rémunérés sur fonds privés, ne seraient plus dans les villes mais bien dans ces nouveaux espaces de migration. Cette fracture générationnelle et sociale ne serait certainement pas, alors, sans conséquence sur l'ensemble de la structure de notre Nation. En voyant de tels vents contraires se lever face à la ville, certains aménageurs du territoire, à courte vue, pourraient penser que cette rupture historique serait la chance du monde rural. Malheureusement, ils sont dans le faux. Il n'en serait rien. Le monde rural a ses vertus, ses qualités mais aussi ses défauts (pourquoi ne pas le dire ?) parce que sur ses grands espaces peu de personnes y résident. Si demain, comme le disait avec humour Alphonse Allais, nous construisions les villes à la campagne, cela serait un immense gâchis. Non, la solution est ailleurs. Il nous faut profondément repenser la ville et, comme nos anciens ont su le faire au niveau urbanistique au 19e siècle, nous avons l'ardente obligation d'imaginer ce en quoi les nouvelles technologies, les nouveaux moyens de communication, les nouveaux outils de déplacement, les nouvelles énergies non polluantes, les nouvelles approches commerciales vont profondément changer la finalité et le fonctionnement de nos grandes cités. Oui, et ce sera là ma conclusion, nos grandes cités ont encore un grand avenir si elles n'ont qu'un seul objectif : rendre l'Homme heureux.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
L'e-mail fête ses trente ans cet automne
Samedi, 06/10/2001 - 00:00

Comme de nombreuses grandes inventions, le courrier électronique n'a pas défrayé la chronique lors de son apparition, à l'automne 1971. Ray Tomlinson, l'ingénieur américain considéré comme le "père de l'e-mail", ne se souvient plus de la date exacte à laquelle il a envoyé le premier courrier électronique, à qui il l'avait adressé ou le message qu'il contenait. "Je n'ai aucune idée du premier e-mail", a-t-il raconté à Reuters. "La seule chose dont je me souvienne, c'est qu'il était entièrement rédigé en lettres capitales". Trente ans plus tard, Tomlinson est de nouveau sous le feu des projecteurs, tout le monde cherchant à savoir comment ce moyen de communication devenu incontournable a vu le jour. L'ingénieur de BBN Technologies, une filiale de l'opérateur de télécoms américain Verizon, affiche une modestie à toute épreuve, déclarant que son invention n'était "pas un tour de force" et qu'il voulait juste faciliter la communication entre les chercheurs. "Il n'y avait que 200 lignes de code informatique", se souvient-il, soulignant que les protocoles permettant de transférer des dossiers et de rédiger des messages existaient déjà, même s'ils étaient basiques. Par exemple, le programme de messagerie permettait d'envoyer un communiqué à un collègue mais à la condition que la boîte de réception de ce dernier soit sur le même ordinateur que l'émetteur. L'ordinateur personnel n'allait voir le jour qu'une douzaine d'années plus tard. Tomlinson, qui était âgé de trente ans à l'époque, est venu à bout de ce problème en créant des boîtes postales électroniques distantes qui pouvaient envoyer et recevoir des messages via un réseau informatique. Son logiciel initial était baptisé SNDMSG (Send Message). C'est également à Tomlinson que l'on doit l'avènement du symbole @. Il fallait un caractère n'entrant dans la composition d'aucun autre nom propre pour permettre d'identifier l'utilisateur et l'ordinateur où se trouvait la boîte de réception. Le produit final n'était qu'une simple combinaison des deux programmes, insiste Tomlinson. Pour la première fois de l'histoire informatique, il permettait à une personne d'envoyer un message à un autre utilisateur travaillant sur n'importe quel ordinateur connecté au réseau ARPA Net, le précurseur d'internet, développé par le ministère américain de la Défense. A l'époque, une quinzaine de lieux et une vingtaine de machines étaient connectés, notamment dans les universités et les centres de recherches. Aujourd'hui, des millions de personnes utilisent le courrier électronique. Les attentats du 11 septembre à Washington et New York ont consacré ce moyen de communication qui a supplanté les réseaux téléphoniques, détruits ou totalement débordés d'appels. Les Américains se sont rués sur le web pour obtenir des nouvelles de leurs familles et amis. Des e-mails poignants de survivants ont fait le tour de la planète dans les heures qui ont suivi l'effondrement des tours du World Trade Center et l'incendie du Pentagone. Moins d'une semaine plus tard, c'est également par courrier électronique que s'est répandu un virus informatique dangereux, Nidma, qui a attaqué des centaines de serveurs et d'ordinateurs dans le monde, provoquant des millions de dollars de dégâts. Pourtant, à l'automne 1971 - Ray Tomlinson ne se souvient pas du mois exact - l'e-mail connaissait un succès relatif, tout simplement parce que le nombre de ses utilisateurs ne dépassait pas quelques centaines. De plus, dans le meilleur des cas, les connexions par modem ne dépassaient pas 300 bauds, soit environ le vingtième de la vitesse de transmission standard actuelle de 56 ko/s. "Il a fallu quelques années avant que le système soit fiable", concède Tomlinson. "C'est avec l'apparition du PC, dans le milieu des années 80, que les e-mails ont commencé à entrer dans la vie des fanas d'informatique et des étudiants." Autre étape majeure: l'apparition des navigateurs internet, dans les années 90, qui ont mis le réseau mondial à la portée de tous. La croissance du courrier électronique est allée de pair avec l'utilisation du web.

Reuters : http://fr.news.yahoo.com/011002/85/202n4.html

L'info en ligne a gagné ses lettres de noblesse
Samedi, 06/10/2001 - 00:00

Malgré quelques ratés d'ordre technologique, les sites d'information en ligne ont largement contribué à la couverture des attaques terroristes du 11 septembre dernier contre le World Trade Center et le Pentagone. Telle est du moins l'opinion des spécialistes des médias que nous avons interrogés. “Je pense que les sites d'information ont atteint une certaine maturité pendant cette terrible crise”, estime Howard Kurtz, journaliste en charge de la rubrique médias au "Washington Post". “Ils ont couvert l'événement avec toutes sortes de reportages, d'analyses et de commentaires, permettant également aux internautes d'intervenir.” Ce n'est pas la première fois que sont testées les capacités d'Internet en tant que support d'information. La publication du rapport Starr

Courrier International :

[http://www.courrierinternational.com/mag/INTmedia.htm">relatif à l'affaire Clinton-Lewinsky], en 1998, et l'interminable élection présidentielle de l'année dernière aux Etats-Unis avaient déjà démontré l'aptitude de ces sites à gérer des pics de consultation et à proposer rapidement des informations utiles, ainsi que des liens vers des sources contextuelles. “Par le passé, la Toile s'est imposée parce qu'elle offrait davantage d'information que la télévision, dans la mesure où cette dernière ne diffusait que des reportages courts ou parce qu'il y avait peu de chaînes d'information susceptibles d'assurer ce genre de travail”, explique Gabriel Snyder, chroniqueur média au "New York Observer". “Mais, la semaine dernière, toutes les stations de radio et toutes les chaînes de télévision ont consacré l'ensemble de leur programmation aux attaques terroristes. Si bien qu'il y avait la plupart du temps autant d'information, sinon plus, que sur les sites Internet”, ajoute-t-il. Lors des événements précédents, les sources d'information en ligne avaient fait la différence parce que la plupart des infos étaient compliquées ou faisaient appel à de longs documents à l'image des résultats électoraux. “Les attaques terroristes marquent une situation totalement opposée. On disposait de peu d'éléments, et les faits ont beaucoup tardé à venir. Et, quand ils étaient disponibles, la meilleure façon de les connaître était souvent de brancher la télévision”, note M. Snyder. Dès que le rythme des événements s'est ralenti, les sites d'information en ligne ont pris une importance plus grande, estime Rich Gordon, directeur du programme des nouveaux médias à l'école de journalisme Medill, de l'université Northwestern. “A partir du moment où il n'y a plus de faits nouveaux ou que ceux-ci ne sont plus aussi intéressants et qu'ils interviennent de façon inattendue, la meilleure façon de rester dans le coup était de consulter, tous les matins, les sites d'information”, commente-t-il en s'appuyant sur l'immédiateté d'Internet et sur la qualité des informations demandées pour justifier l'ascendant pris par le Net sur les médias audiovisuels. Selon lui, tous les sites qu'il a étudiés ont été à la hauteur. Mais, malgré leur avance technologique, ces sources d'information en ligne manquent encore d'un format interactif leur permettant de traiter les nouvelles de façon différente par rapport aux supports traditionnels. “Je crois que les nouveaux médias devront en fin de compte créer un autre langage pour faire du journalisme. Ce n'est pas encore très visible et, quand ça l'est, cela ne concerne pas des événements importants car cela prend beaucoup de temps à monter, poursuit-il. Nous sommes arrivés à un point, aujourd'hui, où l'on peut monter un reportage vidéo en quelques heures, mais, quand il s'agit de produire un contenu multimédia interactif, cela demande plusieurs jours. C'est là un défi auquel nous devons réfléchir.” Mindy McAdmas, qui fait des recherches et enseigne le journalisme en ligne à l'université de Floride, explique que le Net a été particulièrement utile pour accéder aux commentaires et aux articles produits à l'étranger. Elle a, par exemple, consulté le site du "Bangkok Post" pour recueillir des articles sur les ressortissants thaïs qui travaillaient au World Trade Center. Les témoignages qui venaient de personnes ayant vécu directement les événements publiés sur le site Webloggers, implanté à New York, constituent un élément encore plus passionnant à ses yeux. Ils étaient souvent accompagnés de photographies et de vidéos prises sur les lieux des attentats. “Cela démontre que l'information ne se limite plus à ce que nous considérons comme les médias traditionnels. L'interview de l'homme de la rue est maintenant réalisée par l'homme de la rue, puis publiée en ligne avec ses propres photos.” Pour Sreenath Sreenivasan, professeur chargé des nouveaux médias à l'école supérieure de journalisme de l'université Columbia, le traitement de l'information auquel ont procédé les sites lors des événements de New York et de Washington devrait amener les médias à reconsidérer leurs opérations sur le Net. “Alors qu'il était de bon ton, après l'éclatement de la bulle Internet, de dénigrer le journalisme en ligne, les événements ont démontré de différentes façons qu'il était indispensable d'accorder des moyens à cette forme d'information.”

Courrier International :

[http://www.courrierinternational.com/mag/INTmedia.htm

La grande distribution commence à croire à l'avenir du cybermarché
Samedi, 06/10/2001 - 00:00

La cause est entendue: le commerce alimentaire sur Internet ne sera pas une affaire de start-up. Les dernières illusions sont tombées cet été avec la retentissante faillite du cybermarché américain webvan. Mais c'est paradoxalement au moment où le doute s'est installé sur la rentabilité des activités Internet que la grande distribution commence à croire au concept du supermarché en ligne. "Depuis cet été, on assiste incontestablement à un raffermissement de la confiance du secteur dans cette activité, mais les règles du jeu ont complètement changé. La course au volume est terminée, les acteurs se concentrent désormais sur la réduction des pertes", observe Philippe Lemoine, co-PDG des Galeries Lafayette, le principal actionnaire du leader français du marché, Telemarket. Signe que le concept a mûri, tous les grands acteurs de la distribution investissent le créneau. Telemarket est parti le premier, rejoint depuis par Cora (Houra), Carrefour (Ooshop), Casino (c-mescourses), et plus récemment Auchan (Auchandirect). Même Leclerc, au départ le plus réticent, va se jeter à l'eau. Le groupement doit lancer en 2002 une série de supermarchés virtuels régionaux en s'appuyant sur une logistique locale. Désormais, la grande distribution règne en maître sur le marché de l'épicerie en ligne. Sa puissance d'achat et sa force de frappe logistique constituent une condition sine qua non à la rentabilité du modèle. Même la start-up Peapod, qui avait réussi à percer sur le marché américain, a été obligée de se brader au distributeur néerlandais Ahold. Et le leader mondial incontesté n'est autre que la chaîne de supermarchés britanniques, Tesco, qui pourrait dépasser cette année les 500millions d'euros de chiffre d'affaires avec un portefeuille de plus de 600000 clients. "L'erreur des start-up a été de croire que le temps des courses en hypermarché était fini, Internet n'est pas un nouveau concept de distribution, c'est simplement un média capable d'offrir une complémentarité à une offre commerciale existante", souligne Michel-Edouard Leclerc. Pour le moment, la cible de clientèle est réduite. En 2001, le commerce alimentaire sur Internet en France devrait représenter 1,3 milliard de francs de chiffre d'affaires, soit à peine 1 % du commerce alimentaire francilien. La région parisienne est la principale zone d'implantation des cybermarchés. Seul Houra a pris le risque d'avoir une couverture nationale. "Le marché grand public n'est pas encore mature, pour le moment, il est dévoreur d'investissements et n'est pas amortissable au regard de la demande", explique, dubitatif, M.Leclerc. Aussi, les grandes enseignes, échaudées par les excès des premières heures de l'Internet, investissent aujourd'hui de façon chirurgicale, au rythme de la croissance de la demande qui, elle, est bien réelle. Ooshop, qui a réalisé 200 millions de francs de chiffre d'affaires en 2000, devrait atteindre les 500 millions cette année. En situation de saturation sur la région parisienne, le site de Carrefour a inauguré début septembre un entrepôt de 10000 m2à Marly-la-Ville (Val-d'Oise). Cet investissement de 15 millions d'euros devrait permettre de multiplier ses capacités par 2,5. L'automatisation des installations permettra ensuite de doubler encore les capacités.

Le Monde :

http://www.lemonde.fr/article/0,5987,3234--227885-,00.html

Voir loin même avec une canne blanche
Samedi, 06/10/2001 - 00:00

L'antique canne blanche utilisée par les non voyants pourrait bien profiter des avancées de la Science en matière de miniaturisation et de technologie laser. Des chercheurs français ont mis au point une canne blanche capable de donner plus d'informations sur l'univers qui entoure les aveugles. "Il s'agit d'un système de mesure des distances par rayon laser : plus la distance est courte, plus la note émise est aiguë", explique l'un des inventeurs de l'appareil, René Farcy. Ce physicien, chercheur au CNRS et à l'Université Paris-Sud/Orsay, a travaillé pendant huit ans pour mettre au point ce dispositif et la formation adéquate pour s'en servir. Deux appareils, présentés le Lions Club, qui soutient ce projet, ont été mis au point et peuvent se compléter. Le Tom Pouce, qui s'adapte directement sur la canne, permet de détecter des obstacles jusqu'à 4 mètres et transmet l'information par vibrations. Le Télétact décrit beaucoup plus finement l'espace, jusqu'à une quinzaine de mètres, la balayage du faisceau permettant de détecter les profils et de reconnaître les formes. Un appareil unique, faisant la synthèse des deux dispositifs, doit sortir prochainement. Le non-voyant peut ainsi mieux découvrir son environnement, faire la différence entre un portail et un mur, distinguer des recoins sans pour autant raser les murs. Reste le prix de ces cannes "hi-tech" : 5.000 F (762 EUR) pour le Tom Pouce, 15.000 F (2.286 EUR) pour le Télétact. S'y ajoute une formation indispensable pour bien interpréter les sons. "Il s'agit d'apprendre à capter les différentes informations, à les trier et à en déduire des comportements de locomotion", explique Janet Green, instructrice de locomotion. En tout, une quarantaine d'heures pour un coût estimé de 12.000 F (1.829 EUR). Dans l'immédiat, l'association cherche à dépasser le "seuil critique" des 60 utilisateurs pour déposer un dossier de remboursement à la Sécurité sociale. L'association Lions Cannes électroniques estime à 50.000 en France le nombre d'aveugles qui souhaitent et peuvent se déplacer quotidiennement. Sur ce nombre, 6 à 10.000 ont l'aptitude nécessaire pour suivre la formation qui leur permettrait d'utiliser la canne blanche électronique.

TF1 : http://www.tf1.fr/news/sciences/0,,821977,00.html

L'Ethernet à 10 Gbit/s arrive !
Samedi, 06/10/2001 - 00:00

Ethernet, aujourd'hui à la base de la plupart des réseaux locaux d'entreprise, s'apprête à décupler de vitesse en passant à 10 Gigabit/s. Bien que le standard ne soit pas encore finalisé, les premiers produits étaient présentés au salon Interop. En passant à 10 Gbit/s, le réseau local change totalement de nature. Il s'attaque aux réseaux métropolitains, construits par des opérateurs à l'échelle d'une ville, d'un campus universitaire ou d'une zone industrielle et constituera alors alternative économique aux technologies SDH et Sonet actuelles. A la clé, "une réduction des coûts des services fournis aux entreprises d'un facteur quatre à quinze", estime François Tournesac, directeur pour l'Europe du Sud d'Atrica. Issue de 3Com, cette jeune société se positionne exclusivement sur ce marché prometteur, estimé à 15 milliards de dollars à l'horizon 2004. A partir des brevets et des technologies Ethernet de la maison d'origine, elle développe des solutions d'Ethernet optique à 10 Gigabit/s pour les opérateurs. Son commutateur A-8800 offre ce débit sur un lien à fibre optique de moins de 40 Km. Des distances plus grandes sont possibles à partir d'un anneau basé sur plusieurs commutateurs. La capacité de commutation comprend le multiplexage de longueurs d'onde, qui consiste à transmettre dans la même fibre plusieurs ondes lumineuses en simultanée. Jusqu'à 33 longueurs d'onde peuvent ainsi mélangées pour disposer au total d'une bande passante de 330 Gigabit/s. La finalisation du standard est attendue pour la fin de l'année et la commercialisation des premiers produits pour 2002.

Industries&Techniques :

http://www.industries-techniques.com/site/quotidien/page.cfm?

Le Japon bascule dans la troisième génération
Samedi, 06/10/2001 - 00:00

Avec quatre mois de retard mais probablement un an d'avance sur le reste du monde, les Japonais deviendront cette semaine les premiers utilisateurs de service de téléphonie de troisième génération (3G). En mai, confronté à des problèmes techniques sur ses combinés et des problèmes de stabilité de réseau, NTT DoCoMo avait dû transformer le lancement tant attendu de ses services 3G en simple phase de test. Tout semble désormais au point pour le baptême du feu, programmé le 1er octobre. "Nous sommes plus que prêts", a confirmé Keiji Tachikawa, Pdg de NTT DoCoMo, lors d'une conférence de presse à Tokyo. Les futurs téléphones de troisième génération utiliseront un spectre radio particulier et permettront de se connecter à internet à des vitesses six à 40 fois plus rapides que les services actuels. Ce lancement est très attendu sur le marché des télécoms, surtout par les principaux rivaux de DoCoMo en Europe qui ont englouti plus de 100 milliards de dollars dans l'achat de licences de troisième génération avant de voir leurs actions dégringoler. Au Japon, où le grand public s'est familiarisé avec la navigation sur internet par téléphone portable grâce au service "i-mode" de DoCoMo, trois modèles de combinés seront disponibles à partir du 1er octobre. Dans un premier temps, leur utilisation sera limitée à Tokyo et à sa grande banlieue. Pour le secteur japonais des nouvelles technologies, l'inauguration aura également une valeur de symbole. Après dix années de stagnation économique, la deuxième économie mondiale a soif de prouver qu'elle peut coiffer le reste du monde au poteau, tout du moins sur le marché de la téléphonie mobile. Même le plus grand rival de DoCoMo sur la scène mondiale, le britannique Vodafone Group Plc, a avoué que le lancement était un événement de premier ordre. "C'est bon pour la confiance" de tous les opérateurs, a reconnu le Pdg de Vodafone, Chris Gent, lors d'une visite dans l'archipel cette semaine. Même si le cours de l'action DoCoMo a subi des dommages au cours des 18 derniers mois, l'opérateur a été moins durement touché que ses concurrents européens, dont les titres ont été multipliés par deux, voire par trois, il y a deux ans avant de plonger à des plus bas historiques. DoCoMo, dont le nom signifie "Partout" en japonais, passera lundi le cap de la troisième génération avec au moins six mois d'avance sur son premier rival japonais et près d'un an sur ses homologues européens. DoCoMo a promis que les services 3G, qui seront commercialisés sous la marque FOMA (pour Freedom of Mobile Multimedia Access) , seront disponibles dans tout le pays dans moins d'un an, compteront six millions d'abonnés dans trois ans et afficheront un bénéfice dans quatre ans. Si l'on en juge par les quelque 150.000 candidatures à la phase de tests alors que seuls 4.500 téléphones 3G étaient disponibles en mai, ces prévisions pourraient être atteintes bien plus tôt. En fait, l'opérateur japonais tablerait sur 150.000 abonnés dès le mois de mars 2002. Deux des trois modèles disponibles sont commercialisés sous la marque Panasonic et fabriqués par Matsushita Industrial Co Ltd., le milieu de gamme étant issu des chaînes de production de NEC Corp. Le Panasonic haut de gamme, bleu et or, pèsera 150 grammes, devrait être vendu aux alentours de 60.000 yens (501 dollars) et comporte une petite caméra pliable, permettant à son utilisateur de suivre des vidéoconférences. Le combiné standard de NEC, argent et rouge, sera vendu environ 40.000 yens. Les deux appareils offrent un accès à internet haut débit et une qualité de transmission vocale comparable à celle des lignes fixes et n'ont pas d'antenne dépassant du combiné. En tout état de cause, jusqu'au décollage effectif de la troisième génération, DoCoMo peut compter sur l'enthousiasme de ses clients pour les services existants, qui ont permis à l'opérateur de faire exploser son chiffre d'affaires et qui lui ont rapporté 3 milliards de dollars de bénéfice net au cours de l'année fiscale qui s'est terminée en mars.

Reuters : http://fr.news.yahoo.com/010929/85/1zty1.html

^ Haut
Avenir
Nanotechnologies et Robotique
Les 4 forces de la nature chamboulées
Samedi, 06/10/2001 - 00:00

La nouvelle est tombée fin août, juste avant la rentrée : les constantes de la physique, pilier des lois de la nature et des enseignements, ne sont plus constantes ! Ces valeurs parfois douloureusement apprises et que l'on croyait gravées dans le marbre varient avec le temps. La vitesse de la lumière ? Variable. La constante de gravitation ou celle de la thermodynamique ? Inconstantes. Et celle de la mécanique quantique ? Idem. Même la charge électrique et la masse de l'électron ne valaient pas hier ce qu'elles valent aujourd'hui. Et dans cette valse des étiquettes, l'euro n'est pour rien. Mais l'affaire est sérieuse. Car, au fond, ce sont les lois de la nature qu'il faut retoucher et reprendre pour expliquer comment ces paramètres perdent leur statut de constantes pour devenir de vulgaires variables. Plus probablement, de nouvelles lois devront être écrites. Mais qui a déclenché une telle pagaille ? Pour une fois, ce sont moins des théoriciens que des expérimentateurs. Patiemment, l'équipe de l'Australien John Webb, de l'université de Nouvelle-Galles du Sud à Sydney, a scruté le ciel et la lumière venue des quasars. Grâce aux miroirs de l'observatoire hawaïen de Mauna Kea, elle a analysé cette lumière qui arrive jusqu'à nous après avoir traversé des nuages d'atomes et de molécules de différente nature et de différents âges (voir le schéma ci-dessus). Leur conclusion est presque sans appel : les constantes bougent. Pas énormément, certes, seulement de quelque 0,0007 % selon les mesures effectuées entre 3,5 et 13 milliards d'années après le Big Bang, mais suffisamment pour s'interroger sérieusement.

" Si nous avons raison, c'est potentiellement révolutionnaire, s'enflamme Michael Murphy, l'un des participants à l'expérience. Nous n'avons pas trouvé une nouvelle loi de la physique, mais nous sommes un peu comme Newton et sa pomme : nous avons l'indice qu'il y a dans la nature quelque chose de plus fondamental que nous ne connaissons pas. L'ironie de l'histoire, c'est que les théoriciens n'ont guère été surpris. Voilà près de soixante-dix ans en fait que l'inconstance des constantes est dans l'air du temps. L'un des plus grand, Paul Dirac, avait déjà osé toucher à certaines de ces constantes pour conclure que leur valeur était parfaitement ajustée pour permettre notre existence. Mais les efforts les plus sérieux sont beaucoup plus récents et font partie de cette longue marche de la physique vers l'unification des forces. L'expérience de John Webb prend là tout son sens. En fait, elle n'a pas directement mesuré les constantes les plus connues comme la vitesse de la lumière, la charge de l'électron ou la constante de gravitation. C'est à un mélange de toutes ces forces familières que les détecteurs ont été sensibles. Plus précisément à la constante dite de structure fine, qui est attachée à la force électromagnétique. Dans la nature, à chaque force fondamentale est associée une constante dite de couplage qui est un nombre sans dimension, produit et division de certaines de nos constantes familières. Et si l'une de ces constantes fondamentales bouge, alors toutes doivent bouger. Mais pas trop, car notre histoire depuis le Big Bang est très chatouilleuse. De petites variations sur ces grandeurs et ce sont des conséquences telles que nous ne serions même plus là pour en parler ! Or nous sommes bien là, ce qui est la preuve que ces variations n'ont pas été si importantes et si elles l'ont été, ce fut sans doute lors des premiers babillages de l'Univers. Il reste donc encore beaucoup à apprendre pour comprendre ce qui se cache loin, très loin derrière les virgules. La beauté du monde est sans doute dans ces détails.

Sciences & Avenir N°656 :

http://www.sciencesetavenir.com/comprendre/page76.html

Un nouvelle étape vers la téléportation
Samedi, 06/10/2001 - 00:00

Deux nuages distants l'un de l'autre, composés de trillions d'atomes ont été pour la première fois reliés par enchevêtrement quantique, créant un lien télépathique entre eux et leurs particules éloignées. Trois ans aprés la première expérience de téléportation quantique, au California Institute of Technology, cet exploit ouvre l'espoir à la téléportation d'objets d'un endroit à un autre. Jusqu'à maintenant les scientifiques n'avaient réussi à relier que quelques atomes entre eux. Jusqu'à présent les expériences d'intrication n'avaient impliqué que quelques atomes. Polzik, qui publie un article dans Nature, a lui réussi à intriquer des millions d'atomes de césium à l'état gazeux. Ces liens entre les deux groupes d'atomes n'ont été maintenus qu'une demi-milliseconde. La prochaine étape est de prolonger l'expérience plus longtemps. Cette équipe de l'université d'Aarhus au Danemark a réussi à relier deux nuages de trillions d'atomes de césium. Cette liaison a fonctionné alors que les nuages étaient distants l'un de l'autre. Les atomes ont interagi, de telle sorte que les événements affectant l'un affectait l'autre, indépendemment de la distance les séparant. Les scientifiques ont l'espoir qu'en intensifiant cet enchevêtrement, cela pourrait ouvrir la porte à des systèmes de communications quantiques ultra-rapides. Mais pour la téléportation d'objets ou, à fortiori d'êtres humains, il faudra encore se contenter longtemps encore de regarder "Star Steck".

New Scientist :

http://www.newscientist.com/news/news.jsp?id=ns99991346

Nature :

http://www.nature.com/nlink/v413/n6854/abs/413400a0_fs.html

Infiniment petit, infiniment prometteur
Samedi, 06/10/2001 - 00:00

Imaginez un instrument médical tellement petit qu'il pourrait voyager à l'intérieur de vos artères pour venir déboucher un vaisseau endommagé. Une fois le travail fait, il s'éteindrait de lui même pour être éliminé par le corps. Pensez maintenant à la multitude d'applications qu'une pareille machinerie miniature aurait pour l'industrie informatique, l'aéronautique, la défense ou l'agro-alimentaire...Bienvenue dans le monde des nanotechnologies où l'on calcule en millionièmes de millimètres, l'oeil collé à un puissant microscope. Le nanomètre, une unité de mesure définie par Albert Einstein en 1905, représente l'essence même du petit : à son échelle, les lois physiques qui régissent notre monde perdent de leur acuité et la curieuse mécanique quantique entre en scène. Objet d'étude pour les scientifiques mais aussi perspectives attirantes pour les industriels : la miniaturisation n'est-elle pas une des clés de l'avenir, par exemple pour l'industrie informatique à la recherche de microprocesseurs toujours plus petits et plus rapides ? Or, dans à peine 15 ans, une limite physique empêchera de miniaturiser encore les actuelles puces au silicium. IBM a prévu la parade. Le groupe américain a révélé cet été qu'il avait conçu la première puce moléculaire à partir d'un nanotube de carbone, 100.000 fois plus fin qu'un cheveu humain. Ses performances seraient « inimaginables » en termes de puissance et d'économies d'énergie, selon les responsables de Big Blue. D'autres industries ont déjà un pied dans le nanomonde. Dans ses raffineries, le pétrolier Exxon utilise des minéraux aux pores de la taille d'un nanomètre (les zéolites) pour "craquer" plus efficacement les molécules d'hydrocarbures pour fabriquer de l'essence. Dans le domaine biomédical, des médicaments contre le cancer ont été enchâssés dans des nanosphères faites de lipides pour une meilleure distribution du traitement chez le patient. En attendant les nanopuces qui détecteront en un clin d'oeil virus et bactéries dans un échantillon de sang humain... Ou dans le réseau de distribution d'eau potable d'une grande ville. En France, une start-up a commencé à faire parler d'elle dans ce domaine. Premier en Europe, Nanoledge, expert en nanotechnologies des matériaux, vient de mettre sur le marché ses premiers nanotubes de carbone, cent fois plus résistants et six fois plus légers que l'acier. L'une de ses applications - le stockage de molécules d'hydrogène - pourrait intéresser l'industrie automobile dans ses recherches autour de la voiture du futur.

Tribune :

http://www.latribune.fr/Tribune/Articles.nsf/ArticlesWeb/IDD6D249059839D413C1256...

^ Haut
Matière
Matière et Energie
Le fullerène de silicium matériau de l'électronique du futur ?
Samedi, 06/10/2001 - 00:00

Un groupe de l'Institute for Materials Research de l'Universite de Tohoku vient de découvrir qu'il était possible de former des structures fullerènes sphériques avec des atomes de silicium. Cette découverte provient en fait d'une simulation effectuée sur un supercalculateur et devrait conduire a de nouveaux développements de matériaux pour l'électronique. L'équipe dirigée par le professeur Yoshiyuki Kawazoe et le Pr. invite Vijay Kumar, a découvert qu'une structure sphérique pouvait être réalisée avec un coeur constitue d'un atome de fer ou de ruthénium entoure de 14 ou 16 atomes de silicium. Ils ont ainsi montré qu'il existait neuf structures possibles différentes dont l'octogone. Cette découverte a été publiée dans le journal américain "Physical Review Letters". On attend de ces fullerenes qu'ils puissent émettre de la lumière bleue ou violette et qu'ils permettent l'élaboration de circuits ultra-intégrés. Comme l'a fait remarquer le Pr. Kawazoe: " la technologie fine du silicium est nettement plus en avance que celle du carbone, les fullerenes de silicium pourrait devenir le principal matériau pour l'électronique dans un futur proche." Les recherches, la production et la commercialisation des fullerènes de carbone sont cependant déjà bien avancées.

Be Japon : http://www.adit.fr/veille/be/japon/

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat : le pire est à venir
Samedi, 06/10/2001 - 00:00

Un nouveau rapport des experts scientifiques de l'ONU sur le climat, publié le 1-10-2001 à Londres, souligne la nécessité de réduire à une "petite fraction de leur niveau de 1990" les émissions de gaz à effet de serre (GES) dans tous les pays et pas seulement dans les pays développés comme l'exige le protocole de Kyoto. Même si cette réduction intervenait "d'ici quelques décennies", la température continuerait d'augmenter pendant un ou plusieurs siècles avec un cortège de catastrophes potentielles et le niveau de la mer s'élèverait encore "pendant des millénaires". Le document, signé du GIEC (Groupe intergouvernemental sur l'évolution du climat, IPCC en anglais), résume à l'intention des politiques les données de trois rapports partiels établis en début d'année. En voici les principales données: "Une stabilisation des concentrations de CO2 (dans l'atmosphère), quel que soit le niveau retenu, exige une réduction des émissions mondiales de CO2 (gaz carbonique) afin qu'elles ne représentent plus qu'une petite fraction de leur niveau actuel". "Une stabilisation des concentrations de CO2 dans l'atmosphère à 450 parties par million (ppm), 650 ou 1.000 ppm (contre 368 ppm en 2000, ndlr) nécessiterait de réduire les émissions mondiales de CO2 au dessous de leur niveau de 1990, d'ici quelques décennies, un siècle environ ou deux siècles environ respectivement. Ces émissions devraient ensuite (dans tous les cas de figure, ndlr) diminuer constamment pour atteindre une petite fraction du niveau atteint aujourd'hui" "Les réductions d'émissions de gaz à effet de serre (notamment du principal d'entre eux, le CO2 ou gaz carbonique, ndlr), même une stabilisation à faible niveau de leurs concentrations dans l'atmosphère, n'empêcheront ni le changement climatique ou la hausse du niveau de la mer ni leurs impacts". "Une fois les concentrations de gaz à effet de serre stabilisées, la température continuera d'augmenter d'un 1/10ème de degré par siècle durant au moins un siècle tandis que le niveau de la mer continuera de s'élever" pendant des millénaires. Les six scénarios prédictifs utilisés par le GIEC se basent sur des concentrations de CO2 dans l'atmosphère allant de 540 à 940 parties par millions (ppm), soit la fourchette qui leur semble représentative de la capacité prévisible des humains d'amorcer un véritable virage dans leur utilisation de l'énergie. En comparaison, la concentration de carbone atmosphérique se situait autour de 280 ppm avant l'ère pré-industrielle pour atteindre l'an dernier 368 ppm, une augmentation de 31 % en 130 ans, attribuable à l'utilisation intensive des hydrocarbures (charbon, pétrole, gaz, etc.), affirme le GIEC. Même si on parvient à stabiliser les concentrations de gaz à effet de serre et in fine les températures, "certains changements du système climatique (...) seraient effectivement irréversibles. Par exemple une fusion des calottes glaciaires de grande ampleur et des modifications fondamentales de la circulation océanique" ne pourraient plus être stoppées pendant des générations. Les forêts et terres agricoles qui stockent du gaz carbonique dans certaines conditions de gestion représentent "un potentiel important" pour la lutte contre le changement climatique. "Le changement climatique affecte des problèmes d'environnement comme la perte de biodiversité, la désertification, la diminution de l'ozone stratosphérique, les ressources en eau et la qualité de l'air. Il est parallèlement affecté par beaucoup de ces problèmes". La lutte doit être menée sur tous les fronts simultanément, quitte à devoir faire des compromis. "Ainsi (...) si de nouvelles plantations d'une seule espèce étaient faites dans un endroit donné, elles pourraient nuire à la biodiversité". Les impacts inévitables du changement climatique seront d'autant plus réduits que la lutte contre le phénomène commencera plus tôt. Si cette lutte commence plus tôt, elle sera aussi beaucoup moins coûteuse. "La croissance économique à long terme ne sera pas affectée de manière significative par des mesures" de lutte contre le changement climatique "en vue de stabiliser" les concentrations de CO2 dans l'atmosphère mais, à plus courte échéance, elle peut subir "de grandes variations dans certains secteurs et dans certaines régions". Si on ne fait rien, la hausse du thermomètre (comparée à 1990) atteindrait entre 1,5C centigrade et 4,8C dès 2100 et celle du niveau de la mer entre 9 cm et 88 cm, ce qui correspondrait à une hausse des concentrations de CO2 de 540 ppm à 970 ppm dès 2100. Le GIEC estime toujours que ce sont les pays pauvres d'Asie et d'Afrique principalement qui vont écoper des pénuries d'eau en vue, sans précédent dans l'histoire de l'humanité. Mais les technologies sont là, disent-ils, y compris un virage majeur vers l'éolien, pour amorcer un virage d'autant plus rapide qu'il s'accompagnera d'un changement global des modes de consommation et de production actuels.

AFP : http://fr.news.yahoo.com/011001/1/200bk.html

Rapport du Groupe Intergouvernemental sur le changement Climatique :

http://www.ipcc.ch/pub/SYR-text.pdf

De l'urée dans le moteur
Samedi, 06/10/2001 - 00:00

Pour lutter contre la pollution des voitures fonctionnant au diesel, des chercheurs hollandais proposent d'utiliser de l'extrait d'urine. Il n'est pas question de collecter la matière première dans les toilettes des stations services, l'urée se fabrique industriellement depuis longtemps. Elle est utilisée comme engrais azoté (elle contient 46,7% d'azote, qui devient de l'ammoniaque dans le sol) et permet de fabriquer certaines résines et des barbituriques. Aujourd'hui, l'urée pourrait se révéler très utile pour transformer l'oxyde d'azote toxique qui s'échappe en grande quantité des voitures diesels, en azote et vapeur d'eau. Les pots catalytiques, posés sur les voitures à essence, ne servent à rien sur les véhicules diesel. Son principe de fonctionnement repose sur la transformation des gaz polluants en eau, azote et dioxyde de carbone sous l'action de métaux rares tels le palladium et le rhodium. Dans le nouveau système, la chaleur des gaz d'échappement transformerait l'urée en ammoniaque qui réagirait alors avec l'oxyde d'azote dont l'émission serait ainsi réduite de 80%. L'idée d'utiliser directement de l'ammoniaque a déjà été proposée mais abandonnée à cause de la toxicité de cette substance. Dans le camion prototype construit par l'équipe néerlandaise, l'urée liquide est stockée dans un réservoir supplémentaire. La consommation est de l'ordre d'un litre pour 18 litres de carburant. Certaines compagnies pétrolières se penchent déjà sur l'installation de pompes à urée dans les stations services.

Science&Avenir :

http://permanent.sciencesetavenir.com/sci_20011001.OBS8967.html

New Scientist : http://www.newscientist.com/news/news.jsp?id=ns99991347

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Thérapie cellulaire par cellules souches adultes
Samedi, 06/10/2001 - 00:00

On n'a sans doute jamais autant entendu parler de cellules souches. Celogos, créée en juin dernier par deux chercheurs de l'Institut Pasteur, se distingue par ses travaux sur les cellules souches adultes destinées à la thérapie cellulaire. Ce type de thérapie est reconnu comme une voie d'avenir pour le traitement de maladies : elle a déjà été utilisée avec succès pour la réparation de la peau chez les grands brûlés et commence à permettre la réparation d'os et de ligaments. Mais la principale limite est l'obtention de cultures cellulaires de qualité. Or justement, la technologie Rational Cell Design, développée par ces chercheurs français, donne accès à des cultures de cellules humaines souches hautement qualifiées. Cette technique combine bio-informatique et technologie cellulaire. Les fondateurs de Celogos (Christian Pinset et Didier Montarras) ont choisi d'utiliser des cellules souches adultes du muscle du squelette. Ces cellules ont en effet plusieurs atouts : elles sont à la fois faciles d'accès, stables génétiquement et présentent un fort potentiel de différentiation et de croissance. Le greffage de telles cellules peut permettre la réparation de muscles. En outre, après avoir été modifiées génétiquement puis implantées dans l'organisme, elles peuvent produire en continu et sur le long terme des protéines-médicaments. Autre application : ces cellules sont des outils importants pour le criblage pharmacologique.

Industries&Techniques :

http://www.industries-techniques.com/site/quotidien/page.cfm?

Parkinson et Alzheimer, même traitement ?
Samedi, 06/10/2001 - 00:00

Des scientifiques américains ont constaté qu'il existe une relation entre les maladies de Parkinson et d'Alzheimer. En modifiant génétiquement des souris pour qu'elles soient porteuses des affections neurologiques, ils ont pu effectuer des comparaisons. Les chercheurs de l'Université de Californie ont d'abord classé les rongeurs en trois groupes puis les ont modifiés génétiquement, pour leur faire porter les gènes humains responsables des maladies de Parkinson et d'Alzheimer. Ils ont transformé le génome du premier groupe pour qu'il produise la protéine alpha-synucléine à l'origine de la maladie de Parkinson; celui du deuxième groupe afin qu'il fabrique la protéine béta-amyloïde, qui engendre l'Alzheimer et celui du dernier groupe pour qu'il produise les deux protéines. Certaines souris du troisième groupe ont contracté la maladie de Parkinson et leur état s'est altéré plus rapidement que les souris qui produisent uniquement la protéine béta-amyloïde. Idem pour celles qui ont contracté la maladie d'Alzheimer, qui s'est développée plus vite que chez les souris du deuxième groupe. Les chercheurs en déduisent donc qu'en bloquant l'une des deux protéines, on peut réduire la progression des deux maladies. Ils espèrent que leur découverte conduira à de nouveaux traitements. La maladie de Parkinson est une maladie neurologique chronique, caractérisée par des tremblements, une rigidité musculaire et une lenteur des mouvements. Elle apparaît vers 50 ans et affecte davantage les hommes que les femmes. Elle a pour mécanisme la dégénérescence des noyaux gris centraux. Les cellules nerveuses de ces noyaux ne sécrètent plus de dopamine en quantité suffisante. La maladie d'Alzheimer n'est pas une simple altération des facultés mentales dues à l'usure de l'organisme. C'est une démence sénile, caractérisée par des pertes de mémoire, des troubles de jugement et de raisonnement, des changements d'humeur et de comportement. Elle est causée par la dégénérescence des neurones qui interviennent dans la mémoire et les fonctions intellectuelles et n'est pas lié à l'âge.

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N2501.asp

Des traitements pour abaisser la pression artérielle diminuent les risques de rechute d'accidents vasculaires cérébraux
Samedi, 06/10/2001 - 00:00

Une étude multicentrique publiée dans la revue The Lancet montre que l'association de traitements réduisant la pression artérielle diminue considérablement les risques d'accidents vasculaires cérébraux (AVC).L'étude appelée PROGRESS, menée par le docteur Stephen Mac Mahon de l'université de Sydney en Australie, a porté sur 6105 patients provenant d'Asie, d'Australie et d'Europe. Ces patients, hypertendus ou non, avaient auparavant été victimes soit d'un AVC soit de problèmes ischémiques transitoires. Les patients ont reçu soit un traitement combiné ou isolé de diurétique (Indapamide) et de Perindopril, un inhibiteur de l'enzyme de conversion de l'angiotensine, soit un placebo. Après quatre années de surveillance, la pression artérielle a baissé parmi les patients ayant reçu le double traitement Indapamide/Perindopril par rapport au groupe placebo (de 2,4 mm de mercure) et le risque de survenue d'AVC a chuté de 43 %. Et ce, même chez les patients avec une pression sanguine à la normale. La prise d'un seul traitement a réduit la pression de 1,6 mm de mercure et n'a pas permis de réduire le risque d'AVC ou d'accidents vasculaires majeurs. Les chercheurs concluent de cette étude que le traitement combiné Indapamide/Perindopril devrait être prescrit en routine pour les personnes avec un passé d'AVC ou d'accident ischémique, indépendamment de leur pression sanguine.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=2511

Espérance de vie : vers une stagnation ?
Samedi, 06/10/2001 - 00:00

Mais où s'arrêtera-t-on ? C'est la question que l'on se pose quand on voit la formidable augmentation de l'espérance de vie de la population française : le nombre de personnes centenaires connaît une croissance presque exponentielle. Les récentes études sur la DHEA, présentée comme une véritable hormone de jouvence ainsi que les nombreux progrès thérapeutiques laissaient entrevoir une poursuite de cette augmentation de l'espérance de vie, avec une nette amélioration de la qualité de vie. En fait, il s'avère que cette progression s'arrêtera net prochainement... Les femmes ont une espérance de vie plus longue que celle des hommes. Cependant, les hommes ont "gagné" 1,2 an entre 1994 et 1999 contre seulement 7 mois pour les femmes. Les "pronostics" pour les prochaines années de l'Institut national d'études démographiques (l'INED), parus dans la revue "Population" (Numéro 3-2000) ne sont guère brillants. La progression de l'espérance de vie des femmes connaît un ralentissement visible depuis quelques années. Cette tendance devrait s'affirmer encore plus, jusqu'à aboutir à une stagnation complète de la durée de vie dans les premières années 2000. A l'origine de cette stagnation, le tabagisme féminin. La consommation du tabac est globalement en régression, mais en faveur des hommes. Parallèlement, la mortalité féminine due au tabac connaît une croissance continue : les pathologies cancéreuses et les maladies respiratoires obstructives en sont responsables. Concernant les hommes, la consommation d'alcool sera à l'origine d'une stagnation de la progression de leur espérance de vie. En effet, cette consommation a connu une chute constante pendant vingt-quatre ans, de 1969 à 1992. Depuis 1993, elle se stabilise : du fait du décalage entre l'évolution de la consommation et l'évolution de la mortalité, on devrait observer dans les années futures une stagnation de l'espérance de vie des hommes. Ce qui est paradoxal, c'est que les nouvelles maladies infectieuses (SIDA, Hépatite B et C) ne pèsent finalement pas dans la stagnation de cette espérance de vie : en terme de santé publique, les conduites addictives (alcool, tabac) restent les principales responsables.

Csante Presse : http://www.csante.com/comsante/gen/read.php3?

Un nez électronique pour détecter rapidement les agents infectieux du sang
Samedi, 06/10/2001 - 00:00

Un groupe d'étudiants de l'Institut de Technologie de l'Illinois (EU) vient de mettre au point un appareil capable de détecter spécifiquement l'émission de gaz produits par certaines bactéries infectant le sang. Ce'nez électronique' devrait aider de manière plus rapide le diagnostic des septicémies. Cette étude qui paraît dans la revue Journal of Micriobology, décrit un système de capteurs électroniques sensoriels, au nombre de huit, pouvant analyser et identifier des centaines de mélanges gazeux, comme de véritables signatures chimiques. Christopher Morong, le coordinateur de cette étude, a aider à rapprocher différentes équipes de l'institut afin de développer le programme informatique sensoriel et il a également été le responsable de s mise au point. Cet appareil a été conçu en réponse à l'observation de certains techniciens du laboratoire d'analyse du Cook County Hospital à Chicago, qui avaient remarqué une relation entre certaines odeurs et des pathogènes retrouvés dans le sang. Dans un laboratoire d'analyses classique, il faut environ 48 heures pour diagnostiquer une bactérie pathogène entre le temps de culture de la bactérie et sa caractérisation biochimique. « Dans l'avenir, vous devrions être capables de prendre le sang d'un malade et de 'sentir' électroniquement sa trace dans les 24 heures », a affirmé Morong.

Caducée : http://www.caducee.net/breves/breve.asp?idp=1&idb=2517

Le premier gène du langage identifié
Samedi, 06/10/2001 - 00:00

Une équipe de recherche anglaise rassemblant des chercheurs de l'université d'Oxford et de l'Institut pour la santé de l'enfant de Londres ont identifié le premier gène du langage, selon la dernière livraison de la revue britannique scientifique Nature. Cette découverte pourrait contribuer à expliquer comment le langage se développe chez les êtres humains. Baptisé FOXP2, ce gène est situé sur le chromosome 7. Ce caractère héréditaire apparaît dans une grande famille surnommée "KE" où la moitié des membres, présentent sur plusieurs générations des difficultés à contrôler les mouvements des lèvres et de la langue, et à former des mots. Outre ces troubles de l'articulation des sons de base, ils ont du mal à comprendre et utiliser la grammaire. Le gène altéré ("muté") décrit dans Nature a cependant été repéré chez un patient "CS" atteint de trouble du langage sans relation avec cette famille. Le gène commande la fabrication d'une protéine qui active ou désactive certains gènes. Son interaction avec d'autres gènes pourrait aider à élucider les mécanismes du langage au niveau moléculaire, selon les chercheurs. L'altération génétique pourrait agir lors du développement foetal, avancent les auteurs. Les chercheurs précisent cependant que le gène découvert contrôle d'autres gènes en "cascade" et qu'un long travail reste à faire pour comprendre ces interactions. Il est toutefois extraordinaire de constater,que toutes les personnes qui possède la version mutée de ce gène présente une altération de la fonction du langage et qu'à contrario les personnes qui ne possède pas ce gène muté ne présentent pas cette altération. Les chercheurs restent convaincus que plusieurs gènes sont impliqués dans le langage chez l'homme. Il reste que si cette base génétique incontestable du langage, pressenti et théorisé par Chomsky dés 1959, est une condition nécessaire au développement de la parole chez l'homme elle n'est pas une condition suffisante car le langage reste indissociable de l'environnement social, culturel et affectif.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1575000/1575471.stm

Nature : http://www.nature.com/nsu/011004/011004-16.html

Un gène potentiellement suppresseur de cancers humains
Samedi, 06/10/2001 - 00:00

Des chercheurs du Massachusetts General Hospital aux Etats-Unis ont montré que la perte d'un gène, nommé "Cables", identifié il y a un an sur le chromosome 18 par la même équipe, serait impliqué dans la prolifération de certains cancers humains. Cette étude, publiée aujourd'hui dans la revue Cancer Research par L. Zukerberg et ses collaborateurs, montre que la protéine codée par le gène Cables est manquante dans les cancers du pancréas, du colon et de la peau. Ce déficit est souvent lié à une délétion de la région du gène Cables. La protéine Cables agit in vivo comme un inhibiteur de la division cellulaire. Elle intervient au sein d'une cascade de régulation qui implique notamment la protéine cdk2. Les récentes recherches de Zukerberg indique que Cables régule la division cellulaire incontrôlée impliquée dans la cancérogenèse. La prochaine étape de recherche de l'équipe de Zukerberg sera de prouver que la protéine cables est véritablement un suppresseur de tumeur. A cette fin, les chercheurs vont tenter d'établir un modèle de souris dépourvues du gène cables afin de voir les effets sur le développement tumoral. Ils vont également séquencer le gène cables à partir de tumeurs primaires pour voir les éventuelles mutations.

Cancer Research 1-10-2001 :

http://intl-cancerres.aacrjournals.org/future/61.19.shtml

Des vaisseaux sanguins qui poussent... presque tout seuls !
Samedi, 06/10/2001 - 00:00

La thérapie génique, même si elle est parfois affublée d'attributs démoniaques, n'en a pas moins parfois des implications insoupçonnées. Ainsi pourrait-elle contribuer à fabriquer des vaisseaux sanguins ! Le Dr Jeffrey Arbeit, de l'Université de Californie à San Fransisco, vient de tester le procédé sur des souris de laboratoire. Il est parvenu à leur faire fabriquer de nouveaux vaisseaux en suscitant l'expression continue du gène HIF-1. Voilà une découverte cruciale. D'autant que ce travail pourrait avoir de multiples implications thérapeutiques. Le rôle du gène HIF-1 dans la formation de nouveaux capillaires sanguins à partir de vaisseaux préexistants était déjà connu. Il régule également l'activité de plusieurs autres gènes qui se trouvent activés lorsque l'organisme est en situation d'hypoxie. C'est-à-dire lorsque la quantité d'oxygène distribuée aux tissus par le sang diminue. Toutefois, les travaux que vient de publier Arbeit pourraient déboucher sur des options radicalement nouvelles. En particulier dans le traitement de certaines maladies cardio-vasculaires. Ou d'atteintes vasculaires périphériques, qu'elles affectent les réseaux artériel ou veineux. Sans oublier que la maîtrise de l'expression d'HIF-1 pourrait aussi être utile pour " relancer " la cicatrisation dans certains cas.

Destination Santé : http://www.destinationsante.com/

Genes Development du 1-10-2001 : http://www.genesdev.org/

Le "sacré numéro" de la génétique...
Samedi, 06/10/2001 - 00:00

Le fameux gène p53, surnommé le " suppresseur de tumeurs ", se voit aujourd'hui prêter une incidence bénéfique sur l'espérance de vie et le stress. Chez le ver en tout cas ! Et oui, le Pr Joël Rothman et ses collaborateurs, à Santa Barbara, viennent effectivement de tester son influence sur cet intéressant modèle d'expérimentation animale ! Ainsi ont-ils découvert qu'il jouerait un rôle fondamental chez le ver. Un peu à l'image de celui qui lui est déjà connu chez l'homme. Surprenant mais... pas illogique. Ces similitudes ont permis à Rothman de mettre en lumière des vertus jusqu'alors insoupçonnées du gène p53. Il a pu établir, en effet, qu'il est capable " de prémunir le ver contre les effets d'une privation en oxygène, du manque de nourriture et même de certaines radiations carcinogènes ! Autant de facteurs de stress environnemental " Et ce n'est pas tout. Le p53 allongerait également l'espérance de vie de ce fameux ver. Notamment lorsqu'il est affamé ! Bref, voici un gène aux multiples pouvoirs. Si divers qu'à l'instar du Janus des Grecs anciens qui avait deux visages, il souffle aussi bien le chaud que le froid. A l'état naturel, il empêche l'apparition de tumeurs cancéreuses ! Un pouvoir qui lui a d'ailleurs valu l'honneur de paraître en " Une " du célèbre magazine anglo-saxon Newsweek ! En revanche une fois porteur de certaines mutations, il devient redoutable. A tel point qu'il contribue à la prolifération des cellules malades. Il serait ainsi présent dans plus de 50 types tumeurs, du cancer colo-rectal à ceux du poumon ou du sein...

Destination santé : http://www.destinationsante.com/

Science, 14 septembre 2001 :

http://www.sciencemag.org/cgi/content/abstract/1065486v1?

La thérapie génique pour voir le jour de nouveau...
Samedi, 06/10/2001 - 00:00

Deux causes majeures de cécité pourraient être vaincues demain grâce à des gènes médicaments. La Dégénérescence maculaire liée à l'âge (DMLA) d'une part, et la rétinopathie diabétique d'autre part. Ces deux maladies représentent la majorité des cas de cécité acquise dans les pays développés. Or un ophtalmologiste américain vient de publier des résultats porteurs d'espoir. Peter Campochiaro, de la Johns Hopkins Wilmer Eye Institute, a réalisé de véritables progrès... sur des souris pour le moment. Explication... La DMLA est la première cause de cécité chez les plus de 50 ans ! Cette affection atteint une zone de la rétine extrêmement riche en cellules visuelles, la macula, qu'on appelle aussi la " tache jaune ". Le plus souvent, elle est provoquée par la prolifération désordonnée de vaisseaux sanguins sous la rétine. Il peut ainsi en résulter des hémorragies susceptibles d'entraîner une dégradation sévère, voire totale de la vision. La rétinopathie diabétique quant à elle, est la première cause de cécité avant 50 ans ! Elle est due à l'impact du diabète sur le système vasculaire en général, et sur les vaisseaux qui irriguent la rétine en particulier. Là encore, une succession de micro-hémorragies peut mener à la perte partielle ou totale de la vision. Après avoir introduit séparément deux gènes spécifiques dans l'organisme de ses animaux, Peter Campochiaro est parvenu à limiter cette prolifération vasculaire. A tel point que la croissance des vaisseaux en question a diminué de... 90% ! Pas étonnant qu'il prête à ces résultats de réelles ouvertures. Il estime en effet qu'ils " démontrent que la thérapie génique peut jouer un grand rôle contreces deux affections. Et (que) des études complémentaires seront très certainement bientôt entamées ".

Destination Santé : http://www.destinationsante.com/

La génétique accentuerait les risques d'hypertension artérielle
Samedi, 06/10/2001 - 00:00

Les chercheurs ont réalisé une étude sur 155 Polonais et ont constaté que les 51 hommes, qui possédaient une mutation génétique sur le chromosome Y (chromosome déterminant le sexe masculin), souffraient d'hypertension, avec une tension artérielle de 145/90. La pression systolique était supérieure de dix points et la pression diastolique était supérieure de cinq points chez les hommes normaux. La tension artérielle mesure la pression exercée par le sang sur les parois des artères de deux façons, immédiatement après la contraction du coeur (pression systolique) ou lors du repos du coeur entre deux battements (pression diastolique). C'est pour cette raison que la tension artérielle est exprimée à l'aide de deux chiffres. Plus la circulation du sang dans vos artères est difficile, plus votre tension artérielle est élevée. L'hypertension artérielle est une tension artérielle supérieure à 140/90. Fadi Charchar, chercheur à l'Université de Glasgow, et ses collègues de l'École de médecine de Silésie, en Pologne, ont présenté les résultats des travaux lors d'une conférence de l'Association américaine de cardiologie, le 23 septembre, à Chicago. Un Canadien sur cinq souffre d'hypertension artérielle. Ces personnes sont plus sujettes aux infarctus et aux accidents vasculaires cérébraux. On ne connaît pas bien les causes de l'hypertension artérielle. Au nombre des facteurs de risque figurent des antécédents familiaux d'hypertension artérielle, l'obésité, l'âge; l'origine, une alimentation trop salée, la cigarette, une consommation excessive d'alcool, le manque d'exercice physique, le stress. De 20 à 34 ans, les hommes présentent plus de deux fois plus de risques d'hypertension artérielle que les femmes. Cette disparité existe jusqu'à 55 ans, âge où survient la ménopause. Les femmes perdent alors leurs protections hormonales contre les maladies cardio-vasculaires. Selon le président de l'Association américaine de cardiologie, il reste encore beaucoup de chemin à parcourir avant de pouvoir mettre au point des traitements médicamenteux ou des thérapies géniques.

Cybersciences : http://www.cybersciences.com/

Pourra-t-on bientôt lire dans les pensées ?
Samedi, 06/10/2001 - 00:00

Comment le cerveau reconnaît-il une chaise, un chat ou bien des chaussures? Il existe toute sorte de chaises, de chats et de chaussures mais le cortex est néanmoins assez malin pour ranger du premier coup d'oeil un objet, même inconnu, dans la bonne catégorie. L'équipe de Dr James Haxby du National Institute of Mental Health (NIMH) a réussi à cartographier l'activité du cerveau de six volontaires pendant qu'on leur présentait des images : chaises, chaussures, ciseaux, bouteilles, maisons ou encore des chats ou des faces humaines. Grâce à la technique de l'imagerie par résonance magnétique nucléaire fonctionnelle (IRMf), les chercheurs ont pu deviner l'image regardée rien qu'en analysant l'activité du cerveau. La polémique entre scientifiques fait rage depuis de nombreuses années au sujet de la capacité du cerveau à classer les images dans des catégories. Cette expérience va dans le sens des hypothèses les plus complexes. L'activité de reconnaissance ne semble pas confinée à une zone précise et chaque région du cerveau n'est pas chargée d'une catégorie particulière d'objets. L'étude, publiée dans la revue Science du 28 septembre, suggère que les représentations mentales consistent en des activités cérébrales à la fois localisées et chevauchantes. « C'est comme une construction capable de prendre une conformation unique parmi un nombre de possibilités virtuellement illimité », concluent les chercheurs.

Sciences&Avenir :

http://permanent.sciencesetavenir.com/sci_20010928.OBS8899.html

National Institute of Mental Health :

http://www.nimh.nih.gov/events/prhaxby.cfm

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Le cartable électronique fait sa rentrée
Samedi, 06/10/2001 - 00:00

C'est désormais une idée communément acquise et partagé par tous que le cartable électronique représente l'e-classe de demain. Vecteur d'un mode d'apprentissage raccordable par voie hertzienne au Net, le cartable électronique devient le support amenant à apprendre autrement et un moyen de lutte efficace contre l'échec scolaire. Et a plus d'un atout dans son sac. Econome de poids, il vient au secours du dos de l'écolier en ne pesant que 2 kg au lieu des 12 ou 15 habituels ! Communicant et nomade il devient à la fois le compagnon d'apprentissage scolaire de l'enfant, sous tutorat professoral, ainsi que son compagnon de temps libre personnel et ludique. La France a été longtemps en retard sur ses partenaires européens en matière d'informatisation des écoles. L'Etat met actuellement les bouchées doubles pour rattraper le temps perdu... mais le plus spectaculaire sont certaines initiatives locales complètement révolutionnaires ! A Saint-Etienne-La-Thillaye, prés de Trouville, un groupe d'instits bénévoles a créé un village éducatif interactif virtuel dont l'histoire se passe au 19ème siècle. Afin d'apporter aux enfants une méthode pédagogique révolutionnaire via le web. Son nom ? Anvie la Corbeline. L'objectif est que les élèves apprennent l'histoire et le français en correspondant avec des personnages virtuels par e-mail. Derrière ces personnages virtuels se cachent des animateurs chargés de faire vivre les personnages et de répondre aux questions des enfants. Sous l'autorité de Thierry Lacheray (détaché sur le projet par l'académie pour 3 ans) travaillent des étudiants et des enseignants bénévoles de Paris, des USA, d'Afrique du Sud ou d'ailleurs...Avec ce nouveau concept les enfants n'écrivent plus pour avoir une bonne note mais pour être lu par le personnage et les autres. Du coup leur motivation s'accroît, ainsi que l'apprentissage de leur expression écrite. Une des autres forces du concept est que les enfants doivent faire des recherches (que ce soit sur Internet ou dans nos bons vieux dico) pour poser des questions à ces personnages historiques. Et que du coup ce qu'ils cherchent ils le retiennent. Expérience magistrale et révolutionnaire... Car quoi de plus intelligent sinon que de permettre à l'élève d'apprendre en s'amusant, de le renvoyer à une forme d'autonomie, à l'apprentissage du travail en groupe, à l'interdisciplinarité plutôt qu'à un enseignement frontal (par l'intermédiaire d'un prof assis à son bureau) et donc forcément passif ?

Besok :

http://www.besok.com/canevas.cfm?page=planete/zoom/pla_carta.htm

Anvie la Corbeline : http://prologue.crdp.ac-caen.fr

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top