RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 127
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Décembre 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La pénurie d'emplois en TIC s'accentue...
Un nouveau supercalculateur pour la génomique
Mobiles : la quatrième génération à l'étude des laboratoires nippons
Avenir
Un nanotube riche de promesses
Espace
La lune glacée de Jupiter cacherait un océan
Nouvelle géographie de l'Univers
Terre
Chaleur record sur la planète en l'an 2000
Vivant
Le simulateur PixEyes révolutionne la formation au geste chirurgical de l'oeil
De nouvelles avancées dans la recherche contre le sida
Mobiles : pas d'effets sur les cancers selon une étude américaine
Prothèse articulaire obtenue par culture de tissus
Accidents cardiaques : un appel à la simplicité...
La Chambre des Communes approuve le clonage d'embryons à des fins thérapeutiques
La peau, un sixième sens ?
Le virus du rhume à l'assaut du cancer
Comment les protéines se plient ou se replient
Evolution record
Des progrès vers un vaccin contre la maladie d'Alzheimer
La thérapie génique pour leurrer le virus du sida
Recherche
Feu vert pour le paquebot des airs
Il y a cent ans, Max Planck fondait la physique quantique et découvrait un nouveau monde
J.J. Thomson, l'électron libre de la physique
Edito
Le futur n'est plus ce qu'il était



Il y a 60 ans, en septembre 1940, alors que la bataille d'Angleterre fait rage, un jeune écrivain américain de 20 ans d'origine russe, Isaac Asimov publie sa première nouvelle consacrée aux robots: "Robbie". Cinq ans avant la mise en service du premier ordinateur, l'ENIAC, et 35 ans avant le premier microprocesseur, Asimov, en génial visionnaire, pose le cadre général de son oeuvre : la conquête progressive de la galaxie par l'espèce humaine aidée dans sa tâche par des androïdes intelligents et sensibles. Alors que l'informatique et l'électronique ne sont pas encore nées, Asimov pressent l'extraordinaire développement de la robotique au XXIeme siècle et imagine la mise au point d'un cerveau "positronique" capable d'égaler la complexité du cerveau humain. A la même époque, Il imagine également les trois lois de la robotique qui font encore référence aujourd'hui. La première loi précise qu'un robot ne peut nuire à un être humain ni laisser par son inaction un être humain en danger. La seconde loi précise qu' un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf quand ces ordres sont incompatibles avec la Première Loi. Enfin, la troisième loi édicte qu'un robot doit protéger sa propre existence tant que cette protection n'est pas incompatible avec la Première ou la Deuxième Loi. Asimo, le robot humanoïde que vient de présenter Honda Motor Co après 14 ans de recherche Asimo, mesure un mètre vingt de haut, pèse 43 kilos, est capable de se déplacer de façon autonome et parvient même à monter des marches. Il peut également s'incliner en signe de salut, agiter la main pour dire au revoir et même répondre à quelques questions. Ce robot, dont le nom est un hommage au grand écrivain disparu, n'arrive pas seul sur l'immense marché potentiel des services à la personne et du divertissement. Alors qu'Honda présentait Asimo, Sony pour sa part présentait Aibo, le premier « robot de divertissement » de l'ère moderne. Bien qu'expérimentale, la première version s'est vendue à près de 45 000 exemplaires. La seconde version, ERS-210, sortie le 16 novembre 2000, est, elle, directement conçue pour une production de masse : Sony compte en vendre au moins 100 000 unités. A 1 500 dollars, le nouvel Aibo est meilleur marché que son grand frère et a été doté de nouvelles fonctions : il reconnaît la parole et prend des photos. Face à Sony, Toshiba ne voulait pas être en reste et a créé un robot qui joue au volley pour démontrer le perfectionnement de ses fonctions de localisation et de reconnaissance visuelle. Toutes sortes de découvertes sont applicables au robot : l'un des logiciels de reconnaissance vocale en cours d'étude dans les laboratoires de Toshiba et destiné aux appareils de navigation automobile reconnaît deux millions de types de phrase différents et comprend les défauts du langage (omissions, inversion...). De son côté NEC en est déjà à un stade avancé du développement de R100. Sa commercialisation pourrait être décidée dès l'an prochain. Mis au point par un jeune chercheur, Yoshihiro Fujita, R100 est un robot à roulettes communicant. Yoshihiro Fujita l'a imaginé en interaction avec toutes sortes d'appareils de la maison (télévision, electro-ménager, lumière), afin d'exécuter à distance les ordres oraux ou électroniques (par e-mail) qu'on lui donne, comme : « Eteins telle lumière ! Programme le magnétoscope à telle heure ! », etc. R100 est sensible aux formes humaines, peut reconnaître de manière précise dix personnes préalablement enregistrées et les appeler chacune par leur nom. Enfin, il envoie et reçoit des e-mails sous forme de messages audiovisuels : en filmant son interlocuteur ou en envoyant sur la télé le message qui lui est destiné. NEC imagine faire de R100 une sorte de robot domestique qui combine le rôle de compagnon, d'amuseur, d'ordinateur mobile et de télécommande vocale. Mais derrière cette première génération de robots de compagnie se profilent de futures machines bien plus sophistiquées qui seront capables de remplir les tâches d'assistance médicale, secteur dont le poids économique va devenir considérable à cause du vieillissement de la population. Déjà Sanyo Electric a mis au point une sorte de robot infirmier capable d'assurer des soins médicaux à domicile. Sous forme de chien en peluche, il est équipé d'un thermomètre, d'un appareil pour mesurer le pouls, et peut être connecté à divers appareils médicaux. Toutes les données qu'il recueille peuvent être transmises automatiquement par téléphone portable à un centre médical, tout comme les réponses des patients, auxquels il pose des questions. Sanyo prévoirait de le commercialiser à partir de 2001 à un coût inférieur à 6 000 francs. Matsushita Electric a, de son côté développé un robot pour tenir compagnie aux personnes âgées, actuellement en cours d'expérimentation. , mais il n'est pas autonome, il doit être programmé. Enfin Toyota vient d'annoncer qu'il prévoit de développer toutes sortes d'automates pour la commercialisation d'ici à 2005, date d'arrivée sur le marché d'une nouvelle génération de microprocesseur, 10 fois plus puissants qu'aujourd'hui. Mais avant de nous tenir compagnie, les robots auront déjà révolutionner la médecine et la chirurgie. Tel est le cas du nouveau système Da Vinci, développé par Intuitive Surgical. Cette machine complexe permet une vision interne en trois dimensions rendue à l'aide de deux caméras, et d'un poignet articulé pour effecteur les gestes techniques à l'intérieur du corps du patient. Le tout, manipulé à distance par un chirurgien dont les gestes sont reproduits en temps réel par un ordinateur ultra puissant. La France ne compte aujourd'hui que trois machines de ce type. Le professeur Loisance en a obtenu une dès mai 2000 pour son service de chirurgie thoracique et cardiovasculaire à Henri-Mondor. Ces robots chirurgicaux combinés à l'internet haut débit ouvrent la voie à la télémédecine coopérative, mettant par exemple en relation pendant une opération plusieurs chirurgiens et spécialistes internationaux équipés du même matériel. Il ne fait désormais plus de doute que dans 10 ans les robots, longtemps cantonnés aux usines, seront partout dans notre vie quotidienne. Capables à la fois de réfléchir et d'agir sur leur environnement, infatigables, discrets et et toujours plus efficaces, même face à l'imprévu, ils deviendront, dans une génération, comme l'avait bien pressenti Asimov, d'indispensables auxiliaires dans toutes les activités humaines, qu'il s'agisse de nous divertir, nous soigner ou nous aider dans une multitude de tâches. Pour le centenaire de la naissance d'Asimov, en 2020, il ne serait pas étonnant qu'un robot soit invité à prononcer l'allocution rituelle qu'il aura lui même écrit! Décidément, comme aurait dit Asimov avec son humour coutumier, en ce début de XXIeme siècle, le futur n'est plus ce qu'il était.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La pénurie d'emplois en TIC s'accentue...
Samedi, 30/12/2000 - 00:00

Dans un rapport destiné a préparer la sixième réunion régionale européenne de l'Organisation internationale du travail (OIT) qui s'est tenue du 12 au 15 décembre derniers, le Bureau international du travail (BIT) révèle que le nombre d'emplois non pourvus dans le secteur des TIC (Technologies de l'information et de la communication) devrait atteindre 1,6 million en 2002. Si ces prévisions sont vérifiées, le nombre d'emplois vacants pour les TIC aura triplé en quatre ans puisque il etait estimé a 500 000 en 1998. L'emploi devrait d'ailleurs de plus de 8% par an dans le secteur...D'aprés le rapport, la pénurie de main d'oeuvre aurait déja coûté 106 milliards de dollars (780 milliards de francs) en perte de produit intérieur brut depuis 1998. Le BIT explique la pénurie par le manque de formation de personnel qualifié et il invite les gouvernements a renforcer de toute urgence leurs programmes de formation. En effet, sans réponse a leurs problèmes de recrutement, les entreprises pourraient être tentées de délocaliser leurs activites vers des zones ou les compétences sont disponibles, par exemple en Asie. De plus, la formation est "un investissement a long terme", en attendant, les entreprises qui cherchent une solution rapide demandent un assouplissement des lois d'immigration, provoquant la fuite des cerveaux des pays fournisseurs de main d'oeuvre...

Les rapports (format PDF) :

http://www.ilo.org/public/french/region/eurpro/geneva/regconf/report.htm

Declic Net : http://www.declic.net/francais/lettres/lettre/1912.htm

Un nouveau supercalculateur pour la génomique
Samedi, 30/12/2000 - 00:00

Marchant sur les talons de Celera Genomics, NuTec Sciences, une entreprise d'Atlanta, va installer un super-calculateur fait d'un réseau de 5000 processeurs pour décrypter finement les secrets du génome; Jusqu'à présent, c'était Celera, l'entreprise de Craig Venter, qui tenait la corde en la matière, avec le super-calculateur probablement le plus puissant du monde hors des laboratoires militaires. Mais avec la nouvelle acquisition de NuTec, un ordinateur IBM qui coûte plusieurs dizaines de millions de dollars, l'entreprise de Georgie semble prendre les devants. La grappe de 1250 serveur p640, dotée de 2,5 teraoctets de mémoire et 50 teraoctets de capacité de stockage, sera capable d'accomplir 7500 milliards d'opérations par seconde quand elle sera entièrement installée, à la fin de 2001. L'investissement est révélateur à deux titres au moins. D'une part, il confirme que l'après-génome n'a pas vu un ralentissement de la course aux résultats mais une accélération. Seulement, l'enjeu n'est plus d'entrer dans les livres d'histoire, mais de faire des milliards. Et l'entreprise qui saura lire l'information génomique le plus vite sera en pole position. D'autre part, il confirme l'excellent positionnement d'IBM dont les bons calculs des dernières années payent désormais. Début décembre, Big Blue en faisait la démonstration avec un grand contrat Linux. Cette fois, il montre que son investissement très lourd dans les sciences de la vie était des plus judicieux. On n'avait pas manqué d'être impressionné, mais tout de même surpris, par l'accélération donnée par IBM à ses efforts bio-informatiques. Aujourd'hui, il devient clair qu'il s'agit d'une stratégie bien pensée.

Usine Nouvelle : http://www.usinenouvelle.com

Mobiles : la quatrième génération à l'étude des laboratoires nippons
Samedi, 30/12/2000 - 00:00

La téléphonie de 4ème génération se profile à l'horizon. Au Japon, ces téléphones dotés d'une technologie nouvelle sont testés. Les débits varient entre 20 et 100 Mbits/s, soit 50 fois plus que ceux prévus sur les deux prochaines années. Si ces téléphones ne devraient pas être disponibles avant dix ans, les acteurs du secteur ont néanmoins commencé à prendre position. Ainsi, l'opérateur téléphonique japonais NTT DoCoMo a annoncé une alliance avec Hewlett-Packard afin de développer de nouvelles applications et services pour les réseaux de téléphonie de la quatrième génération à très haut débit. Selon les termes de cet accord, les deux sociétés étudieront des services interactifs variés tels que le commerce électronique sur téléphone mobile. Le principal opérateur de téléphonie mobile japonais devrait par ailleurs lancer en mai prochain une nouvelle déclinaison, dite de troisième génération, de son service "i-mode", qui compte déjà plus de 15 millions d'abonnés au Japon. De leur côté, les acteurs européens sont plus frileux par rapport aux dépenses dont ils doivent s'acquitter pour acquérir des licences de troisième génération. Mais ils ne sont pas complètement absents des technologies 4G. Il y a trois mois, la Commission européenne a en effet lancé un programme regroupant les plus importantes entreprises européennes du secteur autour de cette technologie.

Eurpeinfos :

http://www4.europeinfos.com/cgi-bin/login.cgi?type=2&oid=122705

^ Haut
Avenir
Nanotechnologies et Robotique
Un nanotube riche de promesses
Samedi, 30/12/2000 - 00:00

Le nanotube sera-t-il le matériau du XXIe siècle? Cette molécule de carbone alimente tous les fantasmes depuis qu'elle a été découverte, voilà moins de dix ans. Les ingénieurs rivalisent d'imagination pour lui trouver de nouvelles applications. Tandis que les scientifiques se demandent désormais comment faire passer ces assemblages de milliers d'atomes de la paillasse de leur laboratoire à la machinerie des usines. Une tâche d'autant plus délicate que leur taille ne dépasse pas le dixième de millimètre. Dernière trouvaille en date: des chercheurs du CNRS de Montpellier et de Bordeaux ont mis au point un procédé permettant de produire industriellement des fibres en nanotubes. Dans un article précédé d'un élogieux commentaire, publié dans la revue américaine Science, l'équipe de Philippe Poulin (1) explique comment elle a réussi à confectionner des fils, longs de plusieurs dizaines de centimètres, à partir de ce matériau cent fois plus résistant que l'acier. Les chercheurs français, très en pointe dans ce domaine, ont réussi à les nouer et même à les tordre. La performance n'impressionnera pas, bien sûr, les couturières. Cependant, ces bobines ne seront pas, de toute manière, destinées à alimenter les rayons des merceries. Elles iront aux mains des spécialistes des matériaux, qui cherchent depuis longtemps à réaliser ce tour de force technique. Car, en théorie, un tel filin aurait d'étonnantes propriétés mécaniques: il permettrait de fabriquer des câbles aussi résistants que le diamant pour un poids six fois inférieur à celui de l'acier. Mais également, comme le précise Alain Pénicaud, l'un des signataires de l'article de Science, de mettre au point «des muscles artificiels, des fibres optiques que l'on pourrait diriger dans le corps humain, des draps qui, mis au vent, fourniraient de l'électricité, ou des textiles ultrarésistants capables de stocker l'énergie pour les spationautes». La première apparition de ces microscopiques assemblages remonte à 1991. Cette année-là, Sujio Ijima, un ingénieur de la société japonaise NEC, cherche à fabriquer des fullerènes. Ces molécules en forme de ballon de football, découvertes six ans plus tôt, suscitent alors de grands espoirs. Aussi Sujio Ijima expérimente-t-il une technique de production récemment mise au point par des collègues américain et allemand. Grâce à un arc électrique, il vaporise du graphite, dont les atomes de carbone doivent se réarranger pour former le précieux matériau. Mais, surprise... dans la suie ainsi obtenue il observe d'étranges structures inconnues. Ressemblant à une sorte de long grillage enroulé dont les mailles sont constituées d'atomes de carbone, cent mille fois plus fines qu'un cheveu, de dix à cent mille fois plus longues que larges, elles sont fermées sur les côtés par une paire de capuchons: ce sont les nanotubes. Ils constituent, avec les fullerènes, la troisième forme cristalline du carbone, après le diamant et le graphite. Aussi solides que ce dernier, ils ont l'avantage d'être beaucoup plus rigides. Les chercheurs et les ingénieurs comprennent vite tout le parti qu'ils peuvent tirer de ces «microcigares». Leurs propriétés électroniques en font des candidats prometteurs pour la fabrication de supercondensateurs équipant des batteries de véhicules électriques, ou pour la mise au point de composants électroniques moléculaires. On pourrait tirer profit de leurs formes originales pour le stockage de l'hydrogène dans les piles à combustible des voitures de la prochaine génération. Quant aux applications purement mécaniques des fibres de nanotube, elles sont innombrables. Le Prix Nobel de chimie 1996, l'Américain Richard Smalley, a même suggéré de s'en servir pour réaliser les câbles d'un ascenseur futuriste pour engins spatiaux. Cet élévateur céleste relierait par un filin la Terre à un satellite géostationnaire en orbite... à plus de 35 000 kilomètres de notre planète ! Jusqu'ici, rares sont les applications à avoir réellement vu le jour. Seules quelques firmes, à l'image de Samsung, de Motorola ou de Thales (ex-Thomson-CSF), semblent, pour l'instant, avoir trouvé un débouché rentable pour ces nanotubes dans la technologie des écrans plats. Car deux obstacles majeurs demeurent. Le premier tient à la difficulté de produire massivement ces molécules, qui coûtent aujourd'hui entre 500 et 4 000 francs le gramme. Les techniques de laboratoire actuelles sont beaucoup trop dépensières en énergie: elles consistent à vaporiser du graphite à plus de 3 000 degrés, à l'aide d'un arc électrique ou d'un laser. D'autres voies sont cependant à l'étude: ainsi, à Font-Romeu (Pyrénées-Orientales), les chercheurs utilisent la chaleur produite par le four solaire d'Odeillo pour usiner des nanotubes. Une société américaine basée à Houston (Texas), Carbon Nanotechnologies Inc., opte déjà pour un autre matériau de base: le monoxyde de carbone (CO), qu'elle brûle à 1 000 degrés. Grâce à cette technique, l'entreprise annonce qu'elle devrait atteindre prochainement une production de 100 grammes par jour. Deuxième difficulté : passer du stade de la molécule unique à celui d'un ruban ou d'un fil. C'est cette étape qu'ont en partie réussi à franchir les chercheurs de Bordeaux. Leur astuce: rajouter un polymère, l'une de ces longues chaînes d'atomes semblables à celles constituant le plastique, à une solution de nanotubes. «Nous nous sommes alors aperçus que les nanotubes s'agrégeaient en petits paquets, explique Alain Pénicaud. En agitant la pipette, ils s'orientaient pour former un ruban. Séché, celui-ci se contractait : nous avions une fibre.» Les fils produits n'ont pas encore la résistance de l'acier. Mais la première étape a été franchie. Les chercheurs ont décidé d'exploiter leur idée en créant une start-up à Montpellier, Nanoledge : elle devrait débuter prochainement la fabrication des premières bobines.

Express : http://www.lexpress.fr/Express/Info/Sciences/

^ Haut
Espace
Espace et Cosmologie
La lune glacée de Jupiter cacherait un océan
Samedi, 30/12/2000 - 00:00

Il y aurait de l'eau salée sous la surface de Ganymède. C'est du moins la conviction d'une équipe d'astrophysiciens américains, fondée sur l'analyse de données concernant cette lune de Jupiter, expédiées par la sonde américaine Galileo. Un joli cadeau d'anniversaire alors que l'«envoyé spatial» vient de boucler sa cinquième année dans la banlieue de Jupiter. La Rolls des sondes, lancée en 1989, a déjà fait vingt-huit fois le tour de la géante gazeuse et réalisé plusieurs survols rapprochés, à quelques centaines de kilomètres, des satellites joviens: la sulfureuse Io, le corps le plus volcanique du système solaire; Europe, qui semble recéler un océan sous sa couche de glace; la boutonneuse Callisto, criblée de cratères formés par la chute de météorites. Et l'énigmatique Ganymède, la plus grosse lune du système solaire (plus volumineuse que la planète Mercure), dont la surface tourmentée, et abondamment cratérisée - signe de son ancienneté -, demeurait mystérieuse. Notamment en raison de vastes structures laissant supposer une formidable activité tectonique. D'où l'intérêt de l'analyse croisée, présentée cette semaine à San Francisco, des données obtenues par Galileo sur le champ magnétique de la planète, de celles de son spectromètre infrarouge sur les matériaux de surface et des images très précises prises lors d'un survol à 800 kilomètres, en mai. L'équipe de Margaret Kivelson (Université de Californie à Los Angeles), responsable du magnétomètre, s'est ainsi persuadée que Ganymède est couverte d'une croûte gelée pleine d'eau et, surtout, qu'une couche d'eau liquide et salée d'environ 1,6 kilomètre se cache sous 160 kilomètres de rochers et de glaces. Réchauffé, aux environs de 9° C, par le coeur radioactif de Ganymède, cet «océan» souterrain, et ses pulsations dues à la puissante magnétosphère de Jupiter, pourrait expliquer certaines particularités du champ magnétique du satellite. Quant aux structures observées à la surface - plissements, crevasses, longs «rubans» ressemblant à des coulées glaciaires -, elles pourraient provenir des soubresauts de l'océan souterrain et non d'un volcanisme ancien comme on le pensait jusqu'à présent. La Nasa étudie un projet de mission audacieux, consistant à déposer sur Europe un robot capable de forer la couche glacée jusqu'à cet océan.

Libération :

http://www.liberation.com/quotidien/semaine/20001221jeuzc.html

Nouvelle géographie de l'Univers
Samedi, 30/12/2000 - 00:00

L'Univers ? Un vaste enchevêtrement de filaments le long desquels se répartissent galaxies et matière noire. En découvrant une structure filamentaire dans l'amas Coma, le satellite XMM-Newton vient de valider ce scénario extravagant qui redessine notre représentation du cosmos. Au commencement était l'éponge. Une éponge dense, aux pores serrés. Avec le temps, les pores devinrent de plus en plus grands et l'éponge elle-même de plus en plus diaphane, pour n'être plus qu'un colossal enchevêtrement de longs filaments. Toute la matière de cette " éponge " cosmique est composée de myriades de galaxies et de matière noire réparties le long de filaments et séparées par d'immenses " bulles ", des déserts vides de matière. Cette matière s'écoule lentement le long des filaments et finit par s'accumuler à leurs intersection. Chaque carrefour constitue un noeud de matière où se forme un amas de galaxies, ces vastes communautés de dizaines, voire de centaines de galaxies, qui réunissent elles-mêmes des centaines de milliards d'étoiles. Voilà comment les cosmologues imaginent la topologie de l'Univers depuis quelques années, c'est-à-dire depuis qu'ils ont cartographié en trois dimensions la distribution de millions de galaxies dans l'Univers. Aussi extravagant que cela puisse paraître, ce scénario semble désormais validé par l'observation. Pour la première fois, en effet, le satellite XMM-Newton, l'observatoire européen en rayons X, vient de visualiser avec précision une grande structure filamentaire coulant d'un côté vers l'amas Coma et s'étirant à l'autre extrémité en direction d'un autre amas de galaxies (voir p. 81). Cette grande " première " pour la cosmologie a été obtenue lors des phases de tests des instruments d'XMM. Entre le 29 mai et le 22 juin, douze prises de 5 heures de pose chacune ont été réalisées de manière à composer une image-mosaïque de l'amas Coma, l'amas de galaxies riche le plus proche de nous - distant tout de même de 280 millions d'années-lumière. Vérification réussie au-delà de tout espoir, puisque d'emblée en ressortent des résultats importants pour la cosmologie : les filaments existent bel et bien, ils sont visualisables et les intersections entre filaments sont bien le lieu de formation des amas. Mais ces amas sont loin d'avoir livré tous les secrets de leur composition. Dans celui de Coma, par exemple, les galaxies ne comptent que pour 5% de la masse totale de l'amas. Ces collectivités d'étoiles marinent par ailleurs dans un bain de gaz chaud, formant un plasma dont la température atteint 10 à 100 millions de degrés Celsius. Cette marinade de galaxies dans leur jus de plasma représente au final 20 à 30% de la masse totale de l'amas. On est loin du compte. Le reste (soit 70 à 80% de masse manquante) demeure une grande énigme que les cosmologues désignent pudiquement sous le terme de " matière noire ". Elle serait composée d'astres invisibles ou de matière exotique indétectée à ce jour. Autant dire que l'on ignore quasi tout de la véritable population de ces amas.

Sciences&Avenir :

http://www.sciencesetavenir.com/comprendre/page78.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Chaleur record sur la planète en l'an 2000
Samedi, 30/12/2000 - 00:00

L'année 2000 qui s'achève aura été l'une des plus chaudes sur la planète depuis 140 ans que la température est mesurée, a annoncé mardi l'agence météorologique des Nations unies, dressant le bilan climatique de l'année. Elle sera la cinquième année la plus chaude, après l'année-record en 1998, suivie par 1997, 1995 et 1990. Ce réchauffement a accru la gravité et le nombre des tempêtes, inondations, sécheresses et autres situations météorologiques inhabituelles, a précisé le secrétaire général de l'Organisation météorologique mondiale (OMM) Godwin Obasi. D'où la nécessité, selon lui, de sérieusement s'attaquer à la lutte contre l'effet de serre, responsable de ce réchauffement de la planète. Une fois de plus lundi, les Etats-Unis et leurs alliés ont rejeté les efforts de l'Union européenne en vue de relancer les discussions internationales sur les changements climatiques, après l'échec de la conférence de La Haye fin novembre. La chaleurs de l'an 2000 aura donc donné naissance aux ouragans Keith et Gordon qui ont ravagé l'Amérique centrale, tandis que le typhon Saomai provoquait des pluies sans précédent au Japon. Elles ont causé la première tornade mortelle au Canada en plus de 14 ans, les pluies diluviennes qui ont frappé la Suisse, l'Italie, la Colombie, l'Inde, le Bangladesh et l'Asie du Sud-Est. Dans le même temps, une bonne partie de l'Europe du sud-est, le Proche-Orient, l'Asie centrale et la Corne de l'Afrique étaient frappées par la sécheresse. Aux Etats-Unis, des mois de forte chaleur et de faibles pluies auront eu pour conséquence ''les plus graves incendies de forêt en plus de 50 ans'', rappelle M. Obasi. L'hiver 1999-2000 y aura été le plus chaud en 103 que les températures sont mesurées. Dans le même temps, en Angleterre et au Pays de Galles, avril 2000 aura été le plus pluvieux en 235 ans.

AP : http://fr.news.yahoo.com/001219/5/sqea.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le simulateur PixEyes révolutionne la formation au geste chirurgical de l'oeil
Samedi, 30/12/2000 - 00:00

C'est une start-up : Simedge. Pour un marché très porteur : la formation au geste chiurgical. A l'instar des très populaires simulateurs de vol qui ont réduit le coût de formation des pilotes de lignes, ce simulateur d'opération chirurgicale de l'oeil par photo coagulation laser devrait améliorer considérablement l'efficacité et le coût des formations initiales et continues. Les avantages sont évidents : pas d'appréhension liée au patient; une flexibilité de scénario et de stockage des expériences ; et une possibilité d'entraînement illimitée. La machine, baptisée PixEyes se présente sous la forme d'un banc de travail, réplique exacte d'un banc opératoire équipé d'une lampe à fente classique sur laquelle est adaptée une source laser. Sauf que ce sont des images de synthèses réalistes qui sont projetées dans le binoculaire. L'étudiant agit sur tous les paramètres de la lampe à fente, du laser et du manipulateur pour opérer dans des conditions quasi réelles. Un écran de contrôle permet à l'enseignant de suivre la session, également enregistrée. A l'avenir, une connexion Internet lui permettra d'effectuer ce contrôle à distance, précise Sylvain Karpf, l'un des créateurs du système. Trois systèmes ont d'ores et déjà été vendus, l'un au CHU de Lille où est né le projet, l'autre au CHU de Grenoble et un troisièmes au National Institute of Health (NIH) américain. La jeune société lilloise a bénéficie de deux fonds d'amorçage,I-Source (Inria) et Nord Innovation (adossé à Entreprises et Cités, ex-Maison des professions, à Marcq-en Baroeul). Au traitement des pathologies de la rétine, elle a adjoint un traitement du glaucome. Elle développe de nouveaux projets dans les domaines de la gynécologie, de l'obstétrique, de la radiologie et de l'orthopédie.

Industries&Techniques : http://www.industries-techniques.com/site/

De nouvelles avancées dans la recherche contre le sida
Samedi, 30/12/2000 - 00:00

Une équipe de chercheurs lyonnais est parvenue à diminuer significativement le nombre de virus du sida sur des souris transgéniques. Ces recherches sont dirigées par les professeurs Jean-Louis Touraine et Kamel Sanhadji. Les deux hommes sont à la tête du laboratoire des déficits immunitaires et de rétrovirologie à la faculté de médecine de Laennec. Leurs expériences ont été réalisées sur des souris à qui on a greffé le gène d'un anticorps propre à l'homme. Cet anticorps est capable d'affronter le virus du sida; il lui manque simplement un "appât". L'idée générale défendue par l'équipe de chercheurs et de leurs expériences est de leurrer le VIH pour que les anticoprs humains puissent naturellement les affronter et lutter contre le terrible virus. Ce laboratoire est l'un des rares au monde à s'intéresser à la lutte contre le sida par la thérapie génique. Des essais de cette méthode sont envisageables sur l'homme mais pas avant quelques années.

Progrés : http://www.leprogres.fr/infodujour/Rhone/

Mobiles : pas d'effets sur les cancers selon une étude américaine
Samedi, 30/12/2000 - 00:00

L'usage des téléphones portables et le développement de tumeurs cancéreuses au cerveau ne semblent pas liés mais de nouvelles recherches doivent être conduites pour mesurer les effets des mobiles à long terme, conclut une étude publiée par l'American Health Foudation. Cette étude, menée de 1994 à 1998, a été commandée et financée par un groupe de recherche constitué par les opérateurs de téléphonie mobile qui ont investi 28 millions de dollars dans l'opération. Les données recueillies auprès de 469 hommes et femmes entre 18 et 80 ans ayant contracté un cancer au cerveau ont été comparées à celles qui ont été obtenues auprès de 422 personnes bien portantes, suivant des questions liées à l'utilisation des portables. "L'étude (...) ne montre aucun effet liée à l'exposition sur une brève durée aux téléphones portables qui fonctionnent avec un signal analogique", déclare le rapport publié par le Journal of the American Medical Association. "De plus amples recherches sont nécessaires pour prendre en compte des périodes plus longues, spécialement dans le cas des tumeurs à développement lent. Les fréquences radio émises par les téléphones cellulaires numériques pourraient produire des effets différents sur les tissus biologiques que des téléphones analogiques et des études sont en cours dans différents pays européens qui se sont équipés surtout de réseaux numériques", ajoute-t-il. De son côté, le New England Journal of Medicine, qui a levé mercredi l'embargo sur les résultats de sa propre étude, conclut également à l'absence de données susceptibles de confirmer la théorie selon laquelle l'usage des portables favoriserait le développement de tumeurs cancéreuses. Les auteurs, qui ont étudié 782 patients hospitalisés dans l'Arizona, la Pennsylvanie et le Massachusetts, réclament également des programmes de recherche sur le long terme auprès d'utilisateurs intensifs.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1078000/1078464.stm

Prothèse articulaire obtenue par culture de tissus
Samedi, 30/12/2000 - 00:00

Des médecins du service de chirurgie de l'Université de Fribourg ont implanté pour la première fois a un patient une prothèse articulaire obtenue par culture de tissus en laboratoire. Cette prothèse, qui remplace le majeur du patient perdu dans un accident, a été produite avec ses propres cellules osseuses et ses cellules du cartilage ainsi que des matériaux biologiques, en collaboration avec l'entreprise de biotechnologie BioTissue Technologies AG.

ADIT : http://www.adit.fr

Accidents cardiaques : un appel à la simplicité...
Samedi, 30/12/2000 - 00:00

Plus de 3 500 accidents cardio-vasculaires évités, près de 4 000 vies sauvées d'ici 2020. Voilà ce que promettent Kathryn A Phillips et ses collaborateurs en contrepartie d'une utilisation plus systématique des béta-bloqueurs dans les suites d'infarctus du myocarde. Publié dans une toute récente édition du Journal of the American Medical Association (JAMA) leur travail fait du bruit outre-atlantique... Cette équipe de l'université de Californie à San Francisco, assied sa conviction sur une étude qui a pris en compte le suivi des 400 000 Américains qui, chaque année, survivent à une crise cardiaque. D'après les auteurs, 92% d'entre eux pourraient tirer bénéfice d'un traitement systématique par béta-bloqueurs. Ils présentent ces derniers comme des médicaments sûrs et affectés d'effets secondaires " peu nombreux ". Et surtout disponibles sous forme de médicaments génériques, et donc économiques. " Au lieu de ces derniers " insistent les auteurs, " l'industrie commercialise agressivement une classe de médicaments beaucoup plus onéreux, les inhibiteurs calciques. Et les médecins les prescrivent largement. Sans réaliser qu'ils ne sont pas des substituts convenables aux béta-bloqueurs. " Le débat vient de parvenir sur la place publique. Il est peu probable qu'il s'éteigne de sitôt. Les enjeux économiques paraissent en effet plus mirobolants encore que le dilemme technique proposé aux prescripteurs...

HealhtandAge.com : http://www.healthandage.com/newsletter/npf.htm

La Chambre des Communes approuve le clonage d'embryons à des fins thérapeutiques
Samedi, 30/12/2000 - 00:00

La Chambre des Communes a approuvé le 19-12-2000 l'extension des types de recherche qui peuvent être conduites sur les embryons, un vote qui ouvre la voie à ce que la Grande-Bretagne devienne le premier pays autorisant le clonage d'embryons humains à des fins thérapeutiques. Les députés britanniques ont approuvé cet amendement de la loi de 1990 sur les embryons et la procréation, proposé par le gouvernement de Tony Blair, par 366 voix contre 174. Si cette mesure, qui doit encore être examinée par la Chambre des Lords, est approuvée, elle permettrait aux chercheurs de cloner des embryons et de les maintenir pendant jusqu'à 14 jours afin de prélever des cellules. Les cellules des embryons au premier stage de leur développement ne sont pas programmées et peuvent donner naissance à tous les types de cellules présents dans l'organisme. La thérapie fondée sur ses cellules doit permettre d'ouvrir un nouveau chapître de la médecine, suscitant des grands espoirs pour la prévention et le traitement de nombreuses maladies. La loi de 1990, la ''Human Fertilization and Embryology Act'' limitait fortement le cadre des recherches sur les embryons humains qui ne pouvaient être utilisés que pour des études sur la stérilité, les causes de fausses couches, la contraception, la détection des anomalies génétiques et la recherche sur les maladies congénitales.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1078000/1078672.stm

La peau, un sixième sens ?
Samedi, 30/12/2000 - 00:00

Comme les autres organes sensoriels, la peau est connectée au système nerveux central et, via ses multiples récepteurs, elle capte des informations qui remontent jusqu'au cerveau. Grâce à la microneurographie, des scientifiques ont ''écouté'' ces messages de la peau. Une équipe de chercheurs de la société de cosmétique L'Oréal, en collaboration avec une équipe du laboratoire de neurobiologie humaine de l'Université d'Aix Marseille I - CNRS, ont montré que l'acuité tactile de la peau, sa sensibilité, diminuait avec l'âge. La perte peut aller jusqu'à 50 entre 25 et 66 ans. La technique utilisée par les chercheurs consiste à identifier un récepteur de la peau et à capter les messages envoyés au cerveau en modulation de fréquence, grâce à une microélectrode. En amplifiant le signal, on peut ensuite l'écouter. L'Oréal propose ainsi, sur son site internet, d'écouter trois versions du ''chant'' de la peau. D'après les résultats de ces recherches, publiées dans le Journal of Investigative Dermatology, l'usage de crème hydratante sur une peau sèche, surtout si elle est âgée, permet de récupérer jusqu'à 30% de la sensibilité perdue.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20001219.OBS0367.html?0027

Le virus du rhume à l'assaut du cancer
Samedi, 30/12/2000 - 00:00

Un virus serait-il capable de reconnaître et d'éliminer spécifiquement des cellules cancéreuses ? Régulièrement évoquée dans les laboratoires de recherche, cette idée fait aujourd'hui son chemin à l'hôpital. Une étude récente réalisée par F. Khuri, au M.D. Anderson Cancer Center à l'université du Texas, en collaboration avec des chercheurs anglais, écossais et américains, montre en effet que le virus « tueur de tumeurs » pourrait devenir une réalité clinique. Selon leurs auteurs, ces travaux relèvent de la thérapie génique. Si les applications de la thérapie génique ont divergé, les moyens de transférer des gènes thérapeutiques ont également évolué. Dans les premiers essais, il s'agissait d'une thérapie ex vivo : les cellules prélevées chez le malade étaient modifiées en introduisant le gène d'intérêt, puis réinjectées au malade. Depuis 1997, la thérapie génique est aussi pratiquée in vivo : le gène est injecté directement chez le patient. De plus, aujourd'hui, la majorité des essais fait appel à des vecteurs viraux pour véhiculer le gène d'intérêt à l'intérieur de l'organisme. Le travail de F. Khuri et de ses collaborateurs s'inscrit dans cette perspective. Initié par une société de biotechnologie, ONYX Pharmaceuticals, il utilise un virus appelé ONYX-015. De la famille des adénovirus, celui-ci a été manipulé pour y introduire des mutations qui l'ont rendu toxique pour les tumeurs. Les patients traités par F. Khuri et ses collègues souffraient d'un cancer de la tête et du cou. Ce cancer, responsable de tumeurs très douloureuses dans le nasopharynx, la bouche et la gorge, touche environ 500 000 personnes par an dans le monde. L'ablation chirurgicale de la tumeur et la radiothérapie sont les seules inter- ventions thérapeutiques possibles, mais dans la majorité des cas, les tumeurs reviennent et sont mortelles. Un premier essai clinique d'injection d'ONYX-015 avait déçu les médecins en 1996 : même si les tumeurs régressaient, une amélioration de l'état des patients n'était observée que dans 15 % des cas (7). En revanche, la nouvelle étude montre qu'une injection d'ONYX-015, accompagnée d'une chimiothérapie classique, aboutit à un recul de plus de 50 % de la masse tumorale chez 19 patients sur 30. De plus, chez 8 patients, la régression est totale : des tumeurs de 10 cm de diamètre ont disparu. Enfin, les effets secondaires, qui ressemblent aux symptômes d'un rhume léger, ont été bien tolérés : aucun malade n'a arrêté le traitement à cause de troubles liés à la thérapie. Cette étude relève de ce qu'on appelle la phase II des essais cliniques. « Cette étude est très encourageante car c'est la première fois qu'un essai clinique de phase II fait disparaître des tumeurs sans qu'elles ne réapparaissent, souligne F Khuri. Enfin, dernier aspect, et non le moindre, de ce traitement, après l'élimination des tumeurs, le virus disparaît sans laisser de traces génétiques.

Recherche : http://www.larecherche.fr/data/335/03350181.html

Comment les protéines se plient ou se replient
Samedi, 30/12/2000 - 00:00

Une protéine est une longue molécule en forme de chaîne qui se déplie et se replie en différentes configurations géométriques. Elle n'est biologiquement active que lorsqu'elle est repliée dans une configuration précise. Les biologistes, entre autres, sont donc fort désireux de comprendre les mécanismes qui régissent ces mouvements, notamment pour exploiter au mieux les informations issues du séquençage du génome. Ils utilisent, pour cela, deux approches : des simulations numériques et des observations. Ces dernières ne portaient toutefois, il y a encore peu de temps, que sur des populations de protéines dont les mouvements étaient stimulés par la chaleur ou par des agents chimiques. Elles ne fournissaient que des informations statistiques, trop peu précises pour tirer parti de la puissance potentielle des simulations numériques, qui portent sur des protéines individuelles. Puis, il y a trois ans, une équipe a observé, à l'aide d'un microscope à force atomique, le dépliement d'une protéine individuelle forcé par une action mécanique, beaucoup plus proche de la réalité physique. En se fondant sur les données ainsi obtenues, deux théoriciens viennent de réaliser une simulation très précise. Ils en tirent un résultat général : le chemin suivi par chaque élément de la protéine, lors de son dépliement ou de son repliement, dépend de sa structure globale, de sa topologie, et non de ses propriétés chimiques particulières. Deux protéines aux propriétés différentes, mais de même topologie se déplient donc de la même façon. Aux expérimentateurs maintenant de vérifier ces assertions.

Recherche : http://www.larecherche.fr/data/335/03350121.html

Evolution record
Samedi, 30/12/2000 - 00:00

Selon un chercheur américain, soixante ans ont suffi pour que les saumons du lac Washington se scindent en deux populations distinctes. Une rapidité qui contredit l'idée d'une évolution étalée sur des centaines ou des milliers d'années. Cela se passait sous leur nez et ils ne le voyaient pas ! Depuis plus d'un siècle, les scientifiques ont renoncé à l'idée de voir, vivre et décrire en direct l'émergence d'une nouvelle espèce. Une vie humaine ne suffisait pas, à les entendre, pour observer un processus aussi long et aussi étiré dans le temps, voire parfois interminable. Pourtant, un chercheur américain affirme aujourd'hui avoir saisi sur le vif, ou presque, l'évolution d'un groupe de poissons sauvages. Et plus précisément le mécanisme clé de leur spéciation, c'est-à-dire de leur formation en deux espèces distinctes : l'isolement reproductif. Dans un article publié le mois dernier par la revue américaine Science, Andrew Hendry, de l'université du Massachusetts (Etats-Unis), retrace ainsi l'épopée évolutive des saumons Sockeye du lac Washington. Une histoire qui s'inscrit non pas en milliers, ni même en centaines, mais en quelques dizaines d'années à peine. Les saumons, reconnaissables à leur livrée d'un beau rouge Mercurochrome, ont été introduits à la fin des années 30 dans le lac Washington, non loin de Seattle. Soixante ans plus tard, deux groupes distincts se sont formés. L'un s'est établi près du rivage, ce sont les " saumons de la plage ". L'autre fraie dans la Cedar River, qui alimente cette grande nappe d'eau douce de près de 90 km2. Comme s'y attendaient les écologues, les deux populations ont développé des adaptations différentes, et tout d'abord dans leur apparence. Les mâles de la plage sont ainsi plus charpentés que leurs congénères de la rivière. " La différence est en moyenne de 10 %, explique l'écologiste Andrew Hendry qui a consacré huit années à les étudier. Ce trait influence leur succès reproducteur ". Les femelles semblent plus sensibles aux costauds. Dans une rivière balayée par un fort courant en revanche, un corps épais serait un handicap sur le plan hydrodynamique. Les mâles de la rivière Cedar sont donc restés particulièrement sveltes, affinant même un profil aérodynamique. A l'inverse, leurs femelles ont pris de l'ampleur et de la longueur. C'est qu'il faut une certaine force pour creuser son nid dans le gravier de la rivière, tout en résistant au courant. De telles adaptations - avec écotypes différents - ont déjà été constatées chez d'autres saumons, " captifs " des grands lacs américains depuis 10 000 ans, c'est-à-dire depuis qu'ils se sont vu bloquer l'accès à la mer lors des dernières glaciations. Mais la rapidité du processus a, cette fois, de quoi surprendre. Les observations menées sur les saumons l'ont été, et c'est une première, sur la vie sauvage. Plus fort encore, l'étude de Science a enfin démontré in vivo ce que pressentaient les modèles théoriques de la spéciation : ce sont les différences développées par une population pour s'adapter à un nouveau milieu qui contribuent peu à peu à l'isoler sexuellement. Et qui finissent par l'empêcher de se reproduire avec les membres de la population dont elle est originaire, faisant naître une nouvelle espèce. Un isolement géographique strict n'est même pas indispensable au processus. Cet isolement reproductif se serait installé en cinquante-six ans maximum (entre 1937, date de l'introduction des Sockeye, et 1992, date des premières études), c'est-à-dire en l'espace de treize générations à peine. Soit dix fois moins de temps qu'il n'en faut pour faire une espèce, selon les modèles en cours. Un bond dans le temps, même si Andrew Hendry souligne qu'il faudra sans doute encore quelques générations avant que les saumons ne soient totalement différenciés et isolés sur le plan génétique.

Science&Avenir :

http://www.sciencesetavenir.com/vivre/page68.html

Des progrès vers un vaccin contre la maladie d'Alzheimer
Samedi, 30/12/2000 - 00:00

Deux articles scientifiques publiés le 21-12-2000 dans la revue Nature montre qu'un vaccin contre la maladie d'Alzheimer peut être employé avec succès chez des souris. Un troisième équipe de chercheurs a démontré qu'un de ces modèles animal était pertinent pour l'étude de la maladie, car elle se développe chez ces souris selon les mêmes caractéristiques que chez l'homme. L'ensemble de ces résultats laisse espérer que l'élaboration d'un tel vaccin est transposable à l'homme. Les stratégies de vaccination envisagée chez les animaux reposent sur une immunisation avec le peptide beta-amyloïde dont les dépôts dans le cerveau des patients constituent une marque de la maladie. Les chercheurs avaient déjà montré qu'un tel vaccin pouvait réduire les dépôts de peptide beta-amyloïde mais les conséquences sur les troubles cognitifs restaient à démontrer. Dans un premier article, Chen et al. montre que dans un modèle précis de maladie d'Alzheimer chez la souris, les troubles cognitifs au cours du vieillissement sont associés aux plaques de peptide beta-amyloïde. Ces souris constituent donc un modèle de choix pour l'étude de la progression de la maladie. Deux autres publications traitent de l'effet d'une vaccination par le peptide beta-amyloïde sur des modèles de la maladie chez la souris. Ces travaux confirment que cette immunisation réduit la formation des dépôts de peptide beta-amyloïde. De plus, les chercheurs ont montré que les souris immunisées présentaient une protection relative face aux troubles comportementaux et cognitifs qui surviennent généralement chez ces animaux modèles. Néanmoins, le mécanisme d'action du vaccin n'est pas identifié. Ces résultats sont très encourageants mais de nombreux points doivent encore être éclaircis, notamment sur les mécanismes précis qui sont à l'origine de la maladie.

Nature : http://helix.nature.com/nsu/001221/001221-10.html

La thérapie génique pour leurrer le virus du sida
Samedi, 30/12/2000 - 00:00

Une percée dans la lutte contre le virus du sida pourrait avoir été ouverte par une équipe de chercheurs français qui - pour la première fois - est parvenue, par thérapie génique, à bluffer le virus du sida pour l'empêcher de pénétrer à l'intérieur des cellules qui constituent sa cible privilégiée. Pour le moment, ces travaux ont seulement porté sur des souris. Mais les chercheurs comptent passer aux singes puis, très vite, aux essais sur l'homme. Et ils n'excluent pas, à terme, de pouvoir ainsi prendre la relève des multithérapies. Les souris sur lesquelles les scientifiques ont travaillé avaient été modifiées génétiquement pour naître dépourvues de défenses immunitaires et ainsi pouvoir recevoir des cellules humaines sans les rejeter. Deux gènes produisant des protéines empêchant le virus de se fixer sur les cellules ont ensuite été injectés dans leur organisme, puis, une semaine plus tard, le virus du sida. "Quand le virus du sida rencontre une cellule humaine, il est attiré par des récepteurs précis, les CD4, sur lesquels il se fixe pour pénétrer à l'intérieur de celle-ci", souligne le Dr Kamel Sanhadji, responsable du laboratoire sur les déficits immunitaires de l'hôpital Edouard-Herriot de Lyon), qui a mené les travaux. "Nous avons voulu imiter ce processus en fournissant ces récepteurs au virus, mais sous une forme soluble", a précisé le chercheur. Ainsi trompé, le virus se précipite sur les CD4 qui se promènent librement dans l'organisme, s'y fixe, et finit par mourir faute de pouvoir prendre le contrôle de la cellule. "En trois semaines, la quantité de virus présente dans le sang devient indétectable, même avec les moyens les plus sophistiqués comme l'amplification génique", a souligné le Dr Sanhadji.Il n'est toutefois pas exclu que le virus puisse se cacher ailleurs, dans le cerveau, la moelle épinière ou les ganglions, comme il le fait normalement chez l'homme. Mais comme les souris ne s'infectent pas, même un examen post-mortem de ces organes ne permet pas de vérifier cette hypothèse et, les chercheursvont maintenant devoir procéder à des essais sur des animaux plus proches de l'homme, chimpanzés ou macaques. Selon le Dr Sanhadji, dans les "deux trois ans à venir", des essais pourraient débuter chez des malades, notamment ceux qui se montrent résistants aux tri-thérapies et dont la proportion - actuellement de 10 à 20 % - augmente régulièrement. Mais avant de passer aux essais sur l'homme, il faut encore que les virologues trouvent un "cheval de Troie", un vecteur, capable de transporter les gènes à l'intérieur de l'organisme sans risques pour le patient. "Dans deux à trois ans, nous devrions pouvoir disposer d'adénovirus de deuxième génération, dépourvus des parties qui, actuellement, provoquent une réaction du système immunitaire de l'homme et entraînent leur rejet", estime le dr Sanhadji.

AFP : http://fr.news.yahoo.com/001221/1/su80.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Feu vert pour le paquebot des airs
Samedi, 30/12/2000 - 00:00

Les actionnaires d'Airbus Industrie ont donné le feu vert au lancement industriel de son très gros porteur, qui a reçu le nom définitif d'A380 et dont la mise en service est prévue pour début 2006. Avec une capacité initiale de 555 sièges et une autonomie de 16000 km, l'A3XX sera le plus gros avion jamais construit et ses vols longs-courriers coûteront 17% de moins que ceux d'un Boeing 747-400, actuellement l'appareil le plus efficace sur le marché. "Nous sommes convaincus que cet avion a un brillant avenir", a déclaré Mandred Bischoff, président du conseil de surveillance d'Airbus et co-président du directoire d'EADS, le principal actionnaire du consortium aéronautique. Après avoir reçu cet été l'autorisation de vendre son très gros porteur, le constructeur aéronautique européen a obtenu en quelque six mois 50 engagements fermes, auxquelles s'ajoutent 42 options, de la part de six compagnies aériennes. Celles-ci - Air France , Singapore Airlines, Qantas, Emirates Airlines, Virgin Atlantic et le loueur ILFC -, ont obtenu un rabais de quelque 30% sur le prix catalogue de 230 millions de dollars de l'appareil. Les coûts de développement de l'appareil, estimés à 10,7 milliards de dollars, sont financés pour un tiers par les gouvernements français, allemand, britannique et espagnol, EADS et BAE Systems, les deux actionnaires d'Airbus, prenant en charge le solde avec l'aide des équipementiers et motoristes parties prenantes du projet. Airbus prévoit que l'A3XX commencera à être rentable en 2009,à partir de 250ème appareil vendu. La compagnie évalue le besoin en très gros porteurs à 1.500 appareils sur vingt ans (dont 300 en fret), dont elle pense obtenir la moitié. L'A3XX a une envergure de près de 80 mètres, une longueur de 73 mètres et une hauteur de 24,1 mètres. Dans une version ultérieure, il pourra accueillir jusqu'à 800 passagers.

Reuters : http://fr.news.yahoo.com/001219/2/sq1f.html

Il y a cent ans, Max Planck fondait la physique quantique et découvrait un nouveau monde
Samedi, 30/12/2000 - 00:00

Physicien allemand né à Kiel en 1858 et mort à Göttingen en 1947, Max Planck étudie la physique à Munich et à Berlin, où il est l'élève de Helmholtz et de Kirchhoff, et obtient son doctorat en 1879 ; sa thèse porte sur le deuxième principe de la thermodynamique ( le fameux principe d'entropie de Carnot), domaine de la physique qui le captivera tout au long de sa vie ; généralisant le principe de Nernst, il montre que l'entropie d'un corps pur en équilibre au zéro absolu est nulle. Planck enseigne à Munich (1880-1885), à Kiel (1887-1889), puis à l'université de Berlin. À partir des expériences effectuées par Heinrich Rubens, Otto Lummer et Ernst Pringsheim concernant les radiations thermiques, Planck construit une théorie du rayonnement du corps noir qui fait intervenir les échanges d'énergie entre rayonnement et matière, non pas de façon continue mais par des sauts d'amplitude finie : les quanta d'énergie. Le 14 décembre 1900, à Berlin, Planck présente ses travaux lors d'une conférence à la Société allemande de physique ; " Ce jour peut être considéré comme la date de naissance de la physique quantique ", devait-il rapporter, quelques mois plus tard, dans les Annales de physique - une des publications de physique les plus importantes de l'époque. Son hypothèse sur la discontinuité de l'énergie et sa théorie quantique lui valent, en 1918, le prix Nobel de physique. Pourtant, Planck lui-même accepta difficilement le désaccord qui existait entre sa théorie quantique et la physique classique ; c'est en cherchant, en vain, durant plusieurs années, à expliquer d'un point de vue purement classique la loi d'émission du corps noir qu'il acquit la conviction que l'explication ne pouvait être formulée que dans le cadre d'une théorie quantique. Le modèle des quanta ne tarda pas à être validé par l'explication de l'effet photoelectique, fournie par Einstein en 1905, et par la théorie de la structure atomique de Niels Bohr en 1913. Le développement de la physique quantique a nécessité l'introduction d'une constante universelle, appelée constante de Planck, notée h et égale à 6,626 075 5 × 10-34 J ? s. Cette constante traduit le fait qu'un oscillateur de fréquence naturelle v ne peut recevoir ou céder de l'énergie que par paquets (ou quanta) d'énergie de valeur hv. Cette constante a pour dimension celle d'un moment cinétique, ou action ; elle est également appelée quantum fondamental d'action. En 1905, Einstein, étudiant l'effet photoelectique pour lequel on observait un seuil d'énergie minimale, étendit la quantification au rayonnement lui-même, considérant que les quanta d'énergie étaient portés par des particules de lumière, les photons dont l'existence fut confirmée expérimentalement par l'observation de l'effet Compton (1923). Parallèlement, les développements de la théorie atomique et de la spectroscopie avaient abouti à la définition d'un modèle planétaire de l'atome, dont la stabilité ne pouvait être expliquée qu'en admettant que les états électroniques étaient quantifiés suivant des lois bien déterminées (modèle de Bohr-Sommerfeld). La quantification a donc été introduite en physique pour pallier les insuffisances des théories classiques dans le domaine de la microphysique. Mais cette première théorie quantique se révéla elle-même insuffisante, par exemple pour rendre compte des spectres d'atomes plus complexes que l'atome d'hydrogène, ou pour justifier la validité de la loi de Coulombà l'intérieur de l'atome. Une étape fondamentale fut franchie, en 1924, grâce aux travaux de louis de Broglie, qui considéra que la dualité onde-particule établie pour la lumière devait être étendue à toute la matière : à tout corpuscule, il convient d'associer une onde, définie par la relation : , où g est la longueur d'onde, h la constante de Planck, m la masse du corpuscule, v sa vitesse ; cette hypothèse fut confirmée expérimentalement, en 1927, par Clinton Davisson et Lester Germer, qui montrèrent qu'on pouvait obtenir, avec des faisceaux d'électrons, des phénomènes de diffraction semblables à ceux de la lumière, dont les paramètres correspondaient à ceux calculés par la théorie de Louis de Broglie. Cette mécanique ondulatoire réalisait une synthèse cohérente des points de vue corpusculaire et ondulatoire, incompatibles en physique classique ; elle permettait aussi de retrouver par le calcul les paramètres (nombres quantiques) introduits empiriquement dans l'ancienne théorie des quanta. Simultanément, Heisenberg formula la mécanique matricielle, dans laquelle les grandeurs physiques sont représentées par des matrices. Erwin Schrodinger développa un formalisme permettant d'unifier les deux points de vue en formulant l'équation générale des ondes en présence d'un potentiel (1925). En 1928, Paul Dirac obtint l'équation d'onde relativiste décrivant l'électron et tenant compte du spin, et fonda la mécanique quantique relativiste. Depuis, la physique quantique a connu un développement considérable, aussi bien en ce qui concerne la théorie fondamentale (méthodes mathématiques, recherches concernant la quantification de l'espace , du temps de la gravitation) que les domaines d'application , où ses succès et ses multiples perspectives d'application, cryptologie quantique, electronique quantique, démontrent que la physique quantique reste une des plus extraordinaires création conceptuelle de l'histoire des sciences ainsi qu'un cadre théorique incontournable pour le XXI eme siècle naissant.

Brève rédigée par @RT Flash

New York Times :

http://www.nytimes.com/2000/12/12/science/12QUAN.html?pagewanted=1

J.J. Thomson, l'électron libre de la physique
Samedi, 30/12/2000 - 00:00

Il est l'un des piliers de la physique. Sans lui, pas délectricité, pas de matière. Lélectron, particule élémentaire chargée négativement, est un constituant essentiel des atomes. Cest le Britannique Joseph John Thomson, Prix Nobel de physique en 1906, qui la déniché et lui a offert la postérité. Né le 18 décembre 1856 dans la banlieue de Manchester, en Angleterre, "J.J." Thomson est rapidement remarqué pour ses dons en mathématiques. Ses professeurs d'Owens College le poussent alors à entrer au prestigieux Trinity College de l'université de Cambridge. Là, ses capacités se confirment et il finit second de sa promotion. La direction de Trinity lui propose alors un poste de chargé de cours. Il y restera jusqu'à sa mort, le 30 août 1940. Dès 1884, une formidable opportunité s'offre à lui. Il devient professeur de physique expérimentale au laboratoire Cavendish, dans la lignée de James Maxwell et de Lord Rayleigh. Bien qu'il soit novice en la matière, il apprend vite et réalise d'importantes expériences en électromagnétisme et en atomistique. C'est également au sein du laboratoire que Thomson rencontre sa future épouse. Physicienne, spécialiste des films, Rose Paget lui donnera deux enfants dont l'un, George Paget Thomson, suivra la route tracée par son père et gagnera lui aussi le Prix Nobel. L'un des phénomènes physiques qui intriguent le plus J.J. Thomson est celui dit des rayons cathodiques. En appliquant une forte tension entre deux tiges de métal fixées aux extrémités d'un tube de verre dans lequel le vide a été fait, un faisceau de rayons apparaît. S'agit-il d'ondes ou de matière ? En 1894, l'Allemand Heinrich Hertz et son étudiant Philipp Lenard constatent que ce faisceau est capable d'exciter une substance fluorescente au point de rencontre avec le verre. Par ailleurs, il peut traverser une mince feuille de métal, contrairement à la lumière. Les expériences de Jean Perrin, en France, montrent que ces rayons transportent une charge négative. Et en janvier 1897, un autre Allemand, Emil Wiechert, prouve que le ratio entre charge et masse se révèle mille fois plus petit que celui du plus petit atome connu. C'est en cette même année 1897 que J.J. Thomson réalise une série d'expériences qui le mettent sur la piste de l'électron. A l'aide d'un tube cathodique adapté, il démontre que les rayons et la charge sont indissociables. Puis il observe qu'un champ électrique les dévie, à l'instar de n'importe quelle particule chargée. Enfin, la déviation des rayons dans les champs magnétiques et électriques lui permet de calculer avec précision le ratio charge sur masse. Il obtient la valeur de 176 millions de coulombs par gramme, qui ne correspond à aucun atome connu. Les rayons cathodiques sont donc bien constitués de particules à part entière. Thomson les baptisent corpuscules. Malgré le scepticisme de ses pairs, le Britannique persiste et signe. Selon lui, ils représentent les briques élémentaires des atomes. Cependant, son modèle basé sur un essaim de corpuscules prisonnier d'un nuage de charges positives est vite supplanté par celui d'Ernest Rutherford, un de ses anciens élèves. Le physicien réussi en effet à prouver l'existence du noyau et esquisse le premier modèle atomique ressemblant à peu près à la réalité : les électrons gravitant autour du noyau. Ce n'est d'ailleurs pas Thomson qui le premier emploie le terme d'électron. Inventé par George Johnston Stoney en 1891, il désigne avant tout l'unité de charge découverte lors de ses expériences sur l'électrolyse. C'est néanmoins sous ce nom que les fameux corpuscules acquerront leurs lettres de noblesse. J.J. Thomson, lui, sera honoré par tous. Fait chevalier de l'Ordre du mérite en 1908, il obtiendra de très nombreuses récompenses et donnera des cours au quatre coins du monde.

Infosciences : http://www.infoscience.fr/

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top