RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 271
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Décembre 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Administration : les nouvelles technologies au service du public
Prochaine mise en service du nouveau système de vérification de l'identité des étrangers entrant aux Etats-Unis
Les décodeurs à disque dur supplantent les magnétoscopes
Les téléviseurs plats crèvent l'écran mais restent perfectibles
Avenir
Record de conductivité électrique pour les nanotubes de carbone
Terre
2003, troisième année la plus chaude dans les annales
La Californie retient son souffle après le tremblement de terre
Une nouvelle ère s'ouvre pour les forages océaniques
Vivant
Ces épidémies qui pourraient surgir
L'exercice physique prévient les risques de diabète et d'hypertension
Imagerie moléculaire : des organes aux cellules
La télémédecine gagne le grand public
L'obésité accentue le risque d'un cancer grave de la prostate
Premier cas suspect de vache folle aux Etats-Unis
Les coraux plus proches des hommes
Premier clonage réussi de cerf par des chercheurs américains
Edito
La vie reconstruite



Des scientifiques américains, dirigés par le très médiatique Craig Venter, ont annoncé il y a quelques semaines qu'ils avaient réussi à fabriquer artificiellement un bactériophage (virus infectant uniquement les bactéries) en deux semaines. Celui-ci est alors totalement virulent et indistinguable du virus naturel. Cette annonce relance les spéculations sur la possibilité de création de nouveaux organismes vivants par l'homme. Les phages sont donc des virus infectant uniquement les bactéries. Ce phage est le premier organisme dont le génome a entièrement été séquencé en 1978. Son génome est constitué d'une molécule d'ADN circulaire de 5386 nucléotides et ne possède que 11 gènes. La finalité de ces recherches est de pouvoir fabriquer de nouvelles formes de vie bactérienne spécialement conçues pour lutter contre la pollution, fixer le CO 2, décontaminer un site radioactif, fabriquer de nouveaux vaccins, ou digérer les plastiques. En tant que telle, la seule nouveauté apportée par Craig Venter est la rapidité avec laquelle son équipe a réussi à construire ce virus. En effet, au mois d'Août 2002, le journal Science publiait les travaux d'une autre équipe américaine ayant réussi à construire dans un tube à essai le poliovirus responsable de la poliomyélite. Ce virus à ARN possédant 7741 nucléotides, créé de toutes pièces, était fonctionnel même si son génome possédait des erreurs apparues durant les étapes de synthèse in vitro. Ce travail avait nécessité près de trois années de recherche. Cette fois-ci, il a suffi d'à peine deux semaines pour obtenir une copie synthétique du phage. Cette rapidité provient du fait que les chercheurs ont modifié une technique classique de biologie moléculaire, la PCR " Réaction de Polymérisation en Chaîne ", qui permet de recopier une séquence d'ADN en des milliers d'exemplaires. La nouvelle technique appelée PCA (Assemblage par Polymérisation en Chaîne) permet dans la même étape de réaction de recopier les fragments d'ADN du génome et de les lier entre eux. L'ADN ainsi obtenu a été inséré dans Escherichia coli afin que le phage puisse être fabriqué par la bactérie. Le virus ainsi formé s'est montré pleinement virulent, capable d'infecter et de tuer les bactéries. La rapidité d'obtention de ce virus fabriqué de manière synthétique diminue fortement le temps nécessaire à l'obtention d'un organisme vivant plus complexe fabriqué de toutes pièces. A titre de comparaison, une bactérie possède un génome de 100 à 1000 fois plus complexe que le phage Phi-X174. Il y a quelques jours, d'autres chercheurs américains de l'Institut Médical Howard Hugues sont parvenus, à l'aide d'algorithmes sophistiqués, à concevoir et à construire une protéine fonctionnelle qui n'existe pas dans la nature. Lorsqu'elles sont produites dans notre organisme, les protéines sont constituées de longues chaînes d'acides aminés et ne peuvent pas fonctionner correctement avant de se replier pour former des structures tridimensionnelles complexes. Comprendre et modéliser les lois qui régissent ce processus de "pliage" moléculaire des acides aminés est un des problèmes centraux de la biologie. Pour réaliser cette protéine artificielle, les chercheurs ont dû surmonter de nombreuses difficultés techniques, liées aux multiples contraintes d'organisation moléculaire des 20 acides aminés connus dans la nature, mais aussi au nombre énorme de combinaisons possibles entre ces acides animés. Les scientifiques américains sont finalement parvenus à concevoir et à produire une protéine qui n'existe pas dans la nature et qu'ils ont baptisée "Top7". Grâce à la cristallographie par rayon X, les chercheurs ont pu vérifier la structure tridimensionnelle de cette protéine et constater que celle-ci s'était repliée exactement comme ils l'avaient prévu. Selon David Baker, la possibilité de concevoir et de prévoir ce pliage tridimensionnel des protéines pourrait à terme révolutionner la biologie et la médecine. “L'enseignement le plus important de ces recherches est que nous pouvons maintenant concevoir les protéines complètement nouvelles qui sont à la fois très stables, et très proches dans leur structure, de ce que nous voulions,” souligne Baker. "Le prochain grand défi va être à présent de concevoir et construire des protéines avec des fonctions précises qui soient utilisables sur le plan thérapeutique" souligne Baker. “D'un point de vue plus théorique, dans le cadre d'une meilleure compréhension de l'évolution de la vie, nous voulons aussi savoir si les plis des protéines observées dans la nature constituent l'ensemble des solutions viables que la vie a expérimenté ou s'il peut exister des protéines dont la structure tridimensionnelle est radicalement différente de ce que nous connaissons” poursuit Baker. Les annonces, à quelques semaines d'intervalle, de la fabrication d'un virus puis d'une protéine artificielle, nous montrent à quel point nous progressons rapidement vers la maîtrise de cette ingénierie du vivant. Dans quelques années, nous serons capables de concevoir et de fabriquer les constituants du vivant, et sans doute même, des organismes vivants complets, qui n'existent pas dans la nature. L'homme disposera alors d'un pouvoir démiurgique et presque sans limites qu'il pourra utiliser pour le meilleur mais aussi pour le pire. Il nous appartient donc de mettre en place rapidement les garde-fous démocratiques, juridiques et éthiques qui devront garantir que cette nouvelle puissance sera utilisée pour le bien commun de l'humanité avec prudence et sagesse.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Administration : les nouvelles technologies au service du public
Jeudi, 25/12/2003 - 00:00

À l'occasion d'un colloque sur le thème de "L'administration électronique : les technologies de demain au service du quotidien", organisé par l'Agence pour le développement de l'administration électronique (ADAE) et l'Institut national de recherche en informatique et en automatique (INRIA), le 15 décembre à la Cité des sciences et de l'industrie à Paris, Henri Plagnol, secrétaire d'État à la Réforme de l'État, a rappelé l'importance du développement des nouvelles technologies dans les services publics. L'administration électronique constitue l'un des principaux leviers de la réforme de l'État et permettra d'offrir, à moindre coût, aux usagers de l'administration des services plus variés, plus rapides et plus simples d'emploi. Les laboratoires de recherche des différents partenaires de cette manifestation ont donc présenté leurs innovations pour renforcer le lien entre le citoyen et l'administration. Différentes innovations, achevées ou en cours d'étude, ont été présentées. Leurs applications pour les services publics pourraient être multiples : - le téléguichet multimédia. Il s'agit de fournir de l'information vidéo et audio sur les sites des services publics. Les réalisations de guichets uniques par téléphone pourraient devenir visuelles et permettre à tous les citoyens de dialoguer en visioconférence avec l'agent d'accueil. Un service pourrait également permettre d'assister un citoyen non familiarisé aux nouvelles technologies dans son utilisation des nouveaux téléservices ; - le stylo numérique. Un stylo électronique branché à un ordinateur permettra de numériser des informations en même temps qu'elles sont transcrites sur le papier pour gagner du temps. Par exemple, un médecin soignant un patient pourra faire son rapport dans l'ambulance sur les deux types de supports en même temps. Son rapport, une fois imprimé, pourra être transmis plus facilement et plus lisiblement à la police et à l'hôpital. Dans le cas d'un examen, le stylo numérique permet de digitaliser les réponses aux questionnaires pour un traitement immédiat du résultat. Par ailleurs, il permet également de conserver la version papier et la version numérique d'un document ; - la voix du web. Il s'agit d'une innovation permettant aux personnes handicapées d'avoir accès aux nouvelles technologies. Les personnes malvoyantes pourront ainsi redimensionner les fenêtres pour rendre l'écran plus lisible. Il sera possible de changer le type et la taille des polices sur les pages internet et de modifier la couleur de l'arrière-plan. Par ailleurs, une voix numérique pourra lire le texte et le rendre accessible aux aveugles. Cette technologie pourrait ensuite être adaptée sur les sites des services publics ; - le système d'information géographique (SIG). Ce système permet aux administrations, aux collectivités et aux grandes entreprises de numériser l'espace d'une collectivité territoriale en trois dimensions et d'en étudier l'évolution. Il s'agit d'une aide à la décision en matière d'aménagement du territoire, d'implantation d'infrastructures et de mutualisation des données. Une première application permet d'ores et déjà de visualiser le territoire de la Seine-Saint-Denis dans ses différents aspects : géographie, histoire, évolution territoriale, aménagement, infrastructures...

Premier Ministre :

http://www.premier-ministre.gouv.fr/fr/p.cfm?ref=41723&d=1

Prochaine mise en service du nouveau système de vérification de l'identité des étrangers entrant aux Etats-Unis
Jeudi, 25/12/2003 - 00:00

Les principaux aéroports et ports américains se préparent à utiliser le nouveau système de vérification d'identité des étrangers entrant aux Etats-Unis basé sur les empreintes et les photographies de ces visiteurs, qui doit entrer en vigueur le 3 janvier prochain. Baptisé US-VISIT (US Visitor and Immigrant Status Indicator Technology), il sera mis en service dans les 115 aéroports internationaux américains et dans 14 ports. Il permettra la vérification de l'identité et des antécédents judiciaires de 24 millions de visiteurs étrangers chaque année. "Je pense que les gens ont compris qu'un renforcement de la sécurité est nécessaire", explique Bill Strassberger, porte-parole du département de la Sécurité intérieure. Les empreintes des arrivants seront prises et confrontées à un fichier national regroupant les casiers judiciaires et les listes de terroristes, selon M. Strassberger. Ce processus sera répété lorsque les étrangers quitteront les Etats-Unis, par prudence et pour vérifier qu'ils ont respecté la durée du leur visa. Selon M. Strassberger, une fois que le système sera rodé, la manipulation ne prendra que 10 à 15 secondes par personne. Les étrangers arrivant sur le sol américain continueront néanmoins de passer aux douanes et de répondre à des questions concernant leur séjour. Tous ces visiteurs seront pris en photo et verront leurs empreintes relevées, à l'exception des ressortissants de 28 pays, principalement européens, qui peuvent séjourner pendant 90 jours aux Etats-Unis sans visa. Le système sera étendu à 50 postes frontières terrestres d'ici la fin de l'année prochaine, selon Bill Strassberger.

AP :

http://fr.news.yahoo.com/031223/5/3k9r9.html

Les décodeurs à disque dur supplantent les magnétoscopes
Jeudi, 25/12/2003 - 00:00

Le magnétoscope vit sans doute ses dernières heurs. Après le pilotime de CanalSat et le Platinium de son concurrent TPS, c'est au tour du câblo-opérateur Noos, filiale de Suez et France Telecom, de dévoiler son "Advance", un décodeur fabriqué par Sagem et équipé d'un disque dur de 80 giga octets de capacité. Avec une capacité d'enregistrement de 40 heures, le Noos Advance est donc en mesure de se substituer au magnétoscope VHS mais propose également de nombreuses fonctions avancées comme le "contrôle du direct", permettant de consulter un programme TV en léger différé ou de stopper quelques instants sa diffusion. A l'image de la mémoire tampon d'un lecteur de CD, Noos advance propose également une fonction baptisée "BackVision", permettant de revoir les trente dernières minutes du programme en cours car elles sont systématiquement enregistrées. Adavance dispose d'un microprocesseur 225 MIPS couplé à un disque dur de 80 Go et est disponible pour les abonnés TV de Noos pour 15 euros supplémentaires par mois. Soutenus par les opérateurs de télévision thématique (câble ou satellite), Noos advance, Platinum et Pilotime doivent néanmoins faire face à la concurrence d'une nouvelle générations de PCcomme le Multivista ou encore la famille Windows XP MediaCenter, qui entendent faire fusionner magnétoscope et ordinateur. De son côté, le géant japonais Sony confirme ses ambitions en matière de fusion de l'informatique et de multimedia. La firme nippone vient en effet de commercialiser au Japon de sa PSX, un produit hybride aux fonctions de console de jeux, de magnétoscope sur disque dur, de lecteur de photos numériques, de guide des programmes (fourni par Gemstar) et de graveur de DVD-RW. Vendue aux environs de 750 ? pour le modèle disposant d'un disque dur de 250 Go, la PSX ne propose pas pour le moment d'accès internet. cette PSX incarne certainement pour Sony l'avenir de l'électronique domestique. Mais cette machine s'avère néanmoins moins fonctionnelle qu'un PC sous Windows Media Center par exemple, et beaucoup plus chère que les décodeurs à disque dur type Pilotime (CanalSat), Platinium (TPS) ou advance (Noos) déjà commercialisés en France.

Netéconomie : http://www.neteconomie.com/

Les téléviseurs plats crèvent l'écran mais restent perfectibles
Jeudi, 25/12/2003 - 00:00

Esthétiques, design, avec des lignes high-tech s'intégrant parfaitement dans les intérieurs contemporains, les écrans plats, LCD ou plasma, aujourd'hui bien au point, ont désormais la faveur de ceux qui renouvellent leur télévision, ou leurs ensembles informatiques. Pour ce Noël 2003, en guise de cadeau familial, l'engouement se vérifie, d'autant plus que les prix ont baissé depuis la fin de cet été. Des prix qui restent toutefois assez élevés, et nettement plus que les vieilles télés à tube cathodique (CRT) encore excellentes, même si les produits d'appel en écran plat LCD sont affichés sous la barre des 500 E. Ces structures qui s'accrochent au mur tel un tableau, se posent au sol, sur un meuble bas, et même sur une commode, séduisent beaucoup, paraît-il, les femmes qui « induisent » les trois-quarts des achats de la famille. Actuellement, 10 % des TV vendues en France ont un écran plat LCD, leur prix est quatre fois plus élevé en moyenne qu'une télé classique à tube. Aussi les LCD représentent 29 % du marché en valeur contre 57 % pour les TV en CRT. Les Sony en LCD vont de 999 à 2 490 euros. Les Philips en LCD vont de 599 à 4490. Les Samsung en LCD varient de 599 à 8000 euros. Les Sony en plasma s'alignent de 5490 à 9990 euros, tout comme Panasonic excellent aussi en plasma qui varie de 5000 à 9990. Les Philips en plasma s'échelonnent de 4990 à 6990. Les Samsung en plasma se déclinent de 4990 à 9990 euros. Que faut-il penser de ces nouvelles technologies, quels en sont les avantages et les inconvénients ? Comme en toute chose, il faut bien sûr examiner les utilisations, les besoins et les budgets disponibles au cas par cas. Mais beaucoup cèdent à la passion. « Il y a des clients qui arrivent, examinent les écrans, ils sont séduits par leur aspect agréable à regarder, leur faible encombrement, ne regardent même pas le prix et, parfois, repartent directement avec un écran immense mais plat dans leur voiture », explique Jean-Claude Chaix, responsable du département image et son du magasin Planète Saturn, situé au coeur des Cordeliers, en plein centre ville de Lyon. Sony est l'une des marques qui a la faveur des clients au fort pouvoir d'achat de ce magasin spécialisé. « C'est vrai que cette marque propose la meilleure qualité d'image notamment en LCD, mais c'est assez difficile de comparer les différentes marques : les téléviseurs n'ont pas la même taille, pas le même prix Il faut savoir ce que l'on veut en faire » Si vous êtes cinéphile, que vous vouliez voir le film du dimanche, en grand spectacle comme au cinéma, l'écran plat très large plasma est fait pour vous. Pensez à l'installer alors avec un recul de trois mètres au moins. Si vous voulez y joindre une activité ordinateur, il vous faudra une prise pour PC. Les LCD en proposent presque tous. En revanche, peu de plasmas en sont équipés, à part par exemple un Panasonic et un Pioneer, de 107 cm, coûtant entre 6 000 et 7 000 E. Il y aura sûrement une baisse des prix en 2004, « mais elle sera limitée à cause d'une pénurie des composants électroniques sur ces produits », affirme Jean-Claude Chaix, « car il y a déjà eu une surfabrication d'ordinateurs à écrans plats, que le contexte économique n'est pas favorable et que les constructeurs n'ont pas fait tourner les usines à plein rendement ». Y a-t-il des innovations à attendre ? « Elles ne seront pas majeures, pas révolutionnaires », estime le spécialiste de Planète Saturn, « seules les gammes devraient changer ». La durée de vie est d'environ 15 ans pour un LCD et de 12 ans pour un plasma. Sur le plan technologique, les LCD, composés d'un mélange de cristaux liquides, « allumé » par trois lampes de couleurs primaires rouge, vert, bleu, offrent une image brillante, colorée, magnifique pour les animations et les jeux vidéo, mais un contraste pas tout à fait parfait et parfois des zones « pixellisées ». La qualité de vision de l'écran LCD est parfois sensible à l'angle de vue, d'où l'intérêt d'avoir un pied vertical ou horizontal pivotant. Les plasmas sont faits d'un mélange complexe de microbilles de gaz plasma reposant sur une dalle vidéo, permettant une haute définition (HDTV High Definition Television). Mais l'image serait moyenne, avec un contraste noir-blanc inférieur au CRT. Les LCD sont plats, avec des panneaux plus fins que les plasmas et assez larges (à partir de 36 cm et jusqu'à 100 cm). Ils forment un ensemble très léger (en moyenne de 6 à 30 kg), élégant, esthétique. Les plasmas sont des télévisions à accrocher au mur, avec des écrans plats, très larges (à partir de 82 cm et avec une taille moyenne de 107 cm), pesant deux fois moins qu'un CRT (poids moyen 40 kg). Il reste que l'écran parfait n'existe pas encore et que chaque technologie a ses points faibles (contraste limité pour le LCD, image froide et manque de fluidité dans les scènes d'action pour le plasma) Pour certains puristes c'est encore le tube cathodique, dans les téléviseurs haut de gamme de grande taille qui offre le meilleur compromis en terme de qualité globale d'image.

Progrés : http://www.leprogres.fr/

^ Haut
Avenir
Nanotechnologies et Robotique
Record de conductivité électrique pour les nanotubes de carbone
Jeudi, 25/12/2003 - 00:00

Une équipe de scientifiques américains a battu le record de 1955 du semi-conducteur offrant la meilleure conductivité électrique à température ambiante. Le nouveau lauréat est le nanotube de carbone, promis à un bel avenir dans l'électronique. Des chercheurs de l'université de Maryland aux États-Unis ont mis en évidence une conductivité électrique record pour des nanotubes de carbone à température ambiante. Elle serait 70 fois plus importante que celle des semi-conducteurs en silicium utilisés notamment dans les processeurs et mémoires d'ordinateurs. Cette découverte confirme donc l'extraordinaire potentiel pour l'industrie électronique de ces objets de la taille du milliardième de mètre (nanomètre). Découverts en 1991, les nanotubes de carbone ont suscité de nombreuses recherches du fait de leurs caractéristiques uniques. Ils se composent d'une feuille de graphite enroulée sur elle-même, formant ainsi un cylindre cent mille fois plus mince qu'un cheveu. Les scientifiques ont déjà montré qu'ils sont plus résistants que l'acier, et qu'ils offrent, par ailleurs, une conductivité électrique très supérieure à celle du cuivre. L'équipe du professeur Michael Fuhrer du Maryland s'est concentrée sur la "mobilité" des nanotubes de carbone à température ambiante. La mobilité est l'une des principales composantes de la conductivité électrique: elle mesure le déplacement des porteurs de charge que sont les électrons sous l'effet du champ électrique; elle s'exprime en cm2/Vs (centimètre carré par volt-seconde) 100.000 cm2/Vs à 27 degrés. À 300 degrés Kelvin (27 degrés Celsius environ), les mesures atteignent 100.000 cm2/Vs, . «Nous n'avons pas connaissance d'un plus haut niveau de mobilité à température ambiante room temperature] dans aucun autre type de semi-conducteurs», précisent les chercheurs. Les semi-conducteurs en silicium offrent actuellement une mobilité d'environ 1.500 cm2/Vs. Le précédent record, obtenu en 1955, avait permis d'atteindre 77.000 cm2/Vs en utilisant de l'antimoniure d'indium (indium antimonide, InSb). Pour obtenir ces nouveaux résultats, les chercheurs ont utilisé des nanotubes de carbone extrêmement longs, de l'ordre de 300 microns (0,3 millimètres), soit 100 fois la taille utilisée jusqu'alors dans des expérimentations. «C'est un pas en avant important pour faire des nanotubes le coeur des composants électroniques de nouvelle génération, plus petits et plus performants», estime Fuhrer qui précise cependant qu'il faudra attendre 2010 pour voir les premiers produits commerciaux à base de nanotubes.

Nanoletters :

[http://www.physics.umd.edu/condmat/mfuhrer/publications/extraordinarymobility.p...

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
2003, troisième année la plus chaude dans les annales
Jeudi, 25/12/2003 - 00:00

Le réchauffement de la planète a continué à s'accélérer en 2003, année qui restera comme la troisième plus chaude jamais enregistrée dans les annales, a annoncé mardi l'Organisation météorologique mondiale (OMM).Dans son rapport annuel sur le climat mondial, l'OMM a souligné que la hausse des températures avait été à l'origine de phénomènes de sécheresse, inondations, ouragans et typhons, et aussi de la vague de chaleur qui s'est abattue sur l'Europe occidentale pendant l'été. "Cette année a été une année très chaude, mais ce n'est pas la plus chaude. Très probablement, elle se situera au troisième rang", a déclaré Michel Jarraud, le secrétaire général adjoint de l'OMM, une émanation de l'Onu qui siège à Genève et qui regroupe les services météorologiques du monde entier. "Les températures depuis 1976 ont progressé environ trois fois plus qu'au cours du XXème siècle, donc le rythme d'augmentation des températures s'accélère", a-t-il ajouté lors d'une conférence de presse. Cette année, la température moyenne de la planète devrait avoir augmenté de 0,45 degré par rapport à la moyenne des années 1961-1990. L'année la plus chaude jamais enregistrée reste 1998, avec une hausse de 0,55 degré par rapport à cette moyenne. L'année 2002 arrive en deuxième place du classement, avec une hausse de 0,48 degré. Cette année, la hausse des températures a été encore plus nette dans l'hémisphère nord que dans l'hémisphère sud, notamment en Europe. "En France, Italie, Pays-Bas, Portugal, Grande-Bretagne et Espagne, on estime à 21.000 le nombre de morts liés à la canicule, on peut donc parler de phénomène exceptionnel", a estimé M. Jarraud. La chaleur a également fait fondre les glaciers européens deux fois plus vite que lors du record établi en 1998. En septembre, la banquise de l'Océan arctique s'est à nouveau réduite au niveau record de 5,3 millions de km2 atteint l'année précédente. D'autres régions du monde ont été aussi touchées par une chaleur inhabituelle: certaines régions des Etats-Unis dont l'Alaska, le Canada, certaines parties de la Chine, de la Russie et de l'Afrique. L'Inde a subi une chaleur exceptionnellement intense juste avant la mousson. "Le réchauffement planétaire va probablement amener plus souvent des événements extrêmes", a averti M. Jarraud. Dans les régions du Pacifique et de l'Atlantique, on a relevé un nombre de typhons, cyclones et ouragans supérieur à la moyenne, ces phénomènes s'étant déjà manifestés de façon plus fréquente depuis le début des années 1990. A l'inverse, des températures exceptionnellement froides ont été constatées à Oman, dans certaines parties de l'Asie autour du Japon ainsi qu'en Russie, où le thermomètre a enfoncé les -45 degrés pendant l'hiver. Ces températures extrêmes ont favorisé l'apparition de sécheresses et d'inondations dans plusieurs parties du Globe, notamment aux Etats-Unis et en Chine. Selon l'OMM, la chaleur est également à l'origine des feux de broussailles qui ont frappé l'Australie pendant près 59 jours en début d'année. Ces dérèglements climatiques ont parfois soulagé certaines régions du monde comme l'Afghanistan, où les précipitations ont mis fin à quatre années de sécheresse, ou le Sahel, arrosé par des pluies record.

OMM : http://www.wmo.ch/index-en.html

La Californie retient son souffle après le tremblement de terre
Jeudi, 25/12/2003 - 00:00

Le centre de la Californie restait en état de choc mardi, au lendemain d'un tremblement de terre de magnitude 6,5 qui a frappé cette région et provoqué la mort de 2 personnes, poussant le gouverneur Arnold Schwarzenegger à déclarer l'état d'urgence.La secousse tellurique qui s'est produite lundi vers 11H15 locales (19h15 GMT) à environ 11 Km au nord-est de la localité de San Simeon, a complètement détruit un immeuble ancien de la ville de Paso Robles (57 km de l'épicentre du séisme), faisant deux morts et provoquant des coupures d'électricité pour des milliers de foyers. Une série de répliques de magnitude 3 à 4,2 ont été enregistrées dans la nuit de lundi à mardi, laissant les habitants de cette région à mi-chemin de Los Angeles et San Francisco sur le qui-vive et prêts à s'enfuir à tout moment. M. Schwarzenegger a annoncé mardi qu'il déclarait l'état d'urgence dans la zone affectée lorsqu'il est venu se rendre compte des dégâts à San Robles. Il a précisé que 50 personnes avaient été blessées et que 40 immeubles avaient été endommagés, tandis que des dizaines de milliers de personnes étaient privées d'électricité. L'état d'urgence permet de débloquer des fonds publics pour participer aux efforts de sauvetage et de reconstruction. "Nous avons déjà commencé à reconstruire", a ajouté M. Schwarzenegger devant des journalistes et des habitants, en notant que la moitié des 100.000 personnes qui avaient d'abord été privées d'électricité avaient déjà retrouvé le courant. "Le fait qu'une secousse de grande ampleur ne se soit pas produite juste après la première secousse réduit les risques" d'un prochain gros tremblement de terre imminent, a estimé un sismologue, Thomas Heaton. "Sur 20 tremblements de terre, un seul seulement est suivi par un autre de grande importance dans la semaine qui suit", a-t-il précisé. "Cela a rappelé de manière frappante que nous sommes vulnérables, quel que soit l'endroit où nous nous trouvons dans cet Etat, à de possibles tremblements de terre, et nous devons faire tout ce qui est possible pour nous y préparer", a-t-il ajouté. "Le grand tremblement de terre est encore à venir mais avant qu'il ne survienne nous en aurons plusieurs de moindre ampleur", a-t-il ajouté. Jusqu'à Los Angeles et San Francisco -- deux villes situées pourtant à quelque 400 kilomètres de l'épicentre -- des secousses ont été ressenties et ont fait osciller des gratte-ciel. Ce tremblement de terre est le plus important qui ait frappé la région depuis un séisme d'amplitude 7,1 à Los Angeles en 1994, qui avait fait 57 morts. Il a ravivé le sentiment de vulnérabilité des Californiens face au risque d'un séisme plus important. Un porte-parole de la police de Paso Robles a indiqué que des experts étaient en train d'examiner ce qu'il reste de l'immeuble détruit, ainsi que 80 autres édifices, pour détecter d'éventuels dangers. Deux femmes, une de 55 ans et une autre de 19 ans, sont mortes tuées par la chute d'une partie du toit de l'immeuble centenaire dans lequel elles travaillaient.

Los Angeles Times : http://www.latimes.com/news/

Une nouvelle ère s'ouvre pour les forages océaniques
Jeudi, 25/12/2003 - 00:00

Après 35 ans de forages océaniques dont le plus profond atteint 2 km, un nouveau programme international, beaucoup plus ambitieux dans ses objectifs, se met en place, qui permettra notamment de forer des puits dans la croute océanique jusqu'à 5 ou 6 km ou dans des zones instables.Dès 2004, une première opération sera menée dans l'Arctique, une seconde devrait suivre en 2005, pour forer les coraux du Pacifique sud, ont annoncé à Paris les responsables de l'INSU-CNRS (Institut National des Sciences de l'Univers) qui ont signé cette semaine un accord avec 12 autres pays pour la participation de l'Europe à ce nouveau programme international, baptisé IODP (Integrated Ocean Drilling Programme). Le protocole d'accord ECORD (European Consortium for Ocean Research Drilling) donne à l'Europe une représentation unique au sein du programme IODP aux côtés des Etats-Unis et du Japon. "Après l'espace, on se rend compte que les océans sont la "nouvelle frontière", nous savons désormais que pour comprendre la Terre, il faut comprendre les océans" et grâce aux nouveaux moyens performants dont nous allons disposer, nous allons accéder à des endroits auparavant inaccessibles et travailler sur des données qui nous permettront de remonter à quelque 100 millions d'années", selon Catherine Mevel, responsable de ECORD. 70% de la surface de la Terre est couverte par des océans, et depuis une trentaine d'années, les scientifiques du monde entier se sont organisés pour avoir accès à un navire de forage océanique -le Glomar Challenger puis le Joides Resolution- capable de prélever, sur de grandes profondeurs, des carottes de croute océanique. Par l'étude des carottes et les mesures dans les puits de forage, il est possible de reconstituer les climats du passé et l'évolution du niveau de la mer, et de comprendre les grands mécanismes géologiques. Parmi les cibles prioritaires, les champs d'investigation du nouveau programme seront l'étude de la biosphère cachée dans les premiers kilomètres de la croute océanique: ce sont des bactéries résistantes aux fortes pressions dont on attend beaucoup dans le domaine des biotechnologies. Les scientifiques étudieront également des régions sismiques comme le Japon ou la Méditerranée, avec des forages prévus au coeur même des zones sujetes aux séismes, ainsi que la sédimentation des marges continentales qui renferment des réserves de pétrole, gaz, et d'hydrates de gaz. L'étude du changement climatique par l'examen des variations passées inscrites dans les sédiments est également prévue, ainsi que la mise en place d'observatoires au fond des océans, en particulier des sismomètres destinés à compléter les réseaux terrestres. Le coût d'IODP est évalué à 60 millions de dollars la première année et atteindra 150 millions de dollars quand toutes les plates-formes seront en opération.

IODP : http://www.iodp.org/

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Ces épidémies qui pourraient surgir
Jeudi, 25/12/2003 - 00:00

Notre environnement est infesté de bactéries et de virus. Certains d'entre eux parviennent à infecter l'homme, provoquant quelques cas de maladies localisés ici ou là. Mais comment être sûr qu'un parasite ne va pas provoquer une épidémie massive, comme ce fut le cas pour virus du VIH et, plus récemment, celui du SRAS (syndrome respiratoire aigu sévère) ? Des chercheurs américains et français ont établi dans la revue Nature que certains pathogènes a priori "mineurs" peuvent se répandre à grande échelle au sein de la population et devenir dangereux. "Sous l'effet des changements environnementaux et comportementaux, l'homme est davantage en contact avec les parasites", explique à tf1.fr Jacob Koella, directeur du laboratoire de parasitologie évolutive à l'université Pierre et Marie Curie et coauteur de l'étude. "N'importe quel parasite peut être transmis à l'homme", précise-t-il. Jacob Koella et ses collègues américains ont ainsi calculé le risque qu'un pathogène donne lieu à une épidémie. Pour simplifier, il s'agit d'étudier le nombre de malades provoqués par le premier cas de contamination humaine. Plus le chiffre est élevé, plus le pathogène pourrait être dangereux à grande échelle. Car plus la bactérie a infecté de personnes, plus elle a eu l'opportunité de subir une mutation génétique et de mieux s'adapter à son hôte humain. Bref, devenue plus "performante" sur l'homme, la bactérie n'en est que plus facilement transmissible. D'où l'existence "d'épidémies en attente", qui pourraient surgir sans que l'on y soit préparé. Une menace d'autant plus inquiétante, notent deux chercheurs américains qui commentent l'étude dans Nature, que la médecine recourt de plus en plus à des matériaux non-humains pour remplacer des tissus humains. Aussi alertent-ils sur la nécessité de surveiller "l'activation et la recombinaison génétique de rétrovirus qui seraient restés autrement dormants dans le génome humain ou dans les greffes". Et, pour compléter ce sombre tableau, Jacob Koella conclut : "il y a toujours des bactéries qui émergent ; il est très difficile de comprendre comment elles apparaissent.

TF1 : http://news.tf1.fr/news/sciences/0,,1519780,00.html

L'exercice physique prévient les risques de diabète et d'hypertension
Jeudi, 25/12/2003 - 00:00

Les personnes qui font peu d'exercice physique multiplient entre trois et six le risque de développer du diabète et de l'hypertension artérielle par rapport à celles qui en font beaucoup, selon une étude parue mercredi dans le Journal of the American Medical Association."Notre étude démontre que le manque d'exercice physique chez un jeune adulte est un facteur de risque important dans le développement de maladies cardiovasculaires à l'âge mûr", affirment les auteurs de l'étude dirigée par Mercedes Carnethon, de la Feinberg School of Medecine à la Northwestern University à Chicago. "Faire peu ou modérément de l'exercice physique est fortement (risque multiplié entre 3 et 6) associé au développement de l'hypertension artérielle, du diabète et du syndrome métabolique et assez peu associé au développement de l'hypercholestérolémie (augmentation de 40%)", précisent-ils. "Si tous les jeunes adultes qui font peu d'exercice en faisaient, il y aurait une baisse de 21 à 28% des cas d'hypertension artérielle, de diabète et de syndrome métabolique", selon l'étude. Les auteurs affirment toutefois que "parmi ceux qui sont devenus obèses plus jeunes (dans l'enfance ou l'adolescence), l'exercice physique ne protège pas contre le développement de diabète ou de syndrome métabolique". Les auteurs de l'étude s'inquiètent de l'épidémie d'obésité qui frappe les Etats-Unis et de la diminution de la dépense calorique quotidienne observée dans la population et appellent les autorités à "encourager la pratique de l'exercice physique chez les jeunes adultes". L'étude a porté sur plus de 5.000 Américains, hommes et femmes, âgés de 18 à 30 ans, et suivis pendant 15 ans de 1985-1986 à 2000-2001.

JAMA :

http://jama.ama-assn.org/cgi/content/abstract/290/23/3092?

Imagerie moléculaire : des organes aux cellules
Jeudi, 25/12/2003 - 00:00

Grâce à l'imagerie moléculaire, on est en train de passer de la visualisation des organes à la visualisation de phénomènes biologiques à l'échelle cellulaire, avec, comme perspectives, une détection plus précoce des maladies, notamment tumorales, des thérapeutiques plus ciblées et une évaluation plus rapide, voire en temps réel, de l'effet des traitements. Ce concept en plein développement, qui a largement bénéficié de la description du génome humain, est unanimement considéré comme une véritable révolution. L'imagerie moléculaire associe la biologie moléculaire et l'imagerie in vivo. Elle permet de visualiser de façon non invasive les processus qui ont lieu à l'échelle cellulaire ou subcellulaire, comme l'expression d'un gène, d'un récepteur, le déclenchement de l'angiogenèse (switch angiogénique) dans les micrométastases, la consommation de glucose dans les cellules cancéreuses... De multiples modalités sont employées en imagerie moléculaire, qu'il s'agisse du scanner, de l'IRM, de l'échographie ou de la tomographie par émission de positons (TEP) ou des techniques classiques de médecine nucléaire ou, plus récemment, des techniques d'imagerie optique. L'imagerie cellulaire en IRM fait l'objet de nombreuses recherches. L'objectif est de suivre la circulation de différentes cellules d'intérêt. Ces dernières sont, soit des cellules endogènes, comme les lymphocytes au cours des processus infectieux, inflammatoires ou d'envahissement tumoral, soit des cellules exogènes, injectées par exemple dans le cadre de la thérapie cellulaire. A l'heure actuelle, le marquage des cellules est réalisé avec des particules superparamagnétiques ; les cellules magnétisées deviennent ainsi visibles en IRM. Du fait des limites liées à la résolution, la technique ne permet pas encore de visualiser les phénomènes à l'échelle d'une cellule unique in vivo. Le suivi des cellules musculaires injectées en intracardiaque après infarctus du myocarde ou des greffes d'hépatocytes dans le foie au cours des maladies métaboliques est une application potentielle de l'imagerie de la thérapie cellulaire. Mais, pour l'instant, l'imagerie cellulaire reste surtout un outil de recherche visant à mieux comprendre les mécanismes physiopathologiques de certaines affections, en particulier tumorales, ischémiques et infectieuses. Un autre domaine émergent connaît actuellement un développement rapide, celui de l'imagerie optique, qui repose sur l'utilisation de la fluorescence et de la bioluminescence. La première de ces techniques est fondée sur le marquage de biomolécules par des fluorochromes ou par un gène rapporteur, et la seconde sur l'émission phosphorescente du gène de la luciférase. Si, à l'heure actuelle, les applications de l'imagerie optique concernent plutôt le petit animal, des recherches ont également lieu chez l'homme. Mais parce que le signal émis est très altéré par la profondeur du tissu, ces techniques seront utilisables uniquement sur des organes peu profonds, comme la rétine et le sein ou encore sur les tissus et organes exposés au cours des endoscopies et de la chirurgie. Un système d'imagerie applicable chez l'homme en peropératoire est déjà testé aux Etats-Unis. Ce système, mis au point par une équipe de la Stanford University of School Medicine (D. Benaron et coll.), comprend une caméra sensible à différents marqueurs fluorescents, qui permet de localiser les cellules tumorales durant l'intervention. L'imagerie moléculaire est promise à un bel avenir. Elle aura probablement - mais pas seulement - des applications généralistes, comme le FDG-glucose en PET-scan, utilisé dans les bilans d'extension des cancers. Des applications de l'imagerie optique peuvent être envisagées dans les cinq à dix ans à venir.

Quotimed : http://www.quotimed.com/information/index.cfm?

La télémédecine gagne le grand public
Jeudi, 25/12/2003 - 00:00

La télémedecine ne se limite plus au simple déclenchement d'appel d'urgence grâce à un bouton en cas de besoin (après une chute, par exemple), on assiste désormais à l'émergence de systèmes intégrant des capteurs de paramètres physiologiques des patients. En recevant de façon quasi permanente les données décrivant l'évolution de l'état de la personne, les centres de soins peuvent ainsi mettre en place une action préventive ou réagir plus rapidement en cas de crise. La première application de ces systèmes intégrant capteurs, électronique de traitement des données et réseaux de communication concerne le domaine de l'hospitalisation à domicile. Jusqu'à maintenant, les patients suivis à domicile recevaient la visite régulière de divers personnels hospitaliers qui effectuaient les observations, les mesures et les actes médicaux nécessaires. Mais, en dehors du problème du coût des déplacements nécessaires, le suivi n'est pas aussi continu que lors d'une véritable hospitalisation. Le matériel nécessaire pour la télémédecine personnelle inclut des capteurs (pression sanguine, température, rythme cardiaque, rythme respiratoire, taux de glycémie, etc.), l'électronique de traitement, et une passerelle vers les réseaux de télécommunication (Internet, voire téléphonie sans fil). Le Fraunhofer Institut a ainsi présenté à Düsseldorf un système de surveillance à domicile baptisé BAN (Body Area Network). L'appareil portable surveille divers paramètres vitaux et envoie les données vers un centre de soins par l'intermédiaire d'un réseau sans fil (ici, un réseau DECT). D'après René Dünkler, l'un des responsables du projet, la miniaturisation permettra même d'envisager une électronique implantable pour certaines pathologies. De son côté, Philips gère en Allemagne un service appelé Paxiva, destiné au suivi des personnes atteintes de troubles cardiaques qui compte déjà plus d'un millier de patients (un électrocardiographe communicant est installé chez chaque patient). Pour les patients capables de se déplacer normalement, plusieurs solutions sont développées pour améliorer la mobilité des systèmes et communiquer les données en utilisant les réseaux de téléphonie mobile. L'une des solutions les plus originales est celle de Vitaphone. L'Allemand commercialise en effet un téléphone mobile capable d'enregistrer un électrocardiogramme à l'aide de quatre électrodes placées sur sa face postérieure. En cas de malaise, le patient enregistre ses pulsations cardiaques en plaçant le téléphone contre la peau et communique ainsi immédiatement les données vitales à un centre de soins capable d'analyser rapidement la gravité de la situation. Un module GPS permet même aux services d'urgence de localiser le patient en cas de danger. Le projet européen MobiHealth va plus loin en visant divers types de patients : maladies cardiaques, mais aussi respiratoires, ou certaines grossesses à risque. Pour Martin Elixmann, directeur du groupe Distributed Systems de Philips Research à Aachen (Allemagne), « l'intégration de l'ensemble des fonctionnalités sur une puce, combinée à l'utilisation d'une électronique portée près du corps, avec des capteurs insérés dans les vêtements, nous amènera aux systèmes légers, non invasifs et ergonomiques que les gens désirent ».

OINet : http://www.01net.com/article/226527.html

L'obésité accentue le risque d'un cancer grave de la prostate
Jeudi, 25/12/2003 - 00:00

Les hommes obèses avec un cancer de la prostate risquent davantage d'être victimes de tumeurs graves et d'être sujets à une réapparition d'un cancer après une opération que ceux qui ont un poids normal, selon deux études publiées lundi par le Journal of Clinical Oncology."Le rôle primordial de l'obésité dans un cancer de la prostate n'est pas encore clair, mais elle semble provoquer le développement de tumeurs plus graves", affirme le principal auteur d'une des études, Christopher Amling, du Centre médical naval à San Diego (Californie, ouest). "Je conseille aux patients de garder un poids normal pour limiter les risques de développer des tumeurs plus graves de la prostate", ajoute-t-il. Les deux études ont examiné la relation entre l'obésité et la réapparition d'un cancer de la prostate à travers de larges échantillons d'hommes qui avaient un cancer de la prostate localisé et qui ont eu une opération pour l'enlever. L'équipe du Dr Amling a étudié plus de 3.000 personnes victimes d'un cancer de la prostate, dont 19 % étaient obèses. L'autre étude dirigée par Stephen Freedland, de la Johns Hopkins School of Medecine à Baltimore (Maryland, est) a examiné plus de 1.000 personnes, dont 22 % étaient obèses. Selon les Dr Amling et Freedland, les protéines et les hormones stockées dans la graisse corporelle pourraient favoriser la croissance d'une tumeur cancéreuse de la prostate chez les hommes obèses.

AFP : http://fr.news.yahoo.com/031222/202/3k9g4.html

Premier cas suspect de vache folle aux Etats-Unis
Jeudi, 25/12/2003 - 00:00

Le premier cas de vache folle jamais enregistré aux Etats-Unis vient d'être détecté dans le nord-ouest du pays, ce qui pourrait avoir un effet dévastateur sur la filière bovine américaine en raison du lien possible de cette maladie avec la maladie humaine de Creutzfeldt-Jakob."Une seule vache de l'Etat de Washington a été testée positive à la maladie de la vache folle", a déclaré la secrétaire américaine à l'Agriculture, Ann Veneman, lors d'une conférence de presse. L'animal, qui vient d'une ferme à Mapleton, à environ 65 kilomètres de la ville de Yakima dans l'Etat de Washington, a été repéré le 9 décembre. De premiers tests ont indiqué que l'animal était porteur de la maladie de la vache folle mais d'autres tests doivent encore être réalisés pour le confirmer, a-t-elle précisé. Un échantillon a été envoyé par avion militaire en Grande-Bretagne pour y être testé, a-t-elle ajouté. L'exploitation d'où venait l'animal "a été mise en quarantaine" et l'animal a été "abattu", a-t-elle précisé. Il s'agit du premier cas suspect de vache folle aux Etats-Unis. Un premier cas local sur le continent nord-américain avait été enregistré au Canada au printemps dernier dans la province de l'Alberta (ouest). En 1993, un cas de bovin souffrant de l'encéphalopathie spongiforme bovine (ESB), ou maladie de la vache folle, avait été détecté au Canada mais l'animal était d'origine britannique. Même s'il s'agit d'un cas "suspect" encore non confirmé, les autorités américaines ont "rendu publique cette découverte avant même la confirmation en Grande-Bretagne parce que nous nous fions aux tests qui ont été déjà menés", a précisé Mme Veneman. "Il est encore trop tôt pour dire s'il s'agira d'un cas isolé", a-t-elle ajouté. Elle a assuré que ce cas de vache folle n'était pas "d'origine terroriste". "Malgré cette découverte, nous continuons à avoir confiance dans notre sécurité alimentaire. Le risque pour la santé humaine est extrêmement bas", a affirmé Mme Veneman, en ajoutant qu'elle avait l'intention de "servir du boeuf au repas de Noël". Malgré ces propos rassurants, ce premier cas de vache folle pourrait avoir un impact dévastateur sur la filière bovine américaine, qui représente un chiffre d'affaires estimé autour de 40 milliards de dollars par an, les Américains consommant en moyenne jusqu'à 30 kg de viande de boeuf par an. Mme Veneman a indiqué que les Etats-Unis étaient en train d'alerter leurs "partenaires commerciaux" et d'autres organisations à propos de ce cas de vache folle. Le Japon a immédiatement réagi en annonçant un embargo temporaire sur le boeuf américain. D'autres pays d'Asie lui ont rapidement emboîté le pas: Taïwan, la Malaisie, la Corée du Sud et Singapour. Le Canada de son côté veut attendre que des tests supplémentaires confirment un premier cas de vache folle aux Etats-Unis avant de prendre toute décision, a indiqué mardi soir l'Agence canadienne d'inspection des aliments. Quand le Canada avait annoncé au printemps un cas de vache folle, les Etats-Unis avaient pris cette mesure d'embargo temporaire. Fin octobre, ils ont proposé de mettre fin à l'embargo sur l'importation de bovins vivants en provenance du Canada. L'encéphalopathie spongiforme bovine (ESB), communément appelée maladie de la "vache folle", est apparue au Royaume-Uni en 1986. Une épidémie massive et sans précédent d'ESB a ravagé le cheptel bovin britannique en 1996. Le gouvernement britannique a reconnu pour la première fois, le 13 mars 1996, l'existence d'un "lien" possible entre la maladie bovine et l'apparition de cas d'une nouvelle forme d'une maladie humaine connue, la maladie de Creutzfeldt-Jakob (MCJ). Il y a quelques jours, le gouvernement britannique a lancé à nouveau une bombe en révélant que cette maladie neurodégénérative incurable pouvait aussi être transmise entre humains par le sang. La Grande-Bretagne, pays le plus touché au monde par la maladie bovine et sa forme humaine, comptait au 1er décembre 143 cas du nouveau variant de MCJ, dont 6 encore vivants.

NYT : http://www.nytimes.com/2003/12/24/science/24COW.html?hp

Les coraux plus proches des hommes
Jeudi, 25/12/2003 - 00:00

Les coraux primitifs sont génétiquement bien plus proches des hommes qu'on ne l'aurait cru. Une étude parue aujourd'hui dans la revue Current Biology montre en effet que le corail Acropora millepora partage avec les hommes de nombreux gènes, alors que ces mêmes gènes sont absents du génome de la mouche ou de celui du ver de terre. La mouche ou le ver de terre ont pourtant évolué des millions d'années après l'apparition des coraux et sont considérés la plupart du temps comme des espèces intermédiaires dans l'arbre généalogique humain. L'équipe de David Miller, de l'université James Cook, en Australie, a comparé les génomes d'Acropora millepora avec ceux de l'humain, de la mouche drosophile ainsi que du ver Caenorhabditis elegans. A leur grande surprise, les chercheurs ont découvert que le corail partageait 11 % de ses 1300 gènes avec les êtres humains, mais pas avec les mouches ni les vers. Ces résultats suggèrent que de nombreux gènes que l'on croyait spécifiques aux vertébrés ont des origines plus lointaines et que prévues. Ils ont sans doute été perdus par la suite lors de l'évolution de certaines espèces comme la mouche ou le nématode. Bien sûr, ces deux espèces animales restent très intéressantes pour les biologistes, en particulier quand il s'agit de comprendre la fonction des gènes. Mais les travaux conduits par David Miller remettent sérieusement en question les études qui utilisent ces organismes comme modèles pour l'évolution humaine. Bien d'autres génomes animaux devront être analysés en détail afin de mieux comprendre l'arbre de l'évolution du règne animal et celui de l'homme en particulier.

Cybzesciences : http://www.cybersciences.com/Cyber/3.0/N3354.asp

Premier clonage réussi de cerf par des chercheurs américains
Jeudi, 25/12/2003 - 00:00

Des chercheurs américains ont réussi à cloner un cerf à queue blanche, une première qui constitue une "avancée" expérimentale pour conserver les espèces de cerfs menacées, ont-ils annoncé lundi dans un communiqué.L'animal clone - un faon baptisé "Dewey" - est né d'une mère-porteuse il y a plusieurs mois mais n'a été attesté comme génétiquement cloné qu'après une récente analyse d'ADN, ont indiqué les chercheurs de l'université A et M du Texas. "Dewey se développe normalement pour un faon de son âge et il semble en bonne santé", a dit dans un communiqué, Mark Westhusin, de l'école vétérinaire de l'université et chercheur en chef dans le projet. Dewey est le premier cerf clone et pourrait être utile pour la sauvegarde des espèces de cerfs menacées, dont le cerf Key West de Floride, selon les chercheurs. Les cerfs à queue blanche sont les plus nombreux en Amérique du Nord mais le clonage pourrait être utilisé dans certaines circonstances pour préserver le capital génétique d'animaux à haut patrimoine génétique, morts de mort naturelle ou dans une chasse, ont-ils indiqué. L'université a déjà procédé au clonage de plusieurs animaux (boeuf, chèvre, cochon et chat).

AFP : http://fr.news.yahoo.com/031223/202/3k9vd.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top