|
|
Edito
Avec Galileo, l'Europe se dote d'un outil majeur pour affirmer son indépendance technologique et sa puissance politique
Après des années d'hésitations et de revirements, les ministres des Transports de l'Union Européenne ont enfin donné, mardi 27 mars, leur feu vert définitif au lancement de Galileo, le programme européen de navigation par satellite qui doit permettre à l'Europe d'avoir, à partir de 2008, un système équivalent au GPS américain. L'Europe a finalement donné son feu vert définitif à ce projet, dont le coût total est estimé entre 3,2 milliards et 3,6 milliards d'euros, jusqu'à sa mise en service en 2008. Les Quinze sont désormais quasiment d'accord sur la manière dont va être géré le projet. Les 1,1 milliard d'euros que coûtera la phase de développement du système, jusqu'à la fin 2005, devraient être couverts à parité par l'Agence spatiale européenne (ESA) et le budget communautaire, à travers une société contrôlée par l'ESA et l'UE et qui sera chargée de porter Galileo pendant ses premières années. La décision prise à Bruxelles permettra dans un premier temps de débloquer 450 millions d'euros de crédits "gelés" depuis près d'un an, pour amorcer la phase de développement, prévue pour coûter au total 1,1 milliard. Pour parvenir à cette somme, l'UE apportera 100 millions supplémentaires et l'Agence spatiale européenne 550 millions. Dès la fin 2002, cette société lancerait l'appel d'offre pour désigner le futur concessionnaire du système Galileo. La Commission espère à ce moment là "sélectionner deux, voire trois consortiums industriels, qui seraient mis en concurrence pendant une, deux ou trois années", avant que le choix ne soit fait, selon une source proche du dossier. A partir de début 2006, le concessionnaire finalement retenu prendrait les rênes du projet, et aurait la responsabilité de conduire la phase de déploiement de Galileo (lancement des 30 satellites), avant le début du fonctionnement du système en 2008. La phase de déploiement coûtera de 2,1 et 2,5 milliards d'euros. Le financement devrait être couvert "au moins" au deux tiers par des fonds privés apportés par le concessionnaire, et "au plus" par un tiers de fonds publics. Après 2008, les Quinze continueront à financer pendant quelques années le concessionnaire, pour l'aider à couvrir les coûts d'exploitation du système. Estimés à 220 millions d'euros par an, ces coûts ne pourront pas, au moins au début, être entièrement couverts par les recettes commerciales de Galileo. Mais au-delà de l'organisation budgétaire et industrielle, l'Union Européenne va devoir s'employer à calmer les inquiétudes des Etats-Unis quant aux implications militaires et stratégiques de Galileo. "Galileo est un système civil, contrôlé par des civils", répète-t-on à la Commission européenne. La Commission précise toutefois que les militaires pourront utiliser Galileo moyennant rétribution. Galileo doit être plus précis et plus fiable que le GPS, tout en étant interopérable avec lui, pour permettre aux utilisateurs de combiner les informations fournies par les deux systèmes et arriver à une précision encore meilleure. L'origine du concept de GPS remonte à Spoutnik 1, le premier satellite artificiel lancé par les Soviétiques en 1957. Les scientifiques, constatant que la fréquence des signaux radio reçus depuis son émetteur variait selon la vitesse de rapprochement ou d'éloignement (effet Doppler), réalisaient très vite qu'un navigateur pourrait facilement retrouver sa position en analysant cette modification. Le principe connut divers développements, jusqu'en 1973 où le Congrès américain décidait la création du programme GPS. Les premiers satellites Navstar-GPS ont été lancés à partir de 1989, et le système entrait en phase opérationnelle en 1992. Il comprend aujourd'hui vingt-quatre satellites parcourant six orbites circulaires à 20.000 km d'altitude, inclinées à 55° sur l'équateur et parcourues en 12 heures. La couverture est ainsi quasi mondiale, chaque point du globe recevant en permanence les signaux d'au moins six satellites. La mesure comparative du temps de propagation des signaux de quatre satellites et leur analyse interférométrique permet à un observateur au sol, muni d'un récepteur d'un volume comparable à un téléphone portable, de connaître sa position exacte, son altitude, sa vitesse de déplacement et son heure locale avec une précision de quelques dizaines de centimètres (0,2 m/sec pour la vitesse) et 0,4 microseconde sur la référence du temps (chaque satellite étant équipé de trois horloges atomiques au césium). Mais le GPS américain, s'il reste accessible sans réserve au monde entier (depuis la suppression de la dégradation volontaire des signaux qui en réduisait autrefois la précision à une centaine de mètres pour les civils), est avant tout un système militaire susceptible d'être brouillé ou crypté en cas de crise internationale, ce qui le rendrait inutilisable en dehors des forces armées US. Et si le GPS reste entièrement gratuit aujourd'hui, il n'est pas du tout certain que cela sera encore le cas dans dix ans, compte tenu de sa position de monopole et des multiples perspectives d'utilisation commerciale. A l'opposé, Galileo est un projet civil offrant les mêmes fonctionnalités et avantages que le GPS, mais dégagé de toute tutelle militaire et assurant l'indépendance totale de l'Europe en matière de positionnement. Bien entendu, même si Galileo ne sera pas sous tutelle militaire, il est clair qu'en cas de crise ou de conflit, il pourra devenir un redoutable outil européen de renseignements et d'observation à finalité militaire. Sur le plan économique, Galileo représente un enjeu considérable : à terme, 140 000 emplois créés et un volume d'activités nouvelles qui devrait se compter en milliards d'euros par an. Lorsque Galileo sera pleinement opérationnel, on peut en effet imaginer le développement de multiples applications encore embryonnaires aujourd'hui : gestion des flottes de poids-lourds, aide à la navigation pour les voitures, localisation personnelle en combinaison avec les mobiles UMTS de 3eme génération et même... repérage des animaux domestiques perdus. Ce double enjeu majeur, techno-économique et politique, qui est celui de l'indépendance de l'Europe en matière d'infrastructures d'observation et de détection spatiale, n'a d'ailleurs pas échappé aux Etats-Unis qui ont tout mis en oeuvre pour tenter de torpiller Galileo, qui marquera la fin de leur domination exclusive en matière de GPS. Après les réussites incontestables d'Airbus et d'Ariane, les 2 grandes aventures techno-industrielles européennes, l'avalisation définitive de Galileo par l'Union européenne représente donc une étape symbolique importante vers la constitution d'une entité politique européenne susceptible de contrebalancer l'hégémonie technologique et politique absolue des Etats-Unis et de constituer un puissant pôle d'équilibre et de stabilité planétaires. René TREGOUET P.S. : Nous sommes en pleine campagne électorale. J'ai rédigé un édito que je réservais à @RT Flash. Mais, finalement, le sujet étant trop sensible, politiquement, et ne correspondant pas à la ligne éditoriale que dès l'origine j'ai tenu à faire respecter par notre Lettre hebdomadaire, vous pourrez lire cet édito intitulé "Peu à Peu, le Gris l'emporte ..." en lisant ma Lettre politique @Acropolitis n° 9 du 5 avril sur le site suivant : http://www.tregouet.org/lettre2/2002/9.html René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Après quatre années de mise au point secrète par une équipe de scientifiques, de mathématiciens et d'ingénieurs triés sur le volet, Pulsent Corporation a dévoilé une nouvelle technologie trés prometteuse de compression vidéo qui repose en effet sur la division de l'image par attributs visuels. La technologie de Pulsent représente une amélioration de 400 % en ce qui concerne la bande passante et l'efficacité de stockage par rapport aux algorithmes de compression vidéo par blocs, tels que le format MPEG-2, selon la société. Cette percée technologique permettrait aux compagnies de téléphone et aux autres prestataires de services de transmettre des séquences vidéo de bonne qualité en plein écran dans les foyers à une vitesse de 1,1 Mbps. La société indique que l'impact que la technologie de Pulsent aura sur le marché passe d'abord et avant tout par la diffusion de services vidéo professionnels sur les lignes ADSL. Ainsi, la quantité d'émissions pouvant être stockées par les récepteurs vidéo personnels (RVP) est quadruplée et le nombre maximal de canaux de télévision disponibles par câble et par satellite augmente considérablement, ce qui rendra possible la vidéo à la demande et la télévision haute définition (HDTV) dans un avenir rapproché. " Les algorithmes de compression vidéo d'aujourd'hui sont en panne sèche ", a déclaré Adityo Prakash, cofondateur et directeur général de Pulsent. " Il est impossible d'améliorer de manière significative des technologies fondées sur les blocs vieilles de plus de 20 ans, comme MPEG et ses dérivés en propriété exclusive. L'industrie se devait de réinventer complètement le traitement et la transmission de la vidéo pour permettre la venue de la prochaine génération de services et d'applications. Mission accomplie. " Pour créer cette percée, l'équipe de Pulsent a dû repenser presque tous les aspects du traitement vidéo, ce qui s'est traduit par le dépôt de 200 demandes de brevets de base dont l'examen se poursuit. Se tenant loin des théoriciens conventionnels, les fondateurs ont personnellement recruté une équipe de spécialiste : " Les percées conceptuelles viennent rarement des individus conventionnels, " a déclaré Eniko Fodor, cofondatrice et directrice de l'expansion de la Société. " Nous avons remis en question la quasi-totalité des hypothèses courantes de l'industrie, ce qui requiert un intellect unique, créatif et souple. Par conséquent, notre équipe a créé une solution complètement originale à l'un des plus grands problèmes de l'industrie : comment transmettre des séquences vidéo de qualité professionnelle malgré les limites actuelles de l'infrastructure de réseau. " " La technologie de Pulsent est tout simplement géniale ", a affirmé Robert F. Rice, pionnier dans le traitement des signaux numériques ayant inventé les très populaires 'algorithmes de Rice' pendant son mandat aux laboratoires de recherche sur la propulsion. " L'extraordinaire performance de la technologie de compression vidéo révolutionnaire de Pulsent est le résultat d'une approche reflétant un changement de paradigme, d'une équipe de premier plan et d'un travail sans relâche. Pulsent jette les bases de la prochaine génération d'applications et de services de vidéo numérique. Cette technologie changera tout. " Impact Hardware : http://www.inpact-hardware.com/actualites1.php3#id_news_4960 WSJ 25/03/02 : http://online.wsj.com/article/0,,SB1017013334243551480,00.html?mod=technology_ma...
|
|
|
|
|
|
|
|
"Si ITV Digital disparaît, il y aura des perdants, mais la Grande-Bretagne peut très bien vivre sans" : au lendemain de l'annonce du dépôt de bilan d'ITV Digital, le bouquet de télévision numérique hertzienne, ce jugement du Financial Times est dur, mais justifié. En l'absence d'un accord de dernière minute avec la Football League anglaise sur la renégociation à la baisse des droits sportifs (Le Monde du 26 mars), ses deux actionnaires, les groupes Granada et Carlton, ont mis sous administration judiciaire, mercredi 27 mars, le bouquet de télévision payante lancé à la fin de 1998. La hausse des cours des actions Granada et Carlton et la réaction positive des analystes soulignent combien cette décision avait la faveur de la City. Les marchés s'inquiétaient des conséquences de l'hémorragie financière - 800 millions de livres englouties à ce jour - par les deux actionnaires. Des "parrains" déjà mal en point sur le plan financier qui auraient dû injecter 200 millions de livres supplémentaires pour que le résultat d'exploitation sorte du rouge... en 2006. De l'argent perdu, à leurs yeux, à la lumière des résultats décevants du Petit Poucet du numérique britannique. Cette débâcle n'a pas seulement été ressentie comme le plus important échec de l'histoire de la télévision britannique, c'est aussi une défaite cinglante pour le gouvernement Blair. Pour l'hôte de Downing Street, l'enjeu est de taille. Les déboires du numérique hertzien ne peuvent qu'accentuer l'emprise de Sky Digital, le bouquet numérique du groupe BSkyB contrôlé par le magnat Rupert Murdoch, sur le paysage audiovisuel numérique national. Le papivore, qui contrôle déjà 40 % du tirage de la presse britannique, "tient" désormais la télé payante. La marge de manoeuvre des rivaux du câble, Telewest et NTL, lourdement endettés, est fortement réduite. De plus, le gouvernement travailliste s'est engagé à fermer la télévision analogique entre 2006 et 2010, afin de mettre aux enchères les licences ainsi libérées au profit du Trésor. Or, cette déconfiture risque de renforcer la méfiance du public envers le numérique. Le Monde : http://www.lemonde.fr/article/0,5987,3236--268639-,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Un système de restitution du son en trois dimensions, qui constitue une avancée importante pour la conception des projets d'infrastructures urbains ou pour le développement de matériaux isolants, vient d'être mis au point par les ingénieurs du Centre scientifique et technique du bâtiment (CSTB). Le besoin de simuler des ambiances sonores s'exprime de plus en plus dans de nombreux domaines tels que l'architecture, l'environnement, l'éducation, les téléconférences, les jeux etc.. Le son en trois dimensions permet d'associer dans une maquette des représentations sonore et visuelle : celles-ci reproduisent les paysages sonores et visuels habituels d'un site, incluant les bruits familiers (fontaines, cloches, conversation, etc). Ces derniers sont ensuite mixés avec le bruit synthétisé d'une autoroute ou d'une voie ferrée qui viendrait à passer par là. Cette future infrastructure est également construite en image de synthèse et fusionnée dans le paysage existant. La simulation de ces ambiances sonores permet une "immersion auditive" complète dans une situation virtuelle. L'auditeur est plongé dans un champ sonore très proche de la réalité. Il perçoit en trois dimensions les différentes sources de la scène sonore avec leurs informations de position, de niveau, d'étendue et de déplacement. Le son en 3D doit résoudre trois problèmes : la localisation des sources sonores dans l'espace, la simulation du milieu de propagation, la restitution du signal sonore tel que l'auditeur le percevra dans la réalité, explique Jacques Martin, qui a dirigé cette recherche au service acoustique du CSTB à Grenoble. . "La nouveauté est que l'on peut désormais simuler ce que sera l'écoute dans une future salle de concert, ou en face d'une future infrastructure de transport", selon M. Martin. "Pour que la simulation soit crédible, il fallait une technique de restitution en 3D et non pas seulement en stéréo". Il devient alors possible de se promener dans les pièces d'un appartement en ajoutant des scènes sonores (aspirateur à l'étage au dessus, passage d'ambulance dans la rue, fête au dessous), pour pouvoir déterminer quel sera le matériau idéal pour une isolation maximale. Cette restitution peut se faire avec des casques, mais le CSTB a mis au point un siège d'écoute spatialisé pour l'écoute 3D. Une salle immersive équipée de tels fauteuils sera construite au CSTB de Sophia Antipolis (Alpes-Maritimes). Cet équipement plongera les acteurs d'un projet de construction au coeur du bâtiment en gestation, leur permettant d'en apprécier l'acoustique, en plus de l'éclairage ou du confort thermique. Parisien : http://www.leparisien.com/home/info/permanent/article.htm?
|
|
|
|
|
|
|
|
Les sociétés japonaises Toray Industries et Misubishi annoncent avoir chacune conçu une technologie peu coûteuse de production de nanotubes de carbones. Ces fameux nanotubes sont considérés comme parmi les matériaux les plus prometteurs pour les nanotechnologies (voir I&T n°833, ou notre dossier). Leur champ d'application s'étend en effet du stockage d'hydrogène pour piles à combustibles, au renforcement de matériaux composites, sans oublier la dissipation de charges électrostatiques. Les deux compagnies ambitionnent de produire massivement des nanotubes de carbones d'ici 2004, à raison de plusieurs kilos par jour. Elles se positionnent dès lors sur le créneau d'un autre nippon, Showa Denko, mais aussi du français Nanoledge et de la société américaine Carbon Nanotechnologies Inc (qui produisent de l'ordre de quelques grammes/heure). Toray, fabricant de fibres synthétiques, compte produire des nanotubes de 1 à 3 nm de diamètre selon un procédé de déposition chimique en phase vapeur (CVD) en présence d'un catalyseur solide. De son côté, Mitsubishi Chemical exploite une méthode derivée de la fabrication de fibres de carbone. Sa production de masse sera lancée dans des installations de production analogues à des filatures. Mitsubishi Rayon, producteur de fibre de carbone, pourrait se joindre au projet quand la phase de production en masse sera atteinte. Reste que la course à la réduction n'est pas sans risque, car elle peut se faire au détriment de la qualité. Or, produire beaucoup de nanotubes de faible pureté n'est pas très rentable. On rappelle à ce titre que le record de pureté des nanotubes de carbone est... français : il est détenu par l'équipe de Philippe Serp à l'Ensiacet (à Toulouse) dont le prototype synthétise 20 à 25 g de nanotubes par heure à 97 % de pureté. Industries&Techniques : http://www.industrie-technologies.com/article/page_article.cfm?
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Les forêts vierges dans le monde disparaissent à grande vitesse, ravagées par l'exploitation illégale du bois, les concessions minières et l'avancée de la civilisation urbaine, selon un rapport de l'organisation environnementaliste World Resources Institute (WRI) publié le 3 avril. Ce rapport regroupe une série d'études régionales conduites pendant deux ans et couvrant environ 50 % des forêts vierges subsistantes dans le monde, en particulier en Russie, en Afrique Centrale, en Amérique du Nord, au Chili, au Venezuela et en Indonésie. "Alors que nous examinions ce que nous pensions être de vastes étendues de forêts vierges dans le monde, nous sommes arrivés à la conclusion qu'elles étaient en train de devenir rapidement un mythe", affirme le directeur du WRI, Jonathan Lash."Une grande partie de la couverture végétale qui subsiste est, en réalité, déjà parcourue de routes et de concessions minières et forestières", a-t-il ajouté. D'après le World Resources Institute, au rythme actuel, environ 40 % des forêts vierges qui subsistent auront disparu dans les dix à vingt prochaines années."Les études les plus récentes montrent que, dans certains pays, nous avons sous-estimé la destruction", conclut Dirk Bryant, co-directeur de Global Forest Watch, qui a rédigé ce rapport pour le compte du WRI. En Amérique du Nord, moins de 50 % des forêts vierges se trouvent dans des étendues de moins de 200 km2 de superficie, non entrecoupées de routes d'accès. Et 90 % d'entre elles se trouvent en Alaska et au Canada. Aux Etats-Unis, seulement 6 % de ces étendues forestières restent totalement intactes et 17 % sont strictement ou partiellement protégées. La taïga russe reste la plus grande forêt du monde mais seulement 26% de cette étendue, soit environ 289 millions d'hectares, est intact, c'est-à-dire sans infrastructures ni exploitation. L'est de la Sibérie est la mieux préservée (39% des forêts intactes), devant l'Extrême-orient russe (30 %), la Sibérie occidentale (25 %) et la Russie occidentale (9 %). En Indonésie, 70 % de l'exploitation du bois réalisée en l'an 2000 était illégale. Plus de 40 % de la couverture forestière a disparu en cinquante ans, dont un cinquième pour la seule période 1985-1997. Le rapport estime qu'environ 40% des forêts vierges d'Afrique centrale restent dans des régions à faible accès, dont seulement 8 % sont protégées par un statut de réserve naturel ou de parc national. Le reste - hormis en République démocratique du Congo - est ouvert à l'exploitation forestière par des chemins de terre. Enfin, au Chili, qui abrite un tiers des forêts vierges de climat tempéré du monde, près de 20 % de la forêt primaire a déjà été endommagée par l'exploitation du bois et par des feux de déboisement et d'autres activités humaines. Les politiques publiques encouragent la déforestation au profit de plantations d'espèces de bois exotique, menaçant de disparitions des espèces d'arbres préhistoriques (araucaria, alerce), note le rapport. World Resources Institute : http://www.dooleyonline.net/media_preview/index.cfm
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le système de santé français, faute de "réforme profonde", verra son existence mise en cause au-delà de 2010, selon un rapport publié sous l'égide de la Mutualité française. Dans leur Carnet de santé de la France 2000-2002, Jean de Kervasdoué, professeur d'économie de la santé au Conservatoire national des arts et métiers, et Rémi Pellet, maître de conférence à l'IEP de Paris, estiment qu'"il sera difficile, sans réforme profonde, de traîner le système actuel au-delà de 2010". Les auteurs du rapport pronostiquent en effet que c'est à cette période que "les conséquences du départ à la retraite de la génération du baby-boom se feront sentir" sur les comptes de la Sécurité sociale, et prévoient "plus une rupture qu'une continuité". Soulignant que la France jouit d'une liberté "unique au monde" d'accès aux soins et d'un fort degré "d'équité financière" depuis notamment l'instauration de la couverture maladie universelle (CMU), le rapport note qu'elle se situe, "quels que soient les critères retenus, dans les tout premiers pays du monde pour ce qui est de la santé de ses citoyens et la qualité de sa médecine". Mais cela au prix d'un "financement des soins non maîtrisé surtout pour ce qui concerne les soins de ville". Les auteurs estiment qu'on ne pourra "longtemps accepter politiquement et économiquement un système non régulé qui bafoue toutes les instances concernées" (gouvernement, Parlement, caisses d'assurance-maladie, services de l'Etat). En tout état de cause, prédisent-ils, le financement des retraites rendra "ces dérapages financièrement insupportables" à partir de 2007-2008. Le rapport diagnostique, quoi qu'il en soit, une "mort clinique" de l'assurance maladie, entendant par là non la "fin du financement collectif des dépenses de soins, mais la fin d'une institution" devenue "trop onéreuse" pour les fonctions qui lui sont dévolues. Il juge peu rationnel de "conserver un système de remboursement des feuilles de soins, alors qu'il est onéreux et que le tiers payant existe". De façon générale, les auteurs plaident pour une transparence du financement. Jean de Kervasdoué et Rémi Pellet s'inquiètent, en outre, des conditions d'exercice de la médecine, soulignant l'effet du baby-boom, "considérablement amplifié dans la profession médicale". Le pronostic est pessimiste : le manque d'anesthésistes, psychiatres, obstétriciens, chirurgiens, conduira "à la fermeture de nombreux services voire d'établissements hospitaliers". Enfin, le rapport déplore la prolifération des textes au nom d'un contrôle de qualité sans cesse rehaussé, et les effets pervers d'"une réglementation trop tatillonne", inobservable. Le Monde : http://www.lemonde.fr/article/0,5987,3226--268420-,00.html
|
|
|
|
|
|
|
|
A Rochester (Minnesota), la Mayo Clinic est l'employeur le plus important de la ville devant IBM. Tous les deux ont décidé de créer en trois étapes une banque de données à partir des archives concernant six millions de patients. La première étape consistera à numériser les archives de quatre millions de patients, y compris les informations sur le génome. Dès que le système aura fait ses preuves, une seconde étape visera à accroître la quantité de données disponibles. Enfin, au cours de la troisième étape seront stockées des données sur le profil protéinique de chaque patient. Bien que le montant des budgets n'ait pas été révélé, la Mayo Clinic compte investir en quatre ans la plus grande partie des quatre-vingt millions de dollars qu'elle consacre à la recherche génomique. Le but des deux partenaires est d'associer les connaissances sur la génomique et les outils informatiques les plus performants afin de permettre un meilleur diagnostic et l'émergence d'une nouvelle médecine "sur mesure" adaptée à chaque malade. WSJ 25/03/02 : http://online.wsj.com/article/0,,SB1017013709942279360,00.html?mod=technology_ma...
|
|
|
|
|
|
|
|
La consommation de viande de veau n'a pas été affectée par la dernière crise de la vache folle. Curieusement, le consommateur n'associe pas la viande de veau et la viande bovine. La première est une viande blanche, issue d'un animal trop jeune pour être contaminé par cette maladie dont l'incubation dure plusieurs années. Stabilisée autour de 4 à 5 kilos par tête et par an, elle plafonne depuis quelques années essentiellement pour des questions de prix, affirme Fabrice Heudier, président d'Interveau, l'interprofession du secteur. Elle est encore trois fois plus chère que la viande de porc, bien que celle-ci ait enchéri avec le report de consommation provoquée par la crise de confiance dans le boeuf. Le porc demeure la première viande consommée avant la volaille, qui précède elle-même le boeuf. La viande de veau a une double image de produit festif et vieillot, laborieux à cuisiner, à laquelle la profession tente de remédier au travers d'actions de communication. Une campagne de 12 millions de francs, basée sur des spots publicitaires télévisés et de la publicité sur les lieux de vente, est prévue sur le thème du veau de la Pentecôte. Les éleveurs affirment avoir débarrassé la viande de veau de l'image négative d'un produit dopé aux hormones, qui prévalait dans les années 80. Ils estiment aujourd'hui offrir une viande de qualité, labellisée pour plus de 10% des tonnages vendus et produite de façon industrielle pour 90 %. Déficitaire, la France importe 14% de sa consommation, soit 50.000 tonnes, essentiellement des Pays-Bas, deuxième producteur en Europe mais non consommateur. Les Européens mangent peu de veau, une tradition française que l'on retrouve en Italie et en Allemagne seulement. Le veau est "le seul régulateur" de la production de lait et de viande bovine affirment les professionnels. Les Echos : http://www.lesechos.fr/
|
|
|
|
|
|
|
|
On croyait l'aspirine bénéfique dans la prévention de maladies cardio-vasculaires. Une nouvelle étude canadienne fait apparaître que de nombreuses personnes seraient résistantes à son action anticoagulante. Publiée le 26 mars dans le journal de l'Association américaine du coeur (American Heart Association), l'étude souligne que près des trois quarts des patients sont plus ou moins résistants à cette action. Les médecins recommandent souvent à leurs patients de prendre de l'aspirine quotidiennement pour prévenir un infarctus. L'aspirine agit en bloquant la formation de thromboxane A2, une substance chimique présente dans l'organisme, qui permet de coller les plaquettes sanguines et favorise la formation de caillots sanguins. L'infarctus est déclenché par la migration d'un caillot sanguin. L'étude a été conduite par le Dr John Eikelboom, maître de conférence à l'Université d'Australie occidentale à Perth. Elle souligne que, chez certains individus, la prise régulière d'aspirine ne bloque pas la thromboxane, rendant ces personnes trois fois et demie plus exposées à mourir d'un infarctus. Les chercheurs ont analysé des échantillons d'urine provenant de 5.529 cardiaques, à la recherche d'un métabolite urinaire de la thromboxane. Le taux de ce produit dérivé a varié de façon significative chez les utilisateurs d'aspirine, mais était toujours plus bas que chez ceux qui n'en prenaient pas. Cette étude pourrait permettre de déterminer les patients nécessitant un traitement anticoagulant autre que l'aspirine, a déclaré le Dr Salim Yusuf, coauteur de l'étude. Mais que d'autres études sont nécessaires. La mise au point d'un test urinaire spécifique pourrait permettre de déterminer les patients résistants à l'aspirine. ''Nous savons que l'aspirine réduit le risque de rechute cardiaque chez plus de 25% des personnes'', a rappelé le Dr Rose Marie Robertson, professeur de médecine à l'Université Vanderbilt de Nashville (Tennessee). ''Le message le plus important, c'est que pas assez de personnes sont traitées.'' AHA : http://www.americanheart.org/presenter.jhtml?identifier=3001556
|
|
|
|
|
Des chercheurs des Centers for Disease Control and Prevention d'Atlanta (Georgie) ont étudié les causes de mortalité chez des personnes atteintes de trisomie 21 ou syndrome de Down à partir d'un échantillon de près de 18 000 personnes décédées entre 1983 et 1997. Publiés dans le dernier numéro de la revue médicale britannique The Lancet, les résultats de cette étude ont permis de constater que l'âge moyen de ces personnes au moment du décès est passé de vingt-cinq à quarante-neuf ans entre 1983 et 1997. Si l'étude n'a pas permis de déterminer les causes de cette augmentation, elle souligne qu'à l'exception des leucémies et du cancer des testicules, les cancers touchent beaucoup moins les personnes atteintes de trisomie 21. NYT 24/03/02 : http://www.nytimes.com/2002/03/24/health/24DOWN.html
|
|
|
|
|
|
|
|
La Polyarthrite rhumatoïde a provoqué 3.600 morts aux Etats-Unis l'an dernier. C'est la plus importante cause de maladie cardiaque infantile dans le monde, selon les chercheurs. On sait déjà qu'elle est provoquée par une bactérie, baptisée du sinistre nom de streptocoque hémolytique A. Mais les spécificités de ce streptocoque, relativement commun, et les raisons pour lesquelles il peut ponctuellement déclencher des maladies qui peuvent être gravissimes, restent jusqu'à aujourd'hui mystérieuses... Mais des chercheurs américains affirment qu'en isolant des streptocoques chez une personne porteuse de la maladie, ils ont découvert plusieurs gènes uniques de cette bactérie. Les travaux de ces scientifiques du les chercheurs du National Institute of Allergy and Infectious Diseases (NIAID) ont été publiés le 25 mars par la revue américaine Proceedings of the National Academy of Sciences. Leurs études montrent également que deux épidémies de polyarthrite à 12 ans d'intervalle dans la région de Salt Lake City, dans l'Etat de l'Utah, avait pour cause une souche quasi-identique de la bactérie. L'aspect le plus intéressant de cette étude est qu'elle identifie des protéines de la bactérie pouvant constituer des cibles intéressantes pour des nouveaux médicaments et tests de dépistage de la maladie. "Nous avons énormément progressé dans la compréhension de la biologie des maladie infectieuses, mais beaucoup reste à apprendre sur des bactéries relativement communes comme le streptocoque du groupe A", a estimé le directeur du NIAID, ajoutant que "cette recherche révèle quelques secrets sur ce streptocoque et constitue un accomplissement dans notre quête pour comprendre une grave maladie infantile". PNAS : http://www.pnas.org/
|
|
|
|
|
Une équipe américaine vient de mettre au point le premier traitement oral susceptible de contrer l'infection variolique. Développé in-vitro par le Veterans Affairs San Diego Healthcare System (VASDHS), ce candidat médicament devra encore faire l'objet de nombreux essais avant d'être disponible pour usage en médecine humaine. Toutefois, les premiers tests se sont révélés particulièrement prometteurs. Cette nouvelle molécule, appelée pour l'heure HDP-CDV, est dérivée d'un autre traitement actuellement utilisé contre la variole : le cidofovir. Par rapport à ce dernier, elle possède deux avantages majeurs. En premier lieu, le nouveau médicament serait jusqu'à 100 fois plus puissant que le cidofovir ! Par ailleurs le HDP-CDV, administré par voie orale et non intraveineuse comme les autres traitements, permettrait de gagner un temps inestimable en cas d'attaque bio-terroriste... Destination Santé : http://www.destinationsante.com/
|
|
|
|
|
|
|
|
En informatique aussi, l'union fait la force. Depuis la mi- mars, plus de 55 000 internautes ont mis les capacités de calcul inemployées de leur ordinateur à la disposition du projet Décrypthon, pour comparer une à une les 500 000 protéines identifiées à ce jour dans le monde vivant. Lancé à l'occasion du Téléthon 2001 par l'Association française contre les myopathies (AFM) et IBM, Le Décrypthon s'appuie sur les prouesses de l'informatique distribuée. Appelée grid computing par les Anglo-Saxons, celle-ci consiste à tirer profit des capacités de calcul de simples PC, reliés à des serveurs via Internet, plutôt que de dépendre de gros ordinateurs dont l'utilisation est extrêmement coûteuse. Ces internautes ont téléchargé un petit programme (5,6 Mo), qui permet de comparer les protéines entre elles. Au total, il faudra effectuer 125 milliards de comparaisons, ce qui, pour un ordinateur personnel standard, prendrait environ 1 170 années. La distribution du calcul en petites unités - des paquets de séquences de 600 protéines - permet d'aller beaucoup plus vite : 27,3 % des opérations ont déjà été effectuées, et "on va plus vite que prévu", se réjouit Guillaume Decap, chef du projet chez IBM France. Le but de ces comparaisons ? "Construire des familles de protéines similaires", répond William Saurin, fondateur de la société Genomining, qui gère la base de données issue du Décrypthon. "L'idée est d'établir la similarité entre les protéines de différents organismes, pour inférer les fonctions qu'elles commandent. Et de déterminer les sous-régions des protéines qui ont conservé une influence semblable au cours de l'évolution." Ainsi pourra-t-on nourrir une discipline, la protéomique, qui a pour objet de déterminer les fonctions des protéines et pour ambition de fournir de nouveaux moyens thérapeutiques. La comparaison de protéines se prête à merveille au calcul distribué. "L'opération de base consiste à comparer deux séquences, le calcul est bien défini, sans relation avec d'autres calculs simples", note William Saurin. L'algorithme utilisé, dit de Smith-Waterman, datant de 1981, est utilisé quotidiennement par les généticiens. Il permet d'évaluer la similarité de sous-régions de différentes protéines en calculant le nombre minimal de transformations nécessaires pour changer une séquence en une autre. "Il fournit un niveau moyen de similarité pour chaque paire de protéines comparées", indique le chercheur. Techniquement, les PC de ces internautes effectuent les calculs lorsque leur puce n'est pas sollicitée par d'autres tâches. Ils adressent le résultat, via Internet, à une vingtaine de serveurs qui leur fournissent en retour un nouveau paquet de données à traiter. Pour autant, le recours à des internautes volontaires, certes volatils, ou à des machines disparates, est de plus en plus fréquent. Le projet Seti@home de recherche d'intelligence extraterrestre a ouvert la voie. Napster et ses clones qui permettent d'échanger de la musique et des données multimédias sur le Web en sont une autre forme. Les grands de l'informatique s'y intéressent. Intel s'est ainsi associé à United Devices et à l'université d'Oxford pour chercher des molécules anticancéreuses susceptibles d'agir sur quatre protéines-cibles impliquées dans le développement des tumeurs. Lancé en avril 2001, le projet Cancer research a rapidement fédéré plus d'un million d'ordinateurs, et permis de scanner plus de 3,5 milliards de molécules, aboutissant à la présélection de quelque 800 000 molécules, dont 10 % à 30 % pourraient avoir une action - encore à déterminer - sur deux protéines-cibles. Le projet, qui totalise 80 000 années de calcul, a été étendu à 12 protéines-cibles. Le Monde : http://www.lemonde.fr/article/0,5987,3244--268825-,00.html
|
|
|
|
|
|
|
|
Des infections pourraient être impliquées dans la survenue des tumeurs cérébrales de l'enfant, suggèrent les résultats préliminaires d'une étude britannique. Les chercheurs de l'université de Manchester, dont les travaux sont parus dans la dernière livraison du British Journal of Cancer (BJC), ont remarqué que les enfants nés en hiver ont un risque plus élevé pour certains types de cancer du cerveau que ceux nés au printemps ou en été, suggérant qu'une infection pourrait être responsable de cette maladie rare. L'étude porte sur 1.045 cas enregistrés de 1954 à 1998 dans le nord-ouest de l'Angleterre.Le cancer du cerveau est rare chez l'enfant. Au Royaume-Uni, il affecte chaque année environ 290 enfants et provoque une centaine de décès. "Nos résultats indiquent que des facteurs environnementaux sont impliqués dans la survenue de tumeurs cérébrales de l'enfant", commente le professeur Jillian Birch qui a dirigé ce travail. La responsabilité d'un ou plusieurs types d'infections constitue l'explication la plus probable, selon lui. Son équipe a découvert que le nombre plus élevé de cancers diagnostiqués certaines années parmi des enfants vivant à proximité ne pouvait être attribué au hasard. Selon les chercheurs, ces "mini-épidémies", observées sur une période limitée et très localisées géographiquement, plaident en faveur d'une origine infectieuse. C'est particulièrement clair pour deux variétés de tumeurs cérébrales, l'astrocytome et l'épendymome, dont le risque varie avec les saisons et apparaît le plus élevé chez les enfants nés à la fin de l'automne ou en hiver, expliquent-ils. Les chercheurs soupçonnaient un rôle des infections dans le développement des tumeurs du cerveau de l'enfant, mais ne disposaient jusqu'à présent d'aucun argument en faveur de cette théorie. "Ces résultats préliminaires ne permettent pas de conclure et nous avons besoin de plus de preuves pour les étayer. Mais si l'infection joue un rôle, cela pourrait déboucher sur de nouvelles idées pour la prévention et le traitement de cette maladie", selon Paul Nurse, co-directeur général du Centre National de Recherche sur le Cancer. BBC : http://news.bbc.co.uk/hi/english/health/newsid_1906000/1906960.stm
|
|
|
|
|
|
|
|
Le Nerica, "Nouveau riz pour l'Afrique", est né dans les laboratoires et les 700 hectares de champs de l'Association pour le développement de la riziculture en Afrique de l'ouest (ADRAO), qui dispose d'unités de recherche en Côte d'Ivoire, au Sénégal et au Nigeria. Croisement de riz africains (Oryza glaberrima) et asiatiques (oryza sativa), le Nerica associe la rusticité du premier à la productivité du second. Les premières expériences datent de 1991. Mais s'il résulte d'une sélection génétique rigoureuse, le Nerica n'a subi aucune modification génétique. "C'est le résultat de techniques délicates et complexes, mais qui ne fait appel à aucune modification génétique. Les Nerica ne sont en aucun cas des OGM", insiste Kanayo Nwanze, directeur général de l'ADRAO. Les scientifiques ont par contre dû à certaines étapes donner un coup de main à la nature, grâce à la biologie moléculaire. Les plants de la variété "femelle", en l'occurrence asiatique, sont stérilisés à la main, le pollen étant prélevé sur la variété "mâle" (africaine). Mais les premiers hybrides nés de cette pollenisation artificielle sont stériles, et un "croisement retour" doit être effectué en laboratoire sur des souches "parentes" pour aboutir aux plants fertiles. En 1996, quelque 1.200 types d'hybrides étaient disponibles. Des tests sont alors lancés avec des communautés rurales dans plusieurs pays d'Afrique de l'Ouest pour aboutir à la sélection de sept types de riz "interspécifique", des Nerica. Maturité précoce, de 30 à 50 jours avant les riz "traditionnels", rendements et teneurs en protéines plus élevés, facilité de récolte, meilleure résistance aux maladies, à la sécheresse et aux sols peu fertiles de la région, le Nerica ne demande aujourd'hui selon ses promoteurs qu'à faire ses preuves à grande échelle. AFP : http://fr.news.yahoo.com/020327/202/2j3fp.html
|
|
|
|
|
|
|
|
Le géant de l'agrochimie Syngenta, né de la fusion de Novartis et Astra Zeneca, va publier le génome du riz dans l'édition du 5 avril de Science. Un travail lourd et coûteux : le décryptage de la séquence brute de l'ADN de la plante, soit 430 millions de paires de bases (ou « lettres » du code génétique) réparties sur douze chromosomes. Ces données pourront servir de base de travail pour les spécialistes du riz : à partir des séquences, il s'agira de retrouver les gènes et leurs fonctions. Il a été longtemps difficile de savoir sous quelles conditions la firme permettrait l'accès aux données. Les interrogations étaient nombreuses car la céréale constitue la principale ressource alimentaire dans les pays en voie de développement. Il semble aujourd'hui acquis que les séquences seront mises gratuitement à disposition d'institutions à but non lucratif originaires de 41 pays parmi les plus pauvres de la planète. Les données ne seront cependant pas accessibles à tous les chercheurs : Syngenta est en concurrence avec un consortium de laboratoires publics, l'International Rice Genome Sequencing Program (IRGSP). « Le projet public de séquençage devrait aboutir vers le mois de décembre. Syngenta aurait intérêt à ne pas rendre accessibles gratuitement ses résultats d'ici là : entre-temps, ils peuvent être exploités », explique Francis Quétier qui travaille au Génoscope d'Evry, associé à l'IRGSP. Concrètement, la firme pourrait vendre ses données ou bien les échanger contre des collaborations. Cette dernière stratégie permettrait à la compagnie d'être informée sur le travail des chercheurs du monde entier et de toucher des royalties sur les éventuels brevets déposés par les chercheurs. Au début du mois, vingt généticiens de renom avaient adressé une lettre de protestation à Science, qui dénonçait la légèreté des critères de publications la revue . Le Docteur Michael Ashburner, de l'université de Cambridge (Grande-Bretagne), fait partie des signataires : il estime que « le génome de la plante est une information si fondamentale pour son exploitation agricole qu'il ne devrait pas être la propriété d'une seule entreprise commerciale ». Pour l'organisation non gouvernementale ActionAid, le génome du riz ne devrait pas être négociable : il fait partie de « l'héritage de l'humanité ». Dans quelle mesure la lettre adressée à Science, associée aux pressions des organisations comme ActionAid, a-t-elle incité Syngenta à ouvrir ses informations aux organisations à but non lucratif ? Il restera difficile de le savoir. De même, il est toujours difficile de discerner la part de publicité dans les annonces d'une grande compagnie d'agrochimie : les firmes ont tout intérêt à susciter le désir de collaboration chez les chercheurs. La vocation d'une entreprise privée est de gagner de l'argent : de ce point de vue, l'attitude de Syngenta n'est pas forcément condamnable. Il est certain qu'une grande multinationale s'expose particulièrement à la critique quand elle travaille sur des sujets aussi sensibles que le génome humain ou l'agronomie. Cependant, l'attitude de Syngenta est restée longtemps ambiguë : en janvier 2001, la firme avait déjà annoncé avoir terminé le travail de séquençage. Pendant plus d'un an, elle a refusé de préciser quelles seraient les modalités d'accès au génome. Les grandes multinationales qui travaillent sur le sujet n'ont pas toutes la même stratégie : la firme Monsanto, qui avait terminé en avril 2000 une première ébauche du génome du riz, a choisi une collaboration avec l'IRGSP. Francis Quétier y voit « une illustration de ce qui est possible quand le privé et le public travaillent main dans la main ». Il déplore l'attitude des responsables de Syngenta, qui « ont fait la sourde oreille quand l'IRGSP leur a proposé une collaboration ». En travaillant sur les gènes, les scientifiques auront accès à une meilleure connaissance de la plante. A terme, ils pourront ainsi optimiser le rendement des cultures, par exemple en créant des variétés transgéniques résistantes aux attaques de certains insectes ou aux maladies. Le génome du riz offre aussi la particularité d'être plus court que celui des autres céréales comme le blé ou le maïs. Il constitue donc un modèle, une clé pour l'étude de ces plantes alimentaires cultivées sur l'ensemble de la planète : on comprend le désir des scientifiques d'accéder au génome. http:// : http://www.lefigaro.fr/sciences/20020327.FIG0191.html Science : http://www.sciencemag.org/
|
|
|
|
|
|
|
|
Une molécule conservée au cours de l'évolution, protéine cible possible dans les thérapies anti-cancer chez l'homme, a été étudiée chez la drosophile. La protéine VEGF (vascular endothelial growth factor) est d'une importance capitale car elle guide la croissance des vaisseaux sanguins, entre autre vers les tumeurs cancéreuses. Si on l'inhibe, les cellules tumorales meurent faute d'être nourries par la circulation sanguine. Des scientifiques américains publient dans la revue Cell leur découverte : VEGF et ses récepteurs jouent un rôle direct dans le guidage des cellules sanguines pendant le développement embryonnaire de la mouche du vinaigre Drosophila melanogaster. Les chercheurs pensent avoir découvert la fonction première de cette protéine et ils pensent que son rôle dans le développement des vaisseaux sanguins est relativement récent dans l'évolution. « Un aspect important de cette recherche pour la biologie et la médecine est qu'une fonction aussi bien conservée que celle-ci puisse être étudiée et comprise chez Drosophila », explique Mark Krasnow de l'Institut médical Howard Hughes (USA). Pour déterminer quelle fonction VEGF et ses récepteurs remplissent chez l'insecte, les chercheurs ont localisé l'ARN codant pour ces protéines : c'est le signe que l'ADN qui code pour ces molécules est actif dans la région. Ils ont découvert que les récepteurs de VEGF sont exclusivement synthétisés au niveau des cellules sanguines au cours du développement. Alors que la protéine VEGF se trouve tout le long du parcours de ces cellules, depuis leur point d'origine jusqu'à leur destination. « C'est une peu comme attirer un canard en semant des morceaux de pain le long du chemin », compare Mark Krasnow. Même si les insectes ne possèdent pas de vaisseaux sanguins mais un système circulatoire dit « ouvert », le rôle de VEGF reste très comparable à celui qu'il a chez l'homme ; c'est une système de guidage. Cette découverte permet d'émettre l'hypothèse que les cellules qui composent les vaisseaux sanguins sont, à l'origine, des cellules sanguines sensibles au VGEF ayant acquis ultérieurement leur forme tubulaire spécifique. Cell du 22-03-02 : http://www.cell.com/cgi/content/abstract/108/6/865/
|
|
|
|
|
|
|
|
Seize acides aminés ont été synthétisés par voie photochimique dans des conditions proches de celles du milieu interstellaire. Cette expérience, réalisée dans le Laboratoire d'astrophysique de Leyde (Pays-Bas), renforce l'idée selon laquelle les premières briques du vivant seraient arrivées avec les météorites. Dans la revue Nature du 28 mars 2002, des chercheurs néerlandais, français (CNRS) et allemands annoncent qu'ils ont identifié 16 acides aminés -dont 6 font partis des 20 acides aminés présents dans les êtres vivants- dans un mélange de glace d'eau, d'ammoniac, de méthanol, de monoxyde et de dioxyde de carbone, irradié aux ultraviolets dans le vide poussé et à une température de - 261°C. Cette fois aucune éventuelle contamination ne peut expliquer ce résultat puisque sur l'ensemble des amino-acides synthétisés, la moitié étaient de forme gauche et l'autre moitié de forme droite, alors que les acides aminés biologiques sont tous gauches. L'expérience, réalisée en laboratoire, rappelle celle de Stanley Miller qui, en 1953, avait réussi à synthétiser des acides aminés en recréant la soupe primordiale de la Terre. Cette nouvelle étude montre que les acides aminés ne se seraient pas seulement former dans l'atmosphère terrestre ou dans les systèmes hydrothermaux sous-marins, il y a quelques 4 milliards d'années et que les molécules antérieures à l'apparition de la vie pourraient venir de l'espace. Auparavant, certains acides aminés avaient été découverts dans des météorites carbonées, ce qui avait donné naissance à cette théorie. Nature : http://www.nature.com/nature/links/020328/020328-3.html
|
|
|
|
|
|
|
|
Une équipe de scientifiques français vient de mener à bien pour la première fois le clonage d'un lapin, une première qui pourrait ouvrir des perspectives intéressante pour la recherche médicale sur une espèce considérée comme particulièrement difficile à reproduire en laboratoire. "Il s'agit de l'une des espèces de mammifères les plus difficiles à cloner", affirme l'équipe de chercheurs conduite par Jean-Paul Renard (Institut national de la recherche agronomique), dont les travaux sont publiés dans le numéro d'avril du mensuel scientifique Nature Biotechnology. Jean-Paul Renard et ses collègues de l'INRA ont utilisé les techniques qui ont permis jusqu'à présent de cloner avec succès d'autres mammifères, en transférant l'ADN où se trouve le matériel génétique contenu dans la cellule dans un ovule énucléé et en implantant ensuite l'embryon obtenu dans une mère porteuse. L'équipe de l'INRA a réussi là ou d'autres avaient échoué auparavant en modifiant les protocoles habituellement suivis pour d'autres espèces de mammifères et en établissant une "fenêtre de tir" très étroite pour l'implantation de l'embryon. La méthode utilisée est encore d'une "efficacité relative", reconnaissent les chercheurs, mais a permis de produire plusieurs clones fertiles et en bonne santé. Le clonage de lapins --un paradoxe pour une espèce particulièrement prolifique -- peut ouvrir d'intéressantes perspectives scientifiques. Plus gros que les rongeurs habituellement utilisés en laboratoire, il se prête plus facilement à des manipulations génétiques. Il est aussi beaucoup plus proche de l'homme sur le plan génétique que ces rongeurs. En utilisant certains gènes spécifiques lors de l'opération de transfert de l'ADN, les scientifiques devraient pouvoir étudier plus facilement en laboratoire l'évolution de certaines maladies humaines. "Nos travaux devraient contribuer à étendre l'utilisation de lapins en laboratoire pour des applications biotechnologiques", soulignent les chercheurs dans Nature Biotechnology. Depuis la naissance de la brebis Dolly en 1997, les scientifiques ont réussi à cloner toutes sortes de mammifères, allant du veau au singe en passant par le chat domestique. AFP : http://www.larecherche.fr/actu/n020330113042.077mnhjz.html
|
|
|
|
|
|
|
|
Un groupe de scientifiques argentins a mis en évidence le fait que la molécule ADN demeurait dans les tissus pendant plusieurs dizaines de millions d'années après des expériences réalisées sur la moelle d'os fossilisés de dinosaures. Dans un article publié mardi dans le quotidien argentin La Nacion, l'un des chercheurs, l'hématologue Victor Grignaschi, professeur de biochimie à l'Université de Buenos Aires, a rappelé que "jusqu'à présent, on savait que l'ADN s'était conservé sur certaines momies, ce qui ne dépassait pas une période de 3.000 à 4.000 ans". Pour les scientiques, dont les travaux ont été menés avec une section du musée argentin des sciences naturelles, la présence d'ADN n'a jamais été déterminée sur des os de dinosaures et "c'est la première fois que l'on découvre que l'ADN peut être conservé sur une aussi longue période".Le chercheur a relaté à La Nacion comment l'os de dinosaure a été soumis au réactif de Schiff, ce qui a produit une réaction, appelée réaction de Feulgen, permettant de mettre en évidence la présence d'ADN. "La réaction de Feulgen est une réaction chimique. Si le tissu contient de l'ADN, il prend alors une couleur rouge fuschia", a expliqué Victor Grignaschi.Cette découverte "ouvre la porte à d'autres recherches complémentaires comme la détermination de formes très anciennes de vie, de plusieurs millions d'années pour certaines espèces, et leur lien avec l'actualité, c'est à dire la possibilité de construire un arbre philogénétique", a ajouté le scientifique. Selon le Pr Grignaschi, "il sera peut-être possible de vérifier dans l'avenir les aphorismes de Lavoisier (rien ne se perd, tout se transforme) et de Darwin (l'évolution adaptée au milieu) avec l'étude d'animaux vivants dont on suppose qu'ils sont des descendants ou liés au groupe des dinosaures".Tout un secteur des provinces de Rio Negro et de Neuquen, dans le nord de la Patagonie argentine, à 1.200 km au sud-ouest de Buenos Aires, abrite d'importantes réserves de fossiles de dinosaures, qui lui ont déjà valu le surnom de "Jurassic Park" argentin. AFP : http://fr.news.yahoo.com/020403/202/2jbbg.html
|
|
|
|
|
|
|
|
Dans la revue Neuron du 28 mars, des chercheurs américains affirment que notre capacité à imaginer le monde et celle à reconnaître des objets sont deux mécanismes différents. Ces deux fonctions cérébrales se rapportent à celles que les psychologues appellent la rotation mentale -il s'agit de la capacité à faire tourner mentalement un objet dans sa tête pour le comparer avec une forme similaire, d'une part, et la reconnaissance d'objet, d'autre part, c'est à dire savoir si deux formes sont identiques ou différentes. Grâce à l'imagerie par résonance magnétique fonctionnelle (IRMf), les chercheurs de l'université Vanderbilt (Tennessee, USA) ont mesuré l'activité du cerveau de 15 personnes faces à des formes géométriques complexes. Dans un cas, les volontaires devaient dire si deux objets étaient identiques ou bien l'image l'un de l'autre dans un miroir (rotation mentale). Dans un autres cas, ils devaient juste reconnaître si les objets étaient identiques ou différents (reconnaissance d'objet). Résultat : il semble que ces deux tâches n'occupent pas la même région dans le système visuel du cerveau. L'exercice de rotation mentale active une région du lobe temporal qui est connue pour analyser la localisation des objets, le « où » en quelque sorte. Au contraire, la reconnaissance des objets active une région du lobe pariétal qui analyse la nature des choses, le « quoi ». La conclusion est intéressante : pour résoudre deux problèmes apparemment comparables, le cerveau utilise deux voie complètement différentes. L'une ne fait que comparer les formes et reste dans le concret, l'autre nécessite un effort d'imagination. Neuron : http://www.neuron.org/cgi/content/full/34/1/149
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|