|
|
Edito
Pour que la Recherche française retrouve la voie de l'espérance
Selon la classification devenue classique de Claude Reich, l'emploi de l'avenir se divise dorénavant en trois catégories : le travailleur routinier, les services à la personne et à la nature et les enrichisseurs de signes. Le travailleur routinier, celui qui accomplit toujours les mêmes gestes et applique les mêmes process pour produire des biens matériels ou immatériels, comme l'agent de production sur sa chaîne ou l'agent de service devant son écran, est celui qui est le plus en danger. En effet, bien que sa productivité ait parfois été augmentée par des multiples de 100 depuis vingt ans grâce à des robots et à des chaînes automatisées, il est en concurrence directe avec le travailleur routinier tunisien, roumain et surtout chinois dont le coût horaire réel est nettement moins élevé. Les services à la personne et à la nature constituent le corps central de notre société dont l'importance ne va faire que croître dans les années qui viennent. En effet, avec l'allongement de la vie et les soins de plus en plus complexes qu'exige la Nature, il nous faudra de plus en plus d'infirmières, d'aides-soignants, mais aussi de coiffeurs ou de serveurs dans les restaurants. Tous ces emplois auxquels il faut globalement rattacher le corps des fonctionnaires tels que les policiers ou les enseignants ont ceci de commun qui est angoissant dans notre monde moderne : leur productivité ne peut pas réellement croître. Aujourd'hui, en 2004, une infirmière met le même temps qu'il y a un demi-siècle pour faire une piqûre. Il en est de même, et heureusement, du temps passé par un serveur pour nous servir un repas au restaurant. Il y a ainsi tout un corps central dans notre Société qui ne bénéficie pas de cet élan apporté par le développement mondial des échanges, et dont les revenus stagneraient si dans sa mission fondamentale d'égalité l'Etat ne demandait pas aux autres catégories de notre Société d'être solidaires. Mais il n'est jamais facile d'être socialement dépendant des autres. Cela nous permet de mieux comprendre pourquoi, depuis une dizaine d'années, les conflits se développent essentiellement dans ce corps central des services à la personne ou à la nature. Ces conflits mobilisent non seulement les fonctionnaires, les médecins, les infirmiers, les agriculteurs, les restaurateurs, mais aussi bien d'autres catégories sociales. Or, l'erreur fondamentale qui est actuellement faite dans notre Pays, non seulement par les Pouvoirs Publics, mais aussi par les chercheurs eux-mêmes, est que par son statut fonctionnarisé nous voulons placer la Recherche dans ce corps central de services à la personne et à la Nature. Par définition, le chercheur doit se retrouver avec l'ingénieur, l'architecte, le concepteur de logiciels et les millions d'êtres humains dont les métiers reposent exclusivement sur leurs savoirs parmi ces « enrichisseurs de signes » qui constituent le corps dynamique sur lequel repose l'avenir de nos sociétés modernes. Ces « enrichisseurs de signes » voient leur efficacité croître d'une façon sidérante depuis un demi-siècle grâce aux vitesses de calcul et à la mémoire des systèmes informatiques. Aussi, vouloir donner à nos chercheurs, comme l'a fait la Loi Chevènement au début des années 1980, un statut de fonctionnaire a été une terrible erreur pour la Recherche française. Vouloir comparer la vie d'un chercheur avec celle d'un policier ou d'un juge et lui dire à 30 ans comment se déroulera sa carrière et quels seront son statut et son salaire quand il arrivera à l'âge de la retraite est une aberration. Le chercheur doit avoir pour compagnon l'imprévu et celui qui n'accepte pas le risque donc l'espérance de la découverte ne mérite pas le titre de chercheur. La juste contrepartie de cette incertitude doit être une bien plus grande considération et des rémunérations en rien comparables à celles d'un fonctionnaire dont le destin est déjà écrit. On se lamente actuellement dans notre Pays de voir les jeunes se détourner des carrières scientifiques et de trop souvent vouloir s'expatrier quand ils ont terminé de brillantes études. La raison en est malheureusement bien simple : La science ne rapporte plus assez dans notre pays fonctionnarisé. Notre Pays n'a pas su classer dans la bonne catégorie ses scientifiques les plus brillants. Alors, souvent, trop souvent, ils s'expatrient, essentiellement vers les Etats-Unis, car là-bas les salaires sont 3 à 5 fois plus élevés. Certes, en contrepartie il y a l'incertitude, la précarité. Mais dans cette compétition mondiale qui accorde une place de plus en plus importante aux « enrichisseurs de signes » ceux qui ont un bagage intellectuel brillant n'ont rien à voir avec les travailleurs routiniers dont la situation est de plus en plus précaire. Aussi, pour l'aider à surmonter sa grave crise actuelle, il faut aider la Recherche française à sortir par le haut. Il faut donner la possibilité, à tous ceux qui en ont la volonté et la capacité, de faire de leur vie une aventure exaltante. Ils doivent pouvoir choisir entre le statut de fonctionnaire et celui de chercheur. Celui qui choisira le statut de chercheur, avec tous les risques que cela comporte dans toutes les sociétés libérales du Monde, devra pouvoir avoir la même considération et gagner autant d'argent que s'il se trouvait aux Etats-Unis. S'il y avait, enfin, une réelle volonté politique pour atteindre ce noble but, vital pour l'avenir de la France, il faudrait fondamentalement revoir toutes les structures qui ont peu à peu rigidifié l'ensemble de la Recherche française depuis un demi-siècle. En contrepartie de cette véritable révolution culturelle qui serait demandée à tous les chercheurs, la Nation unanime devrait inscrire dans sa Loi fondamentale l'effort immense qu'elle consentirait à l'effort de Recherche de la France pendant toute la prochaine génération, jusqu'en 2030. Aucun gouvernement, de Gauche ou de Droite, ne pourrait revenir sur cet engagement solennel. Ce n'est que par cette démarche hors du commun que la France retrouvera la voie de l'espérance. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Les principaux fournisseurs d'accès à internet américains, AOL, Microsoft, Yahoo! et Earthlink ont annoncé mercredi leur première offensive judiciaire commune contre les expéditeurs de courriels indésirables ("spam"), depuis l'entrée en vigueur d'une nouvelle loi fédérale sur le sujet. Chacun des quatre groupes a déposé plainte mardi soir, devant la justice fédérale de l'Etat où il a son siège, pour reprocher "l'envoi d'un total de plusieurs centaines de millions de messages spam aux clients des quatre réseaux", selon un communiqué commun. Six plaintes au total ont été déposées, visant "des centaines de personnes parmi lesquelles certains des expéditeurs de «spam» à grande échelle les plus notoires du pays". Il s'agit, ajoute le communiqué, "des premières grandes plaintes de l'industrie" depuis l'entrée en vigueur le 1e janvier de la loi fédérale baptisée "Can-Spam Act", promulguée à la mi-décembre par le président américain George W. Bush. Cette loi, sans interdire les courriels indésirables, autorise les usagers d'internet à réclamer leur retrait des listes de diffusion et punit de lourdes amendes ceux qui envoient des messages mensongers ou à caractère pornographique sans avertir au préalable ceux qui les reçoivent. Plusieurs enquêtes ont affirmé que le courriel indésirable représente aujourd'hui aux Etats-Unis la moitié, voire plus, du volume du trafic d'e-mails. Il coûte de plus en plus cher aux entreprises en perte de productivité ou en équipements informatiques de filtrage. Dans les plaintes déposées mardi soir, les "spammers" se voient notamment reprocher "des sollicitations trompeuses pour divers produits", dont des placements promettant l'enrichissement rapide, des médicaments vendus sur ordonnance, de la pornographie ou encore des diplômes universitaires. Ils sont également accusés d'emprunter de fausses identités piochées dans les carnets d'adresse afin de mieux contourner les filtres. AFP : http://fr.news.yahoo.com/040310/1/3orbo.html
|
|
|
|
|
|
|
|
Toyota Motor a dévoilé jeudi deux robots humanoïdes - l'un avec des jambes et l'autre avec des roues - et a présenté en vidéo un troisième modèle susceptible de remplacer un jour la chaise roulante, selon le constructeur automobile. Le premier de ses androïdes, dont les noms restent à trouver, mesure 1,20m . Après avoir salué les journalistes venus assister à la présentation, il a joué un air de trompette. Capable de "marcher", Toyota l'a présenté comme un assistant éventuel aux personnes âgées. Le deuxième modèle, roulant, évoluerait parfaitement sur le sol d'une usine, a indiqué le fabricant. Ces deux modèles possèdent des lèvres dont les mouvements ont la même finesse que les lèvres humaines. Le troisième, doté de jambes articulées, peut transporter des passagers. Il se manoeuvre avec un levier de commande manuel. Les robots seront présentés au public lors du salon Expo 2005 prévu au Japon en mars prochain. Le deuxième constructeur automobile mondial, quia développé ces modèles en deux ans et demi, dit n'avoir pour l'instant aucun projet de commercialisation. Denso et Toyoda Machine Works, entreprises du groupe, ont été associées au projet, ainsi que NEC et Yaskawa Electric. Les robots de Toyota ne sont pas sans rappeler le chien Aibo de Sony, et le robot danseur Asimo de Honda. Honda Motor Co n'envisage pas pour l'instant de vendre Asimo, qui peut marcher en avant et en arrière, monter des escaliers et danser la hula, danse polynésienne. Il est cependant disponible à la location. L'Aibo de Sony est un succès commercial depuis son lancement en 1999. Reuters : http://fr.news.yahoo.com/040311/85/3otcu.html
|
|
|
|
|
|
|
|
Echographies à distance, calculs partagés entre des ordinateurs éloignés de plusieurs centaines de kilomètres, mondes virtuels à grande échelle, autant d'innovations présentées lors du bilan des recherches s'appuyant sur le réseau informatique expérimental à "Vraiment très haut-débit" (VTHD). Construit au début des années 2000 entre Nancy, Rennes, Paris et Sophia-Antipolis, le réseau VTHD permet à des chercheurs et à des industriels de tester les applications informatiques de demain. "Le réseau VTHD est un enjeu stratégique pour la recherche française parce qu'il associe les chercheurs et le monde industriel", a estimé Christiane Schwartz, directrice de l'innovation de France Télécom. "L'existence de cette plate-forme est une condition nécessaire pour que la France reste dans la course au niveau technologique", a-t-elle ajouté. Parmi les différents projets testés ces deux dernières années: l'échographie à distance, une des premières avancées de la télé-médecine, qui permettra peut-être de pallier le manque de médecins dans certaines régions françaises. Lors d'une démonstration, un dépistage d'anévrisme aortique a été réalisé grâce à un petit robot installé sur le ventre d'un patient à Grenoble. Un opérateur a manipulé le robot depuis Issy-les-Moulineaux, tout en communiquant avec le malade par l'image et la voix. Les images à haute définition de l'échographie ont transité sur le réseau VTHD en temps réel. Ce projet, mené en collaboration avec France Télécom Recherche et Développement, est en cours de validation clinique grâce à des tests effectués dans les CHU de Grenoble et de Brest. Il a débouché sur la création d'une entreprise baptisée TER (Télé-échographie robotisée) qui cherche actuellement des investisseurs afin de commercialiser sa solution en 2005. Autre démonstration s'appuyant sur le réseau VTHD: la manipulation d'images en trois dimensions calculées sur quatre ordinateurs installés à des centaines de kilomètres de la région parisienne. Pour calculer ces images à haute définition en temps réel, les informaticiens de l'Institut national de recherche en informatique et en automatique (INRIA) de Lorraine, se sont appuyés sur des techniques d'informatique distribuée ("grid computing") pour partager les calculs entre plusieurs ordinateurs connectés à un réseau à très haut-débit. Cette technologie est par exemple utilisée lors de la conception de pièces pour l'automobile ou l'aéronautique où il faut partager informations et calculs entre plusieurs sites de recherche et de production en France et dans le monde. Lors de leurs expériences, les informaticiens de l'Inria ont pu pousser le VTHD dans ses retranchements et profiter de débits de 2,5 gigabits/seconde, soit l'équivalent du transfert d'un CD en moins deux secondes. Le projet VTHD++ a coûté 14 millions d'euros sur deux ans, dont 6,8 millions financés par la Direction générale de l'industrie, des technologies de l'information et des postes du ministère de l'Industrie. Reuters : http://fr.news.yahoo.com/040309/85/3ooiy.html
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Le feuilleton de la "fusion froide" rebondit, pour la plus grande joie des physiciens. Rusi Taleyarkhan, de l'Université Purdue (Indiana), et son équipe seraient parvenus à réaliser la fusion d'atomes d'hydrogène dans un simple flacon de solvant organique et devraient prochainement publier leurs résultats dans la publication scientifique "Physical Review". On se souvient qu'en 2002, les mêmes chercheurs affirmaient déjà avoir réussi une fusion "froide".Cette annonce avait alors été accueillie avec beaucoup de scepticisme par la communauté scientifique. En effet, les expériences visant à recréer un processus de fusion thermonucléaire (par fusion des atomes d'hydrogène) analogue à celui qui se produit en permanence dans notre Soleil ont toujours été conduites dans des installations géantes de type Tokamak, pour le confinement magnétique, ou lasers ultra-puissant, pour le confinement inertiel. Il est en effet extrêmement difficile de faire fusionner des atomes d'hydrogène car il faut réussir à surmonter la répulsion électrostatique naturelle qui oppose ces atomes, ce qui exige des conditions de pression et de température extrêmes (les fameux critères de Lawson). Pour atteindre ces conditions, les travaux de Taleyarkhan utilise une voie différente des deux voies classiques en exploitant le phénomène de cavitation acoustique : des ondes sonores vibrent dans un fluide, créant de minuscules bulles de gaz qui émettent des flashes de lumière lorsqu'elles s'effondrent (sonoluminescence). Taleyarkhan affirme que, dans ses dernières expériences menées au Oak Ridge National Laboratory (Tennessee), ces bulles ont atteint une température et une pression suffisamment élevées pour provoquer une sonofusion. Taleyarkhan souligne qu'il peut fournir la preuve, grâce à l'utilisation de nouveaux détecteurs, qu'il y a bien eu sonofusion. Mais la communauté scientifique, septique par nature, et déjà plusieurs fois échaudée par des effets d'annonces sans lendemain, reste prudente et attend de pouvoir reproduire de manière incontestable la fameuse sonofusion avant de se prononcer. La suite de ce passionnant feuilleton au prochain épisode... New Scientist : http://www.newscientist.com/news/news.jsp?id=ns99994741
|
|
|
|
|
|
|
|
Les États-Unis ont décidé d'investir 800 millions d'euros par an dans la "nanorecherche", quant l'Union européenne n'engagera que 700 millions sur quatre ans. Et les industriels, associés autour de projets communs, en débloqueront à peu près autant. Les technologies de l'infiniment petit ont le vent en poupe, mais les budgets de recherche publics débloqués de part et d'autre de l'Atlantique n'ont rien de comparable. Lors du Nanotech 2004, grand salon professionnel qui se tient à Boston (7 - 11 mars), le gouvernement américain a rappelé que les sommes qu'il va investir dans tous les domaines des nanotechnologies se montent à 961 millions de dollars pour la seule année 2004 (soit environ 800 millions d'euros). Alors que l'Union européenne a prévu de dépenser en subventions publiques un total de 700 millions d'euros, mais répartis sur quatre ans (2003-2006). C'est dans ce contexte qu'un consortium de recherche, réunissant les industriels ST Microelectronics, Infineon et Philips, ainsi qu'une dizaine de labos publics en Allemagne, Belgique et France, ont annoncé le 8 mars un projet portant sur des microprocesseurs de future génération. Baptisé "Nano-CMOS", il est destiné à accompagner la révolution des "nanoprocesseurs" de type CMOS (semi-conducteurs en oxyde de métaux). L'objectif est de sortir des puces gravées à 45 nanomètres (nm) d'ici à 2005, en attendant les futures générations de 32 nm et 22 nm. La Commission européenne financera ce programme à hauteur de 24 millions d'euros. Les industriels devront eux débloquer leurs propres fonds pour compléter cette contribution publique. Un domaine technologique décidément stratégique. Au point que le gouvernement américain a créé un poste pivot au sein de son administration, le National Nanotechnology Coordinator Office. De son côté, l'Union européenne a lancé l'an dernier, avec le soutien du commissaire chargé de la Recherche, Philippe Busquin, la Plate-forme industrielle des nanotechnologies. Le "coordinateur" américain, Clayton Teague, promet d'autres largesses budgétaires pour les laboratoires de son pays. Ainsi pour les années fiscales 2005 à 2008, l'enveloppe totale sera de 3,7 milliards de dollars. Et il a précisé que les industriels devraient miser à peu près autant que les pouvoirs publics. Si la partie la plus visible de ces recherches touche le secteur de la microélectronique (ou "électronique moléculaire"), de nombreux domaines sont concernés. Dans ceux de la santé et de l'environnement (microcapteurs de toxiques ou de pollution), de la traçabilité alimentaire et agricole, les "nanosystèmes" sont promis à un bel avenir, autant civil que militaire d'ailleurs. ZDNet : http://www.zdnet.fr/actualites/technologie/0,39020809,39144565,00.htm
|
|
|
|
|
|
|
|
New Scientist : http://www.newscientist.com/news/news.jsp?id=ns99994750 On se souvient de la célèbre série de science-fiction des années 70, "L'homme qui valait trois milliards", dans laquelle on voyait un pilote d'essai, le fameux Steeve Austin, "reconstruit" après un grave accident, et doté d'une force et d'une rapidité surhumaine, grâce à des membres et organes artificiels. Si des soldats bioniques ayant la force d'un Steeve Austin ne sont pas encore pour demain, une étape importante vers ce concept vient d'être franchie pourtant avec la mise au point des premiers exosquelettes destinés aux militaires, pompiers, policiers ou personnels de sécurité et d'intervention. Baptisé BLEEX (Berkeley Lower Extremity Exoskeleton), cet exosquelette a été développé par la DARPA (l'agence américaine chargée des projets de recherche avancée en matière de défense). BLEEX est conçu pour permettre aux soldats de porter rapidement de lourdes charges sur de longues distances, sans fournir d'efforts particuliers. Bien que cet armature pèse 50 Kg, elle est conçue de telle manière que son centre de gravité d'adapte automatiquement à la démarche et aux gestes de son détenteur, qui ne sent pas son poids. Muni de cet exosquelette, un soldat peut donc, sans aucun effort, porter une charge de 32 Kg, en ayant l'impression de porter seulement 2 Kg! Point fort de cette machine : son "pilote" n'a besoin d'aucune commande, ni bouton, ni manche, ni clavier, pour la commander au doigt et à oeil. 'exosquelette fait vraiment corps avec celui qui le porte et permet de garder les mains libres, ce qui constitue un avantage décisif sur un théâtre d'intervention. Un modèle encore plus performant pouvant porter 60 Kg est déjà en cours de développement. Muni d'une hydraulique et d'une électronique ultra-sophistiquées, BLEEX est mu par un moteur qui utilise du peroxyde d'hydrogène comme carburant. Son autonomie permet pour l'instant un fonctionnement de deux heures à pleine charge. A plus long terme, les exosquelettes militaires pourraient permettre aux fantassins des années 2020 d'accomplir plus de 100 Km par jour avec des charges de plus de 50 Kg autorisant le port d'équipements supplémentaires et d'armes à la puissance de feu redoutable. On imagine alors l'efficacité de ces soldats bioniques, notamment dans les opérations commando, visant à pénétrer en profondeur en territoire ennemi. Brève rédigée par @RT Flash
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Philips Electronics a annoncé jeudi avoir inventé un objectif de trois millimètres pour appareil photo numérique de téléphone portable qui pourrait faire le point comme l'oeil humain sur des objets et réaliser ainsi des clichés nets. Contrairement à ceux des appareils photo numériques haut de gamme, ce nouvel objectif n'a pas besoin de pièces mobiles car il fonctionne en faisant agir deux fluides dans un petit tube transparent. Philips entend construire une chaîne de production pour ces objectifs destinés à équiper des produits bon marché, comme des appareils photo numériques pour téléphones mobiles ou des systèmes de sécurité pour la maison. En chargeant les parois du tube avec un petit courant électrique, un des deux fluides est attiré vers les bords, alors que l'autre remplit l'espace restant à l'intérieur du tube. L'endroit où les deux fluides se rencontrent fonctionne comme un objectif. En changeant le courant, l'objectif peut prendre une forme creuse, courbe ou n'importe quelle forme entre les deux, de manière à pouvoir faire le point sur des objets proches, jusqu'à cinq centimètres, ou lointains. Cet objectif, présenté dans deux semaines au salon de l'électronique CeBIT de Hanovre, en Allemagne, est le premier en son genre et sa technologie a été brevetée, affirme Philips. Reuters : http://fr.news.yahoo.com/040304/85/3oerg.html
|
|
|
|
|
|
|
|
Estimant que les mesures envisagées ne vont pas assez loin, un collectif d'industriels de la construction, qui s'est baptisé "Isolons la terre contre le CO2", demande au gouvernement un plan plus ambitieux pour réduire les émissions de gaz à effet de serre par les bâtiments, deuxième source de pollution au dioxyde de carbone en France, derrière les transports. Chauffage, eau chaude sanitaire, climatisation: les bâtiments devancent l'industrie en terme de pollution au gaz carbonique, l'un des principaux gaz à effet de serre, produit par la combustion des énergies fossiles (pétrole, charbon et gaz naturel). Souvent mal chauffés et mal isolés (près des deux-tiers du parc a été construit avant 1975), les bâtiments représentent un quart des rejets de CO2, d'après le Centre interprofessionnel technique d'études de la pollution atmosphérique (CITEPA). En dix ans, entre 1990 et 2000, les émissions ont augmenté de 14% dans le bâtiment, alors qu'elles diminuaient dans l'industrie ou l'agriculture, selon le livre blanc sur les énergies publié en novembre. Le collectif, dont le porte-parole Pierre Delayen, un dirigeant de Saint-Gobain Isover, a présenté son projet jeudi lors d'une conférence de presse, estime que la pollution due au chauffage des bâtiments aura augmenté en 2015 de 25 millions de tonnes de gaz carbonique, si des mesures fortes ne sont pas mises en oeuvre. Le collectif, qui regroupe notamment des industriels spécialisés dans l'isolation, demande une réglementation pour "réduire de 15% tous les cinq ans jusqu'en 2015, les consommations de bâtiments neufs". Il faut que la première étape commence dès 2005, dit-il. Du côté des logements actuels, le collectif souhaite un dispositif de "prêts bonifiés et de déductions fiscales" pour permettre des travaux de rénovation ou de déconstruction-reconstruction afin de ramener chaque année la consommation de 400.000 logements à 50 kilowatts/heure d'énergie primaire par mètre carré. Enfin, le collectif demande au gouvernement de rendre obligatoires lors de travaux la mise en oeuvre de produits performants ainsi que l'affichage des consommations énergétiques des bâtiments. Le projet de loi d'orientation sur les énergies, qui devrait être présenté au printemps par la ministre déléguée à l'Industrie Nicole Fontaine, s'est fixé pour objectif de diviser par quatre les émissions de gaz à effet de serre, responsables du réchauffement climatique, d'ici 2050. AP : http://fr.news.yahoo.com/040311/5/3otvt.html
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Des astronomes américains ont publié mardi une image du télescope spatial Hubble qui représente la vue scrutant le plus profondément l'univers, au point de remonter dans le temps à seulement quelques centaines de millions d'années après le Big Bang. Les chercheurs de l'Institut scientifique du télescope spatial soulignent que l'image contient quelque 10.000 galaxies et que les astronomes du monde entier vont maintenant chercher sur cette vue les objets les plus lointains jamais observés. Une longue exposition a permis de saisir de la lumière ayant voyagé dans l'espace pendant plus de 13 milliards d'années, souligne Steven Beckwith, directeur de l'Institut. Cette lumière aurait commencé son odyssée spatiale lorsque l'univers avait seulement 5% de son âge actuel, estimé à 13,7 milliards d'années. "Pour la première fois, nous regardons des étoiles qui se forment sur les décombres du Big Bang", souligne le Pr. Beckwith. Hubble a concentré des instruments sur un point de l'univers pendant un million de secondes, une exposition qui a nécessité plus de 400 orbites du télescope. Des images ont été collectées pendant quatre mois à partir de septembre. La découverte des objets les plus lointains est un exploit qui équivaudrait à déceler la lumière d'une luciole sur la Lune, selon le Pr. Beckwith. Selon la théorie du Big Bang, l'univers a été créé par une gigantesque explosion. Environ 300 millions d'années après, les étoiles et les galaxies ont commencé à se former, ce qui serait les limites de l'univers physique. L'exploration de cette frontière devra attendre la mise en service du Télescope James Webb, que la NASA prévoit de lancer en 2011. Un examen rapide des images montrant les objets les plus lointains révèle une grande variété de galaxies de différentes tailles, formes et couleurs. Certaines présentent une forme inhabituelle. AP : http://fr.news.yahoo.com/040309/5/3op0x.html
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Et si l'OPEP était l'association écologiste la plus efficace du monde ? En maîtrisant les prix du brut, l'Organisation des pays exportateurs de pétrole se révèle être l'agent le plus convaincant pour encourager - ou démobiliser - les politiques de maîtrise de l'énergie. C'est la conclusion paradoxale que l'on peut tirer de la publication, le 2 mars, par l'Agence internationale de l'énergie (AIE) d'une étude analysant trente ans de consommation énergétique. En effet, alors que les deux chocs pétroliers de 1973 et 1979 ont entraîné des progrès très nets dans l'efficacité énergétique des pays développés, le retour du prix du pétrole à des niveaux modérés à partir de 1986 a incité les pays riches à relâcher leurs efforts. Ainsi, l'étude de l'AIE (30 Years of Energy Use In IEA Countries) met en exergue une rupture des tendances autour de 1990 : entre 1973 et 1990, les pays couverts par l'Agence connaissent une croissance limitée de la consommation d'énergie (+ 0,4 % par an), tandis qu'à partir de 1990 cette augmentation passe à 1,4 %. Ce phénomène n'est pas dû à la croissance économique elle-même. On pourrait en effet penser que si l'économie tourne fort, la consommation d'énergie doit suivre. Mais, en fait, tout dépend des efforts d'économies d'énergie. Ceux-ci se traduisent par un découplage entre consommation d'énergie et produit intérieur brut (PIB) : on produit une même unité de PIB avec moins d'énergie. La vigueur de ce découplage est mesurée par la baisse de l'intensité énergétique (quantité d'énergie nécessaire pour produire une unité de PIB). Or, cette intensité, qui avait baissé au rythme de 2,5 % par an entre 1973 et 1982 dans les pays de l'AIE, ne diminue plus que de 1,5 % par an entre 1983 et 1990, avant que l'effort ne se relâche totalement (- 0,7 % depuis). La corrélation est assez étroite avec le prix du baril de pétrole, qui donne le "la" à l'ensemble des prix de l'énergie : en prix réel, c'est-à-dire corrigé de l'inflation, le baril de pétrole a atteint des sommets dans les années 1970, déclinant ensuite lentement, puis franchement en 1986. Il s'est depuis lors stabilisé à un niveau bas, proche de celui qui existait avant le choc pétrolier de 1973. Aujourd'hui encore, malgré la hausse enclenchée en 2000, il reste au même prix qu'en 1973. Ainsi, la contrainte économique n'a plus stimulé la maîtrise énergétique. Cela dit, tous les acteurs sociaux n'ont pas évolué de la même manière. L'industrie, qui avait fourni les plus grands efforts dans les années 1970, s'est laissée aller à partir de 1986 : son intensité énergétique n'a dès lors plus décliné que de 0,6 % par an. C'est ailleurs qu'il faut chercher la responsabilité. Premier accusé : le transport automobile et aérien. Ils ont tous les deux explosé - le nombre de passagers par avion a triplé depuis 1973, celui d'automobiles a doublé -, tirant la demande de pétrole. Certes, les moteurs se sont améliorés, mais ce progrès technique a été plus que compensé, d'une part par l'augmentation du trafic, d'autre part, pour les automobiles, par le passage à des véhicules plus lourds et plus consommateurs d'énergie en raison de leur équipement en climatisation et autres gadgets. Le transport de marchandises par camion a lui aussi crû sans contrôle, doublant de ce fait la consommation d'énergie de ce secteur. Dans un autre domaine, les particuliers sont aussi responsables de l'augmentation de la consommation énergétique : la quantité d'équipements électriques - électroménager, audio-vidéo, ordinateurs, etc. - s'est multipliée, tirant largement la consommation d'électricité. Soulignant que des possibilités très importantes d'économies d'énergie existent encore, l'Agence appelle les gouvernements à mener des politiques pour les favoriser. Mais l'absence de telles politiques dans la décennie passée, alors que la conjoncture économique était plus facile, rend douteux que l'appel de l'AIE soit entendu. D'autant plus qu'il va à l'encontre des politiques menées par ailleurs, qui encouragent le développement des échanges et la baisse du prix de l'électricité, jugée comme un stimulant économique. Dans ce contexte, sans doute vaut-il mieux attendre d'une hausse continue du prix du pétrole une baisse de la consommation d'énergie et des émissions de CO2. Le Monde : http://www.lemonde.fr/web/article/0,1-0@2-3238,36-355790,0.html IEA : http://www.iea.org/Textbase/press/pressdetail.asp?PRESS_REL_ID=123
|
|
|
|
|
|
|
|
L'augmentation des concentrations de gaz carbonique dans l'atmosphère modifie profondément l'équilibre naturel des arbres dans la forêt amazonienne, un des réservoirs majeurs de diversité animale et végétale de la planète. Une équipe de chercheurs brésiliens et américains a étudié la croissance de quelque 14.000 arbres, répartis sur 18 parcelles de 1 hectare (dispersées sur 300 km2 au total) dans la zone centrale de la forêt amazonienne entre 1980 et 2000. Chaque arbre a été marqué et mesuré à 15 ans d'intervalle en moyenne. Les arbres absorbent le gaz carbonique dans le processus de la photosynthèse, et de nombreuses études ont déjà montré une croissance accrue des forêts sous l'effet de l'augmentation du CO2. Mais cette croissance n'est pas uniforme, révèle l'étude. Sur les 115 espèces d'arbres les plus présentes, 27 ont changé de façon significative, en densité de population ou en emprise au sol. Sur les 115 espèces, 13 ont gagné en densité (14 ont régressé) et 14 ont accru leur empreinte au sol (13 ont décliné). "Il y a très clairement des gagnants et des perdants", a commenté Alexandre Oliveira de l'Université de Sao Paulo dans le communiqué de presse accompagnant la publication dans Nature. "En général, les grands arbres à croissance rapide l'emportent au détriment des arbres plus petits, qui vivent dans le sous-bois". Selon les chercheurs, la concentration de CO2 entraîne une compétition plus acharnée pour la lumière, l'eau et les nutriments du sol. Les arbres les plus rapides prennent l'avantage sur les plus lents et les plus petits. Ce déclin des arbres les plus petits, seuls capables de fleurir et de se reproduire dans l'ombre des géants, peut s'avérer préoccupant car ils abritent de très nombreuses espèces animales et végétales. "C'est un peu effrayant de constater des changements aussi importants et rapides de la forêt", estime William Laurance du Smithsonian Tropical Institute de Panama, qui a coordonné l'équipe. "La forêt tropicale est connue pour abriter nombre d'espèces très spécialisées, si la diversité des arbres est modifiée, les espèces qu'ils abritent, et notamment les insectes qui pollinisent les arbres vont aussi changer", ajoute-t-il. La concentration de CO2 dans l'atmosphère a augmenté de 30% dans les deux derniers siècles, du fait de l'utilisation massive des énergies fossiles (charbon, pétrole, gaz) par l'homme. Les modifications révélées par l'étude, outre leur impact sur la biodiversité, pourraient avoir des conséquences sur le changement climatique. En effet, la forêt amazonienne joue un rôle de "puit" de carbone, en stockant le CO2 dans ses arbres en croissance. "Le stockage de CO2 pourrait être ralenti par la tendance de la canopée et des arbres émergents à produire un bois de densité réduite, alors que leur taille et leur croissance augmentent, et par le déclin des arbres denses en bois du couvert végétal", estime l'étude. Nature : http://www.nature.com/nsu/040308/040308-7.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs américains du Massachusetts General Hospital (MGH) viennent d'ébranler un dogme vieux de près d'un siècle. Ils ont en effet découvert que les femelles mammifères ne naîtraient pas avec tout leur stock d'ovules mais continueraient à en produire une fois adultes, selon .Les souris femelles conservent la capacité de produire des oeufs (ovocytes) au cours de la vie adulte, avancent ainsi. Pourtant, selon le dogme couramment admis, chez la plupart des mammifères, les femelles naissent avec un stock fixe d'ovules qui n'est pas renouvelé comme les spermatozoïdes chez l'homme. Cette réserve s'amenuise donc en vieillissant, avec la dégénérescence de la majorité des petits sacs, les follicules, contenant les ovules et se retrouve ainsi définitivement épuisée, à la ménopause, chez la femme. "Si ces résultats se confirment chez les humains, toutes les théories sur le vieillissement de système de reproduction de la femme devront être revues", commente le principal auteur, Jonathan Tilly (MGH et professeur associé à Harvard). Il faudra également reconsidérer les mécanismes des effets sur la fertilité du tabac, des radiations et de la chimiothérapie, ajoute ce biologiste de la reproduction. Cette découverte révolutionnaire "pourrait conduire à des approches totalement nouvelles pour combattre l'infertilité" notamment chez les cancéreuses, estime-t-il. En quête d'un moyen de bloquer ce mode d'élimination (apoptose) des ovules, notamment au profit des femmes soumises aux effets toxiques des chimiothérapies ou des rayons, les chercheurs ont mesuré le nombre de follicules sains et de ceux qui dégénèrent et meurent pendant la vie des rongeurs. Et là, surprise: ils découvrent qu'au rythme où les jeunes femelles adultes perdaient leurs follicules, leur stock aurait du être épuisé en quelques semaines. Or, elles continuent à avoir des ovules sains bien au-delà de l'âge d'un an. "Découvrir un niveau aussi élevé de dégénérescence folliculaire sans trouver une réduction correspondante du nombre de follicules sains va à l'encontre du dogme d'un stock fixe d'ovocytes", selon Jonathan Tilly. "Seule interprétation probable", selon lui, "les ovaires gardent après la naissance la possibilité de produire de nouveaux ovocytes et follicules". En examinant minutieusement les ovaires de souris jeunes et adultes, les chercheurs ont repéré des cellules ressemblant à des cellules germinales souches, précurseurs des ovocytes, qui se développent pendant la vie foetale. Chez l'animal adulte, ils ont détecté des divisions cellulaires ("méioses") spécifiques de la formation de cellules sexuelles qui auraient du cesser après la naissance, si l'on s'en tient au dogme établi. Ils ont également greffé du tissu ovarien adulte sur des souris transgéniques produisant une protéine à fluorescence verte dans toutes leurs cellules. Ils ont ensuite constaté que les cellules germinales vertes de l'hôte étaient venues coloniser le tissu greffé pour y former de nouveaux follicules. L'administration d'un toxique (busulfan) connu pour détruire les cellules précurseurs des spermatozoïdes a par ailleurs stoppé le renouvellement des ovules des souris. L'ensemble de ces données établissent l'existence de cellules qui entretiennent la production d'ovules et de follicules dans les ovaires de mammifères après la naissance, écrivent les auteurs. Reste à prouver l'existence de ces cellules régénératrices chez la femme adulte. Nature : http://www.nature.com/nsu/040308/040308-6.html
|
|
|
|
|
|
|
|
Le taux de mortalité de l'obésité progresse rapidement sur le territoire américain et pourrait bientôt dépasser celui du tabac, selon une étude gouvernementale américaine. En 2000, une alimentation médiocre et une activité physique insuffisante ont causé 400.000 décès aux Etats-Unis, faisant de l'obésité la deuxième cause de mortalité pouvant être évitée. Le tabac a tué 435.000 Américains la même année. Le fossé entre ces deux fléaux se réduit d'année en année. En 1990, l'obésité avait causé 300.000 décès, contre 400.000 pour le tabac, précise le rapport des centres fédéraux de prévention et de contrôle des maladies (CDC). "C'est tragique", a souligné le Dr Julie Gerberding, directrice du CDC et auteur de l'étude. "Nos pires craintes se confirment". Si la tendance se poursuit, le taux de mortalité de l'obésité dépassera celui du tabac, a-t-elle ajouté. Entre 1990 et 2000, la proportion de morts dues à la mauvaise alimentation et l'inactivité est passée de 14% à 16,6% du total des décès, soit "la plus forte progression parmi toutes les causes de mortalité", note le rapport. Les décès attribuables au tabagisme sont en diminution, passant de 19% en 1990 à 18,1% en 2000, ainsi que ceux liés à l'alcool, passés de 5% à 3,5%, selon le détail de l'étude publiée dans le Journal of the American Medical Association (JAMA) daté du 10 mars. Les auteurs de cette compilation statistique notent qu'environ la moitié des morts aux Etats-Unis (sur un total de 2,4 millions en 2000) peut être attribuée à des comportements évitables, comme la cigarette, la mauvaise alimentation et la mauvaise hygiène de vie en général. JAMA : http://jama.ama-assn.org/
|
|
|
|
|
|
|
|
Diminuer le taux de mauvais cholestérol, très en dessous des valeurs admises jusque-là, grâce à un traitement puissant, améliore de façon significative les chances de survie après un infarctus du myocarde et préviendrait les récidives. Tels sont les résultats d'une nouvelle étude menée avec des statines, famille de médicaments qui diminue le taux de cholestérol LDL, une molécule à l'origine de plaques graisseuses (athérome) sur les parois des vaisseaux. L'infarctus se produit lorsqu'une partie de la plaque se détache et bouche l'artère. L'étude a &té présentée lundi lors du Congrès scientifique annuel du Collège américain de cardiologie à La Nouvelle-Orléans Elle compare l'action de deux de ces statines, une statine ancienne, la pravastatine, et une de nouvelle génération, plus puissante, le Tahor. La pravastatine est fabriquée par les laboratoires Bristol-Myers-Squibb, le Tahor par la firme Pfizer.L'étude souligne combien il est important que le taux de cholestérol LDL diminue de façon importante, notamment chez les personnes qui viennent d'être victimes d'un infarctus. En effet, les personnes dont les résultats ont été les plus concluants avaient un taux de cholestérol diminué de moitié, soit de 0,62 g/l, alors que l'objectif habituel souhaité jusque-là se situait autour de 1g/l", explique le Dr Christopher Cannon de l'hôpital Brigham et Women's de Boston. L'étude compare la prise quotidienne de 40 mg de Pravastatine à la prise quotidienne de 80 mg de Tahor, soit les doses autorisées les plus élevées. Or selon les résultats, le Tahor arrive en tête. Dans l'étude menée par Christopher Cannon, 4.162 patients ayant été victimes d'un infarctus récent, ou d'une angine de poitrine, étaient traités au hasard par une des statines. Après deux ans de suivi, 26% des personnes sous pravastatine, étaient décédées ou victimes de nouveaux incidents: nouvel infarctus, pontage, réhospitalisation pour angine de poitrine ou encore accident vasculaire cérébral. Dans le groupe prenant du tahor, elles n'étaient que 22%. Et pourtant, le taux de cholestérol LDL était descendu à 0,95g/l dans le premier groupe, soit un résultat satisfaisant, selon les critères actuellement en vigueur. New England Journal of Medicine : http://content.nejm.org/cgi/content/abstract/NEJMoa040583
|
|
|
|
|
|
|
|
Cela ressemble à une pilule miracle. Le groupe français Sanofi-Synthélabo travaille à la mise au point d'un nouveau médicament permettant de lutter en même temps contre deux des plus importants facteurs de mortalité: le tabagisme et l'obésité. Présentée lors d'un congrès du Collège américain de cardiologie à La Nouvelle-Orléans, la nouvelle molécule pourrait susciter un vif intérêt aux Etats-Unis, où les autorités ont lancé mardi une campagne contre l'obésité. Le rimonabant, qui pourrait être commercialisé dans un an ou deux, est susceptible d'offrir un remède aux problèmes de santé les plus graves des Américains. Le tabac est encore la principale cause de mortalité dans le pays, mais l'obésité pourrait bientôt lui ravir ce titre. Les deux fléaux combinés tuent plus de 800.000 Américains par an et font également des ravages dans le reste du monde. Lors de la conférence à La Nouvelle-Orléans, les médecins ont souligné que la nouvelle pilule pourrait être d'une grande aide pour les personnes qui n'arrivent pas, par leur seule volonté, à adopter une hygiène de vie plus saine. Sanofi-Synthélabo compte demander le feu vert des autorités américaines pour commercialiser le rimonabant après que des études complémentaires auront été achevées l'an prochain. Lors d'un essai, la pilule a aidé les participants à perdre neuf kilos sur une année. Une autre étude a conclu qu'elle permettait de presque doubler le taux de succès des fumeurs voulant arrêter la cigarette, au moins sur le court terme. "Nous pensons que ce pourrait être le composé idéal pour les personnes qui ont un surpoids et qui fument", a expliqué le Dr Robert Anthenelli, de l'université de Cincinnati, qui a dirigé l'étude sur le tabagisme. L'action du médicament est fondée sur une approche complètement nouvelle: la pilule bloque des circuits du cerveau à l'origine de la sensation de manque. Dans le cas d'une personne qui mange trop et qui fume, ce "système endocannabinoïde" est stimulé excessivement, ce qui conduit le sujet à manger et à fumer encore plus. Lors de la plus importante étude menée sur la pilule, le Dr Jean-Pierre Després, de l'université de Laval à Québec, a enrôlé 1.036 volontaires affichant une surcharge pondérale et un ventre imposant qui leur faisaient courir un risque élevé de maladie cardiaque. Les patients ont reçu la consigne de réduire leur apport calorique quotidien de 600 calories et ont reçu au hasard le rimonabant ou un placebo. Après un an, ceux qui avaient pris les doses les plus fortes de rimonabant ont vu leur poids diminuer de neuf kilos et leur taille s'affiner de 7,6 centimètres. Par comparaison, ceux qui ont reçu le placebo n'ont perdu que 2,2 kilos. Le médicament a également permis une augmentation du niveau de HDL, le "bon" cholestérol, de 23 % tout en réduisant les triglycérides de 15 %. L'autre étude menée par le Dr Anthenelli a testé la pilule pendant dix semaines sur 787 fumeurs qui consommaient un paquet par jour et n'arrivaient pas à arrêter la cigarette malgré leurs bonnes résolutions. Résultat: 28% de ceux qui ont pris le médicament ont réussi a éviter la cigarette pendant au moins un mois, contre 16% pour ceux qui ont reçu un placebo. Le Dr Anthenelli constate que le rimonabant a permis à un tiers des sujets ayant cessé de fumer de perdre du poids simultanément alors qu'habituellement, les fumeurs prennent 3 à 4,5 kilos lorsqu'ils arrêtent. Au total, sept grandes études sur le rimonabant sont en cours, incluant 6.600 volontaires voulant perdre du poids et 6.500 voulant arrêter de fumer. AP : http://fr.news.yahoo.com/040310/5/3or6a.html
|
|
|
|
|
|
|
|
La co-infection par le virus VIH-sida et un autre virus inoffensif améliore nettement la survie des patients, selon les résultats d'une étude à paraître jeudi aux Etats-Unis, qui donne une nouvelle piste thérapeutique aux chercheurs. L'effet retardateur de ce virus (GBV-C, longtemps appelé hépatite G), déjà décrit lors d'une conférence sur le sida à Boston (Massachusetts, nord-est) en février 2003, est confirmé par une étude menée sur 271 hommes suivis pendant 15 ans et publiée dans l'édition du 4 mars de la revue New England Journal of Medicine. Les personnes infectées par le VIH "pourraient bénéficier de l'infection par cet autre virus", a estimé le virologue Roger Pomerantz, en espérant que les chercheurs réussissent à comprendre l'interaction entre les deux virus pour en tirer le meilleur parti pour les malades. Pour ce professeur de la Thomas Jefferson University à Philadelphie (Pennsylvanie, est), il s'agit du premier cas connu où l'infection par deux virus a un effet meilleur que l'infection par un seul. "Les personnes qui sont co-infectées sont en meilleure santé que celles qui ne sont infectées que par le VIH, elles mettent plus de temps à développer le sida et ont moins de risque d'en mourir", a commenté le médecin. "Si nous réussissions à comprendre le mécanisme qui sous-tend ce phénomène, nous pourrions peut-être copier la nature et mettre au point une molécule (à l'effet) identique et un meilleur antiviral", a encore estimé le professeur Pomerantz. "Les hommes non infectés par le GBV-C cinq à six ans après la séroconversion (moment de l'infection par le virus du sida) avaient 2,78 fois plus de risque de mourir que les hommes ayant une virémie persistante du GBV-C", écrivent les auteurs de l'étude, coordonnée par le National Institute of Allergy and Infectious Diseases de Bethesda (Maryland). Le virus GBV-C ne provoque aucune maladie connue. NEJM : http://content.nejm.org/cgi/content/short/350/10/981
|
|
|
|
|
|
|
|
Des essais sur l'efficacité d'un nouveau vaccin antivariolique ont donné des résultats encourageants sur des souris et des singes, ce qui pourrait déboucher sur un vaccin mieux toléré par les personnes dont la santé ne permet pas la vaccination actuelle, ont annoncé des chercheurs américains mercredi. Des singes traités avec le virus modifié de la vaccine Ankara (MVA) ont été immunisés contre la variole du singe, aux effets similaires à la variole chez l'homme, tandis que ceux qui n'avaient pas été inoculés sont tombés gravement malades, selon les travaux du chercheur Bernard Moss, des Instituts nationaux de la Santé américains. Le candidat vaccin a été testé par la même équipe sur des souris au système immunitaire affaibli, qui ont très bien réagi, tandis que d'autres souris ayant reçu le vaccin antivariolique traditionnel Dryvax étaient mortes de ses effets secondaires, selon des travaux publiés dans les Comptes rendus de l'académie des sciences américaine (PNAS). Les chercheurs en déduisent que ce nouveau vaccin pourrait être une solution de rechange pour vacciner les personnes à immunité réduite, comme les malades du sida, qui ne peuvent pas aujourd'hui être protégées contre la variole. L'éradication de la maladie a été proclamée par l'Organisation mondiale de la santé (OMS) en 1980. Mais la variole est considérée comme une arme de terreur potentielle, qui pourrait être utilisée pour semer la panique et provoquer des centaines de milliers de morts. En principe, seuls deux laboratoires, l'un américain et l'autre russe, sont détenteurs du virus. On craint cependant que des échantillons du virus soient tombés aux mains de personnes malveillantes. L'actuel vaccin contre la variole est fabriqué à partir de la vaccine ou "variole de la vache". L'idée d'utiliser ce virus pour immuniser l'homme date du XVIIIe siècle et revient au médecin anglais Edward Jenner. PNAS : http://www.pnas.org/
|
|
|
|
|
|
|
|
Une équipe de chercheurs français vient de montrer que donner au rat un supplément en acides gras poly-insaturés augmente chez lui l'efficacité du traitement par radiothérapie de tumeurs mammaires. Ces travaux coordonnés par Philippe Bougnoux, directeur de l'unité "nutrition, croissance et cancer" de l'Institut national de la santé et de la recherche médicale (INSERM) à Tours, ont été publiés jeudi dans l'"International Journal of Cancer". Ils soulignent qu'un régime enrichi en acides gras poly-insaturés oméga-3 entraîne une diminution de 60% de la taille des tumeurs douze jours après le début de la radiothérapie, contre 31% de diminution dans le groupe témoin. Dans un communiqué, les chercheurs soulignent qu'"au-delà des prédispositions génétiques, il est admis que des facteurs alimentaires sont également associés au risque d'apparition du cancer". L'équipe INSERM de Philippe Bougnoux étudie depuis une quinzaine d'années les composants de l'alimentation impliqués dans la protection des risques de cancer. Selon elle, "la composition en lipides du tissu adipeux est un indicateur performant des habitudes alimentaires". L'analyse de ce tissu lui a permis d'individualiser, chez la femme, plusieurs acides gras associés à une plus grande protection contre le cancer du sein ou ses récidives. Il s'agit d'acides gras poly-insaturés oméga-3 à longue chaîne, en particulier de l'acide docosahexaenoique (DHA), un acide gras présent dans les aliments d'origine marine. Pour tester l'influence du régime alimentaire sur la sensibilité des tumeurs à la radiothérapie, Philippe Bougnoux et son équipe ont d'abord induit des tumeurs mammaires chez 78 rats par l'injection d'un agent carcinogène au moment de la maturation de leurs glandes mammaires. Deux groupes de rats ont tous reçu le même régime alimentaire de base. Au groupe de rats témoins, les chercheurs apportent en plus une huile contenant une faible teneur en acides gras poly-insaturés (huile de palme). Au groupe expérimental appelé "groupe DHA", est proposée un supplément en huile à haute teneur en acide docosahexaenoique. La radiothérapie débute quand la première tumeur induite chez chaque rat atteint 1,5 cm2. La localisation, la taille et le nombre des tumeurs sont déterminés trois semaines après l'induction des tumeurs. Les chercheurs ont observé une réduction de la taille des tumeurs de 31% dans le groupe contrôle, 12 jours après une dose unique de radiation, contre une régression de 60% de la taille des tumeurs dans le "groupe DHA". Pour les auteurs de l'INSERM, ces résultats doivent être confirmés par d'autres études in vivo. Un essai clinique devrait prochainement débuter sur 50 patients atteints de cancer du rectum. Les premiers résultats sont attendus en 2005. Il tentera d'évaluer l'effet de la radiothérapie après par une intervention nutritionnelle ciblée sur le DHA. Les acides gras poly-insaturés oméga-3 sont présents à l'état naturel dans des poissons gras comme le saumon, le thon frais, le maquereau, le hareng, la sardine et de l'anguille, ou encore dans l'huile d'olive et de colza. IJC : http://www3.interscience.wiley.com/cgi-bin/abstract/106600927/ABSTRACT
|
|
|
|
|
|
|
|
Créée conjointement par le français Biomérieux et l'américain Affymetrix, cette technologie permet d'identifier quel type de produit animal entre dans la composition des aliments. Et renforce ainsi la traçabilité des produits et la fiabilité des étiquetages. Le laboratoire français Biomérieux, en association avec la société américaine Affymetrix, a développé «une puce à ADN de haute densité» et créé un test baptisé FoodExpert ID, capable de vérifier la composition des aliments pour les hommes comme les animaux. Selon l'accord de partenariat et de recherche et développement (R&D), Affymetrix a fourni «le support solide sur lequel sont matérialisées plusieurs milliers de sondes» grâce auxquelles est détecté l'ADN, explique un des chercheurs de Biomérieux, interrogé par ZDNet. Et le laboratoire a inséré ses propres sondes sur la puce, capables d'identifier trois classes de vertébrés (mammifères, poissons, oiseaux), en même temps que trente-trois espèces animales (par exemple boeuf, mouton, porc, poulet, dinde, saumon, truite, mais aussi l'homme, le chat domestique ou encore le rat). À partir de cette puce, Biomérieux a développé son offre commerciale Food Expert ID, un test complet qui permet d'extraire l'ADN, de photocopier le gène pour identifier l'espèce, puis d'analyser le résultat depuis la puce. Cette solution cible en priorité «les laboratoires de services qui réalisent des prestations pour le compte de tout intermédiaire de la chaîne agro-alimentaire», poursuit le chercheur. Le test fonctionne aussi «bien sur des échantillons d'alimentation crue, que sur les produits transformés à haute température et pression, comme certains aliments pour les animaux». Cette technologie permet ainsi de «renforcer la fiabilité des étiquetages et de garantir la traçabilité des produits tout au long du processus industriel», poursuit le laboratoire. Il est ainsi possible non seulement de confirmer que des raviolis au boeuf contiennent bien du boeuf, mais aussi de détecter si aucune autre viande n'a été ajoutée dans leur composition. Il en va de même pour les aliments pour animaux, alors que l'Europe frémit encore du scandale de la vache folle et des farines animales. Food Expert ID permet de vérifier qu'aucun composant d'origine animale n'a été utilisé pour la fabrication de l'alimentation des ruminants, comme l'impose désormais la législation européenne. Ces applications ne constituent pour l'instant que «la partie émergée de l'iceberg», précise le chercheur de Biomérieux. Le laboratoire prévoit en effet, d'ici deux ou trois ans, d'introduire progressivement ce type de solutions pour des tests cliniques, c'est-à-dire pour détecter des virus, des bactéries ou des parasites - en cas d'accident industriel ou d'attaque "bioteroriste" de plus grande ampleur. Biomérieux, qui appartient au groupe pharmaceutique Pierre Fabre SA, a bénéficié de l'expertise et des recherches publiques du Commissariat à l'énergie atomique (CEA). En 2001, alors que Biomérieux avaient déjà pris des contacts avec Affymetrix, le CEA et Pierre Fabre ont créé un laboratoire commun, Apibio, dont l'objectif est de travailler sur tous les débouchés, civils et militaires, des "biopuces" ou autres microsystèmes d'analyses biologiques ou biochimiques. ZDNet : http://www.zdnet.fr/actualites/technologie/0,39020809,39144534,00.htm
|
|
|
|
|
|
|
|
Une équipe de physiciens dirigée par Ulrich Bockelmann, du Laboratoire Pierre Aigrain (Ecole Normale Supérieure - CNRS - Universités Paris 6 et 7), vient de démontrer qu'il était possible de réaliser une détection purement électronique de l'ADN, grâce à des réseaux de transistors en silicium. Ce mode de détection utilise la charge intrinsèque de la molécule biologique et, par conséquent, ne nécessite aucun marquage (fluorophores, isotopes radioactifs...). Les chercheurs ont ainsi réalisé un test de détection de l'une des mutations pathogènes les plus fréquentes du génome humain. L'acide désoxyribonucléique ou ADN est un polymère formé de petits modules appelés nucléotides ou bases azotées. Dans la nature, il existe 4 bases qui s'apparient par paires spécifiques pour former l'ADN double brins constitués de deux chaînes de nucléotides. Les chercheurs ont utilisé les propriétés intrinsèques de l'ADN naturellement chargé négativement. Détecter les molécules chargées n'est pas nouveau. Depuis plus d'une trentaine d'années les biologistes utilisent ce que l'on appelle un FET ou transistor à effet de champs. Au lieu de n'utiliser qu'un seul FET, Ulrich Bockelmann et ses collègues du laboratoire Pierre Aigrain ont basé leurs travaux sur un réseau de transistor, permettant d'améliorer considérablement les performances de détection. Afin de vérifier l'efficacité de son système, Ulrich Bockelmann s'est associé avec des biologistes de l'Institut Pasteur. Mission : détecter électroniquement une mutation spécifique sur le chromosome 13. Les résultats sont plutôt concluants. D'après Ulrich Bockelmann, son système de détection ouvre la voie à un grand nombre d'application dans le domaine biomédical. CNRS : http://www2.cnrs.fr/presse/communique/433.htm
|
|
|
|
|
|
|
|
La différenciation de cellules souches embryonnaires de souris (cellules appelées ES) peut être induite sous l'effet de facteurs de différenciation. Les facteurs connus jusqu'à présent agissent sur les ES au niveau des récepteurs nucléaires. L'acide rétinoïque, par exemple, permet de les différencier en plusieurs types cellulaires : hématopoïétique (précurseur des différentes cellules du sang), glial (tissu de soutien des cellules nerveuses), ou nerveux. Jusqu'à ce jour, seuls des récepteurs nucléaires et membranaires aux facteurs de croissance avaient été identifiés sur les ES. Des chercheurs de l'Inserm ont découvert pour la première fois des récepteurs aux protéines G sur les cellules souches embryonnaires de souris, qui peuvent fixer d'autres facteurs de différenciation. Pour parvenir à ces conclusions, les chercheurs ont sélectionné deux peptides se fixant tous deux sur des récepteurs aux protéines G et comportant une grande homologie de structure. L'un, appelé VIP (Vasoactive Intestinal Polypeptide), est exprimé très tôt dans l'embryogénèse, au niveau du cerveau. L'équipe de Pierre Gressens (Inserm 9935) avait déjà démontré qu'il est un facteur de croissance pour les embryons de souris. L'autre peptide, le PACAP (Pituitary Adenylate Cyclase-Activating Polypeptide) est exprimé dans le cerveau au cours du développement. En traitant les ES avec ces deux peptides, les chercheurs ont pu montrer qu'ils s'y fixaient. D'autre part, ces expériences ont montré que VIP et PACAP agissent comme des facteurs de différenciation spécifique. En fixant ces peptides, les ES se différencient en cellules nerveuses uniquement. Les tests ont montré que toutes les cellules obtenues sont de type neuronal. En effet, les cellules ont développé des prolongements qui créent un réseau cellulaire et plus la quantité des peptides augmente, plus le nombre de ces prolongements et leur longueur augmentent. De plus, elles synthétisent des marqueurs spécifiques aux neurones. Enfin, les tests de stimulation d'AMP cyclique et de calcium intracellulaire ont démontré la fonctionnalité des récepteurs à ces peptides sur ces cellules neuronales. L'ensemble de ces résultats montre donc que les peptides VIP et PACAP favorisent la différenciation spécifique des ES en cellules neuronales. Ces études seront approfondies notamment pour déterminer si la différenciation induite peut conduire à une spécialisation cellulaire d'un type neuronal particulier. Ces premiers résultats ouvrent des nouvelles voies de recherche tant fondamentales qu'appliquées. La fabrication de cellules nerveuses à partir de cellules souches pourrait en effet être utile pour régénérer des tissus nerveux lésés. INSERM : http://www.inserm.fr/servcom/servcom.nsf/
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|