RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 214
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 25 Octobre 2002
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Haut débit : prochaine étape, le VDSL?
Tout le droit français et la jurisprudence en ligne gratuitement
Une nouvelle technologie de transmission a hauts débits pour le traitement des grands ensembles de données
Renater passe la troisième vitesse
Le Massachusetts Institute of Technology choisit la gratuité sur le Web
Images 3D en temps réel
Intel mise sur le PC portable et les réseaux sans fils
Des milliers d'ordinateurs pour former une protéine
Pas de télévision numérique terrestre avant fin 2004 en France
Le Meilleur du cinéma français en ligne
Avenir
Des sacs anti-bombe bientôt disponibles
Matière
L'électronique moléculaire progresse
Espace
Le Japon fait voler avec succès un prototype de navette spatiale
Terre
Climat: des scientifiques plaident pour les petits projets forestiers
L'électricité américaine très émettrice en CO2
Vivant
Hausse du risque de maladies cardio-vasculaires dans les pays pauvres
Un logiciel qui dépiste les cancers de la prostate
Maladie d'Alzheimer : l'aspirine en prévention ?
Plus de la moitié des Français estiment que le système de santé va se dégrader
Le stress au travail double le risque de mortalité cardio-vasculaire!
Première : une protéine artificielle recombine les chromosomes
Recherche
Les entreprises freinent leurs dépenses de recherche
Publications scientifiques : la France recule
Edito
L'informatique autonome va accélérer l'émergence de la société cognitive



Le 27 avril 2001, IBM présentait à la presse son projet "eLiza" qui visait, d'ici 5 ans, à doter les serveurs de la capacité de s'auto-administrer afin notamment d'améliorer leurs performances et aussi de faire face à la pénurie d'informaticiens. (voir @RTflash 156 du 21-07-01). Daniel A. Powers, directeur des innovations technologies Internet chez IBM Corporation, avait présenté les avancées du projet eLiza lors du colloque Le robot, avenir de l'homme ou homme de l'avenir" qui s'est tenu au Sénat le 27 juin 2001. Il avait souligné que l'objectif d'eLiza est de réduire au maximum les interventions humaines dans la gestion des serveurs au point de les rendre autonomes en les laissant décider en temps réel de leur évolution. Les serveurs pourront sauvegarder eux-mêmes leurs données en cas d'incident, se reconfigurer en fonction des nouveaux programmes et données et mieux résister aux intrusions. L'interface avec les utilisateurs sera facilité par des applications comportant des modules d'intelligence artificielle. Au cours de ce colloque, Daniel A. Powers avait annonçait la sortie de Virtual Help Desk, une application dotée de composants d'intelligence artificielle et capable comprendre les griefs de tel ou tel utilisateur confronté à un problème. Le 28 septembre dernier, le Dr Matthias Kaiserswerth, directeur du laboratoire IBM de Zurich, au coeur de ces recherches, , donnait une conférence très attendue sur les tendances dans le domaine de l'informatique. Il mis l'accent à cette occasion sur l'«IBM Global Technology Outlook» en confirmant que ce projet de recherche de plus de 5 milliards de dollars, le plus important jamais mis en oeuvre par IBM, visait, dans le prolongement du projet eLiza, à mettre au point "l'informatique autonome"( Autonomic Computing). IBM a donc annoncé il y quelques jours la réorganisation de toute sa division Recherche (huit laboratoires, 3000 employés), avec une dotation de 2 milliards de dollars par an sur 3 à 5 ans, autour du nouveau défi technologique : l'informatique autonome. Cet objectif très ambitieux dépasse largement le seul domaine scientifique et industriel et repose sur un véritable renversement de paradigme : ce n'est pas l'homme qui doit apprendre à s'adapter aux machines pour les utiliser, mais les ordinateurs et réseaux qui doivent évoluer pour s'adapter aux nouvelles demandes des utilisateurs, qu'il s'agisse d'entreprises ou d'administrations. Face à un réseau dont la complexité de gestion croît comme le carré du nombre de machines connectées, l'homme ne peut plus, sauf à accepter des effets contre-productifs de plus en plus insupportables et coûteux, passer la majeure partie de son temps à réparer, configurer, administrer, surveiller, et entretenir des systèmes informatiques. Il faut donc conférer aux machines et aux réseaux la capacité de prendre en charge la complexité qui a émergé à mesure de leur développement technique et de leurs conditions d'appropriation par les entreprises et plus largement par le grand public. Ce concept et cet objectif d'informatique autonome a été remarquablement développé dans un manifeste de 22 pages rédigé par Paul Horn, directeur de la division Recherche d'IBM monde, et envoyé en octobre 2001 à 75 000 chercheurs et ingénieurs du monde entier. Dans ce document Horn s'inspire de la conviction exprimée il y a presque un siècle par le grand mathématicien Alfred North Whitehead qui déclarait "La civilisation progresse par l'automatisation croissante des tâches et fonctions ce qui permet de libérer l'homme qui peut ainsi consacrer de plus en plus de temps à la réflexion théorique et conceptuelle". D'un point de vue plus concret, Horn rappelle cette évidence : "au rythme technologique, économique, éducatif où vont les choses, il n'y aura jamais assez de personnes pour configurer et maintenir le fonctionnement opératoire de nos futurs réseaux informatiques". Il est donc absolument nécessaire que l'informatique franchisse un saut qualitatif et devienne capable de s'autogérer ce qui suppose notamment que l'ordinateur doit se connaître lui-même, c'est à dire disposer d'une représentation de ses ressources, de son état, de ses composants et de ses connexions et interactions avec les composants des autres systèmes qui l'environnent. De même, les machines doivent être capables de s'identifier comme telles pour se fédérer dynamiquement et en former de nouvelles. Un système doit pouvoir se reconfigurer automatiquement en réponse à des conditions d'utilisation imprévisibles. Il doit s'adapter à la demande, par exemple par duplication de logiciels et documents sur le réseau et par réallocation de ses ressources (mémoire, calcul, stockage, bande passante...). D'une façon plus générale, un tel système doit chercher automatiquement les moyens d'optimiser son fonctionnement.

Horn précise que l'ordinateur autonome devra être Il doit aussi être capable :

- de s'autoconserver et de s'autoréparer, c'est à dire de maintenir son activité en surmontant les événements routiniers ou extraordinaires dus aux dysfonctionnements de ses composants. Cet "instinct de conservation" doit, de même, lui permettre de réagir à des attaques de toutes sortes (virus, hacking, piratage), en anticiper les menaces et en prenant les mesures adéquates.

-de s'autooptimiser et s'autoconfigurer de manière à utiliser au mieux et en toutes circonstances ses ressources.

A partir de ce cadre, Horn définit les "7 commandements de l'ordinateur autonome :

-1/Apprendre à se connaître lui-même - Une parfaite connaissance de soi et de son environnement implique, pour un système informatique, que chacun de ses éléments indique son état et ses performances à un "organe" de supervision. L'humain, lui, se contentant d'un simple tableau de bord.

-2/Détecter les pannes et les éviter - Si panne il y a, il faut qu'elle soit détectée. L'élément perturbateur doit alors être isolé, et ses tâches en cours déportées automatiquement vers un autre système. Mais l'idéal restera bien entendu toujours que le système puisse prévoir la panne.

-3/Réparer les pannes et les erreurs commises - Puisque les pannes et les erreurs humaines ne pourront jamais être totalement évitées, des mécanismes de réparation sont essentiels et doivent être intégrés au système. Les ordinateurs aussi doivent avoir leur fonction annuler.

-4/Garder la maîtrise des données - Si un ordinateur tombe en panne, ses disques durs ne seront plus accessibles. Les données doivent donc être conservées indépendamment des machines qui les traitent, et être partagées entre tous les systèmes.

-5/S'optimiser, donc s'autoéduquer - L'ordinateur doit apprendre à optimiser de lui même le fonctionnement du système d'exploitation ou d'une base de données, à rechercher une meilleure voie de communication et, même, à tirer parti de ses propres erreurs.

-6/Comprendre les intentions des humains - Autonomes ou pas, les machines travaillent quand même pour l'homme ! Elles doivent comprendre nos intentions, dénicher l'information où qu'elle se trouve et la présenter différemment selon l'appareil utilisé

-7/L'ordinateur autonome ne peut pas se concevoir et exister dans un environnement clos. Il doit pouvoir évoluer dans un environnement ouvert, hétérogène et caractérisé par la multiplicité des normes et protocoles informatiques. IL ne peut donc s'agir d'une solution-propriétaire. Paul Horn souligne que dans la nature de multiples organismes et espèces coexistent et sont interdépendants. Il doit en être de même pour l'informatique.

Comme le souligne lui même Horn, l'objectif de développer une technologie, qui s'apparentera au système nerveux humain, capable de gérer elle-même les fonctions de base, comme notre corps est capable de gérer de manière automatique et quasiment inconsciente une multitude de fonctions (http://www.research.ibm.com/autonomic). Cette métaphore biologique est très puissante car il s'agit bien de concevoir des machines dont l'usage sera complètement intuitif et qui pourront répondre de manière simple et "naturelle" aux demandes les plus variées. A terme elles également seront capables, comme l'être humain, d'anticiper les demandes spécifiques en développant par autoapprentissage une connaissance personnelle des besoins et des goûts de leurs utilisateurs. Les conséquences d'une généralisation au réseau mondial de l'internet de ces systèmes informatiques autonomes sont considérables non seulement sur le plan industriel et économique mais aussi sur le plan social, culturel et éthique. On imagine en effet les extraordinaires potentialités cognitives d'un réseau planétaire autogéré qui comptera 2 milliards de machines connectées à la fin de cette décennie. Ces ressources cognitives immenses seraient utilisables par le plus grand nombre à la fois beaucoup plus simplement et à un coût bien inférieur qu'aujourd'hui grâce aux économies de gestion et d'échelle réalisées. On peut enfin se demander si, à plus long terme, un tel réseau planétaire autonome, autogéré et capable d'autoapprentissage ne finira pas par devenir conscient de sa propre existence et par concevoir ses propres finalités. Cette perspective peut nous sembler encore lointaine mais elle fait désormais partie du champ des possibles et doit être intégrée à notre réflexion prospective sur l'avenir de l'humanité.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Haut débit : prochaine étape, le VDSL?
Samedi, 26/10/2002 - 00:00

En décembre dernier, en présentant le décodeur vidéo DSL développé conjointement avec Thomson Multimédia, Serge Tchuruk, le PDG d'Alcatel, n'y allait pas par quatre chemins : "L'univers concurrentiel des télécoms est sur le point de basculer. Nous allons passer d'une concurrence frontale entre opérateurs historiques et opérateurs alternatifs à une concurrence frontale entre opérateurs télécoms et câblo-satellito-opérateurs". Près d'un an plus tard, le marché est sur le point de donner raison au patron d'Alcatel. Après avoir calé sur le câble et sur le satellite, les acteurs télécoms tiennent leur nouvelle arme pour réinvestir l'univers du broadcast vidéo : la technologie DSL. "D'un point de vue technologique, la ligne d'abonné numérique à très haut débit (VDSL) peut être considérée comme le successeur de la ligne d'abonné numérique asymétrique (ADSL)." Ces lignes, rédigées au quatrième trimestre 2000 par une équipe d'ingénieurs d'Alcatel, résonnent étrangement aujourd'hui, à l'heure où l'ADSL tient le haut du pavé. Mais depuis trois ans, et dans une relative discrétion, les acteurs des télécoms réfléchissent et travaillent sur la "v2" de l'ADSL. Basée sur la même technologie (les signaux VDSL sont transportés sur une paire de cuivre, simultanément et sans interférence avec la voix téléphonique), le VDSL (appellation officielle : Very high bite rate DSL) permet d'atteindre de très hauts débits : il peut fournir jusqu'à 52 Mbit/s en flux descendant et 2 Mbit/s en flux montant sur une seule paire de cuivre. Le VDSL permettra l'accés à des applications requérant une bande passante plus conséquente : la vidéo de haute qualité en premier lieu (HDTV et video à la demande), mais aussi les services interactifs ou la transmission de données à grande échelle. Inconvénient du dispositif : sa portée (la distance entre le réseau à haut débit et le terminal de l'utilisateur) est limitée à 300 mètres en configuration de flux descendant maximal. Une contrainte qui, pour l'instant, restreint considérablement le nombre d'abonnés pouvant être raccordés directement via le réseau de distribution. Pour l'instant...

JDN : http://www.journaldunet.com/0210/021018vdsl.shtml

Tout le droit français et la jurisprudence en ligne gratuitement
Samedi, 26/10/2002 - 00:00

Un nouveau site internet mettant en ligne gratuitement l'ensemble du droit français et les grands textes de jurisprudence est accessible depuis mercredi, a indiqué jeudi le secrétaire d'Etat à la Réforme de l'Etat, Henri Plagnol. Jusqu'à présent, ces informations étaient réparties entre un service gratuit, Légifrance, et un service payant, Jurifrance. Depuis sa mise en ligne, un seul site rassemble toutes ces bases de données, disponibles à l'adresse "legifrance.gouv.fr". D'un simple clic, les internautes ont accès à l'intégralité des codes, lois et règlements avec leurs dernières actualisations, aux conventions collectives, aux traités internationaux, au droit communautaire, ainsi qu'à tous les textes de loi en discussion devant le Parlement. Principale nouveauté: l'accès aux grandes décisions émanant du Conseil d'Etat, de la Cour de cassation, mais aussi des cours administratives d'appel et de certaines cours d'appel et tribunaux. "Nous sommes dans une société de liberté, pas dans une société ou de grands médiateurs s'interposent entre ceux qui font le droit et ceux qui le vivent", a commenté devant la presse le secrétaire général du gouvernement, Jean-Marc Sauvé, dont dépend la publication des Journaux Officiels (JO). Conformément à ce qu'avait préconisé le Commission nationale de l'informatique et des libertés (CNIL), les noms des personnes visées dans les décisions rendues par les juridictions administratives et judiciaires n'apparaissent pas.

Légifrance : http://www.legifrance.gouv.fr/citoyen/index.ow

Une nouvelle technologie de transmission a hauts débits pour le traitement des grands ensembles de données
Samedi, 26/10/2002 - 00:00

Lors de la conférence iGRID2002 sur les grilles de calcul a haute performance, les chercheurs John Mambretti (Northwestern University) et Robert Grossman (University of Illinois at Chicago) ont présenté dans le cadre d'une application de datamining une nouvelle technique de transmission appelée " Photonics Data Services " (PDS), permettantd'envoyer sur l'Internet des données a un dépit de 2,8 Gbit/s, soit 500 fois plus élevé que les débits permis par le protocole TCP. En combinant le protocole IP avec d'autres protocoles de réseaux developpes par les deux universités, le PDS permet d'optimiser l'utilisation des réseaux de fibres optiques et rend possible l'analyse a distance de très grands ensembles de données. Les domaines d'application vises comprennent la bio-informatique, les sciences de la terre et la conception industrielle.

Gridtoday : http://www.gridtoday.com/breaking/141.html

Renater passe la troisième vitesse
Samedi, 26/10/2002 - 00:00

Les universités, établissements scolaires et centres de recherches scientifiques français verront, d'ici fin octobre, la bande passante de leur accès internet montée à 2,5 Gbits par seconde. Il s'agit de l'une des principales améliorations de la troisième version du réseau national de télécommunications pour la technologie, ou Renater-3. Gérée par le groupement d'intérêt public éponyme, cette infrastructure proposait jusqu'alors au CNRS ou à l'Inria un accès à 622 Mbps. Avec le nouveau réseau, la bande passante est donc multipliée par quatre. «De quoi échanger des documents très volumineux», explique un porte-parole de Renater. Autre amélioration notable, le réseau est désormais organisé, non plus en étoile depuis Paris, mais en un maillage régional. Concrètement, cela signifie qu'il n'est plus nécessaire de passer par la capitale pour relier, par exemple, un centre de recherche situé en Bretagne avec une université du sud de la France. «Cela permet ainsi d'économiser de la bande passante et d'éviter également des déconnexions en cas de coupure d'une liaison, car il existe désormais un grand nombre de chemins pour relier deux points du réseau», précise-t-on chez Renater. Enfin, dernier avantage important de Renater-3, le réseau est désormais compatible avec l'IPv6, la prochaine version du protocole internet (le langage commun à tous les équipements du réseau). «Cette compatibilité va libérer des adresses IP», conclut-on chez Renater. En effet, l'IPv6 prévoit de coder l'adresse IP, ces numéros qui permettent d'identifier chaque ordinateur connecté au réseau, sur huit séries de chiffres (au lieu de quatre actuellement), ce qui augmentera considérablement le nombre d'adresses disponibles.

ZDnet : http://news.zdnet.fr/story/0,,t118-s2124226,00.html

Le Massachusetts Institute of Technology choisit la gratuité sur le Web
Samedi, 26/10/2002 - 00:00

Comme la plupart des universités américaines, le Massachusetts Institute of Technology (MIT) n'a pas la réputation d'être gratuit. Ce prestigieux établissement privé, qui compte parmi ses enseignants les plus grands noms de la recherche scientifique, impose des frais de scolarité d'environ 27 000 dollars par an. Et n'accepte que les étudiants les plus brillants. Mais depuis le 30 septembre, il est possible de consulter sur Internet le contenu de certains cours du MIT - sans dépenser le moindre dollar et sans passer le moindre examen, et sans bien sûr obtenir aucun diplôme. L'université vient de lancer la phase pilote du projet OpenCourseWare : 32 cours ont été mis en ligne, sur des sujets aussi divers que l'hydrodynamique marine, la propagation des ondes ou encore la théorie linguistique appliquée à la langue japonaise. Chaque cours est présenté sous la forme d'un programme d'études et de notes plus ou moins détaillées, accompagnés de bibliographies, d'exercices et examens corrigés et de divers supports pédagogiques. Un professeur propose aussi des vidéos de ses conférences d'algèbre. A première vue, l'initiative n'a rien de révolutionnaire : aux Etats-Unis et ailleurs, nombre d'universités ont déjà mis en ligne une partie de leurs ressources éducatives. Mais souvent, ces sites sont réservés à leurs étudiants. Ou bien ils relèvent d'efforts ponctuels. En comparaison, le projet OpenCourseWare du MIT se distingue par son ampleur (d'ici à 2006-2007, ce sont tous les cours du MIT, soit environ 2 000, qui devraient être publiés en ligne), son budget (un investissement initial de 11 millions de dollars sur deux ans, provenant de deux fondations), et sa gratuité. "L'objectif du projet OpenCourseWare est de promouvoir la libre diffusion des savoirs au moyen des nouvelles technologies", explique Jon Paul Potts, responsable de la communication du MIT. "Nous encourageons les utilisateurs - enseignants, étudiants ou autodidactes de tous les pays - à télécharger le contenu de nos cours, à l'utiliser, à le distribuer et à l'adapter ou à le traduire en fonction de leurs besoins." Avec une seule restriction : il est interdit d'utiliser ce contenu à des fins commerciales. En cela, le projet s'inspire directement du Free Software Movement*, qui compte d'ailleurs de nombreux défenseurs au sein du département d'informatique du MIT. Le MIT ne cache pas ses ambitions : l'université espère, à terme, inspirer d'autres établissements à diffuser gratuitement leurs ressources éducatives et à créer un réseau mondial d'échange de connaissances, qui "bénéficiera à la qualité de l'enseignement dans le monde". Le MIT mettra également gratuitement à la disposition d'autres universités les outils et l'architecture informatiques développés dans le cadre du projet. Afin d'aider des établissements moins fortunés à diffuser leurs ressources à moindre coût. Dans l'immédiat, la mise en ligne des trente-deux premiers cours semble avoir été très favorablement accueillie. Au 15 octobre, 220 000 internautes avaient consulté le site d'OpenCourseWare. Les responsables du projet indiquent avoir reçu plus de 2 500 messages d'encouragement et de remerciements d'instructeurs et d'étudiants, "originaires de 177 pays et de tous les continents, Antarctique compris". Quant aux enseignants du MIT, certains hésitaient au départ à diffuser sur Internet le fruit de nombreuses années de travail. Mais "dans l'ensemble, affirme Jon Paul Potts, la grande majorité d'entre eux sont favorables au projet et à sa philosophie. Et ils restent maîtres de leurs droits d'auteur". Les premiers participants se montrent enthousiastes. "L'échange d'informations et de méthodes entre enseignants et chercheurs ne peut être que bénéfique", explique Paul Sclavounos, professeur d'architecture navale à MIT. "Le projet permet aussi d'établir des standards, des références... Toute personne intéressée peut savoir ce qu'il faut absolument connaître dans une discipline donnée." Difficile alors de ne pas faire de comparaison. Beaucoup d'étudiants d'autres établissements se sont empressés de regarder si les cours de maths ou d'informatique de leur université étaient à la hauteur de ceux de MIT. Sur un forum en ligne, plusieurs ont reconnu que l'enseignement du MIT était plus "intensif", plus "approfondi". Mais la comparaison aura au moins permis à un étudiant de "démythifier MIT", qui offre au bout du compte les mêmes cours que son université. Le projet OpenCourseWare suscite également un certain intérêt à l'échelle internationale. L'Unesco et la Banque mondiale, en particulier, ont conscience des nombreux avantages que les pays en développement pourraient tirer de la libre diffusion des savoirs et coopèrent avec le MIT. Au cours d'un forum organisé en juillet dernier à l'Unesco sur "l'usage des didacticiels libres dans les pays en développement", certains participants ont toutefois indiqué qu'il faudrait non seulement traduire, mais aussi adapter le contenu des cours du MIT à d'autres culture et méthodes d'enseignement, ainsi qu'aux moyens souvent limités dont disposent les universités des pays en développement.

Le Monde : http://www.lemonde.fr/article/0,5987,3416--295113-,00.html

OCW : http://ocw.mit.edu/index.html

Images 3D en temps réel
Samedi, 26/10/2002 - 00:00

X3D Technologies Corporation vient de mettre sur le marche le premier logiciel qui, selon cette entreprise, permet de convertir en temps réel des images de videos en deux dimensions, en videos en trois dimensions (3D). Il est donc maintenant possible de regarder des DVD et des émissions télévisées en direct en trois dimensions par l'intermédiaire de son ordinateur. X3D entend rendre accessible au grand public ce type de logiciel, auparavant réservé aux applications militaires ou médicales et généralement gourmand en ressources informatiques. Ce système nécessite cependant le port de lunettes spéciales et d'un PC relié à un écran cathodique. A l'avenir, X3D espère coder le logiciel dans une puce qui serait intégrée dans des télévisons des 2003.

New Scientist : http://www.newscientist.com/news/news.jsp?id=ns99992884

Intel mise sur le PC portable et les réseaux sans fils
Samedi, 26/10/2002 - 00:00

Intel, le premier fabricant mondial de semi-conducteurs, estime que la demande mondiale d'ordinateurs portables dépasserait bientôt celle de postes fixes, Japon et Corée du sud étant en tête du mouvement. "La croissance des PC mobiles est en train de dépasser celles des postes fixes", a déclaré mardi Melissa McVicker, directrice d'Intel pour l'Asie Pacifique. "Au Japon et en Corée environ 50% des ordinateurs achetés sont des portables (...) et il y a quelques autres pays en Asie qui évoluent rapidement" dans cette direction". Intel a annoncé lundi qu'il investirait 150 millions de dollars dans des entreprises présentes dans la technologie des réseaux sans fil haut débit, un secteur qu'il juge déterminant pour dynamiser son chiffre d'affaires et ses bénéfices dans les prochaines années. McVicker a précisé que les ventes d'ordinateurs portables devraient enregistrer une croissance annuelle globale de 15% à plus de 50 millions d'unités en 2006 contre 30 millions en 2002 et que, d'ici 2004, neuf ordinateurs portables sur dix utiliseraient une technologie sans fil, comme par exemple la Wi-Fi. La Wi-Fi est la technologie à haut débit de réseaux locaux sans fil la plus utilisée actuellement pour connecter des PC, des ordinateurs portables ou des ordinateurs de poche entre eux. Intel doit présenter au premier semestre 2003 un nouveau processeur, baptisé Banias, dédié à l'informatique mobile et doté d'origine du protocole Wi-Fi. La technologie de réseaux locaux sans fil la plus utilisée actuellement pour connecter des PC, des ordinateurs portables ou des ordinateurs de poche entre eux est le protocole 802.11, plus couramment appelé Wi-Fi.

Reuters : http://fr.news.yahoo.com/021022/85/2sye0.html

Des milliers d'ordinateurs pour former une protéine
Samedi, 26/10/2002 - 00:00

Grâce à des dizaines de milliers d'ordinateurs individuels, une équipe de l'université californienne de Stanford a réussi à simuler la formation d'une protéine. La fonction de la protéine dépendant directement de sa forme, comprendre comment la protéine prend telle ou telle forme est très important pour les biologistes. Mais comparer les expériences en laboratoires et les simulations informatiques a toujours été difficile. Deux équipes viennent d'obtenir des résultats très intéressants, publiés cette semaine par la revue Nature dans son édition en ligne. Vijay Pande, de Standford, a mis sur pied le projet Folding@home, qui consiste à mobiliser les capacités inutilisées de milliers d'ordinateurs personnels. Pour cela, il suffit aux volontaires de télécharger un petit software, via internet, et leur ordinateur travaille sans qu'ils s'en occupent. Cette technique est déjà utilisée par le SETI pour la recherche d'intelligence extraterrestre. De son côté, Martin Gruebele, de l'université de l'Illinois, a mesuré la vitesse de formation d'une protéine à partir de 23 acides aminés, les ''briques'' de la protéine. Leur résultat, une moyenne de 7,5 microsecondes, est proche de celui de l'équipe de Pande, 8 microsecondes. La simulation a également montré qu'une protéine peut prendre plusieurs chemins pour atteindre une même forme.

Science&Avenir : http://permanent.sciencesetavenir.com/sci_20021021.OBS1673.html

Pas de télévision numérique terrestre avant fin 2004 en France
Samedi, 26/10/2002 - 00:00

La télévision numérique terrestre (TNT) ne pourra voir le jour, "dans la meilleure hypothèse", qu'à la fin 2004, estime Michel Boyon, ancien président de Radio France, dans un rapport remis vendredi au Premier ministre, Jean-Pierre Raffarin. Trois jours avant une réunion interministérielle, qui doit préluder lundi à la sélection par le Conseil supérieur de l'audiovisuel (CSA) des opérateurs des 33 futurs canaux, ce rapport pointe les difficultés, notamment financières, de cette révolution numérique. La sélection des candidats sera effectuée dans un contexte "nettement moins favorable que celui, frôlant l'euphorie, qui prévalait lors de l'adoption de la loi du 1er août 2000", coup d'envoi du projet français de TNT, constate Michel Boyon. "Par la suite, des retards peu justifiés sont survenus, notamment en 2001", ajoute-t-il. "Aujourd'hui, la conjoncture économique générale, la situation du marché publicitaire, les difficultés dans lesquelles se trouvent certains acteurs de l'audiovisuel français, sont autant de freins à l'essor du projet." Pour Michel Boyon, la TNT, d'abord annoncée pour la fin 2002 puis la fin 2003, "ne pourra être effective, dans la meilleure hypothèse, qu'à la fin de 2004". Il n'en estime pas moins que la diffusion analogique des programmes de télévision, aujourd'hui encore largement prédominante en France (70% des foyers français) malgré l'essor de la diffusion numérique par câble ou satellite, est "appelée à disparaître à un terme encore imprévisible". La plupart des grands pays développés se sont lancés dans le développement de la TNT, qui n'est autre que l'extension de la diffusion numérique à la très classique télévision hertzienne, ce qui devrait permettre de multiplier par six les canaux disponibles. Ainsi, 33 canaux sont d'ores et déjà à attribuer : huit pour la télévision publique et 25 pour la télévision commerciale.

Michel Boyon estime qu'au moins six conditions doivent être remplies pour assurer la viabilité de la TNT :

- une offre de programmes attractive

- la résolution de problèmes techniques - mise en place d'émetteurs numériques, notamment - "sachant que la TNT ne pourra être opérationnelle que du jour où une couverture suffisante de la population sera assurée"

- l'engagement des fournisseurs à proposer des équipements numériques de réception (décodeurs, téléviseurs ...) "à un prix accessible"

- la mise en place d'un système de distribution

- le développement de la production française d'images

- la création d'un "lieu de concertation et de coordination" entre les partenaires du projet.

"Ces conditions relèvent largement de l'initiative privée, qui ne s'engagera qu'avec l'assurance de perspectives d'exploitation économique saines", souligne Michel Boyon. Autrement dit, "le succès de la TNT ne peut être qu'un succès de marché". Certaines de ces conditions relèvent de décisions de l'Etat, souligne aussi Michel Boyon - telles que l'augmentation de la redevance audiovisuelle pour financer la TNT publique. Mais celui-ci "doit aussi veiller au bon emploi des deniers publics". Il insiste cependant sur le fait que les pouvoirs publics "ne peuvent pas se désintéresser de la TNT" et invite le gouvernement à prendre rapidement position. De fait, le ministre de la Culture et de la Communication, Jean-Jacques Aillagon, devrait s'exprimer sur le sujet au début de la semaine. On indique à Matignon que le gouvernement est favorable à la poursuite du développement de la TNT. Michel Boyon propose que l'Etat "accompagne" ce développement, notamment en "préfinançant" les premiers aménagements de fréquences, en favorisant une offre audiovisuelle publique numérique et en programmant l'arrêt des émissions analogiques en fonction du "rythme de renouvellement" des téléviseurs. Si toutes ces conditions sont remplies, il estime que les émissions de la TNT pourraient commencer en décembre 2004, avec un taux de couverture d'environ 40% de la population. "Après quoi, le seuil psychologique des 50% doit impérativement être atteint en 12 mois", ajoute-t-il. Pour Michel Boyon, au rythme actuel, les 110 "points hauts" permettant de couvrir environ 80% de la population ne seront pas opérationnels avant 2008.

Rapport de Michel Boyon sur la TNT : http://www.premier-ministre.gouv.fr/ressources/fichiers/boyon02.p

Le Meilleur du cinéma français en ligne
Samedi, 26/10/2002 - 00:00

Le Meilleur du cinéma français, une société qui réunit 25 producteur indépendants, et d'ici quinze jours entre 35 et 40, a conclu un accord avec Moviesystem pour distribuer ses films en vidéo à la demande sur internet, ont annoncé mercredi les deux sociétés dans un communiqué. Cet accord permet à Moviesystem, distributeur exclusif de 70 sociétés de production dont Pathé et Europa Corp, la société de Luc Besson, d'enrichir son offre de vidéo à la demande déjà conséquente. Moviesystem a développé NetCine, le premier service de vidéo à la demande proposant au grand public plus de 500 films, accessible via les principaux fournisseurs d'accès haut-débit ou à l'adresse http://www.netcine.com. Lancé il y a un an, il compte 8.000 abonnés et propose parmi les dernières nouveautés "Astérix et Obélix : Mission Cléopâtre" d'Alain Chabat, "L'Anglaise et le Duc" de Eric Rohmer et "Ma femme est une actrice" d'Ivan Attal. Créé en avril 2001 pour gérer les mandats de vidéo à la demande des producteurs indépendants, "Le Meilleur du cinéma français", qui réunit des sociétés comme Diaphana, Agat, Fidélité, lancera son propre portail (www. lemeilleurducinema.com) au premier trimestre 2003.

Il veut proposer aux internautes "la consultation interactive d'un contenu informatif de qualité sur le cinéma ainsi que la diffusion en streaming (en continu) et téléchargement de plus de 400 films à travers la plate-forme sécurisée de Moviesystem". Les membres du "Meilleur du cinéma" veulent "prendre en main le destin de leurs films", souligne François Marquis (Les Productions Bagheera), qui préside la société, dont l'animateur est Jean-Luc Ormières, animateur du projet. "Nous voulons créer un site fédérateur, précise-t-il à l'AFP, pour assurer la promotion et l'information sur la vie du cinéma français indépendant à travers les tournages, la préparation des sorties, des chat (discussions) avec les équipes, des making of (films sur la réalisation du film), des reportages", le tout en assurant la sauvegarde des ayants droit et la sécurité contre la piraterie.

NetCine : http://www.netcine.com

Le Meilleur du cinéma français : http://www.lemeilleurducinema.com

(ouverture du site en 2003)

^ Haut
Avenir
Nanotechnologies et Robotique
Des sacs anti-bombe bientôt disponibles
Samedi, 26/10/2002 - 00:00

Deux types de protections anti-bombe originales, destinées à neutraliser le souffle d'une charge explosive dans les avions ou les lieux publics, sortiront d'ici quelques semaines d'un atelier de Luxeuil-les-Bains (Haute-Saône). L'un, le "Ground Bomb Killer" (GBK) ou "tueur de bombe au sol", se présente comme une couronne de 30 à 90 cm de haut, qui vient entourer l'objet suspect, dont le souffle, en cas d'explosion, est canalisé verticalement, épargnant sur un large périmètre les personnes situées à proximité de l'impact. L'autre, le "Flight Bomb Killer" (FBK) ou "tueur de bombe en vol", s'utilise à l'intérieur d'un avion: dans ce sac de protection composé de plusieurs parties gigognes parfaitement étanches, on peut placer une bombe découverte en cours de vol et la faire exploser sans dommage pour l'appareil ou les passagers. Spécialisée dans la fabrication d'équipements militaires, du gilet pare-balle au "couvre-bouche" des canons du char Leclerc, la société SEMA, dont le siège se situe à Nanterre (Hauts-de-Seine), s'était déjà taillé un petit succès l'automne dernier en vendant à de nombreux ministères, médias, administrations un sas de protection anti-anthrax pour l'ouverture de courrier. "Cette fois, nous avons réagi après la tentative d'attentat à l'explosif, en décembre dernier, dans un vol Paris-Miami. Nous nous sommes demandés comment neutraliser une bombe dans ce type d'espace clos, sans mettre en danger la vie des passagers", explique Charles Laubie, PDG de SEMA. Au mois de juin dernier, les brevets du FBK et du GBK étaient déposés. "Le FBK est conçu pour neutraliser une charge de plastique allant jusqu'à 200 g -le maximum qu'un terroriste puisse espérer embarquer dans un avion sans être détecté", indique Patrick Larcher, directeur technique. "Les sacs équipés de protections balistiques dans lesquels est enfermée la bombe absorbent l'effet de souffle, l'ensemble se soulève un peu sous l'impact de l'explosion, de la fumée se dégage mais l'environnement est intact", explique-t-il. La couronne du GBK, disponible en cinq tailles, en toile noire à l'extérieur, polycarbonate et aramide à l'intérieur, forme une cheminée qui oriente le souffle vers le haut. Son tissu, qui peut s'allonger jusqu'à 500%, est conçu pour supporter une poussée de quinze tonnes. "C'est beaucoup plus efficace que les couvertures anti-bombe ou les écrans balistiques qu'on utilise actuellement, selon Patrick Larcher. Dans un aéroport, un stade, un centre commercial, le dispositif peut être mis en place rapidement par n'importe qui, sans formation spécifique et il permet de réduire le périmètre évacué". A Luxeuil-les-Bains, la ligne de production des deux objets sera prête fin octobre et devrait permettre d'en fabriquer quatre à cinq par jours, vendus de 1.500 à 5.200 euros pour le GBK, de 15.000 à 20.000 euros pour le FBK.

AFP : http://fr.news.yahoo.com/021022/202/2sy6f.html

^ Haut
Matière
Matière et Energie
L'électronique moléculaire progresse
Samedi, 26/10/2002 - 00:00

Deux articles de chercheurs de Harvard et de l'université Cornell, publiés dans le magazine Nature du 13 juin, décrivaient une percée majeure dans le domaine de la miniaturisation : des puces électroniques dont les commutateurs sont de simples atomes. Alors que les découvertes de Hendrik Schön, des laboratoires Bell, qui avaient, il y a près de un an, bouleversé l'électronique moléculaire en provoquant enthousiasme et étonnement, sont désormais discréditées, ce domaine se porte mieux que jamais. Les progrès constants réalisés par les chercheurs laissent entrevoir des perspectives prometteuses, bien qu'incertaines. "A dire vrai, cette histoire de Schön me fait penser à un caillou que l'on jette dans une rivière" , a déclaré Thomas N. Theis, responsable des recherches en sciences physiques chez IBM. "Il fait un grand plouf, mais la rivière continue de couler." Les transistors atomiques décrits en juin dans la revue Nature - des dispositifs similaires réalisés par deux équipes travaillant indépendamment l'une de l'autre - constituent de véritables progrès scientifiques. Mais cette notion de gain leur fait défaut et ils ne fonctionnent qu'à de très basses températures. Les transistors atomiques diffèrent des transistors au silicium. Un transistor n'est rien d'autre qu'un commutateur électrique. Lorsqu'il est en position d'arrêt, le courant ne passe pas. Pour le placer en position de marche, on lui injecte des électrons qui permettent au courant de passer. Dans les transistors atomiques, des molécules sont coincées entre deux électrodes microscopiques. Pour passer d'une électrode à l'autre, les électrons doivent sauter entre des "îlots" d'atomes placés au coeur des molécules. Comme les électrons - chargés négativement - se repoussent les uns les autres, chaque îlot atomique ne peut accueillir qu'un seul électron, qui, d'ordinaire, ne bouge pas. Pour éjecter les électrons de leurs îlots, il suffit d'appliquer un champ électrique. Ce champ peut par exemple être réglé pour une moyenne d'un électron et demi par îlot, de façon que les électrons soient contraints de sauter les uns derrière des autres. Ils créent ainsi un courant électrique dans le transistor, qui se place en position de marche. Les chercheurs de Cornell, sous la houlette de Paul L. McEuen et de Daniel C. Ralph, ont placé un atome unique de cobalt au coeur des molécules. L'équipe de Harvard, dirigée par Hongkun Park, a utilisé deux atomes de vanadium. "Nous poursuivons ces études afin de mieux comprendre les déplacements des électrons à l'intérieur des molécules", indique Hongkun Park. Son équipe a étudié 12 variantes de transistors. L'objectif des chercheurs est de concevoir des molécules fonctionnant à température ambiante. De tels transistors pourraient servir de capteurs biologiques si on leur ajoutait des sites capables de s'accrocher à des molécules spécifiques comme l'ADN ou des protéines transportant des charges électriques. Une fois reliées aux transistors, ces molécules les mettraient en marche, déclenchant ou au contraire empêchant une alerte. Pour des applications de ce type, l'absence de gain n'est plus un problème. "Ça n'a aucune importance, affirme Paul L. McEuen. Tant que l'on peut détecter le moindre électron, peu importe." La prochaine application de l'électronique moléculaire concernera probablement la mémoire des ordinateurs. Ces cinq dernières années, des scientifiques de Hewlett-Packard et de l'UCLA ont imaginé des molécules faisant office de commutateurs par le simple fait de changer de forme. Dans une configuration, la molécule laisse facilement passer le courant. Dans l'autre, elle offre une résistance électrique. Un réseau de molécules de ce type pourrait être utilisé pour fabriquer des mémoires d'ordinateurs. Un courant électrique de 1 volt fait passer la molécule d'une forme à l'autre, ce qui permet d'enregistrer des données. Pour rappeler ces données, on applique un courant de 0,1 volt, ce qui permet de lire les positions des molécules sans altérer leur forme. Les scientifiques cherchent encore comment utiliser leurs circuits moléculaires pour réaliser les opérations logiques des puces d'ordinateurs. "La logique est un but plus ambitieux", estime James M. Tour, professeur de chimie à l'université Rice de Houston, au Texas. "Le gain y est nécessaire." Deux équipes de chercheurs, l'une chez IBM et l'autre à l'université de technologie de Delft, aux Pays-Bas, ont mis au point des transistors et des circuits logiques simples à partir de nanotubes, des molécules de carbone roulées sur elles-mêmes. En mai dernier, IBM a annoncé que les performances de ses transistors dépassaient celles des transistors au silicium. Mais personne n'a encore trouvé comment les produire en grandes quantités. On a encore le temps. La plupart des ingénieurs estiment que la technologie du transistor au silicium a encore une bonne dizaine d'années devant elle avant de se heurter aux lois fondamentales de la physique qui l'empêcheront d'aller plus avant dans la miniaturisation.

Courrier International :

http://www.courrierinternational.com/numeros/624/062406201.asp?TYPE=archives

^ Haut
Espace
Espace et Cosmologie
Le Japon fait voler avec succès un prototype de navette spatiale
Samedi, 26/10/2002 - 00:00

Le Japon a mené avec succès vendredi un vol expérimental d'un prototype de navette spatiale, a annoncé l'Agence nationale de développement spatial (NASDA). L'engin sans pilote a été lancé vers 05h50 (15h50 GMT jeudi) depuis Kiritimati (anciennement île Christmas), dans le Pacifique, a précisé l'agence spatiale. La navette, d'une longueur de 3,8 mètres et d'un poids de 735 kilogrammes, a atteint une altitude d'environ 600 mètres et une vitesse de 290 kilomètres par heure au cours d'un vol de neuf minutes et demi. Il s'agissait du premier vol expérimental dans le cadre du programme de vols de démonstration à haute vitesse (High Speed Flight Demonstration Program). Les capacités du pilotage automatique et le bon fonctionnement d'ensemble des équipements ont ainsi pu être vérifiés, a précisé la NASDA. "Elle s'est posée près du point d'atterrisage prévu. Nous considérons qu'elle a fait ce que nous voulions. Nous allons à présent mener une analyse détaillée", a déclaré la NASDA dans un communiqué. En plus des données collectées sur le système de navigation et de communication de l'engin spatial, l'agence japonaise espère acquérir à la suite de ce vol un savoir-faire sur les vols non habités. L'expérience est menée surtout pour recueillir des données et il ne s'agit pas d'une étape majeure vers l'envoi de la navette dans l'espace, selon un porte-parole de l'agence, qui a rappelé que le programme de navette spatiale japonais avait été gelé par le passé en raison d'une série d'échecs dans le lancement de fusées.

Le projet de navette spatiale japonaise : http://www.nasda.go.jp/projects/rockets/hsfd/index_e.ht

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat: des scientifiques plaident pour les petits projets forestiers
Samedi, 26/10/2002 - 00:00

La réhabilitation de parcelles de forêts tropicales dégradées pourrait aider à la fois à combattre la pauvreté des régions les plus démunies du tiers monde et le réchauffement planétaire, estime un rapport publié ce week-end par le CGIAR, un réseau international de 16 centres de recherches sur l'agriculture et la forêt. Des projets de ce type permettraient de sauver des "millions d'hectares de forêts et de terres agricoles", de restaurer les habitats d'espèces animales et végétales menacées et de fournir des aides économiques et sociales substantielles à des communautés rurales extrêmement pauvres, selon ce document. Ils seraient financés par des industriels du Nord qui recevraient en échange des bonus sur les émissions de gaz à effet de serre évitées grâce à ces plantations d'arbres. Le rapport est publié à la veille d'une nouvelle conférence de l'ONU à New Delhi sur le changement climatique et les perspectives d'entrée en vigueur du protocole de Kyoto. Le protocole impose des réductions de CO2 et d'autres gaz réchauffant l'atmosphère aux pays du Nord. Il leur permet de faire moins d'efforts sur leur territoire en prenant en compte la pollution évitée au Sud grâce à des investissements "propres". Parmi ceux-ci figurent les projets de stockage du CO2 par les arbres en état de croissance et les terres agricoles, qui séquestrent sous certaines conditions le gaz carbonique et empêchent ainsi le réchauffement planétaire. Les modalités de comptabilisation de ces projets doivent continuer d'être examinées à la conférence de New Delhi (23 octobre-1er novembre). Actuellement seuls sont admis les projets de boisement ou reboisement d'espaces non forestiers. Le rapport milite pour que soit incluse la réhabilitation des espaces forestiers. Il a été écrit par deux centres du CGIAR (Groupe consultatif sur la recherche agricole internationale), le CIFOR (Indonésie) et Forest Trends (Etats-Unis). D'après le document, de petites plantations d'arbres sur des espaces forestiers et des terres agricoles dégradées sont aussi intéressantes pour le climat et aussi rentables pour l'investisseur que des boisements ou des reboisements à grande échelle. Mais elles ont beaucoup plus d'avantages que ceux-ci pour le pays d'accueil et la population de la région. Le rapport cite le cas des forêts tropicales sèches de l'Inde dont la réhabilitation "doublerait le piégeage" du CO2 de 27 à 55 tonnes par hectare et par an.

AFP : http://fr.news.yahoo.com/021019/202/2stps.html

L'électricité américaine très émettrice en CO2
Samedi, 26/10/2002 - 00:00

Le secteur électrique américain émet presque trois fois plus de CO2, le principal gaz à l'origine du réchauffement climatique, que le secteur électrique européen avec une production d'électricité moitié supérieure, indique une étude du consultant international PricewaterhouseCoopers (PWC) pour le bulletin énergétique Enerpresse.Il rejette en moyenne 720 kg de CO2 (gaz carbonique) par megawatt/heure d'électricité produite contre 353 kg CO2/MWh pour les compagnies européennes. Si l'on exclut EDF, dont la production est très largement d'origine nucléaire et hydraulique, deux sources d'énergie très peu émettrices de gaz à effet de serre, la moyenne européenne ressort à 450 kg CO2/MWh. L'étude compare les 25 premières compagnies du vieux continent, situées dans l'UE à l'exception des compagnies slovènes Slovenske Elektrarne et norvégienne Statkraft et qui représentent les trois quarts de la production européenne avec les 100 premiers électriciens américains. La production électrique américaine est beaucoup moins concentrée. L'étude compare aussi les dix plus grosses sociétés de chaque côté de l'Atlantique qui ont eu individuellement une production équivalente (100 à 200 térawatts/heure, sauf EDF qui produit plus de 500 TWh). Sur cette dernière base, les dix premiers électriciens européens émettent globalement 35% de CO2 en moins et produisent 35% d'électricité en plus que les dix premiers américains. Ils recourent en effet davantage au nucléaire (33% de la production contre 20% aux Etats-Unis) et leurs centrales thermiques ont, à combustible fossile identique, un rendement moyen dépassant de 10 à 25% celui des installations américaines. L'étude a été publiée à la veille d'une nouvelle conférence de l'ONU sur le réchauffement climatique et la mise en oeuvre du protocole de Kyoto qui impose des réductions de gaz à effet de serre aux pays industriels. Basée sur les données de 2001, elle ne prend en compte que le CO2, le secteur électrique émettant très peu des autres gaz pris en compte par Kyoto. Les Etats-Unis ont rejeté le protocole qu'ils jugent trop difficile à respecter.

AFP : http://fr.news.yahoo.com/021020/202/2svb2.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Hausse du risque de maladies cardio-vasculaires dans les pays pauvres
Samedi, 26/10/2002 - 00:00

Le risque d'affections cardio-vasculaires augmente dans les pays en voie de développement (PVD) sur lesquels, pour la première fois, pèse la plus grande part de la charge de ces maladies, relève l'Organisation mondiale de la santé (OMS). Les maladies cardio-vasculaires sont responsables au total de 12 millions de décès par an dans le monde. Le tabagisme, l'hypertension, l'hypercholestérolémie (excès marqué de cholestérol sanguin) sont les principaux risques à l'origine de ces maladies dans les pays industrialisés. Dans les pays en développement les plus démunis, ils commencent à apparaître comme des risques majeurs, souligne l'OMS, révélant les premières conclusions de son rapport sur la santé dans le monde en 2002, qui doit être rendu public fin octobre. "Il est particulièrement important pour les pays pauvres de lutter contre les maladies cardiovasculaires: elles font en effet peser une double charge sur leurs systèmes de santé, qui doivent aussi faire face simultanément aux maladies infectieuses", a souligné le Dr Gro Harlem Brundtland, directrice générale de l'OMS, dans un communiqué. Dans les villes de ces pays, les plus pauvres ne peuvent souvent acheter que des aliments transformés riches en matière grasse et en sel. De nombreux aliments transformés, tels que le pain, les soupes ou les viandes ont ainsi des teneurs en sel avoisinant ou dépassant celle de l'eau de mer. L'OMS recommande les traitements des maladies cardiovasculaires associant plusieurs médicaments -statines, antihypertenseurs et aspirine- qui deviennent de plus en plus abordables, y compris dans les pays en développement. L'agence de l'ONU exhorte également les pays à instaurer des politiques encourageant un changement d'habitudes alimentaires, l'activité physique et luttant contre le tabagisme. Tabagisme, hypertension, hypercholestérolémie, obésité, sédentarité et consommation insuffisante de légumes et de fruits sont les principaux facteurs de risques de ces maladies. L'hypertension est à elle seule responsable de près de la moitié d'entre elles, le cholestérol de près d'un tiers.

AFP : http://fr.news.yahoo.com/021018/202/2ss7w.h

Un logiciel qui dépiste les cancers de la prostate
Samedi, 26/10/2002 - 00:00

Aux Etats-Unis, les hommes âgés de 50 ans et plus subissent régulièrement des tests visant à mesurer le niveau de l'antigène PSA (Prostate Specific Antigen), indicateur de la présence d'un cancer de la prostate. Si tous les patients qui présentent un niveau de PSA situé entre 4 et 10 subissent une biopsie, 70 à 80% d'entre eux ne développent pourtant pas de cancer de la prostate. Afin d'éviter des biopsies inutiles, des chercheurs de l'Université de Caroline du Nord à Chapel Hill, en collaboration avec la Food and Drug Administration (FDA), ont réalisé une étude comparative sur les protéines de la prostate chez des hommes sains et des personnes ayant un cancer afin de concevoir un logiciel de dépistage. L'examen d'une seule goutte de sang permet à ce logiciel de dépister 95% des cancers de la prostate et d'identifier 100% des " faux positifs ". Les chercheurs soulignent que cette étude, dont les résultats sont publiés dans le Journal of the National Cancer Institute, nécessite toutefois des travaux complémentaires avant que ce nouveau test puisse être généralisé. Par ailleurs, ils développent actuellement un test de dépistage comparable pour le cancer de l'ovaire.

USAT 16/10/02 : http://www.usatoday.com/news/health/2002-10-16-protein-cancer-detection_x.htm

Maladie d'Alzheimer : l'aspirine en prévention ?
Samedi, 26/10/2002 - 00:00

L'aspirine, bien qu'elle soit plus que centenaire, n'en finit pas de se voir découvrir de nouvelles indications. Prise régulièrement pendant au moins deux ans, elle permettrait ainsi de prévenir l'apparition d'états de démences chez certaines personnes âgées. Et par là même de réduire le risque de développer la maladie d'Alzheimer. Une équipe du Puget Sound Health Care System à Seattle, sur la côte Ouest des Etats-Unis, a procédé à l'analyse pendant trois ans, des différents traitements médicamenteux absorbés par 5 000 patients de plus de 65 ans atteints de démence. Au terme de ce suivi, sur 3 227 survivants un total de 104 sujets avaient développé la maladie d'Alzheimer. Pour l'auteur de l'étude, John Breitner, «ces résultats montrent clairement que l'utilisation à long terme de l'aspirine réduit de 45% le risque de maladie d'Alzheimer.» Cependant, la prise irrégulière et sur une courte période de ce médicament semble n'offrir qu'un faible niveau de protection. L'aspirine, mais aussi les anti-inflammatoires non stéroïdiens ne permettent pas de traiter la maladie d'Alzheimer. Ils permettraient seulement parfois de la prévenir ou de la retarder... ce qui n'est déjà pas si mal.

Neurology : http://www.neurology.org/current.shtml

Plus de la moitié des Français estiment que le système de santé va se dégrader
Samedi, 26/10/2002 - 00:00

Pour 57% des Français, "le système de santé français va voir sa qualité actuelle se dégrader dans les années à venir", selon un sondage Ipsos publié mardi dans "Le Figaro". Seulement 15% d'entre eux pensent que le système de santé va s'améliorer et 26% estiment que sa qualité se maintiendra dans les années à venir. Une très grande majorité des personnes interrogées (91%) considèrent que les Français consomment trop de médicaments. Mais interrogés sur leur propre consommation, 87% affirment qu'ils n'en consomment pas (23%) ou pas du tout (64%). S'ils sont inquiets pour l'avenir du système de soins, les Français ne sont pas mécontents de l'hôpital public, 83% des Français jugent que la qualité des soins y est "plutôt satisfaisante", un chiffre qui baisse à 67% pour la qualité d'accueil et d'accompagnement du patient et à 62 % pour la qualité des premiers soins aux urgences. 57% trouvent "préférable qu'il y ait moins d'hôpitaux sur le territoire mais qu'ils offrent une qualité de soins et de services excellente". Seuls 35% préfèrent une "plus grande dissémination sur le territoire au prix d'une qualité moindre". Du côté de la lutte contre le tabagisme, 89% sont "plutôt favorables" au renforcement de l'interdiction de fumer dans les lieux publics" et 85% à l'interdiction de la vente aux mineurs. Sur trois propositions d'orientation de la recherche médicale dans les années à venir, les sondés ont placé en numéro 1 "les remèdes contre le cancer" (55%), puis "le vaccin contre le sida" (29%) et enfin "le traitement des maladies cardio-vasculaires" (12%). Les trois quarts des Français restent fermement opposés à la légalisation des drogues douces (cannabis, haschich, marijuana...) Enfin le débat sur l'euthanasie divise les sondés: 31% se disent "plus proches" de la légalisation, 50% de la dépénalisation et 15% de l'interdiction assortie de sanctions.

AP : http://fr.news.yahoo.com/021022/5/2sy5j.html)

Le stress au travail double le risque de mortalité cardio-vasculaire!
Samedi, 26/10/2002 - 00:00

Selon une étude finlandaise prospective réalisée entre 1973 et 2001, les personnes ayant un travail stressant possèdent un risque fortement augmenté d'accidents cardiovasculaires. Les contraintes de travail et le sentiment de n'être pas reconnu à sa propre valeur dans l'entreprise semblent plus que doubler le risque de mortalité cardiovasculaire. Les résultats sont présentés dans le British Medical Journal du 19 octobre. Le docteur Mika Kivimaki (Université d'Helsinki) et ses confrères de l'université de Jyväskylä ont suivi pendant une durée moyenne de 25,6 années, la santé cardiovasculaire de plus de 800 employés d'une industrie métallurgique finlandaise. Les 812 employés retenus (545 hommes, 267 femmes) n'avaient pas de maladies cardiovasculaires au début de l'étude. Les résultats ont montré que ceux ayant peu de liberté d'action dans leur travail avaient un facteur de risque de mortalité cardiovasculaire augmenté d'un facteur 2,2, comparés à ceux possédant moins de directives hiérarchiques. Ceux présentant un sentiment d'insatisfaction dans la reconnaissance de leur travail (bas salaire, manque de reconnaissance sociale, peu d'opportunités de carrière) ont présenté un risque augmenté d'un facteur 2,4. De plus, les personnes stressées exerçant la même fonction depuis plus de cinq ans ont présentés davantage de risques cardiovasculaires que celles ayant moins d'ancienneté dans leur poste, ce qui met l'accent sur l'effet délétère du stress chronique sur la santé cardiovasculaire. Les auteurs concluent que le stress au travail représente un risque cardiovasculaire certain dont les employeurs devraient tenir compte.

BJM : http://bmj.com/cgi/content/full/325/7369/857

Première : une protéine artificielle recombine les chromosomes
Samedi, 26/10/2002 - 00:00

Des chercheurs de l'Institut Curie, en France, et de l'Université Saitama, au Japon, ont mis au point une imitation de protéine capable de stimuler la recombinaison dans des régions chromosomiques qui normalement ne «recombinent» pas. Cette méthode, une première, permet de diriger la machinerie moléculaire qui contrôle la recombinaison naturelle des chromosomes. Cette avancée pourrait éventuellement déboucher sur la mise au point d'une méthode permettant de stimuler et de cibler cette recombinaison. L'équipe de l'Institut Curie avait mis en évidence, il y a quelques années, le rôle de la protéine Spo11 dans ces cassures chromosomiques. Cette fois, ils ont artificiellement associé à la protéine Spo11 un «véhicule» qui l'emmène «briser» les chromosomes et stimuler la recombinaison, et ce, même dans des régions où elle n'est pas supposée opérer.

Radio Canada : http://radio-canada.ca/nouvelles/Santeeducation/nouvelles/200210/17/003-proteine...)

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les entreprises freinent leurs dépenses de recherche
Samedi, 26/10/2002 - 00:00

En 2001, le ralentissement de la croissance s'est répercuté sur les dépenses consacrées à la recherche et au développement (R & D) dans les entreprises françaises. Globalement, selon l'enquête réalisée par Le Monde, ces dépenses ont continué de croître, mais de 5 % seulement, soit deux fois moins que durant les trois années précédentes. Et l'effectif global des équipes de recherche a diminué de 1 % l'an dernier. Les pessimistes observeront que la croissance du chiffre d'affaires des entreprises ayant globalement atteint 8 %, on aurait pu s'attendre à mieux, les dépenses de R & D étant en général assez corrélées au chiffre d'affaires. Les optimistes trouveront en revanche que l'on a évité le pire. La chute des résultats nets de ces mêmes grands groupes aurait, à d'autres époques, conduit à des réductions beaucoup plus drastiques. Les entreprises du secteur de l'informatique et des télécommunications, notamment, n'ont pas sacrifié leurs budgets de R & D. Alcatel a ainsi maintenu son effort (+ 1%). France Télécom, après avoir réduit ses dépenses d'un quart en 2000, en raison de la perte de son monopole et donc de l'arrêt ou de la cession de recherches menées dans le cadre du Centre national d'études et de télécommunications (CNET), les a augmentées de 26 % en 2001. En revanche, Bull continue de voir son budget consacré à la recherche diminuer : - 6 % en 2001 après - 11 % en 2000. L'autre secteur où l'on observe de fortes augmentations des budgets de R & D est celui de l'aéronautique et de la défense. Le classement reste assez proche de celui de 2000. La distinction demandée, pour la première fois cette année, entre le budget de R & D financé sur les capitaux propres et celui provenant de contrats publics, montre néanmoins que si seule la recherche autofinancée avait été utilisée comme critère pour établir ce palmarès, le lauréat, EADS, se serait trouvé en quatrième position. Les deux autres entreprises liées au secteur de la défense (Thales et Snecma) auraient aussi rétrogradé. Les fusions-acquisitions, mais également les cessions intervenues durant l'année 2001 expliquent l'apparition de deux nouveaux venus : Sanofi-Synthélabo (dont TotalFinaElf ne possède plus que 26 % du capital) et Rhodia (dont Aventis détenait 25,2 % fin 2001). Les responsables de recherche des grands groupes prévoient de maintenir le même niveau de dépense pour 2002. La conjoncture économique ne semble pas devoir remettre ces projets en cause. Autant d'éléments qui, selon l'entourage de la ministre de la recherche, Claudie Haigneré, pourraient permettre à la France de tenir son objectif : atteindre en 2010 un niveau de dépense (publique et privée) en recherche et développement égal à 3 % du PIB. Un objectif qui est aussi celui de l'Union européenne. Pour tenir ce cap, et compte tenu des dépenses publiques budgétées, il faudrait en effet que les entreprises accroissent leurs dépenses en R & D de 3 % en 2002 et de 6 % en 2003. La part revenant aux entreprises devrait ensuite aller croissant et rattraper ainsi le retard accumulé par rapport aux autres pays développés. Malgré le coup d'accélérateur donné à la recherche dans les firmes françaises ces dernières années, celles-ci ne participent qu'à hauteur de 56 % à l'effort de recherche national, soit beaucoup moins que dans la plupart des autres pays européens, au Japon ou aux Etats-Unis. Ces pays n'ont pas non plus effectué de coupe claire dans leurs budgets. Selon l'enquête annuelle du ministère du commerce et de l'industrie britannique, rendue publique le 14 octobre, les dépenses de R & D des entreprises ont crû de 4 % en 2001 au plan mondial. En revanche, contrairement à ce qui se passe en France, les budgets publics de recherche américains ont connu une très forte hausse en 2002. Dans la recherche médicale, le National Institute of Health a vu son budget augmenter de 15 % en 2002, et devrait encore s'accroître en 2003 pour atteindre plus de 27,3 milliards de dollars. Suite aux attentats du 11 septembre, la recherche militaire s'est arrogé la part du lion outre-Atlantique, pour financer de nouvelles armes, mais aussi de nouveaux réseaux de communication. On sait quelles ont été les retombées des recherches sur le précurseur d'Internet, Arpanet, qui fut financé par le ministère de la défense aux Etats-Unis.

Le Monde : http://www.lemonde.fr/article/0,5987,3234--294715-,00.html

Publications scientifiques : la France recule
Samedi, 26/10/2002 - 00:00

Deux nouvelles études sur l'impact des publications scientifiques attribuées à chaque pays placent la France l'une au onzième rang mondial, l'autre au treizième. Le premier résultat figure dans la livraison 2002 des Science and Engineering Indicators de la National Science Foundation américaine (NSF). Il porte sur l'année 1999 et témoigne d'une régression, la France occupant le neuvième rang en 1990. Elle a été dépassée par la Finlande et le Canada. La Suisse, en baisse, reste en tête, suivie par les Etats-Unis et les Pays-Bas. La France obtient la note de 0,93, signifiant que sa part dans la littérature citée est sensiblement inférieure à sa part dans le total de littérature publiée recensée par le Science citation index (SCI). Huit pays obtiennent une note supérieure à 1, dont l'Allemagne. Rappelons que la littérature citée désigne les références faites dans un article scientifique à des articles antérieurs. La seconde étude sera publiée bientôt par des chercheurs hongrois 1]. Elle porte non pas sur une année mais sur la période 1990-1998, et fournit des indications par champ disciplinaire [voir tableau]. Les pays sont classés selon un critère relativement sophistiqué : c'est le rapport entre le nombre de citations reçues par article pendant trois ans (l'année de sa publication et les deux années suivantes) et le nombre de citations que l'on serait en droit d'attendre de ces articles, compte tenu de l'impact du journal dans lequel chacun d'eux est publié (l'impact d'un journal est le nombre moyen de citations qu'il reçoit par article publié). Le résultat obtenu est appelé par les auteurs le taux relatif de citation. Le plus intéressant dans les scores obtenus par la France est l'absence de contraste marqué d'un champ disciplinaire à l'autre. Nous nous sommes installés un peu partout dans une honnête médiocrité. Le meilleur résultat, une huitième place, revient au champ regroupant les géosciences et les sciences de l'espace, ce qui reflète sans doute, en partie, le poids relatif du Centre national d'études spatiales (CNES) dans notre système de recherche. Contrairement à l'opinion souvent défendue, notre position en mathématiques (une onzième place) est tout à fait moyenne. Et, par ailleurs, nous ne descendons pas en deçà de la quatorzième place : en biosciences (biologie moléculaire fondamentale) et dans un champ regroupant les neurosciences et les sciences du comportement. Cette homogénéité est d'autant plus frappante que certains pays affichent une grande hétérogénéité de résultats. Le cas le plus spectaculaire est celui de la Finlande, qui arrive globalement au second rang derrière la Suisse, alors qu'elle n'occupe que la seizième place en géosciences et sciences de l'espace. A noter aussi le rang relativement modeste occupé par les Etats-Unis, devancés par l'Allemagne et le Royaume-Uni. Relevons enfin la très bonne performance de nos voisins belges, qui sont ici devant l'Allemagne. La Belgique fait mieux que la France dans toutes les études publiées. Les responsables de la politique de recherche suisse sont aujourd'hui en ébullition, parce qu'ils constatent une baisse globale des performances de leur pays. On aimerait constater une semblable ébullition chez les responsables français, qui pratiquent surtout l'autosatisfecit et la langue de bois.

La Recherche : [http://www.larecherche.fr/data/358/03581131.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top