RTFlash

RTFLASH Recherche & Technologie
NUMERO 113
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Septembre 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Des utilitaires pour faciliter la navigation sur la Toile
Le plan de développement d'Internet en Allemagne
Internet à haut débit : les conclusions du rapport Bourdier
Le cyber-crime, un cauchemar pour les pouvoirs publics
France Telecom va proposer l'internet rapide par satellite
Le Minitel s'offre un portail sur le Web
NEC lance son nouveau PC «sans fil»: le Simplem
L'ordinateur ultime: un trou noir
La webcam qui scanne !
Sensatex développe les tee-shirts du nouveau millénaire
Le numérique bouleverse la redevance sur la copie
Matière
Des microbactéries océaniques transforment la lumière en énergie
Espace
Comment se protéger d'un astéroïde géant
Terre
El Nino était plus intense il y a 4.000 ans
Vivant
Cellules souches : une nouvelle découverte italienne
L'aspirine pourrait prévenir le cancer de la prostate
Un poison contre le cancer
Des antihypertenseurs contre l'athérosclérose ?
La maladie de Creutzfeldt-Jakob pourrait se transmettre par transfusions
La fonction biologique du prion se précise
Après les puces à ADN, les puces à protéines
Alzheimer : un coût pour l'entourage aussi
Et les sourds entendront...
Un gène récessif pourrait être impliqué dans la maladie d'Alzheimer
Les biopuces se font tirer le portrait
Edito
Vivre est le métier que je veux lui apprendre



Les structures publiques d'éducation n'arrivent plus à assumer correctement leurs missions. Leur rythme d'adaptation trop souvent lié à des procédures de décisions trop lourdes et trop lentes et à une manque de clairvoyance politique ne leur permet pas de relever le défi qui leur est lancé par les nouvelles technologies. Seules réussissent dans ce monde en perpétuel mouvement les entités légères et réactives qui ont toutes les capacités pour s'adapter rapidement. Cette dichotomie entre les systèmes d'enseignement privés et publics commence à poser un réel problème à nos démocraties et en poserait de plus sévères encore demain si, très rapidement, des mesures ne sont pas prises. En effet, dans un monde où a valeur ajoutée reposera sur la connaissance et l'expertise, la première mission des états modernes est de faire acquérir des savoirs efficaces et reconnus à tous leurs citoyens s'ils veulent que leurs peuples aient un avenir. Or, ils ne peuvent confier cette mission régalienne qu'à leur système public afin de ne pas créer une grave ségrégation par l'argent. Il faut donc que nos démocraties procèdent sans retard à une refondation totale de leur système public d'éducation. Mais comment faire ? En incitant le pouvoir académique à descendre de sa pyramide et l'inviter à s'installer avec de réels moyens de décision dans les réseaux d'établissements. Là comme ailleurs, il faut laisser se développer une réelle subsidiarité. Pourquoi vouloir imposer une décision du niveau central quand celle qui est prise localement se montre beaucoup plus efficace ? Il faut également faire évoluer le statut des enseignants pour que ceux-ci soient incités, très régulièrement, à se plonger dans la vie réelle de la cité et de l'entreprise afin de préparer les élèves, dont ils ont la lourde charge,à entrer avec réalisme et efficacité dans l'avenir. Chacun doit prendre conscience qu'au cours de la carrière d'un enseignant qui, souvent, se déroule sur plus de 3 décennies, les technologies auront connu plusieurs révolutions (un seul exemple : depuis 30 ans, la puissance de calcul du micro-ordinateur de Monsieur Toutlemonde a été multipliée par 10.000 !) entraînant avec elles de nouveaux usages donc des cultures nouvelles. Nous ne sommes plus au Moyen Age où Pic de la Mirandole pouvait défier n'importe qui de discuter avec lui de n'importe quoi. Nous ne répondons même plus à la définition de l' « honnête homme » qui, selon Pascal, était raisonnablement au courant de tout. Nous sommes entrés dans une époque où, paradoxalement, nous devenons de plus en plus ignorants puisque la somme des connaissances de l'humanité doublant tous les 10 ans, cette masse de connaissances croît dorénavant plus vite qu'il n'est possible d'apprendre. En cette époque, où le temps change de nature, il faut que nous donnions aux enseignants, qui ont la plus lourde et la plus noble des missions pour préparer l'avenir, les moyens de se remettre très régulièrement en cause et les outils pour être au niveau des défis qu'ils doivent relever. Pour atteindre un objectif aussi ambitieux, il leur faut pouvoir disposer d'une réelle marge de manoeuvre pour choisir la voie qui leur semble la plus efficace. Bien entendu, ce large système de délégation doit avoir comme contrepartie naturelle un système innovant d'évaluation qui, à partir du lycée, devrait être ouvert à l'apprenant. Pour assurer une nécessaire égalité, comme dans tout système public, l'architecture des programmes (au niveau du squelette) devrait être définie par l'Etat mais avec des systèmes locaux de validation ( peut être au niveau d'un groupe opérationnel d'établissements ?), l'enseignant devrait avoir la possibilité de choisir et même de concevoir lui-même les muscles, la chair et la peau qui donneraient à ces programmes leur nécessaire personnalisation. L'ensemble du système devrait avoir suffisamment de souplesse pour permettre à l'enseignant de sortir des stricts programmes académiques pour lui permettre d'aller ainsi vers les leçons de choses et même celle de la nature comme a su si bien le dire Jean-Jacques Rousseau et le mettre en oeuvre il y a quelques décennies Freinet. En agissant ainsi, nous pourrions enrayer la désaffection croissante envers un système d'éducation qui attribue de vastes ressources à des tâches de gavage alors que de véritables besoins d'éducation demeurent largement insatisfaits. L'enseignement traditionnel aurait tout avantage à être heureusement complété par une éducation à la culture et par une symbiose heureuse avec les exigences de la formation professionnelle. Pour l'Etat, la finalité de la culture est essentiellement de rassembler. Pour l'individu, elle est non seulement ce qui l'identifie en tant que membre d'une collectivité mais aussi ce qui le distingue des autres : sa culture est un outil de développement personnel. Cette éducation à la culture devrait éveiller une sensibilité qui, fréquemment, sommeille pendant toute la vie car le système ne nous permet pas de trouver la clé qui ouvrirait une porte souvent ignorée. Est-il normal que nous laissions tant de jeunes dans l'ignorance du beau, du bon et même du bien. ne serait-ce que pour le confort de leur vie ? Ainsi, diverses études médicales récemment publiées nous montrent que l'espérance de vie d'un homme ayant un faible niveau d'instruction est inférieure de 6,5 ans à celle d'un homme instruit et vous lirez même dans une Brève de notre lettre de ce jour que la mortalité un an après hospitalisation pour un infarctus du myocarde est 5 fois plus élevée parmi les malades qui ont eu la scolarité la plus courte. Toutes ces injustices doivent être éradiquées par notre système d'enseignement. Pour quelles raisons l'ouvrier devrait-il continuer à mourir plus tôt parce qu'il fume trop, parce qu'il boit trop, parce qu'il se nourrit mal alors que notre système le laisse ignorant du danger de tels comportements ? N'oublions pas que le système public d'éducation doit mettre à la disposition de chaque enfant les choses que tout le monde doit connaître pour pouvoir agir comme un adulte libre et autonome. Or, pourquoi toutes ces connaissances qui éveillent en nous cette volonté de respecter cette nécessaire hygiène de la vie ne feraient-elles pas partie de ces choses que tout le monde doit connaître ? Il en est de même dans la formation professionnelle. Deux jeunes se présentent aujourd'hui devant le chef d'une entreprise moderne travaillant dans l'informatique de nouvelle génération. L'un vient de réussir brillamment un bac classique (littéraire ou scientifique). Il a même une mention. Malheureusement, pour des raisons familiales impérieuses il doit interrompre ses études. L'autre a raté son bac mais il connaît parfaitement des logiciels tels que Photoshop, Director, Studio Max, Flash, qu'il a découverts et maîtrisés, seul, en autodidacte. Qui pensez-vous que le chef d'entreprise retiendra ? Non pas celui qui a parfaitement assimilé des savoirs académiques mais bien celui qui est directement opérationnel. L'ironie de l'histoire est que le système public d'éducation ne veut même pas reconnaître ces connaissances pratiques et opérationnelles, souvent liées à de nouvelles technologies, acquises spontanément par des élèves puisque notre recalé n'a même pas eu, pour son baccalauréat, un point supplémentaire pour sa maîtrise de ces outils informatiques. dont la connaissance n'est pas prévue au programme ! En complétant un enseignement traditionnel, notoirement allégé de toutes ses strates historiques, par une éducation à la culture et par une heureuse symbiose avec les attentes réelles des entreprises, les systèmes publics d'éducation sauraient défricher des voies nouvelles pour reconquérir le coeur de nos concitoyens. Pour conclure, je voudrais vous inviter à relire Emile (http://www.microserve.net/~gallanar/rousseau/emile%20ou%20l'education.htm/) de Jean Jacques Rousseau. Cette oeuvre n'a jamais autant été d'actualité. Relisez cette leçon d'astronomie donnée par Jean-Jacques à Emile. À elle seule, elle est une métaphore de l'éducation toute entière. Eduquer, c'est aider à recourir aux signes qui permettront à chacun de s'orienter par lui-même. N'oublions pas ces jolies phrases d'Emile Rousseau « Le but ultime de l'éducation est de former un homme libre », « L'homme vraiment libre ne veut que ce qu' il peut et fait ce qui lui plaît »et ce cri qui devrait raisonner dans l'oreille de tout enseignant : « Vivre est le métier que je veux lui apprendre ».

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Des utilitaires pour faciliter la navigation sur la Toile
Samedi, 23/09/2000 - 00:00

Une navigation trop lente, des fichiers difficiles à télécharger, des outils de recherche inadaptés, le World Wide Web - la Toile - mérite souvent son surnom de « World Wide Wait ». Heureusement, une quantité de logiciels utilitaires, le plus souvent gratuits, peuvent aider l'internaute à mieux exploiter toutes les richesses de la Toile. Dans ce domaine, plus question de mastodontes de l'édition comme Microsoft. Ici c'est le paradis du « shareware » (contributiel) et du « freeware » (graticiel), de petits logiciels que l'on peut télécharger. Dans le cas du shareware, vous devez « normalement » acheter la licence à l'issue d'une phase d'évaluation si vous souhaitez le conserver. Un freeware est, lui, entièrement gratuit. Une fois téléchargé, il est à vous. Revue de détail de ces différents outils. Si vous êtes un adepte du téléchargement de gros fichiers (MP3, MPEG-4, démos de jeux), vous avez très certainement déjà été confronté à une interruption alors que celui-ci était pratiquement achevé. Pour éviter ces désagréments, des utilitaires vous permettent de reprendre un téléchargement interrompu ou encore de le programmer à l'heure souhaitée. Le programme Getright peut ainsi gérer tous vos téléchargements. Vous entrez le nom du fichier à télécharger et l'adresse du site où le trouver, et Getright se charge du reste. Enorme avantage : il permet de reprendre un téléchargement interrompu. Avec lui, plus besoin de recommencer deux heures de téléchargement pour un stupide « plantage ». Si vous téléchargez une multitude de fichiers en même temps, préférez Go!Zilla. Il vous permet, entre autres fonctions, de programmer le début d'un téléchargement ou d'une série de téléchargements aux heures les plus favorables en termes d'encombrement de réseau. Go!zilla est par ailleurs capable, lorsqu'un fichier est disponible sur plusieurs sites, de récupérer celui-ci depuis le serveur offrant la meilleure vitesse de téléchargement. Très pratique pour les gros téléchargeurs, qui ne peuvent plus s'en passer. De plus, ce logiciel est gratuit. Avec l'aspirateur TeleportPro, il suffit d'entrer l'adresse du site à télécharger et le répertoire dans lequel vous voulez l'enregistrer. Ce logiciel vous offre, en outre, la possibilité de choisir les éléments que vous souhaitez aspirez : les sons, les images, les textes, les vidéos ou le site en entier. Avec le module Teleport Scheduler, il est même possible de programmer le moment auquel doit s'effectuer le téléchargement. Dans ce cas, TeleportPro se connectera puis se déconnectera automatiquement à la fin de celui-ci. La plupart des aspirateurs permettent de mettre à jour la sauvegarde du site en n'enregistrant que les fichiers nouveaux ou modifiés. Très pratique pour les sites qui sont mis à jour régulièrement. Trouver des informations sur le Web revient parfois à chercher une aiguille dans un meule de foin. Une recherche exhaustive implique de passer au crible plusieurs moteurs de recherche. Cette tâche longue et fastidieuse n'est pas toujours concluante. Pour gagner du temps et obtenir des informations plus pertinentes, la solution consiste à faire appel à un métamoteur, qui interroge simultanément plusieurs moteurs de recherche. Copernic, par exemple, propose désormais une interface entièrement en français. Dans sa version gratuite, le logiciel permet d'accéder à 85 moteurs de recherche regroupés dans une dizaine de domaines : le Web, le Web francophone, les groupes de discussion, les adresses de courrier électronique... Pour les férus de recherche, une version payante de Copernic permet de consulter 55 domaines, donnant ainsi accès à quelque 610 moteurs de recherche. Tous les moteurs ne fonctionnant pas suivant les mêmes règles syntaxiques, Copernic adapte la requête aux exigences de chacun d'entre eux de façon transparente pour l'utilisateur, qui se contente de préciser s'il souhaite obtenir les documents contenant tous les mots, au

moins un des mots ou l'expression exacte. Copernic fournit alors des résultats par ordre de pertinence, supprime les doublons et les liens désuets). Grâce à un système de cache intelligent et à la possibilité de ne pas afficher les publicités, les accélérateurs Web réduisent le temps de chargement des pages. Net Accelerator optimise ainsi la gestion du cache des navigateurs Explorer et Netscape Communicator. Il ouvre en mémoire de nouvelles fenêtres de votre navigateur, lesquelles restent invisibles à l'écran, pour télécharger des pages Web par anticipation. Ainsi, quand vous appelez une page, le navigateur ne va plus la chercher sur Internet mais localement sur votre ordinateur. Si, entre-temps, des changements sont intervenus, NetSonic, un autre accélérateur, vous avertit quand des pages méritent d'être rafraîchies.

Le Monde :

http://interactif.lemonde.fr/article/0,3649,2855--95937-0,00.html

Copernic : http://www.copernic.com/fr

Gozilla : http://www.gozilla.com

Le plan de développement d'Internet en Allemagne
Samedi, 23/09/2000 - 00:00

Le chancelier allemand Gerhard Schröder a dévoilé un plan pour favoriser l'utilisation d'internet par ses concitoyens, comprenant des formations pour les chômeurs et l'installation d'ordinateurs pour surfer dans toutes les écoles et les bibliothèques. Toutefois, certaines mesures annoncées par le chancelier trahissent une certaine prudence à l'égard de la nouvelle technologie, comme l'engagement de rendre tous les services gouvernementaux accessibles sur le web d'ici cinq ans, une éternité à 'âge d'internet. "Nous voudrions faire que la maîtrise d'internet fasse partie de l'éducation. D'ici l'an prochain toutes les écoles seront équipées d'ordinateurs reliés à internet" a ajouté le chancelier. Actuellement, environ un cinquième des établissements allemands possèdent un accès au réseau des réseaux, contre 95 pour cent aux Etats-Unis. Le système éducatif allemand, essentiellement géré par les 16 länder du pays, contrôle le nombre d'étudiants par matière suivie, limite qui a conduit à une pénurie d'experts en informatique ces dernières années. Un autre volet du plan prévoit aussi de donner aux chômeurs la possibilité de passer un "permis de conduire internet" offrant une formation de base. "Nous ne voulons pas diviser la société entre utilisateurs et non-utilisateurs", a ajouté Schröder qui prenait la parole lors d'une foire exposition.

Reuters : http://fr.news.yahoo.com/000918/2/n3ev.html

Internet à haut débit : les conclusions du rapport Bourdier
Samedi, 23/09/2000 - 00:00

L'Etat ne pourra se substituer aux investisseurs privés pour le développement en France de l'internet à haut débit, mais il devra jouer un rôle notamment de régulation, afin d'empêcher l'apparition d'une "fracture numérique", selon un rapport remis au secrétariat d'Etat à l'Industrie. "Aujourd'hui, si l'investissement privé ne vient pas, il n'y aura pas de haut débit sur l'ensemble du territoire mais sur 25 ou, au mieux, 50 zones", a déclaré l'auteur de ce rapport, Jean-Charles Bourdier, remettant au secrétaire d'Etat Christian Pierret les 43 propositions issues de ses travaux. "Nous avons fait des propositions pour que l'Etat et les collectivités locales puissent mettre en place une logique d'investissement, pour que les investisseurs viennent nombreux et dans une logique de concurrence", a-t-il ajouté, soulignant que "la croissance du haut débit se faisant seule sera un facteur de fracture". Le rapport Bourdier insiste sur la nécessité "d'agir vite" pour le développement du haut débit en France. "Si l'action n'est pas rapide et globale, il est évident que des situations irréversibles vont apparaître", selon son auteur. Le document énumère une série de 43 propositions appelant notamment l'Etat à "montrer l'exemple" et "pratiquer une politique volontariste d'équipement dans les services publics" avec l'objectif d'une "couverture géographique totale du territoire". Il précéconise également "l'harmonisation des réglementations pour les réseaux de télécommunications et les réseaux câblés" dont certains textes "sont aujourd'hui obsolètes", en vue d'établir "les règles d'une saine concurrence". Le rapport Bourdier appelle par ailleurs à une modification de la loi Voynet sur l'aménagement du territoire pour "supprimer l'obligation d'amortissement à 8 ans des installations des collectivités territoriales" en matière de hauts débits. A cet égard l'auteur suggère au gouvernement de procéder par "un simple décret d'application". Celui-ci permettrait de constater rapidement la carence de l'opérateur de référence, France Télécom, et de limiter les dépenses amortissables en 8 ans au seul réseau, et non plus aux travaux de voirie. L'Etat doit par ailleurs "favoriser l'accès aux hauts débits pour les PME". Pour ces dernières, "les hauts débits sont vitaux. Sans hauts débits, il n'y a pas de compétitivité", a affirmé M. Bourdier. Reprenant une étude de la société de prévisions économiques BIPE, le rapport Bourdier chiffre entre 0,6 % et 1,6 % du PIB l'apport supplémentaire annuel de croissance de la "net-économie".

Rapport Bourdier : http://www.telecom.gouv.fr/bourdier.htm

Le cyber-crime, un cauchemar pour les pouvoirs publics
Samedi, 23/09/2000 - 00:00

Tant que la coopération internationale fera défaut, le blanchiment d'argent et la criminalité financière sur le web resteront le cauchemar des autorités. Selon Raymond Kendall, secrétaire général d'Interpol, le manque de coordination entre les gouvernements, voire, dans le cas d'internet, l'absence de réglementation, signifie que les organismes de contrôle ne sont qu'au début de leur lutte contre la cyber-criminalité. "Les gouvernements et les instances chargées de faire appliquer les lois risquent de perdre la bataille engagée contre le crime financier en raison d'une réglementation inadéquate, du secret bancaire excessif et d'une piètre coopération", a-t-il déclaré au cours d'une conférence consacrée à la criminalité financière. Blanchiment, trafic d'armes, prostitution et autres délits drainent chaque année des milliards de dollars, a-t-il rappelé.Rosalind Wright, directrice du UK Serious Fraud Office, estime, dans une entretien accordé à Reuters, que le problème gagne en ampleur dès lors que l'on s'intéresse à la cyber-criminalité. Selon, elle, internet rend la fraude possible d'un simple clic de souris, où que l'on se trouve. Mettre la main sur ces criminels de l'ère numérique, poursuit-elle, ne sera pas chose facile. Les enquêteurs devront composer avec des difficultés juridiques complexes, avec différentes procédures selon les pays concernés, ainsi qu'avec les conditions d'extradition. L'immense difficulté que représente l'identification du criminel (...) est suffisante pour faire de la fonction d'enquêteur un véritable cauchemar", souligne-t-elle. Rien qu'au sein de l'Union européenne, pas moins de 11 pays membres refusent d'extrader leurs ressortissants vers l'étranger et les législations concernant la criminalité financière n'ont que peu de choses en commun. Rosalind Wright estime que le champ d'action des cyber-criminels est très large, comme le constatent aujourd'hui les USA. "C'est un vecteur idéal, lance-t-elle, c'est anonyme et cela pose des problèmes juridiques." L'action gouvernementale, souligne Raymond Kendall, semble trop lente à l'heure de la révolution numérique. Le secteur privé, de son côté, dispose de ressources et de capacités qui pourraient apporter une aide précieuse aux autorités. Le FBI, poursuit-il, a entamé une collaboration avec les entreprises américaines. Il ajoute que des systèmes de prévention et d'alerte, au même titre qu'une base de données commune sur le sujet destinée aux pouvoirs public et aux entreprises privées, pourraient être mis en place.

Reuters : http://fr.news.yahoo.com/000912/2/mtd3.html

France Telecom va proposer l'internet rapide par satellite
Samedi, 23/09/2000 - 00:00

250 millions d'euros : tel sera l'investissement nécessaire sur les deux ans à venir pour France Telecom et Europe*Star, afin de mettre au point le nouveau satellite de communication Stellat dédié en partie à la transmission d'images et de données IP en hauts débits. L'offre haut débit prévoit d'offrir à partir d'avril 2002 un débit de 2 mégabits en voie aller (vers l'utilisateur) et de 128 kilobits/seconde par retour sur antenne, avec possibilité de choisir un retour par voie terrestre. Stellat déclare en effet bénéficier d'une technologie avancée permettant pour la première fois une transmission « bidirectionnelle » (transmission terre-espace et espace-terre, ndlr) et à hauts débits de données IP réceptionnées sur une « petite » antenne de un mètre de diamètre. Stellat proposera donc, outre une offre étendue de télédiffusion par satellite, une offre IP destinée aux particuliers comme aux entreprises, aux fournisseurs d'accès et aux fournisseurs de contenu susceptibles de pouvoir installer le matériel adapté à la transmission de données par satellite de forte puissance. « Du côté professionnel, les clients potentiels de Stellat seront les FAI désirant augmenter leurs différents points d'accès, les réseaux d'entreprises souhaitant développer leur intranet sur une zone élargie ou encore les professions libérales concernées par la transmission de gros fichiers » explique Robin Eliade, le directeur commercial et marketing de Stellat. Les solutions d'accès de Stellat répondent en effet à un besoin spécifique de transmission de données vidéo notamment exprimé par les chaînes de télévision numériques et de certains FAI. Opérationnels dans les huit jours suivant le lancement du satellite en 2002, ces services seront distribués en bande C et Ku en Europe centrale et orientale, au Moyen Orient et en Afrique depuis la côte est de l'Amérique du Nord ou de L'Europe.

France Internet news :

http://france.internet.com/news.asp?news_id=1573

Le Minitel s'offre un portail sur le Web
Samedi, 23/09/2000 - 00:00

France Télécom n'est pas décidé à abandonner sa poule aux oufs d'or : le Minitel. L'opérateur historique, via sa filiale Intelmatique, vient donc d'ouvrir un portail baptisé I-minitel pour donner un "coup de surf" au bon vieux service télématique. Il s'agit d'un accès rapide permettant depuis n'importe quel ordinateur (Mac et PC) de se connecter aux services du Minitel. Ce portail donne accès à une interface gratuite et téléchargeable grâce à laquelle les internautes peuvent "surfer" sur le 3614, 3615 ou encore 3617 tout en continuant, évidemment, à payer ces services aux différents tarifs en vigueur. Cette fenêtre Minitel percée sur la Toile par France Télécom offre comme principaux avantages un accès rapide aux services télématiques (64 Kbps pour les initiés) et une bascule en ligne entre les différents préfixes téléphoniques (3614, 3615...). Pour assurer le succès de cette passerelle Minitel, France Télécom a déployé tout son charme puisque d'ici mi-octobre, 80% des nouveaux équipements informatiques commercialisés intégreront en série l'interface nécessaire. Parallèlement, un CD-Rom gratuit sera distribué dans toutes les agences de l'opérateur téléphonique. Malgré tout, les abonnés au câble et à l'ADSL, ainsi que les personnes en dehors de l'Hexagone, ne pourront bénéficier de ce nouveau "portail". Il en effet impossible pour ces abonnés de facturer les services Minitel...

Journal du Net :

http://www.journaldunet.com/0009/000921minitel.shtml

NEC lance son nouveau PC «sans fil»: le Simplem
Samedi, 23/09/2000 - 00:00

Nec Computers International vient de dévoiler le dernier né de sa gamme de micro-ordinateurs de bureau sans fil «tout en un», baptisé simplem. De la taille d'un moniteur LCD, il s'intègre très facilement dans les espaces de travail les plus restreints. Epais de 7,8 cm pour un poids de 6 kg, l'ensemble du système est hébergé derrière un écran 15'' XGA . Résultat: le simplem occupe 1/5ème de l'espace d'un micro ordinateur standard. Son apparence peut en outre être modifiée sur mesure grâce à un kit de cadres de différentes couleurs et un cache avant amovible. La souris, le clavier et la télécommande multifonctions sont connectés par onde radio, il ne reste plus qu'un seul câble: le câble d'alimentation (comprenant la connexion au modem). Sa télécommande multifonctions est dotée d'un «trackpad», de boutons pour le volume, la navigation DVD, ainsi que des touches de raccourci programmables pour l'accès à l'email, au web et à d'autres applications multimédia. Fonctionnant sous MS Windows 98 deuxième édition, il est doté d'un processeur Intel Pentium III 650 MHz et d'un chipset Intel 810e. Il est livré en standard avec une mémoire SDRAM de 128 Mo et un disque dur de 12 Go. Il est également équipé d'un lecteur de DVD-Rom 8X, du son compatible AC97 soft et de haut parleurs intégrés. Il est livré avec un modem V.90 intégré.

Atelier Paribas : http:///www.atelier.fr

L'ordinateur ultime: un trou noir
Samedi, 23/09/2000 - 00:00

Quelle sera la puissance ultime de l'ordinateur? Cent fois, mille fois plus que les supercalculateurs qui servent aux prévisions météo ou aux simulations d'explosions nucléaires? Pour le savoir, Seth Lloyd, un spécialiste réputé de la physique du calcul au Massachusetts Institute of Technology de Boston (Etats-Unis), a tenté d'imaginer les capacités ultimes d'un ordinateur. La réponse est stupéfiante: sa mémoire atteindrait 10 bits puissance 31, soit mille milliards de milliards de fois plus que nos ordinateurs de bureau (10 bits puissance). Quant à la vitesse de traitement, elle défie l'entendement: ce super-PC pourrait manipuler chaque seconde plus de 10 bits puissance 50 d'informations élémentaires, quand un supercalculateur ne peut guère en ingurgiter plus de 10 puissance 12 par seconde. A supposer que la technologie s'offre une révolution culturelle, il faudrait encore attendre deux cent cinquante ans avant qu'elle ne puisse voir le jour. Jusqu'ici, la puissance des machines a doublé tous les dix-huit mois, suivant la loi de Moore, du nom du cofondateur d'Intel, ou plus exactement suivant un postulat empirique défini en 1965 que les ingénieurs se sont toujours efforcés de suivre.«Aujourd'hui, tout le monde a pris l'habitude de se poser des questions très pratiques», explique Charles Bennett, expert en physique du calcul et des systèmes quantiques chez IBM. «Pour savoir, par exemple, si la puissance des puces continuera à suivre la loi de Moore ou si la cadence devra être ralentie. Lloyd propose d'oublier tout ce que l'on sait de la technologie.Il dit en quelque sorte: regardons ce que disent les lois de la physique. C'est rafraîchissant.» De fait, Seth Lloyd ne cherche surtout pas à prédire comment faire pour s'approcher des limites qu'il définit. Il ne se donne que deux contraintes pour l'ordinateur, une masse d'un kilogramme et un volume d'un litre. Le reste est l'affaire des lois de la physique. Si farfelus puissent-ils paraître, ces calculs apportent des informations précieuses aux théoriciens. Le chercheur confirme ainsi que la vitesse de calcul d'une machine n'est limitée que par l'énergie disponible. Il fixe comme ultime limite la conversion totale du kilogramme de matière de son «ordinateur» en énergie, suivant la célèbre relation E = mc2 d'Einstein. Une transformation qui engloutirait l'équivalent de quatre mois de production d'une tranche de centrale nucléaire de 900 mégawatts en... un milliardième de seconde. L'ordinateur ultime serait donc plutôt brûlant. A y regarder de près, le système imaginé par Seth Lloyd ressemblerait à l'un des objets les plus mystérieux de notre univers. Pour pouvoir fournir les données à la cadence infernale de calcul, les dimensions de l'ordinateur doivent nécessairement être réduites de manière drastique. Calculette en poche, le chercheur américain table sur une taille de 10 puissance moins 27 mètres. Autrement dit, cette machine à calculer idéale ne serait rien d'autre qu'un trou noir Si ses calculs et les interprétations qu'ils entraînent peuvent paraître provocants, Seth Lloyd n'en met pas moins l'accent sur l'un des défis les plus délicats qui se posera dans une dizaine d'années aux spécialistes de la miniaturisation. Aussi petit soit-il, un circuit dissipe de l'énergie. Une quantité infime qui, multipliée par des dizaines de millions d'éléments et des centaines d'opérations par seconde, finit par transformer en grille-pain les composants mal conçus. Sans véritable saut technologique, la course à la puissance pourrait bien s'arrêter pour une banale histoire de chauffage.

Libération :

http://www.liberation.com/multi/actu/20000904/20000907jeuy.html

La webcam qui scanne !
Samedi, 23/09/2000 - 00:00

On s'habitue vite à ces petites objets ronds, carrés ou en forme d'ouf. Seulement, à part montrer votre frimousse à un rythme de quelques images par seconde sur le Net, ils ne servent pas à grand chose... Et Philips l'a bien compris, une caméra peut avoir bien d'autres fonctions. Simple caméra tout d'abord : pour enregistrer des petits films vidéos à 30 images par seconde en haute résolution. Que l'on pourra envoyer par la suite par mail, diffuser sur son site Web ou montrer à ses amis. Mais pourquoi pas scanner aussi ! En effet, une webcam dispose souvent d'une fonction de capture d'image. Ainsi, la Vesta Pro Scan de Philips vous est livrée avec un petit trépied. Il suffit de placer un objet, texte ou image sous l'objectif de la caméra placée en hauteur et de lancer une capture. Son utilisation est beaucoup plus simple qu'avec un scanner classique : pas besoin de pré-scanner. Le logiciel de Xerox, PageCam, facilite la procédure. Sur l'écran de pré-visualisation du PC, on peut ajuster la position de l'objet, son éclairage ou sélectionner une partie de l'image directement. On visualise tout de suite le résultat. Toutefois, il ne faut pas s'attendre à une qualité d'image équivalente. C'est pourquoi la Vesta Pro Scan ne peut remplacer un scanner à plat pour la numérisation haute résolution d'images. Elle s'avère par contre une bonne alternative pour capturer des images d'objets tridimensionnels ou des documents à des formats inhabituels. Cette "cam & scan" trouve aussi toute son utilité pour la numérisation de textes. Par simple glisser-déplacer, le texte scanné sera envoyé et converti en fichier texte, tel Word. Le logiciel de reconnaissance de caractère est en effet intégré au logiciel PageCam. Coté qualités visuelles pures, le Vesta Pro Scan dispose de fonctions de réglage vidéo automatiques (contraste, équilibre des blancs, compensation du contre-jour). Pour encore plus de précision, il est aussi possible de régler manuellement son objectif de zéro à l'infini, ce qui permet de zoomer sur un objet proche en gardant une image nette. La webcam est livrée avec l'équipement logiciel complet : Netmeeting pour la visioconférence, Ulead Photo Express pour la retouche photo et Videomail. . L'objet vaut 900 F TTC.

L'internaute :

http://www.linternaute.com/0redac_actu/0009_sept/000919vestacam.shtml

Sensatex développe les tee-shirts du nouveau millénaire
Samedi, 23/09/2000 - 00:00

Certes, le titre est un peu tape à l'oil, mais il faut quand même reconnaître que le "Smart Shirt" mis au point par Sensatex Interconnection Technology mérite le détour. Les "Smart Shirt" sont capables de mesurer en permanence l'état physiologique du corps à l'aide de capteurs qui relèvent le rythme cardiaque, la température de corps, la fréquence des respirations et j'en passe. Ce produit n'est pas sans rappeler le "Lifeshirt" que nous avions présenté dans cet article. Les capteurs placés dans le tee-shirt sont reliés à un genre micro-cablage réseau qui est tissé dans les mailles du tissu et qui converge vers un émetteur agrégeant les données. Les informations sont alors émises à l'aide d'une connexion sans fil vers un poste de réception. S'agit-il d'une première pas vers une intégration des périphériques matériels dans le corps humain ? Reste à voir si au bout du compte, le "Smart Shirt" n'est pas nocif pour l'organisme, la présence d'appareillages électroniques pouvant potentiellement poser problème.

Nospoon : http://www.nospoon.org/

Le numérique bouleverse la redevance sur la copie
Samedi, 23/09/2000 - 00:00

Le gouvernement allemand envisage d'introduire une taxe sur certains équipements informatiques dans le but de mieux protéger la propriété intellectuelle. C'est l'AFP qui l'annonce, citant le quotidien Berliner Zeitung. Les professionnels s'en inquiètent car ils souffriraient de la hausse des prix provoquée. Les produits concernés vont des CD aux imprimantes, disques durs et même modems. En France, quand on achète un minidisc, on verse déjà une redevance pour la copie privée, tout comme à l'achat d'une cassette, mais pas encore pour les supports informatiques (voir édition du 6 décembre 1999). En effet, une partie du prix des supports d'enregistrement de sons ou d'images correspond à un montant reversé par les fabricants à la Sorecop et Copie France, chargés de collecter la redevance sur les sons pour la première et sur l'audiovisuel pour l'autre. Seulement avec l'arrivée du numérique, la distinction n'a plus lieu d'être. Plus simplement on peut tout aussi bien enregistrer de la vidéo que du son sur un CD vierge. Voici déjà un premier problème. Le second vient du mode de calcul de la redevance. Actuellement, il est basé sur un montant par heure établi en fonction du support. Or, combien d'heures de musique va-t-on compter pour un CD vierge, quel format de fichier va être pris comme référence : le Wave, ou le MP3 qui permet de stocker pratiquement 10 fois plus de chansons sur un même disque ? Enfin quelle distinction sera opérée entre les supports amovibles et ceux qui ne le sont pas ? Les questions soulevées sont complexes. Une commission indépendante mise en place par le ministère de la Culture réfléchit sur la question. Rien ne filtre sur la teneur des débats. Selon le ministère, les discussions avancent entre les producteurs, les industriels, leurs syndicats et les organismes chargés de collecter les redevances. "Les discussions devraient aboutir avant la fin de l'année", assure le ministère. Le prix des différents supports pourraient alors augmenter de manière significative...

Vunet : http://www.vnunet.fr/VNU2/index.htm

^ Haut
Matière
Matière et Energie
Des microbactéries océaniques transforment la lumière en énergie
Samedi, 23/09/2000 - 00:00

Les microbiologistes de l'Aquarium de la Baie de Monterey (MBARI) n'en reviennent pas. Ils ont découvert qu'une nouvelle classe de micro-organismes est capable de capter l'énergie de la lumière à la surface de l'océan. Pour y parvenir, ils ont utilisé les dernières technologies en matière de génomique. Jusqu'ici, ils avaient identifié des microbactéries (de 0,2 à 2 microns de diamètre), sans toutefois comprendre leur fonction dans l 'environnement. En analysant la séquence du génome, les chercheurs ont trouvé un pigment proche de la rhodopsine, qu'ils n'avaient jamais vu chez aucune bactérie. Ils ont supposé que le produit pouvait générer de l'énergie à partir de la lumière du soleil, ce qui a été démontré en utilisant la technologie de l'ADN recombinant sur le gène.

Industrie&Techniques :

http://www.industries-techniques.com/

^ Haut
Espace
Espace et Cosmologie
Comment se protéger d'un astéroïde géant
Samedi, 23/09/2000 - 00:00

Une collision entre la Terre et un astéroïde est un risque tout à fait réél et nécessite la mise en place d'un système de surveillance qui n'existe pas actuellement, a estimé le 18-09-2000 un groupe de trois experts en présentant un rapport officiel à Londres. "Ce mois-ci encore, trois météorites vraiment très grandes seront passées relativement près de la Terre", a expliqué Harry Atkinson, ancien président du conseil de l'Agence spatiale européenne et responsable du groupe d'experts. "Cela prouve que le risque de collision est réel et doit être pris trés au sérieux." Le rapport précise toutefois qu'une météorite de 100 m de diamètre ne s'écrase sur la surface de la Terre que tous les 10.000 ans en moyenne, avec la force d'une bombe nucléaire de 100 mégatonnes. Le groupe d'experts anglais rappelle qu'en mai 96 un astéroïde de plus de 300 mètres de diamètre est passé à seulement 500000 km de la Terre; les scientifiques anglais rappellent également qu'il y a au moins 1000 objets actuellement répertoriés, qui dépassent le kilomètre de diamètre et dont la trajectoire est susceptible d'entrer un jour ou l'autre en collision avec la Terre. Heureusement pour nous les météorites de 1 km de diamètre, ne font impact sur la Terre que tous les 100.000 ans en moyenne. Il n'empêche que si un astéroïde d'une telle taille s'écrasait sur la Terre la catastrophe qui en résulterait serait sans précédent dans l'histoire de l'humanité et pourrait entraîner plus d'un milliard de morts. Ce risque doit être réduit autant que possible, jusqu'à parvenir à un niveau acceptable", a déclaré le Pr David Williams, l'un des experts et président de la Société royale d'astronomie. Le groupe, désigné en janvier dernier par le secrétaire britannique d'Etat à la Science Lord Sainsbury, propose notamment la construction dans l'hémisphère sud d'un télescope de trois mètres spécialisé dans la recherche et l'identification des objets proches de la Terre (Near Earth Objects). Le rapport recommande également la création d'un Centre d'études sur les objets proches de la Terre.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_930000/930564.stm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
El Nino était plus intense il y a 4.000 ans
Samedi, 23/09/2000 - 00:00

En analysant des coraux fossiles du Vanuatu, des chercheurs français ont déterminé que le phénomène climatique El Nino était plus intense il y a 4.000 ans qu'aujourd'hui. Cette étude de l'IRD (Institut de recherche pour le développement) à Nouméa, en Calédonie, a permis de reconstituer les variation de température de surface de l'océan dans le Pacifique sud-ouest pendant une période de 50 ans. Il y a 4.200 ans (Holocène moyen), la température océanique moyenne était similaire à celle enregistrée actuellement. "Mais, ses variations saisonnières et interannuelles se révèlent, pour leur part, plus importantes. Il apparaît notamment que le célèbre phénomène climatique El Nino était beaucoup plus intense à l'époque qu'aujourd'hui", précise l'IRD. En utilisant les coraux fossiles comme "paléothermomètres", les chercheurs ont reconstitué les variations mensuelles de la température de l'eau de surface entre 2225 et 2177 avant J.C. Ils les ont comparées à celles enregistrées au cours du dernier demi-siècle (1951-1977) dans cette même région. Sans surprise, les températures océaniques moyennes (27,6C) au milieu de l'Holocène s'avèrent quasi-similaires à celles connues depuis 50 ans (27,7 C). Mais les chercheurs ont observé que les variations d'été à hiver sont actuellement comprises entre 2 et 4, alors qu'il y a 4.200 ans celles-ci étaient supérieures ou inférieures selon la période considérée: 5 à 6 aux environs de 2200 avant J.C, mais seulement 2 à partir de 2199 av J.C et même moins de 1 de 2193 à 2189 av J-C. Ces anomalies thermiques fortes correspondent en fait à une intensification du phénomène ENSO (El Nino southern oscillation) qui, dans le sud-ouest Pacifique, se manifeste par une diminution "anormale" des températures de surface -épisodes El Nino- ou par une augmentation "anormale" (la Nina). Il se révèle que les épisodes La Nina (anomalies chaudes au Vanuatu) étaient ainsi plus longs qu'aujourd'hui: de 3 à 5 ans contre 1 à 2 actuellement. Ceux-ci étaient interrompus par des phases El Nino (anomalies froides au Vanuatu) deux à trois fois plus intenses. Pour expliquer une telle variabilité du système ENSO, les chercheurs émettent l'hypothèse selon laquelle l'intensité d'ENSO pourrait avoir été modulée par des variations climatiques qui se manifesteraient à une échelle interdécennale : tous les 10 à 20 ans, des remontées d'eaux froides se propageraient depuis les latitudes moyennes vers l'équateur et pourraient "renforcer" plus ou moins les effets d'El Nino dans cette partie

du Pacifique.

AFP : http://fr.news.yahoo.com/000915/1/myo8.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cellules souches : une nouvelle découverte italienne
Samedi, 23/09/2000 - 00:00

Les scientifiques italiens, Angelo Vescovi et Giulio Cossu, de l'Institut de recherche biologique de Milan ont réussi à fabriquer des cellules de muscle à partir de cellules souches de cerveau de rat. cette découverte remarquable ouvre de grandes perspectives médicales et pourrait permettre de surmonter les questions éthiques très difficiles liées à ll'utilisation de l'embryon dans le cadre de la recherche. Les cellules souches ont la capacité de pouvoir être reprogrammées pour produire n'importe quel type de tissu du corps humain et elles sont porteuses de beaucoup d'espoirs en médecine. De nombreux chercheurs pensent en effet que ces cellules souches extraites à partir d' embryons sont appelées à jouer un rôle clé dans les futurs traitements contre les accidents vasculaires cérébraux, la maladie d'Alzheimer ou la sclérose en plaques. Les cellules prélevées sur l'embryon auraient le plus grand potentiel, mais certains chercheurs pensent que ces cellules peuvent aussi être prélevées sur l'adulte. Angelo Vescovi et Giulio Cossu, de l'Institut de recherche cellulaire de Milan, ont pris des cellules de cerveau de souris adulte et les ont re-programmées afin qu'elles se comportent comme des cellules de muscle. Reste à savoir si des cellules humaines se comporteraient de la même manière. toutefois la revue Nature Neuroscience qui publie ces travaux précise que les recherches sur les cellules souches, tant sur l'adulte que sur l'embryon, ne sont pas assez avancées pour pouvoir se prononcer sur la méthode la plus efficace.

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_932000/932358.stm

L'aspirine pourrait prévenir le cancer de la prostate
Samedi, 23/09/2000 - 00:00

L'aspirine, un médicament vieux d' un siècle qui est employé pour traiter des maux de tête et prévenir empêcher les crises cardiaques pourrait également aider à combattre le cancer de prostate selon des scientifiques anglais.Une équipe de chercheurs de l'hôpital de Hammersmith à Londres vient en effet de montrer que l'aspirine peut arrêter ou ralentir l'action d' une enzyme, le cox-2, impliquée dans la croissance des tumeurs scancéreuses. Dans le journal britannique d'urologie le docteur Paul Abel et ses collègues souligne que des analyses en laboratoire de 112 échantillons de tissu cancéreux et bénin de prostates ont révélé une augmentation de cox-2 dans les tissus cancéreux. " L'aspirine a sans doute un effet dans cette situation et peut être une drogue appropriée à utiliser mais nous ne savons pas encore comment " précise le Docteur Abel . " Nous pensons aussi que cette enzyme doit agir sur les gènes qui confère l'immortalité aux cellules cancéreuses " précise le DocteurEl-Nasir Lalani, qui a contribué à ces recherches. Abel et Lalani souhaitent à présent poursuivre leurs essais sur les inhibiteurs cox-2 pour déterminer leur impact sur les tumeurs de la prostate. Toutefois les chercheurs mettent en garde contre toute automédication incontrôlée; ils rappellent que l'abus d'aspirine peut produire des hémorragies gastriques graves et que les personnes malades du foie ou des reins, ou souffrant d'asthme et l'hypertension doivent éviter d'utiliser l'aspirine hors contrôle médical. Le cancer de affecte 10 millions d'hommes environ au-dessus de l'âge de 50 dans le monde et constitue le cancer masculin le plus commun et la deuxième principale cause de décès par cancer.

Brève rédigée par @RT Flash

Reuters :

http://dailynews.yahoo.com/h/nm/20000919/sc/health_aspirin_dc_1.html

Un poison contre le cancer
Samedi, 23/09/2000 - 00:00

Le cyanide, un poison capable de provoquer la mort par asphyxie, pourrait fournir une nouvelle arme redoutable contre le cancer. Des chercheurs de l'Imperial College de Londres ont trouvé le moyen d'utiliser cette arme de manière ciblée pour s'attaquer au cancer. Les chercheurs ont identifié un enzyme que l'on trouve dans le manioc et ont constaté que cette molécule inoffensive peut se transformer en poison en cas d'agression par les insectes. En combinant cette enzyme avec un anticorps créé pour reconnaître les cellules atteintes par le cancer, les scientifiques pensent pouvoir détruire les tumeurs sans léser les tissus sains car cet enzyme possède la propriété de savoir reconnaître et attaquer spécifiquement les cellules cancéreuses. En outre le docteur Deonarain, responsable de ces recherches, souligne que les cellules cancéreuses ne sont pas capables de développer contre cette thérapie des mécanismes de résistance, comme elles parviennent malheureusement à le faire contre de nombreuses molécules anti-cancéreuses. Les premiers résultats de ces recherches " in vitro" sont encourageants et les scientifiques vont tester leur méthode sur des animaux. Si tout se déroule comme prévu, les tests cliniques sur des patients atteints pourront débuter dans les cinq ans à venir.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/in_depth/sci_tech/2000/festival_of_science/news...

Des antihypertenseurs contre l'athérosclérose ?
Samedi, 23/09/2000 - 00:00

C'est la première fois qu'une équipe démontre qu'un médicament utilisé contre l'hypertension artérielle aurait aussi un effet contre l'athérosclérose. Si les travaux menés chez l'animal se confirment, ce sera une acquisition de taille ! Certes, on savait déja que l'hypertension aggravait le risque d'insuffisance cardiaque ou de maladie coronarienne. En revanche, c'est bien la première fois que l'efficacité d'un médicament spécifique de l'hypertension artérielle (HTA) est établie pour prévenir l'athérosclérose. Seulement chez le singe, pour le moment. Mais c'est déjà prometteur. Une équipe de la Wake Forest University dirigée par Carlos Ferrario a en effet montré que l'utilisation chez le singe de laboratoire d'un médicament de la classe des inhibiteurs de l'angiotensine II, permettait " de réduire de moitié les dépôts d'athérome dans les coronaires ". Ce type de médicament bloque la transformation d'une hormone responsable de l'élévation de la tension. Il représente la plus récente génération de traitements contre cette maladie et pour Carlos Ferrario, son champ d'application pourrait se trouver étendu à l'avenir. Les premiers résultats obtenus chez l'animal pourraient bien avoir des implications importantes. " Il se pourrait que, pour prévenir le développement de plaques d'athérome dans les vaisseaux, il soit nécessaire de traiter également les perturbations hormonales liées à l'hypertension. " Certes, les progrès réalisés depuis quelques années dans le traitement de l'excès de cholestérol ont permis d'obtenir des résultats spectaculaires. Ces derniers pourraient pourtant être encore améliorés en traitant non plus seulement le cholestérol mais également l'excès d'angiotensine II.

Healthand Age.com :

http://www.healthandage.com/newsletter/npf.htm

La maladie de Creutzfeldt-Jakob pourrait se transmettre par transfusions
Samedi, 23/09/2000 - 00:00

La version humaine de la maladie de la vache folle, communément appelée maladie de Creutzfeldt-Jakob), pourrait se transmettre par le biais de transfusions sanguines, affirme dans la revue Lancet une équipe de chercheurs de l'Institut vétérinaire d'Edimbourg, en Ecosse. Pour démontrer cette assertion, les scientifiques ont commencé par donner à des moutons de la cervelle contaminée par des prions, l'agent de transmission de la vache folle. Sans attendre l' apparition de symptômes, ils ont ensuite prélevé du sang sur 19 de ces animaux et l'ont injecté à d'autres moutons. Six cent dix jours après ces transfusions, un des moutons transfusé a commencé à montrer des signes cliniques et pathologiques de la maladie. "Bien que faite sur un animal seulement, cette observation nous a semblé suffisamment importante pour la publier maintenant, sans attendre que l'étude soit complète, ce qui pourrait prendre plusieurs années", écrivent les auteurs de ce travail. Tous les autres animaux transfusés sont actuellement en bonne santé mais la plupart, soulignent les chercheurs, ont reçu leurs dons de sang après l'animal devenu malade. Ces travaux sont d'autant plus à prendre au sérieux que, d'une part, les animaux sur lesquels le sang a été prélevé ont été contaminés par la voie la plus naturelle, la voie orale, et non, comme on le fait généralement en laboratoire, par injections de produits contaminés dans le cerveau. En outre, les transfusions sanguines qui ont permis de faire passer les prions d'un animal à l'autre constituent la première expérience réussie de contamination pendant la période d'incubation de la maladie. "Il y a de sérieuses raisons de s'inquiéter" sur la qualité du sang des personnes en incubation de la nouvelle forme de maladie de Creutzfeldt-Jakob car il pourrait être "infectieux", constate, dans un commentaire accompagnant cet article, le Pr Paul Brown, un des meilleurs spécialistes américain de la MCJ. Jusqu'à présent, le diagnostic de la nouvelle forme de la maladie de Creutzfeldt-Jakob ne peut se faire qu'après la mort du patient, au cours d'une autopsie. Il reste qu'en l'absence de toute possibilité de dépistage de la maladie, cette découverte importante n'aura sans doute pas de conséquences immédiates en matière de santé publique.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_925000/925151.stm

La fonction biologique du prion se précise
Samedi, 23/09/2000 - 00:00

Le prion pourrait être impliquée dans la régulation de la transduction (signalisation cellulaire) au niveau des extrémités neuronales. Cette découverte publiée dans la revue Science du 15 septembre devrait permettre de lever le voile sur le rôle biologique de la protéine prion normale et de définir les mécanismes par lesquels une modification structurale peut engendrer une encéphalopathie subaiguë spongiforme (ESST - Creutzfeldt-Jakob chez l'homme, tremblante du mouton , maladie de la vache folle...). Ce résultat est issu de la collaboration de 3 équipes de recherche dirigées par Odile Kellermann (Institut Pasteur), Jean-Marie Launay (CR Claude Bernard, Hôpital Lariboisière, Paris) et Sylvain Lehmann (IGR du CNRS, UPR 1142 Montpellier. L'agent infectieux responsable de l'encéphalopathie spongiforme bovine était jusqu'à présent connu sous sa forme pathogène, mais on ignorait tout de son rôle en temps normal. Le prion jouerait en fait un rôle d'intermédiaire dans la communication entre les cellules du système nerveux, une fonction de réglage de précision dans la grande mécanique des neurones, expliquent les chercheurs de l'Institut Pasteur et de l'hôpital Lariboisière. Ces résultats ont été obtenus en travaillant in vitro sur des cellules de souris. Ce premier pas dans la connaissance du rôle du prion pourrait permettre de mieux comprendre comment il peut transformer des cellules du cerveau en « éponges » et à terme prévenir cette dégénérescence.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20000915.OBS7436.html?1253

Après les puces à ADN, les puces à protéines
Samedi, 23/09/2000 - 00:00

Les puces à ADN permettent d'étudier en une seule analyse le profil d'expression des différents ARN messagers d'une cellule. Cette technique a été reprise dans la création des "puces à protéines", permettant ainsi d'étudier rapidement les interactions entre les protéines. Gavin MacBeath et Stuart Schreiber (Université d'Harvard) présentent leur "puce à protéines" dans le dernier numéro de Science. Le principe de ces puces à ADN également dénommées "DNA-chips" est de fixer sur une surface réduite un nombre très important d'oligonucléotides connus. Une fois fixées, ces sondes peuvent interagir avec des ARNm cellulaires (par hybridation). La détection de cette interaction permet alors de connaître exactement les différents ARN exprimés dans un type cellulaire précis. Cette technique connaît actuellement un intérêt grandissant notamment en oncologie : elle permet d'éditer un profil d'expression spécifique des cellules tumorales et donc d'identifier les gènes impliqués dans les processus de tumorisation ou de métastase. La technique des biopuces pourrait de la même façon faciliter l'étude des interactions entre les protéines. La puce à protéines développée par MacBeath et al se compose d'une série d'environ 10.000 spots de protéines déposés par un robot sur une plaque de verre. Chaque spot mesure 150 à 200 µm de diamètre, ce qui représente 1.600 spots par cm2. Leur technique assure la conservation de l'activité biologique des protéines déposées. Les chercheurs montrent que leur puce assure l'identification de 3 types d'interactions : protéine-protéine, enzyme-substrat et protéine-petite molécule. Les scientifiques soulignent que la mise en place de cette technique reste à la portée de tout laboratoire de recherche et ne demande pas d'investissement démesuré. Selon eux, cette technique de puce à ADN devrait accélérer l'identification des interactions entre les protéines au sein d'une cellule.

Caducée : http://www.caducee.net/

Alzheimer : un coût pour l'entourage aussi
Samedi, 23/09/2000 - 00:00

La maladie d'Alzheimer coûterait pratiquement 15 milliards de francs par an aux familles des malades ! Pourquoi ? Mais parce qu'elle n'est toujours pas classée parmi les 30 "affections de longue durée " reconnues par la Sécurité Sociale. Les soins ne sont ainsi remboursés qu'à hauteur du ticket modérateur, sans parler des dépenses collatérales : sur les 30 milliards que représenterait " l'addition " entraînée par cette affection, les familles doivent en assumer la moitié : aide au domicile, hébergement en institution, soins spécialisés. La maladie commence toujours par des troubles de la mémoire et du comportement. D'abord épisodiques puis plus rapprochés. Le malade peut rester une heure sans reconnaître ses enfants avant de redevenir normal. Jusqu'à la crise suivante. La prise en charge médicale doit être aussi précoce que possible. Le médecin de famille est souvent le premier alerté. Il va évaluer les troubles, s'adresser à un spécialiste pour décider si un traitement spécifique peut être mis en ouvre. Par la suite il orientera la famille : soins infirmiers et kinésithérapie, recours à la Mairie pour une aide-ménagère. Accueil, information, groupes d'entraide psychologique, formation des personnels, tous ces moyens permettent aux malades et à leurs familles d'être mieux soutenus, même si les nouveaux traitements - les inhibiteurs de l'acétylcholinestérase - peuvent ralentir le processus de la maladie et, parfois, de restaurer l'autonomie du malade. Le contact avec le tissu associatif représente toujours un passage important. Un problème partagé est souvent allégé...

HealthandAge.com : http://www.healthandage.com/fpatient.htm

Et les sourds entendront...
Samedi, 23/09/2000 - 00:00

Sera-t-il possible demain de faire 'repousser' des cellules nerveuses pour faire entendre les sourds ? La chose pourrait être théoriquement possible. Pourtant, le lancement aux Etats-Unis d'un programme de plusieurs millions de dollars sur cinq ans, baptisé Toxic noise, montre à l'évidence que l'essentiel des efforts s'oriente vers une politique de prévention. Car le problème comme souvent, se résume à celui de la disponibilité des ressources. Or la surdité, lorsqu'elle n'est pas congénitale, est le plus souvent évitable. La lutte contre le bruit est à la base de toute politique dans ce sens, mais le bruit n'est pas seul à rendre sourd. Certaines maladies, de nombreux médicaments peuvent détruire tout ou partie des cellules nerveuses qui nous permettent d'entendre. L'audition nous est apportée par de minuscules cellules ciliées qui se trouvent dans la cochlée de chaque oreille. Seize mille de chaque côté ! Détruites par une substance chimique, un germe pathogène ou un son violent, ces cellules, peuvent se régénérer. Chez certains vertébrés. Mais apparemment pas chez les mammifères ni donc, chez l'homme... A l'heure où commencent les greffes de neurones, pourquoi ne pas imaginer demain ce type de possibilité ? A l'heure actuelle pourtant, les efforts portent surtout sur des prothèses palliatives. " D'ici 5 ans nous disposer d'appareillages totalement implantés et invisibles de l'extérieur ", soulignent certains spécialistes comme le Californien Robert Shannon. De plus en plus miniaturisés - et onéreux ! - ces matériels ne sont pas pour autant capables de rétablir l'audition. Ils se limitent à amplifier des bruits dont la perception est déformée par une oreille malade ou mutilée. Voilà pourquoi la prévention reste aujourd'hui la seule arme d'avenir...

HealtandAge.com : http://www.healthandage.com/fpatient.htm

Un gène récessif pourrait être impliqué dans la maladie d'Alzheimer
Samedi, 23/09/2000 - 00:00

Une étude israélienne parue dans le numéro du 12 septembre de la revue Neurology indique qu'un gène récessif serait lié au développement de la maladie d'Alzheimer. Ce résultat provient de l'étude d'une communauté arabe du Nord de l'Israël chez laquelle la prévalence de la maladie d'Alzheimer est très élevée. Cette étude a été menée par des chercheurs israéliens de l'Université de Tel Aviv) et le neurologue Robert Friedland (University Hospitals of Cleveland). Leurs travaux ont porté sur une communauté rurale résidant à Wadi Ara, dans le Nord d'Israël. Sur les 821 sujets âgés examinés, 60,5 % des plus de 85 ans présentaient un Alzheimer alors que ce taux atteint environ 40 % dans d'autres populations. Cette prévalence élevée a été retrouvée chez les plus de 65 ans : 20 % étaient atteints de la maladie d'Alzheimer alors que le taux habituel est d'environ 10 %. Un des facteurs de risques génétiques majeurs est la présence de l'allèle APOE ?4 (gène de l'apoliproprotéine E). La présence de cet allèle a été recherchée chez 256 patients : seulement 4 % étaient porteurs du gène. Selon les auteurs, la fréquence réduite de cet allèle ne permet pas d'expliquer la forte prévalence de la maladie d'Alzheimer dans cette population. Les chercheurs soulignent que le taux de consanguinité est relativement élevé dans cette population, ce qui suggère que la prévalence élevée de la maladie d'Alzheimer pourrait être due, en partie, à un gène récessif. Un communiqué de l'American Academy of Neurology rappelle que tous les gènes identifiés comme jouant un rôle dans la maladie d'Alzheimer sont dominants ; aucun gène récessif n'a été lié à la maladie. "Nous sommes maintenant à la recherche de ce gène", a déclaré le Dr Korczyn. "Identifier le gène aura vraisemblablement un impact majeur sur notre compréhension du pourquoi et du comment de l'apparition de l'Alzheimer. Nous aurions également besoin de voir si ce gène est impliqué dans la maladie d'Alzheimer dans d'autres populations". De plus, cette même équipe de chercheurs évalue l'impact de divers facteurs environnementaux qui pourraient jouer un rôle dans la forte prévalence de la maladie dans cette population.

Caducée : http://www.caducee.net/

Les biopuces se font tirer le portrait
Samedi, 23/09/2000 - 00:00

L'avenir du diagnostic génétique réside peut-être dans la photographie. Des chercheurs américains proposent une technique de développement argentique des biopuces, à la manière d'une pellicule. Ces composants sont utilisés pour détecter des virus, des gènes mutés et, pourquoi pas, des organismes génétiquement modifiés. Là où la recherche d'un seul fragment d'ADN dans un échantillon prélevé sur un malade nécessite de lourdes manipulations, le regroupement de milliers de sondes dans une puce de de silicium permet de détecter des milliers de gènes en un temps record . Si la fabrication de ces puces semble maîtrisée, les chercheurs butent encore sur des difficultés pour lire les résultats. La méthode la plus répandue s'appuie sur l'utilisation de marqueurs fluorescents, des molécules qui sont fixées à l'ADN échantillon. En éclairant la puce, les zones où cet ADN s'est fixé s'illuminent et permettent de savoir quel gène se trouvait dans les cellules du patient. Mais la sensibilité reste insuffisante, et il faut faire subir aux échantillons une réaction chimique, la PCR, pour augmenter leur concentration en ADN. Une procédure fastidieuse que veut supprimer l'équipe de Chad Mirkin ( Université de l' Illinois), sans modifier les principes de fabrication des biopuces. Les chercheurs remplacent les marqueurs fluorescents par de minuscules particules d'or. Déversées sur la puce après avoir mis en contact son ADN et celui de l'échantillon, elles se fixent uniquement là où les deux se sont assemblés. En principe, l'or seul suffirait à repérer les endroits où s'est produit la réaction : ils prennent une légère teinte rose. Mais la sensibilité est alors si faible qu'il faut un microscope électronique pour lire les résultats. D'où l'idée d'amplifier la couleur par un traitement chimique. Comme l'or et l'argent font bon ménage, l'équipe de Mirkin révèle les puces à l'aide d'un bain argentique qui dépose de grandes quantités du métal sur les particules d'or. Un plaquage qui augmente cent mille fois la sensibilité du système. La puce peut alors être lue à l'aide d'un banal scanner d'images. La sensibilité est cent fois meilleure que la lecture par fluorescence. «Notre méthode permet de détecter la présence de seulement 60 molécules d'ADN dans un échantillon de 5 microlitres», explique Chad Mirkin. «Plus une zone de la puce a fixé de particules d'or et plus elle est sombre. La concentration se déduit de la mesure de l'intensité de gris.» De plus, cette méthode évite d'annoncer de faux positifs lors de tests de diagnostic médical: la bonne résistance à la chaleur des liaisons chimiques obtenues par le procédé permet de chauffer la puce, de façon à éliminer les gènes qui se seraient fixés à la mauvaise place.

Libération :

http://www.liberation.com/quotidien/semaine/20000914jeuzb.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top