|
|
|
|
|
NUMERO 167 |
|
|
|
|
|
|
|
Edition du 02 Novembre 2001
|
|
|
|
|
Edito
L'Occident et la mort
Depuis 40 siècles, l'Homme a fait des bonds extraordinaires dans la connaissance du monde dans lequel il vit mais il est toujours aussi impuissant face à la Mort. Et pourtant, des millions et des millions d'êtres humains ont voué sinon donné leur vie par la prière, la méditation et même le martyr, pour essayer de mieux connaître cet immense domaine de l'au-delà. Toutes les religions, quel que soit l'endroit de notre Monde où elles sont nées et se sont développées, ont toujours eu pour finalité d'aider l'Homme dans cette quête de l'infini. Après un vingtième siècle conquérant où, grâce à la Science et à la Connaissance, nous avons fait, dans nos sociétés occidentales, reculer la mort d'un " trimestre par année ", nous redécouvrons soudain, en ce début de 21ème siècle que, malgré toute la modernité qui nous entoure, nous sommes toujours aussi fragiles que nos ancêtres les Gaulois face à la Mort. L'Occident, depuis plus de 4 siècles, s'appuie sur une civilisation qui, souvent dans le sang, a voulu rompre ses liens avec la religion. Toutes les autres civilisations de notre Terre entretiennent toujours des rapports très étroits avec les religions qui leur ont donné naissance.Des historiens et des philosophes expliquent l'avance prise dans le domaine scientifique et technologique mais aussi dans l'organisation de nos sociétés occidentales par cette rupture des liens entre la religion et notre civilisation. En libérant l'imagination " civile ", l'Occident a créé, pas toujours avec bonheur, de nombreux mouvements en " isme " (libéralisme, communisme, etc...) qui ont profondément changé le destin de l'Homme. Mais maintenant que notre société moderne a transformé notre Terre en " village planétaire " et que chaque être humain va pouvoir accéder à la même information, à la même image, ce qui devait arriver est en train d'arriver. Nous avions pensé que nos sociétés occidentales auraient la capacité à elles seules d'apporter le Bonheur à toute l'humanité. Ce mouvement de fond commencé il y a plusieurs siècles avec les missionnaires, qui s'est accéléré dans ces dernières décennies avec les avions de chasse, les jeans, les coca-cola et les mac-do, a pris une toute autre ampleur avec les satellites, l'image globale et Internet. Nous n'avions pas compris que le matérialisme, le consumérisme n'apportaient aucune réponse à la seule question fondamentale que se pose l'Homme : Et après la mort, qu'y-a-t-il ? Alors, peu à peu, les fondamentalistes religieux s'appuyant sur des textes pétrifiés depuis des siècles, ont susurré aux plus faibles, aux plus fragiles mais aussi aux plus exposés, particulièrement en Terre de Palestine, que la modernité matérialiste de l'Occident ne servait en rien à sauver les âmes puisqu'elle était incapable de répondre à cette question fondamentale que se pose l'Homme. Le " mondialisme " favorisé par l'Amérique et l'Europe, personnifié dans toute sa rigueur par l'OMC mais aussi les images altières diffusées par l'Occident, que ce soit en Palestine ou pendant les guerres d'Irak, de Bosnie, du Kosovo ou même dans les temps présents, en Afghanistan, ne peuvent que favoriser l'éclosion et la montée en puissance du fanatisme. Et plus l'Occident utilisera la force et plus les fanatismes seront aveugles. Il nous faut trouver une issue. Nous ne pouvons persévérer dans cette voie qui ne peut nous mener qu'à l'échec. Pour cela, nos sociétés occidentales vont devoir changer leurs relations avec la mort. Depuis plusieurs siècles, l'Occident fait semblant de l'ignorer et veut même la cacher. Il nous faut quitter nos égoïsmes et dire avec humilité notre impuissance. Il nous faut d'abord rompre avec un non-sens tragique : la notion de guerre avec " zéro " mort qui, depuis dix ans, veut faire croire au reste du Monde que les Etats-Unis sont invincibles. La mort et la guerre sont indissociables et vouloir faire croire que des responsables peuvent déclarer la guerre sans que la mort perçoive sa dîme est une terrible erreur. Par ailleurs, la Paix ne s'installera pas durablement sur notre Terre tant que nous n'accorderons pas à chaque vie humaine, donc à la mort de chaque être humain, la même valeur. Les 6000 morts des Tours de Manhattan et du Pentagone ont ébranlé les fondations de nos Démocraties. Mais quelle attention portons-nous à la mort annoncée de 25 millions d'Africains touchés par le SIDA ? Avons-nous bien conscience que 90 % (je dis bien 9 sur 10) des Jeunes du Botswana aujourd'hui âgés de 20 ans mourront du Sida dans les 15 ans qui viennent (Source : Zaba B, 2000 [unpublished data]) ? Tant que nous n'aurons pas brisé ces égoïsmes qui guident nos sociétés occidentales depuis le début de la révolution industrielle et que ne se seront pas développées de nouvelles solidarités qui, bien au-delà des Droits de l'Homme, donneront une même valeur à chaque être humain, nous ne trouverons pas le chemin de la Paix. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La Cour de cassation a déclaré dans un arrêt du 16 octobre, rendu public mardi, que le délai de prescription des délits commis sur internet commençait à courir le jour de la première mise à disposition d'un message pour les internautes. Ce délai de prescription est le délai de trois mois établi à l'origine pour la presse et l'édition par la loi du 29 juillet 1881. Cet arrêt rendu par la chambre criminelle de la Cour de cassation met fin à l'incertitude de la jurisprudence depuis l'apparition d'internet car il fixe la règle de la prescription en déclarant que "le délai de prespription a pour point de départ le jour du premier acte de publication". "Lorsque des poursuites pour diffamation et injures publiques sont engagées à raison de la diffusion sur le réseau internet d'un message figurant sur un site, le point de départ du délai de prescription (...) doit être fixé à la date du premier acte de publication", dit la Cour. Elle précise que "cette date est celle à laquelle le message a été mis pour la première fois à la disposition des utilisateurs du réseau". Le délai de prescription est le délai dans lequel peuvent être engagées des poursuites contre l'auteur d'une infraction. Il est normalement de trois ans pour les délits, mais a été réduit à trois mois en matière de presse ou d'édition par la loi du 29 juillet 1881. Ce bref délai, destiné à protéger la liberté de la presse ou de l'édition, court à partir de la date de publication d'un article de journal ou du dépôt légal d'un livre. La loi de 1881 n'avait pas prévu la diffusion par les ondes ni par internet. Mais le caractère momentané de la diffusion par la radio ou la télévision a permis de fixer le point de départ de la prescription au jour de la diffusion. Pour internet, en revanche, la diffusion étant continue, le Tribunal correctionnel de Paris avait jugé le 6 décembre dernier que la règle ne pouvait pas s'appliquer, s'agissant d'une "publication ininterrompue" et donc d'une "infraction continue". "Le point de départ de la prescription se situe au jour où l'activité délictueuse a cessé", disait ce jugement. Or, il constatait qu'internet créait une permanence des infractions et des dommages causés aux victimes. Cette permanence doit donc avoir pour corollaire la possibilité de poursuivre l'infraction "à chaque instant de sa nouvelle existence", ajoutait le jugement. Certains juristes avaient alors parlé d'une "imprescriptibilité" de fait des délits commis sur internet. AFP : http://fr.news.yahoo.com/011030/1/27peb.html
|
|
|
|
|
|
|
|
IBM a dévoilé le 31 octobre une technologie qui pourrait permettre aux ordinateurs de se gérer et de se réparer tous seuls. Ce système s'inscrit dans le prolongement du projet eLiza, dévoilé par IBM il y a 6 mois et qui vise à permettre aux réseaux informatiques de s'autoréparer. Cette technologie est conçu à partir de l'expérience de Deep Blue, le super-ordinateur de jeu d'échecs mis au point par le géant informatique, est néanmoins complexe à mettre en place. IBM travaille sur des ordinateurs "se réparant eux-mêmes", capables d'identifier des pièces défectueuses et de gérer l'augmentation de leur charge de travail sans tomber en panne, ou sans nécessiter l'intervention de techniciens -un point-clé pour de nombreux spécialistes informatiques. Cette technologie, baptisée "e-business Management Services", reprend en partie les travaux ayant donné naissance à Deep Blue, l'ordinateur qui a su intégrer les règles des Echecs, peser chaque scénario et choisir le meilleur. Cette utilisation de la "force brute" de la puissance informatique a aidé Deep Blue à battre le champion du monde Garry Kasparov en 1997. Elle peut être appliquée à une activité professionnelle si l'on indique à l'ordinateur à quelles règles elle obéit et à élaborer les différents scénarios plutôt que de lui donner des instructions détaillées. D'un point de vue technique, cela pourrait signifier qu'un ordinateur, confronté à une surcharge de tâches, pourrait détecter les machines disponibles sur le réseau d'une entreprise et leur affecter les tâches les moins prioritaires. Pour faire cela, l'ordinateur examine toutes les réponses possibles et en choisit une. "C'est réellement essentiel pour fabriquer un système qui se comporte de manière intelligente", a déclaré Irvin Wladawsky-Berger, vice président d'IBM, Technology and Strategy. Si l'objectif est de laisser les ordinateurs se gérer eux-mêmes, l'offre d'IBM inclut néanmoins un service d'assistance initiale s'étalant environ sur 20 semaines, et une maintenance évaluée entre 30.000 et 100.000 dollars par mois, a précisé Todd Gordon, responsable des activités Services, qui cible une clientèle de très grosses entreprises. Brève rédigée par @RT Flash IBM : http://www.ibm.com/news/us/2001/10/31.html
|
|
|
|
|
|
|
|
Quand cliquer sur le papier vous conduit sur internet. C'est l'idée d'une jeune société lyonnaise, Wiziway , qui s'inspire du code barre pour relier un document papier à un document internet. La technique a de quoi séduire tout type de professionnels, comme le grand public. Les premiers professionnels visés sont par exemple ceux qui diffusent des catalogues, (vente par correspondance...), des manuels (maintenance...), de la documentation (services...), de l'information (les éditeurs, la télévision interactive...). Le principe repose sur pictogramme, c'est-à-dire un symbole de 2.4 mm de côté, inséré dans du texte, des tableaux, etc. sur un document papier et qui contient les informations. Lu par un lecteur optique connecté à l'ordinateur, il déclenche l'ouverture de la page web concernée. Reste cependant un obstacle de taille : faire adopter la solution par le plus grand nombre, pour pouvoir notamment faire baisser les coûts du lecteur optique. L'entreprise espère nouer des accords industriels pour intégrer ce périphérique avec une souris par exemple. Industries&Techniques : http://www.industries-techniques.com/site/quotidien/page.cfm?
|
|
|
|
|
|
|
|
A quoi ressemblera la future télévision numérique terrestre (TNT) ? Bien malin celui qui pourrait apporter une réponse pour des services qui ne seront pas lancés avant fin 2002. D'autant que les éditeurs de chaînes, comme les pouvoirs publics, n'ont eux-mêmes qu'une vague idée des conditions d'exploitation de ce canal de diffusion supplémentaire. Toutefois, le débat ne saurait être réduit à une joute entre les différents protagonistes du dossier (producteurs, diffuseurs, régulateur, gouvernement) sur la pertinence de précipiter le PAF (paysage audiovisuel français) dans cette entreprise. Aussi, le cabinet de consultants NPA, associé à la société d'études Quali Quanti, a réalisé une enquête sur les attentes et le niveau de connaissance des Français sur cette nouvelle télévision. Premier enseignement, « la qualité de son et d'image promise justifierait à elle seule la création d'un tel réseau numérique », explique Philippe Bailly, cofondateur de NPA. La qualité de réception des programmes est, en effet, le premier avantage plébiscité par les personnes interrogées, loin devant les autres critères. Et pour cause : le câble et le satellite, qui offrent des conditions de visionnage bien meilleures que la technologie hertzienne traditionnelle, ne touchent encore que 20 % des Français (11 millions d'individus). Ils sont donc près de trois sur quatre à se dire « tout à fait » intéressés par la qualité d'image et de son « proche du DVD ». Viennent ensuite la facilité d'accès (inutile de changer d'antenne), l'interactivité, la quantité de programmes et enfin la proximité. Ces résultats pourraient alimenter la réflexion des fabricants de décodeurs et de TV, qui chercheraient encore des arguments de vente pour renouveler le parc installé. L'étude fait ressortir que 40 % des Français ont l'intention d'acheter un nouveau téléviseur, mais seuls 7 % affirment qu'ils le feront « certainement » dans la perspective d'une offre gratuite de programmes. La possibilité de recevoir les cinq chaînes hertziennes et gratuites déjà existantes est d'ailleurs l'un des atouts majeurs qui plaident en faveur du lancement de la TNT. Entre 64 % et 66 % se disent « très intéressés » par TF1, France 2, France 3, M6, la Cinquième et 60 % par Arte. Les Français sont-ils prêts à payer pour avoir la TNT ? Le seuil psychologique est bas avec un prix moyen « acceptable » légèrement supérieur à 12,2 euros (80 francs), location du décodeur comprise pour une à deux chaînes thématiques incluant de l'information, des émissions pour enfants, de la musique, des documentaires et de la fiction. Pour une offre complète (une ou deux chaînes de cinéma et de sport), le prix moyen monte à 19,8 euros mensuels, l'accès à des films constituant la principale motivation pour un tel abonnement payant. Se dessine donc ici la rivalité que les protagonistes redoutent entre la TNT et le câble. Une rivalité qui risque fort de se traduire par une guerre des prix. Si 15 % seulement des sondés trouvent « globalement » la télévision numérique terrestre « très intéressante » (64 % la trouvent « plutôt intéressante »), ils sont 25,9 % à exprimer le même sentiment parmi la population des abonnés au câble, et, chez les abonnés au satellite, 10,5 %. En outre, 27 % des personnes interrogées trouvent la TNT « beaucoup plus intéressante » que le câble et 16 % « beaucoup plus intéressante » que le satellite. OINet : http://www.01net.com/rdn?oid=165250&thm=NOUVELHEBDO_VIEDUNET_ETUDES
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La dictature va enfin laisser place à l'anarchie !” lance avec emphase Karl Fant, le très dynamique fondateur et directeur technique de Theseus Logic. Il se met alors à parler de la révolution à venir, chambardement qui, à l'en croire, devrait arracher les microprocesseurs aux contraintes du passé. Comment ? En les débarrassant de l'horloge, ce dispositif fondamental par lequel, depuis les débuts de l'informatique, ils organisent et exécutent leur travail. Même ceux d'entre nous qui ne connaissent rien aux microprocesseurs ont une vague idée de leur horloge. Depuis des années, Intel a fait de la vitesse d'horloge de ses processeurs un argument de vente : plus la vitesse d'horloge est élevée, mieux c'est. Ce qui revient toujours dans la plupart des publicités pour ordinateurs, outre le prix, c'est un chiffre du genre “1,3 GHz” (ou gigahertz). Un processeur sans horloge serait à peu près aussi utile qu'une page de texte sans espace entre les lettres. La plupart des concepteurs de puces imagineraient mal devoir se passer de l'horloge. Ce n'est pas le cas de Fant ou des iconoclastes dans son genre, qui, dans des start-up, des universités ou des centres de recherche d'entreprises, travaillent à concevoir des puces sans horloge. La “conception asynchrone” - l'un des noms de cette technique non conformiste - offre de tels avantages, à les en croire, que tous les fondeurs y viendront un jour ou l'autre. “Les concepteurs réalisent qu'il devient de plus en plus difficile de répartir une horloge sur des systèmes d'une complexité toujours croissante, et que tôt ou tard cela ne fonctionnera plus”, assure Alain Martin. Professeur d'informatique à Caltech, il a mis au point le premier microprocesseur sans horloge en 1989. Il souligne qu'à mesure que les puces gagnent en complexité une part grandissante de l'énergie nécessaire à leur fonctionnement est engloutie par l'horloge elle-même, qui doit maintenant coordonner le fonctionnement de millions de transistors. En se passant de l'horloge, les puces asynchrones présentent de grands avantages. Et en particulier une consommation électrique nettement moindre, ce qui se traduit par une meilleure autonomie pour les ordinateurs portables]. La technologie sans horloge offre aussi des gains de puissance de traitement. En 1997, Intel a mis au point une puce test asynchrone, compatible Pentium, qui tournait trois fois plus vite, avec moitié moins d'énergie, que son équivalent synchrone. Chez Theseus, Fant s'est concentré sur un autre avantage de la conception asynchrone. De tels processeurs n'émettant pas de signal à intervalles réguliers, comme le font les circuits à horloge, ils se prêtent mieux au cryptage. Ce qui devrait leur ouvrir le marché des cartes à puce, ainsi que celui d'applications sensibles comme le stockage des dossiers médicaux, l'échange de fonds électroniques et l'identification des individus. La mise sur le marché de processeurs sans horloge se heurte à un obstacle majeur : le manque d'outils automatisés permettant d'accélérer leur conception. Il y a vingt ans, une poignée d'ingénieurs pouvaient dessiner sur une feuille de papier les circuits d'un microprocesseur. Aujourd'hui, des centaines d'ingénieurs travaillent en équipes, et le seul moyen de coordonner leur action consiste à utiliser des outils informatiques de pointe. Mais les concepteurs de puces asynchrones sont confrontés au problème de l'oeuf et de la poule : s'il n'existe pas de marché grand public pour les puces asynchrones, les sociétés ne sont guère incitées à créer les outils pour les fabriquer ; or, sans ces outils, impossible de produire les puces. Le même problème se pose pour le développement des technologies de test des microprocesseurs. Même si on est encore très loin d'une démocratisation des puces sans horloge, on en voit déjà les premiers signes. Intel, qui a renoncé à ses projets de processeur asynchrone en 1997, a intégré des éléments de sa technologie sans horloge dans le Pentium IV, apparu cette année. “Nous introduisons la conception asynchrone à petites doses sur une puce à conception classique, note Ken Stevens. A ce stade, si nous pouvons faire quelque chose de façon asynchrone, et que cela se traduit par une moindre consommation, nous le ferons.” Courrier international : [http://www.courrierint.com/mag/INTmedia.htm
|
|
|
|
|
|
|
|
Confrontés aux limites de la loi de Moore, les chercheurs d'Intel se tournent vers la voie optique. Avant dix ans, les fils d'aluminium et de cuivre qui relient entre eux les composants de la carte mère devraient être remplacés par des fibres optiques et l'information transportée sous forme lumineuse. A terme, les transistors des processeurs pourraient même être remplacés par des circuits optiques. Principal obstacle à leur développement : le coût. Comment améliorer globalement les performances d'un ordinateur ? En lui procurant des processeurs plus rapides, des chipsets à fréquence de bus élevée et des bus frontaux à la bande passante toujours plus large. Des orientations suivies par l'ensemble des acteurs de l'industrie. Mais l'optimisation de la puissance des processeurs passe par l'augmentation du nombre de transistors, lesquels doivent être toujours plus petits pour se loger dans un boîtier en constante réduction, ce qui induit des risques d'interférence du signal électrique. Et doubler tous les 18 mois le nombre de transistors, comme l'édicte la loi de Moore, nécessite un besoin en énergie électrique toujours plus important. Si les limites sont encore loin d'être franchies (certains pensent atteindre le milliard de processeurs), à terme cette solution n'est pas viable, selon les ingénieurs. Le choix du signal lumineux véhiculé par fibre optique pourrait apporter une solution. Les laboratoires d'Intel, parmi d'autres, travaillent à une architecture où les tracés de cuivre et d'aluminium qui relient les composants de la carte mère (processeur, mémoire vive, chipset...) seraient remplacés par de la fibre optique véhiculant un laser. Le signal optique de la fibre se révèle plus rapide et moins gourmand en énergie que les contacts métalliques. Là où le cuivre offre des débits de 10 Gbits/s - le double dans les années à venir selon Intel - la fibre optique permettrait d'atteindre un débit de 30 à 60 Gbits/s. Vitesse de transfert du signal et faible besoin d'énergie sont les deux principaux avantages de la fibre optique associée au laser. Et malgré les coûts aujourd'hui élevés, la solution optique apparaît aux yeux de nombreux chercheurs comme inévitable à terme. D'autant que les coûts en question devraient baisser dans le temps avec la généralisation de ces technologies optiques. En attendant, l'usage de la fibre optique se justifie pleinement pour des circuits qui nécessitent une parfaite isolation électrique. Leur utilisation pourrait notamment se tourner vers les horloges des processeurs afin d'en éliminer les délais induits par le signal électrique. Vunet : http://www.vnunet.fr/actu/article.htm?numero=8651&date=2001-10-19
|
|
|
|
|
|
|
|
D'ici trois ans, l'Alsace pourrait produire ses premiers kilowatts d'électricité géothermique. Sa technique unique au monde, produit de la vapeur à 5000 mètres sous terre, dans des roches chauffées à 200°C. Le feu vert pour la construction d'un pilote de 5 MW vient d'être donné par le GIE Exploitation Minière de la Chaleur. Les travaux, d'un coût de 24 millions d'euros, débuteront dès le printemps prochain. A terme, le GIE espère construire une usine prototype de 25 à 30 MW et lancer la production en série d'ici 2012 à 2015. Contrairement aux techniques classiques qui exploitent des gisements d'eaux souterraines, cette nouvelle technologie utilise la géothermie en roche sèche. Des puits sont creusés jusqu'à 5000 mètres de profondeur, où la température est proche de 200°C. Ensuite il y a injections d' eau, que l'on fait circuler à travers les fissures naturelles de la roche, d'un puits à l'autre. Quand le puits est creusé, on injecte de l'eau sous pression à 150 bars. Elle pénètre lentement les fissures et les fait jouer. Lorsque l'on relâche la pression, les fissures se referment, mais comme elles ne sont plus alignées elles laissent des vides par lesquels l'eau peut circuler. Un volume de sous-sol exploité de un kilomètre cube, peut alimenter une centrale de 25 à 30 MW. Sur 20 ans, ce même volume pourrait fournir l'équivalent énergétique de 1,275 millions de tonnes de pétrole. En Alsace, par exemple, il y a 4000 kilomètres carrés de sol très favorable. Seulement 10% de cette surface suffirait à couvrir tous les besoins de la région en électricité. En France, il y a en tout 30 000 kilomètres carrés très favorables à l'exploitation géothermique. De quoi développer une puissante industrie qui, s'il le faut, saura exploiter des zones moins accessibles. Dès lors, le potentiel serait multiplié par 100. Cette énergie ne pourra être bon marché qu'à condition d'être produite massivement. GIE table dans un premier temps sur un prix du courant autour de 44 à 58 centimes par kW/heure. Ce prix correspond au prix de rachat de l'électricité renouvelable garanti en Allemagne. Cependant, d'après une étude du CNRS, dés qu'il y aura production en série, ce prix pourrait chuter facilement jusqu'à 25 ou 30 centimes. L'énergie géothermique deviendrait du coup tout à fait concurrentielle. Sachant que le refroidissement du sous sol est de 1°C par an environ. Avec des forages à 5000m, il sera donc possible d'exploiter à plein régime un site pendant 20 ans avant d'avoir à l'abandonner, le temps qu'il se réchauffe tout seul. Cela prendra alors entre 30 et 100 ans. Entre temps, on ira creuser un peu plus loin. On peut aussi exploiter le puits pour alimenter un réseau de chaleur. Par ailleurs rien n'oblige d'exploiter à fond le gisement pour éviter qu'il ne se refroidisse. Il durera alors beaucoup plus longtemps. Dans deux an et demi à trois ans, les puits seront terminés et la roche préparée. On procédera alors aux tests de circulation. Si tout fonctionne bien, d'ici cinq ans la production d'électricité dans le pilote devrait démarrer. Parallèlement l'étude d'ingénierie du prototype de 25 kW sera lancée. Il devrait être prêt d'ici 2010. La production en série suivra deux à cinq ans plus tard. Futurs : http://www.futur-e-s.com Programme européen d'exploitation minière de la chaleur : http://www.soultz.net/
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le chercheur Hubert Hondermarck a présenté au congrès de métrologie de Saint-Louis, en France, une méthode de détection du cancer du sein qui pourrait révolutionner le traitement de cette maladie en permettant de diagnostiquer une tumeur avant même qu'elle ne soit visible. Développée par des biologistes cellulaires et des biochimistes de l'Université Lille, cette méthode repose sur la protéonique, c'est-à-dire l'étude des protéines qui se trouvent dans les cellules du corps humain. Certaines protéines sont présentes dans une cellule normale et disparaissent quand il y a cancérisation et chaque type de cancer produit des protéines particulières. Il est ainsi possible de détecter les protéines spécifiques des cellules cancéreuses très tôt, dans le sang ou les urines, alors qu'aujourd'hui, il faut voir la tumeur. Et quand elle a atteint un demi centimètre, il y a déjà des milliards de cellules cancéreuses. La métrologie intervient à cette étape de la détection. Sans les nanotechnologies inventées par les métrologues pour effectuer avec précision les mesures de l'infiniment petit, les dosages de ces protéines seraient impossibles, et le diagnostic également. La biométrie va bientôt rendre possible la mise au point de «cartes d'identité tumorales» qui vont décrire les protéines contenues dans une tumeur, ce qui va permettre de proposer à chaque patiente un traitement spécifique. Radio Canada : http://radio-canada.ca/nouvelles/sante.asp
|
|
|
|
|
|
|
|
Finis les radiographies pleines de vilaines radiations ! Des chercheurs français et canadiens ont mis au point un nouveau système de radiologie, qui réduit les doses de radiation accompagnant les rayons X de 10 à 20 fois et qui augmente la qualité des images. Cette invention, qui devrait bientôt équiper les hôpitaux montréalais, permettra à ceux qui doivent souvent passer des radios de voir les risques de cancer diminuer. Ce système d'imagerie permet d'avoir simultanément deux plans radiographiques, de face et de profil, d'un patient en position debout, au lieu d'un seul. A partir de ces deux plans, l'équipe canadienne, dirigée par Jacques De Guise, obtient une image en trois dimensions, grâce à une technique de traitement informatique. Selon Jacques De Guise, spécialiste de l'imagerie orthopédique et chirurgicale et professeur à l'École de technologie supérieure de Montréal, cet appareil complète le système scanner à 3D, utilisé pour avoir des images en coupe du corps humain. Il permet d'avoir une représentation précise d'une colonne vertébrale avec deux images face-profil. Pour la même image tridimensionnelle, un scanner à 3D nécessite entre 300 et 500 images. Besok : http://www.besok.com/actu.cfm?id=14060
|
|
|
|
|
|
|
|
Il y a du nouveau dans les pacemakers. Ces petits appareils de contrôle du rythme cardiaque s'apprêtent en effet à bénéficier de l'apport des nouvelles technologies en général, et des progrès dans les liaisons sans fil en particulier, pour le plus grand bénéfice des patients. Medtronic, une société américaine spécialisée dans la fabrication des pacemakers, devrait bientôt demander à la FDA (Food and Drug Administration) l'autorisation de mise sur le marché du "Chronicle", un système de surveillance des patients à distance. Une fois par jour, les porteurs du Chronicle approchent un petit module de leur coeur, pendant cinq minutes. Grâce à une transmission sans fil, assurée au moyen d'une norme propriétaire similaire à Bluetooth, différentes informations telles que le rythme cardiaque ou la pression artérielle du porteur sont transmises, via Internet, à des ordinateurs connectés en réseau. Les médecins connectés à ce réseau peuvent ainsi consulter un relevé quotidien du contrôle cardiaque de leurs patients, ainsi que l'historique des précédents relevés et des statistiques sur les données recueillies. Le système proposé au patient est assez léger : il comprend un pacemaker, un module constitué d'une antenne, et un boîtier de transmission. Des tests du Chronicle Patient Management System, qui n'est pas encore commercialisé, ont déjà été menés en Europe et aux États-Unis. Mais sur le marché des pacemakers "communiquant à distance", la concurrence est rude : Medtronic vient de se faire doubler par Biotronik, filiale américaine d'une société allemande. Le 11 octobre 2001, la FDA a accordé l'autorisation de mise sur le marché américain du Biotronik Home Monitoring System, un pacemaker comparable à celui développé par Medtronic. Le pacemaker de Biotronik comprend un petit émetteur d'ondes radio ainsi qu'un appareil de type "téléphone cellulaire" (assurant la fonction de relais entre lepacemaker du patient et l'ordinateur du praticien) que le patient porte dans sa poche ou dans un sac. Le pacemaker peut être programmé pour envoyer desdonnées de façon quotidienne ou mensuelle sur l'ordinateur d'un cardiologue. Seul inconvénient de ces nouveaux "gestionnaires cardiaques électroniques" : le patient doit demeurer dans une zone de transmission définie. Dans son communiqué, la FDA indique le porteur de Biotronik doit rester dans "une zone délimitée par l'opérateur chargé du téléphone cellulaire". On peut supposer que celle-ci est plus étendue que celle du système de Medtronic, basée sur un réseau sans fil. A priori, les porteurs de pacemakers vont donc gagner du temps et du confort avec ces petits appareils. À condition que les liaisons entre les porteurs et leur médecin soient bien sécurisées... Transfert.Net : http://www.transfert.net/ FDA : http://www.fda.gov/bbs/topics/ANSWERS/2001/ANS01108.html
|
|
|
|
|
|
|
|
Avec 180.000 décès par an, les maladies cardiovasculaires (infarctus du myocarde et accidents vasculaires cérébraux) restent la première cause de mortalité en France. Leur prévention, par la prise en charge des différents facteurs de risque, et plus spécifiquement des ''quatre bourreaux du coeur'' que sont l'hypertension, l'hypercholestérolémie, le tabagisme et la sédentarité, peut avoir une influence considérable sur l'évolution de ces maladies. Le cholestérol, substance indispensable à notre organisme, peut devenir dangereux lorsque son taux dans le sang dépasse 2g/l. Le cholestérol en excès se dépose sur la paroi des artères, notamment celles du coeur (artères coronaires), formant des plaques graisseuses qui s'épaississent au fil des ans (athérosclérose) et qui finissent par boucher les artères. Pour l'éviter, faites trois repas par jour, à peu près équivalents, en commençant la journée par un petit-déjeûner copieux. Limitez l'usage des graisses saturées (celles qui se figent en refroidissant telles que le beurre ou les fromages gras), utilisez des margarines végétales riches en graisses poly-insaturées (les autres graisses), et évitez l'excès d'aliments sucrés. Tout comme l'excès de cholestérol sanguin, l'hypertension artérielle (HTA) atteint toutes les artères. Elle correspond à une pression trop élévée du sang dans les artères et favorise le dépôt de graisse sur leur paroi, avec les mêmes conséquences. En outre, elle contraint le coeur, soumis à la forte résistance opposée par les artères, à une surcharge de travail, le fatigue prématurément et provoque sa défaillance. C'est ce que l'on appelle l'insuffisance cardiaque. Le tabac, on le sait, représente à lui seul une grande menace pour les artères, notamment les artères coronaires (du coeur), les artères des jambes et les artères cérébrales (risque de paralysie). L'oxyde de carbone qu'il contient prend la place d'une partie de l'oxygène transporté par le sang et favorise les dépôts de cholestérol sur la paroi des artères. La nicotine accélère les battements du coeur, augmente le tension artérielle, fait baisser le ''bon cholestérol'', augmente l'agrégation des plaquettes sanguines et favorise la formation des caillots. Enfin, sans effort physique régulier, le muscle cardiaque perd sa puissance de contraction. Il reçoit et envoie de moins en moins de sang dans le corps, donc moins d'oxygène aux muscles et aux organes; il récupère moins vite après l'effort. En développant le muscle cardiaque, l'exercice physique régulier lui donne une réserve de puissance. Un coeur plus musclé travaille plus longtemps sans défaillance, envoie plus de sang dans l'organisme. Chaque fois que cela vous est possible, préférez la marche à la voiture, montez les escaliers, pratiquez le jardinage et le bricolage, selon vos goûts. AP : http://fr.news.yahoo.com/011023/5/25n6q.html
|
|
|
|
|
|
|
|
Deux équipes de chercheurs américains viennent de mettre en évidence les mécanismes permettant à la toxine de la maladie du charbon de pénétrer à l'intérieur des cellules humaines puis d'éviter les attaques lancées par le système immunitaire. Ces recherches pourraient déboucher sur de nouvelles approches, voire de nouveaux médicaments, permettant de traiter la maladie du charbon, estiment les deux équipes dans la revue scientifique britannique Nature. Compte-tenu du contexte international, l'hebdomadaire a décidé d'avancer de deux semaines la date de publication des deux articles. L'équipe conduite par John A.T Young, de l'université de Madison (Wisconsin) a découvert l'existence d'un récepteur situé sur la surface des cellules humaines à partir duquel la toxine les envahit : une partie de la toxine, un antigène protecteur (PA) se fixe sur ce récepteur puis pénètre à l'intérieur de la cellule. Les chercheurs ont cloné ce récepteur et constaté qu'il collait parfaitement à l'antigène protecteur. Ils ont aussi constaté qu'une version soluble de ce récepteur de PA absorbait la toxine et protégeait donc les cellules. Cette recherche "permet d'espérer le développement de nouvelles approches pour traiter la maladie du charbon", écrivent les auteurs des travaux. Dans un autre article, Robert Lliddington de l'Institut Burnham, à La Jolla (Californie), montre comment une autre partie de la toxine, le facteur mortel (lethal factor, LF), semble capable, au début de l'infection, de réduire ou de retarder la réponse immunitaire puis, à des stades plus avancés de la maladie, de provoquer la "lyse" (la fragmentation et la désintégration) des macrophages chargés de la défense de l'organisme. Ces observations montrent, selon les chercheurs, que cette protéine est "cruciale dans la pathogénèse" de la maladie et qu'elle pourrait constituer une cible de choix pour des agents thérapeutiques capables de bloquer l'activité du LF et donc de laisser les macrophages faire leur travail de nettoyage du sang. La maladie du charbon, qui a probablement tué trois personnes aux Etats-Unis et au total touché onze personnes, peut se transmettre par inhalation, par contact cutané ou par ingestion. L'inhalation est le mode de transmission privilégié du bacille du charbon. Une fois inhalées, les spores - la carapace dans laquelle se protège le bacille - vont se loger dans les alvéoles pulmonaires puis passent dans les ganglions du thorax où elles se réveillent, se multiplient et produisent des toxines qui, à leur tour, se propagent, jusqu'au cerveau. Si elle n'est pas traitée la maladie - qui ne se transmet pas d'homme à homme - est mortelle, dans 90 % des cas. Son incubation peut prendre jusqu'à deux mois et les premiers symptômes - fièvres frissons, douleurs musculaires - ressemblent à une grippe ou une bronchite. Nature : http://www.nature.com/nsu/011025/011025-9.html
|
|
|
|
|
|
|
|
Comment détecter une dispersion aérienne de germes de l'anthrax si par malheur l'idée venait à un groupe terroriste d'employer cette méthode plutôt que celles auxquelles nous sommes confrontés aujourd'hui? C'est la question que se sont posées Sylvia Westphal et Catherine Zandonella cette semaine dans la revue New Scientist qui paraîtra le 27 octobre. Elles ont répertorié les différentes méthodes que l'on pourrait employer pour prévenir une attaque par le bacille charbonneux. Actuellement, nous contrôlons ce que nous jugeons suspect, lettres, poudres, colis et nos moyens de détection sont suffisants pour détecter le germe de l'anthrax (anticorps, PCR, cultures...) bien que quelquefois hasardeux et longs. Cependant, ces test sont réalisés parce qu'une attaque est suspectée à un endroit donné. Qu'en est-il d'une attaque aérienne ou des spores de l'anthrax pourraient être projetées sur des kilomètres carrés? Plusieurs équipes ont déjà réfléchi à des détecteurs de 'nuages biologiques'. Au Lawrence Livermore National Laboratory en Californie, Page Stoutland et son équipe ont mis au point une machine de la taille d'une boîte d'allumette capable de 'sentir' les bactérie (à l'aide d'un anticorps) et de donner une alarme radio. Mais il existe des possibilités de fausses alarmes avec de tels tests. Une technologie pourrait constituer la solution :le laser. Un système de visée laser montée sur un hélicoptère, conçu au Los Alamos National Laboratory, permet de détecter parmi un nuage suspect la taille et la densité des particules le composant. Le nuage est jugé artificiel si les particules ont la même taille. Mais ce système ne détecte pas le genre des bactéries. Aussi des chercheurs ont utilisé les ultraviolets qui peuvent donner des signaux spécifiques caractéristiques d'un agent pathogène à douze kilomètres à la ronde. Mais comment différencier le germe de l'anthrax de ses parents proches ? «Peut-être en bombardant les spores et en détectant ses composants», répondent les auteurs. "Ces technologies coûtent cher et ne seront pas disponibles avant longtemps", commentent les auteurs de cette revue. Selon eux, «avant que les gouvernements mettent en place de tels systèmes, la vigilance et les test de culture actuellement disponibles restent les meilleures moyens de défense contre l'anthrax». New Scientist 27 octobre 2001. : http://www.newscientist.com/news/news.jsp?id=ns99991490
|
|
|
|
|
|
|
|
Chez les femmes qui ont subi une ablation d'un sein, elle permettrait en effet de réduire la douleur, les nausées et les vomissements. Après ce type d'intervention, plus de 70% des opérées se plaignent de ces troubles. Des études déjà anciennes avaient certes montré l'efficacité de l'acupuncture, en comparaison d'un traitement par placebo. Mais elle n'avait jamais été évaluée en comparaison avec l'ondansetron, antiémétique ( contre les nausées) de référence après mammectomie. Le Dr Tong Joo de l'université Duke aux Etats-Unis, a suivi 40 femmes. Toutes venaient de se faire opérer. Un tiers a bénéficié d'un traitement par acupuncture dès avant l'opération, un autre tiers a reçu le traitement habituel et le dernier tiers a constitué le groupe contrôle. L'auteur a ainsi constaté que, deux heures après l'intervention, l'acupuncture réduisait sensiblement les nausées et les vomissements par rapport aux deux autres groupes. Mais la vraie surprise est venue de son effet sur la diminution de la douleur. Un tiers seulement des femmes du premier groupe s'est en effet plaint de souffrir, contre respectivement 64% et 77% pour les deux autres groupes. Destination Santé : http://www.destinationsante.com/
|
|
|
|
|
Des chercheurs de l' Université de Cornell aux Etats-Unis ont réussi à entraîner chez la souris la croissance et la différentiation de neurones. Pour ce faire, ils ont utilisé une technique de transplantation de cellules nerveuses couplées à des microcapsules remplies d'un facteur de croissance, la neutrophine. Ce composé, qui permet la survie des neurones, ne peut être injecté dans tout l'organisme du fait de ses effets secondaires. Il risque en effet d'entraîner la croissance d'autres cellules que les cellules nerveuses ce qui aurait des conséquences dangereuses. D'où l'intérêt de posséder un système de relargage local. Grâce à ce système, les scientifiques créent un micro-environnement favorable à la régénération cellulaire sans conséquence sur le reste de l'organisme. La réussite de ces tests permet d'entrevoir des solutions pour les maladies neurodégénératives telles que la maladie d'Alzheimer. Industries&Techniques : http://www.industries-techniques.com/site/quotidien/page.cfm?
|
|
|
|
|
|
|
|
Développé par le centre de recherche d'Opticon et des équipes de chercheurs de diverses origines, cet appareil destiné à l'aide auditive des personnes malentendantes s'appuie sur un logiciel capable de reconnaître des paroles parmi les bruits divers qui constituent n'importe quel environnement sonore. "C'est exactement ce que fait le cerveau quand il écoute normalement, il nous épargne de la fatigue en ne tenant pas compte des bruits qui ne sont pas des paroles", explique Karen Pullar, directeur général d'Opticon Nouvelle-Zélande. Lorsque l'Adaptom détecte des bruits de paroles, il augmente automatiquement son volume. Lorsque personne ne parle, il restitue les bruits environnants de façon plus "douce". Mais il ne restitue pas tous les sons : il sait par exemple minimiser le bruit du vent qui parvient dans les oreilles, mais sait aussi restituer les bruits d'une forêt ou ceux de l'océan. De plus, il parvient à éliminer le retour de la propre voix ou des bruits de mastication qui parviennent aux oreilles du porteur de l'appareil. Ces bruits parasites constituent en effet une gêne importante pour les personnes équipées de ce type d'appareil auditif. Programmable, le logiciel de l'Opticon s'adapte à chaque porteur en fonction de son degré de surdité, de son âge et de son style de vie : quatre modes d'écoute, correspondant chacun à un environnement sonore plus ou moins bruyant, sont disponibles. Commercialisé au Danemark depuis le 18 octobre, l'Opticon est en phase de test en Nouvelle-Zélande, où sa sortie est programmée pour février 2002. On attend de connaître l'opinion des utilisateurs pour mesurer l'étendue du progrès accompli. Transfert : http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=7617
|
|
|
|
|
|
|
|
Munster (Basse-Saxe). En 2003, date d'obtention probable de son autorisation de mise sur le marché, le pansement intelligent "Nimos" devrait révolutionner le quotidien des diabétiques. C'est du moins ce que nous promet Meinhard Knoll, professeur de micro-électronique a l'université de Munster. Apres de longues années de recherche, il a mis au point une biopuce intégrée dans un pansement et capable de mesurer le taux de glycémie à travers l'épiderme. Avantage immédiat pour les diabétiques: les prises de sang a répétition deviendraient caduques. D'un point de vue économique, le pansement intelligent pourrait également se révéler extrêmement intéressant. "Nimos", de par ses caractéristiques, réduirait considérablement les frais de remboursement des tests de glycémie. L'industrie pharmaceutique a flairé le danger. Les tests, qui représentent une part non négligeable de ses ventes, pourraient être menacés par l'introduction du pansement intelligent. Le professeur Knoll a reçu une offre de rachat de son brevet de la part d'un grand groupe pharmaceutique. Offre qu'il a déclinée, craignant que son invention ne soit enterrée... BE Allemagne : http://www.adit.fr
|
|
|
|
|
|
|
|
La spécialisation se fait de plus en plus jeune. Dès le moment où l'embryon se divise pour la première fois, pour atteindre le stade "deux cellules", il semble qu'il ait déjà assigné une destinée à chacune de ces cellules. Il faut se rappeler que les premières cellules de l'embryon de mammifère étaient réputées jusqu'ici pour leur capacité, unique, à former n'importe quelle structure anatomique: d'où leur nom de totipotentes. La destinée des cellules embryonnaires -celles qui deviendront des cellules pulmonaires, ou cardiaques, ou cérébrales, etc.- était définie, croyait-on, seulement après quelques jours, contrairement aux grenouilles, par exemple. De cette façon, la mort de certaines cellules n'affecterait donc pas le développement normal de l'embryon, les autres cellules étant capables de remplir la même fonction. Or, cette découverte réalisée à l'Université Cambridge et rapportée dans la dernière édition de la revue Development, signifie que le développement de l'embryon serait, après tout, semblable chez les mammifères et les autres espèces animales. Et le fait qu'elles se spécialisent aussi vite renferme peut-être ce secret auquel rêvent ceux qui tentent de manipuler ces cellules embryonnaires (cellules-souches) en laboratoire, afin de produire des organes "à volonté". Les cours d'embryologie devront être révisés... ASP : http://www.sciencepresse.qc.ca/archives/2000/cap22100110.html Development : http://dev.biologists.org/current.shtml
|
|
|
|
|
|
|
|
Un nouvel appareil, permettant aux diabétiques de mesurer leur glycémie sans se piquer le bout des doigts comme avec les autres appareils d'auto-surveillance, va être prochainement mis sur le marché, a annoncé vendredi la société Medisense, filiale des laboratoires Abbott qui le commercialisera. Baptisé Sof-Tact, cet appareil au fonctionnement quasi indolore est le premier conçu pour effectuer les mesures de glycémie sur le bras, l'avant-bras ou la base du pouce. Il se compose d'un système auto-piqueur et d'un analyseur qui donne le taux de glycémie en 20 secondes. Son prix est de 1.300 francs auquel il faut ajouter celui du kit de 100 électrodes (266 francs). Cet ensemble devrait être remboursé à hauteur de 523 francs, a précisé le directeur du laboratoire. "Le Sof-Tact devrait permettre aux diabétiques de mieux gérer leur maladie, d'éviter l'hypoglycémie et donc les complications", a expliqué le Professeur André Grimaldi, chef du service de diabétologie à la Pitié-Salpétrière à Paris. Dans les 25 ans à venir, le nombre de diabétiques pourrait plus que doubler sur la planète, passant de 150 millions à plus de 300 millions. Au Etats-Unis, cette maladie entraîne 105.000 amputations par an. En France, ce chiffre est d'environ 8.000. La Recherche : http://www.larecherche.fr/actu/n011026151217.sle9je11.html
|
|
|
|
|
|
|
|
Mangez des tomates ! » pourrait bien devenir une prescription médicale courante, si les recherches en matière d'OGM portent leurs fruits. Les biotechnologues aspirent en effet à modifier des légumes ou des fruits pour leur faire produire des médicaments ou des vaccins. À cette fin, la transformation des chloroplastes, les organites responsables de la photosynthèse, est apparue depuis quelques années comme la nouvelle route à suivre. En effet, les 10 000 copies d'ADN chloroplastique contenues dans chaque cellule végétale promettent un rendement considérable. Mais cibler le génome de chloroplastes reste une technique souvent difficile à mettre en oeuvre et peu productive sur certaines plantes. Cependant, la transformation chloroplastique va peut-être connaître un nouvel essor. L'équipe de Ralph Bock, de l'Institut de biologie de Freiburg, a trouvé le moyen d'augmenter le rendement protéique de tomates modifiées selon cette technique. Les chercheurs allemands ont ciblé une nouvelle région du génome chloroplastique, présentant une forte zone d'homologie avec le vecteur utilisé, ce qui augmente la fréquence de recombinaison du transgène. Ensuite, les conditions de sélection des plants transformés ont été beaucoup plus draconiennes que celles qui avaient réussi pour le tabac : la faible luminosité et la durée de sélection particulièrement longue (3 à 4 mois, contre quelques semaines pour le tabac) favorisent la stabilité de la transformation. Enfin, l'équipe s'est assurée que le promoteur utilisé fonctionnait toujours lors de la maturation du fruit, période durant laquelle le chloroplaste change de nature pour devenir chromoplaste. Après toutes ces précautions, le taux de protéines étrangères s'est élevé à 40 % des protéines solubles normalement synthétisées, et a été retrouvé à la génération suivante. Les chercheurs ont construit le transgène - ici un marqueur de sélection - de sorte que d'autres gènes, d'intérêt thérapeutique cette fois-ci, puissent s'y greffer. En 1992, la Communauté européenne autorisait le commerce d'un vaccin OGM contre la rage des renards. Fortes de cet encouragement, de nombreuses équipes s'étaient alors orientées vers la fabrication de médicaments oraux contenus dans un légume ou un fruit modifiés. Plusieurs tentatives se sont d'ailleurs révélées fructueuses, dont une pomme de terre produisant un vaccin oral contre l'hépatite B, obtenue en 2000. Mais la dispersion du transgène dans l'environnement via le pollen restait un obstacle majeur. La transformation des chloroplastes répond à cette difficulté : totalement absents des grains de pollen chez la plupart des espèces, ces organites restent confinés dans la graine avec leur matériel génétique. Tout danger de contamination des cultures voisines est alors limité, voire écarté. Biofutur : http://www.biofutur.com/
|
|
|
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|