RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 112
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Septembre 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Plus de 295 millions de personnes ont un accès personnel à l'internet
Attaque par saturation : menace de tempête sur le net
Voyage au coeur de la fracture numérique
Nouvelles technologies: le déclic de la rentrée
Internet à l'école : la France à la traîne
Le progrès technologique réduira la "fracture numérique" mondiale
Les logiciels font tourner la planche à brevets
Windows Millennium Edition met plus de multimédia sur votre PC
La convergence entre l'internet et la télévision s'accélère
Plus de trois cents heures d'écoute sur un baladeur MP3
Avenir
Que la lumière soit !
Matière
Vers l'écran souple
Espace
L'eau coule-t-elle sur Mars ?
Terre
Climat : la tendance au réchauffement est ancienne
La Terre aurait un système d'autorégulation du climat
Vivant
Première implantation du coeur artificiel Jarvik 2000
Maladie d'Alzheimer : découverte d'une protéine-clef
Le coeur aime le chocolat
Le parlement européen vote contre le clonage thérapeutique
Découverte étonnante au Congrès
La révolution de la médecine nucléaire
Le bilan de la santé en France
Premier essai de thérapie génique contre la dystrophie de Duchenne
Edito
L'avenir de notre planète est en jeu



Les tendances lourdes que nous commençons maintenant à distinguer vont obliger les gouvernements et les industries de l'énergie, de l'automobile et des télécommunications, à prendre, dès ces prochains mois, des décisions particulièrement graves qui auront des conséquences déterminantes, non seulement pour l'ensemble de notre Planète, mais même pour l'avenir de l'Homme. La première de ces tendances lourdes a de nouveau été mise en valeur ces jours derniers à Lyon quand les scientifiques réunis pour préparer la prochaine conférence de La Haye ont affirmé, sans sourciller, que la température de l'atmosphère de notre Terre pourrait augmenter de 5° C dans le siècle qui vient et le niveau des océans et des mers s'élever de 1 mètre avant l'an 2100 si rien n'était fait très rapidement pour ralentir le rejet de gaz à effet de serre dans l'atmosphère. Quand on sait que les grandes glaciations qui ont tant bouleversé la vie sur notre Terre jusqu'à provoquer la disparition des grands dinosaures n'étaient dues qu'à une baisse de 6° C de la température de l'atmosphère, nous devons prendre conscience que notre Planète est très sensible à toute évolution de la température (que celle-ci baisse ou s'élève) et que les 5° C annoncés auraient des conséquences dramatiques si l'Homme ne savait pas stopper cette terrible évolution. En effet, comme dans beaucoup d'autres domaines, c'est l'Homme qui tient, là aussi, totalement son destin dans ses mains. Ce qui a été spectaculaire ces jours derniers dans les communications faites à Lyon, c'est la conviction forte que semblent avoir maintenant les scientifiques quand ils affirment que cette subite augmentation de la température de l'atmosphère de la Terre est essentiellement liée aux " activités humaines ". Ainsi, en analysant des carottes de glace prélevée dans l'Antarctique, des équipes de chercheurs de Grenoble (Professeur Lorius) et de Saclay (Professeur Jousel) montrent que la teneur en dioxyde de carbone n'avait varié que de 190 à 280 parties par millième depuis 420.000 ans. Or, depuis 150 ans que l'Homme brûle de l'énergie fossile (charbon puis pétrole), ce taux de CO² a bondi de 280 à 360. Ces 150 ans ne représentent que le temps d'une étincelle dans le grand feu qui marque l'histoire de notre Univers et de notre Planète depuis des milliards d'années. Voir ainsi bondir de 20 % en quelques décennies des paramètres qui étaient stables depuis des centaines de milliers d'années met en évidence la gravité et l'urgence avec lesquelles nous devons traiter ce problème. Cela est d'autant plus préoccupant que les scientifiques semblent nous dire : " mais vous n'avez encore rien vu ". Si aucune mesure planétaire n'est prise en temps utile, le taux de CO² doublerait d'ici la fin du 21e siècle avec les conséquences que je décrivais en introduction. Il est donc nécessaire que, toute affaire cessante, les Chefs d'Etat décident, lors de la prochaine conférence de La Haye, que des moyens extraordinaires de Recherche et Développement soient mis en place, sans retard, pour repenser totalement les liens de l'Homme et de l'Energie, aussi bien pour lui permettre d'assurer son activité, le chauffage des lieux où il vit, que ses déplacements. Ce défi dépasse de loin le pari qu'avait su faire en son temps J. F. Kennedy en prenant l'engagement que l'Homme poserait le pied sur la Lune dans la décennie qui suivrait. Une deuxième tendance lourde qui, actuellement prend forme, devrait aider à relever ce défi sans précédent. Le développement des télécommunications, de l'informatique, des automatismes et de l'image est en train de tisser cette toile mondiale qui devrait permettre dans le siècle qui vient de construire ce " village planétaire " annoncé par Mac Luhan. Aussi, comme je l'affirmais déjà dans l'éditorial du n° 63 d'@RT-Flash (édition du 18 au 24-09-99 http://www.tregouet.org/lettre/index.html) il faut sans tarder que nous repensions fondamentalement l'automobile pour qu'elle ne soit plus cette source essentielle de la pollution planétaire qu'elle est maintenant devenue. Ceux qui pensent qu'il suffit de rendre la vie de plus en plus difficile (et son usage à un coût de plus en plus élevé...) à tous les utilisateurs d'automobiles pour leur faire prendre, massivement, les transports en commun font, à mon avis, une terrible erreur. La voiture est non seulement un outil utilitaire mais il est aussi et peut-être avant tout un symbole culturel profondément ancré dans nos sociétés modernes. Il est certainement plus judicieux de conserver à la voiture sa fonction de coquille privée et de la faire évoluer fondamentalement plutôt que de demander à son utilisateur de procéder de lui-même à une véritable révolution culturelle. La machine progresse rapidement, son unité de temps est l'année et parfois même le mois, là où celle de l'Homme est celle de la génération, c'est-à-dire le quart de siècle. Or, en dehors des recherches fondamentales qui doivent être faites sur l'énergie propre (l'hydrogène ?) qui, demain, devra animer notre voiture si nous voulons qu'elle ne salisse plus notre Terre, la révolution des robots et surtout celle des systèmes de télécommunication devrait accélérer cette profonde mutation de l'automobile. En effet, comme je le disais dans le n° 80 de notre Lettre, (édition du 15 au 21-09-2000- http://www.tregouet.org/lettre/index.html) la voiture va devenir un lieu privilégié pour l'usage d'Internet et des technologies de l'Information et de la Communication. Ceci est d'autant plus vrai après l'attribution dans ces dernières semaines par les principaux pays européens des licences UMTS. Le prix de ces licences a atteint un tel niveau que la survie des grands opérateurs qui ont acquis ces autorisations passe par la vitesse avec laquelle les utilisateurs actuels du téléphone acquerront de nouveaux usages exigeant de nombreux data qui légitimeront alors ces technologies permettant de larges flux. Là aussi, comme dans le cas des automobilistes que certains voudraient tous voir monter dans les tramways, les opérateurs feraient une grave erreur en pensant que les usagers du téléphone mobile (qui n'est qu'une simple extrapolation, au niveau de l'usage, du téléphone fixe) passeront spontanément à Internet sur leur petit téléphone portable. Or, la voiture pré-équipée en UMTS pourrait être le vecteur idéal pour acquérir de nouveaux usages nomades large bande d'Internet. C'est bien en repensant globalement l'automobile et en s'appuyant non seulement sur de nouvelles sources d'énergie mais aussi sur sa gestion collective en milieu urbain et en développant son rôle privilégié d'accès à Internet que les Gouvernements et les grandes industries de l'Energie, de l'Automobile et des Télécommunications, tous ensemble, pourraient relever cet immense défi, sans précédent, dont dépend l'avenir de notre Planète et de l'Homme.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Plus de 295 millions de personnes ont un accès personnel à l'internet
Samedi, 16/09/2000 - 00:00

Plus de 295 millions de personnes réparties dans 20 pays d'Europe, d'Amérique du Nord et de la région Asie-Pacifique ont accès à l'internet à partir d'un ordinateur installé à leur domicile, selon une étude publiée jeudi par la société d'analyse ACNielsen eRatings.com. Ce nombre, compilé au 2ème trimestre 2000, comprend notamment 136,9 millions d'Américains, de loin la population internaute la plus importante, 26,3 millions de Japonais, 19,4 millions de Britanniques, 14,8 millions d'Allemands, 13,1 millions de Canadiens, 11,1 millions d'Italiens et 7,6 millions d'Australiens. La France se classe en 9ème position avec 6,5 millions de personnes ayant accès à l'internet depuis leur domicile. L'Irlande a la population internaute la plus faible parmi les pays recensés, avec seulement 800.000 personnes connectées au réseau à partir d'un ordinateur personnel, indique l'étude. "Les Etats-Unis et le Japon sont largement reconnus comme ayant les plus importantes populations internautes dans le monde", a indiqué David Day, directeur du service d'analyse d'ACNielsen eRatings.com. Cette étude révèle un taux de pénétration en Europe de 82 millions de personnes, "ce qui revient à un ménage sur cinq, avec plus de la moitié (56%) de ces Européens habitant en Grande-Bretagne, en Allemagne et en Italie", a souligné David Day. En Asie-Pacifique, les quatre principaux marchés sont ceux du Japon, de l'Australie, de la Nouvelle-Zélande et de Singapour, qui regroupent environ 37 millions d'internautes. L'étude a également noté qu'au 2ème trimestre un nombre plus important de personnes dans tous les pays étudiés, sauf la Suisse, avait accès à l'internet depuis leur domicile par rapport aux personnes ayant un accès au travail. Par ailleurs, "la situation en France est intéressante car par rapport au reste de l'Europe, les taux de pénétration de l'internet à la fois à la maison et au travail sont bas", a observé David Day. "Une des principales raisons est que le Minitel est disponible en France depuis le début des années 80 et que l'usage de ce réseau est très répandu dans les foyers et les entreprises. La croissance de l'accès à l'internet continuera à être à la traîne du reste de l'Europe tant que les besoins des utilisateurs potentiels de l'internet seront satisfaits d'une autre façon", a ajouté David Day.

AFP : http://fr.news.yahoo.com/000907/1/mlcq.html

Attaque par saturation : menace de tempête sur le net
Samedi, 16/09/2000 - 00:00

Nommé Trinity, un nouvel outil de "déni de service" a été découvert récemment, implanté clandestinement sur près de 400 ordinateurs-relais. Le site ISS a diffusé un communiqué mettant en garde contre cet outil potentiellement dangereux. L'attaque par "déni de service" (Denial Of Service), ou attaque par saturation, est une technique employée par certains hackers pour rendre un serveur indisponible, en lui envoyant un très grand nombre de requêtes auxquelles il ne donne pas suite. De son côté, le serveur s'évertue à continuer la communication, jusqu'à déclarer forfait et "tomber en panne". C'est une agression informatique de ce type qui a fait plier, en février dernier, les serveurs des principaux sites américains, Yahoo, Amazon, eBay, ZDNet.com À plusieurs attaquants, c'est encore plus efficace : on appelle cela le Distributed Denial Of Service (DDoS). Dans ce cas, les hackers placent un outil d'attaque sur plusieurs ordinateurs auxquels ils ont accès et coordonnent l'attaque au moment voulu afin de saturer le serveur sous d'innombrables requêtes simultanées. Il existe moins d'une dizaine de variantes du déni de service.Trinity fonctionne de façon différente des traditionnels Tribe ou Trin00, outils déjà largement diffusés. Une fois implanté sur un ordinateur et activé, Trinity se connecte à un canal IRC (Internet Relay Chat, canal de discussion) privé, y signale sa présence et attend les commandes du pirate. Les hackers n'ont donc même plus besoin d'accéder à l'ordinateur-hôte pour piloter le logiciel. Il leur suffit d'aller sur le canal IRC et de donner, en une seule fois, leurs ordres (principalement, la liste des adresses internet à attaquer et la variante du déni) à toutes les copies de Trinity qui y sont à l'écoute. Trinity, fonctionnant sous Linux, a été débusqué sur plus de 400 ordinateurs, qui ont été piratés et transformés en relais à l'insu de leurs propriétaires. Reste à savoir combien d'ordinateurs sont encore infiltrés !

ZDNet : http://fr.news.yahoo.com/000908/7/mlzk.html

Voyage au coeur de la fracture numérique
Samedi, 16/09/2000 - 00:00

La « fracture numérique ». L'expression est dans toutes les bouches. Le G8 y a consacré un sommet à Okinawa cet été. Lionel Jospin a annoncé une série de mesures pour « réduire le fossé numérique ». Et Jacques Chirac n'a pas manqué de mettre en garde contre toute « fracture » ou « fossé numérique » qui pourrait constituer « une menace pour la cohésion des Etats et des grands équilibres mondiaux ». Cinq ans après la « fracture sociale », la « fracture numérique » est en passe de devenir le nouveau cheval de bataille dans la course à l'élection présidentielle de 2002. Une chose est sûre, Internet reste une affaire de privilégiés. Selon les dernières statistiques fournies en juillet 2000 par la société Nua Internet Survey, le Réseau touche à peine 6 % de la population mondiale. Et encore, ce chiffre prend en compte les personnes s'étant connectées au moins une fois dans les trois derniers mois de l'étude. Autant dire que la réalité est sans doute bien en dessous. Cela ne surprendra personne, « Internet ne bénéficie qu'aux individus relativement aisés et instruits, conclut le Programme des Nations unies pour le développement (PNUD) dans son rapport mondial sur le développement humain de l'année 1999 ; 88 % des internautes vivent dans des pays industrialisés qui représentent à peine 17 % de la population mondiale ». On rajoutera que les Etats-Unis et le Canada, qui représentent moins de 5% de la planète en termes de démographie, abritent près de la moitié des internautes, alors que l'Afrique, qui fournit 13 % de la population mondiale, pèse moins de 1 % dans le cybermonde. Mais ce gouffre technologique ne sépare pas seulement les pays riches des pays pauvres, il existe également au sein même des Etats les plus industrialisés. Car la locomotive d'Internet est le commerce électronique. Son développement s'oriente donc naturellement en direction des catégories sociales les plus élevées et les mieux éduquées, ayant, de surcroît, une parfaite maîtrise de l'anglais (plus de 80 % du contenu de la Toile sont écrits dans la langue de Shakespeare). Ce qui fait écrire aux auteurs du rapport du PNUD que l'internaute type est « un homme de moins de 35 ans, diplômé de l'enseignement supérieur, disposant de revenus élevés, habitant en ville et parlant anglais », soit « un membre d'une élite très minoritaire ». A un degré moindre, le constat vaut également pour la France. Car, même si le nombre d'internautes progresse régulièrement (il serait passé de 3, 9 millions à 5,8 millions entre décembre 1999 et juillet 2000, selon les derniers chiffres publiés par NetValue), il représente toujours moins de 10% de la population française. Et, à y regarder de plus près, on observe que le gouffre est également béant entre les catégories socioprofessionnelles, les ouvriers ne représentant que 2,7 % des internautes, contre 35,8% pour les cadres et professions libérales. Dès lors, on mesure à la fois l'urgence et le chemin qu'il reste à parcourir pour bâtir la « société de l'information pour tous » que le premier ministre appelle de ses voeux. D'ici à 2003, 3 milliards de francs devraient être débloqués, 4 000 emplois jeunes de formateurs multimédias créés, 7 000 espaces publics d'accès à Internet ouverts, toutes les écoles primaires raccordées. Le gouvernement semble s'être donné les moyens de son ambition. S'il reconnaît que les mesures annoncées par Lionel Jospin vont dans le bon sens, Philippe Quéau, le directeur de la division information et informatique de l'Unesco, n'en pense pas moins que l' « on devrait aller beaucoup plus loin encore, dans le sens d'une intégration plus approfondie de la cyberculture dans la structure de l'enseignement ». Sur le terrain, le monde associatif l'a déjà compris, qui intègre de plus en plus la pratique d'Internet dans les activités qu'il propose. A Créteil, les enfants de l'association Initial - qui initie les jeunes des quartiers défavorisés aux rudiments du Net - sont unanimes : « Internet, c'est l'avenir, alors autant savoir l'utiliser le plus tôt possible. » Il n'en demeure pas moins que, s'il semble indispensable d'offrir à chacun la possibilité de maîtriser le monde virtuel pour entrer dans le XXIe siècle avec les meilleures armes, il faut peut-être aussi commencer à organiser la société pour que l'on puisse continuer à vivre et travailler sans savoir cliquer. Et, comme le rappelle Yves Lasfargue, directeur des études du Centre d'études et de formation pour l'accompagnement des changements : « Il faut tout faire pour éviter le totalitarisme numérique » !

Le Monde :

http://interactif.lemonde.fr/article/0,3649,2894--93207-0,00.html

Nouvelles technologies: le déclic de la rentrée
Samedi, 16/09/2000 - 00:00

Annoncée depuis une bonne quinzaine d'années, la révolution numérique dans l'éducation est réellement en marche. Alors que les éditeurs traditionnels, concurrencés par une poignée de start-up, se bousculent sur le Web pour vendre de la pédagogie en ligne aux professeurs, aux élèves et à leurs parents, plus personne ne conteste que l'Internet et les nouvelles technologies transforment l'école. Il ne s'agit plus, comme ce fut le cas à la fin des années 80, d'incantations de ministre naïvement moderne. Cette fois, l'ordinateur est définitivement branché dans les établissements scolaires. Et tout indique que cet événement va effectivement favoriser le développement de nouvelles pratiques pédagogiques, ce qui ne sera pas sans conséquence sur le rôle des enseignants. En 1998, 1 % seulement des 60 000 écoles étaient connectées à l'Internet. On estime qu'elles sont entre 30 et 35 % aujourd'hui. Sur education.fr, l'Education nationale donne accès à ses propres sites Internet ainsi qu'à ceux des autres établissements publics. On y trouve notamment le site Educlic du CNDP (Centre national de documentation pédagogique), dont l'ambition est de devenir «le portail des professionnels de l'éducation» (www.educlic.education.fr). Il s'agit à la fois d'un moteur de recherche spécialisé et d'un guide à travers la production éducative disponible sur le Web. Pour les professeurs de toutes disciplines, le portail est à la fois documentaliste et producteur de ressources. Sur ww.educnet.education.fr, le ministère met en ligne une foule d'exemples concrets d'applications pédagogiques. Cette année, la mise en oeuvre de la réforme du lycée va favoriser le développement de l'utilisation de l'Internet. A partir du 1er janvier, la généralisation des travaux personnels encadrés (TPE) conduira chaque élève de première à entreprendre lui-même des recherches sur le web. Le CNDP a prévu de mettre sur son portail les outils nécessaires à la disposition de tous les lycéens. Dans l'académie de Toulouse, tous les professeurs de lycée et collèges auront, à partir de la semaine prochaine, la possibilité d'avoir leur propre «bureau virtuel». Depuis leur domicile comme depuis n'importe quelle salle de classe équipée d'un ordinateur, ils auront accès à leurs fichiers personnels et à toutes les informations pédagogiques et administratives. A titre expérimental, les enseignants disposent d'une boîte aux lettres électronique naturellement accessible aux élèves. Déjà, quelques rares enseignants reçoivent par e-mail des devoirs de lycéens. Pour janvier 2001, Havas prépare le lancement mondial de son site education.com. Ce portail s'adresse aux enfants et aux enseignants. A terme, les premiers pourraient avoir accès à des manuels en ligne depuis leurs «cartables électroniques». Pour les seconds, l'ambition de Havas est de «concevoir et [de] réaliser la boîte à outils des enseignants du XXIe siècle».

Internet à l'école : la France à la traîne
Samedi, 16/09/2000 - 00:00

D'après une nouvelle étude sur l'utilisation d'Internet menée auprès d'adolescents et de jeunes adultes du monde entier , Internet constitue aujourd'hui un outil tout aussi essentiel et usuel que l'étaient les encyclopédies et la bibliothèque scolaire pour les générations antérieures. Pourtant, l'accès à Internet dans les établissements scolaires varie grandement selon les régions du monde. De plus, d'après les résultats recueillis dans le cadre d'entrevues menées par Ipsos Reid auprès d'étudiants de 16 pays, la plupart des écoles tardent à donner des cours axés sur le Web. Parmi les pays participants à l'étude, c'est en Suède et au Canada que les étudiants ont le plus accès à Internet dans les établissements scolaires : 78% des jeunes suédois et 74% des jeunes Canadiens surfent à l'école. En revanche, cette possibilité n'est offerte qu'au quart des élèves français. En Australie, au Canada, aux Etats-Unis et en Suède, plus de 90% des étudiants disposant d'un accès Internet à l'école déclarent l'utiliser pour effectuer leurs travaux scolaires. A Taïwan et aux Etats-Unis enfin, les trois quarts des étudiants-internautes ont suivi ou suivent des cours axés sur Internet, soit une proportion bien supérieure à celles relevées dans les autres pays. "La Suède et le Canada prouvent qu'il est avantageux de mettre en place des politiques gouvernementales promouvant l'accès à Internet dans les écoles", note Gus Schattenberg, vice-président de la division des Études mondiales du Groupe Angus Reid. "Le niveau d'utilisation et la connaissance d'Internet chez ces jeunes est très en avance. Nul doute que de tels résultats découlent des efforts déployés par ces deux pays pour introduire un accès Internet dans chaque établissement scolaire. Un effet d'entraînement se fera certainement sentir ; une nouvelle génération d'internautes avertis fera son apparition dans les pays qui investissent largement dans l'enseignement d'Internet et dans son accès au sein des établissements scolaires. D'après nos résultats, cela concernerait non seulement le Canada et la Suède, mais également des pays asiatiques comme Taïwan, où l'accès à Internet dans les écoles permet d'accroître le niveau d'utilisation chez les jeunes à un niveau comparable à celui des États-Unis."

IPSOS : http://www.canalipsos.com/articles_fr/0009/net_ecole.

Le progrès technologique réduira la "fracture numérique" mondiale
Samedi, 16/09/2000 - 00:00

Les leaders de la "nouvelle économie", Bill Gates en tête, estiment que le progrès technologique contribuera plus que tout à réduire la "fracture numérique", en accélérant la diffusion mondiale de l'internet, bien au-delà des 300 millions d'utilisateurs actuels concentrés dans les pays riches. Le développement de l'internet à partir des pays avancés a fait craindre l'apparition d'une nouvelle discrimination entre ceux qui seront connectés et les autres, surtout dans les pays pauvres, qui n'y auront pas accès. Ce thème a été saisi par les pays du G8 lors du sommet d'Okinawa, en juillet dernier. Mais qu'il s'agisse des moyens de communications, fibre optique ou téléphonie cellulaire à large bande, ou des applications, reconnaissance de la voix et écriture manuelle sur écran, le progrès technologique va permettre d'étendre et de démocratiser l'accès à l'internet. "Actuellement, il y a 300 millions d'utilisateurs de l'internet dans le monde, dont la moitié aux Etats-Unis", a rappelé Masayoshi Son, le président-fondateur du groupe japonais Softbank, investisseur en valeurs internet, devant le sommet économique Asie-Pacifique du Forum économique mondial (World Economic Forum). "En 2003, il y en aura un milliard. Est-ce que les Américains peuvent en représenter la moitié ? La réponse est évidemment non", a-t-il poursuivi. "Mon estimation est que la moitié des internautes seront en Asie", dit-il. La téléphonie cellulaire sans fil met le téléphone à la portée d'un nombre sans précédent d'habitants de la planète, a expliqué Ziggy Switkoswki, le directeur général de Telstra Corporation, le géant australien des télécommunications. "En Australie l'an dernier, nous avons eu une bonne année. Nous avons gagné deux millions d'utilisateurs. La Chine en recrute 2,5 millions par mois et ce rythme augmente", a-t-il indiqué. Avec 60 millions de téléphones portables, elle a déjà dépassé le Japon, et les Etats-Unis seront prochainement rattrapés. "Est-ce que les technologies de l'information vont élargir le fossé entre pays riches et pays pauvres ? Absolument pas", a affirmé, pour sa part, Bill Gates, fondateur et président de Microsoft, le numéro un mondial des logiciels. Pour les pays en développement, "le défi est comparable à celui de l'illettrisme", explique-t-il. "A l'avenir, le niveau d'éducation primaire sera l'élément le plus important parce que tous les savoir-faire seront disponibles sur internet". Autrement dit, que les gouvernements permettent à tous d'apprendre à lire et à écrire et l'internet se chargera du reste. Le patron de Microsoft estime que le progrès technologique, loin de ralentir, va continuer à "faire des miracles". Les nouvelles applications qui vont apparaître prochainement, de la reconnaissance vocale à l'écriture manuelle sur écran, vont changer le téléphone comme l'ordinateur personnel. "Le téléphone va acquérir un écran et le PC sera doté d'un microphone", annonce-t-il. Toutefois, même si les logiciels ont permis le développement de l'internet dans les langues comme le chinois, le japonais ou l'arabe, Bill Gates estime que la fin de la domination de l'anglais n'est pas encore en vue. "Le Saint Graal, dit-il, est la parfaite machine à traduire, mais, dans les dix ans qui viennent, personne ne peut prévoir quand elle sera disponible". Les matériels et les infrastructures de communication aussi seront fournis à des coûts décroissants, affirment les acteurs de la "nouvelle économie". "Il s'agit après tout d'une industrie dont les coûts sont orientés à la baisse", explique Eric Schmidt, le directeur général de Novell, un leader des logiciels pour réseaux. Selon Masayoshi Son, "un mètre de fibre optique revient moins cher qu'un mètre de nouille, et les gens mangent beaucoup de nouilles tous les jours", dit-il.

AFP : http://fr.news.yahoo.com/000912/1/mtgj.html

Les logiciels font tourner la planche à brevets
Samedi, 16/09/2000 - 00:00

Lorsqu'ils ont décidé, à l'automne dernier, d'attaquer en justice leur concurrent le libraire Barnes and Noble, les dirigeants d'Amazon.com, premier groupe mondial de commerce on line, ne se doutaient pas qu'ils allaient déclencher l'une des plus belles polémiques de l'histoire du Web. Que reprochait Amazon à Barnes? De lui «voler» une astuce informatique, fraîchement protégée par un brevet, le one click purchase (l'achat d'un seul clic). A priori, cette technologie-là n'a rien de bien inventif ou sophistiqué. Demander à ses acheteurs de cliquer pour commander un produit, lorsqu'on s'occupe de commerce en ligne, c'est la moindre des choses. En profiter pour transporter quelques informations sur l'identité de l'acheteur relève du B.A.BA... Mais aux Etats-Unis, surtout en matière de logiciels et de l'Internet, tout est brevetable. Très laxiste et fasciné par le dot com business, l'Office des brevets et des marques (PTO) distribue des brevets à tout va. Et ce, pour protéger des techniques vieilles comme le marketing, mais «relookées» aux couleurs du Web. C'est un éditeur de livres sur les technologies, Tim O'Reilly, qui, au début de l'année, a lancé la polémique dans une lettre ouverte au patron d'Amazon, Jeff Bezos, et à ses «gars»: «Vous avez acquis d'énormes avantages compétitifs en utilisant des technologies qui étaient données gratuitement à tous. Si des gens tels que vous réussissent à remplacer cette économie de la gratuité par un monde où les loups se mangent entre eux ...] vous deviendrez vous-même l'otage d'autres vendeurs. Une fois que les clôtures des brevets couvriront le Web [...], les sources d'innovations s'assécheront. La polémique grossit, Amazon fait l'objet d'un appel au boycott, et Jeff Bezos croit prudent de publier, en mars, un texte pour demander une réforme «importante sinon radicale» du droit des brevets. Il propose de ramener leur durée, actuellement de vingt ans, à moins de cinq ans. Il suggère aussi de renforcer les moyens de l'Office des brevets, afin que celui-ci puisse déterminer si le procédé breveté relève bien de l'innovation ou non (1). L'Office promet en mars d'être un peu plus sérieux à l'avenir. Depuis l'affaire du one click purchase, le débat fait rage. Il faut choisir son camp: pour ou contre les «clôtures». «Les licences nuisent au consommateur, nuisent à l'innovation, entretiennent les incertitudes, multiplient les procès, nuisent à la compétitivité de l'économie... C'est un désastre!», commente James Love, responsable du CP Tech, qui poursuit: «Dans le domaine pharmaceutique, elles se justifient. Sans elles, l'industriel ne prendrait pas le risque de lancer des investissements lourds. Mais dans le e-commerce, elles risquent d'aboutir à l'effet inverse: freiner l'investissement!» Les juristes, en revanche, ont une analyse très différente. Si Ils admettent que le champ couvert par les brevets est trop large aux Etats-Unis, et qu'il y a des abus, ils pensent que les brevets sont nécessaires car sans eux, les plus forts écraseraient les plus faibles. L'argumentaire ne convainc pas James Love: «C'est l'inverse qui se produit: les grands groupes se constituent des portefeuilles de brevets et gèlent tout.» Pendant que les experts débattent, les sociétés, petites ou grosses, se ruent vers l'Office des brevets. Par crainte ou par appât du gain, tout le monde se dépêche de déposer des idées et des procédés plus ou moins originaux. Une licence, sur un procédé technologique ou marketing, coûte facilement 30 000 à 40 000 dollars; un procès perdu, en revanche, peut coûter plusieurs centaines de milliers de dollars... L'Office américain des brevets est submergé, mais il y trouve son compte: non subventionné, il se rémunère par les droits qu'il touche, soit 8 000 dollars pour chaque trouvaille déposée....

Libération :

[http://www.liberation.com/quotidien/semaine/20000908venzd.html

Windows Millennium Edition met plus de multimédia sur votre PC
Samedi, 16/09/2000 - 00:00

Le 14 septembre, Microsoft présente en France Windows Millennium Edition - ou Windows ME -, le successeur de ses systèmes d'exploitation Windows 95 et 98. L'objectif de l'éditeur est de rendre plus simples « les jeux, les surfs de qualité sur Internet et la découverte des nouveaux loisirs multimédias que sont la photo numérique et la vidéo ». Avec, en toile de fond, la volonté de faire du micro-ordinateur du particulier un objet aussi convivial que possible.L'interface graphique de Windows Millenium Edition n'a pas subi de profonde mutation par rapport à Windows 95 ou Windows 98. Au rang des nouveautés, l'utilisateur remarquera donc simplement l'apparition de nouvelles icônes pour le Poste de travail ou encore la Corbeille. C'est parmi les accessoires et utilitaires multimédias que Windows ME innove. La nouvelle mouture du système d'exploitation offre effectivement d'autres fonctionnalités qui permettent au grand public de découvrir les nouveaux loisirs numériques, comme la possibilité de faire du montage vidéo. Tout nouveau est l'utilitaire Windows Movie Maker, qui permet de faire de l'importation et de l'édition de vidéos personnelles de votre Caméscope analogique ou numérique. Ensuite, Windows Movie Maker peut vous aider à partager vos réalisations et à les envoyer à des amis ou à des proches, par courrier électronique ou en les éditant sur un site Web. Bien entendu, Windows ME s'est aussi mis à l'heure de la photo numérique. Vous connectez votre appareil numérique à votre PC, et Windows ME lance un assistant, simplifiant l'importation et le stockage de vos images numériques dans un dossier appelé Mes Images. Le système détecte la plupart des appareils existants. Désormais, l'utilisateur a la possibilité de visualiser des vignettes de ses photos, de les agrandir pour les voir plus en détail ou encore de les arranger en un véritable diaporama. L'audio, non plus, n'a pas été oublié. Windows ME offre la possibilité de créer et d'indexer une bibliothèque de fichiers audio de qualité CD, que vous pourrez stocker sur votre disque dur. Le lecteur Windows Media Player, dans sa version 7, permet aussi de visualiser et d'écouter vos contenus multimédias. C'est au niveau de la compatibilité des matériels que le passage à Windows ME se justifie. D'une part, le nouveau système d'exploitation reconnaît les derniers périphériques et les nouvelles cartes mères. Il intègre également un nouveau support pour les futurs appareils Universal Plug & Play de la domotique. A l'avenir, par exemple, il sera facilement possible de copier-coller les programmes TV d'un site Web vers votre magnétoscope ou votre lecteur DVD-ROM par l'intermédiaire du PC.En principe donc, et cela dès que les appareils seront disponibles, vous pourrez connecter toute la maison avec Windows ME : le système d'exploitation détecte automatiquement et partage, sur votre réseau personnel, toutes les ressources disponibles, comme les imprimantes et autres périphériques de la domotique tels que micro-ondes ou appareils de chauffage. Vous pourrez alors régler la température de votre maison à distance. Pour l'heure, vous avez toujours la possibilité de profiter de cette fonction réseau pour connecter deux ordinateurs familiaux et leur faire partager un accès à Internet.

Le Monde :

http://interactif.lemonde.fr/article/1,3649,2855--93415-0,00.html

La convergence entre l'internet et la télévision s'accélère
Samedi, 16/09/2000 - 00:00

Les sites web sont à la recherche de contenu pour fidéliser les internautes, ce qui ouvre des perspectives intéressantes aux producteurs et distributeurs TV. Télé Images International, un poids lourds de la production française est déjà sur les rails. Vous avez raté votre série préférée ce ne sera bientôt plus un problème puisqu'elle sera disponible sur Internet à tout moment. Télé Images International, est en négociation avec un site français pour céder les droits de la série Chambre 13 pour une centaine de milliers de francs. D'un format court, six minutes, ces thrillers conviennent particulièrement aux capacités d'internet encore limitées à l'heure actuelle. Mais ce n'est pas le seul groupe de production à s'intéresser à Internet. Olivier Brémond, le PDG de Marathon International, producteur de la série "sous le soleil" présente dans 90 pays, est charmé par internet car "autour des séries on pourra créer des sites de fans qui généreront du trafic, et permettront de vendre de la pub." ZED, un petit producteur animalier qui compte 70 films vise lui le marché des sites web liés au voyage. "Pour chaque film, nous disposons de 15 heures de rushes dont on peut tirer des films pour créer du contenu web à destination des sites qui vendent du voyage."ZED a déjà envoyé un pilote à Club-Internet, Yahoo, et France Télécom, il n'attend plus que leur réponse pour démarrer. Mais les premiers à s'intéresser à l'internet ont été les producteurs de dessins animés. Il serait en effet possible de créer des dessins animés de qualité pratiquement télévisuelle sur le web. De quoi charmer producteur et sites web.

Europinfos :

http://www.europeinfos.com/cgi-bin/login.cgi?type=2&oid=116183

Plus de trois cents heures d'écoute sur un baladeur MP3
Samedi, 16/09/2000 - 00:00

Grâce à son disque dur de 20 Go, le baladeur Neo 25, de SSI, offre une autonomie d'écoute équivalant à la durée de plusieurs centaines de CD. L'appareil existe aussi en version autoradio. Partir en voyage avec une discothèque dans sa poche, c'est désormais possible. Grâce au baladeur MP3 Neo25, de SSI. Ce petit appareil de 250grammes est capable de stocker plus de 320 heures de musiques - l'équivalent de plusieurs centaines de CD-audio, grâce à un disque dur interne de 20 Go, initialement conçu pour les ordinateurs portables. L'enregistrement des fichiers musicaux au format MP3 s'effectue simplement, en reliant le baladeur à un PC par le port USB. L'appareil est reconnu comme un disque dur par le PC et il est possible de créer des dossiers afin de classer les morceaux de musique par thèmes. Par la suite, le petit écran LCD permet de naviguer dans l'arborescence, et de sélectionner le fichier de son choix. Outre les fichiers musicaux au format MP3, d'autres fichiers multimédia (photos, dessins, etc.) peuvent être enregistrés sur ce disque. Ainsi outre sa fonction de baladeur, le Neo25 fait office d'unité de sauvegarde externe. Destiné aux automobilistes, le Neo35 présente les mêmes caractéristiques. Livré avec le kit d'adaptation adéquat, il se branche sur l'autoradio déjà en place, à la manière d'un chargeur de CD. Les deux produits sont commercialisés sur le site Web de SSI. Leur prix avoisine 700 dollars (5200 francs) pour le Neo25 et 460 dollars (3500 francs) pour le Neo35. Des modèles dotés de disques dur de 6Go ou 12Go sont également disponibles.

OINet : http://fr.news.yahoo.com/000911/44/msqd.html

^ Haut
Avenir
Nanotechnologies et Robotique
Que la lumière soit !
Samedi, 16/09/2000 - 00:00

La société Redbus, basée près de Birmingham, développe un nouveau type de vitrage qui permet a la lumière du jour de pénétrer plus avant vers l'intérieur de la pièce (de plusieurs mètres supplémentaires selon ses créateurs). Ce produit innovant, baptise " Serraglaze ", utilise de minuscules miroirs insérés dans le vitrage pour réfléchir vers le plafond une grande partie de la lumière, ce qui produit un éclairage naturel plus uniforme, sans éblouir les occupants et sans créer d'arc-en-ciel (comme c'est le cas lorsqu'on utilise des prismes). Ces "miroirs" sont réalisés a partir de rubans de film polymère transparent (un matériau breveté) que l'on plie en trois bandes égales (en " Z ") qui mesurent moins d'1 mm de large. On les colle ensuite les uns au dessus des autres de manière a laisser entre les bandes qui se touchent une fine lame d'air horizontale qui constitue l'élément réfléchissant. En répétant cette opération, on fabrique une sorte de store vénitien (très fin) que l'on place entre deux vitres. Seuls les rayons qui arrivent a l'oblique, ceux qui ne pénètrent pas normalement a l'intérieur de la pièce, sont réfléchis par ce dispositif. Redbus affirme que ce produit sera disponible a des prix compétitifs : le surcoût devrait être du même ordre que celui entre un simple et un double vitrage. Les économies d'énergie générées devraient justifier un tel investissement : d'abord une économie directe sur éclairage, mais aussi une économie induite sur la climatisation puisque moins éclairage artificiel signifie moins de chaleur dissipée par les luminaires (jusqu'a deux tiers de l'énergie électrique consommée). Serraglaze devrait être disponible pour des installations pilotes dès la fin de l'année ; notons qu'il a reçu une aide publique de 45 000 Livres par le biais du programme SMART qui encourage les petites entreprises technologiques a développer et a mettre sur le marche des produits nouveaux.

BE Allemagne : http://www.adit.fr)

Redbus : http://www.serraglaze.redbus.co.uk

^ Haut
Matière
Matière et Energie
Vers l'écran souple
Samedi, 16/09/2000 - 00:00

De la taille d'un timbre poste, l'écran mis au point par les scientifiques du laboratoire de recherche Philips, aux Pays-Bas, promet de faire parler de lui. S'il est encore sous forme rigide, il devrait bientôt voir un successeur entièrement flexible, car fabriqué avec des matières plastiques. Avec de tels écrans, qu'on peut plier dans tous les sens, il serait possible d'imaginer des appareils électroniques d'un nouveau genre. Comme le journal électronique, un journal où le contenu des pages feuilletées par le lecteur se renouvellerait en fonction de ses choix. D'autres laboratoires utilisent des systèmes de commande d'affichage rigides en silicium pour leur prototype d'écran souple, ce qui constitue une entrave sérieuse à la flexibilité de l'ensemble. Mais Philips, lui, innove en employant, comme pour l'écran, des transistors "plastiques". Supportant bien les forces d'étirement et comparable en texture aux transparents pour rétroprojecteur, le matériau utilisé est plus précisément constitué de polymères. "Avant de réaliser un écran réellement souple, les chercheurs néerlandais ont tenu à tester la façon dont des pixels pouvaient être commandés par des transistors à base de polymères", annonce le docteur Maria Vincken, porte-parole de la société Philips. En outre, les chercheurs de Philips insistent sur le fait que la production d'une puce plastique nécessite moins d'étapes que celle d'une puce classique à base de silicium. Et qu'elle est aussi moins contraignante quant à la pureté de l'air requise dans les chambres de fabrication. Mais d'ici au premier journal électronique, il reste encore du chemin : la définition du prototype mis au point par Philips est de 64 pixels sur 64, ce qui est à peine suffisant pour afficher le logo de l'entreprise. L'âge de pierre, en somme...

Transfert :

http://www.transfert.net/fr/techno/article.cfm?idx_art=1654&idx_rub=89

^ Haut
Espace
Espace et Cosmologie
L'eau coule-t-elle sur Mars ?
Samedi, 16/09/2000 - 00:00

L'Agence spatiale américaine (NASA) a annoncé le 7 septembre que des ravins avaient été découverts sur Mars, semblant indiquer la présence d'eau sous la surface de la planète rouge, ce qui aurait "des implications importantes quant aux perspectives de vie" sur cet astre. "S'il est vrai qu'il y a de l'eau près de la surface de Mars, cela a des implications importantes quant aux perspectives de vie sur Mars", a déclaré Ed Weiler, un responsable de la NASA, au cours d'une conférence de presse à Washington. Sur des images à haute définition prises par la sonde Mars Global Surveyor, les scientifiques ont distingué des formations géologiques qui, selon eux, semblent correspondre à des écoulements d'eau souterraine à l'état liquide. "Si cela avait été sur Terre, il n'y aurait eu absolument aucun doute sur le fait que de l'eau a causé cette formation", a déclaré Michael Malin, un des chercheurs à l'origine de cette découverte.

Brève rédigée par @RT Flash

NASA : http://www.nasa.gov/

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Climat : la tendance au réchauffement est ancienne
Samedi, 16/09/2000 - 00:00

L'hémisphère nord se réchauffe et cela ne date pas d'hier : cette tendance remonte au moins à la moitié du XIXème siècle, selon une étude publiée par le journal Science. John Magnuson et son équipe, de l'Université du Wisconsin, ont rassemblé des centaines de documents relatant le gel et le dégel des lacs et des rivières en Europe de l'Ouest, au Japon, au Canada ou en Russie. Ces documents ont des origines très diverses : journaux, registres de commerce et de sociétés de transport, ou encore archives de groupes religieux. Au Japon, par exemple, le Lac Suwa a fait l'objet de rapports depuis 1143 par les adeptes de la religion shinto, qui croyaient que les divinités séjournant sur les rives du lac pouvaient se rencontrer lorsque la surface était gelée. Grâce à l'ensemble des documents collectés, allant de 1846 à 1995, les chercheurs ont pu constaté que la tendance au réchauffement datait d'au moins 150 ans. En moyenne, l'embâcle apparaît 8,7 jours tard alors que la débâcle intervient 9,8 jours plus tôt. Ces tendances correspondent à une augmentation de la température de 1,8°C ces 150 dernières années. Au-delà de ce travail, l'équipe de Magnuson est en train de construire une énorme banque de données sur le gel et le dégel des lacs et des rivières à travers le monde. Pour l'instant, les chercheurs n'ont travaillé que sur une partie des 746 documents qu'ils ont rassemblés.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20000911.OBS7237.html?0211

La Terre aurait un système d'autorégulation du climat
Samedi, 16/09/2000 - 00:00

La Terre serait peut-être capable de s'occuper elle-même du problème de l'effet de serre. Des scientifiques anglais et américains ont en effet fourni la preuve qu'une intensification de production de biomasse dans l'océan a pu venir à bout du réchauffement soudain qu'a connu la planète il y a 55 millions d'années. Au début du Paléogène, période qui s'étend de 65 à 23,5 millions d'années, la température moyenne était supérieure d'environ sept degrés à celle d'aujourd'hui. Une végétation tropicale s'épanouissait des deux côtés de la Manche et tortues et alligators prospéraient sur les îles de l'océan arctique. Cela n'a toutefois pas empêché une nouvelle vague de chaleur de frapper la Terre entre le Paléocène (65 à 55 millions d'années) et l'Eocène (55 à 34 millions d'années). La température des eaux côtières de l'Antarctique serait alors passée de treize à vingt degrés Celsius. Aujourd'hui, les spécialistes mettent ce réchauffement au compte d'une augmentation de la quantité de dioxyde de carbone dans l'atmosphère, provoquée par le volcanisme et peut-être aussi par la décomposition des hydrates de méthane. Ces cristaux solides faits de méthane et de glace auraient ainsi libéré près de mille cinq cents milliards de tonnes de carbone. Comment la planète a-t-elle pu se dépêtrer de cette situation ? La réponse se trouve dans les sédiments océaniques. Quatre chercheurs de l'université d'Oxford, de l'Institution océanographique Woods Hole et de l'université de Californie ont étudié deux carottages, l'un provenant de l'Antarctique et l'autre du Nord-Ouest de l'Atlantique, à la recherche de baryte . Ce minerai, composé de sulfate de baryum, a la particularité d'être corrélé aux flux de carbone dans les eaux de surface. L'analyse montre clairement qu'un regain de productivité biologique dans les océans a accompagné le dégazage du méthane et l'augmentation des températures. "Alors que le climat devenait plus humide, les pluies ont pu intensifier l'érosion des continents et ainsi provoquer un afflux de matière nutritive dans les océans", expliquent les auteurs. Conséquence directe : la multiplication de phytoplancton dans les eaux de surface. Ce dernier, par photosynthèse, aurait alors absorbé le surplus de carbone atmosphérique. "Ces mécanismes de rétroaction ont joué le rôle d'une immense pompe biologique, réduisant la concentration atmosphérique des gaz à effet de serre et imposant le retour de la Terre à des conditions identiques à celles de la fin du Paléocène", ajoutent les scientifiques. Il est possible qu'un tel scénario puisse se rejouer dans le futur, étant donné la hausse continuelle des quantités de dioxyde de carbone due à l'activité humaine. Mais que les gouvernements, les organisations internationales et les industriels n'attendent pas les bras croisés que la planète fasse le travail à leur place. Il lui a fallu près de soixante mille ans pour retrouver une température "décente" et la pollution des océans pourrait être un sérieux frein à la croissance du phytoplancton.

Infosciences :

http://www.infoscience.fr/articles/articles_aff.php3?Ref=490

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Première implantation du coeur artificiel Jarvik 2000
Samedi, 16/09/2000 - 00:00

L'équipe de Stephen Westaby s du John Radcliffe Hospital d'Oxford vient d'effectuer la première implantation du Jarvik 2000 Heart, un dispositif d'assistance ventriculaire gauche, destiné à fournir une solution à long terme aux patients avec une insuffisance cardiaque terminale. L'implantation a été réalisée chez un homme de 61 ans présentant une myocardiopathie dilatée (classe IV selon la New York Heart Association functional class). Sa fraction d'éjection ventriculaire gauche était inférieure à 10 %. Le Jarvik 2000 Heart est un système d'assistance circulatoire composé d'une turbine en titane. Cet appareil silencieux de 90 g est implanté dans l'apex du ventricule gauche et un greffon vasculaire conduit le sang à l'aorte descendante. La turbine est entraînée par un champ magnétique qui assure 8.000 à 12.000 rotations par minute ce qui entraîne un flux sanguin de 3 à 8 L par minute selon la résistance vasculaire du patient. Le câble d'alimentation interne rejoint un socle en titane fixé sur le crâne derrière l'apophyse mastoïde. Ce socle est relié par un câble jusqu'à une batterie externes, lesquels peuvent être portés à la taille ou sur un gilet. Les auteurs indiquent que le Jarvik 2000 Heart a permis de soutenir la circulation du patient et s'est révélé d'un usage pratique et facile d'utilisation. Six semaines après l'implantation, la résistance à l'exercice et les fonctions ventriculaires gauche et droite ont été améliorées. Aucune hémolyse significative n'a été rapportée ni complication liée à l'appareil. Le socle fixé sur le crane était discret et n'a pas posé de problème de cicatrisation. Le patient pouvait réguler la vitesse de la turbine en fonction des besoins physiologiques et remplacer les batteries. Il a rejoint son domicile 6 semaines après l'opération. "Le succès initial de cette procédure ouvre la possibilité d'un nouveau traitement pour l'insuffisance cardiaque terminale", concluent les auteurs. Ils ajoutent que la fiabilité mécanique du Jarvik 2000 Heart sera déterminante pour évaluer son rôle dans le long terme. "Il y a maintenant un grand enthousiasme pour une solution mécanique à l'insuffisance cardiaque", commente Stephen Westaby. "Le Jarvik 2000 Heart offre d'importants avantages face aux autres appareils, et nous sommes impressionnés par ses performances dans notre première expérience clinique".

Caducée : http://www.caducee.net/

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_915000/915639.stm

Maladie d'Alzheimer : découverte d'une protéine-clef
Samedi, 16/09/2000 - 00:00

Une nouvelle protéine, qui serait l'un des rouages de la maladie d'Alzheimer, a été identifiée par une équipe internationale de chercheurs, annonce la revue Nature. Cette protéine, appelée nicastrine, participerait à la formation des plaques qui s'accumulent dans le cerveau des personnes atteintes par cette affection neurodégénérative. Depuis des années les scientifiques cherchent à comprendre pourquoi, sous l'effet de la maladie, le cerveau produit un peptide, l'amyloïde-beta, qui forme ces plaques toxiques. Selon l'équipe dirigée par le Canadien Peter St George Hyslop, la nicastrine fonctionnerait de concert avec une autre enzyme, la séniline, pour donner naissance à l'amyloïde-beta. Le mécanisme en jeu n'a pas encore été éclairci et les chercheurs doivent maintenant obtenir une représentation en trois dimensions de la nicastrine afin de mieux connaître son rôle et de développer d'éventuels traitements ciblés sur cette protéine. En agissant sur la zone d'où provient la nicastrine, un médicament approprié pourrait bloquer sa production et donc réduire la formation des plaques dans le cerveau. Cette nouvelle protéine doit son nom au village italien de Nicastro, où des chercheurs ont identifié pour la première fois il y a quarante ans des causes génétiques de la maladie d'Alzheimer.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20000907.OBS7160.html?1030

Le coeur aime le chocolat
Samedi, 16/09/2000 - 00:00

Bonne nouvelle pour les accros au chocolat : les polyphénols, qui sont des molécules antioxydantes contenues dans le cacao, auraient des effets bénéfiques sur les vaisseaux, et donc sur le coeur. C'est ce que montre une étude présentée lors du Congrès européen de cardiologie à Amsterdam. Ce travail, mené par des chercheurs de l'université de Californie, à Davis, indique que le chocolat favoriserait la vasodilatation, donc la relaxation des vaisseaux. De plus, il augmenterait la production de prostacycline dans les parois vasculaires. Or cette molécule empêche les plaquettes sanguines de s'agglutiner entre elles et donc de former des caillots. Enfin, la principale matière grasse contenue dans le chocolat ne ferait pas monter le taux de cholestérol sanguin. Néanmoins, les personnes qui surveillent leur ligne ont intérêt à se jeter sur les fruits et les légumes, riches eux aussi en polyphénols, tout comme le thé vert et le vin rouge, pour obtenir des bénéfices similaires. Même si les auteurs de ce travail insistent sur le manque de lien établi entre la consommation de chocolat et l'obésité.

Le Point : http://www.lepoint.fr/data/PNT1460/6005201P.html

Le parlement européen vote contre le clonage thérapeutique
Samedi, 16/09/2000 - 00:00

Le Parlement européen a voté jeudi à Strasbourg, lors de sa session plénière de rentrée, une résolution considérant le clonage à des fins thérapeutiques contraire au "respect de la dignité humaine". En adoptant par 237 voix contre 230 et 43 abstentions, une résolution commune du PPE/DE, Verts/ALE, UEN et EDD sur le clonage des êtres humains, le Parlement européen rappelle qu'il convient de respecter la dignité humaine. Il considère que le "clonage thérapeutique" pose un dilemme éthique profond, franchit sans retour une frontière dans le domaine des normes de la recherche et est contraire à la politique publique adoptée par l'Union européenne.En conséquence, il invite le Gouvernement britannique à revoir sa position sur le clonage d'embryons humains et réitère son appel à chaque Etat membre pour qu'il mette en oeuvre une législation contraignante et assortie de sanctions pénales proscrivant toute recherche sur le clonage humain. Tout en réaffirmant son soutien à la recherche scientifique et biotechnologique, pourvu qu'elle soit équilibrée par des contraintes éthiques et sociales rigoureuses ; le Parlement européen demande que soit réaffirmée l'exclusion de la brevetabilité et du clonage des domaines touchant à l'humain. Il insiste à nouveau pour que soit proclamée, à l'échelon des Nations-Unies, une interdiction universelle et spécifique du clonage d'êtres humains. Si une commission temporaire devait être instaurée au sein du Parlement, cette dernière devrait examiner les problèmes sur lesquels le Parlement n'a pas encore pris clairement position. Il souhaite également que soit proclamée "à l'échelon des Nations unies une interdiction universelle et spécifique du clonage d'êtres humains à tous les stades de la formation et du développement".

Brève rédigée par @RT Flash

Parlement européen :

http://www.europarl.eu.int/dg3/sdp/journ/fr/nj000907_fr1.htm#7

Découverte étonnante au Congrès
Samedi, 16/09/2000 - 00:00

Pendant la grossesse une mère subit des modifications qui seront permanentes, en raison de la présence de l'enfant dont elle "hérite" d'une certaine manière, des caractéristiques,et à travers l'enfant, également du père de l'enfant. C'est l'une des découverte étonnante qui sera présentée au Congrès sur "l'aube de la vie humaine" organisé par l'Institut de Gynécologie et d'Obstétrique de l'Université Catholique de Rome, dirigé par le professeur Salvatore Mancuso, qui aura lieu à Rome dans le cadre du Jubilé des professeurs universitaires. On savait déjà que l'enfant hérite 50 % de son patrimoine génétique, de sa mère, et que pendant la vie utérine la vie du foetus est conditionnée par le fait qu'il "entende" le monde extérieur à travers le corps de la mère. Il est toutefois surprenant d'entendre que la mère subit des modifications à long terme à cause de la grossesse, liées à la "personne" de l'enfant et, indirectement au père de l'enfant. "Nous avons la preuve, a expliqué le professeur Mancuso au quotidien italien "Avvenire", qu'à partir de la cinquième semaine de gestation, c'est-à-dire lorsque la femme se rend compte qu'elle est enceinte, une infinité de messages passent de l'embryon à la mère à travers des substances chimiques comme les hormones, les neurotransmetteurs, etc. Ces informations servent à adapter l'organisme de la mère à la présence du nouvel être. On a par ailleurs découvert que l'embryon envoie des cellules staminales qui, grâce à la tolérance immunitaire de la mère envers l'enfant, colonisent la moelle maternelle dont elles ne se séparent plus. De là naissent par ailleurs des lymphocytes pour tout le reste de la vie de la femme".

Zenith.org : http://www.zenit.org/

La révolution de la médecine nucléaire
Samedi, 16/09/2000 - 00:00

Mal nommée, la médecine nucléaire inquiète. Mais son potentiel diagnostique et thérapeutique est immense - aussi grand que celui de la chimie qui fabrique les molécules qu'elle va être appelée à utiliser - et les progrès réalisés multiplient déjà par deux les chances de venir à bout de certains cancers. "D'une fourchette de 10 à 40 %, les chances de guérison de certains lymphomes sont passées en quelques mois de 60 à plus de 80 %, et le potentiel de cette discipline ne connaît pas d'autres limites que celles de la chimie", a indiqué le Pr Gilles Karcher, responsable du service de médecine nucléaire au CHU de Nancy et vice-président du congrès de l'Association Européenne de Médecine Nucléaire, qui vient de s'achever à Paris. La médecine nucléaire repose sur l'usage de traceurs faiblement radioactifs, volontairement administrés au patient, pour effectuer un diagnostic ou traiter une maladie. Elle est fondée sur la propriété qu'ont certains éléments radioactifs ou certaines molécules marquées à se concentrer naturellement dans un organe. L'élément radioactif, dont la durée de vie est très courte - de quelques secondes à quelques jours - est choisi en fonction de l'organe à explorer ou de la maladie à soigner. Contrairement à la radiothérapie "classique" qui vise à détruire des cellules en bombardant, à travers le corps, la zone où elles se trouvent, la radiothérapie interne consiste à fixer un produit radioactif dans une substance - médicament ou anticorps - qui va aller se loger au coeur même de ces cellules et les détruire de l'intérieur. "Actuellement, explique le Pr Serge Askienazy, chef du service de biophysique de l'hôpital Saint-Antoine à Paris et président du congrès, le développement de la radiothérapie interne connaît une poussée remarquable", grâce à la découverte de molécules de plus en plus pointues et de nouveaux traceurs propres à chaque maladie. Sur le papier, presque n'importe quelle affection pourrait tirer bénéfice de cette technique . Les spécialistes pensent pouvoir dans un avenir proche apporter un mieux dans beaucoup d'autres formes de cancers. "Les cancers du sein, du colon, du foie, les mélanomes et les gliomes (tumeurs du cerveau), seront probablement les prochains cancers traitables", estime ce spécialiste. La tomographie par émission de positons (TEP) est considérée par les experts comme la plus perfectionnée des caméras médicales. Outre le traitement du cancer, la medecine nucléaire est également en train de revolutionner la prise en charge des maladies cardio-vasculaires. Dans ce domaine, l'examen le plus performant de la cardiologie nucléaire est la tomoscintigraphie de perfusion myocardique ou SPECT, acronyme anglais de single photon emission computed tomography. Il analyse les parois du ventricule gauche et le septum, la cloison qui sépare les deux ventricules, en coupes régulières selon les troisaxesdu coeur. Le composé traceur radioactif - le plus utilisé est le thallium 201 - permet de visualiser le muscle cardiaque où il est retenu en proportion du débit de perfusion sanguine. Le marqueur, un analogue du potassium, pénètre avidement dans les cellules cardiaques vivantes. Une première scintigraphie est réalisée juste après un exercice important destiné à accélérer le débit de perfusion du myocarde, suivie après quatre heures de repos par une seconde scintigraphie de repos. La comparaison de la distribution du traceur après exercice (ou test pharmacologique) et au repos permet de décrire la localisation, la sévérité et le caractère réversible d'anomalies de la perfusion qui apparaissent ou s'exagèrent à l'exercice lorsque la demande en oxygène est largement augmentée. Couplé à un électrocardiogramme qui permet de reconstituer le cycle cardiaque, cet examen permet de calculer la fraction d'éjection, élément fonctionnel majeur renseignant sur la puissance de la contraction cardiaque. Mais le coût de fonctionnement de ces nouveaux appareils est élevé et la France - dont les besoins sont évalués à une cinquantaine d'appareils - ne dispose encore que d'une poignée de caméras à positons, alors que l'Allemagne compte déjà 90 de ces appareils et les Etats-Unis plus de 300.

AFP :

http://www-old.afp.com/ext/francais/lemonde/sci/000911105836.xbrvvkt7.html

Le Monde :

http://www.lemonde.fr/article/0,2320,seq-2077-93143-QUO,00.html

Le bilan de la santé en France
Samedi, 16/09/2000 - 00:00

Les français se portent globalement mieux, mais ce progrès d'ensemble profite inégalement aux différentes catégories sociales. L'espérance de vie a ainsi considérablement augmenté en France au cours du XXe siècle, passant de 43,4 ans à 74 ans pour les hommes et de 47 ans à 82 ans pour les femmes. Cependant, l'espérance de vie des ouvriers de 35 ans est inférieure de 6,5 ans à celle des cadres et professions libérales du même âge et, entre les deux, son niveau suit la hiérarchie professionnelle. Un manoeuvre a ainsi un risque trois fois plus élevé de mourir entre 35 et 65 ans qu'un ingénieur. C'est l'une des nombreuses observations de l'ouvrage collectif Les Inégalités sociales de santé, présenté mardi 12 septembre, qui constitue un état des lieux inédit dressé par l'Institut national de la santé et de la recherche médicale (Inserm). Le constat de l'inégalité sociale des Français devant la mort n'est pas nouveau, mais l'ouvrage collectif démontre surtout que l'écart s'est creusé entre les catégories sociales. Il fait apparaître la mauvaise position de la France dans ce domaine, lorsqu'on la compare avec les autres pays européens. La mortalité des hommes de 45 à 59 ans exerçant une profession manuelle dépasse en effet celle des non-manuels dans une proportion allant de 33 % à 55 % chez nos voisins. Elle lui est supérieure de 71 % en France. Cet écart existe également lorsque l'on considère le niveau d'études, pour les hommes comme pour les femmes. Ce qui fait s'interroger les auteurs : « Pourquoi les écarts de taux de mortalité entre les classes sociales diffèrent-ils considérablement d'un pays à l'autre, à niveau de richesse nationale pourtant comparable, et notamment, pourquoi la France est-elle l'un des pays d'Europe occidentale où les inégalités des hommes devant la mort sont les plus fortes ? » Leur réponse est en fait le postulat sur lequel repose le livre : « Les inégalités de santé concrètement mesurées par les taux de morbidité proportion de maladies] et de mortalité [proportion de décès], la fréquence des handicaps moteurs ou des troubles mentaux, l'espérance et la qualité de vie sont AUSSI des inégalités sociales. » Le mouvement paradoxal d'un progrès sanitaire global de la société française et d'un maintien ou d'un accroissement des inégalités concerne de nombreux domaines : la périnatalité, les maladies coronariennes, la survie après un cancer, la santé bucco-dentaire, mais aussi, de manière plus inattendue, les décès et les blessures graves lors des accidents de la circulation, ou les conséquences sociales de la maladie et du handicap. Depuis de nombreuses décennies, la politique médicale et sociale en faveur des femmes enceintes et des jeunes enfants s'est développée, avec des résultats remarquables, surtout au cours des trente dernières années : la mortalité périnatale a baissé de 21,3 décès pour 1 000 naissances en 1972 à 12,3 pour 1 000 en 1981 et 7,4 pour 1 000 en 1995. Pourtant, les différences sont notables : chez les agricultrices, le taux de mortalité infantile est de 8,5 décès pour 1 000 naissances vivantes ; il est de 6,6 chez les employées et 6,1 pour les professions intermédiaires. Le facteur social se manifeste tôt. Que l'on apprécie la situation sociale par le niveau d'études de la mère, par la catégorie socioprofessionnelle de la mère, du père ou du couple, ou plus rarement par le revenu, les écarts existent face à la prématurité et au faible poids de naissance. Chez les hommes adultes, les progrès de la prévention et de la prise en charge ont globalement diminué de 32 % la mortalité due aux maladies coronariennes entre 1970 et 1990. Les cadres en ont cependant davantage bénéficié que les employés ou les ouvriers : en 1990, par rapport à un cadre, le risque de mourir d'une maladie coronarienne était multiplié par 1,8 chez les ouvriers et par 3,5 chez les employés. Vingt ans auparavant, ce risque était respectivement multiplié par 0,9 et par 1,6. Les différences sociales affectent de même la survenue des maladies cardiovasculaires. L'hypertension artérielle, par exemple, est plus fréquemment observée « dans les catégories sociales les plus modestes, niveau de revenus ou d'études plus faibles ». Le risque de survenue d'un cancer dans différentes catégories sociales varie selon sa localisation. Les catégories les plus défavorisées sont plus exposées aux cancers du poumon (le risque est plus de deux fois supérieur chez un salarié ayant des tâches d'exécution que chez un cadre), ainsi qu'à ceux des voies aéro-digestives supérieures, de l'oesoehage et du col utérin. A l'inverse, le risque de cancer du côlon et de cancer du sein est plus élevé dans les catégories plus aisées. Ces différences peuvent résulter de nombreux facteurs, dont les expositions professionnelles et le recours au dépistage. Le gradient social semble, en revanche, jouer de manière univoque sur la survie après cancer, première cause de mortalité en France : elle est constamment meilleure dans les catégories socioprofessionnelles supérieures ou parmi les personnes ayant un meilleur niveau d'étude. Au sortir de ce premier état des lieux, les auteurs appellent à développer la recherche sur les différents aspects des inégalités sociales de santé. De même, ils estiment indispensable une évaluation systématique des politiques publiques « du point de vue de leur impact sur les inégalités sociales en général, et de santé en particulier ». Enfin, avec ce livre, les chercheurs de l'Inserm entendent bien contribuer « à un plus large débat dans l'espace public ». Ils prennent soin de préciser que « les connaissances en la matière ne sont pas le seul fait des experts ». A leurs yeux, « les actions de réduction des inégalités impliquent des choix politiques dans lesquels l'expertise apporte un éclairage essentiel, mais qui relèvent in fine de l'exercice démocratique. »

Le Monde :

[http://www.lemonde.fr/article/0,2320,seq-2079-93451-QUO,00.html

Premier essai de thérapie génique contre la dystrophie de Duchenne
Samedi, 16/09/2000 - 00:00

La première injection d'un traitement de thérapie génique contre la dystrophie de Duchenne, une maladie héréditaire provoquant une dégénérescence progressive des muscles, a été réalisée mardi à l'hôpital de la Pitié-Salpêtrière, a annoncé mardi le directeur de l'Agence française contre les myopathies (AFM), Eric Molinié, à l'occasion des 54èmes entretiens de Bichat. La dystrophie de Duchenne est la première maladie dont le gène a été isolé, en 1986. La thérapie génique consiste à envoyer dans l'organisme du patient un gène normal qui va aller corriger une anomalie provoquée par le mauvais fonctionnement ou le non-fonctionnement du gène d'origine. Il existe plus de 140 maladies neuromusculaires (myopathie) et la plupart pourraient, selon les spécialistes, bénéficier d'une théraphie génique. L'essai mené à la Pitié-Salpêtrière, le premier sur l'homme, portera sur neuf jeunes patients atteints de cette maladie, qui vont participer les uns après les autres à cet essai.

AFP :

http://www-old.afp.com/ext/francais/lemonde/sci/000912142015.vh37pirv.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top