RTFlash

RTFLASH Recherche & Technologie
NUMERO 121
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Novembre 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Adminet.fr met en ligne le portail des régions
Vers une directive européenne contre le spam
72 % des PME/PMI françaises sont connectées à Internet
Microsoft présente un prototype "d'ardoise électronique"
Sun imagine un ordinateur réduit à un simple écran
La bataille cachée du brevet sur le logiciel
La distribution de films sur le net s'organise
Internet tire le disque vers le haut de gamme
La technologie du disque optique s'emballe
Les CD et les DVD gravés sur le même appareil
Matière
Les piles à combustible pour téléphone mobile sont sur la bonne voie
Terre
L'impact économique du réchauffement planétaire
Vivant
Une greffe de cellules souches reconstitue le muscle cardiaque
Un régime de type "méditerranéen" après une attaque prolonge la vie
Cancer : Vers un traitement personnalisé
Première implantation d'un "prototype de pancréas artificiel"
Essais sur un foie artificiel
Ces bactéries qui venaient du froid
Moins de démence avec des médicaments anti-cholestérols
Pour lutter contre les infections, faites travailler votre cerveau
Les puces à ADN, laboratoire du futur
La première implantation de rétine artificielle
Un nouvel espoir pour certains cancers incurables
Un même gène serait lié à la tension artérielle et à l'obésité
Le premier bébé français de la génétique est né
Lire dans les pensées
Recherche
L'innovation technologique progresse en France
Edito
Il faut que la machine se mette au service de l'Homme



Il ne faut pas rêver : le grand public ne va pas s'approprier les nouvelles technologies à la vitesse espérée par les très nombreux acteurs de ces marchés émergents. Et ce pour une raison très simple : l'utilisation de ces nouveaux outils est encore trop complexe et pas suffisamment « naturelle ». Notre cerveau dispose de cinq sens (la vue, l'ouïe, l'odorat, le goût et le toucher) pour communiquer avec l'extérieur. Dans la sphère publique de communication, nous nous servons essentiellement de l'oeil (l'écriture, l'image) et de l'oreille (la parole) pour comprendre notre monde et échanger avec notre environnement. Les trois autres sens sont essentiellement réservés à la sphère privée sinon intimiste. Tant que les machines qui veulent échanger avec notre cerveau n'utiliseront pas pleinement nos sens publics (l'écriture, l'image et la parole) pour répondre à notre attente, elles ne pourront intéresser qu'une minorité des populations qui acceptent « a priori » de subir un apprentissage pour se servir d'un clavier et respecter des procédures. Ce constat, qui est celui de la situation actuelle, nous met dans la position où un être humain doit se plier aux règles édictées par la machine s'il veut pouvoir s'en servir efficacement alors que la finalité, qui marquera la réelle émergence d'une époque nouvelle, doit être celle qui mettra en évidence que la machine se mettra réellement au service de l'Homme en le comprenant naturellement quand il lui parlera, quand il lui écrira... Ce problème posé par le décalage entre l'acquisition des usages par le plus grand nombre et le développement stupéfiant des technologies qui est toujours soumis à la loi de Moore aura des conséquences majeures dans ces prochaines années si les acteurs essentiels du marché ne prennent pas, sans tarder, toutes les mesures qui s'imposent pour que toutes les machines « intelligentes » qui, demain, nous environneront sur nos lieux de travail, à notre domicile, dans notre voiture et dans tous les espaces publics sachent « naturellement » nous comprendre et échanger avec nous. Pour illustrer ce que je viens de dire, je ne prendrai qu'un seul exemple : l'UMTS. Des sociétés, souvent dominantes, de télécommunications viennent de prendre des risques majeurs en s'engageant à investir des centaines de milliards de francs dans une nouvelle technologie (l'UMTS) qui n'a pas encore fait ses preuves et surtout dont les usages n'ont pas encore été « acquis » par le grand public. Penser que l'UMTS sera une grande réussite pour la simple raison qu'indubitablement le téléphone GSM connaît le triomphe, est une erreur. Le téléphone portable se développe aussi rapidement parce qu'il n'est qu'un simple clone (sans fil) du téléphone filaire dont nous avions appris à nous servir depuis des décennies. Il est d'ailleurs instructif de constater que, dès que nous voulons donner à ce téléphone portable une autre mission que celle de porter la parole, mission qui est celle de son ancêtre depuis Graham Bell en 1876, tel que le WAP par exemple, nous ressentons immédiatement des réticences dans l'acquisition de ces usages nouveaux par les utilisateurs. Or, la tâche qui sera confiée à l'UMTS et sur laquelle repose le modèle économique qui a incité de grands opérateurs de télécommunications à prendre de tels risques n'est plus essentiellement de porter la parole mais de permettre surtout d'échanger à grande vitesse des images animées de grande qualité, c'est-à-dire de remplir des missions que nos lourds PC de bureau ne savent pas encore bien remplir. Il faut, avec réalisme, constater que l'acquisition des usages nouveaux apportés par Internet et surtout l'utilisation de l'image, ne pénètre que lentement auprès du grand public. Si les procédures d'accès à la planète Internet sont trop complexes sur les terminaux UMTS, nous allons tous vers la catastrophe car les majors qui ont engagé tout leur « crédit » dans cette nouvelle technologie ne pourront pas faire face à leurs obligations et ne pourront même pas honorer les engagements pris lors de mises aux enchères « aberrantes ». Aussi, si ces mastodontes de notre économie veulent sauver leur « peau », il leur faut tout entreprendre pour que dans quelques mois les échanges entre l'utilisateur et son terminal UMTS soient parfaitement « naturels ». Si nous pouvons naturellement naviguer sur la toile Internet en utilisant simplement la voix, alors la partie sera gagnée. Par contre, si nous devons encore utiliser le clavier et respecter des procédures complexes pour nous servir pleinement de notre terminal UMTS, alors nous allons vers un échec qui marquera le début du 21ème siècle. Ce défi technologique n'est pas impossible à relever, loin de là. La fréquence des processeurs dédiés pourrait atteindre un haut niveau nécessaire pour un prix acceptable. Les algorithmes de compression, les logiciels de reconnaissance naturelle de la parole et les agents intelligents sont autant de domaines qui sont maintenant bien maîtrisés par plusieurs équipes de recherche et développement dans le monde. Il faut que les managers des groupes de télécommunications qui ont pris de tels risques imposent à leurs fournisseurs que les terminaux UMTS aient des capacités « naturelles » d'échanges avec leurs utilisateurs. Comme j'ai souvent l'habitude de le dire, les enfants qui seront nés en cette année 2000, et dont un sur deux a des chances raisonnables de devenir centenaire, vont devoir affronter six ou sept ruptures technologiques majeures au cours de leur seule vie, alors que les objets qui entouraient le lit de mort de leurs aïeux , il y a moins de deux siècles, étaient les mêmes que ceux qui entouraient leur berceau. Depuis le début de la révolution industrielle, nos grands-parents, parents ou nous-mêmes avons disposé de plusieurs décennies, sinon de toute notre vie, pour assimiler de nouvelles techniques telles que l'électricité, le téléphone, l'automobile, la télévision ou même l'informatique. Vu le rythme effréné avec lequel vont émerger les nouvelles technologies, il sera nécessaire que celles-ci sachent se mettre au service de l'homme en utilisant ses sens naturels pour échanger avec lui. Si cette précaution n'était pas respectée, il serait à craindre que l'homme, refusant la complexité du monde technologique, sans cesse renouvelé, qui l'entourerait, entre dans un cycle de rejet qui ne pourrait avoir que des conséquences néfastes sur les évolutions de notre société.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Adminet.fr met en ligne le portail des régions
Samedi, 18/11/2000 - 00:00

Adminet.fr, centre de documentation sur le service public, les collectivités locales, l'administration et l'actualité citoyenne, ouvre le portail des régions. Chaque région y dispose de son site dédié. L'internaute y retrouve notamment les liens vers les sites institutionnels et les portails de sa région et de son département. Des partenariats éditoriaux avec des acteurs régionaux de la société de l'information et de l'administration publique sont en cours. Des rubriques thématiques compléteront l'organisation régionale. Limitée dans un premier temps à la métropole, l'ouverture des régions d'outre-mer est prévue prochainement.

Adminet : http://www.adminet.fr/regions.html

Vers une directive européenne contre le spam
Samedi, 18/11/2000 - 00:00

La Cnil (Commission nationale informatique et libertés) et ses homologues européens réunis au sein du "Groupe de travail sur la protection des personnes physiques à l'égard du traitement des données à caractère personnel" viennent de rendre un avis qui soutient une proposition de loi bannissant l'envoi d'e-mails non sollicités. Cette loi, déposée en juillet dernier à la Commission européenne est en fait une proposition de directive modifiant elle-même une directive européenne sur les télécommunications et la protection des données, la directive 97/66 du 15-12-97. La directive 97/66 stipule que "l'utilisation de systèmes automatisés d'appels sans intervention humaine (automates d'appel) ou de télécopieurs (fax) à des fins de prospection directe ne peut être autorisée que si elle vise des abonnés ayant donné leur consentement préalable". La proposition de directive vise à étendre les dispositions du texte aux communications par le biais d'Internet, et donc aux e-mails, interdisant de ce fait le spam. L'ennui, c'est qu'en France, la directive sur les télécommunications et la protection des données personnelles n'a toujours pas été transposée. Elle devrait l'être par ordonnance du Gouvernement, un projet de loi pour l'habiliter à le faire a d'ailleurs été déposé au Sénat le 7 septembre 2000. Un avis, sous la forme d'un rapport de la Commission des affaires économiques du Sénat, sonne l'alarme :"L'urgence de la transposition apparaît évidente". En effet, la directive aurait dû être transposée dans le droit français avant le 24 octobre 1998 ! Le rapporteur note par ailleurs que la directive européenne 95/46 sur la protection des données personnelles devrait être transposée dans le cadre du projet de loi sur la société de l'information, prévu pour le printemps prochain. "La protection de la vie privée aurait mérité un vrai débat législatif", estime la Commission des affaires économiques, qui d'un autre côté juge "nécessaire une rapide entrée en vigueur de ce nouveau régime" rendue possible par une ordonnance du Gouvernement. L'Europe n'a pas encore interdit le spam et on comprend bien qu'une fois qu'elle l'aura banni, il restera encore à appliquer le droit communautaire dans l'Hexagone. En attendant, la Cnil rappelle qu'en France, le "publipostage électronique" est soumis à la loi "Informatique et libertés" : "Un site qui a collecté des mails directement auprès d'internautes peut leur adresser des courriers électroniques de prospection, sous la seule réserve du droit dont dispose l'internaute, prospect ou client, de s'opposer à en recevoir."

72 % des PME/PMI françaises sont connectées à Internet
Samedi, 18/11/2000 - 00:00

Selon une enquête sur les PME/PMI et Internet réalisée auprès de 1 644PME/PMI des secteurs de l'industrie, du commerce et des services, par le groupe Pouey International, près de 72 % des entreprises utilisent Internet. Avec près de 85 % des entreprises connectées, la région parisienne arrive en tête, suivie du Bas Rhin (83 %), des Bouches du Rhône (80 %), du Nord (79 %), du Rhône (70 %), de la Loire-Atlantique (66 %) et de la Gironde (61 %). Les industries (83 %) et les sociétés de services (73 %) sont davantage utilisatrices d'Internet que les commerces (65,5 %). Pour 27 % des entreprises non utilisatrices, le manque de temps est le principal frein. 24 % d'entre elles estiment qu'Internet n'est pas une priorité. Selon 18 % des entreprises interrogées, la confidentialité est un frein. 12 % estiment qu'il s'agit d'une question de budget. 97 % des entreprises utilisant Internet disposent d'adresses e-mail, principalement attribuées à la direction (87 %) et aux cadres (77,5 %). Seuls 65 % des commerciaux et 53 % des employés en ont une. 60 % des salariés seulement ont accès à Internet. 45 % des entreprises n'ayant pas encore de site pensent toutefois en ouvrir un dans les prochains mois. 23 % sont d'ores et déjà en cours d'élaboration. Sur les 46,8 % des entreprises ayant mis en place un site Internet, 74 %présentent l'activité de leur société. 10,5 % seulement considèrent Internet comme un outil de vente, 9,2 % comme un outil de travail et 6,6 % comme un outil permettant d'échanger des informations. 62,5 % des entreprises franciliennes possèdent un site Internet, contre 54,7 % dans le Rhône, 50 % dans le Bas-Rhin et 50 % dans les Bouches du Rhône. Pour plus de 66 % des sociétés, Internet sera un atout très ou moyennement important pour le développement de leur entreprise. 36,81 % seulement lui accordent une très grande importance.

Atelier : http://www.atelier.fr)

Microsoft présente un prototype "d'ardoise électronique"
Samedi, 18/11/2000 - 00:00

Bill Gates a fait sensation le 12 novembre au salon high-tech du Comdex à Las Vegas avec un prototype d'ardoise électronique, qui fonctionne comme un ordinateur mais est activé par un stylet. Le "tablet PC" a le format d'une ardoise, les caractéristiques d'un ordinateur personnel et la mobilité d'un portable. Le clavier est remplacé par un stylet qui permet d'écrire directement sur l'écran, avec une "encre" électronique, et remplace la souris; l'ordinateur reconnait instantanément les instructions écrites à la main. L'utilisateur peut ainsi prendre des notes à la volée sur "l'ardoise" et les appeler ensuite à l'écran pour les corriger ou les compléter . Il peut aussi à l'aide d'un mot-clé, qu'il écrit sur l'écran, retrouver des documents (texte, graphiques...) stockés dans l'ardoise. contrairement aux assistants personnels de type Palm, qui ont un système d'exploitation spécifique, le tablet PC utilise les mêmes applications Windows que celle d'un ordinateur personnel. "Nous venons juste de terminer certains prototypes de l'appareil. Je peux vous dire que nous nous les arrachons comme aucun autre des produits que nous avons créés", a indiqué Bill Gates, devant un public très enthousiaste. Microsoft n'a pas annoncé de date de commercialisation pour ces ardoises électroniques mais elles ne devraient pas être sur le marché avant 2002. Le grand avantage du "tablet PC" par rapport aux ordinateurs de poche comme le Palm est qu'il permet de s'affranchir à la fois du clavier et du système de notation très codifié et contraignant qu'imposent les assistants numériques actuels. En reconnaissant l'écriture naturelle cette nouvelle génération d'ardoise électronique devrait définitivement rendre l'informatique accessible au plus grand nombre.

Microsoft : http://mspress.microsoft.com/hop/

Sun imagine un ordinateur réduit à un simple écran
Samedi, 18/11/2000 - 00:00

Malgré l'échec de l'ordinateur de réseau, le concurrent du PC lancé en 1996, Sun Microsystems croit plus que jamais au développement de terminaux Internet. Le responsable technologique de l'entreprise, Greg Papadopoulos, plaide pour de simples écrans disposant d'une adresse sur le réseau auxquels ils sont reliés par radio et d'une identification de l'utilisateur par cartes à puce. De là à imaginer des lunettes-ordinateur... PAPADOPOULOS, vice-président et directeur technologique de Sun Microsystems, le répète à l'envi : « La bande passante installée double tous les six mois. » Le débit maximal d'information disponible sur Internet suit ainsi une courbe exponentielle dont la pente est encore plus forte que celle de la loi de Moore qui, dans les années 70, affirmait que le nombre de transistors des microprocesseurs doublait tous les dix-huit mois. Aujourd'hui, les « tuyaux » du réseau mondial grossissent trois fois plus vite et les dirigeants de Sun se frottent les mains. Qui dit bande passante plus importante, dit en effet plus de serveurs, ces ordinateurs dont l'entreprise californienne créée en 1982 s'est fait une spécialité. Les derniers résulats financiers sont éloquents. Lors du premier trimestre de son année fiscale 2001 qui s'est achevé le 1er octobre, Sun a annoncé une croissance de 60 % de son chiffre d'affaires et de 85 % de son bénéfice net. Depuis le milieu des années 90, l'entreprise de Palo Alto milite avec Oracle sur le thème, original à notre époque, « le réseau, c'est l'ordinateur ». Cela signifie que les serveurs et les tuyaux d'Internet remplacent l'ordinateur personnel (PC), la pierre angulaire du développement de l'informatique. Aujourd'hui, Sun croit plus que jamais au modèle du NC, même si sa stratégie s'est nettement infléchie. Plus question de fabriquer elle-même les terminaux. D'autant que les appareils pouvant prétendre jouer ce rôle ne cessent de se multiplier. Les décodeurs de télévision numériques aussi bien que les téléphones mobiles et les assistants personnels (PDA du type Palm Pilot) font partie des candidats. Sun en imagine néanmoins un autre qui pourrait se substituer aux encombrants ordinateurs familiaux. « Notre technologie Sun Ray, pour l'instant destinée aux entreprises, repose sur un simple écran relié au réseau disposant d'une adresse Internet et d'une identification de l'utilisateur par carte à puce », explique Greg Papadopoulos. Une solution « très séduisante pour le grand public ». Au lieu d'un PC autonome, les familles disposeraient de simples écrans installés dans différentes pièces et reliés en permanence à Internet par radio (norme Bluetooth). Les informations personnelles, tout comme les logiciels, seraient stockés sur les serveurs du réseau. la conversion entre les différents formats se ferait de manière automatique et transparente pour l'utilisateur.Ainsi, un même texte pourra-t-il être visualisé aussi bien sur un écran du type Sun Ray que sur un téléphone portable ou un PDA. Grâce aux possibilités de formatage (feuilles de style) du langage XML, un même document sera adapté aux caractéristiques de chaque système de visualisation. Greg Papadopoulos se projette même dans un avenir un peu plus lointain où « la technologie grand public se confondra avec la mode ». Pour lui, l'écran idéal se résume à une paire de lunettes équipée d'écouteurs logés dans les branches et de microphones dissimulés sous les verres. Le système de connexion au réseau tiendra alors dans une poche et communiquera avec les lunettes via des ondes radio.

Le Monde :

http://www.lemonde.fr/article/0,2320,seq-2077-115998-QUO,00.html

La bataille cachée du brevet sur le logiciel
Samedi, 18/11/2000 - 00:00

Il est des guerres ingrates, ignorées du grand public mais dont l'issue peut avoir des répercussions qui dépassent de loin le strict cadre des belligérants. Celle qui se joue actuellement, aussi bien dans l'antichambre de l'Office européen de brevets (OEB) que dans les couloirs du Parlement européen, autour de la brevetabilité des logiciels en fait partie. A priori, l'enjeu du conflit que se livrent partisans et opposants du brevet pour les logiciels ne saute pas immédiatement aux yeux du profane. Pourquoi les programmes informatiques ne sont-ils pas logés à la même enseigne que les autres inventions ? Question simple, réponse compliquée, comme l'atteste la récente affaire Amazon.com et son désormais célèbre brevet pour « l'achat en un clic ». Le site américain de commerce électronique a en effet fait breveter aux Etats-Unis son option 1-Click, qui permet aux habitués du site de commander leurs articles très rapidement. Une fois leurs coordonnées personnelles et bancaires enregistrées, il leur est possible d'acheter avec un seul clic de souris grâce à un système de « cookie » logé dans l'ordinateur du client. La question est de savoir si 1-Click peut être considérée comme une réelle invention de la part d'Amazon ou s'il s'agit d'une simple procédure informatique comportant une succession d'éta pes dépourvue d'inventivité. Les opposants à la brevetabilité n'y voient qu'une méthode commerciale déguisée en innovation technologique. Les partisans saluent un système nouveau et inventif qu'il est prudent de protéger.Le fond du problème est là. A l'heure du développement massif du commerce électronique, les brevets liés aux logiciels donnent une réalité juridique aux actifs immatériels de ces jeunes entreprises du numérique et valorisent souvent des mois de recherche et un savoir-faire. « Sans oublier que les investisseurs sont très sensibles à la qualité de la propriété intellectuelle des sociétés dans lesquelles ils investissent », analyse Pierre Breese, avocat conseil en propriété intellectuelle et partisan de la brevetabilité. Mais le brevet peut cesser d'être un instrument protecteur d'actifs pour devenir un obstacle à l'innovation dès qu'il est utilisé de manière offensive. Il se transforme alors en arme juridique destiné à freiner le développement de la concurrence. Un comble que condamnent les défenseurs du logiciel libre. « Il est admis que c'est bien l'absence de brevet sur les standards de communication qui a permis le développement économique d'Internet et son foisonnement de créativité », souligne Jean- Paul Smets, ingénieur des Mines et auteur d'un rapport sur ce thème. Les Etats-Unis ou le Japon autorisent depuis plusieurs années le dépôt d'un brevet pour un logiciel ou un « procédé » informatique, tant et si bien qu'il devient difficile outre-Atlantique de publier un logiciel sans se trouver en situation de contrefaçon sur certains brevets. L'Europe, en théorie, ne reconnaît que le droit d'auteur pour protéger les lignes de code. Et ce en vertu de la Convention de Munich sur le brevet européen, signée en 1973. En théorie, car, dans la pratique, l'OEB, organisme plus technique que politique, accepte depuis plus d'une dizaine d'années de breveter des logiciels.

Le Monde :

http://interactif.lemonde.fr/article/0,3649,2894--116308-0,FF.html

La distribution de films sur le net s'organise
Samedi, 18/11/2000 - 00:00

PrimeFilm est le premier site français à proposer gratuitement des films en avant-première sur Internet. En fait, seuls les 500 premiers internautes équipés d'une ligne à haut débit peuvent télécharger un film pendant la semaine précédant sa sortie en salle. Mais cette initiative a donné des idées à d'autres. Nouvo. com, qui s'était déjà illustré en mai dernier en lançant la première «net sitcom» , se lance dans la bataille fin novembre. «Nous diffuserons des films de sérieB, promet Paul Rambali, directeur des programmes. Nous commencerons, par exemple, avec un cycle horreur et «The Terror» (1963) de Roger Corman avec Jack Nicholson, puis on évoluera vers la fiction et la comédie». Nouvo diffusera une vingtaine de films cette année. Et Paul Rambali est persuadé du succès qui l'attend sur le Net: «Le divertissement et la vidéo libèrent l'ordinateur. L'internaute a une sensation de pouvoir faire tout ce qu'il veut avec sonPC. De regarder ce qu'il veut, où il veut, quand il le veut.» Nuance, cependant: l'internaute n'a pas vraiment le choix de regarder ce qu'il veut, les majors restant plus que frileux à l'idée de céder les droits des films pour une diffusion en ligne. Ne vous attendez donc pas à visionner les films les plus récents, la plupart des sites ne proposent d'ailleurs que de vieux nanards ou des films pour nostalgiques. C'est le cas de MovieFlix, qui propose de revoir gratuitement, parmi d'autres, «The Three Stooges» et autres longs métrages d'Elisabeth Taylor et de Spencer Tracy. Paul Rambali est formel: «D'ici à 2001, nous pourrons diffuser des films plus récents. Mais, pour l'instant, nous ne pouvons nous permettre de diffuser autre chose que des films spécialisés et moins connus.»Mais les choses évoluent très rapidement. Sightsound, qui s'était fait connaître le 5 mai dernier en diffusant «The Quantum Project», premier film à gros budget diffusé sur le Web, est passé aujourd'hui à la vitesse supérieure en devenant un énorme diffuseur payant de films, séries, dessins animés et autres documentaires. La tendance est générale: tous commencent à comprendre les enjeux d'un marché en pleine expansion. On2. com propose par exemple aux internautes de télécharger des films et autres programmes depuis son site. On2. com se proclame même «chaîne du Web» et délivre des films plein écran «d'une qualité similaire à la télévision».Grâce à une technologie appelée TrueMotionVP3, le télénaute a accès, quand il le souhaite, en temps réel et gratuitement à l'ensemble des programmes diffusés par la chaîne. Finies les images grandes comme un timbre poste, figées par les congestions du réseau. Des initiatives qui ont de quoi donner des sueurs froides à la toute puissante MPAA (Motion picture association of America) - qui gère les intérêts des majors - et aux responsables des chaînes de télévision du monde entier. Le Web voudrait-il récupérer les téléspectateurs? Oui, à en croire On2. com, qui ne cache pas ses intentions: forte de l'expérience du MP3, la start-up américaine souhaite abolir la distribution classique pour projeter des images plus rapidement, via le réseau, à des internautes qui payeront moins cher.

Figaro : http://www.lefigaro.fr/

Internet tire le disque vers le haut de gamme
Samedi, 18/11/2000 - 00:00

Les sites musicaux comptent d'ores et déjà parmi les plus visités du réseau mondial et tout porte à croire que cette tendance se confirmera dans les mois à venir. Leur fréquentation est proche de celle des sites pornographiques, considérés comme des « références » en la matière ! Dans un avenir proche, on peut donc s'attendre à une multiplication des « portails » musicaux avec, à la clef, le développement de la vente par correspondance (VPC) en ligne et du téléchargement. A ce jour, les ventes de disques sur le Net ne représentent qu'une modeste part du chiffre d'affaires global réalisé par le secteur musical. En revanche, le téléchargement - le transfert de morceaux de musique sous forme de fichiers MP3 - connaît un succès sans précédent. Créé au début des années 90 par l'institut allemand Fraunhofer, le MP3 est un format de compression numérique. Ce traitement est appliqué au signal audio du CD afin d'en réduire le « poids » en octets (l'unité informatique). Cette opération, qui revient à une cure d'amaigrissement drastique, est rendue indispensable pour pouvoir télécharger rapidement une chanson. Variable, le taux de compression peut aller d'un rapport de 1 pour 4 à... 1 pour 25. En clair, une fois converti en MP3, le signal audio contient 4 à 25 fois moins de données numériques que sur le Compact !Pour parvenir à un tel résultat, le système agit par suppression des signaux de faible amplitude ou masqués par d'autres signaux d'intensité supérieure. Dans ces conditions, le rapatriement des morceaux de musique du monde entier depuis un PC devient un jeu d'enfant. L'utilisateur peut choisir ensuite de les stocker dans le disque dur de son ordinateur ou dans la mémoire d'un baladeur MP3, voire de graver des CD. Cette liberté, autorisée par la dématérialisation des supports musicaux, ouvre la voie à un nouveau mode de consommation de la musique, qui trouvera à n'en pas douter un écho favorable auprès d'un large public. Mais en termes de qualité sonore, le MP3 est tout sauf un progrès. Beaucoup de bêtises ont été écrites sur la prétendue « qualité CD » obtenue avec ce format de compression, même dans la presse spécialisée informatique. Un comble. Il suffit de comparer un CD et sa copie en MP3 pour se rendre compte de l'appauvrissement du son. Trois facteurs influent sur la qualité d'écoute d'un fichier MP3 : la vitesse du débit des données (en kilobits par seconde ou kbit/s), la fréquence d'échantillonnage (en kHz) et le nombre de canaux (un seul : mono ; deux : stéréo). En poussant les deux premiers facteurs très loin dans leurs possibilités (320 kbit/s et 48 kHz) pour une écoute en stéréo, la dégradation est audible mais acceptable. Le problème est qu'aucun site ne permet à ce jour le téléchargement avec un tel débit. Pour l'utilisateur moyen, l'opération prendrait trop de temps (probablement plusieurs heures pour quelques minutes de musique). Dans le meilleur des cas, on doit se contenter d'un débit de 128 kbits/s, parfois moins. A ce niveau, inutile de préciser que l'altération est flagrante. Quant au disque et à la vente traditionnelle en magasin, c'est peu dire qu'ils sont menacés par l'avènement du MP3. Le confort apporté par le téléchargement (plus besoin de se déplacer), l'offre toujours plus vaste et souple (on peut télécharger les morceaux de son choix et créer ses propres compilations) ainsi que les diverses informations sur les artistes qui enrichissent les sites sont autant d'arguments qui plaident en faveur d'Internet. Avec l'arrivée du Super Audio CD et du DVD Audio (« Les Echos Week-end » du 12 mai), le disque peut se prévaloir d'une qualité sonore supérieure. On s'oriente donc probablement vers un marché à deux vitesses. Quand tous les problèmes liés à la protection des droits d'auteur seront résolus, le Net générera l'essentiel du chiffre d'affaires dégagé par le secteur musical. Le disque occupera quant à lui une niche ; il deviendra un produit de luxe réservé à une poignée de puristes équipés en matériel hi-fi haut de gamme.

Les Echos : http://www.lesechos.fr/club/hightech/hig_0707_1.htm

La technologie du disque optique s'emballe
Samedi, 18/11/2000 - 00:00

Dans la foulée du super-disque optique réinscriptible de Sony à 40 gigaoctets, Constellation va présenter à l'exposition Comdex une autre technologie, le disque multicouches à fluorescence ou FMD, qui promet le stockage de pas moins de 140 gigaoctets de données sur un seul disque de la taille qu'un disque compact. Il s'agit évidemment seulement d'une mémoire de masse et non d'un disque réinscriptible mais, à 30 fois la capacité d'un DVD, le FMD est séduisant. En effet, il rend possible le stockage d'un film entier en format haute définition, ce qui pourrait en faire un concurrent du DVD de deuxième, voire de troisième génération. Plus intéressant encore, le FMD parie sur une approche technique radicalement différente de celle du DVD qui est plus une évolution du CD qu'un procédé fondamentalement innovant. Le disque de Constellation utilise un support totalement transparent, sans couche réfléchissante métallisée. La structure est multicouches et chaque couche est encodée par la présence (ou l'absence) locale d'un matériau fluorescent. Grâce à cette transparence, la technologie permet d'utiliser une dizaine de couches et probablement plus ultérieurement, sans dégradation du faisceau laser. Comme tout procédé entièrement différent du leader technologique en place, le FMD aura évidemment du mal à se faire accepter d'ici à son lancement commercial à la fin de 2001. Mais en offrant au moins un ordre de grandeur de différence dans sa capacité de stockage, il a quand même ses chances. D'autant que la technologie est aussi plus adaptable en taille. On pourrait par exemple imaginer des mini-FMD pour équipements électroniques portables, là où la réalisation de mini-DVD serait plus complexe.

Usine nouvelle : http://www.usinenouvelle.com/

Constellation : http://www.c-3d.net/

Les CD et les DVD gravés sur le même appareil
Samedi, 18/11/2000 - 00:00

Hitachi a introduit, il y a peu de temps, un lecteur de DVD-Video de salon capable de graver des CD. Cette platine est présentée comme la combinaison des deux mondes: celui du son et celui de la vidéo.Pioneer franchit l'étape ultime en combinant dans un même produit la gravure de CD et DVD. De la taille d'un disque dur, cet appareil "deux en un" se présente comme un périphérique destiné à être intégré dans des micro-ordinateurs. Malgré une baisse significative des prix, les graveurs de DVD restent aujourd'hui très chers (plus de 30 000 francs pour le graveur et environ 350 francs le DVD enregistrable une fois). Ils sont réservés à une population très restreinte de professionnels impliqués dans la réalisation de matrices destinées à la production de DVD-Video et DVD-Rom. Avec son nouveau graveur hybride, Pioneer ouvre le marché vers les entreprises qui veulent profiter de la capacité de stockage du DVD pour personnaliser des disques (catalogue produits, logiciels, films...) et les diffuser. Mais pour éviter une rupture avec l'existant, le japonais offre la possibilité d'utiliser le CD.

Industries&Techniques : http://www.industries-techniques.com/site/

^ Haut
Matière
Matière et Energie
Les piles à combustible pour téléphone mobile sont sur la bonne voie
Samedi, 18/11/2000 - 00:00

Le gros problème des téléphones portables, reste l'autonomie. les derniers modèles, notamment Philips qui annonce 3 semaines en veille, sont performants mais dès qu'on utilise son téléphone les meilleurs temps s'affichent en heure. Tous ces efforts pour augmenter l'autonomie de nos téléphones risquent bien d'être réduit à néant par les nouvelles générations de réseaux. Peu de personnes en parlent, que ce soit coté opérateurs ou médias, mais les hauts débits qui nous sont promis vont consommer beaucoup plus d'énergie que les réseaux actuels. Le problème de l'alimentation devient donc crucial. La solution pourrait venir de la pile à combustible. Cette technologie dont on entend parler depuis plus de 20 ans et qui devait équiper les voitures de l'an 2000 se fait attendre. Je n'entrerai pas dans des explications techniques qui me dépasse mais vous trouverez toutes ces informations sur le site de Samsung indiqués ci dessous. Une société californienne, Polyfuel, promet que ses premières batteries à pile à combustible sortiront d'ici un an. Celles-ci seront 5 fois plus performantes que les meilleures batteries lithium-ion. Les analystes sont très circonspects sur la réalité de cette annonce, mais tout le monde attend avec impatience de voir enfin cette technologie faire ses preuves.

Lettre de l'internet :

http://www.lalettre.com/techinfos/today.cfm?id=818&home=1

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'impact économique du réchauffement planétaire
Samedi, 18/11/2000 - 00:00

Les scientifiques en sont à présent sûrs : la température à la surface de la terre augmente à un rythme anormalement rapide. "Nous devrions être dans un cycle long de refroidissement, depuis environ 10.000 ans, qui devrait culminer dans 60.000 ans avec une période glaciaire", souligne Jean Jouzel. Or on constate au contraire depuis 150 ans un réchauffement constant et très rapide du climat. L'étude des glaces polaires permet désormais d'affirmer que ce réchauffement, particulièrement sensible depuis la fin de la Deuxième Guerre Mondiale est lié à la concentration de gaz carbonique (CO2) d'origine humaine libéré par les énergies fossiles : gaz, pétrole et charbon. "On a deux certitudes, explique Jean Jouzel : "l'homme modifie la composition de l'atmosphère, et le climat se réchauffe". Ainsi, 1998 a été sans conteste l'année la plus chaude, et la dernière décennie la plus chaude du millénaire. A terme, le réchauffement, estimé entre 1,5 et 6 degrés en moyenne par la communauté internationale des chercheurs, se traduira par une condensation énorme de vapeur d'eau libérée par les océans, ce qui peut favoriser les phénomènes violents : précipitations, sécheresses, tempêtes. De nombreuses inconnues demeurent cependant : les chercheurs s'interrogent sur le rôle des nuages, d'autant que les gaz libérés dans l'atmosphère comme les aérosols produisent à leur tour des gouttes nuageuses plus petites et plus réfléchissantes, susceptibles de refroidir l'atmosphère. En dépit des incertitudes, "le consensus des scientifiques en faveur d'un lien entre activité humaine et réchauffement climatique s'est nettement raffermi depuis dix ans", souligne Jean Jouzel. "Il est indispensable de commencer dès maintenant à stabiliser les émissions de gaz à effets de serre, sinon on risque d'aboutir à un climat très différent du climat actuel", affirme-t-il. Le réchauffement de la planète et sa cohorte de désordres climatiques ont un impact économique dont le coût commence à préoccuper les responsables. Le réchauffement planétaire risque de coûter entre 1 et 2% du PIB mondial d'ici 2050, au rythme actuel des émissions de gaz à effet de serre, selon l'économiste suisse Sam Frankhauser. "Si la concentration de gaz dans l'atmosphère augmente, les dommages augmenteront également", souligne M. Frankhauser, aujourd'hui expert auprès de la Banque europénne de reconstruction et de développement (BERD). Il n'inclut pas dans ses estimations le coût des tempêtes, cyclones et inondations qui pourraient se multiplier avec le réchauffement dû aux gaz à effet de serre générés par les activités humaines. Les scientifiques ne sont pas sûrs que les tempêtes actuelles soient dues au réchauffement climatique, mais ils sont à peu près certains que le réchauffement (1 à 3 degrés d'ici 2050) se traduira par une multiplication des désordres climatiques comme les ouragans, les tempêtes et les inondations. Ces dérèglements affecteront les activités humaines . Les recherches conduites par la société Munich Re font déjà état d'une plus grande fréquence des catastrophes liées au climat depuis trente ans, sans pour autant établir un lien formel avec l'émission de gaz à effet de serre. Sur les dix catastrophes les plus importantes survenues entre 1983 et 1999, seulement deux ont été des tremblements de terre, les autres résultant d'ouragans, de typhons et d'inondations. Le plus coûteux, l'ouragan Andrew, a occasionné le paiement de 20,8 milliards de dollars d'indemnisations. Le Groupe intergouvernemental sur l'évolution du climat (GIEC) qui réunit 3. 000 chercheurs sous l'égide d'organisations spécialisées de l'ONU, estime que la température moyenne sur Terre augmentera au siècle prochain de 1,5C à 6C (de 1990 à 2100), "une augmentation sans précédent depuis 10.000 ans". Les régions septentrionales d'Amérique du Nord, de l'Asie septentrionale et centrale seront particulièrement touchées, avec une hausse de température supérieure de 40% à la hausse planétaire. Si l'impact peut être positif pour les agriculteurs de l'hémisphère nord, nombre de pays déjà défavorisés vont souffrir de sécheresse. "Les Etats-Unis et l'Europe s'en sortiront avec des changements mineurs, estime Sam Frankhauser, mais les pays en voie de développement (Bangladesh et petits Etats insulaires menacés d'inondation, pays africains en voie de désertification) vont beaucoup souffrir". Pier Vellinga et Willem Van Verseveld, de l'Institut pour les études environnementales de l'Université libre d'Amsterdam estiment que l'homme risque de réagir trop lentement au changement rapide du climat. Routes, infrastructures, approvisionnement en eau seront inadaptés à la nouvelle donne, se traduisant par des pertes économiques "significatives", selon leur étude commanditée par le World Wide Fund (WWF) et publiée en septembre. Les efforts internationaux pour réduire l'émission des gaz à effet de serre, dont les modalités seront fixées à La Haye (13-24 novembre) vont également coûter cher. Pour l'Union européenne, la note pourrait s'élever de 6 à 9 milliards d'euros (5,04 à 7,56 milliards de dollars), selon les estimations de la Commission.

AFP : http://fr.news.yahoo.com/001109/1/qagr.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une greffe de cellules souches reconstitue le muscle cardiaque
Samedi, 18/11/2000 - 00:00

Des chercheurs canadiens ont réussi à transformer des cellules souches ou indifférenciées, prélevées dans la moelle osseuse de rats, en cellules cardiaques, renforçant les fonctions du coeur. Les chercheurs de l'université Mac Gill à Montréal ont précisédevant le congrès de l'Association américaine de cardiologie (AHA) à la Nouvelle-orléans (Louisiane) qu'ils avaient réussi à rétablir un muscle cardiaque satisfaisant chez 20 des 22 rats participant à l'expérimentation. Ce type de greffe, soulignent les scientifiques, présente deux avantages: les cellules proviennent d'adultes et non d'embryons, et elles sont prélevées chez l'animal malade, ce qui évite les rejets. A la naissance, l'homme possède toutes les cellules de son muscle cardiaque, qui ne se développe ensuite que par une augmentation de la taille de chaque cellule. Contrairement à celles de nombreux organes, ces cellules ne sont pas remplacées lorsqu'elles meurent à la suite d'une attaque, d'une infection virale ou d'un défaut congénital. La greffe de cellules souches a permis, chez les rats, de redonner de la vigueur à un muscle cardiaque abîmé. "Nous avons constaté que les cellules (de la moelle) ont survécu et se sont comportées comme des cellules cardiaques", a souligné le Pr Chiu. "Pour les scientifiques, la moelle osseuse n'avait traditionnellement qu'une seule fonction, remplacer les cellules rouges et blanches du sang", a rappelé le médecin. Ce n'est que ces dernières années que l'on s'est rendu compte que ce sont également des cellules adultes indifférenciées.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1017000/1017348.stm

Un régime de type "méditerranéen" après une attaque prolonge la vie
Samedi, 18/11/2000 - 00:00

Un régime alimentaire de type "méditerranéen", riche en huile d'olive, fruits, légumes et poisson, est le meilleur pour la santé à la suite d'une attaque cardiaque, ont indiqué dimanche des chercheurs à la Nouvelle-Orléans (Louisiane). "Le fait de manger plus d'aliments associés à la culture méditerranéenne et moins de produits contenant des graisses saturées, comme le beurre, a eu pour conséquence une nette réduction du risque de décès", a déclaré le Pr Roberto Marchioli devant le congrès de l'Association américaine de cardiologie. Ainsi, a-t-il dit, "les personnes suivies qui avaient dans leur régime le plus d'huile végétale et de beurre ont eu près de trois fois plus de risque de décès que celles qui avaient mangé plus de fruits et de légumes, et avaient consommé de l'huile d'olive". Les chercheurs, du Consorzio Mario Negri Sud, en Italie, ont suivi pendant 42 mois 11.324 Italiens victimes d'une attaque en examinant leurs régimes. Comparés à ceux qui avaient un régime "idéal", ceux qui consommaient le plus de beurre ont eu 2,6 fois plus de chances de mourir au cours de ces 42 mois. Bien qu'assez riche en graisses, le régime dit "méditerranéen" est estimé sain parce qu'il contient beaucoup d'éléments protecteurs tels que des antioxidants (fruits), des graisses non saturées (huile d'olive) et certains acides graisseux trouvés dans le poisson.

AFP :

http://www-old.afp.com/ext/francais/lemonde/sci/001112220748.t5mx03za.html

Cancer : Vers un traitement personnalisé
Samedi, 18/11/2000 - 00:00

Si, à l'avenir, vous êtes atteint d'un cancer, il est fort possible que certaines de vos cellules atteintes, et même - plus petit - leur matériel génétique, soient "déposés à la banque". Le but n'est pas de les faire fructifier, mais de les analyser de façon tellement détaillée qu'il sera possible de prescrire un traitement "à la carte", tenant compte du génome et de ses éventuelles mutations, et aussi des protéines contenues dans la cellule cancéreuse prélevée sur tel ou tel malade. Avec la pharmacogénomique, les spécialistes vont affiner leur approche de la maladie en dressant et en étudiant ce qu'ils appellent la "carte d'identité moléculaire" de chaque tumeur. Le Professeur Michel Marty, directeur de la recherche thérapeutique à l'Institut Gustave-Roussy, précise l'intérêt que peuvent avoir les banques de tissus et d'acides nucléiques en cancérologie : "Jusqu'à présent, nous cernons le pronostic d'une tumeur en tenant compte de son volume, du nombre de ganglions envahis, de son type histologique, de l'absence ou de la présence de métastases. Nos stratégies thérapeutiques sont plus ou moins agressives en fonction de ces données. Mais il arrive que le pronostic se révèle erroné, ce qui démontre que des paramètres restent inconnus. Là interviennent les banques de cellules." Relèvent-elles de la recherche ou sont-elles déjà utilisées en pratique ? "Les deux. Pour le moment, c'est essentiellement de la recherche, mais à la vitesse où vont les choses, on peut tout à fait imaginer que ce soit applicable dans très peu de temps." Cinq ans ? "Moins que ça", espère-t-il. Les explorations effectuées sur le matériel mis à la banque mettent à profit tout ce que la génétique et les techniques d'analyse moléculaire à grande échelle ont compté récemment comme progrès. Il s'agit en somme de pousser l'étude des cancers et des cellules cancéreuses plus loin que le permettent l'examen clinique du malade et le microscope. Le progrès représenté par ces investigations s'inscrit en réalité dans un continuum. L'analyse des récepteurs hormonaux dans les cancers du sein, par exemple, est une exploration entrée dans la pratique depuis vingt ans ; leur présence ou leur absence est un paramètre maintenant toujours pris en compte pour le choix du traitement préventif des récidives. La culture des cellules cancéreuses est encore plus ancienne, puisqu'elle date de près de cinquante ans. La nouveauté, avec ces banques, tient à au moins deux particularités. En premier lieu, au fait que de grands organismes de recherche collectent de larges échantillonnages de toutes les tumeurs, quels que soient leur localisation et le type de tissu auquel elles appartiennent (leur type histologique). Retombées : les chercheurs et les cliniciens disposent ainsi des "empreintes moléculaires" des cellules sensibles et des cellules résistantes à tel et tel médicament. En second lieu, les banques et leurs succursales sont, et seront, de plus en plus nombreuses à être annexées aux centres de traitement. Elles vont se multiplier, de sorte qu'il sera toujours et partout possible d'étudier les échantillons déposés, et cela tout au long de l'évolution de la maladie.

Figaro : http://www.lefigaro.fr/

Première implantation d'un "prototype de pancréas artificiel"
Samedi, 18/11/2000 - 00:00

Un "prototype de pancréas artificiel" formé d'une pompe délivrant de l'insuline et d'un détecteur de glucose sanguin en continu vient d'être implanté pour la première fois chez un diabétique au Centre hospitalier universitaire de Montpellier (Hérault), a annoncé lundi le CHU. "C'est la première fois au monde qu'un tel prototype est implanté chez l'homme", a affirmé à l'AFP le Pr Eric Renard qui a effectué l'opération le 24 octobre avec le Pr Jacques Bringer du service des maladies endocriniennes du CHU. Le patient est atteint d'une forme de diabète dit de type 1 ou insulino-dépendant, qui requiert des injections d'insuline pour réguler le niveau de sucre dans le sang. La mise au point de ce système implantable a été réalisée avec le Medical Research group (MRG), filiale de recherche de la société californienne Minimed (côtée au Nasdasq), toutes deux dirigées par Alfred W. Mann qui a financé ce prototype. "L'essai clinique va permettre d'évaluer la durée de vie du détecteur du niveau de sucre dans le sang, le censor, prévue pour deux ans", explique le Pr Renard. "La pompe implantable de la taille d'un palet de hockey (grosso modo 2 cm d'épaisseur sur 12 de largeur) est dotée d'une pile, capable de durer dix ans et le réservoir contenant de l'insuline concentrée est rempli tous les trois mois", ajoute-t-il. "L'essai prévoit l'implantation de cinquante patients, dont dix à Montpellier et les quarante autres aux Etats-Unis", selon lui. Le MRG a d'ailleurs annoncé lundi qu'il avait obtenu l'approbation de l'administration américaine (FDA) pour commencer les essais aux Etats-Unis. "Il s'agit d'évaluer la fiabilité du système et en particulier celle du détecteur de glucose", indique le spécialiste. Actuellement, pour les besoins de l'essai, les données sont transmises par télémétrie à travers la peau du patient à l'ordinateur du médecin. Mais, le système, dit en boucle fermée, déjà été expérimenté avec succès sur des animaux diabétiques, permettra de rendre son autonomie au patient. "Cet essai clinique constitue une étape cruciale dans la progression vers l'aboutissement du projet de pancréas artificiel implantable", a commenté Alfred W. Mann, président directeur général de MRG, dans un communiqué. Le détecteur de glucose est implanté dans une veine et connecté à la pompe à insuline placée dans l'abdomen. Ce système pourrait transformer la vie des diabétiques les plus handicapés, ceux dont le diabète instable est particulièrement difficile à traiter, selon les médecins. Il est à distinguer des recherches sur le pancréas bio-artificiel implantable destiné à produire directement l'hormone insuline dans l'organisme du patient.

AFP :

http://www-old.afp.com/ext/francais/lemonde/sci/001113193944.38yhdesr.html

Essais sur un foie artificiel
Samedi, 18/11/2000 - 00:00

Des chercheurs russes ont mis au point un foie artificiel capable de maintenir en vie un patient atteint d'une insuffisance hépatique sévère pendant près de deux jours. L'exploit n'allait pas de soi : alors que le rein artificiel existe depuis longtemps, le foie joue des fonctions variées, auxquelles il est très difficile de substituer une machine. Des maladies, comme certaines hépatites virales, entraînent une détérioration fulgurante et fatale de l'organe. L'appareil peut maintenir le patient en vie assez longtemps pour que son foie malade se reconstitue en partie. La guérison peut ensuite reprendre son cours normale. Le foie joue un grand nombre de fonctions vitales, notamment au niveau de la désintoxication de l'organisme et de la synthèse des substances permettant au sang de coaguler. Chez les grands malades, c'est souvent l'accumulation de substances toxiques qui tue, en provoquant une affection au cerveau. L'organe artificiel développé par les chercheurs du l'Institut de biophysique théorique et expérimentale, en Russie, joue ce rôle en mettant dans un réacteur biologique des cellules du foie obtenues du patient lui-même. L'idée de prendre ces cellules, appelées hépatocytes, de les faire se multiplier dans un milieu de culture et d'y faire passer le sang du patient n'est pas nouvelle : tous les projets de recherche actuels reposent sur une approche semblable. Le défi consiste à faire en sorte que les hépatocytes continuent longtemps à faire leur travail dans ce milieu artificiel. Les réacteurs biologiques actuels ne maintiennent le patient en vie que pendant de 4 à 8 heures, ce qui est généralement insuffisant pour espérer le voir se rétablir. Les chercheurs russes ont tourné la difficulté en utilisant non pas des cellules isolées, mais de petits morceaux de foie. En baignant au sein d'un milieu plus naturel, les hépatocytes restent actifs plus longtemps. Le foie artificiel expérimental parvient à supprimer l'ammonium et à synthétiser l'urée pendant 36 heures, ce qui protège le cerveau du patient. Il produit du plasma sanguin pendant au moins 24 heures et l'ajout d'adrénaline réduit le niveau de glycogène dans les cellules, tout comme dans un foie normal. La moitié des hépatocytes du bioréacteur sont toujours vivants après 30 heures. L'appareil, que l'on décrit comme très simple, n'a jusqu'ici été utilisé que sur des animaux. Mais il a prouvé qu'il pouvait augmenter leurs chances de survie lorsqu'ils étaient atteints d'une déficience hépatique sévère. Les chercheurs croient maintenant qu'ils seraient prêts à passer à des essais cliniques sur des patients humains.

Cybersciences :

http://www.cybersciences.com/Cyber/3.0/N2111.asp

Ces bactéries qui venaient du froid
Samedi, 18/11/2000 - 00:00

On savait déjà que la neige pouvait renfermer des bactéries vivantes, mais voici qu'on apprend que certaines peuvent aussi y vivre et y prospérer. C'est là l'étonnante découverte effectuées par Ed Carpenter, microbiologiste à l'Université de New York à Stony Brook, aux États-Unis, et décrite dans la revue New Scientist. Quand on fond de la neige du pôle Sud, en effet, on trouve de 200 à 5 000 bactéries par millilitre d'eau. Et ces créatures étonnantes se multiplient même sous le point de congélation. La présence de bactéries vivantes au Pôle Sud n'est pas une découverte en soi. Mais on pensait jusqu'ici qu'elles avaient été apportées là par le vent et qu'elles ne survivaient qu'en perpétuel état d'hibernation. Les analyses biochimiques et le microscope électronique ont toutefois réussi à prouver que les organismes recueillis par le chercheur grandissent et se divisent à des températures aussi basses que -17 degrés. Et sans doute beaucoup plus bas, bien que les tests n'aient pas été poussés plus loin. Cette bactérie qui vit dans la glace appartient à une espèce inconnue jusqu'ici, mais son ADN établit qu'elle est apparentée au Deinococcus. Ce cousin est connu pour son mécanisme très efficace de réparation de l'ADN, qui lui permet notamment de survivre à des doses massives rayonnement ultraviolet. Comme de telles doses n'existent nulle part sur Terre, on se demandait à quoi au juste servait ce mécanisme de défense. Or, la nouvelle bactérie vit dans un environnement très sec (toute l'eau est gelée), qui endommage son ADN autant que les ultraviolets. Cette défense se justifie donc. Les conditions qui sévissent au Pôle Sud ressemblent à celles présentes au Pôle Nord martien, fait de glace d'eau. La température moyenne y est d'environ -70 degrés l'été, mais des sources chaudes ou de l'activité volcanique l'augmentent sans doute localement. Des bactéries comme celles récemment découvertes pourraient sans doute y vivre. Et l'hiver, quand la température chute à -120 degrés, elles n'auraient qu'à se mettre en hibernation en attendant le retour de la belle saison - si l'on peut dire.

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N2109.asp

Moins de démence avec des médicaments anti-cholestérols
Samedi, 18/11/2000 - 00:00

Le risque de démence chez les personnes âgées pourrait être considérablement diminué grâce à des médicaments qui réduisent le niveau de cholestérol dans le sang, selon une nouvelle étude américaine publiée dans l'hebdomadaire médical britannique The Lancet, daté du 11 novembre. L'étude du Dr Hershel Jick de Boston (Massachusetts, Etats-Unis) visait à apprécier les effets de traitements réducteurs des taux de lipides et du cholestérol sanguins, comme les statines. Elle concerne 284 patients déments britanniques, âgés de 50 à 89 ans, et un groupe contrôle de 1.080 personnes, pris à titre de comparaison. Dans ce dernier, 13 % présentaient un excès de graisses sanguines (hyperlipidémie), 11 % se sont vus prescrire des statines et 7 % d'autres médicaments réducteurs de l'excès de lipides sanguins. Dans ce même groupe, les 69 %, n'ayant pas d'anomalies des graisses sanguines n'ont pas reçu de traitement (statines ou autres). Selon l'étude, le risque de développer une démence serait réduit de 70 % parmi les patients sous statines. Elles repousseraient le moment d'apparition de la démence et s'opposeraient à la survenue de dégradations intellectuelles liées à l'âge. La démence affecte environ 10% de la population de plus de 65 ans . Les médecins n'ont pas observé de réduction du risque de démence parmi les patients traités par les autres médicaments, réducteurs du niveau des lipides sanguines. "Si elles sont établies, les implications de cette étude sont considérables", a expliqué le Dr H. Jick. "Ces résultats suggèrent que la prise de statines peut significativement diminuer le risque de démence chez les personnes âgées, soit en retardant leur apparition, soit en s'opposant à des changements spécifiques ou généraux liés à l'âge qui conduisent à un trouble cognitif". Etant donné l'impact potentiel de l'étude, il a donc estimé "urgent" la réalisation d'études complémentaires. Parmi les principales causes de démences, on trouve les accidents vasculaires cérébraux (AVC) mais surtout la maladie d'Alzheimer. L'hypertension artérielle, les troubles du rythmes cardiaques, l'encrassement des artères (athérosclérose), le tabagisme représentent les facteurs de risque d'AVC. Une large étude, publiée en octobre dans une revue américaine Archives of Neurology, a mis en évidence une association entre la prises de statines et une réduction de 60 à 73 % de la fréquence de la démence d'Alzheimer. Deux des auteurs, les Docteurs Benjamin Wolozin et George Siegel, ont admis la nécessité d'études supplémentaires pour confirmer cette hypothèse, mais ont déjà déposé une demande de brevet pour l'usage de deux de ces statines (lovastatine et pravastatine) dans le traitement de la maladie d'Alzheimer.

Brève rédigée par @RT Flash

Lancet :

http://www.thelancet.com/journal/vol356/iss9242/full/llan.356.9242.original_rese...

Pour lutter contre les infections, faites travailler votre cerveau
Samedi, 18/11/2000 - 00:00

Pour renforcer ses défenses immunitaires face aux infections, on a plus souvent le réflexe de prendre de la vitamine A que de jouer au bridge. Et pourtant, ce jeu de cartes serait lui aussi un bon moyen d'augmenter ses résistances selon Marian C.Diamond. Cette scientifique de l'Université de Berkeley (Californie) a présenté récemment devant la Société de Neurosciences les résultats préliminaires de ses travaux sur les relations entre le cerveau et le système immunitaire. Ses recherches suggèrent que l'activité cérébrale puisse stimuler le système immunitaire. Depuis une quinzaine d'années plusieurs recherches tentent d'identifier chez les rongeurs une zone du cortex qui pourrait jouer un rôle dans ce domaine. Marian Diamond a choisi un groupe de 12 femmes, âgées de 70 à 80 ans, membres d'un club de bridge. Ce jeu mobilise les fonctions du cortex dorsolatéral, une partie du cerveau notamment impliquée dans la planification de l'action. Les 12 volontaires ont été réparties en trois tables de jeu et devaient disputer une partie d'une heure et demie. Des tests sanguins ont été faits avant et après la partie, et ils ont montré que toutes les femmes avaient un taux de lymphocytes T plus élevé après le jeu. Ces lymphocytes sont les cellules les plus actives du système immunitaire. Il ne s'agit encore que de résultats préliminaires mais ils sont prometteurs, selon la scientifique de Berkeley. Cela ouvre la voie à un contrôle de chacun sur son système immunitaire, prévoit Marian Diamond.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20001109.OBS9034.html?1001

Les puces à ADN, laboratoire du futur
Samedi, 18/11/2000 - 00:00

Y-a-t-il du dauphin dans ces boîtes de thon ? Ce maïs est-il transgénique ? L'eau de votre robinet contient-elle des bactéries pathogènes ? Voilà ce que peuvent vous révéler les puces à ADN sur un petit centimètre carré de technologie hybride, mi-biologique, mi-électronique. Mode d'emploi avec un pâté de lièvre suspect. Commencer par extraire l'ADN contenu dans le pâté. Comme cet ADN est en très faible quantité, il est nécessaire de le multiplier par la technique de PCR (Polymerase Chain Reaction), sorte de photocopieuse à molécule. Ensuite il faut « dénaturer » l'ADN, c'est-à-dire séparer les deux brins complémentaires dont il est constitué. Désormais, cette molécule d'ADN simple brin ne peut se réassembler, on dit « s'hybrider », qu'avec un autre brin complémentaire d'ADN simple brin de lièvre. Ajouter des marqueurs fluorescents : ce sont des molécules qui, éclairées avec une lumière spéciale, « s'allument » dès que se produit une réaction d'hybridation. A la surface de la puce, on aura préalablement accroché sur des plots microscopiques les brins d'ADN de lièvre, mais aussi d'ADN d'autres espèces comme le lapin, le boeuf ou le soja. Déposer sur la puce une gouttelette de l'échantillon. Laisser réagir. Repérer les zones fluorescentes, qui indiquent là où des brins se sont hybridés. Si ces zones correspondent à de l'ADN lièvre, c'est bon signe. Mais si celles du lapin, du boeuf et du soja font de même, vous avez été escroqué. Il n'est pas encore possible d'effectuer un tel contrôle dans sa cuisine. Mais les choses devraient changer.

Le Point : http://www.lepoint.fr/data/PNT1469/6904903P.html

La première implantation de rétine artificielle
Samedi, 18/11/2000 - 00:00

Un ophtalmologiste américain, Alan Chow vient de réaliser la première implantation mondiale de rétine artificielle . Les 3 patients opérés ont reçu une rétine artificielle construite à base de silicium, le matériau phare de l'industrie informatique. Cette prothèse qui ne mesure pas plus d'un cheveu d'épaisseur va remplacer les cellules qui captent normalement la lumière. Les cônes, comme on les appelle à cause de leur forme, sont de deux types, ceux qui captent la lumière et ceux qui captent les couleurs. Dans le cas présent les patients souffraient d'une maladie, retinitis pigmentosa, qui détruit les cônes qui captent la lumière. La prothèse mise en place va donc remplacer ces cônes en fournissant un signal électrique au nerf optique à la place des cellules. Mais il ne faut pas en attendre de miracle, pour l'instant les patients traités ne vont par recouvrer la vue, ils seront par contre capables de distinguer le jour de la nuit et dans le meilleur des cas de localiser une forme sur un fond clair. Les résultats de cette expérimentation sont gardés secret pour le moment même si on sait que les 3 patients opérés en juin, ont pu rentrer chez eux et ne souffre d'aucune réaction de rejet ou de complication. Les résultats sur la vision des patients seront rendus publics dans une revue scientifique d'ici un an. Ce n'est que le début des recherches dans ce domaine, d'autres équipes travaillent sur des projets similaires. Certains ont optés pour des prothèses externes plus volumineuse et nécessitant une batterie mais réclamant moins de soins médicaux. Alan Chow est très optimiste quant à son projet et il estime que si les résultats s'avèrent concluants on trouvera ce type de produit sur le marché d'ici 4 à 5 ans.

Brève rédigée par @RT Flash

Technology Review :

http://www.techreview.com/articles/nov00/benchmark1.htm

Un nouvel espoir pour certains cancers incurables
Samedi, 18/11/2000 - 00:00

Les dernières tentatives des chercheurs pour traiter certaines tumeurs considérées comme incurables représentent un nouvel espoir pour les malades. C'est ainsi que Donald Hardy, un habitant de Floride atteint de mesotheliome,un cancer des poumons causés dans la plupart des cas) en respirant la poussière d'amiante ou des fibres, s'est porté volontaire pour être soigné par thérapie génétique à l'Hôpital de l'Université de Pennsylvanie. Cette nouvelle thérapie utilise un virus génétiquement modifié qui va dans les poumons infecter les cellules cancéreuses. Ce nouveau traitement a donné d'excellents résultats et a permis une régression remarquable du cancer de Donald Hardyest qui a pu regagner son domicile de Floride bien que les docteurs hésitent à le déclarer guéri. Un autre malade, Jeff Allen, atteint d'un mélanome malin ayant entraîné des métastases osseuses a vu ses métastases disparaître et son cancer régresser grâce à un nouveau vaccin qui stimule le système immunitaire.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1016000/1016697.stm




Un même gène serait lié à la tension artérielle et à l'obésité
Samedi, 18/11/2000 - 00:00

Une certaine variante sur un gène lié à la tension artérielle aurait également un effet sur la tendance à l'obésité, indique une étude présentée lundi devant un congrès de l'Association américaine de cardiologie (AHA). Cette découverte, qui pourrait permettre de nouvelles approches pour le traitement de l'obésité et et de l'hypertension, a montré que le gène GNB3 825T peut provoquer ces deux affections. "Ceci souligne que l'obésité n'est pas seulement une maladie génétique mais que certains gènes -en liaison avec des facteurs environnementaux et comportementaux- peuvent renforcer le risque d'en souffrir", a souligné le principal auteur de l'étude, le Pr Achim Gutersohn, de l'université d'Essen, en Allemagne. "Toutefois, a-t-il ajouté, ces facteurs de risque hérités peuvent être contrés par des habitudes de vie saines". Ainsi, chez les personnes examinées, il a suffi de deux heures hebdomadaires d'exercice physique pour arrêter la tendance à grossir. Les chercheurs ont suivi 1.291 volontaires, en bonne santé, d'un âge moyen de 29,8 ans et possédant ce gène altéré connu pour son effet sur la tension artérielle. "Une des plus importantes découvertes de notre étude est son effet important sur les blancs qui mènent une vie sédentaire", notamment chez les personnes qui en possèdent deux copies, a déclaré le Pr Gutersohn. Ces dernières ont en effet "un risque important d'obésité si elles ne font pas d'exercice", a-t-il dit.

AFP :

http://www-old.afp.com/ext/francais/lemonde/sci/001113232350.4pyeoyde.html

Le premier bébé français de la génétique est né
Samedi, 18/11/2000 - 00:00

Selon nos informations, le premier bébé français choisi par les techniques de la génétique est né dans la nuit de dimanche à lundi à l'hôpital Antoine-Béclère de Clamart (92). Né un mois et demi avant terme, le bébé est prématuré et les médecins attendent quelques jours avant de se prononcer définitivement sur le succès de cette opération. En tout état de cause, sa naissance est une première scientifique en France puisque l'enfant dont on ignore le sexe n'est pas censé porter le gène néfaste que l'un de ses parents risquait de lui transmettre. Cette naissance marque l'application dans notre pays du diagnostic pré-implantatoire (DPI), c'est-à-dire l'analyse génétique et la sélection d'embryons. Ce procédé, autorisé sur le territoire depuis à peine plus d'un an, permet à des parents porteurs du gène d'une maladie génétique « particulièrement grave et incurable » comme la mucoviscidose ou la myopathie de Duchenne d'espérer avoir un enfant indemne de cette pathologie. Une technique de sélection déjà utilisée dans d'autres pays, et plus récemment pour la naissance du bébé américain, Adam, qui avait sauvé la vie de sa soeur Molly. Cette avancée médicale est le résultat du travail de deux équipes : celle de René Frydman, chef du service de gynécologie-obstétrique de l'hôpital Béclère et celle d'Arnold Munnich, pédiatre généticien, patron du centre de génétique de l'hôpital Necker-Enfants malades à Paris. Car pour mener à bien une telle grossesse, les deux équipes ont dû surmonter plusieurs handicaps (voir notre infographie). D'une part, il a fallu que les médecins procèdent à une fécondation in vitro (FIV). Dans un tube à essai, ils ont donc « fabriqué » des embryons à partir des ovules de la mère et des spermatozoïdes du père. Même si cette technique est aujourd'hui couramment utilisée, elle ne réussit que dans 25 % à 30 % des cas. Ensuite, une fois que les embryons ont atteint le stade de « huit cellules », il faut prélever une cellule sur chaque embryon pour la soumettre au diagnostic génétique. Grâce à la biologie moléculaire, les scientifiques sont en effet aujourd'hui capables de détecter sur une seule cellule naissante la marque d'une maladie génétique à venir. « Les médecins n'ont pas trop le droit à l'erreur, explique Jacques Montagut, spécialiste de la reproduction au Comité d'éthique, ils ne peuvent prélever qu'une seule cellule, au maximum deux, sinon ils risqueraient d'altérer l'embryon. » Troisième étape enfin, seuls les embryons non porteurs du gène malade sont réimplantés dans l'utérus de la femme et une grossesse alors tout à fait normale peut démarrer. Pour plus de sécurité, les médecins pratiquent en début de grossesse une amniocentèse (analyse des cellules du foetus) pour s'assurer que l'enfant à naître est bien indemne. En France, on estime que quatre cents couples pourraient bénéficier de ce diagnostic pré-implantatoire. Ce sont soit des couples déjà parents d'un enfant atteint d'une maladie génétique incurable et qui souhaitent un deuxième enfant, soit des couples qui risquent de transmettre ces maladies à cause de leurs antécédents familiaux. Pour le moment, trois centres seulement sont autorisés en France à pratiquer ce type de diagnostic sur les embryons : celui de Necker-Béclère à l'origine de cette première naissance, celui du professeur Israël Nisand à Strasbourg et très récemment, un nouveau centre au CHU de Montpellier.

Parisien : http://www.leparisien.fr/

Lire dans les pensées
Samedi, 18/11/2000 - 00:00

Big Brother en aurait rêvé, la médecine va peut-être le faire : un appareil permettant de visualiser les pensées d'autrui sans que ce dernier les ait communiquées à qui que ce soit. Une étude menée au sein du Massachusetts General Hospital par Kathleen O'Craven et Nancy Kanwisher a en effet démontré qu'il était possible, à l'aide de l'imagerie par résonance magnétique (IRM), de déterminer si une personne pensait à un visage ou à un lieu.L'expérience a été menée avec 6 femmes et 2 hommes âgés de 20 à 39 ans qui devaient réaliser deux types de tâches. Ils devaient d'abord regarder attentivement des visages et dans un second temps regarder des lieux ou des paysages. Durant la réalisation de ces tâches, des clichés du cerveau des sujets étaient réalisés grâce à la technique de l'IRM fonctionnelle. De nombreuses études antérieures ont déjà prouvé que l'activation de certaines zones du cerveau était associée à des activités cognitives spécifiques. En l'occurrence, il existe une zone du cortex qui est toujours activée lorsque le sujet regarde des visages, tandis qu'une zone plus profonde du cerveau est systématiquement activée lorsque le sujet explore un paysage. À l'aide de leur cliché IRM, les deux chercheuses ont retrouvé cette spécialisation cérébrale : la zone corticale était bien activée lors de la présentation des visages et la zone profonde lors de la présentation des paysages. Poursuivant l'expérience, elles ont ensuite demandé aux sujets d'imaginer soit un visage, soit un lieu (sans que ceux-ci leur soient montrés) et ont à nouveau pris des clichés IRM de leur cerveau. Elles ont alors constaté que les zones activées étaient les mêmes que lorsque le sujet voyait réellement les images, bien que le niveau d'activation de ces zones soit moindre. Mais leur observation la plus surprenante est que les chercheurs chargés d'interpréter les clichés IRM étaient capables, avec 85 % de réussite, de prédire, sans s'être entretenu le sujet, si celui-ci avait pensé à un lieu ou à un visage. Cette expérience, bien que menée dans le contexte restreint du laboratoire, montre qu'il sera peut-être un jour possible de mieux cerner ce que pensent certaines personnes qui ont perdu la possibilité de communiquer. Kathleen O'Craven espère que cette technique permettra au moins de savoir ce que peut comprendre un patient qui ne peut pas répondre directement : "Si les aires cérébrales

Transfert :

[http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=2510">de ce patient] s'activent différemment à des noms de personnes et de lieux, nous pourrons en déduire que ces patients comprennent ce qu'on leur dit." Espérons juste que l'on ne s'en servira que dans les hôpitaux et pour des raisons médicales...

Transfert :

[http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=2510

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'innovation technologique progresse en France
Samedi, 18/11/2000 - 00:00

Le Ministère de l'Economie, des Finances et de l'Industrie, rend public la quatrième édition du tableau de bord de l'innovation. Ce document présente un bilan semestriel du développement de l'innovation technologique dans notre pays depuis 1997. Ce tableau de bord de l'innovation présente dix-neuf indicateurs couvrant quatre domaines : les nouveaux capitaux, les nouveaux entrepreneurs, les nouvelles technologies et les nouveaux usages. Pour chacun de ces domaines, un indicateur clé a été sélectionné pour en illustrer les grandes tendances. Les quatre indicateurs clés montrent que la dynamique de l'innovation technologie en France progresse. Tout d'abord, une très forte mobilisation de nouveaux capitaux a été constatée : les fonds levés sur le Nouveau Marché au premier semestre 2000 (1,18 Md?) ont été multipliés par 3 par rapport au premier semestre 1999. La création d'entreprises nouvelles dans les secteurs innovants (technologies de l'information et de la communication, nouveaux matériaux et biotechnologies) franchit, pour la première fois, le seuil de 5400 nouvelles entreprises crées ex nihilo (+31% par rapport au même semestre de l'année précédente). La prise de conscience des entreprises françaises, et notamment des PME-PMI, de la valeur économique du brevet se traduit notamment par la progression de leurs demandes de brevets européens déposées auprès de l'INPI. La Présidence Française de l'Union européenne qui a retenu l'innovation comme l'un de ses axes de travail privilégie trois voies : le soutien à la création d'entreprises innovantes, l'approche communautaire de la propriété industrielle, la création d'un tableau de bord européen de l'innovation. Le colloque intitulé “ Vers un espace européen de l'innovation ” organisé le 21 novembre prochain à Lyon par le ministère de la recherche et le ministère de l'économie, des finances et de l'industrie, devrait marquer une avancée dans ces directions.

Tableau de l'Innovation : http://www.industrie.gouv.fr/accueil.htm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top