RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 138
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Mars 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Recopier pour mieux distribuer
1200 centres Internet dans toute l'Angleterre
96 millions d'internautes sans fil aux Etats-Unis en 2005
L'Internet mobile va exploser en 2005
SAM pose des fibres optiques dans les égouts
Mémoires de masse : la revanche de la bande magnétique
Je pense, donc l'ordinateur suit
Alliance au sommet pour une super puce
Une nouvelle forme d'interaction homme-machine
Cinéma à domicile en qualité numérique grâce à l'internet
La revanche programmée du petit écran
Une écharpe multimédia
Avenir
Première au Bell Labs pour un supraconducteur plastique
Matière
Intel : les 10 GHz programmés pour 2005
Une lueur dans le silicium
Intel lance le premier contrôleur gigabit Ethernet monopuce du monde
Espace
Une carte en 3D, et l'Univers est pesé
Vivant
Un nouvel oeil synthétique pour l'homme
Une trithérapie contre l'hépatite C
Les puces à protéines permettent de créer les médicaments du futur
Vers un vaccin contre le cancer de l'utérus
L'héparine permettrait de limiter la diffusion de métastases
Recherche
Quand les trains léviteront
Edito
L'Internet à haut débit pour tous est aussi un enjeu local



Une récente étude Louis-Harris nous apprend que 61 % des Français déclarent se tenir informés sur «ce qui a trait aux nouvelles technologies». En terme d'usage, 66 % des Français utilisent un téléphone, 39 % utilisent un ordinateur ou un portable à leur domicile et 22 % utilisent Internet chez eux. Si les assistants numériques personnels ne se sont pas encore généralisés auprès du grand public, il n'en va pas de même pour le lecteur DVD qui connaît une progression beaucoup plus forte que prévue (16 % d'utilisateurs et 17 % d'intention d'achat). Cette étude montre clairement que nos concitoyens ont un réel intérêt pour les nouveaux outils technologiques. Mais cet intérêt relève d'une approche très pragmatique, liée à l'utilité concrète de ces nouveaux outils dans la vie quotidienne, et à leur facilité d'utilisation. L'extraordinaire succès du téléphone mobile constitue, à cet égard, l'exemple le plus révélateur. Il n'en demeure pas moins vrai que le prix des produits et services faisant appel aux nouvelles technologies de l'information reste un puissant facteur dissuasif pour 84 % des personnes interrogées et explique le fossé qui existe entre l'intérêt que porte le grand public à ces nouveaux outils et les taux d'équipement réels. Ce fossé est tout à fait visible si l'on considère le faible taux de raccordement des foyers français à l'Internet, moins de 20 %, soit deux fois moins que nos voisins anglais, allemands ou scandinaves. Il est certain, même si ce n'est pas la seule raison, que le coût d'utilisation de l'Internet reste un frein au raccordement rapide des foyers à la toile. C'est pourquoi il est si urgent de mettre en place l'Interconnexion Forfaitaire Illimitée et, de manière complémentaire, de permettre l'accès à l'Internet haut débit -via l'ADSL- sur l'ensemble du territoire. L'IFI consiste pour l'opérateur historique à remplacer la facturation "à la minute" par un forfait global qui ne prend pas en compte la durée des connexions. Cette mesure devrait permettre aux fournisseurs d'accès Internet de proposer des forfaits illimités sur le réseau RTC dans de bonnes conditions. Jusqu'à présent, toutes les offres proposées ont dû être arrêtées pour des raisons de coûts prohibitifs pour le fournisseur. Cette question de l'interconnexion forfaitaire illimitée est actuellement au coeur de l'actualité en Europe, où plusieurs gouvernements se sont clairement prononcés en faveur de l'IFI. En Grande-Bretagne, l'opérateur historique British Télécom vient même d'être contraint par l'autorité anglaise de régulation d'adopter ce type de modèle. Ce nouveau système va permettre aux opérateurs et fournisseurs d'accès britanniques de réduire leurs coûts et d'augmenter la couverture du territoire pour leurs offres. En France, il existe actuellement un désaccord persistant entre l'ART et France Télécom sur l'« offre de référence » pour l'accès à la boucle locale - la portion du réseau de l'opérateur historique qui aboutit chez l'abonné. Le Conseil d'Etat vient d'ailleurs d'être saisi de ce contentieux. L'offre de référence fixe les conditions d'accès des opérateurs concurrents à la boucle locale, infrastructure encore sous le contrôle de l'opérateur historique. Deux points sont contestés par l'opérateur historique : il ne veut pas réduire de 1 067 F à 708 F les frais initiaux pour raccorder la ligne d'un opérateur tiers à la boucle locale. En outre, France Télécom refuse de fournir les câbles entre ses locaux et ceux des opérateurs concurrents. Ce contentieux économico-juridique pourrait paraître anecdotique s'il ne mettait pas en cause le développement local et l'égalité d'accès à l'information sur tout le territoire national. La demande de plus en plus pressante exprimée par les internautes et les entreprises de disposer d'un accès forfaitaire illimité à l'Internet ne relève pas du caprice mais de la nécessité, si l'on souhaite lever l'obstacle du coût d'utilisation qui reste dissuasif pour de nombreux utilisateurs. En outre, la généralisation de l'IFI ne pourra qu'accélérer de manière très positive le développement de l'Internet rapide, que ce soit par l'ADSL, le satellite ou la boucle locale radio. Or, dans ce domaine, la France a malheureusement pris du retard sur ses principaux voisins. Sur ce point capital, le cabinet Tactis vient de réaliser une cartographie de la couverture potentielle de la population française en ADSL en mars 2001 qui confirme la fracture numérique entre ville et campagne (http://www.hautdebit.isocfrance.org). Cette carte, réalisée à partir de données fournies par France Télécom, révèle une grande inégalité dans l'accès des populations à l'ADSL. Disposant déjà du câble et de liaisons spécialisées à bas prix, les départements de la région parisienne et de la région Rhône-Alpes sont parmi ceux qui s'en sortent le mieux. En revanche, les départements du Massif Central, de l'Est et de la Basse-Normandie figurent parmi les plus mal servis. On comprend mieux, à la lumière de ces inégalités territoriales, pourquoi un nombre croissant de collectivités locales, incitées il est vrai par un cadre législatif et réglementaire plus souple, s'investissent directement dans la réalisation de réseaux de télécommunications et la fourniture de services publics en ligne.

Cette orientation répond en effet à une demande locale très forte de la population, comme le montre une récente étude de l'IFOP. Celle-ci indique que 90 % des personnes interrogées souhaitent qu'une part plus importante du budget de leur commune soit consacrée à l'équipement en micro-ordinateurs des élèves, la même proportion souhaite le recrutement de formateurs pour favoriser l'apprentissage de l'informatique à l'école et 83 % des personnes interrogées se déclarent pour l'ouverture d'espaces publics qui permettraient à ceux qui le veulent d'apprendre à se servir d'Internet. Enfin, 78 % de nos concitoyens souhaitent la mise à disposition sur Internet des services de leur commune, état-civil et services sociaux notamment. Conscients que l'Etat ne peut pas tout faire, même s'il conserve un rôle essentiel en matière d'aménagement du territoire, les Français, notamment lorsqu'ils habitent dans le monde rural, attendent que leurs élus locaux, leurs municipalités et leurs départements prennent des initiatives concrètes et consacrent des moyens suffisants pour favoriser l'accès à l'Internet rapide par le plus grand nombre, en tant que nouvel outil indispensable de travail, d'éducation mais aussi de relation moderne et transparente avec l'administration et d'exercice plus vivant de la démocratie locale.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Recopier pour mieux distribuer
Samedi, 17/03/2001 - 00:00

Qui n'a jamais souffert de la lenteur du Réseau ? Attendre d'interminables secondes l'apparition d'une page est une des mauvaises surprises du Web. Et si l'augmentation des débits se présente comme la solution la plus évidente à ce problème, elle ne sera malheureusement pas suffisante. L'une des voies explorées est donc de rapprocher en parallèle l'information de l'utilisateur final. Raccourcir le trajet ou, autrement dit, stocker sur des serveurs répartis aux quatre coins du cyberespace le contenu le plus fréquemment consulté. Ces serveurs baptisés " caches ", du même nom que l'espace en mémoire ou sur un disque dur qui permet de conserver les pages Web les plus couramment affichées sur un ordinateur, permettraient de réduire l'attente d'un facteur dix. Une technologie nouvelle ? Pas du tout. Cette délocalisation de l'information est réalisée depuis longtemps grâce à des serveurs-caches appelés " proxys". Quand des proxys sont mis en place par un fournisseur d'accès à Internet, l'internaute abonné peut configurer son navigateur pour qu'il aille directement chercher l'information sur ces serveurs. Si la page Web qu'il réclame a récemment été demandée, le proxy l'a gardée en mémoire. Plus proche de l'utilisateur, il peut lui répondre plus vite. Dans le cas contraire, la requête suit son parcours normal, en allant chercher la page Web à sa source. Largement utilisés, les proxys n'ont pourtant plus la faveur des spécialistes, qui les jugent dépassés. Ainsi, Jean-Michel Laveissière, directeur des opérations chez Cable & Wireless France, un opérateur de communications, note que " c'est une technique qui peut transmettre à l'usager des données périmées ". D'où la nécessité d'évoluer. Mais comment ? En reliant les serveurs-caches entre eux et en construisant ainsi des réseaux intelligents d'acheminement de contenu (Content Delivery Networks ou CDN). Comme le résume Bruno Dambrun, responsable de Cacheflow France, fournisseur d'ordinateurs spécialement dédiés à ce marché, " un CDN doit savoir gérer tous les types de contenu possibles, ça correspond au C du sigle ; distribuer instantanément l'information, en garantissant sa fraîcheur, c'est le D ; et mettre en contact l'utilisateur avec l'ordinateur le mieux placé, à un instant, pour répondre à sa demande ; c'est là l'aspect réseau d'un CDN ".

Le Monde :

http://interactif.lemonde.fr/article/0,5611,2862--159139-0,FF.html

1200 centres Internet dans toute l'Angleterre
Samedi, 17/03/2001 - 00:00

La Grande Bretagne a décidé de lancer la démocratisation rapide de l'Internet : David Bunklett, le secrétaire à l'Education et à l'Emploi a annoncé l'ouverture de 1200 centres Internet dans tout le pays. Un site web de recherche d'emploi a également été créé. Le gouvernement veut clairement montrer sa volonté d'utiliser Internet à des fins pédagogiques et utiles. Les anglais pourront donc trouver ces centres Internet disséminés à travers les villes, dans les lieux de passage comme les bibliothèques, les écoles ou même les églises. S'ils sont à la recherche d'un emploi, ils trouveront peut-être leur bonheur parmi les 800000 offres disponibles sur le site lancé par le gouvernement, qui comporte également des informations sur les formations et les orientations possibles.

Lesinfos.com :

http://www.lesinfos.com/actu_int/Emarket/default.asp?num=9617

96 millions d'internautes sans fil aux Etats-Unis en 2005
Samedi, 17/03/2001 - 00:00

Le nombre d'Américains disposant d'une connexion sans fil à internet atteindra 96 millions en 2005 contre 4,1 millions cette année, rapporte une étude de Jupiter Media Metrix . Mais pour atteindre ce chiffre, encore faut-il que les professionnels du secteur résolvent les sérieux problèmes qui empêchent les particuliers de se connecter sans fil, estime le cabinet de recherche. Point important, les opérateurs de l'internet sans fil ne doivent pas essayer de faire trop, trop tôt, a expliqué Seamus McAtter, analyste chez Jupiter. "Le secteur ne doit pas sous-estimer la complexité de délivrer des services internet dans un environnement hautement concurrentiel et fragmenté," a-t-il ajouté. "Cela signifie qu'il doit freiner les projets ambitieux de fournir du (contenu) multimédia sur les appareils mobiles et se concentrer, à la place, sur les services interactifs simples comme les jeux ou les services de messages courts (SMS)- autant de services délivrables sur des réseaux divers et des bandes passantes étroites," a ajouté McAteer. Selon Jupiter, sur les 96 millions d'Américains qui utiliseront une connexion sans fil à internet en 2005, 74,9 millions se connecteront via un téléphone mobile, 13,8 millions via des assistants personnels et 7,3 millions via d'autres types d'appareils. Selon Zia Daniell Wigder, autre analyste chez Jupiter, même si les difficultés techniques seront résolues dans les cinq prochaines années, le marché américain de l'internet sans fil fera pâle figure à côté des marchés européen et surtout japonais, notamment parce que les opérateurs n'ont pas considéré les jeunes Américains comme une cible clé. Selon une étude récente citée par l'analyste de Jupiter, seulement 7 % des Américains de moins de 25 ans possèdent actuellement des appareils offrant une connexion internet, contre environ 30 % des jeunes adultes et adolescents japonais. Wigder a affirmé que les opérateurs devront aussi reconsidérer leurs politiques tarifaires, notamment les projets pré-paiement. De leur côté, les fabricants doivent aussi revoir les caractéristiques de leurs combinés pour faciliter l'accès sans fil à internet, a-t-il poursuivi. Les combinés devront être "optimisés" pour l'accès sans fil, en intégrant des écrans de meilleure qualité et des claviers plus pratiques, a conclu Widger.

Reuters : http://fr.news.yahoo.com/010306/2/102zj.html

L'Internet mobile va exploser en 2005
Samedi, 17/03/2001 - 00:00

Le chiffre d'affaires dégagé en Europe par l'internet mobile devrait être multiplié par six et atteindre 76 milliards d'euros en 2005, à condition que les combinés et les services haut débit soient lancés dans les temps, révèle une étude. Le rapport se fait également l'écho du ralentissement du marché de la téléphonie mobile et des retards importants pris pour le lancement des combinés et des réseaux de troisième génération (3G), dans lesquels les opérateurs ont investi des centaines de milliards d'euros. Pour cette enquête, menée conjointement par le groupe britannique Durlacher spécialisé dans les investissements technologiques, la société de capital-risque finlandaise Eqvitec et l'Université de Technologie d'Helsinki, 70 professionnels japonais et européens ont été interrogés. Le chiffre d'affaires de l'internet mobile passera de 12,2 milliards d'euros en 2001 à 76,4 milliards d'euros en 2005, généré pour la plus grande partie par la transmission des données, affirment les rédacteurs du rapport. De plus, si l'étude prédit que les entreprises telles que le finlandais Nokia seront en concurrence serrée avec les groupes asiatiques sur le marché des combinés de troisième génération (3G), elle doute du succès européen de l'i-mode, le service d'accès à internet sur portable du japonais NTT DoCoMo . Les acteurs de la téléphonie mobile interrogés estiment également qu'au vu des retards pris, les téléphones GPRS (general packet radio service) ne décolleront pas avant 2003. De nombreux réseaux ont été mis en place à travers l'Europe, mais un déficit d'appareils et de services ralentira la croissance du marché. Seul l'américain Motorola a commencé à vendre des mobiles GPRS. Nokia prévoit de livrer les siens à la fin de cette année. Quant aux téléphones UMTS (Universal mobile telecommunications system), Durlacher estime qu'ils prendront leur essor en 2005, date à laquelle on dénombrera 32 millions d'utilisateurs de ces services de troisième génération. Selon le cabinet de recherche, il faudra attendre 2007 pour que le nombre de téléphones 3G dépasse celui des combinés GPRS.

SAM pose des fibres optiques dans les égouts
Samedi, 17/03/2001 - 00:00

Présentant l'apparence d'un aspirateur, le robot SAM (Sewer Access Module), conçu par l'entreprise CityNet Telecommunications, située a Silver Springs dans le Maryland, est utilise actuellement pour la pose de fibres optiques dans les égouts de la ville d'Albuquerque au Nouveau Mexique. Contrairement aux techniques classiques de pose de câbles qui peuvent parfois entraîner des conséquences fâcheuses - le centre de Dallas, au Texas, a été inondé par le percement accidentel d'un conduit - SAM offre tous les avantages. En effet, il cartographie les lieux, procède au nettoyage des conduits et pose des anneaux de soutien des câbles ainsi que des tubes porteurs de fibres optiques. En outre, il ne nécessite quasiment aucune intervention humaine ce qui est appréciable s'agissant des égouts. Des a présent, plusieurs villes, dont Omaha et Indianapolis, envisagent de faire appel à SAM.

St Presse : http://www.adit.fr

Mémoires de masse : la revanche de la bande magnétique
Samedi, 17/03/2001 - 00:00

Sony a annonce qu'elle venait de développer une technologie d'enregistrement sur bande magnétique de haute densité qui permettrait aux cassettes 8 mm de contenir des enregistrements jusqu'a un teraoctet de données. Cette technologie a été développée pour répondre a la demande croissante de supports de sauvegarde de très grande capacité principalement pour les applications multimedia. La combinaison de la technique ultra sensible de Magnéto-Résistance Géante (MRG) et d'une bande a haute densité de métal obtenue par évaporation permet d'atteindre une densité de stockage de 6,5 gigaoctets par pouce carré. Sony pense mettre cette application sur le marche dans le courant de l'année 2003. Cette technologie permet d'obtenir sur la bande des pistes de 0,8 micron de large pour un rapport signal sur bruit de 26 dB. Ces caractéristiques ont été obtenues en réduisant a 30 nm l'épaisseur de la couche magnétique (un cobalt partiellement oxyde) ce qui représente un sixième de l'épaisseur conventionnelle et approximativement la taille des particules magnétiques. De plus la taille de la tète de lecture peut être réduite a un vingtième de sa taille conventionnelle. Ces modifications ont permis d'améliorer d'un facteur 17 la densité d'enregistrement par comparaison aux bandes conventionnelles.

ST Japon : http://www.adit.fr

Je pense, donc l'ordinateur suit
Samedi, 17/03/2001 - 00:00

Imaginez-vous pieds et poings liés dans un fauteuil, à l'instar de ces personnes privées de l'utilisation de leurs membres et coincées dans leur corps comme dans une cage de chair. Exit autonomie, indépendance, intimité et leur cortège de libertés. Ne reste que le cerveau, souvent de peu de secours pour interagir avec le monde extérieur. Quoique. Plusieurs équipes de chercheurs, notamment aux Etats-Unis, veulent rendre les ordinateurs et l'Internet contrôlables... par la pensée. Aujourd'hui, des scientifiques européens apportent leur pierre avec l'ABI (Adaptative Brain Interface), une interface directe entre le cerveau et l'ordinateur, surtout destinée à rendre les handicapés moteurs graves plus autonomes. Bien au-delà de la commande à reconnaissance vocale ou du clavier tapoté avec une paille, les expériences menées à l'Isis tirent directement parti de l'activité électrique du cerveau que capte l'électro-encéphalographie. Comment fonctionne cette surprenante communication entre le cerveau humain et les puces ou neurones de silicium de l'ordinateur? Les signaux électro-encéphalographiques d'un sujet évoluent en fonction des tâches mentales sur lesquelles celui-ci se concentre. Le signal correspondant à une pensée «relax» (selon la terminologie des chercheurs), pendant laquelle l'expérimentateur ferme les yeux et vide sa tête, est très différent de celui associé à la pensée «cube», où il faut imaginer un cube tournant sur lui-même, ou encore de celui d'une pensée dite «motrice», correspondant à un mouvement de la main gauche (aucun mouvement réel n'est toléré: l'utilisateur se concentre sur le geste, et doit penser très fort qu'il bouge sa main sans lever le petit doigt). Pour «deviner» la pensée du cobaye, le système ABI cherche donc à identifier ces différents états dans l'électro-encéphalogramme. En pratique, l'utilisateur est coiffé d'un joli bonnet hérissé d'électrodes, tartiné de gel (en guise de conducteur), et doit se concentrer en alternance sur trois tâches mentales parmi sept proposées. Les signaux sont traités par un réseau neuronal artificiel, spécialement conçu pour distinguer les signaux spontanés du cerveau de ceux qui correspondent aux tâches mentales choisies. Le cobaye amorce plusieurs séances d'apprentissage durant lesquels le chercheur impose une intense gymnastique mentale. Mais, même si ce système s'avère plutôt complexe pour un néophyte, ce qu'il rend d'ores et déjà possible est riche de promesses. «Nous pouvons agir mécaniquement et physiquement avec le seul pouvoir de notre pensée, voilà ce que nous montre l'ABI, se réjouit Jose del Millan, quadra à l'origine de l'unité de recherche ABI. Les applications directes concerneront l'environnement quotidien: le contrôle d'un fauteuil roulant ou l'interaction directe avec les outils de la maison: interrupteurs, appareils ménagers, etc.». Non contente d'améliorer la qualité de vie des personnes gravement handicapées, l'ABI pourrait, en leur offrant un accès aux nouvelles technologies, leur permettre de travailler à nouveau. Ou enfin. «Ce genre d'usages suscite énormément d'attentes, de la part des handicapés mais aussi des entreprises privées qui voient de multiples applications à développer: nouvelles formes de divertissement et d'éducation, nouveaux types de jeux vidéo ou outil pour la recherche en psychologie. Mais attendons que la technologie soit mature», pondère Jose Del Millan. Avec son collègue Josep Moureno, ils testent aujourd'hui l'ABI sur des enchaînements de pensée: imaginer que l'on est chez soi et que l'on se déplace de la chambre à la salle de bains. Aucun prototype ne sera commercialisé avant deux ans.

Libération :

http://www.liberation.com/quotidien/semaine/20010306marzd.html

ABI : http://sta.jrc.it/abi

Alliance au sommet pour une super puce
Samedi, 17/03/2001 - 00:00

Pour fabriquer une puce ultra-rapide, qui devrait permettre la fabrication de machines plus puissantes que le Deep Blue d'IBM qui avait battu le champion d'échecs Gari Kasparov en 1997, ils ne seront pas trop de trois. Big Blue s'est en effet adjoint les compétences de Toshiba dans le domaine des systèmes LSI (Large Scale Integration) et, plus étonnamment, de Sony. Cette alliance, nous promet-on, devrait donner naissance à une nouvelle génération de puce, baptisés Cell (traduction anglaise de cellule), bâtie sur une nouvelle architecture spécialement destinée aux réseaux haut-débit. Ce supercomputer on a chip (littéralement superordinateur sur une puce), devrait être profiter d'une technique de gravure de circuit à 0,10 micron et procurer une puissance mesurée en "téraflops". Pour parvenir à ces résultats, le groupe s'annonce prêt à investir 400 millions de dollars sur 5 ans... et des locaux du centre de recherche d'IBM à Austin, dans le Texas. Pourquoi cellule ? Parce que le but n'est pas seulement de fabriquer des processeurs très rapides, mais aussi capables de communiquer très rapidement entre eux. Le PDG de Sony Computer entertainement explique : "Ce nouveau processeur 'large bande', dont 'Cell' est le nom de code, que nous allons créer, ouvrira une nouvelle ère dans le domaine des calculs rapides, basés sur les réseaux. Grâce aux fonctions intégrées de connexions haut débit, les micro-processeurs qui n'existent aujourd'hui que comme des îlots isolés seront plus intimement liés, formant ainsi un réseau de systèmes qui agira plus comme un unique 'super système'. Exactement comme les cellules biologiques d'un corps qui s'unissent pour former un système physique complet, des blocs de puces 'Cell' permettront de construire de plus grands systèmes". L'idée, en tous cas, est prometteuse... Décidément, c'est le temps des grandes annonces puisque la semaine dernière, Intel informait de la mise au point d'un procédé de gravure de processeur à 0,07 micron, lui permettant d'espérer des puces à 10 GHz pour 2005 . IBM vient d'ailleurs également d'annoncer son entrée dans le consortium industriel EUV-LLC (Extrme Ultraviolet Limited Liability Company), qui développe la technologie signalée par Intel. On ne sait pas si les deux projets ont des chances de se rejoindre.

Vunet : http://www.vnunet.fr/actu/article.htm?numero=7155

Une nouvelle forme d'interaction homme-machine
Samedi, 17/03/2001 - 00:00

L'interaction entre l'ordinateur et l'homme a jusqu'à maintenant été assurée par l'intermédiaire d'une interface graphique et d'une souris, c'est même ce qui a permis a l'informatique de se populariser. Une équipe de scientifique de Cambridge essaye actuellement de remettre cela en cause en utilisant les technologie de détection de position. Selon le professeur Andy Hopper, les systèmes informatiques pourraient être capables d'intégrer leur environnement, c'est a dire de savoir ou se trouvent les personnes et les différents dispositifs électroniques dans l'espace, mais aussi comment ils sont susceptibles d'interagir. Ainsi en détectant une action ou la position d'une personne dans l'espace (c'est l'heure ou elle rentre du travail et elle s'approche de son poste de radio), l'ordinateur va pouvoir automatiquement déclencher une action correspondante (la radio se met en marche sur sa station préférée). Ce groupe de recherche a déjà développe une paire de lunettes électroniques, qui lorsqu'on parle a une autre personne, inscrit automatiquement son nom et un bref curriculum vitae. La clef de cette " informatique sensible " est fournie par les technologies de positionnement, qui peuvent actuellement localiser un individu a quelque centimètres près. Andy Hopper en voit des applications immédiates, par exemple les guides dans les musées (qui proposeraient des commentaires sur la pièce dont on s'approche) ou la possibilité de consulter les dossiers personnels de son ordinateur ou que l'on soit, par exemple dans une usine ou dans un hôpital.

ST Royaume-Uni : http://www.adit.fr

Cinéma à domicile en qualité numérique grâce à l'internet
Samedi, 17/03/2001 - 00:00

Le cinéma à domicile, aujourd'hui, ressemble souvent à ceci: le film que l'on meurt d'envie de voir est indisponible au club vidéo et, quand on parvient enfin à l'obtenir, la copie est tellement abîmée que l'image n'est que brouillard et le son celui d'un vieux poste de radio. Mais, dans un futur proche, presque tous les films pourraient être à la disposition du consommateur, téléchargeables sur son ordinateur à prix abordable, en qualité numérique. La construction de réseaux à haut débit ADSL (Assymetric Digital Subscriber Line) dans toutes les villes du monde va permettre, selon les spécialistes, une transformation progressive du secteur de l'industrie des loisirs grâce à l'amélioration de la qualité de retransmission. "L'internet annonce la naissance d'un nouveau média important pour notre secteur", estime Takashi Nishimura, directeur de l'institut japonais New Cinema, interrogé en marge du Festival international du cinéma fin février à Berlin. Le réseau, selon lui, "donnera la possibilité aux spectateurs de regarder ce qu'ils veulent quand ils le veulent". Déjà, de nombreuses entreprises américaines préparent la mort de la cassette vidéo classique. Récemment, les studios Universal signaient un contrat avec le réseau câblé numérique Intertainer pour diffuser dès février les nouveautés cinématographiques ainsi que les films archivés de huit gros studios. Ce contrat fait suite à des rapprochements similaires entre Miramax Films et Sightsound Technologies, Sony Pictures et MovieFly. Sony prévoit que les spectateurs puissent à terme télécharger des films par l'internet, moyennant paiement, et les copier sur un disque compact. Blockbuster, numéro un de la location vidéo aux Etats-Unis, proposera de son côté la livraison de films par ligne téléphonique à haut débit en partenariat avec Texas Energy company Enron. Disney s'intéresse à des boîtiers sans fil qui permettraient le téléchargement sans ordinateur. Mais l'internet fournit également une plate-forme idéale pour des services comme ceux que le site Napster a proposé en musique, offrant des copies de film piratées de parfaite qualité. Les studios de cinéma américains, qui perdent 2 milliards de dollars par an dans la piraterie mondiale des cassettes vidéo, ont réussi devant les tribunaux à contenir les ambitions de Scour, l'équivalent vidéo de Napster. Ils tentent toujours, cependant, de convaincre les opérateurs du câble et du satellite de travailler avec eux pour décourager le piratage. Plusieurs grands studios hollywoodiens proposeront dans quatre à six mois aux internautes de télécharger des films dans l'objectif de conquérir de nouveaux marchés, a-t-on appris de source professionnelle. Selon Jack Valenti, directeur général de Motion Picture Association of America (MPAA), association regroupant les grandes majors d'Hollywood, au moins trois studios proposeront ce service de vidéo à la demande ou de "pay-per-view". Lors d'une réunion récente avec des analystes financiers, The Walt Disney Co., propriétaire des studios Disney, a également fait état de la nouvelle technologie sans fil qu'il testait pour le téléchargement de films. "Dans quatre à six mois, plusieurs de nos studios proposeront l'envoi en ligne de films," a affirmé à la presse Valenti lors du ShoWest annuel rassemblant les représentants de l'industrie cinématographique. Il a expliqué que les films, téléchargeables à partir d'un PC, pourraient être gravés sur un CD. Ils seront codés de telle sorte qu'on ne pourra les visionner qu'à partir de l'ordinateur où ils ont été téléchargés, a-t-il ajouté. Le téléchargement rapide des films, cependant, demandera une connexion internet haut débit et seulement quatre à cinq millions de foyers en disposent actuellement aux USA, a-t-il estimé. Le téléchargement d'un film via une ligne téléhonique et un modem peut demander jusqu'à dix heures, alors qu'il ne faut que 25 minutes avec une connexion haut débit, a indiqué Valenti. Les studios travaillent fébrilement à la mise en place d'un système informatique permettant le téléchargement des films tout en les protégeant des copies pirates. En développant des modèles pouvant résister au piratage, les studios espèrent ne pas avoir à se lancer dans les mêmes batailles juridiques pour protéger les droits d'auteur que celles que doit mener l'industrie du disque contre Naptster.

Reuters : http://fr.news.yahoo.com/010307/2/1095f.html

AFP : http://fr.news.yahoo.com/010307/1/107cx.html

La revanche programmée du petit écran
Samedi, 17/03/2001 - 00:00

En deux ans, les services interactifs des bouquets de télévision numérique se sont multipliés, enrichissant et diversifiant une offre déjà abondante. Selon une étude menée par la Sofres pour TPS en septembre 2000, le service Météo Express comptait 1,2 million d'utilisateurs uniques par mois, et le guide des programmes (EPG), 1,1 million. Si ces services n'attirent pas encore de nouveaux abonnés vers les programmes numériques, ils présentent de nombreux avantages. Ils permettent de retenir le téléspectateur sur une chaîne (stickiness), de le transformer en prospect (en enregistrant ses goûts durant une publicité interactive) ou, mieux encore, en acheteur.Ainsi, les services proposés par la télévision interactive (TVI), faute d'être un argument de vente, sont financièrement stratégiques. Mi-février, TPS a annoncé plus de 75 millions d'euros (492 millions de francs) de chiffre d'affaires généré par les services de sa plateforme interactive en 2000, dont 5,6 millions lui reviennent directement. Le reste est reversé aux différents éditeurs ou chaînes de télévision. Pour la même année, Canal Satellite annonce plus de 105 millions d'euros générés par ses services interactifs, avec une ventilation comparable : plus de 45 millions d'euros pour les paris hippiques et autant pour le paiement des films à la demande, le solde se répartissant entre divers services (téléshopping, banque en ligne, etc.)Nombre de fournisseurs de contenu et services interactifs souhaitent profiter de cette manne, mais les places sont chères. Selon le cabinet d'études Forrester Research, les éditeurs de programmes s'acquittent de 1 million de livres (1,6 million d'euros) par an pour être présents sur Open TV, la plateforme d'interactivité britannique du bouquet B Sky B. Telewest, troisième bouquet de télévision numérique en Grande-Bretagne, prélève chaque année une moyenne de 125 000 livres (200 000 euros) auprès de ses quelque 125 fournisseurs de contenu. Il est vrai que les perspectives sur ce secteur sont prometteuses : Jupiter Research estime que la télévision interactive européenne générera, pour ce qui est de la publicité et du commerce électronique, 12 milliards d'euros de chiffre d'affaires en 2005. À titre de comparaison, à la même échéance, ce chiffre pourrait atteindre 70 milliards d'euros pour l'univers PC et 5 milliards pour les téléphones mobiles connectés. À terme, ces différents supports sont destinés à devenir complémentaires, à condition toutefois que les contenus communs soient adaptés à leur contexte d'utilisation.

OINet : http://www.01net.com/rdn?oid=140373

Une écharpe multimédia
Samedi, 17/03/2001 - 00:00

Un prototype d'écharpe multimédia et communicante, lancé par France Télécom R&D, est présenté depuis février au Musée d'Art Moderne de New York. Elle préfigure des services induits par la nouvelle génération de téléphonie mobile (UMTS), d'ici 2005, à usage des professionnels en déplacement. L'écharpe se voit dotée, sur un pan, d'un écran tactile couplé à une mini web-cam. Avec pour fonction de devenir une interface permanente pour recevoir et diffuser des informations orales, écrites ou visuelles. Relever le col de son écharpe reviendra à positionner de façon invisible les écouteurs à hauteur des oreilles. L'enrouler autour du coup permettra de placer discrètement le micro devant sa bouche. Il sera alors facile d'entamer une conversation téléphonique et visiophonique avec son interlocuteur. A terme, l'écharpe devrait constituer, à elle seule, un véritable bureau portatif aussi discret qu'élégant. Le fait de la porter permettra de rester connecté à son réseau, d'accéder à ses fichiers, son intranet, de surfer sur ses sites préférés, d'envoyer des mails ou de se visionner des films téléchargés sur Internet. Pour tester sa pertinence France Telecom réalisera, d'ici cet été, les tests d'usages et d'ergonomie auprès des utilisateurs potentiels. et communicante, lancé par France Télécom R&D, est présenté depuis février au Musée d'Art Moderne de New York. Elle préfigure des services induits par la nouvelle génération de téléphonie mobile (UMTS), d'ici 2005, à usage des professionnels en déplacement. L'écharpe se voit dotée, sur un pan, d'un écran tactile couplé à une mini web-cam. Avec pour fonction de devenir une interface permanente pour recevoir et diffuser des informations orales, écrites ou visuelles. Relever le col de son écharpe reviendra à positionner de façon invisible les écouteurs à hauteur des oreilles. L'enrouler autour du coup permettra de placer discrètement le micro devant sa bouche. Il sera alors facile d'entamer une conversation téléphonique et visiophonique avec son interlocuteur. A terme, l'écharpe devrait constituer, à elle seule, un véritable bureau portatif aussi discret qu'élégant. Le fait de la porter permettra de rester connecté à son réseau, d'accéder à ses fichiers, son intranet, de surfer sur ses sites préférés, d'envoyer des mails ou de se visionner des films téléchargés sur Internet. Pour tester sa pertinence France Telecom réalisera, d'ici cet été, les tests d'usages et d'ergonomie auprès des utilisateurs potentiels.

Besok : http://www.besok.com/machine/actu/acth_bs_CF.cfm?id=6017

^ Haut
Avenir
Nanotechnologies et Robotique
Première au Bell Labs pour un supraconducteur plastique
Samedi, 17/03/2001 - 00:00

Une équipe du Bell Labs (groupe Lucent Technologies, a Murray Hill dans le New Jersey) vient d'annoncer la mise au point du premier plastique supraconducteur a une température de transition de 4K. Des les années 70, une collaboration entre des scientifiques américains et japonais avait permis de mettre au point les premiers plastiques conducteurs et, Alan Heeger, Alan MacDiarmid et Hideki Shirakawa ont reçu pour ces travaux le prix Nobel de Chimie a l'automne dernier. Le passage a la supraconductivite avait été envisage en théorie, mais toujours considère comme peu probable en pratique en raison des dopants ajoutes au plastique pour le rendre conducteur. La prouesse scientifique et technologique est due au polythiophene, un polymère dont l'élément de base est décoré de plusieurs branchements, de taille assez importante, et qui forcent le matériau vers un état de cristallisation favorable. La conduction n'est plus assurée par la présence de dopants mais par l'intermédiaire d'un substrat d'alumine ou d'or sur lequel est déposé un film de polymère. En formant ainsi un transistor a effet de champ, les électrons sont extraits du film plastique et permettent alors la conduction et la supraconduction en-dessous de 4K. Même si cette température est encore très basse, la possibilité technologique d'obtenir de façon plus simple et plus économique des supraconducteurs d'une manipulation beaucoup plus souple devrait ouvrir un vaste domaine d'applications. Un petit effort pour une température de transition moins contraignante et le rêve du transport d'électricité sans perte d'énergie deviendrait enfin une réalité économique viable.

ST Presse : http://www.adit.fr

Nature : http://www.nature.com/nlink/v410/n6825/abs/410189a0_fs.html

^ Haut
Matière
Matière et Energie
Intel : les 10 GHz programmés pour 2005
Samedi, 17/03/2001 - 00:00

Il s'en est fallu de peu pour qu'Intel profite de son Developer Forum (qui a fermé ses portes le 1er mars dernier) pour annoncer la nouvelle. Le n°1 des processeurs vient en effet d'annoncer avoir fait un pas de géant dans la miniaturisation et la fabrication des composants en améliorant la technologie de gravure des transistors. Grâce à un nouveau format photomask (ou mask), Intel gravera ses processeurs en 70 nanomètres ou 0,07 micron contre 0,18 et bientôt 0,13 micron actuellement. Rappelons qu'1 nanomètre équivaut à 1 millionième de millimètre. Autant dire qu'un cheveu à côté d'un transistor de 70 nanomètres fait figure de tronc d'arbre à côté d'un brin d'herbe. Cette nouvelle technologie de gravure, intitulée Extreme Ultra Violet (EUV) repose sur l'exploitation des ultra violets comme la plupart des masks utilisés actuellement. Selon le principe de lithographie, le masque Deep Ultra Violet (DUV) laisse passer la lumière, à travers une sorte de pochoir, qui vient imprimer la galette de silicium. Combiné à une basse température, le masque EUV réfléchit la lumière comme un miroir. Une technologie qui permet d'affiner de 30 % les tailles des transistors actuels et devrait permettre d'atteindre les 50 nanomètres (0,05 micron). Les premiers outils de fabrication rentreront en phase de test en 2003 avant de lancer la production en 2005. C'est au milieu de la décennie qu'Intel espère atteindre une fréquence de 10 GHz pour un processeur probablement construit autour de 400 millions de transistors, soit près de dix fois plus que l'actuel Pentium 4. Intel n'a décidément pas fini de courir après la loi de Moore.

Vunet : http://www.vnunet.fr/actu/article.htm?numero=7136

Une lueur dans le silicium
Samedi, 17/03/2001 - 00:00

Depuis plus de dix ans, les physiciens tentent de créer un laser à base de silicium. Il ne s'agit pas d'un défi lancé pour le plaisir de la science. Une telle découverte serait au contraire primordiale pour l'industrie. Un laser à base de silicium serait en effet le chaînon manquant entre l'électronique et l'optoélectronique (l'électronique utilisée notamment en télécoms qui permet de coder des informations sous forme lumineuse dans les fibres optiques, par exemple). Aujourd'hui, les concepteurs de circuits électroniques utilisent des solutions bâtardes : des composants traditionnels en silicium sont (difficilement) combinés à d'autres matériaux semi-conducteurs tels que l'arséniure de gallium capables, eux, d'émettre de la lumière laser. Problème : ce mariage contre nature freine les tentatives de miniaturisation. Tout serait tellement plus simple si le silicium pouvait directement émettre de la lumière... Depuis les années 1990, des chercheurs ont montré que c'était possible. Mais dans quelles conditions ! Des minuscules particules de silicium de l'ordre du nanomètre (milliardième de mètre) - des nanocristaux ou nanofils de silicium - peuvent émettre de la lumière grâce aux effets quantiques qui se manifestent à cette échelle. Mais le dispositif est inutilisable : trop compliqué, et peu efficace (il faut un courant électrique élevé pour émettre peu de lumière). L'équipe britannique de Kevin Homewood (université de Surey) vient en revanche de proposer dans un article du magazine scientifique Nature une technique plus probante. Lors des précédents tentatives, les nanocristaux étaient enfermés dans un matériau isolant, donc difficilement accessibles par les charges électriques qui provoquent l'émission de lumière. Dans ce cas, comme l'expliquent les chercheurs, les particules sont alors comme des îles au milieu de l'océan. Dans leur approche, en revanche, elles deviendraient plutôt des espaces clôturés sur la terre ferme. Au lieu d'isoler des minuscules morceaux de silicium dans un isolant, les chercheurs partent de plus grands morceaux et isolent des structures nanoscopiques en créant des imperfections dans le cristal de silicium (les clôtures). Ces imperfections naissent du bombardement du silicium par des atomes de bore. En amenant un courant électrique et en chauffant l'ensemble à... 1 000 ° C, le silicium émet alors de la lumière de manière efficace. Reste bien sûr à abaisser la température utile à ce dispositif pour fonctionner. Mais les chercheurs sont plus près que jamais de la lumière.

Transfert :

http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=4600

Intel lance le premier contrôleur gigabit Ethernet monopuce du monde
Samedi, 17/03/2001 - 00:00

Intel Corporation vient d'annoncer le lancement, sous forme d'échantillons, du premier contrôleur Gigabit Ethernet monopuce du monde, un produit à base de semi-conducteurs de pointe, utilisé pour diriger les flux de données au sein des réseaux. Ce nouveau contrôleur, facilitant la tâche des concepteurs de systèmes, devrait contribuer à accélérer le déploiement des réseaux Gigabit Ethernet. Ces derniers permettent la transmission d'un milliard de bits d'information par seconde. Généralement, les produits Gigabit Ethernet de constructeurs tiers nécessitent des études complexes, en termes de cartes, puisque leurs fonctions sont assurées par plusieurs circuits intégrées. Avantage de la solution d'Intel~: elle rassemble toutes les fonctionnalités requises sur une seule puce. Le format du contrôleur Gigabit Ethernet Intel 82544E1, de la taille d'une petite pièce de monnaie, a été réduit de plus de 50 % par rapport aux précédentes générations de contrôleurs. Sa consommation électronique a elle aussi été diminuée de moitié. Désormais, les OEM peuvent incorporer directement les connexions réseaux Gigabit Ethernet dans des serveurs, stations de travail ou terminaux réseaux, à l'aide d'un type de connexion appelé LAN-on-motherboard (LOM). Ce nouveau contrôleur, proposé actuellement sous forme d'échantillons aux principaux constructeurs de serveurs, stations de travail et équipements réseau, sera disponible en grands volumes fin 2001.

Atelier : http://www.atelier.fr

^ Haut
Espace
Espace et Cosmologie
Une carte en 3D, et l'Univers est pesé
Samedi, 17/03/2001 - 00:00

Galilée en serait resté baba: des astronomes ont pesé l'Univers. En réalisant une carte en trois dimensions, où se lisent les mouvements de milliers et de milliers de galaxies. Avec cette géographie dynamique, ils retrouvent l'histoire de l'Univers et calculent son poids, qui ne peut s'expliquer sans faire appel à une mystérieuse «matière noire», bien plus abondante que la matière ordinaire, celle des étoiles. Vingt-huit astronomes, anglais et australiens pour la plupart, publient dans Nature le résultat, à mi-parcours, de cette gigantesque opération d'arpentage du cosmos. Patiemment, depuis 1998, l'équipe du 2dF Galaxy Redshift Survey, dirigée par Matthew Colless (Australie) et Richard Ellis (Cambridge, Grande-Bretagne), a mesuré la position et la vitesse de plus de 140.000 galaxies. Chacune compte des milliards d'étoiles, et ces galaxies sont éparpillées sur une tranche d'Univers allant jusqu'à trois milliards d'années-lumière de la Terre. C'est un peu comme si, dans un Univers vu comme un camembert avec la Terre au centre, les astronomes avaient découpé deux petits triangles à partir du milieu, allant jusqu'à un cinquième de son rayon. «Un grand pas en avant pour la cosmologie observationnelle», se félicite Chantal Balkowski, de l'observatoire de Meudon. La précédente carte, établie par la même équipe, ne portait en effet que sur 30.000 galaxies et ne regardait pas plus loin que 400 millions d'années-lumière. A l'origine de ces visions tridimensionnelles de l'Univers, un saut technologique. Pour positionner chaque galaxie dans la troisième dimension, il faut en effet connaître son éloignement par rapport à la Terre. Donc enregistrer son spectre lumineux et y mesurer le fameux décalage vers le rouge, dû à l'expansion de l'Univers, découverte par Edwin Hubble au début du siècle. Tant qu'il fallait pointer le télescope sur chacune d'elles, le nombre de galaxies en restait très limité. Mais l'équipe de 2dF a mis au foyer du télescope anglo-australien (situé en Australie) un ensemble de 400 fibres optiques qui pointent chacune une galaxie à chaque pose. Objectif: 250.000 galaxies d'ici à la fin de l'année. Un simple coup d'oeil sur la carte permet déjà d'affirmer que l'Univers est spongieux, avec d'énormes vides séparés par des filaments ou des parois où se sont regroupées la plupart des galaxies. La carte permet de distinguer, dans leurs évolutions, ce qui provient du «flot de Hubble» - l'expansion de l'espace - et ce qui est causé par la gravitation, l'attraction locale exercée par ces grandes structures. Cette analyse apporte la première preuve convaincante, à cette échelle, que l'origine des grandes structures du cosmos est bien due à la gravitation. Donc, supposent les cosmologistes, aux fluctuations de densité de l'Univers primordial, lors du big-bang, il y a environ quinze milliards d'années. La preuve: les galaxies qui se trouvent près d'une grande structure se déplacent différemment suivant qu'elles se trouvent «devant» ou «derrière» elle, du point de vue du télescope. Celles de devant s'éloignent plus vite de nous: elles sont en train de tomber vers la grande structure et ce mouvement s'additionne à celui de l'expansion. Celles de derrière s'éloignent moins vite: elles tombent elles aussi, mais dans un sens opposé à l'expansion. Les cartographes se sont également livrés au loisir favori des cosmologistes. Puisqu'ils peuvent déduire de ce ballet galactique les masses qui en règlent la chorégraphie, ils peuvent ainsi peser l'Univers et mesurer sa densité moyenne. Plus le volume d'Univers choisi est grand et le nombre de galaxies élevé, plus la balance est fiable. Les chercheurs expriment la densité de l'Univers à partir d'une «valeur critique», fixée arbitrairement à 1. Au-dessus, l'Univers est promis à un big-crunch, s'effondrant sous sa masse. Au-dessous, il doit s'étendre et se diluer indéfiniment. Verdict de 2dF: la densité de l'Univers est «égale à 0,3», explique Chantal Balkowski, à Meudon. Mais la matière ordinaire ne semble constituer que 10 % de cette masse. Tout le reste, «c'est de la matière noire, dont nous ne savons toujours pas de quoi elle est faite, et c'est quand même le principal problème».

Libération :

http://www.liberation.com/quotidien/semaine/20010308jeuy.html

Nature : http://www.nature.com/nlink/v410/n6825/abs/410169a0_fs.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un nouvel oeil synthétique pour l'homme
Samedi, 17/03/2001 - 00:00

Alexander Korigodskiy et ses collègues russes de l'université Mendeleiev de chimie et de technologie sont les premiers à avoir développer une substance synthétique analogue au corps vitreux de l'oeil. Le corps vitreux naturel est une substance gélatineuse transparente non irriguée qui remplit la cavité de l'oeil. Son rôle est de laisser filtrer la lumière jusqu'à la rétine. Dans le cas de lésions graves de l'oeil, le corps vitreux s'échappe et entraîne une perte de la vue. Les ophtalmologistes n'ont d'autre choix que d'implanter un oeil artificiel, qui pour l'instant ne rend pas la vue au patient. En fait les chirurgiens injectent du silicone qui, après un certain temps, est rejeté car il perd sa forme. Ce problème est sur le point d'être résolu par les chimistes russes qui ont réussi à développer un hydrogel à haute élasticité qui contient 98% d'eau. Cette substance qui structure l'eau par un réseau de polymère a pour caractéristique de devenir incolore au contact de l'eau, d'être souple et d'être compatible avec les organismes vivants. Pour étudier l'évolution de ce composé dans le temps, ils ont implanté, pour une durée d'un an, des sphères d'hydrogel dans des yeux de lapins vivants. Un des avantages de cette substance est que l'opération ne nécessite qu'une petite incision. Les chercheurs ont ainsi montrer que l'hydrogel garde tous ces caractères : souplesse et transparence. Cette découverte peut permettre à terme de révolutionner le domaine de la chirurgie optique chez l'homme.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20010307.OBS2243.html?1031

Une trithérapie contre l'hépatite C
Samedi, 17/03/2001 - 00:00

Entre 500 000 et 600 000 Français sont touchés par le virus de l'hépatite C. Cette maladie est un des principaux problèmes de santé publique dans notre pays, mais passe encore souvent inaperçue, puisqu'une personne contaminée sur trois ne le sait pas et découvre l'infection avec l'apparition de complications graves au niveau du foie. Pourtant le dépistage de ce virus par simple prise de sang, recommandé par les pouvoirs publics pour tous les transfusés ou les toxicomanes, est parfaitement justifié puisque désormais un traitement existe, dont on sait qu'il peut guérir définitivement dans la moitié des cas. Les résultats à long terme des essais thérapeutiques ont permis de découvrir récemment que l'association de deux médicaments antiviraux, l'interféron alpha et la ribavirine pendant douze mois, entraînait une vraie guérison, sans rechute ultérieure, dans 40 à 50% des cas. Le taux de guérison varie selon le type de virus en cause. Il est de 60% pour les patients infectés avec un virus de génotype 2 et 3 et de 30% s'il s'agit du génotype 1. De nouvelles perspectives s'ouvrent cependant pour les personnes résistantes à la bithérapie dans sa forme actuelle. L'utilisation d'un interféron à action prolongée permettrait de faire passer le taux de guérison de 40 à 50%. Et de nouvelles molécules, comme l'interleukine 10, vont bientôt faire l'objet d'essais thérapeutiques. Actuellement, une des démarches les plus prometteuses est l'utilisation d'une trithérapie, ajoutant un autre antiviral, l'amantadine, aux deux précédemment utilisés. «L'intérêt de la trithérapie est de permettre d'une part d'augmenter la proportion de malades qui élimineront définitivement le virus, mais également de patients qui se stabiliseront, malgré la persistance du virus, soutient le professeur Christian Trépo (Hôtel-Dieu, Lyon). Ce type de traitement a fait la preuve de son immense intérêt contre le virus du sida et semble susceptible de réduire les complications pour celui de l'hépatite C.» L'évolution de la maladie est variable selon les individus. Entre 20 et 30 % des personnes infectées guérissent spontanément mais 70 % développent une infection chronique. Près de 60 % d'entre elles souffriront d'une hépatite chronique et 20 à 30 % de ces dernières seront atteintes d'une cirrhose dans un délai de 20 à 25 ans après le moment de la contamination. Enfin, entre 20 et 30% des personnes atteintes de cirrhose auront un cancer primitif du foie.

Figaro : http://www.lefigaro.fr/

Les puces à protéines permettent de créer les médicaments du futur
Samedi, 17/03/2001 - 00:00

Voici venue l'ère de la protéomique. Suite logique du séquençage du génome, cette nouvelle science cherche à étudier, de façon exhaustive, le "patrimoine protéinique" de l'homme. Après les puces à ADN, qui permettent d'identifier des séquences du génome, les chercheurs s'attellent maintenant à la mise au point de puces à protéines. Objectif premier : accélérer le développement de nouveaux médicaments. Dans cet esprit, la start-up Protiveris, fondée l'an dernier à Rockville, aux Etats-Unis, développe un nouveau type de capteur biologique capable de détecter aussi bien des protéines que des séquences d'acides nucléiques. Le capteur est une puce de silicium sur laquelle sont gravées des centaines de minuscules " poutres " ou " mèches " de 100 microns de diamètre, appelées " microcantilever ". A l'extrémité de chaque mèche, une protéine préalablement purifiée est fixée, puis la puce est exposée à une solution contenant un mélange de molécules à identifier. Si une protéine complémentaire est présente dans la solution, elle s'apparie à sa semblable sur la " poutre ", ce qui a pour conséquence d'augmenter la masse de cette dernière. Plus lourde, elle se " plie " et modifie sa position initiale. En envoyant sur la puce un faisceau lumineux avec un laser, les scientifiques observent la réflexion de la lumière pour chaque " poutre " ; celle ayant accroché une protéine réfléchissant le faisceau a une position distincte des " poutres " restées orphelines. Ils peuvent ainsi détecter la nature et la quantité de la protéine piégée. Comme pour les puces à ADN, cette technologie repose sur le principe d'appariement entre deux molécules. En effet, les protéines ont besoin de s'assembler avec d'autres molécules pour exercer leur fonction : un récepteur fixe et son hormone, un anticorps et son antigène, une enzyme et son substrat... Grâce à leur capteur, les ingénieurs de Protiveris espèrent développer de nouveaux médicaments en criblant une multitude de molécules expérimentales avec une puce chargée de protéines impliquées dans une pathologie. Encore au stade expérimental, leur capteur devrait, à terme, permettre aux scientifiques de réaliser jusqu'à 1 600 tests biologiques par puce. En France, le département de recherche fondamentale sur la matière condensée du CEA à Grenoble a pour projet de développer, en collaboration avec l'Institut d'optique d'Orsay et la société Genoptics - en cours de création à Orsay -, des techniques de détection d'interactions biologiques - ADN/ADN, ADN/protéine et protéine/protéine - sans avoir recours à la détection par fluorescence. Comme l'explique Thierry Livache, ingénieur au CEA, cette technique nécessite de marquer les molécules à identifier, ce qui peut avoir pour conséquence de déformer la protéine ou de bloquer son site de reconnaissance, où se fait l'accrochage. De plus, c'est une technique lourde et onéreuse. Selon lui, une détection optique ne nécessitant aucun marquage est donc plus appropriée aux puces à protéines. Mais pour Thierry Livache" il serait illusoire de penser qu'il sera possible de faire avec les protéines ce que l'onfait aujourd'hui avec l'ADN. Malgré ces obstacles techniques, le développement de ces nouveaux outils est indispensable pour étudierles protéines, analyser leurs fonctions et les interactions qui les caractérisent. Outre l'identification de nouveaux médicaments, les puces à protéines permettront d'améliorer le diagnostic, comme le pronostic, de certaines maladies, leur traitement médical personnalisé, mais aussi la détection de microbes dans l'eau ou d'organismes génétiquement modifiés (OGM) dans notre alimentation.

Le Monde : http://interactif.lemonde.fr/article/0,5611,2854--155687-0,FF.html

Vers un vaccin contre le cancer de l'utérus
Samedi, 17/03/2001 - 00:00

500.000 femmes par an dans le monde déclarent un cancer du col utérin. Les résultats d'un essai de vaccination contre le papillomavirus de type 16, un virus largement impliqué dans ces tumeurs, sont très encourageants. Testé chez 60 femmes, le vaccin a entraîné une production massive d'anticorps, ce qui laisse espérer une bonne protection contre un futur cancer. Menée par Douglas Lowy (National Institute of Health), cette étude vient d'être publiée dans le Journal of the National Cancer Institute. La prévenir du cancer du col de l'utérus constitue un objectif majeur en matière de santé publique. Il s'agit en effetd'une tumeur fréquente et grave qui tue chaque année 240.000 femmes, dont 190.000 dans les pays en voie de développement (et 2.000 en France). Ensuite, et surtout, parce que ce cancer peut être considéré comme une maladie sexuellement transmissible (MST). C'est le papillomavirus (HPV) qui est responsable de cette maladie. Transmis lors de relations sexuelles, ces virus provoquent la cancérisation des cellules du col de l'utérus. Les chercheurs américains sont parvenus à mettre au point le vaccin contre l'HPV 16, très impliqué dans ce cancer mais ils doivent à présent vérifier si l'immunité se maintient dans le temps, et surtout si, à terme, elle prévient les tumeurs. La réponse devrait être connue d'ici 5 ans et un premier vaccin devrait être commercialisé d'ici cinq à dix ans.

Brève rédigée par @RT Flash

Journal of the National Cancer Institute :

http://jnci.oupjournals.org/cgi/content/abstract/93/4/284?

L'héparine permettrait de limiter la diffusion de métastases
Samedi, 17/03/2001 - 00:00

L'héparine pourrait empêcher la formation des métastases. En injectant à des souris cet anticoagulant couramment utilisé aujourd'hui, les scientifiques de l'université de Californie, à San Diego, ont observé une réduction de la durée de vie des cellules cancéreuses. "Nos travaux montrent que l'effet antimétastatique de l'héparine n'est pas dû à son pouvoir anticoagulant, comme on le pensait, mais plutôt à sa capacité de bloquer les interactions entre les tumeurs et les plaquettes," explique Lubor Borsig, directeur de l'équipe de recherche. Lorsque les cellules cancéreuses se détachent de la tumeur initiale et entrent dans le sang, elles attirent les plaquettes, qui se fixent à leur surface et forment une sorte de carapace. Carapace qui les protège du système immunitaire de l'organisme. En inhibant l'agrégation des plaquettes, l'héparine laisserait donc les cellules cancéreuses sans protection.

Infoscience : http://www.infoscience.fr/breves/breves.php3?niv=1&Ref=1144

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Quand les trains léviteront
Samedi, 17/03/2001 - 00:00

Léviter à 2 cm au dessus du sol à la vitesse de 400 km/h devrait devenir la réalité du futur train reliant l'aéroport de Shangaï à son centre ville. Selon un article du New York Times la première ligne ferroviaire à lévitation magnétique devrait voir le jour à Shangaï. Elle est destinée à relier l'aéroport au centre de la ville distant d'une trentaine de kilomètres. Le train devrait littéralement voler à 2 cm au dessus du sol ! Cela serait rendu possible via l'électricité. Comment ? par la répulsion créée entre un supraconducteur magnétique dans le wagon et une spire au niveau des rails. Les entrepreneurs espèrent atteindre grâce à cette technologie des vitesses de 400 km/h.

Besok : http://www.besok.com/machine/actu/acth_bs_CF.cfm?id=5986

NYT : http://www.nytimes.com/2001/03/07/technology/07RAIL.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top