|
|
|
|
|
NUMERO 125 |
|
|
|
|
|
|
|
Edition du 15 Décembre 2000
|
|
|
|
|
Edito
La nouvelle économie doit avant tout ouvrir la voie de l'espérance
Dans deux semaines, nous allons quitter l'an 2000. Cette année aura fait évoluer de façon fondamentale l'image que nous nous faisons de l'avenir d'Internet et de la Nouvelle Economie. Il y a un an, il suffisait de prononcer le mot Internet pour que toutes les portes s'ouvrent devant vous et que les banquiers vous déploient de beaux tapis rouges si vous sous-entendiez simplement que vous pourriez avoir l'idée de créer une entreprise dans la Nouvelle Economie... Un an plus tard, tout a changé. Il suffit qu'une équipe de jeunes créateurs évoque Internet et la Nouvelle Economie dans le business-plan de leur projet pour que, parfois, on ne leur réponde même plus au téléphone quand ils cherchent à prendre contact avec des responsables de fonds qui pourraient les aider à constituer leur tour de table. Ce changement soudain et exagéré met en évidence le désarroi des investisseurs mais aussi des autres décideurs qui n'arrivent pas encore à imaginer ce que sera le modèle de cette nouvelle économie. Comme je l'écrivais en mai dernier (voir éditorial de la lettre 99 http://www.tregouet.org/lettre/index.html), ceux qui, hier encore, idolâtraient le veau d'or auraient tort de croire que cette économie du signal n'est que du vent. Dans ces six derniers mois, nombreuses sont les entreprises, auxquelles les augures promettaient le plus bel avenir il y a seulement un an, qui ont sombré dans un océan de défiance. Ce n'est certes pas l'enthousiasme ni même les compétences qui ont manqué à ces « jeunes pousses » mais bien des règles du jeu clairement énoncées. Beaucoup ont cru que la gratuité pouvait servir de modèle économique. C'est en s'appuyant sur la « préhistoire » d'Internet qu'ils s'étaient forgés cette certitude. Ils avaient oublié, mais n'est-ce pas tous ensemble que nous avions oublié, que dans son ère primitive, il y a moins de dix ans, la planète Internet n'était souvent peuplée que de chercheurs et d'étudiants pour lesquels il n'est pas dans leur coutume de se faire rémunérer les oeuvres de l'esprit qu'ils mettent à la disposition des autres. Nous entrons maintenant dans une ère nouvelle. Les grands groupes de télécommunications, d'informatique mais aussi les divers médias qui sont restés désemparés pendant quelques courtes années devant l'émergence de ce monde nouveau se sont ressaisis pendant cette année 2000 et ont mis en oeuvre, non sans risque, des stratégies offensives. Cela a été sensible, en Europe, avec l'engagement insensé des leaders de télécommunications pour acquérir le droit de déployer une technologie nouvelle de télécommunication mobile, l'UMTS, non encore techniquement maîtrisée et, surtout, sans certitude que les potentiels futurs utilisateurs se l'approprient . Cela a été sensible aux Etats-Unis et en Europe avec les paris risqués pris par AOL et Time Warner d'une part et Vivendi Universal - Canal + d'autre part parce qu'ils veulent faire se fondre dans ces nouvelles technologies des cultures fort dissemblables . Ce déplacement de géants dans un magasin de porcelaine n'a pas été sans provoquer de la casse. Beaucoup de jeunes entreprises qui, hier encore, étaient portées par l'espérance, voyant les vents se retourner, se sont vendues, parfois dans la précipitation, à de grands groupes qui, tels des ogres ne connaissant pas de limite à leur faim, les ont souvent dévorées sans ménagement. Cela induit un regroupement qui va profondément changer les règles du jeu. Il est à espérer que cette concentration des principaux outils dans le giron de grands groupes ne va pas les inciter à oublier les principes de liberté et de transparence qui ont suscité tant d'espoir lorsque les pionniers ont abordé les rivages de ce nouveau continent. Il est juste que les compétences, les connaissances et, plus encore, l'expertise soient rémunérées mais les gestionnaires de l'économie du réel qui, souvent, non sans ironie, se retrouvent aujourd'hui à la tête de ces grands groupes du signal ne doivent pas oublier que lorsqu'on transmet un savoir à un autre être humain, c'est avant tout une voie d'espérance qu'on ouvre. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La France compte un peu plus de 60 000 internautes surfant grâce à une connexion au câble. Comparé aux plus de 4 M d'abonnés français à Internet via un modem téléphonique, c'est peu : la technologie du câble, qui, en principe, est la plus aboutie pour véhiculer de forts débits numériques, n'a pas tenu ses promesses. Les problèmes techniques de tous ordres, une certaine rigidité commerciale de la part des câblo-opérateurs expliquent en partie cette lente progression de l'Internet rapide via le câble, dont les prémices remontent pourtant à trois ans dans plusieurs grandes villes. L'histoire récente des trois grands câblo-opérateurs français que sont Noos, Câble Wanadoo et AOL Numéricâble est émaillée de conflits, particulièrement avec les internautes câblés de la première heure. Chacun de ces opérateurs a face à lui depuis plusieurs mois des collectifs d'abonnés mécontents. Et, même si ces associations de consommateurs s'accordent à dire aujourd'hui que des avancées significatives ont été obtenues en terme de qualité de service, un climat de méfiance s'est installé entre les parties concernées. Devant la difficile progression de l'accès Internet haut débit par le câble, beaucoup d'observateurs se disent que l'essor de l'Internet rapide passera, dans les grandes villes du moins, par l'ADSL. Cette technologie offre des performances similaires au câble (débit théorique de 512 kilobits/s en flux entrant chez l'internaute et de 128 kilobits/s en flux sortant), mais surtout ne nécessite qu'une simple prise téléphonique et un filtre numérique, afin de séparer les communications téléphoniques normales des transmissions de données. La France compte pour le moment un peu moins de 15 000 abonnés à l'ADSL. Ce qui représente en soi une progression plus rapide que celle du câble si l'on considère que les premiers arrondissements de Paris n'ont été équipés en ADSL qu'au printemps 2000. En outre, l'ADSL n'est pour le moment guère avantagé par son prix largement supérieur à celui de l'Internet par le câble, compte tenu du coût d'accès élevé facturé par France Télécom aux autres fournisseurs d'accès pour leur permettre d'accéder à l'abonné final. Mais cette situation devrait toutefois changer au 1er janvier 2001, puisque cette date sonne le glas du monopole de France Télécom sur la dernière portion de réseau téléphonique avant l'abonné, appelée boucle locale. La déréglementation permettra à d'autres opérateurs d'installer leurs propres centraux téléphoniques à des coûts économiquement viables et de faire jouer la concurrence. Si, pour le moment, la plupart des fournisseurs d'accès comme Club-Internet ou Infonie s'engouffrent tout doucement dans la brèche, de tous jeunes opérateurs comme le français Mangoosta n'ont pas hésité, avant même 2001, à se lancer dans la guerre des prix. Mangoosta propose, par exemple, des accès à l'ADSL inférieurs à ceux de Netissimo (l'offre ADSL de France Télécom), avec un abonnement aux particuliers de l'ordre de 330 francs/mois, incluant l'abonnement, la connexion et la location du modem. La concurrence sur les prix à laquelle vont se livrer dans les mois qui viennent les différents fournisseurs d'accès Internet haut débit redonne espoir aux acteurs du marché en France. Certains prévoient que d'ici 2003, 30 % de l'Internet en France passera par l'ADSL. D'autres tablent sur un marché de 6 millions de lignes ADSL dans l'Hexagone d'ici à cinq ans. Le dernier mot revient toutefois à Fabrice Sergent, le patron de Club-Internet, qui, lui, envisage carrément plus d'utilisateurs de l'Internet haut débit que bas débit dans moins de quatre ans. Figaro : http://www.lefigaro.fr/
|
|
|
|
|
|
|
|
Le California Institute for Telecommunications and Information Technologies, dirigé par Larry Marr, le célèbre créateur du premier logiciel de navigation sur le Web, Mosaic, a reçu une subvention de 300 millions de dollars de l'état de Californie pour "étendre la portée du réseau dans le monde physique". Avec cette subvention qui couvre les 4 prochaines années, l'institut va ouvrir la voie au réseau du futur : un Internet se fondant dans le monde physique. L'Institut donne l'exemple des ponts et autoroutes qui, après une catastrophe naturelle, pourraient faire parvenir aux autorités compétentes des rapports électroniques listant les dommages encourus, grâce notamment à des capteurs placés dans les points "sensibles" des infrastructures. Des senseurs introduits dans l'asphalte des routes pourraient fournir des données en temps réel sur la densité et la vitesse du trafic. Mais les objets inanimés ne seront pas les seuls à pouvoir communiquer : nos corps pourront eux aussi être mis en réseau. Il est déjà possible d'imaginer un système qui permettrait de consulter les battements cardiaques de dizaines de milliers de personnes âgées. Ce projet ambitieux revet un double aspect, il s'agit d'une part de stimuler l'économie de l'information pendant les 20 prochaines années et, d'autre part, d'améliorer la qualité de vie des habitants grâce à la télésurveillance médicale individualisée. Brève rédigée par @RT Flash Institut de Californie : http://www.calit2.net/news.html#cnr
|
|
|
|
|
|
|
|
En matière d'enquête sur les crimes de sang, les policiers ne disposent pas d'un système de détection informatique des affaires qui peuvent avoir un lien entre elles. Chaque service d'enquête judiciaire traite ses propres dossiers. Exemple : les circonstances d'un meurtre commis à Perpignan, et dont s'occupent les policiers du service régional de police judiciaire ou les gendarmes locaux, ne seront pas forcément connues à Paris, où des faits de même type ont pourtant été enregistrés. A ce jour, les enquêteurs doivent se contenter d'un télégramme en onze points succincts qui résume les constatations faites par leurs collègues policiers ou par les gendarmes. Ce document sommaire, qui n'est pas systématiquement communiqué pour tous les homicides, est souvent insuffisant. Il ne fournit en tout cas que très rarement des éléments assez précis pour rapprocher deux crimes de sang susceptibles d'avoir été commis par le même auteur. Baptisé du nom de Chardon (comportements homicides : analyse et recherche sur les données opérationnelles nationales), le projet d'un système de traitement informatisé a été élaboré par la brigade criminelle de la préfecture de police de Paris. Il s'inspire, dans ses grandes lignes, du fichier américain Violent Criminal Apprehension Program (ViCAP), mis en place par le Federal Bureau of Investigation (FBI) pour favoriser la recherche et l'identification des tueurs en série. Le projet français ne s'arrête cependant pas à la seule traque de ce genre particulier de criminel. Il vise également la résolution éventuelle des « crimes sans histoire », où n'apparaissent d'emblée ni mobile ni piste évidente. Il repose sur un questionnaire détaillé que les policiers ou les gendarmes devraient remplir dès qu'ils sont confrontés à un homicide, à la découverte d'un cadavre non identifié ou à une disparition d'une personne dont les circonstances indiquent une forte présomption de meurtre. Le formulaire-type comprend deux cent dix-huit questions. Elles concernent aussi bien des données relatives à la victime que le mode opératoire de l'homicide et des éléments sur l'agresseur. Chaque aspect fait l'objet d'une série de questions précises visant à collecter le plus grand nombre d'informations utiles à de futurs recoupements. Si l'on prend l'exemple du chapitre consacré au mode opératoire, il comprend au total quatre-vingt-une questions, qui passent au crible successivement la situation de la victime au moment de sa découverte, les causes de la mort et le scénario apparent de l'homicide. Où la personne agressée a-t-elle été vue vivante pour la dernière fois ? Par quel moyen l'auteur est-il entré en contact avec elle ? Dans quel endroit le corps a-t-il été retrouvé ? Ou encore y a-t-il des éléments qui laissent penser à un rituel qu'aurait suivi le meurtrier ? Les données ainsi collectées doivent pouvoir être utilisées de plusieurs manières. Le logiciel mis au point pour leur traitement aura pour intérêt de permettre de multiples entrées. Un enquêteur pourrait par exemple opter pour une recherche thématique, ne retenant que les questions relatives au mode opératoire de l'homicide. La mise en oeuvre de Chardon dépend désormais de son financement. Le principe a en effet été reconnu comme « intéressant » par la direction centrale de la police judiciaire (DCPJ), qui en aurait l'entière maîtrise dès son entrée en service. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2079-124719-QUO,00.html
|
|
|
|
|
|
|
|
Dans une entreprise, l'accès à certains locaux doit être limité à quelques personnes dûment habilitées à y pénétrer. La gestion des clés s'avère souvent lourde et coûteuse. Avec le système Keeper proposé par Dubois Industries, les trousseaux de clés disparaissent. L'iButton, une puce électronique de Dallas Semiconductor à peine plus grosse qu'une pile de montre), montée sur un support plastique, fait office de clé. La même clé électronique permet d'ouvrir une ou plusieurs portes. Le lecteur de la puce électronique est intégré à la garniture de la poignée de porte qui offre une autonomie en énergie d'au moins cinq ans (pour 100 ouvertures par jour !). Le porteur de la clé place la puce électronique au contact de la tête de lecture intégrée. La porte ne s'ouvre que si le numéro d'identification de la clé fait partie de la liste de clés autorisées. En revanche, la sortie du local protégé reste libre garantissant ainsi la sécurité des occupants. La programmation des serrures est réalisée à l'aide d'une clé porteuse. La liste des clés autorisant l'ouverture d'une serrure est préparée avec un logiciel dédié puis copié dans une clé mémoire. Cette liste est ensuite déchargée dans la mémoire de la serrure en plaçant tout simplement cette clé mémoire au contact du lecteur intégré au carter. 80 usagers (par serrure) peuvent être mémorisés. Pour les sites réduits qui ne souhaitent pas utiliser un ordinateur, la programmation peut s'effectuer clé à clé. Autre atout de ce système : Keeper mémorise les 112 dernières opérations réalisées sur la porte (demandes d'accès acceptées ou refusées, identité, date, heure, etc.) et restitue à la demande l'historique des événements. Industries&Techniques : http://www.industries-techniques.com/site/quotidien/
|
|
|
|
|
|
|
|
Un formulaire de la Sécu, ça se remplit avec soin ! D'autant plus qu'aujourd'hui, c'est un ordinateur qui est chargé de la lecture. Un exploit que ces machines parviennent à réaliser grâce à un « réseau de neurones artificiels ». Explication : les ordinateurs classiques, en déroulant bêtement leurs algorithmes, suites d'instructions logiques, sont trop obtus pour raisonner sur le flou artistique de l'écriture manuelle. Si on lui demande de reconnaître un 8 écrit à la main, le pauvre ordinateur classique ne comprendra même pas la question. Car il existe autant de façons d'écrire le chiffre 8 qu'il y a de personnes sur notre planète. Or il n'est pas question d'apprendre à un ordinateur la façon de faire les 8 de plusieurs milliards d'individus. C'est là qu'interviennent les fameux réseaux neuronaux. Eux vont déduire la signification d'une forme nouvelle en la comparant à une forme qu'ils connaissent déjà et qui lui ressemble. Ce travail est réalisé par de petits sous-programmes, que les informaticiens ont appelés « neurones », car, comme les neurones du cerveau, ils sont reliés les uns aux autres et communiquent entre eux en s'échangeant une grande quantité d'informations. Grosso modo, ils procèdent, pas à pas, de la façon suivante : « J'ai une forme non connue ! », « Cette forme ressemble à quelque chose que j'ai déjà vu ! », « On dirait un 8 ou un B ! », « Il y a 90 % de chances que ce soit un 8 et 10 % que ce soit un B ! », « Je pense alors qu'il s'agit d'un 8 ! ». C'est donc après cette rapide « concertation » qu'une solution est proposée. Généralement, ces « neurones virtuels » s'en sortent plutôt bien. Mais quelquefois cela peut capoter. Par exemple, entre un 0 (zéro) et la lettre O, tout deux écrits à la main, ils ne sauront choisir. Sauf si on leur a appris qu'il y a plus de chances de trouver un chiffre dans un ensemble de chiffres, et une lettre au milieu d'autres lettres. « S'il y a un doute entre plusieurs solutions, les réseaux neuronaux regardent ce qu'il y a autour pour trouver d'autres indices. Ils prennent en compte le contexte », commente Jean-Marc Pédréno, directeur de recherche et développement chez Itesoft, un des leaders européens sur le marché des logiciels de reconnaissance de caractères. Mieux encore, ayant eu beaucoup de 8 différents à décrypter lors de l'utilisation du programme, la machine se perfectionne. Avec le temps, elle évolue. « Elle s'ouvre l'esprit », assure Jean-Marc Pédréno. Parmi les clients d'Itesoft, outre la Sécu, beaucoup d'entreprises ou d'institutions qui reçoivent quotidiennement des milliers de commandes, de formulaires et de documents divers dont le traitement était laborieux. Les banques aussi utilisent ces réseaux neuronaux pour la gestion des chèques. « Dans cette application, le plus dur fut la reconnaissance de la somme en lettres, car elle est composée de mots, explique Jean-Marc Pédréno. Heureusement, il ne faut guère plus d'une quarantaine de mots pour écrire une somme. » Si performants qu'ils soient, les réseaux de neurones des informaticiens sont donc encore loin de lire une lettre manuscrite comme sait le faire un élève en fin de CP. Avant d'y parvenir, ils devront apprendre à jongler avec les quelques milliers de mots du dictionnaire. Le Point : http://www.lepoint.fr/data/PNT1473/7304601P.html
|
|
|
|
|
|
|
|
Thomson Multimedia a annoncé le lancement commercial d'une télévision interactive offrant l'accès internet, s'engageant ainsi dans la voie des services afin d'avoir plus de revenus récurrents. Les revenus de connectivité, liés aux communications téléphoniques des téléspectateurs, seront modestes dans un premier temps mais, à plus long terme, le haut débit permettra de commercialiser des services à plus forte valeur ajoutée. Les dirigeants de TMM ont toutefois expliqué que l'évolution serait perceptible dans un délai de deux à trois ans seulement. Développé par la filiale Thomson TAK détenue à 70% par le groupe français et à 30% par Microsoft, l'appareil sera vendu entre 5.490 et 14.990 FF à partir du mois de mars. Outre le courrier électronique, il offre des services interactifs spécifiques, concernant par exemple les programmes de télévision, et l'accès au Web. "Beaucoup de services ont été reformatés pour la télévision", a souligné Jim Meyer, vice-président exécutif du groupe Thomson Multimedia pour les produits et services, lors d'une conférence de presse. Il a fait état de partenariats avec de nombreux éditeurs de contenus, qui disposent ainsi une nouvelle vitrine. Jean-Michel Gillibert, vice-président chargé du marketing, a affirmé que Thomson TAK n'avait "rien à avoir" avec la Netbox de Netgem, qui offre également un accès internet. "Nous offrons une interactivité avec les programmes. Les services ont été repensés pour la télévision. Ce n'est pas une boîte qui apporte l'internet sur la télévision", a-t-il précisé. La télévision interactive de TMM suppose toutefois des accords avec les opérateurs de télévision. Ceux-ci doivent transporter les services interactifs associés à leurs programmes par voie hertzienne, le téléspectateur utilisant sa ligne téléphonique traditionnelle pour interagir. Par ailleurs, si l'appareil peut fonctionner avec des décodeurs numériques des bouquets satellitaires et des câblo-opérateurs, il n'est pas compatible pour le moment avec les modems ADSL (Asymmetric Digital Subscriber Line), qui permet l'internet à haut débit. Or, de l'avis de nombreux spécialistes, l'intérêt de la télévision interactive réside dans la possibilité d'échanger des fichiers vidéo, ce qui suppose un très haut débit ainsi qu'un disque dur pour pouvoir stocker des programmes. Jean-Michel Gillibert a reconnu qu'il s'agissait là d'une "évolution naturelle" mais a ajouté que le haut débit sur cette télévision interactive était prévu pour "une génération ultérieure", c'est- à-dire pas avant 2002 voire 2003. "Pour l'instant, ce que nous proposons c'est une télévision qui permet une utilisation plus plaisante. Il ne s'agit pas de vendre un ordinateur sur la télévision", a-t-il expliqué. Enfin, contrairement à la Netbox de Netgem qui peut se brancher sur n'importe quel appareil récent, l'innovation de Thomson Multimedia implique que l'on achète un nouveau poste. Jean-Michel Gillibert s'est montré confiant sur ce point en expliquant que 28 millions de téléviseurs étaient vendus chaque année en Europe, dont 4,3 millions en France. Il a fait état d'un renouvellement tous les six ans en moyenne. Il a préféré insister sur le fait que les Français passaient en moyenne, chaque jour, trois heures et quinze minutes devant leur poste. Pour Jacques Thibon, P-DG de Thomson TAK, les télespectateurs vont utiliser fréquemment mais pour de courtes sessions les services internet via leur poste de télévision. Reuters : http://fr.news.yahoo.com/001205/2/rltn.html
|
|
|
|
|
|
|
|
Canon a mis au point un prototype d'appareil photo numérique intégrant un système d'impression couleur autonome. Le Micro Bubble Jet Camera utilise, comme son nom l'indique, le même procédé d'impression couleur des imprimantes Canon basé sur la projection de micro bulles d'encre. Toute la difficulté était de miniaturiser la tête d'impression, afin que le module encre/papier soit intégrable au boîtier de l'appareil photo numérique. Le prototype de Canon est ainsi capable d'imprimer 20 images en qualité photo sur un papier au format d'une carte de crédit. L'appareil embarque la réserve d'encre et les 20 pages dans un module amovible placé au dos de l'appareil. L'image est de toute façon stockée sur une carte d'extension mémoire de type CompactFlash et peut également être transférée au PC via l'interface USB. Dernière curiosité, une prise de son peut être associée à un cliché, sous la forme d'un code barre imprimé sur un côté de l'image. Au moyen d'un petit scanner spécial, la lecture optique de ce code permet de reproduire l'enregistrement sonore. Canon travaille depuis plusieurs années sur un système de “Polaroïd numérique” dont ce prototype est la première réalisation. Aucune commercialisation n'est prévue, Canon à juste précisé à ZDNet que l'appareil sortira « peut-être » au Japon l'année prochaine et d'ici à trois ans en France. ZDnet : http://www.zdnet.fr/cgi-bin/a_actu.pl?File_ini=a_actu.zd&ID=17197
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Un groupe de recherche franco-japonais, dont le représentant japonais est le Professeur Iijima (Universite de Meijo et directeur de recherche a NEC Industries) a découvert un nanotube de carbone monocouche dont le diamètre est de 0,4 nanometre. Le tube ainsi élaboré est le plus fin des structures stables élaborées a ce jour. Ce tube présente en outre des propriétés métalliques. Le nanotube a été fabrique selon la technique de l'arc électrique produit entre deux électrodes de graphite, sous atmosphère d'hydrogène. Selon les couches, le diamètre du tube variait de 10 nanometres pour la couche la plus externe, a 0,4 nm pour la couche interne. Une explication probable du résultat est que les extrémités du tube synthétisé sont ouvertes du fait de la réaction avec l'hydrogène, permettant ainsi une pénétration progressive du carbone a l'intérieur du tube. La couche interne a pu ainsi être réduite a un diamètre de 0,4 nm. Le nanotube produit, résultant d'un enroulement d'une feuille de graphite sur elle-même, est chimiquement stable, et le groupe de recherche espère que ses propriétés mécaniques en seront d'autant meilleures. Cette recherche entre dans le cadre du "projet de recherches sur les substances en nanotubes" (programme bilatéral de la JST), mené conjointement par l'équipe du Professeur Iijima et le Laboratoire Aime Cotton. ST Japon : http://www.adit.fr
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
L'Institut Fraunhofer pour les circuits microélectroniques, ou IMS, vient de présenter une première technologique : des puces CMOS capables d'opérer jusqu'à 250°C, soit considérablement plus haut que les 125°C au-delà desquels le CMOS conventionnel rend l'âme. Et la limite pourrait atteindre 300°C. Le Fraunhofer réussit ce tour de force en modifiant l'organisation physique de la puce. Le procédé, Simox (séparation par implantation d'oxygène), consiste essentiellement à optimiser la séparation entre le substrat et le circuit semiconducteur proprement dit, grâce à des couches d'oxyde conçues spécialement pour servir d'isolants thermiques. L'IMS combine ces couches, réalisées en quartz, avec un “emballage” du circuit dans une enveloppe de tungstène. Les chercheurs ont réalisé des prototypes d'EEPROM utilisant la technologie. Le résultat est un CMOS probablement un peu coûteux mais parfaitement compatible avec le CMOS conventionnel. L'objectif n'est pas ici de pousser l'électronique CMOS dans ses retranchements en terme de performances électroniques, mais de lui ouvrir la porte de multiples applications, industrielles en particulier, où les conditions d'opération lui interdisait jusqu'à présent de jouer un rôle important. Les EEPROM expérimentales ont par exemple été utilisées sur un site de forage géologique et le Fraunhofer rêve désormais de les décliner dans de nombreuses applications “chaudes”, des moteurs aux systèmes de freinage, en passant par les cuisinières domestiques.... Usine nouvelle : http://www.usinenouvelle.com
|
|
|
|
|
|
|
|
Intel, le premier fabricant mondial de microprocesseurs a annoncé le 11 décembre une puce, dix fois plus puissante que celles aujourd'hui sur le marché, et qui devrait équiper des ordinateurs ou divers équipements électroniques dans environ cinq ans. Des responsables d'Intel ont expliqué que ce microprocesseur aura une puissance de l'ordre de 10 gigahertz, alors que les microprocesseurs ont actuellement une puissance maximum de 1,5 gigahertz. Selon ces responsables, le nouveau microprocesseur intègre des transistors d'une taille proche de l'atome, et dont la puissance pourrait s'approcher de la vitesse de réaction du système nerveux humain, a indiqué Manny Vara, porte-parole du groupe Intel à Santa Clara (Californie). Cette nouvelle puce serait composée d'une grille de transistors d'une épaisseur de seulement 0,03 micron ( 30 nanomètres) contre 0,13 micron actuellement, ce qui permettrait de multiplier leur nombre par dix dans les processeurs. "Les multiples choses que les ordinateurs accomplissent à l'heure actuelle dans les films de science fiction, vous le verrez en réalité", a expliqué Manny Vara. Le frein à la création de microprocesseurs puissants est en fait le contrôle de la chaleur dégagée. Plus la puce est puissante et plus la chaleur est élevée avec pour conséquence la dégradation des matériels, y compris la puce dans son ensemble. Selon Manny Vara, la nouvelle composition chimique des transistors de la taille de l'atome, que le groupe garde secrètement, permet aux microprocesseurs de tourner sans dégager de chaleur excessive. Le nouveau procédé d'Intel permettra la fabrication d'ordinateurs à 1.500 dollars capables de réaliser 10 milliards d'opérations par seconde (10 gigahertz), soit des performances équivalentes à celles des calculateurs professionnels vendus plusieurs millions de dollars. Brève rédigée par @RT Flash Intel : http://www.intel.fr/francais/index.htm
|
|
|
|
|
|
|
|
Les espoirs des mémoires magnétiques viennent de faire un bond avec une alliance au sommet entre IBM et Infineon. Les deux géants de l'électronique ont décidé de combiner leurs ressources considérables (en démarrant avec 80 chercheurs et ingénieurs sur le projet) avec l'espoir de commercialiser des MRAM en 2004. Comme l'autre grande technologie mémoire d'avenir, la FRAM ou mémoire ferroélectri-que, la mémoire magnétorésistive promet de mettre fin à la segmentation des technologies mémoires. En effet, les équipement électroniques et informatiques actuels doivent jongler avec des mémoires optimisées pour leur prix (les DRAM), leur vitesse (les SRAM) ou leur rémanence (les mémoires-flash), aucune n'étant capable de faire le travail des autres. Sans même entrer dans la litanie des variations techniques comme les DRAM ou SGRAM... Les MRAM comme les FRAM devraient, elles, pouvoir accomplir cette combinaison de tous les facteurs importants. Dans l'alliance IBM-Infineon, Infineon apporte son expérience en matière de mémoires haute densité, et IBM, dont les laboratoires accueilleront l'essentiel du développement, apporte sa maîtrise des jonctions tunnel magnétiques (la clé des MRAM) et une technologie maison (chaque cellule d'une MRAM combine une jonction tunnel et un transistor). Une mémoire magnétique ne perd pas ses données lorsqu'elle n'est plus alimentée. Ainsi, quand on allumera l'ordinateur, il ne faudra plus attendre que les données "montent" en mémoire avant de commencer à travailler : l'ordinateur s'allumera instantanément, exactement tel qu'il était quand on l'a éteint. Usine Nouvelle : http://www.usinenouvelle.com/
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Trois nouvelles planètes extra-solaires ont été découvertes il y a quatre mois par une équipe d'astronomes américains, australiens et britanniques, a indiqué l'un de ses membres, Paul Butler, de l'Institut Carnegie de Washington. Cette découverte est intervenue alors que huit chercheurs observaient des mouvements d'astres en dehors du système solaire, ou exoplanètes. Les trois planètes évoluent à une distance d'environ 150 années-lumière de la Terre. La plus petite des trois est du type "hot Jupiter", ressemblant à la planète Jupiter, la plus grande du système solaire, avec des périodes orbitales allant de 3 à 5 jours. Sa masse équivaut à 84% celle de Jupiter. "Ces types de planète sont 20 fois plus proches de leur soleil que la Terre ne l'est du sien. Leur température est donc très élevée, environ 2.000 degrés celsius", a précisé l'astronome. La planète moyenne représente 1,26 fois la masse de Jupiter et pourrait contenir de l'eau à l'état liquide. Il lui faut 426 jours "terrestres" pour parcourir son orbite autour de son soleil, identifié par le vocable "epsilon Reticulum". Quant à la plus grande, elle atteint 1,86 fois la masse gazeuse de Jupiter, met 743 jours à tourner autour de son soleil, "mu Ara". Ces trois planètes ont été découvertes grâce à un télescope anglo-australien de 3,9 mètres, près de Coonabarabran, en Australie, ainsi qu'à partir de l'observatoire de Lick, en Californie, et du plus grand télescope au monde (10 mètres), Keck à Hawaï. Quarante six autres planètes extra-solaires ont été découvertes depuis 1995. Aucune vie ne semble possible sur ces astres. Brève rédigée par @RT Flash BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_1065000/1065910.stm
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
L'échec de la conférence de La Haye sur le climat était prévisible. Non seulement parce que les Américains refusaient de diminuer leurs émissions de gaz polluants. Mais aussi parce que l'Europe et les Etats-Unis n'étaient pas d'accord sur l'importance des forêts dans la régulation des gaz à effet de serre. Or, pour les scientifiques, ce n'est pas tant le rôle des arbres qui pose un problème que celui des océans. Quand on saura comment ces 1 320 millions de kilomètres cubes d'eau salée réagissent aux variations de température de l'atmosphère, on aura la clef du changement climatique. Si les politiques en avaient le courage, ils auraient, depuis longtemps, augmenté les moyens de comprendre le fonctionnement de ce formidable moteur thermique, qui couvre 70% de la surface de la Terre. En effet, le principal danger, pour la planète, vient de la mer. Certes, la fonte de calottes glaciaires provoquerait une montée du niveau des océans. Mais il y a pis: le réchauffement pourrait induire une modification, peut-être irréversible, des grands courants océaniques. A commencer par le Gulf Stream, qui baigne les rivages de l'Europe. Si notre continent bénéficie d'un climat aussi clément jusqu'aux hautes latitudes, c'est grâce à cette branche de l'immense fleuve invisible - baptisée «circulation thermohaline» - qui transporte le froid et le chaud d'un bout à l'autre du globe. Après avoir accumulé de la chaleur sous les tropiques, le Gulf Stream la restitue entre la Scandinavie et la péninsule Ibérique, au moment de plonger vers les grands fonds atlantiques. Plusieurs équipes d'experts ont montré comment, si les humains émettaient trop de gaz à effet de serre et si les océans en étaient saturés, le Gulf Stream - et probablement l'ensemble de la circulation océanique - pourrait ralentir, ou même cesser sa ronde bienfaitrice. La France connaîtrait alors le climat du nord du Québec. Une catastrophe. Selon Jean-Claude Duplessy, directeur de recherche au CNRS, cette perturbation pourrait avoir déjà commencé. Pour le vérifier, il faudrait multiplier les observations sur la température des eaux, leur salinité, leurs courants et leur richesse biologique. Seulement, examiner tous les paramètres qui caractérisent les océans est bien plus compliqué que d'accumuler des données sur les variations de l'atmosphère. Dans un livre essentiel, La Machine océan (Flammarion), Jean-François Minster, patron de l'Institut français de recherche pour l'exploitation de la mer (Ifremer), explique comment l'océanographie est passée du domaine des naturalistes à celui des physiciens et des chimistes. Qui, à leur tour, démontrent comment le transport des eaux de surface, riches en gaz carbonique, vers les régions profondes, où ce gaz est stocké, empêche pour l'instant le réchauffement d'être aussi rapide que les calculs l'avaient prévu. Ce mystère du stockage des gaz dans l'eau est crucial. Il faudrait mettre en oeuvre une panoplie de moyens, satellites océanographiques, bouées, modélisations mathématiques, pour l'éclaircir. En 1992, Français et Américains lancent le satellite Topex-Poseidon, pour mesurer les températures, les vents et les modifications les plus infimes de la surface des océans. De quoi décoder le fonctionnement de phénomènes jusqu'alors incompréhensibles, comme El Niño, ce mouvement qui entraîne, tous les cinq à sept ans, une masse d'eau chaude installée au milieu du Pacifique depuis les abords de l'Indonésie jusqu'aux rivages américains. Les caprices d'El Niño annihilent les moussons bienfaitrices en Asie, provoquent des ouragans et des inondations en Amérique du Sud, causent des milliers de morts et des millions de dollars de dégâts. On a récemment mis en évidence un phénomène de même nature dans l'Atlantique Nord. C'est dans cet extraordinaire système thermodynamique que constituent les océans que se trouve les clés de ces changements de climat. Express : http://www.lexpress.fr/Express/Info/Sciences/Dossier/climat/dossier.asp?nom=mers...
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Pour la première fois au monde, un pancréas artificiel vient d'être implanté chez un diabétique ! L'intervention s'est déroulée voici un mois au CHU de Montpellier, sous la direction des professeurs Eric Renard et Jacques Bringer. Ce pancréas artificiel est révolutionnaire. Pour la première fois, la pompe implantée délivre l'insuline en fonction du taux de glucose sanguin. Un micro-détecteur a pu être introduit dans une veine et, de là, il reste connecté en permanence à la pompe. Celle-ci délivre alors exactement la quantité d'insuline dont le malade a besoin, au lieu comme par le passé d'obéir aveuglément à un programme préétabli. Ajoutons à cela que la pompe a une durée de vie de dix ans et, même s'il reste nécessaire de faire le plein d'insuline tous les trois mois, la qualité de vie des patients s'en trouve littéralement bouleversée. Fini les piqûres quotidiennes - ou pluri-quotidiennes ! - ainsi que la lourdeur des programmes préétablis. Pour des milliers de diabétiques, l'opération de Montpellier représente vraiment l'espoir d'une vie meilleure. Pour l'heure, ils ne seront que neuf à bénéficier de ce pancréas artificiel d'ici à 2001. Enfin, c'est toujours un début... HealhtandAge.com : http://www.healthandage.com/newsletter/npf.htm
|
|
|
|
|
|
|
|
La délivrance, par le biais de ladeno-associated virus, du facteur de croissance VEGF chez des souris atteintes par une maladie coronarienne a déclenché la croissance de vaisseaux sanguins dans le tissu cardiaque abîmé. Les résultats de cette étude de chercheurs du Howard Hughs Medical Institute sont parus dans Proceedings of the National Academy of Science. Le VEGF (vascular endothelial growth factor) induit la croissance des vaisseaux sanguins. Les chercheurs pensent qu'il peut être utilisé en thérapie pour induire l'angiogénèse dans le muscle endommagé par un manque d'oxygène, comme c'est le cas pour la maladie coronarienne. Augmenter le flux sanguin et donc la capacité en oxygène disponible dans le muscle pourrait permettre un rétablissement de ces cellules. Lors d'études précédentes, l'injection de la protéine VEGF dans le muscle cardiaque souffrant a entraîné une réponse angiogénique passagère. L'injection du gène du VEGF via un plasmide a causé le développement d'angiomes. L'insertion du gène VEGF dans un adenovirus a déclenché une réaction immunologique dans les cellules cardiaques, entraînant une inflammation, causant à sont tour une arythmie. Les auteurs ont utilisé l'adeno-associated virus (AAV) comme vecteur afin de transporter la forme humaine du gène VEGF dans le muscle cardiaque des souris. Le vecteur a été injecté en plusieurs endroits du muscle endommagé et dans une région saine du coeur. L'étude montre que la protéine est exprimée dans les tissus sain et endommagé du coeur. Mais le développement de nouveaux vaisseaux sanguins médiés par le VEGF ne se produit qu'au niveau du tissu endommagé. De plus, le vecteur AAV ne cause pas une réaction inflammatoire ou le développement de structure de type angiome. « Ces résultats suggèrent que le vecteur viral adéno-associé peut être un mode idéal de livraison du gène VEGF dans le muscle cardiaque », note le Dr H. Su, co-auteur de cette étude. Cette étude démontre que le vecteur AAV peut médier efficacement le transfert et adéquatement l'expression du gène VEGF. De plus, ce mode de délivrance du gène induit une angiogénèse dans le tissu cardiaque malade. L'utilisation de plasmides nus ou d'adénovirus causent, apparemment, une expression excessive du VEGF. Le fait que la formation de vaisseaux sanguins n'a lieu qu'au niveau du tissu endommagé peut s'expliquer par une régulation, par le taux d'oxygène, de l'expression du gène VGEF et de son récepteur. Caducée : http://www.caducee.net/breves/Default.asp
|
|
|
|
|
|
|
|
Etablir la ''carte d'identité'' de chaque tumeur cancéreuse et développer de nouveaux médicaments, tel est l'espoir que caressent de nombreux chercheurs qui espérent, à terme, proposer à chaque patient un traitement ''sur mesure'', tenant compte d'un grand nombre de paramètres. Un contrat de partenariat de recherche a été signé mardi entre l'Institut Curie, à Paris, et le groupe pharmaceutique AstraZenaca. Il devrait notamment permettre d'établir la ''carte d'identité'' des tumeurs du sein et de celles de la vessie, et d'améliorer leur diagnostic et leur traitement. D'un montant de neuf millions de ff, ce contrat de trois ans concerne l'équipe ''Morphogenèse cellulaire et progression tumorale'', conduite par Jean-Paul Thiery, biologiste cellulaire (CNRS/Institut Curie), en collaboration avec l'hôpital public. En France, chaque année, 150.000 personnes meurent d'un cancer. ''Les traitements ne sont pas efficaces, parce que les cellules cancéreuses deviennent résistantes, notamment à la chimiothérapie. Elles y résistent mieux que les cellules normales'', a expliqué à l'Associated Press Jean-Paul Thiery. Les chercheurs n'ont pas les moyens aujourd'hui de le savoir avant d'avoir traité les patients. Or ces traitements sont lourds, voire dévastateurs. D'où l'importance de trouver des méthodes d'analyse des tumeurs plus affinées. Tout comme la cellule normale, la cellule cancéreuse possède du matériel génétique. Ce matériel peut être identifié. Dès 2001, la connaissance du génome humain sera probablement assez avancée pour avoir une bonne estimation du nombre réel de gènes constituant le patrimoine génétique. Les chercheurs pourront disposer, à court terme, de ''puces à ADN'' permettant un analyse simultanée de 10.000 à 30.000 gènes. ''Nous pourrons ainsi repérer les gènes tumoraux de mauvais pronostic, ou ceux qui provoquent une résistance aux différents traitements'', souligne Jean-Paul Thiery. Il est prévu, dans un délai de trois à cinq ans, d'établir un profil particulier génétique de chaque type de tumeur du sein. ''Certaines de ces tumeurs tuent en deux ans, d'autres évoluent en quinze ans ou guérissent'', rappelle Jean-Paul Thiery, qui collabore déjà avec le service d'urologie de l'hôpital Henri Mondor à Créteil, pour analyser de façon comparative les tumeurs de la vessie superficielles et invasives. Pour permettre aux industriels de la pharmacie de mettre au point de nouvelles molécules efficaces, les chercheurs ont aussi pour objectif d'''identifier de nouvelles cibles tumorales'', notamment des enzymes impliquées dans les processus cancéreux. AP : http://fr.news.yahoo.com/001205/5/rmu0.html
|
|
|
|
|
|
|
|
La détection d'une glycoprotéine connue des médecins sous le nom de Ep-CAM pourrait aider les cancérologues à prédire les chances de survie de leurs malades atteints de tumeurs mammaires ou colorectales, selon une lettre à paraître samedi dans la revue médicale britannique The Lancet. Cette glycoprotéine Ep-CAM, qui est produite en excès, pourrait jouer un rôle dans l'apparition des métastases, des tumeurs qui surviennent dans l'organisme, hors du site originel du cancer, et qui sont souvent des facteurs de mauvais pronostic. Présente dans chaque cellule de l'organisme, cette glycoprotéine sert à assurer la transmisson des messages d'une cellule à l'autre. Les chercheurs de l'équipe du Pr Gunther Gastl, de l'hôpital universitaire d'Innsbruck (Autriche), dont les observations sont publiées dans The Lancet, ont examiné les tissus prélévés sur 205 femmes atteintes de cancer du sein ayant subi une opération chirurgicale entre 1980 et 1991 et conservés dans le service de pathologie. Ils ont ensuite comparé les chances de survie des femmes chez qui la quantité d'Ep-CAM était accrue et celles des femmes chez lesquelles elle était normale. Ils ont constaté que les 35,6 % de femmes qui avaient plus d'Ep-CAM avaient aussi deux fois moins de chances de survie que les autres d'être définitivement débarrassées de leur maladie et deux fois moins de chances de survie globale. "Si ces données peuvent être validées sur une plus grande population de patients, la sur-expression de l'Ep-CAM pourrait devenir un marqueur de risque et la cible de traitements immunothérapiques", estime le Pr Gunther Gastl sur la base de ses observations. AFP : http://www.afp.com/ext/francais/lemonde/sci/001208122918.fjfj9h7e.html
|
|
|
|
|
|
|
|
Une équipe de chercheurs de l'Université de Birmingham développe actuellement une technique qui devrait permettre la transmission de vidéos médicales par le réseau de télécommunications classique. Grâce à cette innovation, les médecins travaillant dans de petites structures hospitalières ou même dans des unités mobiles pourraient faire parvenir ces données rapidement à des établissements plus importants, pour obtenir l'avis d'un expert, par exemple. Le projet, en cours depuis trois ans, se concentre sur l'angiographie, dans laquelle un produit colorant est injecté dans le sang tandis que l'on réalise une vidéo-radiographie qui peut montrer, par exemple, le rétrécissement des artères. Une telle séquence vidéo dure en général 5 minutes, et équivaut à un Go de données. La transmettre sur une ligne téléphonique demanderait environ 40 heures. Une compression classique ne divisant cette durée que par 2 ou 3, les chercheurs ont décidé d'utiliser la technique de "compression d'images par ondelettes" : moyennant la perte des données non essentielles au diagnostic du praticien, la taille des fichiers est alors divisée par 10. On teste actuellement l'exactitude des diagnostics ainsi effectués. l'Université de Birmingham : http://www.eee.bham.ac.uk/medivid/ Esanté : http://www.esanteactu.com
|
|
|
|
|
|
|
|
Pour le professeur Daniel Loisance, professeur de chirurgie cardiaque à l'hôpital Henri-Mondor, l'arrivée des nouvelles technologies donne des résultats globalement positifs et permet des opérations de moins en moins invasives. Revers de la médaille : elles sont techniquement difficiles à appréhender. La presse s'est largement fait l'écho des prouesses technologiques de la médecine, mais les appareils sortis il y a deux ans sont désormais dépassés. Surtout, la vision en deux dimensions de l'intérieur du corps humain est insuffisante pour permettre au chirurgien des approches très précises. Sans repère de profondeur, ce dernier peut par accident perforer des organes périphériques. Ce type d'erreur devrait être évité avec le nouveau système Da Vinci, développé par Intuitive Surgical. Cette machine complexe permet une vision interne en trois dimensions rendue à l'aide de deux caméras, et d'un poignet articulé pour effecteur les gestes techniques à l'intérieur du corps du patient. Le tout, manipulé à distance par un chirurgien dont les gestes sont reproduits en temps réel par un ordinateur ultra puissant. La France ne compte aujourd'hui que trois machines de ce type. Chacune d'elle a coûté entre un million et un million et demi de dollars. Le professeur Loisance en a obtenu une dès mai 2000 pour son service de chirurgie thoracique et cardiovasculaire à Henri-Mondor : l'achat a été financé par l'homme d'affaires François Pinault. Un deuxième système Da Vinci est arrivé à Nancy depuis trois semaines seulement et le troisième est en cours d'installation à l'hôpital européen Georges-Pompidou de Paris. Aujourd'hui, seul 2 à 3 % des opérations cardiaques ont pu bénéficier de cette technologie, c'est-à-dire les patients qui présentent le moins de risques opératoires. En outre, si l'équipe de l'hôpital Henri Mondor a suivi une formation spécifique à la manipulation du matériel, les temps opératoires demeurent plus longs que lors d'interventions traditionnelles. Avec de la pratique, ces délais devraient toutefois se réduire. Avec de tels outils, on se prend à rêver d'opérations à distances, mais celles-ci ne sont pas tout à fait à l'ordre du jour. "Il est nécessaire d'avoir un chirurgien traditionnel sur place", explique le professeur Loisance . Mais il n'exclut pas, d'ici quelques années, le recours à la télémédecine internationale, mettant par exemple en relation un chirurgien italien et des spécialistes internationaux équipés du même matériel. Au cours d'une opération, si le premier rencontrait une situation imprévue, il pourrait ainsi bénéficier des conseils, voire des techniques de ses pairs. À condition toutefois de bénéficier d'une connexion Internet suffisamment puissante et sécurisée pour transmettre des informations en streaming, sans le moindre ralentissement. Ce qui demanderait sans doute l'instauration d'une sorte d'Internet parallèle à haut débit à destination du corps médical. En attendant d'en arriver là, on attend en France la prochaine innovation technologique venue du Japon : il s'agit d'un ensemble software/hardware sur lesquels travaillent les ingénieurs de Toshiba, capable de modéliser en trois dimensions les organes internes d'un patient, de telle façon que les chirurgiens puissent se livrer à une véritable simulation avant la première intervention. Le produit est actuellement en développement. À son arrivée en France, il devrait coûter dans les huit millions de francs. Reste à savoir qui mettra la main à la poche pour offrir cette merveille de technologie au corps médical français. Transfert : http://transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=2907
|
|
|
|
|
|
|
|
La start-up américaine Neuralstem Biopharmaceuticals annonce une découverte majeure pour le secteur émergent des applications des cellules souches humaines. Les chercheurs, emmenés par le directeur scientifique de l'entreprise, Karl Johe, ont en effet découvert qu'il n'existe pas une cellule ancestrale unique pour toutes les cellules du système nerveux mais plusieurs cellules "multipotentes", ce qui promet d'accélérer le développement de thérapies cellulaires beaucoup plus précises et efficaces pour "réparer" un système nerveux adulte. Le concept même de thérapie génique ou cellulairepour traiter le système nerveux central est extrêmement récent. Voici peu, le dogme scientifique voulait encore que la régénération des cellules nerveuses soit quasi-impossible. Mais depuis que les travaux du Karolinska Institute de Stockholm ont bouleversé la donne, la technologie des cellules souches neurales est devenue le pôle principal des cellules souches, entre autres parce que les start-ups hésitent à se frotter à Geron (le spécialiste de l'utilisation des cellules souches) pour les autres applications... Avec la découverte de Neuralstem, le secteur devrait faire un bond en avant. Il devient raisonnable d'envisager de réparer un type de cellules endommagé par un traumatisme ou une maladie dégénérative, en partant de la cellule-souche à l'origine du type précis de cellule en jeu. D'autant que si la découverte n'échappe pas entièrement aux chausse-trappes éthiques propres aux cellules-souches, elle n'en crée au moins pas de nouvelles. En effet, il est désormais possible de différencier et de cultiver en laboratoire ces cellules du système nerveux central en relativement grandes quantités. Ce qui évite d'aller systématiquement rechercher la cellule-souche appropriée dans un foetus... Usine nouvelle : http://www.usinenouvelle.com/
|
|
|
|
|
|
|
|
Les Américains seront peut-être les premiers à disposer fin 2001 du STI-571, un nouvel anti-leucémique mis au point par Novartis et dont les résultats paraissent extrêmement prometteurs. A l'heure actuelle et malgré les progrès observés depuis quelques années, entre 5 et 15% seulement des leucémiques traités par interféron-alpha obtiennent une rémission à long terme. Or a ce stade des essais cliniques - environ 3 000 patients à divers stades de la maladie traités dans le monde - la nouvelle molécule aurait donné des résultats aujourd'hui très supérieurs. Utilisé dans la leucémie myéloïde chronique, ce nouveau médicament a permis d'obtenir 37% de rémissions à trois mois chez 388 malades réfractaires à l'interféron alpha. Sur 234 patients en phase accélérée de la maladie - son deuxième et avant-dernier stade - le taux de rémissions après 4 semaines de traitement atteint 78%. Présentés dans le cadre de divers congrès internationaux, ces résultats valent à ce candidat traitement de figurer sur la " voie rapide " d'évaluation par la Food and Drug Administration (FDA) américaine. Pour prometteurs qu'ils soient, ces résultats sont encore préliminaires. Le Dr Stephen O' Brien, de la Royal Victoria Infirmary de Newcastle, souligne l'importance des essais de Phase III qui viennent de commencer. S'ils se déroulent conformément aux espoirs des équipes impliquées dans cette recherche, ils confirmeront l'espoir qu'a fait naître le STI-571. Certes, il augmente la survie des patients bien plus que tous les autres traitements disponibles ou en développement. Il le fait également avec une toxicité moindre que ces derniers. Mais il reste à déterminer la durée des rémissions qui peuvent être ainsi obtenues. Prochaine étape : le dépôt d'une demande d'approbation par la FDA et la Commission européenne. Peut-être au début de 2001. Healthand.AgeCom : http://www.healthandage.com/newsletter/npf.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
L'éditeur Havas (Nathan-Bordas) a distribué les premiers "cartables électroniques" mis à l'essai dans le cadre d'un partenariat avec l'Education nationale, aux 25 élèves d'une classe de 3e du collège du Stockfeld à Strasbourg. D'un format à peine supérieur à une feuille A4, le "cartable électronique" se présente comme un micro-ordinateur sans clavier, car doté d'un écran tactile, qui pèse un kilo. Il pourrait, à l'avenir, remplacer tous les livres, soulageant d'autant le cartable de l'écolier, mais aussi modifier le travail d'apprentissage. La version testée à Strasbourg, dans un collège classé en zone d'éducation prioritaire, ne contient encore que les cours de sciences et d'histoire-géographie. Les collégiens peuvent y trouver textes et images ou photos, mais également documents vidéo et commentaires audio ainsi qu'un dictionnaire. L'appareil permet également de "zoomer" sur un document ou d'utiliser le système "hypertexte" qui permet de trouver des explications supplémentaires en pointant sur un mot ou une image. Il dispose d'une autonomie de trois heures. Les enseignants ont pu, de leur côté, se familiariser avec ce nouvel outil depuis le mois dernier. Pour Pascale Gelly, professeur d'histoire- géographie, il permettra un travail "plus individuel, plus responsable". "C'est très simple, très intuitif et ça offre, par rapport à un manuel, toutes sortes de médias immédiatement disponibles tels que la vidéo, le système de zoom, le son. Et c'est quelque chose qu'ils vont ramener chez eux", a-t- elle expliqué. Elle a noté l'intérêt des élèves : aucun d'eux ne s'est laissé distraire de son nouvel outil par les caméras et appareils photo des journalistes venus couvrir cette "première". Ce qui fascine les adolescents du Stockfeld, sans exception, ce sont les nombreux petits films vidéo (son et images) qui illustrent les cours d'histoire-géographie et de Sciences et Vie de la terre (SVT) "Ca va plus vite à feuilleter qu'un livre, c'est facile et c'est plus pratique", constate Olivier. "C'est moins ennuyant qu'un cours", dit son copain. "Il y a des jeux et des vidéos et on peut même les emmener à la maison", dit Perihan, qui confie, rose de plaisir, que son frère et sa soeur l'attendent déjà impatiemment. L'objet se présente comme un écran plat, ou une épaisse ardoise, sur laquelle les élèves peuvent cliquer avec un stylet pour ouvrir les pages de leur choix, mais ne peuvent pas y inscrire leurs notes ou y ajouter leurs dossiers. Il pèse environ un kilo et contient, pour cette expérience, le contenu d'un livre de SVT, un livre d'histoire-géo et un petit dictionnaire Larousse, sans compter les vidéos. Les enseignants du Collège du Stockfeld, qui ont eu le loisir d'étudier le prototype depuis un mois, demandent deux grandes améliorations: la possibilité de rendre le cartable interactif, et celle de le relier en réseau. Laurent Mougel, 28 ans, professeur de SVT, avoue son plaisir : "c'est une expérience qui me plaît, mais on aimerait intégrer les documents de notre choix afin de personnaliser nos cours". Pour cet enseignant, le cartable électronique ne remplacera jamais les autres supports, il s'ajoutera à eux : "les enfants continueront à écrire leurs cours, à tracer leurs graphiques. Qu'est-ce que serait un monde où on n'écrirait plus ?" Le cartable électronique sera distribué jeudi à une classe d'Amiens (Somme) avant d'être expérimenté en mars à Boulogne-Billancourt (Hauts-de-Seine) et à Vivonne (Vienne). A Strasbourg, il sera expérimenté jusqu'au mois de février. Havas attend de ces opérations-test des informations sur les améliorations à apporter au produit. Le cartable électronique pourrait notamment permettre la prise de notes et l'échange de textes entre professeurs et élèves via un système de liaison infrarouge. Sa généralisation n'est toutefois pas prévue avant "quelques années", a précisé Françoise Fougeron, directrice du secondaire aux éditions Nathan. (synthèse des articles par @RTFlash) AFP : http://fr.news.yahoo.com/001211/1/s293.html Reuters : http://fr.news.yahoo.com/001211/2/s2c4.html
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
L'automobile du XXIe siècle sera communicante ou ne sera pas. A l'heure où chaque objet se doit d'être « intelligent », la voiture ne pouvait rester à l'écart de la révolution Internet. Le conducteur, déjà connecté chez lui, dans la rue ou au travail, le restera sur la route et dans les embouteillages. C'est ce que les futurologues appellent la « continuité d'usage » : l'automobiliste utilisera tous les services embarqués dans sa voiture par l'intermédiaire d'un terminal qui lui est déjà familier, son téléphone mobile ou son assistant personnel digital (PDA), si possible en se contentant de lui parler. La troisième édition d'Incartech, le Salon du véhicule intelligent, qui s'est tenu les 5 et 6 décembre au CNIT, à la Défense, permet cependant de mesurer le chemin à parcourir pour que chacun bénéficie des agréments que les constructeurs et les opérateurs de télécoms commencent à imaginer. Ou même des services déjà utilisés par les professionnels (taxis et transporteurs), tels que les systèmes d'aide à la navigation, à la gestion de flotte de véhicules ou aux appels d'urgence automatique en cas d'accident. Venu en force au CNIT, PSA Peugeot Citroën a présenté sa réplique au concept-car « 24/7 » de Ford et à la Laguna II de Renault avec ses deux écrans. Créé en mars 2000 par PSA et Vivendi, le portail Egery (www.egery.com) a pour objectif de proposer à l'automobiliste un bouquet de services liés à l'utilisation d'Internet. Le prototype de la Xsara qui en bénéficie est équipé à l'avant d'un support d'accueil d'un PDA de Compaq, sur lequel peuvent s'afficher en couleurs les stations de radio, les morceaux joués (qu'on peut acheter en ligne), l'état du trafic, l'itinéraire le plus rapide, les rendez-vous à prendre avec le concessionnaire, le tout commandé à la voix grâce à un système de reconnaissance vocale. Deux écrans intégrés dans les appuie-tête avant permettent aux passagers de l'arrière de surfer sur Internet, de jouer à un jeu vidéo ou encore de visionner un film. Ces services embarqués ne sont qu'expérimentaux, et leur efficacité dépendra du déploiement de la norme de téléphonie mobile de troisième génération UMTS, qui offrira des débits beaucoup plus importants qu'aujourd'hui. Elle devrait en effet permettre d'alléger l'équipement embarqué, le calculateur et les banques de données étant hébergés sur un serveur distant que la voiture interrogera à volonté. Pour toucher un plus large public, il faudra inventer un autre modèle économique. « Si le prix n'est pas très bas, voir quasiment nul, on aura beaucoup de mal à implanter ces services », prédit Didier Cruse, de la direction marketing de Citroën, rappelant que direction assistée et climatisation n'ont fait leur entrée dans les véhicules bas de gamme que lorsqu'elles ont été offertes « pour 1 franc ». « La seule solution est de faire pression sur les volumes », reconnaît Jacques Christophe Midey, directeur de la stratégie télématique chez PSA, qui promet des systèmes embarqués autour de 700 euros (4 600 francs) dans les six mois à venir. La montée en puissance dépendra aussi de la capacité des opérateurs à s'entendre sur des standards communs, ainsi que sur des modes de facturation des services dont le modèle est encore incertain. Technologiquement, le principal facteur limitant reste le manque de maturité des systèmes de reconnaissance et de synthèse vocales, condition d'un dialogue homme-machine laissant le conducteur relativement maître de son véhicule. Le vocabulaire qu'une puce spécialisée reconnaît reste aujourd'hui de 25 à 250 mots, après un entraînement parfois fastidieux, mais, « en 2003 ou 2004, le vocabulaire sera bien plus vaste, et le coût acceptable », promet Hans Van der Linde, directeur du contrôle vocal chez Philips Speech Processing, qui n'espère cependant pas que le langage naturel soit compris par la voiture avant 2005. L'autre inconnue de taille est le « saut psychologique » que l'utilisateur aura à effectuer pour s'approprier cette technologie. « Autant elle nous paraît naturelle dans les films de science-fiction, souligne-t-il, autant nous restons timides dans la vie réelle quand il s'agit de parler à une machine. » Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-126009-QUO,00.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|