RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 88
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Mars 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Classer l'information sur le WEB
Du courant pour Internet
ATM : une technologie en plein essor
États-Unis : cliquer c'est voter
La guerre du Net se joue en nocturne
En 2005 : l'internaute en met plein la vue
Internet aide les aveugles à gagner en autonomie
Les documents Windows désormais accessibles sur les Psion
IBM présent un robot psychologue
L'armée du futur enrôlera des insectes espions
Babylon : un astucieux interprète, de plus en plus polyvalent
Une langue électronique pour identifier les goûts
Des microprocesseurs toujours plus rapides
Sony sort le grand jeu
Un lecteur de CD pour lire les fichiers MP3
Le multicast désengorge Internet
Sonic Solutions diffuse du DVD... en stream
Avenir
Une carrosserie automobile par injection unique
La première micro-machine en diamant
Terre
La Terre se réchauffe trop vite
Percer les mystères de l'ozone troposphérique
Vivant
Un vaccin contre le sida efficace sur la souris
Un dérivé du cannabis s'avère efficace contre les tumeurs au cerveau
Une greffe de cellules secrétant l'insuline guérit le diabète
La plus vieille des plantes vertes
Les propriétés anti-cancéreuses du thé vert se confirment
Les origines des neurones chez l'adulte
Des ultrasons pour mesurer la glycémie
Le collagène fait un tabac
Un coeur qui bat sur l'internet
Produire du bioplastique à volonté
Dur, dur d'être un bébé et de se frotter au monde !
Edito
L'Ecole doit relever le défi de l'Image



Cette semaine encore, nous aurons assisté à un événement extraordinaire. Quand vous lirez cet éditorial, vous aurez appris quelques heures plus tôt, de la bouche de Bill Gates, à la Game Developers Conférence de San José, que pour la première fois de son histoire Microsoft sort de son royaume du logiciel pour tenter une aventure dans le domaine du “ hardware ” en décidant le lancement d'une console de jeu : la X-Base. Or, quelques jours auparavant, nous avons pu sentir le vent de folie qui a soufflé sur le Japon en voyant les centaines de milliers de japonais qui se sont bousculés, qui ont fait la queue pendant tout le week-end pour acheter 1.000.000 d'exemplaires de la nouvelle console de jeu de Sony : la Playstation 2 (PS 2). Quand on sait que tous les autres grands acteurs du secteur du jeu ont soit déjà lancé (Sega avec sa Dreamcast) soit lanceront à l'automne (Nintendo avec IBM et Matsushita avec leur Dolphin) de nouvelles consoles de jeu, particulièrement puissantes, nous devons essayer de comprendre les raisons d'une telle mobilisation. Comme je l'écrivais le 11 novembre dernier dans mon éditorial intitulé “ Les mondes virtuels : la drogue du XXIe siècle ” (éditorial de la lettre 71 http://www.tregouet.org/lettre/index.html ) “ Si, dans un premier temps, ces mondes virtuels vont utiliser la voie apparemment sans conséquence des jeux pour pénétrer dans l'univers de nos enfants... ”, nous arrivons maintenant à un moment où les acteurs essentiels qui, sous nos yeux, dessinent le monde de demain, ne se cachent plus pour nous dire qu'après la gratuité (apparente), le jeu (virtuel) va être le deuxième pilier sur lequel va s'appuyer cet univers nouveau. Ces deux maîtres-mots, la gratuité et le jeu, qui deviendraient l'alpha et l'oméga d'un monde émergent, mériteraient à eux-seuls une longue exégèse tant ils peuvent éclairer d'une façon hallucinante ce que pourrait être la nouvelle économie par rapport aux notions de travail et d'argent durement gagné sur lequel s'était appuyé l'Homme depuis qu'il s'était engagé à construire un monde civilisé.Mais ces quatre mots : “ Travail, Jeu, Argent, Gratuité ” ont une telle potentialité dévastatrice si nous les sortons de façon imprudente que je préfère les conserver encore dans leur écorce de protection avant de les mettre en équation et de les livrer à votre réflexion. Aussi, si vous le voulez bien, m'appuyant sur ce nouvel événement extraordinaire qui, cette semaine, s'est déroulé sous nos yeux, je voudrais entraîner ailleurs votre imagination. Dans quelques mois, le rendez-vous est fixé à septembre pour les français, nos enfants vont disposer de consoles de jeu dont le réalisme des images va être sans précédent. Alors que la précédente “ Playstation ” dont près de 72 millions d'exemplaires ont été vendus dans le monde depuis 1994, n'était capable de calculer “ que ” 350.000 polygones (le pixel de la 3 D) par seconde, la “ PlayStation 2 ” pourra, elle, en calculer 50.000.000 par seconde grâce à un processeur 128 bits. Quand nous prenons conscience que les processeurs (32 ou 64 bits) les plus puissants (Pentium) qui sont actuellement dans nos ordinateurs les plus récents ont dans ce domaine de l'image des capacités de calculs de cinq à dix fois inférieures, nous pouvons pressentir toutes les capacités de réalisme qu'auront les images générées par ces machines qui, pourtant, coûteront souvent moins de 2.000 Francs et en feront donc des lecteurs de DVD particulièrement compétitifs. Par ailleurs, tous les grands acteurs mondiaux qui produisent des logiciels de jeux mobilisent actuellement toutes les forces dont ils disposent pour ne pas manquer ce rendez-vous du 128 bits... Ainsi, bien plus qu'aujourd'hui et hier, nos enfants, dès ces prochains mois, vont plonger dans des mondes virtuels qui vont d'autant mieux séduire leurs jeunes cerveaux que les images seront plus réalistes. Ceci ne serait pas grave si ces jeux étaient conçus pour aider à la formation de ces jeunes cerveaux. Or, malheureusement, à quelques rares exceptions près, ils ne le sont pas. Trop souvent, ils sont même vecteurs de violence et beaucoup trop de problèmes comportementaux de nos jeunes sont trop souvent liés à l'incapacité dans laquelle ils se trouvent de faire la différence entre le virtuel et le réel. C'est pourquoi, m'adressant une nouvelle fois, de façon solennelle, aux responsables de l'Education nationale de notre Pays, je leur demande de prendre conscience que nous n'avons plus le droit de prendre de nouveaux retards pour mettre des outils innovants et performants à la disposition de nos enseignants. Il faut que l'image de grande qualité vienne dorénavant soutenir l'exposé oral de tout enseignant. Il n'est pas possible que, trop souvent, nos enseignants, comme à l'époque de Jules Ferry, ne disposent que de leur seule capacité oratoire et d'un tableau et d'une craie (ou d'un marker) pour transmettre leur savoir. Dans un monde où l'accès au savoir joue dorénavant un rôle fondamental sur le destin des “ petits ” d'homme, il n'est pas acceptable qu'une nation ne mobilise pas l'essentiel de ses moyens pour remplir une si noble mission. Quand on sait qu'en pédagogie une image équivaut à 7000 mots, nous pouvons imaginer le rôle inoubliable que pourrait jouer, par exemple, un professeur d'Histoire devant sa classe de 4e, et qui voudrait évoquer la bataille d'Austerlitz, s'il pouvait se servir de cet outil démultiplicateur de l'imaginaire. Même si ce professeur d'Histoire était un bon conteur, pensez-vous que ses élèves garderaient en mémoire la magie créée par ce lever de soleil sur le Plateau de Pratzen alors que le brouillard voile encore le lac gelé où, tout à l'heure, des milliers de russes vont disparaître. Par contre, il suffirait, sur une simple demande de l'enseignant, qu'Abel Gance vienne pendant quelques minutes avec l'aide de Pierre Mondy, Jean Marais, Orson Welles, leur montrer les images extraordinaires d'Austerlitz sur un grand écran de haute définition qui, dorénavant, devrait être dans chaque classe, pour que les enfants gardent en souvenir de façon impérissable le génie d'un stratège qui, comme Alexandre, a marqué l'Histoire militaire. Ce soutien par l'image, s'il est impératif pour l'Histoire, n'en est pas moins nécessaire pour l'enseignement de toutes les matières. Aussi, il faut que les outils les plus performants permettant d'obtenir des images de grande qualité soient sans retard mis à la disposition de tous les enseignants. Ce n'est pas en connectant nos écoles à Internet avec une simple ligne téléphonique et en les disposant à dix autour d'un écran de 15 pouces que nous changerons le cours de l'histoire alors que très rapidement beaucoup d'élèves bénéficieront d'une connexion de meilleure qualité à partir de chez eux. Il faut que tous les responsables de l'Education, que tous les enseignants aient bien conscience que nous aurons changé le destin de la France quand un petit gamin de 8 ans, revenant de son cours de CE2, dira à sa mère en rentrant chez lui : “ Tu sais, Maman, c'est cool, l'image dont se sert mon maître pour m'expliquer le monde est plus belle que celle de ma PlayStation 2 ! ”

René TREGOUET

Sénateur du Rhône


TIC
Information et Communication
Classer l'information sur le WEB
Samedi, 11/03/2000 - 00:00

La première question que se posent les nouveaux venus sur Internet est de savoir comment y trouver l'information dont ils ont besoin. Elle est vite remplacée par une autre, tout aussi lancinante et dont on parle peu : que faire avec l'information qu'on y trouve ? Il ne s'agit pas ici de l'usage intellectuel, artistique ou divertissant qu'ils peuvent en faire, mais du classement de l'information trouvée. Certains programmes comme Discovery d'AltaVista, qui les indexe mot par mot. Mais cette opération besogneuse prend du temps et n'est pas complètement satisfaisante. iHarvest (littéralement : " je moissonne "), est un miniprogramme gratuit qui permet aux internautes de naviguer à satiété, d'en rapporter autant de souvenirs et de documents qu'ils le souhaitent et de les classer dans un ordre qui correspond à celui de l'ordinateur. Intégré à Internet Explorer (il n'y a pas de version Netscape ni de version Mac), il apparaît sur la gauche du navigateur. Quand une page (ou un fragment de page, quelle que soit sa nature) retient l'attention de l'usager, il lui suffit de cliquer un bouton pour que iHarverst en enregistre le contenu. Il est alors invité à choisir certains mots clés, qui aideront à retrouver l'information par la suite et à placer le document dans des dossiers visibles dans la colonne de gauche. Avantage non négligeable, ces dossiers peuvent contenir des documents (texte, feuille de calcul, etc.) qui se trouvent dans l'ordinateur, ce qui permet de regrouper les informations nécessaires pour un travail donné.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2060-44914-MIA,00.html

iHarvest : www.iharvest.com

Discovery : http://www.discovery.com/

Du courant pour Internet
Samedi, 11/03/2000 - 00:00

Fin 1997, le microcosme européen de l'Internet apprenait avec surprise qu'une école primaire de Manchester, en Angleterre, venait d'accéder à la Toile non plus en utilisant les traditionnelles lignes téléphoniques, mais par le réseau électrique. Cette première expérience menée par l'opérateur canadien Nortel allié à la société britannique Norweb allait-elle rester isolée ? Non. Deux ans plus tard, Veba et RWE, deux entreprises allemandes, annonçaient leur intention de mettre rapidement sur le marché un accès à l'Internet par le réseau électrique. Mais, si Veba se faisait fort de montrer Online Box, le boîtier que tout internaute installerait bientôt à côté de son compteur, ces annonces ne disaient rien de la façon dont les données pouvaient être acheminées jusqu'au domicile sur des lignes électriques. A y regarder de près, le système de distribution de l'énergie n'est pas très différent d'un réseau de téléphonie fixe. Dès lors, il ne serait pas plus difficile d'adapter l'un ou l'autre au transfert de données. De la même façon qu'un opérateur place des multiplexeurs dans ses centraux téléphoniques pour offrir un accès ADSL (Asymetric Digital Subscriber Line) à ses abonnés, les distributeurs d'énergie n'auraient ainsi qu'à installer des modulateurs dans leurs transformateurs pour permettre aux données de circuler sur les mêmes câbles que le courant. Ces dernières transiteraient alors à des fréquences plus grandes que les 50 Hz auxquels est acheminée l'énergie. A partir de là, chaque équipementier, de Cisco à Siemens, serait libre de définir sa stratégie. Mais les applications seraient vastes, de l'accès à Internet à haut débit (supérieur à 1 Mbit/s) à la téléphonie IP (Internet Protocol), sans oublier la constitution d'un réseau interne à la maison (home-networking) sur le mode du réseau local d'entreprise. De la domotique, en quelque sorte. A cette exception près que la domotique ne comprenait jusque-là que des applications à faibles besoins en débit. Ce qui n'est pas le cas du Net.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2081-45381-MIA,00.html

ATM : une technologie en plein essor
Samedi, 11/03/2000 - 00:00

Né dans les laboratoires du CNET (le centre de recherche de France Télécom) au milieu des années 80, l'ATM avait pour ambition initiale de créer une nouvelle famille de produits de commutation capable de gérer en même temps le trafic de la voix, des données et de la vidéo sur des réseaux à hauts débits en affectant des priorités différentes. Alcatel, qui était associé dès le départ aux travaux du CNET, a cru à cette technologie. Mais le marché n'a jamais décollé. Jusqu'au milieu des années 90, les entreprises européennes qui représentaient les cibles des opérateurs clients d'Alcatel, ne ressentaient pas le besoin d'acheter un tel service, compte tenu de son prix très élevé. Le premier marché de l'ATM, qui devait naître de la demande des entreprises, est resté confidentiel. Depuis, la généralisation de l'Internet a totalement changé la donne. Désormais, les entreprises rêvent de hauts débits et veulent toutes relier entre eux leurs différents sites. Il faut que tous les ordinateurs puissent communiquer en temps réel. Autrefois gadget inutile, l'ATM devient un " must ". Mais plus que dans les entreprises (qui ont voté pour d'autres technologies comme l'Internet et l'Ethernet), c'est au coeur du réseau des opérateurs que l'ATM est en train de s'imposer. Car l'ATM, porté en coeur de réseau, a une vertu particulièrement intéressante pour les opérateurs. Tout en étant compatible avec l'Internet, cette technologie permet de garantir une qualité de service. L'ATM combine haut débit et service garanti. Dans les communications classiques, on établit une communication permanente entre deux points (on réserve de la bande passante). Dans l'Internet, on transporte l'information sous forme de paquets mais on ne peut pas réserver sa " route ". C'est ce qui fait l'économie du système. L'ATM marie " route réservée " et transport sous forme de paquets. Les tuyaux sont donc remplis de manière plus efficace mais l'information ne risque pas de se perdre en route, comme c'est souvent le cas sur Internet. Cette performance permet aux opérateurs de vendre des services à valeur ajoutée et donc de générer du chiffre d'affaires. Toute la question est maintenant de savoir si, demain, la technologie Internet, beaucoup moins onéreuse, ne pourra pas faire l'économie de l'ATM qui consomme de la bande passante pour garantir la qualité de service. Certains (comme Cisco) estiment que la qualité de service pourra être garantie sur des réseaux purement IP (Internet Protocol). L'ATM ne serait dans ce cas qu'une technologie de transition. " Incontestablement, le marché est aujourd'hui porteur pour l'ATM. Mais dans les quatre à six années qui viennent, l'IP aura atteint des niveaux de qualité qui permettront de proposer une garantie de service ", prédit Tal Liani. S'il veut s'imposer durablement, Alcatel va donc devoir continuer d'investir dans l'ATM tout en redoublant d'efforts dans l'IP.

Les Echos : http://www.lesechos.fr/hightech/index.html

États-Unis : cliquer c'est voter
Samedi, 11/03/2000 - 00:00

Les électeurs démocrates de l'Arizona ont expérimenté le vote électronique mardi 7 mars 2000 lors des primaires pour les présidentielles. Le premier vote électronique, en provenance du QG du parti démocrate, s'est fait à 12 h 01. 9 heures et demie plus tard, 13 000 électeurs avaient "glissé" leur clic dans l'urne virtuelle. Le site du parti a enregistré des pics de 200 votes par minute pendant l'heure du dîner ("supper hour"). Au total, 823 000 démocrates sont inscrits sur les listes électorales de l'Arizona. Pour accomplir son devoir civique, l'internaute-votant devait s'être préalablement inscrit sur le site des élections. Le jour J, il s'est identifié à l'aide d'un numéro personnel reçu le 23 février, de sa date de naissance et de l'état dans lequel il vit.

Brève rédigée par @RTflash

La guerre du Net se joue en nocturne
Samedi, 11/03/2000 - 00:00

La guerre du Net, cette course que se livrent les fournisseurs d'accès pour engranger toujours plus d'abonnés, vient d'accoucher d'une offre inédite: l'Internet, facture de téléphone comprise et pour une connexion illimitée, contre un forfait mensuel. Ce type de formule était jusqu'à présent l'apanage des abonnés au câble ou à l'ADSL (1). Elle est offerte aujourd'hui aux internautes équipés d'une ligne de téléphone classique et d'un modem ordinaire. Cette offre très tendance cible les "noctonautes", ces forcenés du Web qui passent les nuits devant leur écran. Il y avait déjà le "100 francs 20 heures" et les formules apparentées, qui visaient les accros. Il faudra compter désormais avec le forfait avec connexion téléphonique nocturne illimitée. Deux offres viennent coup sur coup de faire irruption sur le marché français. D'abord celle de World Net. Ce fournisseur d'accès, l'un des derniers indépendants, s'est associé avec l'opérateur de téléphone Kertel. Pour 299 francs (TTC) par mois, il propose une connexion en journée à concurrence de 20 heures par mois, et - beaucoup plus original - il fait cadeau des nuits passées sur le Web de 22 heures à 7 heures du matin. La seconde offre est proposée par World Online. Elle pousse le bouchon un cran plus loin. Plage horaire en accès illimité plus large encore - de 19 heures à 8 heures en semaine, et 24 heures sur 24 le week-end - pour 190 francs par mois (téléphone compris dans la note également). La formule n'interdit pas de se connecter le reste du temps. Il faut alors acquitter un péage de 19 centimes la minute, ce qui porte l'heure de connexion à 11,40 francs. Mais ce tarif de jour reste inférieur à celui de France Télécom pour les communications locales. La formule est appelée à s'étendre. Déjà, AOL teste auprès d'un petit panel une offre de connexion illimitée qui pourrait être lancée en juin. Au même moment, les Britanniques franchissent complètement le cap de l'Internet illimité sur la bonne vieille ligne de téléphone. Ils avaient lancé la mode de l'Internet sans abonnement. Ils se jettent aujourd'hui dans ce qu'ils appellent le "free-free" (gratuit-gratuit). Alta Vista, surtout connu pour son moteur de recherche, dévoilait lundi une offre d'accès illimité contre un droit d'inscription dans une fourchette de 30 à 50 livres (321 à 535 francs) et une cotisation annuelle autour de 10 livres (107 francs). En France, Alta Vista n'exclut par une telle formule pour l'année en cours. Hier, British Telecom se lançait à son tour dans l'arène: 29,95 livres (320 francs) par mois pour un accès illimité à tout moment. Et 15,25 livres (163 francs) pour un accès limité aux soirs et aux week-ends. France Télécom, lui, ne paraît pas pressé d'envisager un tel changement. "L'avenir du forfait pour des connexions illimitées, c'est l'Internet rapide (le câble et l'ADSL, ndlr)", note-t-on chez l'opérateur. Ironie de l'affaire, ce dernier est le principal bénéficiaire des nouveaux tarifs, grâce à l'afflux des communications locales reversées par les fournisseurs d'accès

Libération (article résumé par @RTFlash)

En 2005 : l'internaute en met plein la vue
Samedi, 11/03/2000 - 00:00

Pour se projeter dans le futur, Forrester Research a interrogé plus de 35 fournisseurs de produits électroniques, fabricants de logiciels, et webmasters de sites afin de compléter sa propre enquête menée sur les usages des internautes en ligne. A ceux qui croyaient qu'on était en pleine révolution numérique, Forrester Research rétorque : "l'utilisation d'Internet n'en est qu'à ses balbutiements. Dans 5 ans, un américain sur deux connectés utilisera un média interactif supérieurement performant, au moins une fois par mois, sans aucun problème". Autrement dit, l'internaute de base va se mettre à produire des contenus personnels multimédias comme les pro. des nouvelles technologies ! ? Les sociétés de broadcasting à l'avant-garde de la révolution frémissante sont en train de concocter des batteries de caméras digitales, des camescopes pour mettre en boîte et diffuser directement sur le Web les images du passant sans souci, du quidam, de n'importe qui... qui avec un minimum d'effort, un maximum de confort et de simplicité se met à faire de la vidéo on line. Avec des bandes passantes toujours plus larges, et des connections toujours plus longues tendant vers le non-stop, les internautes produiront de la vidéo comme les chaînes de télé et techniquement toujours plus nickel... "Vers 2005, les e-mails s'animent, et s'échangent" annonce Forrester Research. Les e-mails écrits que nous connaissons deviendront à peu près l'équivalent de la TV noir et blanc...

Lettre de l'Internet : http://www.lalettre.com/todaynews.cfm?id=267&actions=view

Internet aide les aveugles à gagner en autonomie
Samedi, 11/03/2000 - 00:00

Internet peut aussi aider les aveugles. Ils sont une dizaine de milliers aux Etats-Unis à surfer sur le Web grâce à un logiciel qui convertit les signaux électroniques en braille et leur permet ainsi de faire leurs emplettes de chez eux. ''Quand j'allais dans un magasin de musique, je dépendais de quelqu'un d'autre pour lire les titres des CD'', explique Charlie Crawford, directeur exécutif du Conseil américain des aveugles, lui-même non-voyant depuis 30 ans. ''Maintenant je peux les trouver tout seul'', dit-il ajoutant avoir désormais accès à une ''pléthore'' d'informations. ''Je n'ai pas besoin de voiture, alors je peux m'acheter du matériel informatique'', déclare de son côté Judith Dixon, une responsable de la Bibliothèque du Congrès américain, aveugle de naissance. Moins de la moitié des Américains ont accès à un ordinateur, contre plus des trois-quarts de la population handicapée, souligne M. Crawford. Un logiciel spécial permet d'imprimer les caractère en relief du braille sur une feuille de papier grâce à l'aide d'un appareil coûtant au moins 3.000 dollars (20.300 FF/3.100 euros), relié à l'ordinateur comme une imprimante classique. Autre solution, un système d'affichage vendu à partir de 5.000 dollars (33.900 FF/5.168 euros), également relié au terminal, produit des caractères en braille à l'aide de minuscules épingles en métal. ''Le mien tient sous le clavier, c'est pratique'', observe Mme Dixon. Les épingles sortent d'un demi-centimètre de la partie supérieure d'une boîte en métal, formant 40 ou 80 lettres à la fois, soit cinq à 15 mots. Le lecteur suit le texte dans son défilement mais ne peut en garder une copie permanente. Ces dispositifs permettent aux non-voyants de lire la plus grande partie du texte apparaissant dans les pages Web. Beaucoup d'aveugles utilisent également Internet grâce à un logiciel qui transforme les signaux électroniques en texte lu à haute voix. Seuls quelques-uns parmi eux, peut-être un sur dix, lisent le braille, selon Charlie Crawford. Ce logiciel à l'avantage d'être moins cher que les autres dispositifs. La Bibliothèque du Congrès propose sur le Net les textes de plus de 2.850 ouvrages en braille depuis août dernier. Chaque utilisateur doit s'inscrire et prendre un mot de passe pour satisfaire aux lois sur les droits d'auteur. Des magazines mensuels devraient bientôt être disponibles. D'ici environ 2005, la bibliothèque espère proposer des livres parlants numériques qui se présenteraient sous la forme d'un bout de plastique de la taille d'une carte de crédit. Ils seraient ''lus'' par une machine pas plus grosse qu'une petite radio portable. Les fabricants d'ordinateurs proposent divers systèmes d'aide à l'intention des handicapés. Une ''messagerie instantanée'' par exemple, permet aux sourds de mener une conversation rapide sur des écrans d'ordinateur.

AP : http://fr.news.yahoo.com/000301/32/9b9g.html

Les documents Windows désormais accessibles sur les Psion
Samedi, 11/03/2000 - 00:00

Grâce à l'accord que la société britannique Psion Plc a passé avec Citrix Systems Inc, les utilisateurs d'ordinateurs de poche pourront les connecter aux serveurs informatiques de leurs entreprises, même si ces derniers utilisent un système d'exploitation concurrent comme Windows. Même quand ils seront hors de leur bureau, les utilisateurs disposeront sur leurs ordinateurs Psion, aussi petits qu'un livre de poche, des mêmes services et informations que s'ils avaient le nez rivé sur le PC de leur bureau. Pour le personnel commercial qui a besoin de données précises et réactualisées de façon régulière, ou pour ceux qui font des calculs complexes, pouvoir accéder librement aux intranets et aux serveurs de leurs entreprises sera un avantage énorme, affirme Psion. "Cela nous permettra de toucher des clients qui utilisent les logiciels Microsoft. Nous pouvons maintenant entrer dans des systèmes d'exploitation Windows", a déclaré à Reuters Vipul Pala, directeur des ventes britanniques de Psion. "Cette solution permet aux utilisateurs de ne plus se soucier de la compatibilité entre les matériels quand ils changent de lieu et signifie que n'importe quel logiciel d'exploitation comme Windows, Unix ou Java est accessible via un simple Psion", précise la firme britannique dans un communiqué. Les produits Psion utilisent leur propre système d'exploitation baptisé EPOC que le consortium Symbian, via des alliances avec les fabricants de téléphones portables Nokia et Motorola, tente de faire reconnaître comme un standard technique. EPOC est un système concurrent de la version allégée de Windows, appelée Windows CE.

Reuters : http://fr.news.yahoo.com/000224/2/94kc.html

IBM présent un robot psychologue
Samedi, 11/03/2000 - 00:00

Des machines capables de deviner l'état d'esprit de leur utilisateur en déchiffrant sa physiologie et son comportement, c'est le dernier cri de l'interaction homme/machine. Le centre de recherche d'Almaden, à San Jose, travaille discrètement sur le sujet depuis 1997 mais il vient de présenter ses résultats, plutôt surprenants. La technologie, baptisée "Blue Eyes", équipe déjà un robot capable, selon IBM, d'analyser l'état d'esprit de son utilisateur. L'idée est de permettre une meilleure interaction entre homme et machine en permettant à cette dernière de "lire" les expressions faciales de l'opérateur et, si nécessaire, de suivre régulièrement des paramètres physiologiques comme son pouls ou sa température. A priori, le coté "Big Brother" du système est un peu désagréable. Mais en fait, IBM s'intéresse à des applications plus banales. En analysant le comportement de l'utilisateur, Blue Eyes devrait pouvoir être plus utile que les machines passives actuelles, car il aura la capacité d'anticiper des réactions et, donc, la direction que va prendre le travail. L'ordinateur "psychologue" pourrait par exemple transmettre spontanément à l'utilisateur plus d'information sur une partie de l'écran qui focalise son attention, on encore évaluer si l'information transmise a bien été comprise. Cette informatique "empathique" a déjà au moins deux incarnations. En bas de gamme, tout simplement, Almaden a présenté une nouvelle souris, le Projet Émotion qui se sert des données tactiles recueillies pour détecter six états différents: bonheur, colère, peur, révulsion, surprise et tristesse. Cette semaine, IBM a aussi présenté son robot PONG, dans le cadre d'une exposition japonaise, IBM Fair 2000. Pas de surprise : depuis quelques années, le Japon s'est plus que jamais entiché des petits robots intelligents. Entre autres, mais c'est évidemment fait pour plaire aux visiteurs d'un salon même si ce n'est pas très utile, PONG se rend compte que quelqu'un se tient devant "lui", sourit quand on prononce son nom et exprime sa tristesse quand le visiteur s'éloigne...

Usine Nouvelle : http://www.usinenouvelle.com/

L'armée du futur enrôlera des insectes espions
Samedi, 11/03/2000 - 00:00

Les laboratoires de recherche de l'armée américaine financent la mise au point d'insectes robots destinés à la surveillance clandestine en zones urbaines. Les militaires américains souhaitent voir se concrétiser d'ici 2004 leurs rêves d'essaims de mouches robots espions quadrillant des environnements urbains pour y effectuer des opérations de reconnaissance et de surveillance clandestine. Pour ce faire, les chercheurs de l'Université de Berkeley ont reçu une bourse de plus de 10 millions de francs versés conjointement par l'agence américaine DARPA (Defence Advanced Research Projects Agency) et l'Office of Naval Research. La miniaturisation d'un engin volant classique présente des limites de taille incontournables. Les recherches se sont donc orientées vers la biomimétique, science qui tente de découvrir les mystères de la Nature. Les chercheurs ont observé le monde des insectes et plus particulièrement les mouches qui s'avèrent être parmi les meilleurs engins volants naturels. Après que Michael Dickinson, le biologiste de l'équipe, ait décrypté les principes du vol des mouches l'équipe de robotique a réalisé un prototype au corps en acier inoxydables et aux ailes en mylar. Contrairement à son modèle naturel la mouche robot est affublée de 4 ailes et d'un oeil unique. Une sorte de micro-moteur piézo-électrique alimenté à l'énergie solaire activera ses ailes au rythme de 180 fois par seconde. Les chercheurs de l'Université de Berkeley tablent sur les avancées des nanotechnologies pour équiper leur robot d'un système de vol et de communication de taille microscopique comme, par exemple, un gyroscope d'un millimètre de diamètre. Les promoteurs du projet tente de rassurer les défenseurs de la vie privée en imaginant des applications moins militaires - ou moins policières - à ces armées de robots volants miniatures: chercher des survivants parmi les ruines d'un tremblement de terre ou examiner l'intérieur d'une centrale nucléaire accidentée.

AFP : http://www.actualinfo.com/fr/multimedia/depeche.cfm?depeche_Index=231040&cat=69&...

DARPA : http://www.darpa.mil/

Babylon : un astucieux interprète, de plus en plus polyvalent
Samedi, 11/03/2000 - 00:00

Grâce à ce logiciel (pour Windows 95/98/NT), vous pourrez obtenir instantanément la traduction d'un mot dans l'une de ces dix langues: allemand, anglais, chinois, espagnol, français, hébreux, italien, japonais, néerlandais et portugais. Babylon intègre par ailleurs un module de conversion non seulement de devises, mais aussi d'une multitude d'unités de mesure qui justifie à lui seul le téléchargement de cette application gratuite. Le fichier d'installation comporte l'application maîtresse, et l'un des dictionnaires, les neuf autres étant téléchargeables séparément (chacun pèse de 2 à 4 Mo). La recherche ne peut porter par défaut que sur des termes anglais. Accessible depuis une icône de la barre des tâches, Babylon peut aussi être appelé par un raccourci clavier qu'on aura préalablement établi. Il suffit alors de saisir le mot recherché et de presser le bouton de validation pour obtenir sa signification, soit dans la langue par défaut, et, si besoin est, dans l'une des neuf autres via un menu déroulant. Depuis n'importe quelle application Windows, il suffit de pointer sur un terme pour en obtenir instantanément le sens. Babylon propose en moyenne deux à trois synonymes pour chacun des termes expliqués. Pour de plus amples informations, ce logiciel permet de lancer directement une recherche sur le moteur de son choix, ou sur un site encyclopédique. Grâce à l'intégration de la technologie Microsoft Text to Speech, cet utilitaire peut désormais prononcer un mot ou une expression en anglais. Il suffira de télécharger librement une extension. Depuis la version 2.2, il n'est plus indispensable de rapatrier les dictionnaires, en particulier pour qui dispose d'une connexion permanente. En effet, Babylon peut désormais, lorsqu'il ne dispose pas du module sollicité, y accéder automatiquement en ligne. La requête ne prend que quelques secondes, de sorte que travailler de cette façon n'est pas très contraignant. Babylon s'avère vite indispensable pour naviguer sur un Web encore très largement anglophone. Il facilite l'accès aux sites de commerce électronique en convertissant pour vous les prix en francs ou en euro et rendra même service aux commerciaux et scientifiques en accomplissant pour eux de fastidieux calculs.

Journal du Net : http://www.journaldunet.com/0002/000228babylon.shtml

Téléchargement : http://www.logicielscenter.com/utilitaires/divers/index.cfm

Une langue électronique pour identifier les goûts
Samedi, 11/03/2000 - 00:00

Une langue électronique, capable d' et quantifier les goûts, sera présentée prochainement au salon américain Pittcon par Alpha-Mos, une société toulousaine spécialiste de la numérisation du goût et de l'odorat. Cette langue électronique complète les nez électroniques présentés depuis plusieurs années par Alpha-Mos et apporte une réponse complémentaire à l'analyse des odeurs en rendant compte des caractéristiques de goût: sucré, salé, amer ou acide. Alpha-Mos affirme que le produit qui sera présenté au salon Pittcon de Las Vegas, du 11 au 17 mars, constitue une première mondiale. Les technologies d'analyse des goûts développées jusqu'à présent, notamment par des entreprises américaines et allemandes, ne permettent pas une analyse aussi complète des données. Utilisant des capteurs liquides électrochimiques et de méthodes de traitement des résultats développées par l'entreprise toulousaine, cette langue électronique est destinée en premier lieu à des entreprises de l'agroalimentaire, par exemple pour analyser l'origine ou la fraîcheur des jus de fruit ou de légumes, pour les contrôles des sodas, ou encore de l'amertume des bières. Mais les technologies permettant des contrôles non subjectifs intéressent également les industriels de la cosmétique, par exemple pour le contrôle des crèmes, des dentifrices ou des sirops, ou les entreprises d'environnement, pour le contrôle des eaux usées et des rejets industriels.

AFP : http://www.actualinfo.com/fr/sciences/depeche.cfm?depeche_Index=230909&cat=14&f=...

Des microprocesseurs toujours plus rapides
Samedi, 11/03/2000 - 00:00

Le premier fabricant mondial d'ordinateurs, l'américain Compaq a annoncé lundi qu'il commercialisait une partie de sa gamme Presario avec un microprocesseur Athlon d'un gigahertz (ou 1.000 mégahertz). Son concurrent Gateway va faire de même. Cette puce, fabriquée par l'américain Advanced Micro Devices (AMD), peut faire tourner l'ordinateur à une vitesse supérieure de 17 % à celle offerte par les puces actuelles de 850 mégahertz. Elle est toute destinée pour les applications de jeux vidéos, de plus en plus riches en développements graphiques, qui nécessitent une grande puissance de traitement informatique. Elle offre aussi des performances accrues pour l'accès à l'Internet, notamment du côté de la qualité de l'image. Le phénomène " gig " - surnom des puces atteignant le seuil du gigahertz -- n'était pas attendu à l'origine sur le marché avant l'été 2000. Les puces actuelles pour PC les plus puissantes, lancées par AMD ces derniers mois, atteignent 850 mégahertz. L'américain Intel, qui détient 85% du marché des microprocesseurs pour PC, a toutefois décidé d'avancer le lancement de sa puce Pentium III également dotée d'un gigahertz. Celle-ci devrait être présentée mercredi, selon le site spécialisé Cnet.com. Mais l'avenir proche est déjà sur une puce de 1,5 gigahertz, dont un prototype a déjà été dévoilé par Intel. Face à cette offensive, AMD, qui se livre à une course effrénée avec le géant mondial, a décidé de prendre les devants en commercialisant cette puce Athlon d'un gigahertz et en lançant parallèlement des puces de 900 et 950 mégahertz. " Atteindre le seuil d'un gigahertz a longtemps été l'objectif suprême pour les fabricants de puces. La puce d'un gigahertz ouvre une nouvelle ère dans la technologie de l'information ", a déclaré le P.D.G. d'AMD, W.J. Sanders III. " Chaque élève sait que Neil Armstrong a été le premier homme à marcher sur la Lune. Personne ne se rappelle qui était le second ", a-t-il poursuivi. " Le lancement de l'Athlon d'un gigahertz assure à AMD une place permanente au livre des records ", a-t-il estimé. Face à ce nouveau " front gigahertz ", les constructeurs vont se retrouver divisés en deux camps, Gateway et Compaq se rangeant derrière AMD alors que Dell, Hewlett-Packard et IBM vont privilégier Intel. Il en coûtera de 2 500 dollars à 4 500 dollars pour un PC équipé d'un microprocesseur d'un gigahertz. Les consommateurs dépensent en moyenne 1200 dollars pour des ordinateurs de plus faible puissance.

Journal de Montréal : http://www.journaldemontreal.com/Montreal_Informatique/29868.html




Sony sort le grand jeu
Samedi, 11/03/2000 - 00:00

A quelques jours du lancement officiel de la PS 2 au Japon, le samedi 4 mars - l'Europe et les Etats-Unis devront attendre l'automne prochain... - le géant nippon de l'électronique a mis le paquet pour séduire ses fans : 500 consoles avec une vingtaine de jeux en libre-service, un écran géant projetant le film Matrix sur DVD à partir d'une PS 2, une armée d'hôtesses tout sourire habillées de noir et bleu, les couleurs de la console. Il s'agit des prémices d'un des plus gros tam-tams marketing de la décennie. Car Sony, qui a déjà investi 6 milliards de francs dans ce projet, compte sur la PlayStation 2 pour devenir un géant mondial du multimédia et des loisirs en ligne. Rien de moins. En apparence, cette petite boîte noire rectangulaire, au design peu reluisant, n'a pourtant rien de spectaculaire. Il est vrai qu'elle n' l'utilisera au début qu'un quart de ses capacités. Mais son potentiel est immense. Comparer la PS 2 à son aînée revient à mesurer les performances d'une formule 1 en rodage face à celles d'une 2 CV essoufflée. Dotée d'un processeur de 128 bits (l'équivalent d'un supercalculateur ou de 10 PC), de capacités graphiques théoriquement prodigieuses et - surtout - d'un lecteur CD et DVD, cette console est une véritable bombe. Commercialisée 39 800 yens au Japon, soit environ 2 400 F, elle sera moins chère que les simples lecteurs de films DVD ! "La seule présence de ce lecteur dans la PS 2 sera une motivation suffisante d'achat pour certains parents, qui hésitaient à investir dans une console de jeux", explique un dirigeant du groupe. Ne craint-il pas, à un tel prix, de cannibaliser les autres ventes de lecteurs DVD de Sony ? "Non, poursuit ce directeur. Le marché croît tellement vite que nous en profiterons. La PS 2 élargira seulement notre gamme DVD..." Au fond, le prix modique de la console n'a guère d'importance. "Au tarif de lancement, Sony perdra 1 200 F sur chaque machine vendue, explique Mari Yada, analyste financière chez Nomura Securities, la grande maison de titres japonaise. Mais ne vous inquiétez pas, il se rattrapera sur les jeux et les films, qui sont de véritables jackpots." Ultime innovation : à partir de 2001, grâce à un modem complémentaire, la PS 2 pourra se connecter sur Internet, afin de télécharger des jeux, de la musique ou de surfer sur le Web. "La PS 2 sera une machine complète pour tous les loisirs, le cinéma, les jeux, la musique, off ou online", résume Chris Deering, patron de Sony Computer Entertainment Europe. Le fait que la maison mère contrôle également Sony Music (des disques, tiens, tiens...) ou la major hollywoodienne Columbia (des films DVD, tiens donc...) n'est évidemment pas une coïncidence. Cette fois-ci, Sony provoque tous les poids lourds de l'informatique et d'Internet. "La PS 2 aura, en gros, les mêmes fonctions qu'un PC, mais en plus convivial et plus simple d'usage, puisque branchée sur la télé. Et pour moins de 3000 F", dit-on, sans sourciller, au siège de SCE. Le rêve de Sony ? Que la console évince l'ordinateur dans les foyers ! "C'est la bataille de la télé contre le PC, du salon contre le bureau", résume un dirigeant du groupe. Conscient du danger, Bill Gates a d'ailleurs demandé aux équipes de Microsoft, déjà partenaire de Sega, de concocter une mini-console capable de surpasser la PS 2. La bataille entre le PC et la télévision interactive ne fait que commencer...

(article résumé par @RTFlash)

L'Express : http://www.lexpress.fr/Express/Info/Economie/Dossier/sony/dossier.asp?nom=jeu

Un lecteur de CD pour lire les fichiers MP3
Samedi, 11/03/2000 - 00:00

Une firme de Hong Kong, a présenté, lors du CeBIt de Hanovre, un lecteur de CD portable capable de lire aussi bien les CD standard que les CD au format MP3. Lors du CeBIt, la grande réunion européenne consacrée à Internet et aux télécommunications qui vient d'avoir lieu à Hanovre, le constructeur chinois de Hong Kong, Pine Group, a exposé un lecteur de CD, le D'Music SM-200-C, présenté comme le premier à pouvoir lire des CD gravés avec des fichiers MP3. Avec ce format, il est possible de stocker jusqu'à 10 heures de musique sur un unique CD pour un coût sensiblement inférieur aux mémoires Flash, à condition de déjà posséder un graveur de CD. Le D'Music SM-200-C sera disponible à partir du 1er avril en Grande-Bretagne et devrait être commercialisé en France pour un prix d'environ 2.000 F.

Brève rédigée par @RTFlash

Wired : http://www.wired.com/news/technology/0,1282,34574,00.html

Le multicast désengorge Internet
Samedi, 11/03/2000 - 00:00

" Multicast ", le mot revient souvent dans la bouche des plus initiés d'entre les internautes. De quoi s'agit-il ? Par IP Multicast (pour " multitransmission avec Internet Protocol "), on entend un principe de diffusion des données informatiques permettant de réduire la congestion des réseaux et l'encombrement des serveurs informatiques chez les diffuseurs. La multitransmission, ou encore diffusion multiple, est un dérivé direct du principe de " broadcast ", utilisé par la télévision, qui consiste à inonder une zone dans laquelle se trouve un grand nombre de récepteurs. La base est la même : on diffuse simultanément des données multimédias vers l'ensemble des récepteurs, soit directement vers chaque PC au sein d'un réseau fermé (intranet, réseau local d'entreprise...), soit grâce à des serveurs relais qui répliquent le signal (à l'image des réémetteurs terrestres de télévision) avant d'atteindre l'internaute. Mais, adapté à l'informatique en réseaux, le " broadcast " suppose des procédures de contrôle et de dissémination des données plus poussées. Pas question qu'un paquet de données s'égare s'il s'agit d'un logiciel : celui-ci ne pourrait plus fonctionner. Le multicast se comprend surtout par opposition à l'" unicast ". Ce dernier est le mode traditionnel de transmission des données sur le Net. Un serveur produit une nouvelle copie des données pour chaque client auquel il veut les envoyer et les données sont adressées de manière unique. Mais ce mode de connexion " point à point " à un gros défaut : il nécessite rapidement, pour l'envoi de logiciels entiers ou le téléchargement de vidéos en continu (streaming), de grosses capacités en bande passante du réseau. D'où l'intérêt du multicast. Longtemps réservé aux applications professionnelles sur les réseaux locaux, le multicast est utilisé sur le Net depuis que les applications s'orientent vers des communications de données sur de grands volumes de cibles. Une société française baptisée Swan met, par exemple, à jour, par le biais de diffusions multicast contrôlées, les données informatiques du réseau de succursales de Federal Express (FedEx, 200 000 stations de travail à servir). Swan permet aussi à un fournisseur de jeux en réseau américain, Media-station.com, de mettre à jour ses niveaux de jeu par diffusion multicast. Les différents niveaux de jeu sont ainsi téléchargeables en direct sans avoir besoin d'être adressés spécifiquement à chaque joueur. De plus en plus utilisé sur le réseau IP, le multicast reste totalement transparent pour l'utilisateur. Cette technologie repose en fait sur l'usage de relais, les serveurs de réplication (replication servers), vers lesquels sont disséminées des copies d'un fichier à diffuser. En coulisse, le schéma de connexion est le suivant : un serveur maître encode les informations et les transmet par paquets à des serveurs relais, ou frères, paramétrés de manière à optimiser la totalité de la bande passante apportée par chacun. La colonie de serveurs frères achemine alors les données en mode unicast vers l'internaute. Si de prime abord le principe de multitransmission s'apparente à celui du proxy, machine qui stocke localement des données pour désengorger les serveurs très sollicités, comme ceux des fournisseurs d'accès, il s'en distingue nettement par sa faculté de gérer la diffusion en temps réel d'importants fichiers. Aux Etats-Unis, les principaux utilisateurs de l'IP multicast s'appellent Broadcast.com (le portail de diffusion en " streaming " de Yahoo !), Real Broadcast Network ou KPNwest. En Grande-Bretagne, la société Kingston utilise le multicast au travers de son offre de vidéos à la demande via l'ADSL. Plus près de nous encore, une start-up luxembourgeoise LuxSat, soutenue par l'opérateur des satellites Astra, propose elle aussi de la vidéo à la demande en diffusion IP multicast, mais via le satellite. Enfin, en France, l'infrastructure permettant l'IP Multicast est tout juste en place, Apple étant parmi les premiers à proposer des serveurs dédiés à ce type de diffusion chez les fournisseurs d'accès à Internet (Uunet, Oléane, Cegetel...). Pour lancer le marché, la firme à la pomme installe même une batterie de serveurs frères et achète aux ISP de la bande passante récurrente en fonction d'événements à retransmettre afin de promouvoir cette technologie. Les premières retransmissions vidéo de ce type ont eu lieu lors du Salon Imagina, en janvier 2000, et d'autres directs télévisés de congrès professionnels devraient suivre.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2081-44457-MIA,00.html

Sonic Solutions diffuse du DVD... en stream
Samedi, 11/03/2000 - 00:00

La société californienne Sonic Solutions annonce un procédé de diffusion stream de vidéos au format DVD (Digital Versatile Disc). La technologie repose sur l'utilisation des standards MPEG-2 pour la vidéo et MP3 pour le son. Selon l'éditeur, un accès haut débit et un ordinateur personnel seraient suffisants pour disposer d'un studio personnel. Cette technologie permet d'éditer du contenu DVD, destiné à des intranets d'entreprise ou à des fins de diffusion stream sur le réseau. Les solutions DVD de la société (Sonic DVD Creator, DVD Fusion and DVDit!) permettent de sélectionner l'option "DVD sur disque dur". Elle autorise la transformation du film favori d'un internaute, en fichier informatique basé sur les standards d'encodage MPEG2 et MP3. Sonic Solutions indique que les vidéos fabriquées peuvent être gravées sur des disques compacts standards. Celles ci restent compatibles avec les lecteurs de salon (formats DVD-Video et c-DVD). Côté backoffice, la diffusion s'effectue grâce à un simple serveur de fichiers. L'utilisation de la solution de diffusion Sonic DVDit! est néanmoins nécessaire lorsque l'on souhaite optimiser la qualité de diffusion. Un lecteurs compatible est suffisant pour visualiser les vidéos. L'entreprise annonce l'intégration de cette technologie sur l'ensemble de sa gamme pour le mois de juin 2000. Sonic Solutions précise ne pas vouloir concurrencer les formats de diffusion stream traditionnels sur Internet, mais uniquement rendre la diffusion de vidéos stream la plus simple possible.

Yahoo : http://fr.news.yahoo.com/000309/32/9nf1.html

^ Haut
Avenir
Nanotechnologies et Robotique
Une carrosserie automobile par injection unique
Samedi, 11/03/2000 - 00:00

DaimlerChrysler annonce être bientôt en mesure de révolutionner le procédé de fabrication des carrosseries. Un type de moulage par injection thermoplastique, appelé Large Injection-Molded Body Technology (LIMBT) est, d'après le constructeur, le plus avance du moment. Il permettra de produire directement la carrosserie complète de la voiture, remplacent ainsi les actuelles 80 a 120 pièces. "Notre vision du futur est l'injection en une unique étape de la carrosserie de la voiture", déclare Larry Oswald de DaimlerChrysler a Madison Heights, dans le Michigan". Nous commençons avec les toits amovibles de la Jeep Wrangler. Cette opération constitue notre projet pilote dont nous lançons les essais en production. Si les tests s'avèrent efficaces, nous envisageons de commencer en grande série la production en octobre 2000. Il sera ensuite possible de passer a une production de pièces plus complexes avant d'envisager finalement la fabrication complète de la carrosserie du véhicule". Le procédé utilise applique une force de verrouillage de 8800 tonnes lors du pressage a chaud au cours duquel le composite est maintenu dans une énorme cavité sous pression. La principale innovation du procède réside dans la capacité a créer des formes non envisageables jusque-la. Il permet aussi une utilisation de matériaux (thermoplastiques renforces par des composites tels que de la fibre de verre ou même de l'acier) auxquels on n'aurait pas pense auparavant.

Etats-Unis Matériaux : http://www.france-science.org/publications/welcome-materiaux.htm

La première micro-machine en diamant
Samedi, 11/03/2000 - 00:00

Les laboratoires fédéraux de Sandia, au Nouveau-Mexique, viennent de réussir à fabriquer la première micro-machine utilisant, non pas du silicium mais du diamant. Les techniques de gravure utilisées sont comparables à celles des micromachines au silicium et s'inspirent de la micro-électronique, ce qui garantit la faisabilité de la technologie. Le diamant utilisé est un matériau amorphe qui n'a pas la structure cubique parfaite du diamant cristallin naturel mais convient très bien au micro-usinage. en effet ce diamant amorphe confère aux nouvelles micromachines un avantage considérable : il n'est pas seulement un matériau très résistant, il a surtout l'avantage d'éliminer le phénomène de "stiction" qui est la bête noire des micromachines. La stiction, un problème connu depuis de nombreuses années, est un phénomène d'adhérence qui peut conduire à la paralysie d'une micro-machine. La silice de surface, hydrophile, a tendance à absorber la vapeur d'eau ambiante et les différentes couches de la micro-machine finissent par se coller les unes aux autres. Avec le diamant, le phénomène est considérablement réduit à cause de la nature hydrophobe du carbone. La micro-machine au diamant devrait donc avoir une durée de vie et une fiabilité bien plus grandes que son homologue en silicium. Enfin le diamant présente de bonnes propriétés de biocompatibilité, ce qui ouvre la voie à la réalisation de micromachines implantables dans le corps humain.

Brève rédigée par @RTflash

BBC News : http://news2.thls.bbc.co.uk/hi/english/sci/tech/newsid%5F655000/655617.stm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La Terre se réchauffe trop vite
Samedi, 11/03/2000 - 00:00

Les chercheurs du Centre national de données climatologiques (NCDC) de Washington sont alarmistes : le réchauffement de la planète s'est accéléré au cours des 25 dernières années. Selon leur étude à paraître en mars dans la revue Geophysical Research Letters, le taux de réchauffement depuis 1976 est nettement supérieur aux moyennes enregistrées à la fin du XIXè et au XXè siècle. En 1997 et 1998, les températures moyennes ont atteint des records pendant 16 mois consécutifs, un phénomène sans précédent depuis l'enregistrement systématiques des températures au début du XIXè. Selon les prévisions de la commission gouvernementale sur l'évolution du climat effectuées en 95, le taux de réchauffement du XXIè siècle devait être compris entre 1 et 3,5 degrés Celsius. Mais les chercheurs du NCDC affirment que d'après les données de ces 25 dernières années, ce taux est déjà de 2 ou 3 degrés par siècle. Après 1998, marquée par El Niño, l'année 99 fut la plus chaude du siècle sur une grande partie de la Terre.

Nouvel Obs : http://quotidien.nouvelobs.com/sciences/20000224.OBS2351.html?1301

Percer les mystères de l'ozone troposphérique
Samedi, 11/03/2000 - 00:00

Dans un mois, quand le soleil se pointera dans le ciel de la base militaire d'Alert, le point le plus avancé de la Défense canadienne, sur l'île d'Ellesmere, à côté du Groenland, une petite armée de chimistes et de météorologues s'affairera à prendre toutes sortes de mesures et à prélever de la neige dans des bouteilles stérilisées sur un îlot de glace, à quelques kilomètres de l'île, en plein océan Arctique. Ils cherchent à savoir où s'en va l'ozone naturellement présent dans l'air du Grand Nord. Pourquoi, chaque printemps, les concentrations d'ozone (O3) de cette immense région passent d'un niveau de "bruit de fond" à rien du tout. Ou, si l'on veut, de 30 à 40 parties par million (ppm), au seuil de détection des instruments! Un scénario inexpliqué depuis sa découverte au milieu des années 80 par Oltmans et Kohmyr (1985). En somme, le Grand Nord aurait ainsi deux problèmes d'ozone. Celui plus connu du trou dans la stratosphère, qui s'agrandit démesurément chaque printemps et assure à la Terre une orgie de rayons ultraviolets assassins pour la flore et la faune, micro et grande. L'autre problème est beaucoup moins connu puisqu'il s'agit de la disparition printanière des concentrations d'ozone troposphérique, c'est-à-dire au niveau du sol, naturellement présent dans l'air ambiant des régions arctiques. À ne pas confondre, mais alors là pas du tout, avec le problème de surdose d'ozone en milieu urbain, mieux connu celui-là sous le nom de smog urbain, causé principalement par l'automobile, les oxydes d'azote et les composés organiques volatils (COV). Les chercheurs, de plus en plus nombreux à surveiller le trou nordique dans la couche d'ozone stratosphérique, se sont rendu compte que la disparition de l'ozone au sol coïncidait avec le lever du soleil polaire, qui survient fin-mars ou début avril en sortie de la longue nuit polaire. En 1998, explique Don McKay, directeur du Service sur la qualité de l'air au sein d'Environnement Canada, on a noté que l'arrivée des premiers rayons de soleil coïncidait avec l'apparition de concentrations surprenantes de formaldéhyde dans l'air et une baisse des concentrations d'ozone troposphérique. Des constatations similaires ont été faites la même année au Groenland. Mais cette fois, la neige relâchait des oxydes d'azote. Plus tard, la même année, à l'autre bout de la planète, dans l'Antarctique, on assistait au même scénario. Les chercheurs se sont ainsi aperçus qu'un phénomène inconnu survenait dans la neige. Ils ont immédiatement pensé à l'action photochimique des rayons solaires, qui font leur apparition exactement à ce moment. Tout se passe, explique Don McKay, comme si les rayons provoquaient une libération des contaminants halogénés, fluorés, du bromure et de la formaldéhyde, etc., qui se sont accumulés dans le couvert nival. Une sorte de choc survient dans l'atmosphère au printemps, comme le "choc acide" qui se produit au printemps dans les cours d'eau de nos régions lorsque les contaminants stockés pendant l'hiver arrivent tous ensemble dans les cours d'eau. Les chercheurs ne savent pas si l'on est en présence d'une réaction photochimique ou bactériologique, induite par le tout nouveau rayonnement solaire. Ils savent cependant que le phénomène semble avoir une envergure continentale. Et qu'il pourrait être lié à la salinité de l'air ambiant.

Le Devoir : http://www.ledevoir.com/ecol/2000a/cozo230200.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un vaccin contre le sida efficace sur la souris
Samedi, 11/03/2000 - 00:00

Des chercheurs américains ont au point un vaccin contre le sida qui utilise une approche biologique originale : il s'agit d'un vaccin viral utilisant un virus comme vecteur pour immuniser contre un autre virus. Ces chercheurs du centre médical de l'Université Jefferson, à Philadelphie, ont utilisé un virus affaibli de la rage qui provoque chez la souris la production d'anticorps contre le VIH. Les scientifiques ont réussi à recombiné un virus de la rage en y insérant le gène qui commande la production de la protéine contenue dans l'enveloppe du VIH. Ils l'ont injecté aux souris et ont constaté que le système immunitaire du rongeur était capable d'identifier l'intrus et réagissait en produisant des anticorps et des lymphocytes, globules blancs capables de détruire les cellules contaminées par le sida. Les souris ont ensuite été infectées par le VIH et presque toutes ont réagi en produisant des anticorps et des lymphocytes. Selon les auteurs de l'étude, cette méthode revient à " utiliser une version atténuée du VIH, sans recourir au VIH réel ". Les recherches vont à présent se poursuivre sur les animaux afin de déterminer si cette nouvelle technique s'avère efficace contre d'autres virus comme l'hépatite C.

Brève rédigée par @RTFlash

BBC News : http://news.bbc.co.uk/hi/english/health/newsid_667000/667971.stm

Un dérivé du cannabis s'avère efficace contre les tumeurs au cerveau
Samedi, 11/03/2000 - 00:00

Le principe actif du cannabis a permis d' éliminer totalement de graves tumeurs cérébrales (gliomes) chez des rats traités avec ce produit, selon le mensuel Nature Medicine. L'équipe de Manuel Guzman et d'Ismael Galve-Roperh de l'Université Complutense de Madrid (Espagne) a inoculé des cellules cérébrales cancéreuses chez 45 rats. Quinze, qui n'ont pas été traités, sont morts dans les 12-18 jours. Les autres animaux, traités par injection directe dans le cerveau de la substance active de la marijuana (dite tetrahydrocannabinol, ou THC) ou par un équivalent synthétique ont pour la plupart survécu beaucoup plus longtemps et, dans huit cas, ont complètement guéri avec disparition de la tumeur. Les scientifiques avaient déjà observé que le THC bloquait la prolifération des cellules de cancer du sein en culture, sans qu'on comprenne encore d'ailleurs le mécanisme de cette propriété. Par ailleurs, l'expérience sur des rats non malades montre que l'administration de THC dans le cerveau n'a pas produit de dommages au cerveau. Le comportement des rats traités n'a pas non plus montré de signe de changement. Les gliomes, les plus fréquentes des tumeurs malignes du cerveau, sont généralement mortels à l'échéance de quelques mois. Seuls quelques traitements palliatifs existent, mais sans grand effet étant donné la résistance des gliomes à la chimiothérapie. Il s'agit donc, selon les chercheurs espagnols, d'une réelle percée thérapeutique.

Brève rédigée par @RTFlash

Nature Medicine : http://npg.natureny.com/nm/web_specials/press/mar00.html

Une greffe de cellules secrétant l'insuline guérit le diabète
Samedi, 11/03/2000 - 00:00

Des chercheurs de l'Université de Floride ont réussi à guérir le diabète chez des souris en leur greffant des quantités importantes de cellules sécrétant de l'insuline, produites à partir de cellules pancréatiques prélevées sur des souris diabétiques non-obèses. Le diabète touche environ 5% de la population américaine, soit 15 millions de personnes. Il apparaît lorsque le pancréas ne produit pas assez d'insuline pour permettre au corps de convertir le glucose en énergie, ou lorsque les cellules ne réussissent pas à utiliser l'insuline produite par le pancréas. La greffe de cellules pancréatiques sécrétant de l'insuline constitue l'une des pistes les plus étudiées pour un éventuel traitement du diabète. Mais ces greffes ont un taux de réussite de moins de 20%, notamment à cause de la difficulté d'obtenir une grande quantité de ces cellules. Seule une greffe totale du pancréas peut permettre un résultat suffisant. L'équipe du Pr. Ammon Peck a réussi à produire en culture in-vitro des cellules productrices d'insuline, à partir de cellules souches , isolées sur des souris diabétiques non-obèses. La découverte des chercheurs américains pourrait permettre, à partir d'un morceau de pancréas d'un malade du diabète, de cultiver un nombre quasiment illimité de cellules sécrétant de l'insuline.

Brève rédigée par @RTflash

CNN : http://www.cnn.com/2000/HEALTH/02/28/health.stemcells.reut/index.html

Nature Medicine : http://npg.natureny.com/nm/web_specials/press/mar00.html

La plus vieille des plantes vertes
Samedi, 11/03/2000 - 00:00

Mesostigma viride ! Aujourd'hui, cette espèce ne dit rien à personne, au point qu'on ne lui connaît aucune dénomination vernaculaire. Pourtant, elle est en passe de devenir célèbre. Car, d'après une équipe de biochimistes et de microbiologistes de l'université de Laval, au Québec, cette algue unicellulaire est la seule représentante connue de la plus vieille lignée de plantes vertes de la planète. Cela signifie que le genre Mesostigma forme le tronc d'un arbre phylogénétique d'où auraient émergé les deux seules " branches " des chlorophytes et streptophytes, lesquelles rassemblent toutes les plantes vertes connues, terrestres ou aquatiques, actuelles ou fossiles. C'est en comparant l'ADN de Mesostigma viride et celui de plusieurs espèces de plantes que les scientifiques ont reconstitué ces liens de parenté. L'algue archaïque était trop différente des chlorophytes et des streptophytes pour en faire partie. Sa lignée s'est donc formée avant que ces deux grands groupes de végétaux se soient eux-mêmes individualisés. Elle est leur ancêtre commun. Pour la compréhension de l'évolution du monde végétal, il s'agit là d'une découverte majeure. Jusqu'à présent, on pensait que les plantes qui avaient conquis la terre ferme provenaient des océans. Mesostigma viride étant une algue d'eau douce, l'hypothèse de l'origine marine devient douteuse.

Le Point : http://www.lepoint.fr/data/PNT1433/3303701P.html

Les propriétés anti-cancéreuses du thé vert se confirment
Samedi, 11/03/2000 - 00:00

Plusieurs travaux récents suggèrent que le thé vert peut prévenir la survenue de certains types de cancers. Des études épidémiologiques du ministère de la Santé au Japon ont montré que le taux de mortalité par cancer, et notamment par cancer de l'estomac ou du côlon, était significativement plus faible dans les régions productrices de thé vert comme celle de Shizuoka, au sud-est de Tokyo(5,6). De la même manière, les statistiques des ministères de la Santé indiquent que le taux de cancers du poumon serait plus faible au Japon qu'aux Etats-Unis, alors que la consommation de cigarettes y est bien supérieure. Des travaux expérimentaux in vivo sont actuellement effectués sur de nombreux modèles de tumeurs provoquées chez l'animal. En général, l'administration de thé vert permet une protection contre certaines tumeurs de la peau et du poumon. Ainsi les travaux de Zhi Wang et Hasan Mukhtar, du Veterans Administration Medical Center de Cleveland, montrent clairement l'activité inhibitrice du thé vert quand on induit chez des souris une lésion cutanée avec des rayons ultraviolets B(7). Le groupe contrôle ne reçoit que de l'eau, les groupes testés reçoivent du thé vert une semaine avant le traitement aux UVB et pendant la semaine de traitement. La surface, l'intensité et la sévérité des lésions sont significativement plus faibles chez les animaux buveurs de thé. Dans un protocole expérimental assez voisin, le traitement aux UVB est suivi une semaine plus tard de l'application d'un composé provoquant le développement de tumeurs. Le nombre de tumeurs de la peau est alors beaucoup plus faible chez les souris buveuses de thé vert et leur délai d'apparition est plus long. Une autre étude intéressante de D. Hoffmann, de l'American Health Foundation à New York, révèle l'action préventive du thé vert et de son principe actif, le GEGC, sur un modèle de tumeur du poumon chez la souris(8). Dans ces deux derniers cas le nombre de tumeurs est réduit de manière significative, de 50 % environ. Le thé vert piège les radicaux libres, ce qui pourrait expliquer en partie ses effets préventifs dans la survenue de cancers. Enfin, un article récent d'une équipe de Toledo dans l'Ohio montre que le GEGC bloque l'urokinase, une enzyme dégradant les protéines qui est surexprimée lors de nombreux cancers humains et semble impliquée dans la dissémination de ces cancers. La démarche de recherche est intéressante : les auteurs ont modélisé la structure tridimensionnelle du site actif de l'urokinase, puis ils ont interrogé les banques de données pour sculpter dans ce moule protéique les molécules susceptibles de bloquer le site. Le GEGC aurait précisément la géométrie nécessaire pour se lier à cette enzyme, inhibant ainsi son activité biologique. En attendant de valider cette propriété du thé vert et de l'employer comme adjuvant dans le traitement des cancers, on peut souligner que l'absence d'effets secondaires du GEGC en fait un candidat sérieux dans la chimio-prévention des cancers. Aux Etats-Unis, le National Cancer Institute a jugé l'ensemble de ces résultats suffisamment intéressants pour que débutent des études cliniques de phase I sur l'activité du thé vert dans la prévention des cancers, notamment du côlon.

(article résumé par @RTFlash)

La Recherche : http://www.larecherche.fr/VIEW/308/03080541.html

Les origines des neurones chez l'adulte
Samedi, 11/03/2000 - 00:00

Les intestins, le foie, les os, le sang et de nombreux autres organes se renouvellent sans cesse. Une génération continue permet ainsi de remplacer les cellules défaillantes ou endommagées. On considérait encore récemment que le cerveau faisait exception à ce schéma. Il apparaît que ce n'est pas le cas, du moins pas complètement, puisqu'une neurogenèse a été mise en évidence chez plusieurs mammifères adultes. Quelle est l'origine de ces nouvelles cellules ? A l'instar de tous les autres tissus et du cerveau en développement, sont-elles produites par des cellules génitrices, dites " souches " ? On connaissait depuis longtemps la présence de telles cellules dans le tissu nerveux de l'embryon ou du nouveau-né. Elles sont responsables de la genèse de la quasi-totalité des cellules du cerveau, à la seule exception des cellules microgliales. Capables, donc, de générer les quantités prodigieuses (plusieurs milliards de cellules nerveuses et gliales, on pensait que ces cellules souches cérébrales disparaissaient définitivement du cerveau chez l'adulte. En 1992, Brent Reynolds et Sam Weiss à l'université de Calgary (Canada) ont publié un article qui ébranla profondément cette idée. Ils ont réussi à isoler dans le cerveau de souris adultes des cellules qui, en culture, donnent naissance à d'autres neurones. Cette découverte des cellules souches du système nerveux central chez l'adulte engendra une série de recherches extrêmement fructueuses. Les premiers travaux ont visé à démontrer qu'il s'agissait bien de cellules souches. En effet, si le terme peut se décliner pour tous les tissus - on parle de cellules souches sanguines, de cellules souches osseuses, etc., la définition comprend trois points précis, qu'il s'agissait de vérifier. Les cellules souches doivent tout d'abord être multipotentes, c'est-à-dire pouvoir donner naissance aux principaux types cellulaires du système nerveux : les neurones et les cellules de soutien que sont les cellules gliales (astrocytes et oligodendrocytes). Cette propriété a été montrée à partir de cellules souches du cerveau isolées in vitro , et par certaines études in vivo . Cependant, les neurones sont tellement différents les uns des autres qu'un consensus fait défaut quant à savoir si les cellules souches peuvent donner naissance à chacun d'entre eux. Les cellules doivent aussi posséder une capacité de renouvellement et d'expansion de leur population. On l'a montréinvitrochez la souris : la multiplication des cellules souches peut ainsi s'effectuer sur une période équivalente ou supérieure à la durée de la vie de l'animal. Enfin, elles doivent être capables de régénérer des tissus en cas de lésion ou de maladie chez l'adulte. C'est cette dernière propriété qui, si elle venait à être confirmée, conférerait aux cellules souches un intérêt thérapeutique considérable. La recherche des mécanismes de différenciation a suscité une autre découverte sensationnelle : les cellules souches nerveuses peuvent générer des cellules sanguines ! Dans le même esprit, de récentes études in vivo ont montré que les cellules souches du mésenchyme, qui se trouvent dans la moelle osseuse et génèrent les cellules précurseurs pour les os, le cartilage et le tissu adipeux, peuvent former des cellules musculaires. Ces expériences ouvrent non seulement de nouvelles perspectives thérapeutiques, mais posent la question du potentiel de ces cellules. N'importe quelle cellule souche pourrait-elle donner naissance à n'importe quel type de cellule, et en particulier à des neurones ? Si tel était le cas, il serait facile de générer des neurones en prélevant un simple bout de peau. Quoi qu'il en soit, la possibilité de générer des grandes quantités de neurones et de pouvoir différencier les cellules avant de les transplanter confère un potentiel thérapeutique extraordinaire aux cellules souches. A long terme, la transplantation de ces cellules pourrait être utilisée lors de traumatismes ou d'accidents cérébro-vasculaires, ainsi que pour certaines maladies neurodégénératives.

(article résumé par @RTFlash)

La Recherche : http://www.larecherche.fr/VIEW/329/03290351.html

Des ultrasons pour mesurer la glycémie
Samedi, 11/03/2000 - 00:00

Nature : http://helix.nature.com/nsu/000302/000302-5.html

Une nouvelle technique utilisant les ultrasons devrait bientôt permettre aux diabétiques de ne plus avoir recours à une aiguille pour mesurer leur taux de glucose sanguin. Des recherches dirigées par R. Langer (Massachusetts Institute of Technology (MIT)) ont permis la mise au point d'un procédé indolore permettant de mesurer le taux de glucose à travers la peau à travers la peau. Cette découverte concerne particulièrement les diabétiques qui doivent prélever au moins quatre fois par jour des échantillons de sang afin de mesurer leur glycémie. Cette nouvelle technique repose sur les ultrasons. La couche la plus superficielle de l'épiderme est composée de cellules mortes et de couches graisseuses. Cette barrière est généralement imperméable et ne permet pas le passage de molécules à travers la peau. Les auteurs expliquent que, sous l'action d'ultrasons, les couches graisseuses se désorganisent, créant ainsi des interstices qui peuvent être empruntés par des molécules pour traverser la peau. L'appareil à ultrasons a été placé sur la face inférieure de l'avant bras car elle présente moins de poils qui pourraient interagir avec le test. La sonde à ultrasons a été placée dans un cylindre en verre fixé sur la peau. Après le traitement aux ultrasons, une solution saline à été déposée dans le cylindre avant d'appliquer le vide pendant 5 minutes pour extraire une petite quantité du fluide issu des interstices entourant les cellules. Les chercheurs précisent que "ce fluide n'est pas du sang, mais il est connu pour avoir les mêmes concentrations en glucose et en autres substances que le sang". "Cette méthode pourrait être employée par la suite pour le dosage d'autres substances telles que le cholestérol ou la bilirubine", selon R. Langer. Les chercheurs espèrent que la première application de ces travaux sera le développement d'un appareil portable de ce type pour mesurer la glycémie des diabétiques. Le Pr. Langer rappelle "que cette technique possède l'avantage de fonctionner en sens-inverse: des molécules comme l'insuline peuvent être délivrée par ultrasons à travers la peau.

Brève rédigée par @RTFlash

Le collagène fait un tabac
Samedi, 11/03/2000 - 00:00

Le collagène est une protéine extracellulaire très conservée chez les animaux (qui existe depuis les origines chez les animaux pluricellulaires) et abondante dans la peau. Sa molécule est une triple hélice particulière qui lui confère des propriétés uniques de résistance à la dénaturation thermique et à la dégradation enzymatique. Après réticulation par certains réactifs (tannage), le collagène dermique fournit le cuir. Mais en plus de cette utilisation industrielle, l'exceptionnelle tolérance d'un collagène étranger introduit dans l'organisme, a conduit à son utilisation intensive comme biomatériau, pour des applications très diverses : prothèses, matériau de comblement, compresses hémostatiques, pansements, substituts cutanés... Sa production industrielle est essentiellement d'origine bovine ou ovine, et la maladie de la vache folle comme la tremblante du mouton ont porté un coup fatal à l'utilisation de collagène issu d'animaux européens dans l'industrie biomédicale. Dans le but de surmonter ce handicap, une équipe de l'Institut de Biologie et Chimie des Protéines - IBCP (UMR 412 CNRS), en collaboration avec une industrie française de biotechnologie (Meristem Therapeutics) a réussi à produire un collagène exempt de toute contamination par des virus animaux ou des prions. Pour cela, un gène codant pour un collagène humain a été introduit dans des plants de tabac. La molécule protéique synthétisée possède bien une structure en triple hélice et sa taille correspond à celle du collagène humain. Les quantités produites sont importantes pour des protéines recombinantes. Cette innovation, mise au point grâce à un contrat CNRS-Entreprise, a été brevetée

CNRS : http://www.dr7.cnrs.fr/co/public/cotetrag.htm

Un coeur qui bat sur l'internet
Samedi, 11/03/2000 - 00:00

En Californie, 120 patients ont été équipés de sondes cardiaques dont les enregistrements seront quotidiennement envoyés à leur médecin traitant, par e-mail. Pas facile de surveiller un patient atteint de risques cardio-vasculaires car il est trop contraignant de l'examiner au quotidien pour prévenir une attaque. Des cardiologues américains ont imaginé un moniteur qui ferait le "boulot" à leur place ! Ils ont implanté dans le coeur de 120 patients testeurs de minuscules "puces" qui enregistrent les battements de ces coeurs, 24 heures sur 24 et permettent ainsi de détecter les signes précurseurs de l'infarctus. Encore aujourd'hui, patients et médecins se rencontrent au quotidien pour dresser un bilan des enregistrements. Dès le printemps 2000, les testeurs pourront envoyer les précieux enregistrements par e-mails sur un site sécurisé de l'hôpital traitant. " C'est l'avenir de la gestion des maladies chroniques - défaillances cardiaques, diabète, asthme... ", a déclaré à l'Associated Press Richard Miller, directeur de l'institut cardiologique (Mercy Heart Institute) de Sacramento, qui utilise déjà un moniteur online baptisé le "Health Buddy", littéralement : "le copain de la santé". Health Buddy peut, par exemple, transmettre directement au médecin les résultats des prélèvements sanguins faits à la maison par un patient diabétique. Medtronic, la société qui exploite le Health Buddy, devrait soumettre son projet à l'approbation de la FDA (Food & Drug administration) d'ici à la fin de l'étude, prévue dans deux ans.

Yahoo : http://fr.news.yahoo.com/000223/32/92nu.html

Produire du bioplastique à volonté
Samedi, 11/03/2000 - 00:00

Un bioplastique en quantité suffisante, de l'ordre de la centaine de grammes, et de qualité standard, voici le défi relevé par des chercheurs suisses. Les équipes de Thomas Egli de l'Institut fédéral pour l`aménagement, l'épuration et la protection des eaux (IFAEPE) et Bernard Witholt de l'Institut de biotechnologie de l'EPF de Zurich, ont réussi à maîtriser les bactéries produisant ces fameux polyhydroxyalcanoates, ou PHA. Hydrophobes comme le plastique classique et élastiques dans certains cas, les PHA présentent le très grand avantage d'être biodégradables. Un enjeu économique et écologique de taille. Jusqu'à présent, impossible d'optimiser ce surprenant pouvoir qu'ont certaines bactéries à produire du bioplastique. Quand elles manquent de substance nutritive essentielle comme l'azote, mais qu'elles ont suffisamment de carbone, les bactéries accumulent une quantité substantielle de PHA. Le hic, c'est que ces acides gras à longue chaîne, très agressifs, dissolvent la membrane de leurs hôtesses, rendant impossible toute exploitation. Le tour de force des chercheurs réside dans le contrôle de cette production. Au moyen d'un bioréacteur, les chercheurs maintiennent un niveau bas et constant de carbone et d'azote. Les bactéries excédentaires, riches en bioplastique, sont récoltées. Grâce à ces travaux, il est maintenant possible d'étudier concrètement les propriétés mécaniques de plusieurs sortes de PHA. Un réel progrès car leur composition chimique ne peut répondre seule à ces interrogations. Cette maîtrise de la production pourrait être étendue à d'autres micro-organismes capables de produire des antibiotiques, par exemple. Dans l'immédiat, les chercheurs s'apprêtent à transférer ce concept chez un partenaire industriel pour une production à l'échelle du kilogramme. Les applications à venir s'adressent essentiellement à la médecine. Le bioplastique ainsi produit est très pur et donc facilement dégradable dans l'organisme humain. Une qualité essentielle pouvant servir dans la fabrication de vaisseaux sanguins artificiels, de fils de suture ou même pour des médicaments délivrés très lentement dans le corps.

Infoscience : http://www.infoscience.fr/articles/articles_aff.php3?Ref=403

Dur, dur d'être un bébé et de se frotter au monde !
Samedi, 11/03/2000 - 00:00

Quand nous regardons des gens réunis dans une pièce, nous ne voyons pas des sacs de peau et de tissus étalés sur des meubles ; nous voyons d'autres êtres humains qui ont des pensées et des émotions, des désirs et des convictions, parfois semblables aux nôtres et parfois différents. C'est également ce que sont capables de voir les petits à partir de 18 mois. Mais comment de si petits enfants sont-ils passés des sacs de peau aux "esprits des autres" ? Nous avons davantage appris durant ces trente dernières années au sujet du bagage cognitif des jeunes enfants et de leur processus d'apprentissage que pendant les deux mille cinq cents ans qui ont précédé. Pendant des siècles, les psychologues et les philosophes ont affirmé à l'unisson qu'un enfant était le contraire d'un adulte. Les bébés étaient jusque-là considérés comme des êtres émotionnels et passifs, dominés par leurs sens et incapables de pensée rationnelle. Aujourd'hui, les scientifiques commencent à peine à percevoir l'étendue des connaissances des plus petits bébés, leur rapidité et leur capacité d'apprentissage. Trois caractéristiques méconnues se détachent. Tout d'abord, les enfants savent beaucoup de choses dès l'instant où ils viennent au monde ; ensuite, ils naissent avec des capacités d'apprentissage très développées, bien plus que celles de l'ordinateur le plus sophistiqué ; enfin, les adultes sont comme "programmés" pour enseigner inconsciemment aux nourrissons et aux très jeunes enfants exactement ce qu'ils ont besoin de savoir. Dans l'ouvrage How Babies Think

Courrier international : [http://www.courrierinternational.com/mag/INTsciences.htm">Comment les bébés pensent], mes collaborateurs et moi-même affirmons que les très jeunes enfants utilisent les mêmes méthodes que les scientifiques. Ils réfléchissent, font des observations, formulent des théories, émettent des hypothèses et pratiquent des expériences. Ils sont également capables de modifier leurs théories à mesure que leurs hypothèses sont infirmées. Mais, alors que les scientifiques se concentrent sur les étoiles lointaines et les microbes invisibles, les bébés se focalisent sur les objets de la vie quotidienne : cubes, chiens, mots et, le plus important, maman, papa et tata Ethel. Pour commencer, les bébés naissent en sachant que chaque individu est particulier. Les nourrissons (le plus jeune enfant testé était né depuis quarante-deux minutes) peuvent imiter les expressions faciales. Faute de miroir dans le ventre maternel, on peut penser que les nouveau-nés n'ont jamais vu leur propre visage. Ces tout petits bébés doivent déjà d'une façon ou d'une autre comprendre le rapport entre leurs propres émotions (ou, disons, le fait de tirer la langue) et le visage qu'ils ont devant eux (une chose rose qui dépasse d'une forme circulaire). Non seulement ils préfèrent les visages aux choses, fait connu de longue date, mais ils reconnaissent que ces visages ressemblent au leur. On dirait que la nature donne les moyens aux humains de s'attaquer dès le départ au problème des esprits des autres. Ensuite, l'évolution est plutôt rapide. A 9 mois, le bébé est en mesure de faire la différence entre l'expression de la joie, de la tristesse et de la colère, et peut avoir une vague idée de l'émotion qui est à l'origine de ces expressions. A 1 an, il sait que, s'il regarde dans la direction qu'on lui indique avec le doigt, il verra quelque chose. Il sait aussi ce qu'il doit faire en voyant d'autres personnes agir et il comprend ce qu'il est censé ressentir en voyant ce que les autres ressentent. Ces tout-petits ont déjà appris que les désirs d'autrui peuvent être différents des leurs. A l'instar des scientifiques, les enfants modifient leurs théories quand leur hypothèse de départ se révèle erronée. Quelles sont les conséquences de cette nouvelle approche ? Cette étude ne signifie certainement pas qu'il existe des moyens de rendre un bébé plus intelligent. Les bébés sont aussi intelligents que possible. Ils apprennent tous les jours en jouant et grâce aux soins et à l'attention que les adultes qui les entourent leur prodiguent. Cela ne veut pas dire non plus qu'il y ait une "période critique" d'apprentissage pendant les trois premières années de la vie ou que le bébé doive à tout prix vivre certaines expériences. Les enfants, et même les adultes, passent leur vie à apprendre. D'un autre côté, cette étude confirme que le travail quotidien qui consiste à s'occuper de bébés et de jeunes enfants est l'une des tâches les plus importantes au monde.

Courrier international : [http://www.courrierinternational.com/mag/INTsciences.htm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top