RTFlash

RTFLASH Recherche & Technologie
NUMERO 85
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Février 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Plus de 5 millions d'internautes en France
La vue et l'odeur
Un accès Internet gratuit pour les écoles allemandes
Swatch va lancer une montre internet et une montre téléphone
Les diplômés bienvenus aux USA
Le téléphone portable devient boîte à tout faire
Nokia annonce des portables multimédia pour 2001
Electrolux sort le Screenfridge, un frigo très branché !
La sécurité au bout du doigt
Le 3dSL, alliance standard de l'internet et de la télévision ?
JVC prépare son magnétoscope numérique
Les premières chaînes Hi-Fi Internet
Matière
Photonique : l'âge de la lumière
Les écrans prennent du relief
Vers le stockage holographique des données
Les piles à combustible montent en puissance
La " batterie feuille " prend la route
Vingt jours d'autonomie pour une micro-batterie
L'isolation qui venait du froid
Vivant
Une vie artificielle créée en 2010?
Simulation numérique et expérimentale du complexe crâne-cerveau soumis à un impact
Une maladie cardiaque soignée chez la souris par thérapie génique
Un nouveau traitement pour les cancers du poumon inopérables
Maladies cardio-vasculaires : la France bonne élève de l'Europe
Vers un traitement de la bactérie coliforme
Les risques d'une hypertension mal contrôlée
Une nouvelle méthode génétique pour mieux détecter les maladies héréditaires
La fonction de chaque gène bientôt déterminée
Homme
La Commission européenne lance un programme pour l'emploi dans l'économie cognitive
Recherche
L'arbre à cames est mort, vive l'" actuateur " !
Edito
Le Concile de Trente et le nouveau cycle de l'OMC



Il faut une convergence entre trois ruptures : une rupture dans la technique, une rupture culturelle et une rupture dans le commerce entre les hommes, pour qu'une innovation technologique ayant comme finalité d'amplifier les oeuvres de l'esprit puisse, avec efficacité, remplir son rôle. Dès le XIe siècle, le principe de l'imprimerie à caractères mobiles avait été découvert en Chine. Or, contrairement à ce qui s'est passé en Occident, quatre siècles plus tard, l'imprimerie s'est révélée être en Chine un puissant facteur de continuité et d'immobilisme politique. En effet, elle a non seulement renforcé la diffusion des grands textes de la tradition classique, mais elle a également permis d'élargir le cercle de recrutement des mandarins. Il y avait bien eu en Chine une rupture technologique avec l'invention de la xylographie mais celle-ci n'étant pas accompagnée par une rupture culturelle , elle n'eut que peu d'effets sur la Société chinoise. Pourquoi donc l'imprimerie fut-elle en Occident au XVe et XVIe siècle le vecteur essentiel d'une révolution sans précédent qui fit passer notre civilisation du Moyen-Âge à l'Ere Moderne ? Dans un premier temps, comme en Chine, les conservatismes voulurent s'emparer de cette innovation majeure. Pendant cinquante ans, la production essentielle de l'imprimerie fut réservée à la reproduction de textes religieux : le premier livre imprimé fut une bible. C'est bien parce qu'il fut, à partir du début du XVIe siècle, au point de convergence des nouvelles techniques, de la mise en mouvement des idées avancées par les humanistes et du développement de l'esprit mercantile, que le livre joua un rôle si fondamental dans la transformation de la société occidentale. Ainsi, les idées de la Réforme furent-elles portées et amplifiées par l'imprimerie. Le livre a été conjointement porteur d'idées nouvelles et porté par elles. Par ailleurs, le livre fut un outil extraordinaire pour développer la banque et le commerce. Nous qui sommes stupéfaits en cette fin du XXe siècle par le développement rapide d'Internet, avons-nous bien conscience de la vitesse sidérante avec laquelle se diffusa le livre ? Febvre et Martin affirment que plus de 200 millions de livres furent imprimés dès le XVIe siècle. Ce qui a donné toute sa force au livre, c'est qu'il sut très rapidement, en Occident, être à la fois un outil intellectuel, un moyen de communication et une marchandise commerciale. Cette convergence entre une évolution technologique majeure, une rupture culturelle et l'émergence d'un nouveau commerce entre les hommes est en train de prendre forme, à nouveau, sous nos yeux et ce pour la première fois depuis 5 siècles. Comme le livre, le protocole Internet permet à chacun d'accéder de plus en plus facilement à de nouveaux savoirs. Ceux qui pensent, comme les Mandarins l'avaient fait au XIe siècle, que ce sont les idées du Passé qui vont être amplifiées par Internet font une terrible erreur. C'est bien parce que tous les éléments d'une rupture culturelle, que certains appellent mondialisation, sont en train de se mettre en place et qu'un nouveau type de commerce, le commerce électronique, représentera dans moins de dix ans la majeure partie des échanges réalisés dans le monde, que la révolution que nous allons connaître va avoir une telle ampleur. Il sera fort instructif de voir dans ces prochains mois comment les responsables du cycle de l'Organisation Mondiale du Commerce (OMC) qui a tenté, en vain de s'ouvrir dernièrement à Seattle et qui pourrait, non sans malice, être comparé au Concile de Trente, vont savoir tirer les leçons du passé. " Renforcement du contrôle hiérarchique, méfiance envers les interprétations nouvelles, prolifération de décrets disciplinaires, de canons frappant d'anathème toute expression d'un dissentiment avec la hiérarchie... ", tels sont les traits essentiels que les contemporains avaient retenus des textes adoptés par le Concile de Trente. Tous ces termes utilisés par Alain Peyrefitte dans la Société de confiance pour résumer les décisions prises par les cardinaux du Concile de Trente semblent être terriblement modernes si nous les appliquons à la controverse qui s'est développée il y a quelques semaines à Seattle. Il n'est nullement dans mon intention de comparer José Bové avec Luther mais les responsables des pays les plus avancés de notre planète feraient certainement une erreur fatale s'ils pensaient que le monde nouveau qui s'annonce ne sera qu'un simple prolongement de celui que nous quittons. Que ce soit au niveau de nos démocraties, comme à celui du droit et de l'ensemble des règles qui régissent le fonctionnement de notre société, il nous faudra avoir le courage et la volonté de tout poser à plat pour reconstruire un nouvel édifice. Nous entendons actuellement trop de hauts responsables, qu'ils soient politiques, administratifs, judiciaires, économiques, qui, comme les Pères conciliaires il y a 440 ans, nous disent au travers de nombreux "colloques " que les outils actuels nous permettront de maîtriser l'avenir. Ce n'est pas la technologie ni même le développement d'un nouveau type de commerce qui, actuellement, doivent éveiller nos craintes. C'est beaucoup plus le fossé culturel qui se creuse entre ceux qui, à la base, sont en train de se mettre en réseaux sur l'ensemble de notre planète et les responsables qui, en haut de leur pyramide, restent trop isolés de la réalité, qui pourrait être le sillon qui nous mènerait à une révolution que personne ne contrôlerait.

René Trégouët

Sénateur du Rhône


TIC
Information et Communication
Plus de 5 millions d'internautes en France
Samedi, 19/02/2000 - 00:00

Le baromètre internet publié jeudi par "24000 Multmédia-Médiamétrie ISL" évalue le nombre d'internautes en France âgés de plus de 18 ans à 5.370.000 fin 1999. En début d'année dernière, 4.570.000 internautes avaient été recensés. Deux tendances ressortent de cette enquête. Premièrement, les connexions faites depuis le domicile sont de plus en plus nombreuses, grâce à la diffusion des équipements informatiques multimédia dans les foyers. 42,4 % des internautes se connectent sur le réseau depuis chez eux, contre seulement 32% au premier trimestre 1999. L'entreprise reste le lieu de connexion dominant: 50,8 % des accès. Deuxièmement, l'enquête indique que les internautes considérés comme les plus assidus, qui se connectent presque tous les jours, sont de plus en plus nombreux: 34,6% du nombre total des internautes contre 28,6 % au premier trimestre l'an dernier. Dans le même temps, les internautes dits '"occasionnels" ne représentent plus que 30,4 % des utilisateurs fin 1999 contre 37,4 % au début de l'année. En bref, il y a plus d'internautes, qui consultent internet davantage chaque jour. Dans le même temps, la structure de la population internaute se modifie sensiblement: alors que les hommes représentaient 57,7 % des utilisateurs au premier trimestre 1999, cette proportion atteint 63,6 % à la fin de l'année. Enfin, par tranche d'âge, 31,2 % des internautes ont entre 35 et 49 ans, 30,5 % entre 25 et 34 ans, 25,2 % entre 18 et 24 ans et 13,1 % plus de 50 ans.

La vue et l'odeur
Samedi, 19/02/2000 - 00:00

DigiScents, une compagnie américaine, veut apporter une nouvelle dimension aux expériences des internautes avec une machine à odeurs. D'ici la fin de l'année, un "synthétiseur personnel d'odeurs" devrait, pour moins de 200 dollars, offrir plusieurs centaines de senteurs aux internautes dont les expériences se limitaient jusqu'à ce jour à l'image et au son. DigiScents a développé une base de données d'odeurs à partir de combinaisons d'une centaine de composants de base .Les développeurs pourront acquérir une licence qui leur donnera accès aux codes à transmettre déclencher les diverses fragrance sur le "synthétiseur de senteurs" de l'internaute. D'après DigiScents, près de 150 entreprises auraient déjà signé des lettres d'intention pour acquérir la technologie, parmi lesquelles la société de produits de beauté Body Shop.

AFP : http://www.actualinfo.com/fr/multimedia/depeche.cfm?depeche_Index=216715&cat=69&...

www.digiscents.com

Un accès Internet gratuit pour les écoles allemandes
Samedi, 19/02/2000 - 00:00

Deutsche Telekom, l'opérateur historique allemand, permettra très prochainement à toutes les écoles allemandes d'accéder à Internet gratuitement (sans payer les communications téléphoniques, ni le coût d'un abonnement). Les élèves bénéficieront aussi d'une offre d'accès à Internet particulièrement alléchante à partir de cet automne. A l'heure actuelle, environ 13 000 écoles allemandes sont raccordées à Internet. Ce n'est pas assez selon le gouvernement allemand. Deutsche Telekom propose donc à toutes les écoles allemandes (environ 40 000) un accès gratuit à Internet, une adresse email, et un accès gratuit au portail de l'opérateur historique, T-Online. Deutsche Telekom estime que cette mesure coûtera environ 410 millions de francs (125 millions de marks) chaque année. En ce qui concerne les écoliers, Deutsche Telekom devrait lancer à l'automne une offre qui devrait les intéresser : pour un mark (environ 3.50 F), ils pourront se connecter à Internet tous les jours entre 14h et 18h. Ces horaires correspondent au temps libre de l'après-midi. A noter que France Télécom avait tenté de proposer il y a plusieurs mois déjà une offre dédiée pour les écoles. Elle n'était pas gratuite, mais était toutefois bien en-dessous des prix pratiqués à l'époque. L'ART s'y était opposé, en précisant que cette offre empêchait la libre concurrence dans le domaine de l'accès à Internet en France.

Comparatel : http://www.comparatel.fr/news/newscenter.php3?request=632&category=INTERNET

Swatch va lancer une montre internet et une montre téléphone
Samedi, 19/02/2000 - 00:00

Nicolas Hayek, président du groupe Swatch, a évoqué jeudi à Genève le lancement des prochains modèles de montres Swatch: en avril la montre internet et en décembre la montre téléphone. La montre internet permettra, grâce à un numéro d'identification personnel enregistré sur un microchip, d'avoir accès plus rapidement et plus facilement à son e-mail ou à Internet, à partir de n'importe quel ordinateur. Ces montres devraient être commercialisées avant la fin avril et coûteront entre 80 et 200 francs suisses (entre 50 et 130 euros). Quant aux premières montres téléphone Swatch, elles devraient être commercialisées "à la fin de l'année", a dit le président du groupe. Les premiers modèles, présentés à la presse il y a trois ans, fonctionnaient, a-t-il dit, mais étaient "trop gros" et "laids". "Ils n'avaient pas la beauté du design que nous attendons", a-t-il dit. 3 à 4 millions de francs suisses (2 à 2,6 millions d'euros) ont été investis dans ce projet. Les premiers modèles apparaîtront dans le commerce en décembre au prix de 500 francs suisses environ (330 euros). Enfin, M. Hayek a évoqué d'autres projets en cours de négociations avec le groupe Hewlett Packard qui devraient être annoncés en mars. "Entre HP, l'un des meilleurs groupes d'informatique, et nous qui sommes hautement spécialisés dans l'électronique miniature, imaginez ce que cela peut donner", a-t-il dit sans vouloir dévoiler ces projets.

AFP : http://fr.news.yahoo.com/000210/4/8hsx.html

Les diplômés bienvenus aux USA
Samedi, 19/02/2000 - 00:00

Le sénat américain va proposer un amendement afin d'augmenter le nombre de visas provisoires décernés aux diplômés supérieurs. Sous la pression du lobby informatique, le nombre de travailleurs étrangers très qualifiés admis chaque année aux USA passerait de 115 000 à 195 000 pour les trois prochaines années. Le sénat américain planche actuellement sur une modification de la loi concernant l'immigration aux Etats Unis de travailleurs hautement qualifiés. La mesure vise à faire passer le nombre de visa H1-B (concernant les personnes pouvant prouver qu'ils ont au moins un diplôme universitaire) de 115 000 à 195 000 pour les trois prochaines années. Avec 4 % de chômeurs seulement au niveau national, les besoins de l'industrie américaine, et en particulier des secteurs high tech, en main d'oeuvre qualifiée sont loin d'être comblés. Si cette mesure est acceptée par le Congrès, les entreprises technologiques seraient plus à même d'augmenter leurs capacités de production ainsi que de recherche et développement. Car non seulement le vivier intérieur n'est pas assez conséquent pour répondre à ces demandes, mais les universités américaines forment de moins en moins de diplômés susceptibles d'intéresser des start-up ou des entreprises comme Hewlett-Packard, IBM ou Microsoft. Si du côté de l'administration Clinton, on n'est pas vraiment fan de cette mesure (la priorité serait plus de former les américains plutôt que de laisser s'installer même temporairement des étrangers), la proximité de l'élection présidentielle pourrait laisser le champs libre au lobby technologique pour faire passer cette proposition. En effet, Républicains comme Démocrates convoitent actuellement les grosses donations que ces entreprises font généralement à cette époque. C'est peut-être le bon moment pour se lancer à l'assaut d'une carrière américaine...

Le téléphone portable devient boîte à tout faire
Samedi, 19/02/2000 - 00:00

Vous serez plus d'un demi-milliard d'abonnés à un opérateur de mobiles à surfer sur Internet d'ici à l'an 2003. Equipement de plus en plus léger et sophistiqué, le téléphone mobile tend à devenir un instrument à usage multiple. Aujourd'hui, il fait office de fax, d'enregistreur, de navigateur Internet, de calculatrice, de système de paiement pour faire ses courses (en expérimentation), d'agenda... Au Japon, c'est déjà le Visualphone (Kyocera), sur lequel on peut voir son correspondant, et un appareil photo numérique (Seiko-Epson). Au printemps prochain en Europe, il se transforme en baladeur MP3 ou en instrument de localisation géographique GPS (Global Positioning System). Demain, il pourra aussi recevoir des émissions de télévision... Première tendance, dans cette explosion de produits et de services : la multiplication des messages. " A ce soir ", " La séance de cinéma est à 16 heures "... Le nombre de messages courts SMS (Short Message Service) qui est échangé en Europe d'un téléphone portable à l'autre dépasse le niveau d'un milliard et continue à croître. Pour les opérateurs, cela représente déjà de 5 à 10 % de leurs revenus. Autre tendance : les services de proximité. Il est midi à Cannes et vous avez faim : consultez votre téléphone mobile. Selon l'endroit où vous vous trouvez, des restaurants vous envoient des propositions de menus. Des démonstrations de localisation étaient présentées sur les stands Alcatel, avec la gamme One Touch DB, de Hewlett-Packard et de Philips. Le service sera prêt à fonctionner dès qu'un opérateur le proposera. Le téléphone transmet par message court des informations radio qui sont transformées en coordonnées longitude et latitude par un serveur mis en place par l'opérateur. " C'est le concept du village dans la poche, précise Laurent Guyot, marketing manager mobile phone division chez Alcatel, l'utilisateur sait à tout moment où se trouvent le restaurant, la banque les plus proches... Fournir à l'utilisateur les services dont il a besoin au moment opportun se révèle être la meilleure des stratégies pour personnaliser la relation avec le client. Avec ces quelque 400 grammes environ de plastique et d'électronique, l'utilisateur peut donc disposer d'un minuscule bureau itinérant composé d'un téléphone mobile, avec modem intégré, sous WAP, couplé à un PDA (assistant personnel

Le Monde : [http://www.lemonde.fr/article/0,2320,seq-2060-42518-MIA,00.html">3 Com, Psion, Hewlett-Packard, Compaq, Siemens... ]). Il exploite ainsi les informations qu'il reçoit quels que soient le lieu et le moment. Prévenu d'un rendez-vous par SMS, il travaille en synchronisation avec son entreprise. Dans cet esprit, France Télécom va expérimenter un tel service sur des mobiles couplés au PDA Palm Pilot V via Itineris et les serveurs et logiciels IBM. " Le consommateur entre dans un nouvel univers, où l'ordinateur personnel commence peu à peu à perdre de son importance, explique Naji Najjar, directeur pervasive computing pour la région Ouest chez IBM. Moins chère, l'informatique liée à la téléphonie devient abordable par un plus grand nombre. " Mais la généralisation des services est un défi pour tous les constructeurs et les fournisseurs, car le modèle économique n'est pas défini. Tous se demandent comment gagner de l'argent et combien d'abonnés seront intéressés par ces services. Car le choix d'un système (WAP, GPRS, EDGE, UMTS) conduira les acteurs industriels à procéder à des investissements très lourds pour véhiculer des services réellement multimédias.

Le Monde : [http://www.lemonde.fr/article/0,2320,seq-2060-42518-MIA,00.html

Nokia annonce des portables multimédia pour 2001
Samedi, 19/02/2000 - 00:00

Nokia, premier fabricant mondial de téléphone mobile et constructeur d'infrastructures sans fils, annonce qu'une nouvelle technologie baptisée EDGE permettra dès l'année prochaine l'ajout de fonctions multimédia sur les portables. EDGE (contraction anglaise pour "taux de transfert amélioré pour GSM) est l'une des trois technologies dites de génération 2.5 qui doivent prochainement accroître la vitesse de transfert des données, en attendant la troisième génération dont l'avènement est prévu en 2002. "Les terminaux EDGE seront disponibles en même temps que l'infrastructure et ils continueront à fonctionner en modes GSM (Global System for Mobile Communications) et GPRS (General Packet Radio Service)" explique le magazine de la firme finlandaise. "Les services multimédia à destination des portables pourraient voir le jour en 2001 avec la version complète de la solution haut débit EDGE", affirme le magazine. D'après Nokia, EDGE portera le taux de transfert au delà de 400 kilobits par seconde, une performance 42 fois supérieure à la norme actuelle, de 9,6 kilobits par seconde, en vigueur sur les réseaux GSM. Certains opérateurs utilisent déjà la norme HSCSD (High Speed Circuit Switched Data) et Nokia propose un service qui combine ordinateur et téléphone portable dont les performances atteignent 43,2 kilobits par seconde. Les standards HSCSD et GPRS, qui sont tous deux compatibles avec les réseaux GSM existant, atteignent respectivement des taux de transfert de 57,6 et 150 kilobits par seconde. Les réseaux GSM, améliorés à l'aide de la technologie GPRS se développent largement. Leur commercialisation interviendra dans le courant de l'année. La capacité actuelle, de 9,6 kilobits, convient parfaitement lorsqu'il s'agit de véhiculer des messages vocaux mais d'après les spécialistes, le transfert d'images vidéo de bonne qualité demande des capacités comprises entre 200 et 2.000 kilobits par seconde.

Reuters : http://fr.news.yahoo.com/000211/32/8ieg.html

Electrolux sort le Screenfridge, un frigo très branché !
Samedi, 19/02/2000 - 00:00

Voilà une chouette parabole avec compartiment glaçons et petite lumière qui s'allume. Le ScreenFridge de Electrolux offre l'aspect avenant d'un distributeur de billets mais il instaure un rapport concret entre Internet et les yaourts. La porte de ce frigo mutant est en effet garnie avec l'équivalent d'un gros PC portable ou l'écran tactile remplace le clavier. Cela permet aux industriels de faire des tas de belles démonstrations mélangeant allègrement la domotique, le multimédia de cuisine et le e-commerce. Puisque tout le monde sait se servir d'un frigo, le futur devient impossible à rater. Adieu Post-It et Danette périmée, voilà la vidéo messagerie et la surveillance dynamique du stock de Flamby. La réalité, comme souvent, est écrite en petits caractères. Elle nous annonce que cet espèce de " Minitel à faire du froid " est un prototype et que sa mise sur le marché est tout à fait hypothétique. C'est que l'engin serait cher : plus de deux fois le prix d'un bête frigo banal et blanc. Soyons un peu sérieux et reparlons de tout cela dans dix ans, quand les étiquettes à radiofréquences et les technologies de connexion de proximité comme Jini ou Bluetooth auront envahi nos maisonnettes.

Webrevue : http://www.aecom.org/

http://www.electrolux.com/screenfridge/

La sécurité au bout du doigt
Samedi, 19/02/2000 - 00:00

Comment protéger son disque dur des regards indiscrets ? Jusqu'à présent, on pouvait l'affubler d'un mot de passe perso, du genre le nom de son chat préféré. Mais c'était se mettre à la merci du premier hacker venu. Ce temps-là est révolu, on peut désormais équiper son PC façon agent secret : le premier système de sécurité par reconnaissance des empreintes digitales fait son apparition sur le marché français. Baptisé "U are U", ce procédé fonctionne grâce à un mini scanner inséré dans une petit boîtier dans lequel on glisse le doigt. Jusqu'à présent, la biométrie n'avait pas eu la cote auprès du grand public, et pour cause : les scanners capables de lire les empreintes digitales étaient généralement très chers, peu efficaces, et très lents. En fait, c'est l'amélioration de la résolution des images qui confère à "U are U" une fiabilité jusqu'ici impossible à obtenir. Le mode d'emploi de "U are U" est simple : il suffit d'enregistrer le modèle de son empreinte digitale dans son ordinateur pour en coder l'accès. À chaque nouvelle session de travail, le scanner numérique reconstitue l'empreinte de l'utilisateur en moins d'une seconde, ce qui lui ouvre l'accès au disque dur. Utilisable à la maison pour que les gentils enfants ne mettent pas la pagaille dans l'ordinateur de papa, "U are U" l'est également au bureau. Dans ce cas, on peut programmer le logiciel de reconnaissance pour que différentes personnes (et empreintes) puissent avoir accès à certains dossiers communs du disque dur, tout en conservant d'autres fichiers en accès privé. Exemple : sur un même poste, tout salarié pourra accéder au dossier "À faire d'urgence", tandis que seul le pouce du boss déclenchera l'ouverture du fichier "Salaires et augmentation prévues"... "Le système est fiable à 99 %, affirme Jean-Marc Jacquemin, fondateur de la société Alphasys, qui distribue le périphérique en France. Evidemment, si vous posez un doigt plein de cambouis sur le scanner, il y a des risques pour que ça ne fonctionne pas." Le prix de cet engin à reconnaître les empreintes : 990 F. De quoi se prendre pour James Bond à peu de frais...

Tranfert : http://www.transfert.net/breves/b0361.htm

Lien de l'article : http://www.alphasys.fr

Le 3dSL, alliance standard de l'internet et de la télévision ?
Samedi, 19/02/2000 - 00:00

On connaissait l'ADSL, la technologie destinée à accélérer les connexions sur le Web. Il faudra peut-être s'habituer à parler du 3dSL dans le futur. Les Rennais férus de multimédia ont pu découvrir cette nouvelle technique ce week-end. C'est Newbridge Networks, une société canadienne installée à Cesson-Sévigné, dans la banlieue de Rennes, qui l'a développée. L'idée de Newbridge semble simple : exploiter la rapidité de l'ADSL pour y faire passer des images, sans pour autant bloquer la ligne téléphonique ou la liaison avec le Web. Le 3dSL se base donc sur l'internet à haut débit passant par les lignes téléphoniques conventionnelles. Concrètement, le 3DSL relie l'ordinateur ou le poste de télévision classique à un boîtier spécial. L'abonné peut alors choisir par exemple l'heure précise de son film ou de son émission, l'arrêter pendant quelques m et le reprendre ensuite. Daniel Bessières, le directeur commercial de Newbridge, n'hésite pas à affirmer que le 3dSL concurrence directement le câble. "Les opérateurs du câble proposent des abonnements à l'internet. Désormais, les fournisseurs d'accès à l'internet auront la possibilité technique de proposer des chaînes de télévision à leurs abonnés". "Le 3dSL va se développer rapidement et fera partie du quotidien des Français dans deux ans" lance Daniel Bessières. Avec tous les déboires de l'internet sur le câble et le lent développement de l'ADSL, cet optimisme est peut-être exagéré. Mais il est vrai que le 3dSL a déjà été adopté par un opérateur de télécommunications anglais à Hull.

TF1 : http://infos.tf1.fr/info/multimedia/article.cfm?id_contenu=54563

JVC prépare son magnétoscope numérique
Samedi, 19/02/2000 - 00:00

Avis aux fous d'images : l'ère du magnétoscope numérique capable d'enregistrer des heures et des heures de vidéo a sonné. Le fabricant JVC prévoit de commercialiser en mars un magnétoscope HM-DR10000 D-VHS susceptible d'enregistrer des images depuis n'importe quelle source (caméscope, PC, programme de TV). Mais surtout, il exploite des supports D-VHS offrant 21 heures d'enregistrement (plus de dix films). Ces supports, dont une version atteint 35 heures d'enregistrement, seraient commercialisés à des prix attractifs (60 et 120 francs respectivement pour les deux modèles). Autre atout, le lecteur est compatible avec les cassettes VHS traditionnelles, histoire de ne pas devoir renouveler sa vidéothèque. Il y atout de même un "hic". Le magnétoscope DR10000 D-VHS coûte cher, pas moins de 12 990 francs TTC. Il pourrait toutefois fournir une alternative au DVD vidéo enregistrable, comme l'espère le fabricant. "Le DVD enregistrable reviendra plus cher et les gens qui ont déjà un lecteur DVD devront en racheter en un autre", résume Neil Mancais, patron du marketing chez JVC outre-Manche. "La cassette est un média familiers pour les consommateurs, elle leur apportera une transition plus douce entre l'analogique et le numérique", poursuit-il. L'arrivée de ce magnétoscope n'empêche pas JVC de préparer une offre liée au DVD enregistrable, qu'il perçoit comme un produit différent. En tout cas, il porte en germe une multitude de nouveaux services, comme l'ont déjà prouvé ReplayTV ou Tivo en ciblant l'enregistrement des émissions. On imagine même que le magnétoscope joue le rôle de serveur central à la maison. Relié à plusieurs ordinateurs, il servirait de lieu d'archivage et d'échange pour toutes les vidéos, images ou titres audio de la famille.

VUnet : http://www.vnunet.fr/VNU2/actualites/page_article.htm?id=4&date=2000-02-14

Les premières chaînes Hi-Fi Internet
Samedi, 19/02/2000 - 00:00

Plus besoin de PC pour écouter de la musique sur Internet. Deux sociétés américaines ont en effet montré pendant le salon Demo 2000 qui se tient en ce moment à Palm Spring en Californie, deux appareils ressemblant à s'y méprendre aux chaînes qui ornent déjà nos séjours ou nos chambres à coucher. La seule différence, c'est que le iRad d'AudioRamp et la radio de Kerbango ne reçoivent plus les programmes musicaux seulement par ondes hertziennes mais aussi par Internet. Techniquement, ces deux appareils intègrent donc un lecteur de fichiers en diffusion directe par le Réseau (streaming). Mais leur utilisation est bien plus adaptée au grand public. Le système de Kerbango est le plus simple des deux. Prévu pour le printemps prochain aux Etats-Unis; il ne jouera que le rôle de radio. Mais quelle radio ! En plus des radios locales accessibles de manière classique par les ondes, l'appareil donnera accès aux milliers de stations qui diffusent déjà leurs émissions sur le Net. Pour les sélectionner, l'appareil arbore un écran à cristaux liquide d'une résolution de 320 par 240 (que ne bouderait pas bon nombre de PC de poche). Les stations seront présentées par catégories (Rock, Jazz, Infos) et il suffira de tourner un gros bouton rond pour commencer l'écoute. Munie de deux enceintes d'une puissance de 2 watts chacune, la radio de Kerbango fonctionne sous Linux avec un processeur Power PC à 32 MHz. Pour le moment, seul le format Real G2 est prévu. Mais monsieur-tout-le-monde n'aura pas besoin de connaître les entrailles de l'engin pour s'en servir. Cette radio connectée devrait être disponible dès le printemps prochain aux Etats-Unis, pour un prix prévu de 300 dollars (environ 2 000 francs). Plus perfectionné, le iRad d'AudioRamp ajoute à toutes les fonctions de l'appareil de Kerbango, le logiciel Windows Media et, surtout, un lecteur de CD capable de lire les CD audio classiques aussi bien que ceux remplis de fichiers MP3.Selon les modèles, ces deux appareils seront munis soit d'un modem 56K, soit d'une connexion réseau classique, de type Ethernet, pour se relier à Internet. La deuxième solution est de loin la plus avantageuse car elle permet de profiter des connexions permanente (câble ou ADSL) dont le coût ne dépend pas du temps de connexion. La radio est un médium à diffusion gratuite et il serait dommage d'avoir à dépenser des dizaines de francs par jour pour écouter ses émissions favorites. Sans parler de la qualité de diffusion, proportionnelle au débit. Leur succès dépendra donc en grande partie de la croissance des connexions haut débit chez les particuliers.

Vunet : http://www.vnunet.fr/VNU2/index.htm

^ Haut
Matière
Matière et Energie
Photonique : l'âge de la lumière
Samedi, 19/02/2000 - 00:00

Tels des enfants démontant leurs jouets préférés, des physiciens du solide spécialisés en électronique triturent depuis une dizaine d'années leurs matériaux de prédilection, les semi-conducteurs, en les perçant d'une multitude de petits trous. Quelle mouche les a donc piqués ? Simplement, ils ont découvert qu'en perçant ainsi les matériaux phares de l'électronique, ils pouvaient canaliser avec profit d'autres particules, les photons, qui sont à la lumière ce que les électrons sont au courant électrique. Et comme il y a des métaux isolants pour les électrons, ils cherchent des matériaux isolants pour les photons, c'est-à-dire des miroirs parfaits grâce auxquels contrôler la lumière deviendra un jeu d'enfant. Ces sortes de gruyères à photons, plus savamment appelés cristaux photoniques, sont d'ailleurs déjà prêts à envahir les hautes technologies, des téléphones portables aux éclairages urbains ou domestiques en passant par les fibres optiques des communications transatlantiques ou les circuits intégrés de l'électronique. Avec, à chaque fois, un gain de temps, d'espace et d'énergie, puisque ces cristaux permettent un contrôle idéal des photons." Photons et électrons ont de remarquables similitudes de comportement physique et même mathématique. Mais les photons ont l'avantage sur les électrons d'être plus rapides et, surtout, de ne pas interagir entre eux. Des faisceaux de lumière peuvent se croiser sans perte d'information sur l'un ou l'autre des faisceaux ", explique Alexei Tchelnokov, chercheur à l'Institut d'électronique fondamentale d'Orsay. Les cristaux photoniques sont en fait des miroirs quasi parfaits, capables de réfléchir totalement toutes les ondes depuis les ondes radio jusqu'aux ultra-violettes en passant par les visibles. Muni de tels murs à photons, il est possible de capturer, contrôler ou guider la lumière à sa guise selon les applications désirées. Par exemple, isoler la tête d'une personne des ondes radio de son téléphone portable en posant l'antenne sur des cristaux photoniques. Eli Yablonovitch, un professeur américain d'opto-électronique, développe des antennes plates à cristaux photoniques adaptées aux ondes radio et donc en particulier aux téléphones portables. A tout seigneur, tout honneur, puisque ce chercheur est aussi l'homme qui lança en 1987 la ruée vers les cristaux photoniques. En France, le CNRS dispose d'un réseau de laboratoires en pointe dans cette course. Cet engouement a été renforcé par d'importants succès ces deux dernières années : premier cristal photonique tridimensionnel dans le domaine visible, premier laser à base de cavités photoniques, premier guide d'ondes à angle droit à l'échelle du micromètre...Outre les applications en radiofréquence, les laboratoires sont en quête des futurs composants de l'ère photonique. Adieu donc fil de cuivre, transistors et autres diodes électroniques, place aux micro-lasers, aux guides optiques et autres mini-filtres.

Science&Avenir : http://www.sciencesetavenir.com/comprendre/page75.html




Les écrans prennent du relief
Samedi, 19/02/2000 - 00:00

Les chercheurs de Philips ont mis au point un écran apte à diffuser des images, fixes ou animées, en 3 dimensions. Jusqu'à présent, les projections de films en 3 dimensions imposaient au spectateur l'usage de lunettes spéciales. Chaque oeil recevait une image différente, le cerveau recomposant une image unique en relief. Avec le procédé de Philips, c'est l'écran même qui porte des lunettes. Des lentilles spéciales projettent l'image sous différents angles recréant une vision en 3 dimensions. La firme hollandaise qui affirme que l'affichage de son écran à cristaux liquides est si réaliste que l'on peut toucher les objets. Ce produit semble destiné, dans un premier temps, aux applications médicales ou multimédias.

Philips : www.research.philips.com/generalinfo/special/3dlcd

Vers le stockage holographique des données
Samedi, 19/02/2000 - 00:00

Pour satisfaire les besoins de l'industrie du multimédia, les scientifiques cherchent depuis plusieurs décennies à augmenter la capacité des systèmes de stockage de données de manière économiquement viable. Etudié depuis quelques années, le stockage holographique est une des solutions les plus prometteuses de réaliser cet objectif. Bien que les spécialistes aient reconnu très tôt son potentiel, le manque de techniques de multiplexage et de matériaux adéquats ont longtemps freiné le développement commercial du stockage holographique de données. Par la découverte de matériaux et de techniques de multiplexage innovantes, les Bell Labs (le laboratoire de recherches de Lucent Technologies) ont ouvert de nouveaux horizons au stockage holographique de données, ses chercheurs ayant également su tirer parti des avancées récentes de certains composants commerciaux, tels que les détecteurs utilisés dans les caméras numériques et les modulateurs présents dans les projecteurs vidéo. Basée sur les résultats de recherches sur la fabrication des fibres optiques, la découverte de nouveaux matériaux photopolymères à la stabilité et au contraste d'indice améliorés a été l'une des principales clés de cette réussite. Lucent Technologies et Imation se sont engagés en août 1999 dans le développement commun de solutions commerciales de stockage holographique pour les entreprises. En permettant la superposition de plusieurs pages de données dans le même volume de matériau, cette technologie offre des taux de transfert, un temps d'accès et une capacité de stockage particulièrement avantageux. Des résultats préliminaires indiquent que les premiers appareils seront capables de stocker jusqu'à 125 gigabits sur un seul disque de cinq pouces un quart. Leurs taux de transfert seront également importants : environ 25 fois plus rapides que les actuels Digital Versatile Discs (DVD). Les dispositifs ultérieurs seront capables de stocker un terrabit par disque et de transférer les données 125 fois plus vite qu'un lecteur de DVD. Les dispositifs holographiques enregistrent des données dans toute l'épaisseur du matériau de stockage, ce qui explique leur capacité supérieure à celle des autres techniques, où seule la surface du disque est mise à contribution. Des taux de transfert bien plus grands sont permis par la transmission des données sous la forme de pages, contenant chacune plusieurs millions de bits.

Microélectronique-01-2000 :

_ http://www.france-science.org/publications/welcome-microelectronique.htm

Les piles à combustible montent en puissance
Samedi, 19/02/2000 - 00:00

Les piles à combustibles émergent très rapidement comme l'une des technologies les plus prometteuses pour les dix années à venir. Déjà, leur progrès ont enterré les projets de voitures électriques conventionnelles (notre information du 4 mai). Et le gouvernement américain met les bouchées doubles pour que la technologie devienne économiquement abordable. Le Fuel Cell Venture Capital Fund aura même son site Web, qui n'est pas encore actif mais sera situé à http://www.FuelCellVentureCapitalGroup.com. En attendant, les compagnies dans lesquelles le fonds va investir seront également présentées sur un portail déjà très actif dédié aux technologies de l'hydrogène, Copower. Et RAM Capital a établi des liens solides avec une association professionnelle embryonnaire, le Partenariat Californien sur les piles à combustibles, ce qui devrait lui procurer aisément un premier portefeuille d'entreprises. La technologie, elle, mûrit rapidement. Et pas seulement dans l'automobile: Siemens-Westinghouse vient d'annoncer que sa centrale prototype de 100kW, utilisant une technologie à oxyde solide et installée à Westervoort (Pays-Bas), venait de termine sa première année complète de fonctionnement, avec 8760 heures en ligne, lui permettant d'alimenter sans problème le réseau électrique local. En l'occurrence, on ne sort pas des énergies fossiles puisque le prototype utilise du gaz naturel. Reste que les piles à combustibles promettent, pas moins, une révolution énergétique aussi importante que le passage du charbon au pétrole marquant la seconde révolution industrielle.

Usine Nouvelle : http://www.usinenouvelle.com/

La " batterie feuille " prend la route
Samedi, 19/02/2000 - 00:00

Donald Sadoway n'en peut plus de fierté. Le professeur de chimie du département d'ingénierie du Massachusetts Institute of Technology (MIT) tient entre ses mains une sorte de feuille d'aluminium qu'il s'amuse à tordre en tout sens. " Voici mon bébé, ma batterie ! " En bon démonstrateur, le chercheur nous présente son produit. " C'est une batterie au lithium polymère. " Il roule la feuille et fait mine de la ranger dans la poche intérieure de sa veste : " Voyez, dit-il, elle est aussi déformable et légère qu'un paquet de chips, je peux la découper et l'intégrer dans un ordinateur portable, un téléphone mobile, dans le bracelet d'une montre ou même dans la doublure de vêtements, ainsi je transporte partout et facilement mon énergie, c'est l'avenir ! " " Mais son avantage fondamental, poursuit-il, est qu'elle est bien plus performante que les batteries actuelles. Moulée dans la carrosserie ou le châssis d'une voiture électrique elle lui donnerait une autonomie équivalente à celle d'une grosse voiture à essence. " Donald Sadoway en est sûr, il tient là le moyen de faire décoller les ventes de voitures électriques. Une idée partagée par la plupart des spécialistes du secteur car les techniques actuelles permettent au mieux de parcourir 120 kilomètres pour une recharge de plusieurs heures. Une performance très insuffisante notamment pour les parcours longue distance. Traditionnellement une batterie est composée d'une électrode positive et une électrode négative reliées intérieurement par une solution ionique, appelée électrolyte, et extérieurement par un circuit électrique. Quand le circuit est fermé, un flux d'électrons circule via les fils électriques de l'électrode négative vers la positive, donnant ainsi naissance à un courant. Pour équilibrer le système, un flux d'ions positifs rejoint l'électrode positive à travers l'électrolyte. Lorsque l'on recharge la batterie avec une source d'énergie extérieure, le phénomène s'inverse et le stock d'électrons de l'électrode négative est régénéré. Les batteries des voitures électriques de série actuelles sont composées d'électrodes en nickel et cadmium (Ni-Cd) ou nickel et hydrures métalliques (Ni-MH) baignant dans un électrolyte liquide aqueux. Le prototype du MIT possède, lui, une électrode négative composée d'une feuille de lithium et une positive composée d'une feuille d'oxyde de métal. L'électrolyte est ici un polymère solide et non pas liquide. Pourquoi avoir choisi du lithium ? Parce qu'il est le métal le plus léger de la classification périodique. Mais surtout parce qu'il procure des tensions élémentaires supérieures à 3 volts, soit le double du voltage du Ni-Cd et du Ni-MH qui est de 1,23 volt. Conclusion : pour un nombre inchangé de cellules électriques élémentaires, on obtient deux fois plus d'énergie ! La différence avec le prototype du MIT, c'est que les batteries déjà commercialisées utilisent encore un électrolyte liquide. Elles sont composées d'un réservoir contenant une solution de sels de lithium, dans laquelle plongent deux électrodes, l'une d'oxyde de lithium, l'autre de graphite. C'est la technologie dite lithium-ion. " Cette technique présente des avantages certains, explique Stéphane Biscaglia, du Département technologies des transports de l'Ademe (Agence de l'environnement et de la maîtrise de l'énergie), notamment une énergie massique élevée (lire l'encadré ci-dessus) et un fonctionnement à température ambiante. Cependant sa fabrication est complexe et coûteuse. C'est pourquoi d'autres équipes de recherche parient sur la technologie lithium-polymère pour laquelle l'électrolyte est solide. En effet, mettre en oeuvre un tel électrolyte revient à fabriquer un ruban au kilomètre, prêt à être déposé sur les électrodes. C'est bien plus simple, donc moins cher. Son inconvénient principal est de ne fonctionner pour le moment qu'à une température minimale de 60 °C, mais ce problème est compensé par des avantages non négligeables : le ruban ne présente pas de risques de fuite et il peut prendre des tailles et des formes variées. Tout cela répond à l'objectif des constructeurs de batterie, augmenter l'autonomie et la souplesse d'utilisation tout en faisant baisser les prix.". " Nous avons établi une cathode efficace et bon marché ainsi qu'un nouvel électrolyte très performant, reprend Donald Sadoway. Avec de telles avancées, nous visons dans cinq ans une autonomie de 600 kilomètres ! " Hydro Québec demeure plus mesuré dans ses ambitions. La compagnie canadienne prévoit pour la fin de l'année une batterie de 15,7 kg capable de tenir 250 kilomètres sans recharge. En attendant la batterie longue durée que l'on roule sous le bras, le consommateur pourra tester bientôt cette technologie dans un tout autre domaine. Saft annonce, en effet, la première batterie au lithium polymère pour téléphone mobile qui pèsera 19 grammes pour à peine 3,5 millimètres d'épaisseur.

Science&Avenir : http://www.sciencesetavenir.com/techno/index.html

Vingt jours d'autonomie pour une micro-batterie
Samedi, 19/02/2000 - 00:00

C'est la performance d'un nouveau dispositif en couche mince développé par un laboratoire coréen. Très prometteur, en particulier pour alimenter des micromachines. L'institut coréen de la science et de la technologie, le KIST vient d'annoncer qu'il avait développé une nouvelle génération de micro-batterie nettement améliorée. Ces petits dispositifs sont analogues aux piles et batteries conventionnelles, mais leur petite taille leur permet d'alimenter en énergie des cartes à puce, de très petits instruments, et pourquoi pas des micromachines. L'amélioration ? Sur une seule charge, la nouvelle microbatterie de 3 Volts a réussi à alimenter un chronomètre continûment pendant vingt jours. Le prototype est fabriqué avec des procédés de micro-électronique, en couches minces (lithium/cuivre/lithium) sur un substrat de silicium. Le produit est encore loin d'être commercialisable. En particulier, les chercheurs veulent encore améliorer son espérance de vie, avec l'objectif d'une batterie capable de 2000 cycles de recharge. Dans un premier temps, ils visent un second prototype capable de 1000 cycles. Pareil développement est particulièrement intéressant pour des dispositifs comme les MEMS (micro electromechanical systems). Ces micromachines fonctionnelles font en effet face à une difficulté majeure: à mesure que leur complexité augmente, il devient de plus en plus critique de leur trouver une source d'énergie. Expérimentalement, il est simple d'utiliser une source d'énergie macroscopique et de la "canaliser" à l'échelle microscopique. Mais le procédé est peu efficace et s'adaptera mal à de futurs produits commerciaux. Idéalement, il faut donc aux MEMS une source d'énergie à leur taille, ce qui a conduit à des projets très variés, entre autres à la considération de "piles" à radioactivité pour les alimenter.

Usine Nouvelle : http://www.usinenouvelle.com/

L'isolation qui venait du froid
Samedi, 19/02/2000 - 00:00

Comment enterrer les lignes à haute tension ? Pour répondre à cette question, EDF travaille sur une utilisation des matériaux supraconducteurs. Ces derniers ont la propriété physique de n'offrir aucune résistance électrique quand ils conduisent un courant. Tout d'abord destinés à des applications dans l'électronique, ils sont maintenant développés pour transporter le courant de haute tension. " L'idée est de réaliser un prototype d'une cinquantaine de mètres pour 2001 ", selon EDF. Ce prototype est construit en partenariat industriel entre EDF et Pirelli Câbles sur du courant de très haute tension de 225 000 volts tandis qu'Alcatel met en place à Jeumont (Nord) une unité de production de câbles supraconducteurs. Aux Etats-Unis, à Detroit, cinq gros câbles enterrés ont déjà été remplacés en zone urbaine par un câble utilisant les supraconducteurs refroidis artificiellement. L'utilisation de ces technologies comme vecteurs d'énergie offre un avantage énorme pour EDF. Aujourd'hui, 10 à 20 % de l'énergie transportée sur le réseau de distribution sont dissipés sous forme de chaleur le long des lignes (effet Joule). Alors que, sans résistance du conducteur, cette énergie perdue peut être conservée sur le réseau. Un gain immédiat pour le fournisseur, mais seulement si la technologie nécessaire pour refroidir les supraconducteurs n'est pas trop gourmande en énergie. Jusqu'ici, les recherches pour cryogéniser les supraconducteurs dans des applications industrielles se sont orientées vers l'azote liquide, un gaz largement disponible et dont la température critique est de - 196 °C ou 80 °Kelvin. Par ailleurs, l'introduction de ces nouvelles technologies obligera l'architecture physique du réseau de distribution d'électricité à être totalement modifiée. Ce ne sont plus des câbles classiques qu'il s'agira d'enterrer ou de suspendre dans les airs, mais bien un câble qu'on équipera de tout son long de moyens de refroidissement. En plus, de nouveaux moyens, jusque-là inconnus, pour contrôler les puissances sur les lignes sont apportés par des limiteurs supraconducteurs. " Le limiteur agit comme un superfusible en haute tension qui est en plus réarmable ", confie Pascal Tixador, chercheur au CNRS, qui travaille sur ce nouveau type de fonctions. D'aspect, un câble supraconducteur ressemble à ses congénères de la vieille garde technologique. Sauf que les matériaux supraconducteurs sont tressés en spirale et placés dans un flux sibérien d'azote liquide. De plus, en ajoutant une deuxième couche externe de supraconducteurs dans la structure du câble, celui-ci, quelle que soit la puissance circulant, ne dégage aucun champ magnétique. Un atout technologiquement séduisant pour ces fils à haute tension venus du froid.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2081-42515-MIA,00.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une vie artificielle créée en 2010?
Samedi, 19/02/2000 - 00:00

Les scientifiques sont de plus en plus persuadés qu'ils pourront créer les premières formes de vie synthétiques d'ici 10 ans. Telle est la prévision surprenante des chercheurs de l'Université du Texas qui sont parvenus à assembler en laboratoire les brins très longs d'une molécule d' ADN. Pour ces chercheurs, il s'agit d'une première étape importante vers la conception et la production de bactéries don l'utilité sera inestimable dans de nombreux domaines, médecine, industrie et environnement notamment. Cela fait de nombreuses années qu'on sait fabriquer des segments courts d'ADN à l'aide d'enzymes appelées polymérases. Le Professeur Evans de l'Université de Dallas a annoncé que son équipe était parvenue à synthétiser, à l'aide d'un processus robotisé, un segment d'ADN d'une longueur de 10000 paires de base. cette longueur est théoriquement largement suffisante pour créer un organisme vivant de toute pièce puisqu'on estime à 350 le nombre minimum de gènes nécessaire au fonctionnement d'une forme de vie rudimentaire. Le Professeur Evans reconnaît cependant que de nombreux obstacles restent à franchir et qu'on ne connaît pas encore la fonction exacte de tous les gènes impliqués la fabrication d'un être vivant. Mais il considère qu'aucun de ces obstacles n'est insurmontable et que la fabrication artificielle d'êtres vivants adviendra beaucoup plus vite qu'on ne le pense. Il souligne que dans ce domaine les problèmes les plus redoutables ne sont pas techniques mais éthiques car la possibilité de créer artificiellement la vie donnera à l'homme un immense pouvoir mais entraînera corrélativement d'immenses responsabilités pour notre espèce.

Brève rédigée par @RTFlash

BBC News : http://news2.thls.bbc.co.uk/hi/english/sci/tech/newsid%5F620000/620847.stm

Simulation numérique et expérimentale du complexe crâne-cerveau soumis à un impact
Samedi, 19/02/2000 - 00:00

Les blessures crânio-encéphaliques forment une part importante des lésions observées en cas d'accident de la circulation ou du travail. Le nombre d'accidents liés à la vitesse et au nombre de véhicules s'est considérablement accru ces dernières décennies, devenant un véritable problème de société. D'où la nécessité d'optimiser la protection de la tête vis-à-vis des chocs ce qui implique une bonne connaissance du comportement mécanique de la " structure " à protéger, une compréhension des mécanismes de lésion et une meilleure définition des limites de tolérance crânio-cérébrale. Les travaux de recherche menés au Laboratoire des systèmes bio-mécaniques et cognitifs de l'Institut de mécanique des fluides de Strasbourg sur pièces anatomiques ont conduit à établir des normes de sécurité fondées sur l'accélération de la tête d'un mannequin. Le prototype conçu au laboratoire est la seule approche innovante qui permette actuellement de s'affranchir des têtes de mannequin disponibles qui sont toutes constituées d'une seule masse indéformable (alors que la tête humaine est une structure composée de plusieurs masses déformables). L'ensemble de ce travail constitue une étape importante vers l'élaboration d'outils prédictifs de lésions, l'estimation de l'agressivité d'un choc et la définition de la limite de tolérance de la matière cérébrale. Il permettra à terme, d'évaluer et d'optimiser les systèmes de protection de la tête sur la base de critères bio-mécaniques.

CNRS : http://www.cnrs.fr/Cnrspresse/n381a5.htm

Une maladie cardiaque soignée chez la souris par thérapie génique
Samedi, 19/02/2000 - 00:00

Une thérapie génique a permis de supprimer chez la souris les plaques de graisse qui se déposent dans les artères, provoquant leur rétrécissement et à terme une attaque, indique une étude à paraître vendredi dans la revue Arteriosclerosis, Thrombosis, and Vascular Biology. Les chercheurs ont implanté chez des souris spécialement traitées pour l'expérience une version humaine du gène en charge de la production de l'apolipoprotéine E (apoE), une protéine permettant le transport et le contrôle du cholestérol dans le sang. "Il y avait une énorme différence dans la quantité de dépôts de graisse entre les animaux traités et ceux qui ne l'étaient pas, et nous pouvons dire qu'il n'y en avait pratiquement pas dans les vaisseaux sanguins du groupe ayant reçu une thérapie génique", a déclaré le principal auteur de l'étude, le Dr Nicolas Duverger, des laboratoires Gencell de Vitry/Seine, près de Paris (France). "Nous avions d'abord pensé vérifier si nous pouvions arrêter la progression des plaques, (...) mais en fait nous avons observé une totale régression des lésions", a-t-il dit. Les souris traitées ont enregistré une diminution importante de leur taux de cholestérol, qui est passé en trois semaines de 591 milligrammes par décilitre à 92 mg/dl, et une disparition des plaques, a-t-il ajouté. "Il n'avait jamais été démontré jusqu'à présent qu'il était possible d'enlever complètement les plaques chez un animal ou un homme en altérant seulement son taux de lipoprotéine dans le sang par un gène", a souligné le Dr Duverger. "Il existe un besoin pour de nouvelles thérapies efficaces destinées à traiter les personnes souffrant d'un taux élevé de cholestérol", a encore noté le Dr Duverger en envisageant la mise au point d'une thérapie génique pour renforcer chez le patient la production de protéine apoE.

Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=680

Un nouveau traitement pour les cancers du poumon inopérables
Samedi, 19/02/2000 - 00:00

L'Indiana University School of Medicine aux Etats Unis va, pour la première fois au monde, essayer une nouvelle thérapie non-invasive qui pourrait aider les patients atteints d'un cancer du poumon à un stade précoce mais médicalement inopérable. Cette nouvelle méthode repose sur la radiothérapie stéréotactique du corps et utilise des radiations aux photons d'intensité modulée, l'imagerie en 3-D et la cartographie stéréotactique du corps.

Brève rédigée par @RTFlash

Emory : http://www.emory.edu/WHSC/HSNEWS

Maladies cardio-vasculaires : la France bonne élève de l'Europe
Samedi, 19/02/2000 - 00:00

La France, l'Espagne et le Portugal sont les pays de l'Union européenne où le taux de mortalité dû aux maladies cardio-vasculaires est le plus bas, selon une étude de la British Heat Foundation. Le rapport de la fondation souligne que la France est le pays européen où le nombre de décès liés à ce type de pathologie a le plus régressé depuis le milieu des années 1980. L'Irlande, la Finlande et la Grande-Bretagne se trouvent à l'autre extrémité du spectre. En Irlande et en Finlande, le taux de mortalité cardio-vasculaire des 35-74 ans est quatre fois plus élevé qu'en France. L'étude de la fondation britannique révèle également que l'Irlande et l'Angleterre détiennent le "record" européen en terme de pontages coronariens effectués et note que c'est dans ces deux pays que la consommation de fruits et légumes est la plus faible de l'UE. La British Heat Foundation souligne que ces résultats peuvent s'expliquer par une mauvaise hygiène de vie des britanniques caractérisée notamment par une consommation d'alcool en hausse, une consommation de tabac élevée, une alimentation trop pauvre en fruits et légumes trop riche en graisses.

Brève rédigée par @RTFlash

BBC News : http://news.bbc.co.uk/hi/english/health/newsid_639000/639460.stm

Vers un traitement de la bactérie coliforme
Samedi, 19/02/2000 - 00:00

Une nouvelle étape vient d'être franchie dans la mise au point du traitement d'une bactérie coliforme particulièrement dangereuse pour les reins, une souche de la bactérie E. coli, responsable de la mort de 250 personnes chaque année aux Etats-Unis, dont des enfants de moins de cinq ans. Des chercheurs canadiens de l'Université de l'Alberta ont en effet mis au point un "inhibiteur" de la bactérie 0157:H7, une souche virulente de l'E. coli. Si les tests menés chez l'homme s'avéraient efficaces, une étape importante sera franchie. A l'heure actuelle, il n'existe ni vaccin contre les infections dues à l'E. coli, ni inhibiteurs de cette bactérie, et les médecins soulignent qu'ils ne peuvent rien faire d'autre contre les atteintes rénales que ce micro-organisme provoque qu'une dialyse ou une transfusion sanguine. Selon les chercheurs, cet inhibiteur, surnommé "étoile des mers" par ses concepteurs à cause de ses cinq liaisons chimiques, est riche de promesses, mais des essais complémentaires sont nécessaires. La bactérie E. coli est devenu un problème de santé important dans les années 80 et 90 et l'on estime à au moins 70.000 le nombre d'Américains contaminés chaque année.

Brève rédigée par @RTFlash

New York Times : http://www.nytimes.com/yr/mo/day/national/index-science.html

Les risques d'une hypertension mal contrôlée
Samedi, 19/02/2000 - 00:00

La survenue d'accidents cardio-vasculaires chez les patients traités pour hypertension est très souvent liée à une pression artérielle mal stabilisée. Les résultats d'une étude menée par O.Klungel (Université d'Utrecht, Pays-Bas) indiquent que 27 % des accidents ischémiques et 57 % des accidents hémorragiques sont liés, chez les malades souffrant d'hypertension, à un contrôle de la pression artérielle insuffisant. Cette enquête, publiée dans le numéro de Février de Stroke, a été menée sur une série de patients américains victimes d'une première attaque ischémique ou hémorragique et traités pour hypertension. La population témoin était formée de patients traités pour HTA n'ayant jamais été victime d'accident cardio-vasculaire. Une pression artérielle supérieure à 140/90 mm Hg a été définie comme pathologique (ou mal contrôlée) chez les individus traités pour hypertension. En conclusion, les auteurs indiquent que 27 % des accidents ischémiques et 57 % des accidents hémorragiques peuvent être attribués à une hypertension mal contrôlée chez ces patients. Au vu de ces résultats, les chercheurs estiment qu'un meilleur contrôle de la pression artérielle réduirait notablement le nombre d'attaques cardio-vasculaires chez les patients pour hypertension artérielle.

Caducée : http://www.caducee.net/

Une nouvelle méthode génétique pour mieux détecter les maladies héréditaires
Samedi, 19/02/2000 - 00:00

Des chercheurs américains ont développé une nouvelle méthode de test génétique que détermine de manière plus précise les risques de cancer du colon héréditaire. La méthode constitue un net progrès par rapport aux tests actuels qui souvent ne peuvent pas détecter si les patients sont porteur d'un gène qui les prédispose à ce type de cancer. " les tests génétiques actuels pour le cancer du colon ne sont pas satisfaisants" souligne Bert Vogelstein, du Centre d'oncologie de l'Université Johns Hopkins qui a participé à ces recherches. Cette nouvelle technique permet d'augmenter de manière significative la sensibilité de ces tests et de détecter pratiquement dans 100 pour 100 des cas les gènes connus qui prédisposent à ce type de cancer. Les scientifiques soulignent que cette nouvelle méthode, décrite dans l'édition du 17 février de "Nature", améliorera probablement les tests génétiques pour beaucoup d'autres maladies héréditaires, y compris d'autres types de cancer et de désordres neurologiques. chaque individu possède deux copies de chaque gène, une de leur mère et un de leur père. dans le cas du le cancer héréditaire du colon seulement un de ces gènes doit être défectueux pour causer la maladie. En utilisant le test génétique conventionnel, les deux copies du gène sont analysées en même temps et les médecins ont du mal à distinguer les deux puisque la " bonne " copie peut souvent masquer ou cacher la présence de la copie du gène mutant. Pour surmonter cette incertitude, Vogelstein et son équipe ont développé une nouvelle méthode d'analyse de gène qui permet de séparer les gènes et de les analyser individuellement. Vogelstein pense que sa méthode devrait permettre détecter avec un haut degré de probabilité de nombreuses maladies héréditaires.

Brève rédigée par @RTFlash

New York Times : http://www.nytimes.com/yr/mo/day/news/national/science/sci-colon-cancer.html

Wired : http://www.wired.com/news/technology/0,1282,34359,00.html




La fonction de chaque gène bientôt déterminée
Samedi, 19/02/2000 - 00:00

La connaissance complète des interactions entre les protéines cellulaires semble aujourd'hui à la portée de la science. En effet, des chercheurs américains ont développé une technique capable de répertorier les milliers de contacts physiques entre les protéines d'une même cellule. Ces travaux, publiés dans le numéro de Nature du 10 février, devraient permettre de mieux connaître les différentes voies métaboliques et donc de définir le rôle de chaque protéine dans une cellule. Ces recherches ont été réalisées chez la levure de boulanger Saccharomyces cerevisiae. La levure est un organisme unicellulaire qui présente de nombreuses similarités avec les cellules d'organismes plus évolués telles que les cellules humaines. Elle constitue donc un excellent modèle pour l'étude des processus biologiques mis en jeu à l'échelle de la cellule. Très étudiée en laboratoire, son génome a été totalement séquencé en 1996. Ainsi, environ 6000 gènes ont pu être identifiés. Les équipes de S.Fields (Université du Washington, Seattle, USA) et J.Rothberg (CuraGen Corporation, New Haven, USA) ont analysé les interactions globales entre les protéines de levure. Deux méthodes, qui nécessitent la connaissance de la totalité du génome, ont été utilisées. Chacune d'elles fait appel à la biologie moléculaire et à la bio-informatique. En effet, l'analyse des interactions protéine/protéine aurait été particulièrement lente et fastidieuse sans le développement d'un système automatisé. Grâce à cette technologie, 957 interactions impliquant 1004 protéines différentes ont été détectées. Les chercheurs espèrent, à terme, créer une cartographie des interactions entre toutes les protéines de levure. Cette technique devrait être applicable aux cellules humaines et, lorsque l'intégralité du génome humain aura été séquencée (dans 1 à 2 ans), devrait permettre de définir la fonction des 60 à 100000 gènes que compte une cellule humaine. Au delà de la connaissance fondamentale intime des interactions gènes-protéïnes, l'enjeu médical et industriel de ces recherches est immense car elles déboucheront sur la mise au point d'une nouvelle génération de molécules qui devraient s'avérer très efficaces contre de nombreuses maladies, maladies auto-immunes, cancer et maladies neurologiques notamment.

http://www.nature.com/server-java/Propub/nature/403623A0.frameset?context=toc

BBC News : http://news.bbc.co.uk/hi/english/sci/tech/newsid_639000/639195.stm

Nature : http://www.nature.com/server-java/Propub/nature/403623A0.frameset?context=toc

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La Commission européenne lance un programme pour l'emploi dans l'économie cognitive
Samedi, 19/02/2000 - 00:00

La Commission européenne a lancé une nouvelle stratégie ambitieuse pour promouvoir l'emploi dans la nouvelle économie cognitive dans la nouvelle économie cognitive, ainsi que pour surmonter l'écart avec les Etats-Unis en matière d'accès à Internet et d'utilisation des technologies de l'information et des communications. Actuellement, le taux d'accès à Internet en Europe est non seulement beaucoup plus faible qu'aux Etats-Unis, mais il est concentré dans les groupes à fort revenu, chez les hommes, et - géographiquement - en Europe du Nord. Demandant que des mesures globales soient prises dans l'Europe toute entière, Mme Anna Diamantopoulou, membre de la Commission chargé de l'emploi, a déclaré: "Notre objectif est de construire une économie cognitive - c'est le seul moyen de créer des emplois et de la croissance en Europe dans les années à venir. Si nous pouvons combiner compétitivité et cohésion dans la nouvelle économie cognitive, l'Europe servira de modèle au monde. Le document de la Commission fait état d'un certain nombre de possibilités et de défis liés à l'économie cognitive, examine des exemples des meilleures pratiques existantes en Europe, ainsi que certaines faiblesses et certains risques auxquels l'Europe doit faire face. D'ici 2010, la moitié de l'ensemble des emplois appartiendront à des secteurs qui sont soit d'importants producteurs soit des utilisateurs intensifs de produits et de services des technologies de l'information. Ce document souligne qu'environ 9 millions d'Européens sont déjà des télétravailleurs et que 81 millions de personnes sur les 117 millions ayant moins de 25 ans dans l'Union européenne se trouvent dans des établissements d'enseignement. C'est la génération Internet qui représente aussi la relève sur le marché de l'emploi. L'emploi dans la société de l'information devient déjà, en moyenne, moins stable et moins sûr que dans le passé et il dépend davantage de compétences et de capacités d'adaptation élevées. Le taux de pénétration d'Internet dans l'UE est inférieur à celui des Etats-Unis: actuellement, il ne correspond qu'à un tiers du taux de pénétration dans ce pays. Les internautes européens passent également beaucoup moins de temps en ligne - moins d'un quart du temps qu'y passent les utilisateurs américains. Les risques d'exclusion de la société de l'information atteignent un niveau inquiétant: la grande majorité des internautes européens est concentrée dans le nord de l'Europe; les personnes ayant un revenu élevé sont environ deux fois plus susceptibles d'utiliser Internet que les personnes ayant un revenu moyen, et presque trois fois plus que les personnes ayant un faible revenu. À la fin de l'année 1998, seulement un quart des internautes en Europe étaient des femmes - alors que ce pourcentage était de 50 % aux Etats-Unis. Des comparaisons au niveau international montrent qu'en Europe la prochaine génération de travailleurs risque de ne pas disposer de compétences clés par rapport à leurs homologues internationaux. Le déficit de qualification existe déjà aujourd'hui, les besoins non satisfaits en main-d'oeuvre hautement qualifiée limitant la croissance dans les secteurs des logiciels, des services et des télécommunications. La pénurie de spécialistes des technologies de l'information en Europe Occidentale pourrait atteindre 1,6 million d'emplois d'ici 2002. L'Europe - en particulier les PME - est en retard en matière d'innovation et d'utilisation des technologies modernes de l'information et des communications. Dans son rapport, la Commission présente des recommandations spécifiques dans quatre domaines principaux - éducation, travail, services publics et entreprises - assorties d'échéances et d'indicateurs de contrôle spécifiques. Il s'agit des recommandations suivantes.

Education

-* Relier chaque école à Internet d'ici 2002.

-* Garantir que tous les enseignants ont des compétences vérifiables en matière de société de l'information.

Travail

-* Garantir que l'ensemble des travailleurs ont la possibilité d'acquérir les nouvelles compétences clé de la société de l'information.

-* Etablir des cadres flexibles pour le télétravail, remplissant les nouveaux besoins des entreprises et des salariés.

-* Appliquer des normes conviviales pour l'équipement afin d'améliorer l'employabilité des personnes handicapées.

Société

-* Créer des sites Internet conviviaux contenant des informations sur les droits civils et les services publics.

-* Créer des points d'accès publics à Internet et dispenser une formation sur place en matière de société de l'information dans tous les lieux publics (bibliothèques, bureaux de poste, par exemple).

Entreprises

-* Encourager l'esprit d'entreprise par des politiques fiscales récompensant la prise de risques.

-* Promouvoir l'utilisation des outils de la société de l'information par les PME dans le cadre de programmes publics.

Commission européenne : http://europa.eu.int/rapid/start/cgi/guesten.ksh?p_action.gettxt=gt&doc=IP/00/11...|0|RAPID&lg=FR

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'arbre à cames est mort, vive l'" actuateur " !
Samedi, 19/02/2000 - 00:00

Il n'y a rien de mieux qu'une bonne législation contraignante pour pousser les ingénieurs de l'automobile à innover. La baisse de consommation des voitures imposée par Bruxelles a déjà fait la fortune de l'injection directe. Et voilà les motoristes qui envisagent carrément de se débarrasser du bon vieil arbre à cames commandant l'ouverture et la fermeture des soupapes. A sa place, ils entendent installer sur chaque soupape un système de commande indépendant, nommé " actuateur ". Tous ces actuateurs seront gérés par un calculateur électronique chargé de faire régner l'harmonie entre eux. Cette commande séparée de chaque soupape procurera au moteur une souplesse extraordinaire. Il deviendra possible d'optimiser les moments d'ouverture et de fermeture des soupapes à chaque régime et à chaque charge du moteur. Ainsi, à bas régime, pourra-t-on augmenter le couple moteur, ce qui permettra d'allonger les rapports de la boîte de vitesses et de baisser le ralenti. D'où une consommation moindre. Mais, surtout, l'indépendance des actuateurs permettra de découpler les cylindres. Ainsi, à faible charge, pourra-t-on faire tourner le moteur sur " deux pattes " seulement. Autre option : commander l'admission pour qu'il n'y ait pas une explosion tous les deux tours de vilebrequin mais tous les trois, quatre ou six tours. Le moteur fonctionnera alors sur huit, dix ou douze temps ! Par ailleurs, l'actuateur réduit drastiquement le nombre de pièces en mouvement, puisqu'il n'y a plus d'arbre à entraîner via tout un système de transmission. Ces avantages réunis permettent d'espérer 15 à 20 % de sobriété supplémentaire pour les moteurs, même si les actuateurs, qui utilisent des électroaimants, sont de gros consommateurs d'énergie. Bref, le glas sonnera bientôt pour l'arbre à cames. Chez Renault comme chez PSA, on se prépare à en prendre le deuil d'ici à cinq ans.

Point : http://www.lepoint.fr/data/PNT1430/3003303P.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top