RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 91
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 31 Mars 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
300 millions d'internautes dans le monde
Internet obéit à la voix de son maître
Cisco plus lourd que Microsoft
La Finlande, pays le plus connecté du monde
ThinkFree : une alternative aux applications bureautiques de Microsoftsur le Net
L'oeil électronique français à l'assaut des Etats-Unis
Dopez votre micro-ordinateur !
Du MP3 sur cassette
Grâce à DivX, un film entier tient sur un CD-ROM
Le livre électronique, extension de l'internet
Avenir
Une maison traditionnelle fabriquée en 2 jours !
Matière
Atome et photon... Enfin seuls !
À la recherche de l'anti-gravité
La pile à combustible, une technique d'avenir pour faire du courant
Premier site français pour une pile à combustible
Espace
Découverte de petites planètes extra-solaires
Terre
Effet de serre : accélération en vue ?
Vivant
Une analyse de sang simple et peu coûteuse pourrait prévenir la crise cardiaque
La télémédecine se met à l'heure de l'espace
Les vitamines C et E protégeraient de certaines maladies mentales
Les antibiotiques de nouvelle génération bientôt disponible
Les volcans seraient à l'origine de la vie
L'huile d'olive permettrait de réduire la consommation d'antihypertenseurs
L'infarctus tue de moins en moins
Le séquençage du génome la drosophile est terminé
Les gènes préfèrent la micro-gravité
Des empreintes génétiques "digitales"
Les tests génétiques, une menace potentielle pour les travailleurs
Recherche
Le Rapport de MM. Christian Cuvilliez et René Trégouët sur le synchrotron est en ligne
Edito
Voici les raisons pour lesquelles il faut construire un synchrotron de 3e génération en France



Le rayonnement électromagnétique produit par un Synchrotron de 3e génération est mille milliards (1012) de fois plus lumineux que le tube à rayons X qui permet à notre radiologue d'obtenir une photographie précise de notre squelette. Cette brillance extrême dans une large plage de longueurs d'onde qui va de l'Ultraviolet jusqu'aux Rayons X durs (10-11m), et ce en maîtrisant des faisceaux particulièrement fins, permet d'aller analyser la matière dans sa structure la plus intime et la plus élémentaire. Il y a quelques décennies, le rayonnement synchrotron n'intéressait que les physiciens pour mieux comprendre les structures atomiques. Mais depuis, les chimistes mais aussi les biologistes ont découvert toute l'importance des synchrotrons. C'est d'ailleurs dans ce dernier domaine que la demande croît le plus vite, essentiellement pour étudier les structures des protéines. Quand on sait que de la connaissance de ces structures dépendent les avancées essentielles qui seront faites dans ces prochaines décennies pour comprendre le fonctionnement du génome qui porte le secret de notre vie, nous ressentons que le Synchrotron est un outil singulier qui jouera un rôle important pour éclairer l'avenir de l'humanité. Cela est si vrai que de nombreux synchrotrons de 3e génération sont déjà construits ou sont en projet dans de très nombreux pays. Et cela n'est pas vrai seulement pour les Etats-Unis (qui comptent déjà 11 synchrotrons de toutes générations), le Japon (qui en a 16) ou l'Allemagne (qui en a 5) mais même des pays aux budgets plus modestes comme l'Italie, la Suède, la Suisse, l'Australie, la Thaïlande et même Taiwan ont déjà ou sont sur le point de construire des synchrotrons. Il ne faut donc pas confondre les synchrotrons avec les autres très grands équipements (TGE) scientifiques tels que les collisionneurs linéaires ou les satellites qui, certes, sont très importants mais n'intéressent que des communautés scientifiques très spécialisées et réduites. Le Synchrotron peut être comparé à un super laboratoire du futur qui permet à de nombreux chercheurs, physiciens, chimistes, biologistes qui, sans un tel outil, ne se seraient jamais rencontrés. Le Synchrotron est donc un lieu de fécondation singulier, non seulement parce qu'il permet, pour chacun d'entre eux, à quelque 2000 chercheurs venant d'horizons différents de travailler ensemble mais c'est aussi un lieu d'avenir car il réunit dans un même endroit non seulement des chercheurs fondamentaux mais aussi des étudiants (il y en a 1300 au Hasylab à Hambourg) ainsi que les chercheurs de développement des industries du futur. C'est bien ce rôle singulier de fertilisation croisée qui facilite la disparition des cloisons entre les disciplines et qui permet à l'ensemble des acteurs qui construisent l'avenir de nos connaissances, qu'ils soient étudiants, chercheurs ou industriels, de travailler ensemble et de mêler (enfin) leurs cultures, qui donne toute sa dimension de symbole au Synchrotron. Toutes les études montrent que les besoins en rayonnement synchrotron de 3e génération devraient doubler dans ces dix prochaines années. Aussi, au moment où de façon simultanée, la Grande-Bretagne (Daresbury) et la France (Le Lure) vont devoir éteindre leur unique source nationale synchrotron de 1ère et 2e générations devenues obsolètes, il ne serait pas raisonnable de penser qu'il serait suffisant, pour nos deux grands pays, de construire un seul synchrotron, de 3e génération, près d'Oxford. Certes, les anglais pourraient se montrer heureux devant une telle hypothèse puisqu'une nouvelle source synchrotron construite sur leur sol serait cofinancée par notre Pays. Mais cela serait un mauvais coup donné à l'ensemble de la Recherche française car, alors que notre communauté scientifique du synchrotron est l'une des meilleures du Monde, celle-ci risquerait de se disloquer très rapidement tant les offres que nos chercheurs reçoivent déjà d'autres pays sont alléchantes. Nous n'avons pas le droit de casser notre avenir. Or, cela peut être très rapide. L'Italie l'a malheureusement vérifié il y a quelques années quand elle a vu se briser en quelques mois sa communauté neutronique, qui était l'une des plus pointues, lorsque la décision fut prise par le pouvoir politique d'arrêter tous les réacteurs nucléaires. Certains comptables nous affirment que le fait de réserver des lignes de lumière sur le synchrotron anglais et de louer des lignes de lumière sur les synchrotrons suisse et allemand reviendrait moins cher à la France. Comme nous l'avons demandé dans le rapport que je viens de présenter avec mon collègue Député-Maire de Dieppe, Monsieur Christian Cuvilliez, devant l'Office Parlementaire d'Evaluation des Choix Scientifiques et Technologiques, et qui a été adopté à l'unanimité par tous les membres de l'Office, même cette approche est erronée si nous faisons le calcul du coût par unité de temps et par utilisateur et en ne prenant pas seulement en compte les coûts d'investissements. Nous avons montré que ces surcoûts ramenés à l'utilisateur dépasseraient les 50 % si nous comparons ces coûts avec ceux qui devraient être pris en compte sur le Budget national de la Recherche pour un synchrotron de 3e génération construit en France. Certains autres « décideurs » ont imaginé que la France pourrait se satisfaire d'un petit synchrotron de 1,5 GeV (Gigaélectronvolts) au lieu de celui de 2,75 GeV prévu dans le programme Soleil. Ce serait là aussi une erreur car cette machine, incapable de générer des X durs, n'intéresserait plus les biologistes et ne serait donc plus cet outil de fécondation porteur d'avenir. Il faut donc que le nouveau Ministre de la Recherche décide, sans tarder, de reprendre le dossier Soleil qui en était déjà à l'avant projet détaillé quand il a été brutalement stoppé il y a quelques mois et trouve les moyens d'en lancer très rapidement la construction. Pour réussir cette opération déterminante pour l'avenir de la Recherche française, le Ministre doit trouver un scientifique « manager » meneur d'hommes, gestionnaire et visionnaire auquel il devra attribuer de larges délégations pour qu'il prenne à bras le corps cette réalisation particulièrement difficile. Un statut singulier, très différent du statut actuel du Synchrotron du Lure qui le rattache à la fois au Ministère de la Recherche, au CNRS et au CEA, devra être trouvé. La Communauté des chercheurs, ingénieurs, techniciens et administratifs, dont le rôle est essentiel pour faire tourner cette machine du futur, devra également accepter de nouvelles règles du jeu, à condition qu'on sache leur rendre leur honneur et que la nation sache les rémunérer à la juste mesure des efforts qu'ils accomplissent et des espérances qu'ils portent.

René TREGOUET

Sénateur du Rhône


TIC
Information et Communication
300 millions d'internautes dans le monde
Samedi, 01/04/2000 - 00:00

Une étude canadienne récente estime à 300 millions le nombre total d'internautes dans le Monde et en prévoit un milliard en 2005. Les estimations les plus récentes, qui faisaient état de 275 millions de personnes "branchées", sont bien en deçà de la réalité, selon le sondage "Image du Web", réalisé de novembre à janvier auprès de 28.374 consommateurs de 34 pays. Angus Reid rappelle qu'en 1996 40 millions de personnes utilisaient l'internet. D'ici un an, 150 millions de personnes devraient encore "se brancher", révèle le sondage, soulignant toutefois que si la croissance du marché semble inéluctable, près de 4 sondés sur 10 n'envisagent pas d'utiliser l'internet dans les 12 prochains mois, donnant pour raisons principales un manque d'intérêt personnel, une absence de connaissances et peu d'utilité. Le recours à l'internet demeure aussi fortement concentré dans les pays industrialisés et la situation risque de perdurer, selon le sondage. Les Américains arrivent largement en tête des branchements à l'internet, avec 108 millions d'utilisateurs, soit 39% du total mondial. Aux Etats-Unis, 59% de la population dispose d'un accès à l'internet, contre 56 % au Canada et 33% au Japon, ajoute Angus Reid. En Europe, les pays moteurs sont la Suède, les Pays-Bas, la Finlande et la Suisse. Seulement 20 % des personnes ayant répondu au sondage disposent d'un accès à internet à la maison, alors que 97% ont un téléviseur, 48 % un téléphone cellulaire et 42 % un ordinateur personnel.

brève rédigée par @RTFlash

Newsbytes : http://www.newsbytes.com

Internet obéit à la voix de son maître
Samedi, 01/04/2000 - 00:00

Le centre de recherche et développement de France Télécom expérimente un accès à Internet par la voix à partir d'un téléphone, fixe ou mobile. L'opérateur utilise la technologie VoiceXML, en cours de standardisation, qui permet de décrire des dialogues dans des pages HTML. " Nous travaillons depuis plus de quinze ans sur la synthèse et la reconnaissance de la parole ", explique Laurent Courtois, responsable d'unité R&D chez France Télécom. Le moteur de reconnaissance vocale PhilSoft et le moteur de synthèse vocale sont déjà utilisés dans divers services d'Itineris (511 et 711), l'annuaire 3617 Quidonc ou le portail audiotel 3223. Aujourd'hui, le système de reconnaissance vocale intègre 10 000 mots dans sa fonction d'annuaire. " Il est prévu de gérer plusieurs millions de mots d'ici à l'année prochaine ", ajoute le chercheur. Dans sa version actuelle, le service existe en trois langues : français, anglais et américain, et allemand. Deux nouvelles langues sont en préparation : l'arabe et l'espagnol. Il est aussi prévu de faire évoluer le service vers le langage naturel, ce qui permettra à l'utilisateur de parler par phrases et non par mots-clés. Lorsque les applications reposant sur cette technologie seront en service, au début de l'année prochaine, les utilisateurs appelleront un serveur vocal doté d'un numéro spécifique. Ils pourront naviguer sur un portail équipé d'outils de reconnaissance vocale et écouter les informations qui les intéressent. " Ces services visent les internautes nomades qui pourront accéder aux sites portails, grand public ou d'entreprise, poursuit Laurent Courtois. Les malvoyants et les opérateurs de téléphonie mobile sont aussi intéressés. " Pour que les utilisateurs puissent accéder à tous les services, il faudra que les bouquets de services et les portails soient configurés pour recevoir les appels vocaux. Les sites pourront confier la vocalisation de leurs pages à leurs hébergeurs. Les directions marketing de France Télécom décideront de la mise en service d'applications vocales par l'opérateur.

OI Informatique : http://www.01-informatique.com/01/index.html

Cisco plus lourd que Microsoft
Samedi, 01/04/2000 - 00:00

Vendredi, Cisco aurait atteint une capitalisation boursière supérieure à celle de Microsoft. Pour d'autres, les deux entreprises seraient au coude à coude. Selon le Wall Street Journal, Cisco pèserait 564,8 milliards de dollars, et Microsoft 556,6 milliards de dollars. a titre de comparaison la capitalisation de cisco représente 2 fois le budget de la France! Il a fallu vingt-quatre ans à Microsoft pour atteindre cette capitalisation boursière et un peu moins de quatorze ans pour Cisco. Celle-ci pourrait encore creuser l'écart, à l'occasion d'une décision judiciaire défavorable pour Microsoft, notamment. Néanmoins, devenant l'une des firmes les plus puissantes de la nouvelle économie, Cisco prétend que 80 % du trafic Internet passe sur ses routeurs. Ajoutant à cela son appétit en termes d'acquisitions, vingt-cinq sociétés à avaler cette année, la place de facto sous l'oeil vigilant des autorités antitrust.

OI Informatique : http://www.01-informatique.com/01/index.html

La Finlande, pays le plus connecté du monde
Samedi, 01/04/2000 - 00:00

La Finlande remporte la palme du pays le plus connecté du monde depuis 5 ans, d'après nos confrères américains de ZDNN. Avec plus de 40 % de sa population connectée, la Finlande conserve donc le premier rang mondial des pays utilisateurs du net. L'institut de sondage Taloustutkimus estime le nombre d'internautes de ce pays à 2,2 millions, contre 1,7 il y a un an, sur un total de 5,1 millions d'habitants. Concernant le nombre d'ordinateurs privés connectés au réseau, les chiffres portent sur le premier semestre 1999 et donnent le palmarès suivant : la Finlande est suivie par les États-Unis, l'Islande, la Norvège et la Suède. Patrie du géant des télécommunications Nokia, la Finlande est également sur la plus haute marche du podium en ce qui concerne les utilisateurs de téléphones portables : plus de 65 % des Finlandais en sont munis.

ZDNet : http://www.zdnet.fr/actu/inte/a0013645.html

ThinkFree : une alternative aux applications bureautiques de Microsoftsur le Net
Samedi, 01/04/2000 - 00:00

ThinkFree, une start-up californienne, propose l'utilisation gratuite et sur Internet d'applications bureautiques 100 % compatibles avec celles fournies par Microsoft dans sa suite Office. "Notre modèle est celui d'un loueur d'applications, sauf que dans notre cas, c'est gratuit pour l'utilisateur", explique Ken Rhie, l'un des dirigeants de l'entreprise. Depuis un an, l'hébergement d'applications via Internet ou ASP (Application Service Provider), du web à la comptabilité analytique de l'entreprise, est un phénomène qui se généralise. Il devrait représenter, selon IDC, près de 23 milliards de dollars de chiffre d'affaires en 2003. Dans ce marché en forte croissance, la location d'applications bureautiques vient à peine de décoller, avec le rachat l'automne dernier de l'éditeur StarOffice par Sun Microsystems. Même Microsoft s'y met, après avoir largement dénigré le concept, et a indiqué qu'il proposera une version en ligne de sa suite Office. Mais selon Ken Rhie, le modèle de distribution de Microsoft ne marchera pas. "Nous, nous proposons gratuitement l'équivalent de l'ensemble de la suite Office, avec un traitement de texte, un tableur, un logiciel de présentation et un client de messagerie. Le tout est entièrement écrit en Java et reprend la même interface graphique que Microsoft Office". Le modèle de distribution de la start-up est également très innovant. Alors que Microsoft installe Office Online sur une version Terminal Server de Windows NT, il oblige l'utilisateur à se servir d'un terminal Windows pour y accéder. Cela demande une bande passante énorme qui n'existe qu'au sein d'un Intranet et s'adresse avant tout aux entreprises qui désirent centraliser l'accès à Office. Tandis que StarOffice Portal de Sun oblige l'utilisateur à se familiariser avec une nouvelle interface utilisateur". Une fois inscrit sur le site de ThinkFree, l'utilisateur télécharge l'applet Java de l'application qu'il souhaite utiliser : un équivalent de Word, Excel, Outlook ou PowerPoint. "Malgré ce que l'on peut croire, il n'est pas illégal de reprendre l'interface graphique d'une application concurrente, puisque celle-ci n'est pas protégée par le copyright", selon Ken Rhie. Les applications de ThinkFree récupèrent tous les fichiers au format Microsoft, ce qui permet ensuite de les modifier et même d'accéder aux applications, une fois déconnecté du réseau.

Les Echos : http://www.lesechos.fr/hightech/index.html

L'oeil électronique français à l'assaut des Etats-Unis
Samedi, 01/04/2000 - 00:00

A en croire le cabinet PricewaterhouseCoopers, la firme française Bureau d'Etudes Vision (BEV) pourrait avoir développé une puce capable de générer des milliards de dollars de chiffre d'affaires dans les cinq ans à venir. Baptisé GVPP " Generic Visual Perception Processor " pour conquérir les Etats-Unis, ce microprocesseur simule l'oeil et les fonctions visuelles du cerveau humain avec une capacité de traitement de 20 milliards d'instructions par seconde. Il permet d'identifier des objets prédéterminés, de reconnaître les couleurs, de détecter les mouvements et d'en évaluer la vitesse et la direction. D'où une multitude d'applications possibles (BEV en a déjà recensé une centaine): de la sélection des fruits dans l'agriculture à l'acquisition de cibles dans le domaine militaire en passant par des systèmes de sécurité pour l'automobile (évitement des collisions par exemple)... Détenteur d'un produit unique, BEV a également décidé d'innover dans la façon de vendre sa technologie : la mise aux enchères. Objectif : obtenir le meilleur prix. Selon Reuters, ce serait la première mise aux enchères de ce type. Travaillant avec PWC, la firme française a mis au point une procédure en trois étapes qui pourrait durer six mois. Soixante prétendants potentiels, dont le nom n'a pas été dévoilé, ont d'ores et déjà reçu un dossier de présentation. Le vainqueur obtiendra la propriété intellectuelle et les secrets de fabrication. La production de masse de la puce GVPP pourrait descendre à 6 dollars l'unité, selon BEV.

Dopez votre micro-ordinateur !
Samedi, 01/04/2000 - 00:00

La barre du 1 GHz vient d'être franchie. Les deux principaux fabricants du marché, AMD et Intel, ont tous les deux annoncé, début mars, le lancement de microprocesseurs à 1 GHz, soit 1 000 MHz ! L'Athlon 1000 d'AMD à lui seul vaut 1 300 dollars, le Pentium III 1000 d'Intel pas moins de 1 000 dollars. A quoi sert une telle puissance ? " Au traitement des applications multimédias, en particulier les jeux ", répondent en choeur les fabricants de PC. Une machine haut de gamme achetée l'année dernière est aujourd'hui dépassée, en termes de performances. Tout le monde n'a pas les moyens de changer son équipement tous les ans. Pour rester dans la course, il existe une méthode simple, à moindre coût : l'" overclocking ". Les " hardcore gamers ", ces joueurs passionnés qui bricolent en permanence leur micro-ordinateur pour en améliorer les performances, pratiquent l'overclocking, en forçant leur microprocesseur à fonctionner à une vitesse plus élevée que celle pour laquelle il était prévu. Par exemple, en dopant la fréquence de bus (ensemble de conducteurs électriques montés en parallèle, permettant la transmission d'informations) d'un Pentium III 600, on obtient les performances d'un Pentium III 800. Selon les statistiques des résultats obtenus que publient des sites Web consacrés au matériel informatique et à l'overclocking, certains microprocesseurs sont plus prédestinés à être dopés. Ainsi, la grande majorité des Celeron 300 A fonctionneraient à 450 MHz, des Pentium III 450 à 558 ou 600 MHz, et des Pentium III 600 E à 800 MHz. Les microprocesseurs Pentium III, par exemple, sont fabriqués à partir de la même plaque de silicium, et c'est seulement à la fin de la chaîne de fabrication qu'Intel les teste un par un. Les plus stables sont commercialisés à une fréquence de 800 MHz, les moins stables à 600 MHz. Mais un microprocesseur qui s'est montré instable à 800 MHz lors des tests extrêmes dans les laboratoires du fondeur peut très bien tenir à cette fréquence lors d'une utilisation normale. L'overclocking dépend aussi de la qualité des autres composants. Par exemple, pour que le bus système fonctionne bien à 133 MHz, il vous faut de la mémoire vive fonctionnant à 133 Mhz. Vous aurez aussi besoin d'une carte mère qui augmente le voltage du microprocesseur afin de le stabiliser à une fréquence élevée. L'overclocking ne présente aucun risque pour votre PC si vous restez raisonnable et, donc, n'essayez pas de doubler la fréquence de fonctionnement du processeur. En cas d'échec, votre PC démarre mais se bloque au lancement d'un jeu et, au pire, il refuse de démarrer, affichant un écran noir.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2059-48253-MIA,00.html

Du MP3 sur cassette
Samedi, 01/04/2000 - 00:00

Pas besoin de lecteur particulier pour écouter du MP3. Un simple lecteur de cassettes suffit... à condition d'utiliser la cassette un peu spéciale de SmartDisk. Munie d'un emplacement pour carte Flash, elle est capable de stocker de la musique au format numérique. De son côté, Compaq se lancerait, lui, sur le marché devenu classique des baladeurs MP3. Du MP3 dans son banal autoradio. Le constructeur américain de produits de stockage SmartDisk a annoncé la mise au point du prototype FlashTrax. Cet appareil est extérieurement identique à une cassette à insérer dans un lecteur traditionnel (chaîne Hi-Fi, autoradio, etc.). Mais la bande magnétique est remplacée par une carte à mémoire sur laquelle seront stockés les morceaux de musique. Pour l'instant, seul le format de mémoire MultimediaCard est utilisé, un nouveau type de carte mémoire ré-enregistrable concurrent des SmartMedia et CompactFlash. Parmi les constructeurs qui s'engagent à soutenir ce format, on trouve Canon, Hitachi, Intel, Hyundai, Matsushita, Motorola, Nokia et JVC. Les capacités de ces cartes s'échelonnent pour le moment de 2 à 16 Mo et des versions à 32 Mo devraient voir le jour avant la fin d'année. Néanmoins, SmartDisk annonce que des négociations sont en cours pour que FlashTrax accepte d'autres types de carte mémoire. Pour le moment, aucun prix ni date de disponibilité n'ont été officialisés mais les dirigeants de SmartDisk sont persuadés que FlashTrax devrait être commercialisé assez prochainement. Du côté des plus classiques baladeurs, Compaq pourrait bientôt entrer dans la danse. Si, il y a un an, Diamond était quasiment seul sur le marché des baladeurs MP3 (avec le coréen Saehan), aujourd'hui de nombreux constructeurs s'engouffrent sur ce marché. Philips, Samsung, Creative Labs ou Thomson ont déjà présenté leurs produits respectifs. Et maintenant, il semble que le constructeur de PC s'apprêterait à lancer une gamme complète de baladeurs au format MP3. Aucune spécification technique n'a été précisée, tout juste sait-on que les produits devraient arriver à la fin de cette année sur le marché américain. En revanche, pour l'Europe, l'introduction de tels produits dans les gammes Compaq ne semble pas être à l'ordre du jour.

Grâce à DivX, un film entier tient sur un CD-ROM
Samedi, 01/04/2000 - 00:00

Un nouveau système baptisé DivX permet de faire tenir sur un CD-ROM classique (650 Mo) un film provenant d'un DVD (4 700 Mo) tout en gardant une qualité d'image et de son correcte. Un vrai rêve pour les copieurs. Le procédé utilisé pourrait néanmoins améliorer la diffusion vidéo sur Internet. En diminuant un peu la qualité originale du film, il est désormais possible de stocker un film complet sur un CD-ROM classique de 650 Mo. Le résultat visuel, bien qu'inférieur à celui produit par un DVD, reste supérieur à celui d'une cassette VHS. La piste son, bénéficiant de deux canaux, n'est que légèrement dégradée. Bien qu'homonyme, la technologie mise en oeuvre n'a rien de commun avec le système de paiement par vue (DivX) élaborée pour les DVD qui a été abandonné. Techniquement, DivX est un Codec, c'est-à-dire un élément logiciel permettant de compresser et de décompresser un fichier dans un format donné. Les formats de fichiers vidéo sont nombreux, le DVD Vidéo utilisant le MPEG 2. Le MPEG 4 est une évolution de ce format. Il encapsule les images et le son. Dans la norme MPEG 1 ou 2, Layer 3, plus communément appelé MP 3, ne prend en charge que la compression du son. DivX modifie le format MPEG 4 pour que la bande son soit compressée en MP 3. On obtient ainsi le meilleur des deux mondes : MPEG 4 pour les images et MP 3 pour le son. Attention tout de même, un tel CD-ROM n'est lisible que par un ordinateur et en aucun cas par un lecteur DVD de salon. Autre inconvénient, la phase de transformation est très longue. A titre d'exemple, convertir un film prend environ six heures avec un processeur AMD Athlon à 700 MHz.

Internet Professionnel : http://www.internet-professionnel.com/ip/actus/0/2909.html

Le livre électronique, extension de l'internet
Samedi, 01/04/2000 - 00:00

Le principe du livre numérique se fonde sur la connexion à l'Internet des appareils électroniques de lecture. C'est bien l'Internet qui renouvelle une formule de lecture nomade, développée sans grand succès dès l'apparition des premiers disques optiques numériques. Car le téléchargement des titres, qui s'effectuera depuis des sites portails, selon des procédures sécurisées, donnera accès, de manière quasi-immédiate, à des contenus de plus en plus étoffés. C'est du moins ce qu'affirment des sociétés comme Havas ou 00h00.com. Pour ce, le cryptage, qui assure l'inviolabilité des copies téléchargées, est particulièrement étudié pour éviter les dérapages du MP3 (format de compression des sons utilisés pour diffuser de la musique en ligne). Une norme internationale, l'OEBS (Open E-Book Standard) définit le format des données. Les livres numérisés peuvent être lus sur divers supports, comme les ordinateurs portables, les livres électroniques (e-book), spécialement conçus (en particulier en Europe par la société Cytale) pour cet usage, ou encore sur des supports à encre électronique. Microsoft propose un logiciel de lecture qui améliore la lisibilité des livres numérisés lorsqu'on les visualise sur des dispositifs à cristaux liquides. Cytale a breveté un format qui complète l'OEBS pour un affichage optimal, quelque soit la taille de l'écran et le corps des caractères utilisés. Quant à l'encre électronique, il s'agit de supports de même aspect que les livres traditionnels, avec des pages souples renfermant des systèmes électroniques capables d'afficher le texte du livre en mémoire. Une technologie encore en phase de développement, mais qui semble prometteuse. Comme toujours, c'est l'utilisateur qui donnera son verdict, même si dans ce domaine et depuis quelques années déjà, l'offre semble créer la demande.

Sciences en ligne : http://www.sciences-en-ligne.com/Frames_Actualites.asp

^ Haut
Avenir
Nanotechnologies et Robotique
Une maison traditionnelle fabriquée en 2 jours !
Samedi, 01/04/2000 - 00:00

La société PDG Domus implantée a Colombus, Ohio, vient de présenter sa dernière méthode de fabrication de maison individuelle. Les pavillons sont préfabriqués en usine, a partir de charpentes métalliques et de panneaux extérieurs constitues de résine renforcée par des fibres de céramique. L'intérieur de la maison est réalisé avec des matériaux conventionnels: cloisons sèches, vitres en verre, portes en bois. Une fois produite, les maisons peuvent être assemblées en deux jours, alors que cela prend parfois jusqu'à un an pour ces maisons traditionnelles. A première vue, la maison de style victorien de 130 m² ressemble a ses voisines. Même de plus près, elle parait identique a une maison classique: un toit en ardoise, des fondations en pierre, un parement a clin. Cependant, les composants extérieurs sont loin être conventionnels. Le toit, les murs, les pignons, le bardage, et les fondations, sont tous fabriques a partir de ce que les dirigeants de l'entreprise appellent de la "céramique laminée". Ce matériau est produit grâce à de multiples couches de résine super résistante, des fibres de céramique, et de l'alumine déshydratée. Il y a au final plus de vingt couches, chacune réalisée sur mesure avec des quantités variables de chaque matériau et avec des fibres de céramique de longueur variable. Celles-ci sont produites à partir de silicate de calcium, et fournies par Ceramic Technologies Corp., Iowa. Elles sont brevetées, d'une taille microscopique, et avec un rapport d'élongation de 15. Certaines couches peuvent contenir plus de 80% de fibres de céramique. Une fois les couches en place, le moule est recouvert, place sous vide, et le composite polymérisé. Les panneaux finalement obtenus font 1 cm d'épaisseur et peuvent être assez grand, de 3*3 m² à 3*9 m². Les fibres de céramique confèrent d'impressionnantes qualités. En particulier un indice de propagation des flammes inférieur a 20 (alors qu'il est de 400 pour une traditionnelle maison en bois), une isolation 10-12R (50R pour toute la maison), pas de dégagement gazeux, et une résistance a la flexion de 174 MPa. Les panneaux extérieurs ne demandent pas de travaux de maintenance particulier, seulement un nettoyage occasionnel. La durée de vie de la maison est supérieure a 150 ans et les panneaux sont 100 % recyclables. La société PDG Domus prévoit prochainement la production à grande échelle, a partir de deux usines situées dans l'Ohio. Chacune de ces installations sera a même de produire un maximum de 700 maisons par an. D'autres usines pourraient être à l'étude d'ici a deux ans. Le coût des maisons s'étendra de 50 000$ à 300 000$.

Etats-Unis Matériaux : http://www.france-science.org.

^ Haut
Matière
Matière et Energie
Atome et photon... Enfin seuls !
Samedi, 01/04/2000 - 00:00

Une molécule très particulière vient de naître dans un laboratoire du Max-Planck Institut für quantenoptik, à Garching. Quatre physiciens allemands ont réussi à créer un état lié entre un atome de rubidium et un unique quantum de lumière. En clair, ils ont piégé l'atome avec un seul photon issu d'un laser. Pepijn Pinkse, Thomas Fischer, Peter Maunz et Gerhard Rempe ont tout d'abord réalisé une fontaine atomique. Des atomes de rubidium sont refroidis intensément puis propulsés vers le haut. Ralentis par la gravité, ils font alors demi-tour et retombent. Au point où leur vitesse est pratiquement nulle, les scientifiques placent un résonateur optique. Il s'agit de deux miroirs dotés d'une très grande réflectivité (plus de 99,999 % de la lumière est réfléchie), séparés de 100 microns. Là, un faisceau laser très faible traverse les miroirs de part en part afin de détecter les atomes. En effet, ces derniers sont capables d'atténuer un faisceau de lumière en absorbant les photons d'une certaine longueur d'onde. Il est donc possible de les repérer facilement. Cependant, dans le cas d'un seul atome, l'atténuation du faisceau se révèle beaucoup trop ténue pour être mesurée. C'est là qu'intervient le résonateur optique, dans lequel la lumière peut être réfléchie un très grand nombre de fois entre les deux miroirs (cent mille dans cette expérience). Les réflexions successives permettent alors d'amplifier l'atténuation et donc de la quantifier. En augmentant l'intensité du faisceau laser au moment où un atome a atteint le centre de la cavité formée par les deux miroirs, les quatre scientifiques ont pu compenser son énergie cinétique. Il s'est alors trouvé pris au piège dans le résonateur, à l'instar d'une bille lancée le long de la paroi d'un bol qui, arrivée au fond, aurait soudain vu les bords du bol s'élever, l'empêchant de ressortir. Mais comment prouver que l'atome a bien été piégé ? Tout simplement en l'observant. Si la distance entre les deux miroirs est suffisamment petite, l'énergie absorbée par l'atome est rayonnée de nouveau dans le résonateur. S'installe alors un échange périodique d'énergie entre l'atome et le champ de lumière ; échange qui provoque un déplacement de l'atome susceptible d'être suivi en temps réel. Ce système apparaît comme l'outil idéal pour explorer certaines questions fondamentales de l'interaction entre la lumière et la matière. Pour les auteurs, "cette particule piégée seule dans

Info-sciences : [http://www.infoscience.fr/articles/articles_aff.php3?Ref=422">le résonateur] pourrait aussi trouver de nombreuses applications dans le champ toujours grandissant de la communication quantique."

Info-sciences : [http://www.infoscience.fr/articles/articles_aff.php3?Ref=422




À la recherche de l'anti-gravité
Samedi, 01/04/2000 - 00:00

Le groupe britannique BAe, autrefois connu sous le nom de British Aerospace, vient d'annoncer qu'il se lançait dans la recherche en anti-gravité. Le programme, connu sous le nom de Project Greenglow, réunira des chercheurs issus de diverses disciplines dans le but de créer des dispositifs capables d'annuler, ou du moins, de réduire la gravité terrestre. On pense qu'un tel bouclier gravitationnel permettrait, si on le mettait au point, de fabriquer des avions ou des fusées qui demanderaient moins d'énergie pour décoller. Les travaux de BAe s'inspireront en partie des travaux d'un physicien russe, Yevgeny Podkletnov, qui a décrit en 1992 comment il avait réussi à réduire de 2,1 % le poids d'un objet se trouvant au-dessus d'un disque supraconducteur tournant à haute vitesse dans un milieu très froid. Cette expérience reste toutefois controversée et la NASA (programme Delta G) a tenté sans succès de la reproduire en 1997.

Brève rédigée par @RTFlash

BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_692000/692968.stm

La pile à combustible, une technique d'avenir pour faire du courant
Samedi, 01/04/2000 - 00:00

Brûler du combustible est une manière malcommode et sale de produire de l'énergie. Moteurs et chaudières dégagent chaleur et pollution. L'oxydation électrochimique, mise en jeu dans la pile à combustible, est, en revanche, nettement plus propre et plus efficace. Cette vieille idée, dont la faisabilité fut démontrée pour la première fois par l'avocat anglais William Grove en 1839, devrait, estiment de nombreux experts, révolutionner la production d'énergie au cours du siècle à venir. La pile à combustible la plus simple fonctionne selon l'exact inverse de l'électrolyse de l'eau, réaction dans laquelle la molécule H2O est brisée sous l'action de l'électricité pour donner de l'hydrogène et de l'oxygène. Là, au contraire, on les rassemble pour " fabriquer " de l'eau, ce qui entraîne un dégagement d'énergie sous forme d'électricité. Les premières piles de ce type ont été utilisées sur certains engins spatiaux et notamment les navettes dont les moteurs utilisent, précisément, ces deux gaz comme combustibles. Elles produisent du courant avec une efficacité deux fois supérieure à celle du meilleur moteur à combustion interne. Certaines font déjà - à titre expérimental - rouler des autobus, alimentent des hôpitaux en électricité ou chauffent des piscines. Mais elles se prêtent mal à un usage courant. D'abord parce que le gaz carbonique contenu dans l'atmosphère détériore leur électrolyte (la solution dans laquelle se produit la réaction). La solution d'hydroxyde de potassium utilisée dans les piles du spatial a été remplacée, pour celles fonctionnant à l'air ambiant, par de l'acide phosphorique, insensible au dioxyde de carbone, mais très corrosif et, donc, peu pratique pour les usages mobiles. Afin d'éliminer cet inconvénient, des électrolytes solides ont été mis au point et essayés avec succès sur des ordinateurs portables ou des téléphones mobiles. Le handicap principal de ces piles tient néanmoins à leur combustible même : l'hydrogène est très difficile à stocker et à manier. On a donc imaginé de le fabriquer à la demande, par " reformage ", dans les piles elles-mêmes, qui peuvent alors être alimentées en méthanol ou avec des hydrocarbures. Elles fonctionnent alors, le plus souvent, à haute température. Certaines sont dotées d'électrolyte solide, à base d'oxydes métalliques. Mais, comme dans une cheminée qui s'encrasse, la suie se dépose sur leurs électrodes, interrompant le circuit électrique. La pile à carbonates de potassium et de lithium fondus, qui offre des possibilités intéressantes de production d'électricité à grande échelle, utilise, pour sa part, le monoxyde de carbone comme combustible. Mais son électrolyte présente une fâcheuse tendance à ronger les électrodes. Ces problèmes techniques pourraient être éliminés par le procédé nouveau que Raymond J. Gorte et son équipe de l'université de Pennsylvanie (Etats-Unis) décrivent dans le numéro de Nature du 16 mars. La pile qu'ils ont mise au point utilise directement le méthane (gaz naturel), ainsi que ses " cousins chimiques ", l'éthane, le toluène, le butène et le butane ; quatre hydrocarbures bon marché et faciles à se procurer. Pour Kevin Kendall, chimiste à l'université de Birmingham (Grande-Bretagne), il s'agit là d'une découverte capitale, car " elle répond au grand problème que pose la pile à combustible, à savoir son fonctionnement à partir de vrais combustibles ". Comme celles qui peuvent déjà être alimentées aux hydrocarbures, la pile conçue par l'équipe de Gorte fonctionne à haute température. Mais elle utilise des électrodes composées d'un mélange de cuivre et de céramique. Ces deux matériaux ne retiennent pas la suie, et la pile continue de fonctionner aussi longtemps qu'il y a du combustible. Le procédé ne permet de fournir, à l'heure actuelle, que le dixième de l'énergie dispensée par ses homologues à hydrogène pur, mais l'équipe est convaincue de pouvoir l'améliorer.

Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-47620-QUO,00.html

Article de Nature sur l'utilisation directe des hydrocarbures dans les piles à combustibles :

_ http://www.nature.com/nlink/v404/n6775/abs/404265a0_fs.html

Premier site français pour une pile à combustible
Samedi, 01/04/2000 - 00:00

Pour la première fois en France une pile à combustible fonctionne en grandeur nature et alimente 200 logements en électricité et en chaleur. Du type PAFC (Phosphoric acid fuel cell) elle est installée à Chelles, en banlieue parisienne, où elle alimente l'équivalent de 200 logements, par l'intermédiaire du réseau EDF et d'un réseau de chaleur préexistant. La pile, d'une puissance de 200 kW électrique et 220 kW thermique, " brûle " du méthane et fournit du courant à 400 volts et 50 Hz et de l'eau chaude à 80°C. Cette exploitation en cogénération assure un rendement de 85% à l'ensemble, le rendement électrique de la pile étant de 40%, ce qui réduit les émissions de gaz carbonique rapportés au kW produit. De plus le fonctionnement est particulièrement silencieux. Le gaz méthane, fourni par Gaz de France, est détendu à une pression légèrement supérieure à 1 bar, puis transformé par réformage en un mélange de H2, CO, CO2, sous l'action de la vapeur d'eau produite par le fonctionnement de la pile elle-même. Puis les gaz sont épurés pour en extraire le soufre des produits odorants qui sont normalement ajoutés au gaz naturel pour des raisons de sécurité (le soufre est un poison des catalyseurs). L'hydrogène est ensuite " brûlé " à 200°C, dans la pile en présence d'oxygène, cette combustion électrochimique générant un courant électrique. Celui-ci est converti en courant alternatif. L'eau de refroidissement du coeur cède sa chaleur au réseau de chauffage urbain au travers d'un échangeur à plaques. Toutes ces opérations ont lieu dans un module de 5,5x3x3 mètres pesant 18 tonnes. Le constructeur est l'américain Onsi. La pile elle-même a coûté 5 millions de francs soit 25 francs par Watt électrique installé. Il faudrait réduire ce coût d'un facteur de dix au moins pour que la production d'électricité par ce moyen soit rentable reconnaît-on à l'EDF. Mais l'entreprise publique, qui a aussi de projets concernant d'autres type de piles à combustible, désire avant tout se forger une expérience. La pile PAFC, dont 180 exemplaires sont déjà en service dans le monde, n'était pas le plus mauvais choix pour faire la main.

Usine nouvelle : http://www.usinenouvelle.com/

^ Haut
Espace
Espace et Cosmologie
Découverte de petites planètes extra-solaires
Samedi, 01/04/2000 - 00:00

Des astronomes ont annoncé la découverte de deux nouvelles planètes hors du système solaire, de la taille de Saturne. Il s'agit des deux plus petites planètes détectées jusqu'à présent. Cette découverte conforte la possibilité de l'existence de planètes encore plus petites - de la taille de la Terre par exemple - qui restent aujourd'hui indétectables, a souligné un des chercheurs, le professeur Steve Vogt, de l'Université de Californie-Santa Cruz. Vogt participe à un programme de recherches entamé il y a cinq ans visant à scanner environ 1.100 étoiles dans un rayon de 300 années-lumière afin de repérer des planètes et les possibilités d'une vie ailleurs que sur Terre. Au total, en comptant les deux nouvelles, les chercheurs ont repéré 32 planètes. Pour se faire une idée des grandeurs, un des membres de l'équipe de chercheurs a déclaré: "C'est comme quand on regarde une plage de loin." "Dans un premier temps, nous avons vu des rochers, des planètes de la taille de Jupiter ou plus grandes. Aujourd'hui, nous voyons les galets, des planètes de la taille de Saturne ou plus petites. Mais nous ne sommes toujours pas en mesure de détecter des planètes de la taille de la Terre, qui seraient équivalentes à de gros grains de sable", a dit Geoff Marcy. Jupiter est trois fois plus grosse que Saturne, dont la masse est encore 95 fois supérieure à celle de la Terre.

Brève rédigée par @RTFlash

BBC : http://news.bbc.co.uk/hi/english/sci/tech/newsid_695000/695176.stm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Effet de serre : accélération en vue ?
Samedi, 01/04/2000 - 00:00

Effet de serre artificiel créé par les économies riches ou cycle de réchauffement normal? Les deux, suggère une étude qui s'inquiète de la synergie entre les deux phénomènes. L'institut océanographique Scripps, une branche de l'université de Californie à San Diego, vient peut-être de mettre fin à la polémique sur les causes du réchauffement planétaire. Dans une étude qui vient d'être publiée en ligne par la revue scientique Proceedings of the National Academy of Science, les chercheurs, les chercheurs présentent des conclusions qui vont justifier les positions d'un peu tout le monde mais inquiètent pas l'effet de synergie qu'elles mettent en évidence (lire le résumé sur le site de la PNAS). Le problème que l'on observe, affirment-ils, c'est que l'on a bien un réchauffement naturel de la planète, un phénomène qu'ils ont mis en évidence en analysant sur le long terme la corrélation entre les cycles de température planétaire, qu'ils pensent longs de 1800 ans, et certaines conditions océaniques. Mais les chercheurs croient aussi à l'existence d'un effet de serre artificiel, engendré par les économies industrielles. Et affirment que celui-ci a déjà atteint un niveau capable d'interférer avec le cycle naturel. Ils en veulent pour preuve ce qui s'est passé en 1974, quand les conditions océaniques, toutes choses égales par ailleurs, auraient dû conduire à un léger refroidissement. Au contraire, on a observé un léger réchauffement, ce qui semble dû à l'effet de serre artificiel. Ainsi, les deux phénomènes s'ajoutent-il probablement. La conséquence est que l'on risque d'assister à un réchauffement accéléré. Ce qui suggère, si l'analyse se confirme, qu'il est d'autant plus urgent pour l'industrie mondiale de trouver des solutions énergétiques efficaces à ses besoins de production.

Usine nouvelle : http://www.usinenouvelle.com/

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une analyse de sang simple et peu coûteuse pourrait prévenir la crise cardiaque
Samedi, 01/04/2000 - 00:00

Une analyse de sang simple et peu coûteuse comprenant la recherche d'une protéine spécifique, pourrait permettre d'évaluer les risques de crises cardiaques. Des chercheurs américains de Boston sont parvenus à mettre au point une version extrêmement sensible de l'analyse de la protéine C-réactive dans le sang, protéine qui indique que des artères sont enflammées. Pendant trois ans, Le Professeur Ridker, cardiologue à l'école médicale de Harvard et son équipe ont analysé le sang prélevé sur des femmes apparemment en bonne santé en bonne santé et on notamment mesuré le taux de protéine C-réactive et de 11 autres substances. Après trois ans, les chercheurs ont identifié 122 femmes qui ont eu des crises cardiaques ou d'autres ennuis cardio-vasculaires. Les chercheurs ont alors constaté que les femmes appartenant au premier quartile, ayant les niveaux de protéine c-réactive les plus élevé, avaient un risque cardio-vasculaire 4,4 fois plus élevé que les femmes du dernier quartile comprenant les femmes ayant le plus bas niveau de cette protéine. Cette protéïne serait donc presque deux fois meilleur que LDL, le "mauvais cholestérol" pour prévoir le risque cardio-vasculaire.

Brève rédigée par @RTFlash

New York Times :

_ http://www.nytimes.com/library/national/science/health/032300hth-protein-heart-a...

La télémédecine se met à l'heure de l'espace
Samedi, 01/04/2000 - 00:00

Dans une poignée d'années, les progrès technologiques issus de la conquête spatiale autoriseront les futurs "télémédecins" à donner de véritables consultations à distance, même à des patients éloignés de milliers de kilomètres. Présenté cette semaine au congrès mondial de télémédecine de Toulouse (sud-ouest), le cabinet médical du XXIème siècle entre dans une valise. En moins de 10 kg, cette trousse de secours rassemble tout l'équipement d'une chambre d'hôpital, du stéthoscope à l'électrocardiogramme en passant par la sonde échographique. Mieux, elle peut relayer en direct, via le satellite, les signes vitaux d'un patient à l'autre bout du monde. "Cette valise utilise les instruments développés pour suivre les spationautes en orbite", explique un de ses inventeurs en France, Antonio Guell, du Centre national d'études spatiales (CNES). "Elle permet au médecin d'établir à distance un diagnostic rapide et fiable pour tout malade coincé dans un site isolé ou privé de moyens de communication". Eprouvée avec succès pour l'assistance aux marins, cette station mobile de télémédecine suscite déjà pas mal d'intérêt chez les professionnels de la santé: généralistes exerçant dans les régions reculées, urgentistes de la Protection civile ou spécialistes du rapatriement sanitaire. Mais un autre marché s'annonce encore plus prometteur. Celui du transport aérien international. "Les compagnies sont très intéressées", juge Laurent Braak, de l'Institut de médecine et de physiologie spatiales (MEDES) de Toulouse. "En cas d'urgence à bord, la station peut être utilisée par l'équipage pour améliorer, grâce à un médecin au sol, les chances de survie du malade". Chaque année, 1.200 décès "naturels" sont recensés dans les avions dans le monde. Un nombre supérieur à ceux provoqués par les catastrophes aériennes! Et l'envol prochain des géants du ciel de type Airbus A3XX, capables de tenir l'air pendant vingt heures avec 5 à 600 passagers, ne devrait pas faire reculer ces statistiques. Avant les premiers diagnostics "aériens" -essais en vol prévus pour 2001-, quelques exemplaires de ces valises mises au point par le CNES et le MEDES seront prêtées le mois prochain à une autre catégorie d'utilisateurs de la télémédecine: les chasseurs de virus. "On va les poser au Sénégal pour recueillir et transmettre automatiquement des mesures de chaleur, d'humidité ou de la présence de certains animaux", indique le Dr Guell. "Combinés aux données du satellite français SPOT (d'observation de la terre), ces éléments permettront de prévoir l'éruption de maladies comme la fièvre de la vallée du Rift ou le paludisme, et d'anticiper leur progression". Bien plus près du malade "classique", les médecins et techniciens du MEDES envisagent également d'ouvrir le domaine de l'assistance des patients à domicile à la dimension spatiale. "A l'image du bracelet électronique des condamnés ou de la balise Argos des marins solitaires, on peut tout à fait imaginer la télésurveillance par satellite des patients à risque", affirme Laurent Braak. "Avec des électrodes, il est possible de détecter les premiers signes d'arythmie cardiaque, d'alerter un médecin et d'intervenir au plus vite". Mais à ce jour, ces exemples du mariage heureux du satellite et de la médecine ne sont encore que des projets.

AFP : http://fr.news.yahoo.com/000325/54/aezq.html

Les vitamines C et E protégeraient de certaines maladies mentales
Samedi, 01/04/2000 - 00:00

Une étude américaine montre que des suppléments de vitamine C et E pourraient prévenir la diminution des capacités intellectuelles dues à la vieillesse et protéger contre certaines formes de démences, telles que celles provoquées par les accidents cardio-vasculaires. "Nous pensons que les antioxydants tels que les vitamines E et C protègent contre la démence vasculaire en limitant l'importance des dommages qui continuent à affecter le cerveau à la suite d'une congestion cérébrale", souligne le principal auteur de l'étude, le Pr. Kamal Masaki, de l'université de Hawaï à Honolulu. Ces deux vitamines joueraient également un rôle dans la protection des cellules du cerveau touchées par de nombreuses maladies dues à la vieillesse, "permettant ainsi, note-t-il, des résultats bien plus élevés lors d'évaluation des capacités mentales tard dans la vie". Les chercheurs ont testé 3.385 hommes américains âgés de 71 ans à 93 ans, interrogés en 1982 et 1988, puis évalués au cours d'examens portant sur leurs capacités mentales en 1991 et 1993. Ceux qui prenaient régulièrement ces deux vitamines en additif en 1988 ont eu 88 % moins de risques de démence due à un problème cardio-vasculaire quatre ans plus tard et 69 % moins de risques d'avoir une démence d'une origine non-vasculaire. Par ailleurs, ils ont eu 20 % plus de chances que les autres d'avoir de meilleures capacités cognitives au cours des examens de 1991 et 1993. Quant à ceux qui consommaient ces additifs en 1982 et en 1988, leurs chances d'avoir des capacités mentales satisfaisantes 1991 et 1993 étaient supérieures d'environ 75 %, précise l'étude.

Brève rédigée par @RTFlash

New York Times : http://www.nytimes.com/yr/mo/day/national/index-science.html

Les antibiotiques de nouvelle génération bientôt disponible
Samedi, 01/04/2000 - 00:00

Pour lutter contre la résistance des bactéries, le comité de conseil des médicaments anti-infectieux de la FDA vient de recommander l'utilisation du Zyvox, un antibiotique d'un nouveau type. Mis au point par Pharmacia & Upjohn, cet antibiotique serait tout particulièrement recommandé dans le traitement des pneumonies, notamment celles causées par le staphylocoque doré résistant à la méthicilline. Il semble également efficace contre les entérocoques résistants à la vancomycine et plusieurs infections cutanées. Il tuerait tous les staphylocoques, streptocoques, pneumocoques, entérocoques,... Bref, toutes les bactéries gram positives, même les plus résistantes. Tels sont les résultats des études cliniques, menées sur plus de 4000 personnes. Des travaux qui ont aussi montré que, chez 5% des patients environ, la molécule provoque nausées et maux de tête. Zyvox appartient à une nouvelle classe d'antibiotiques, la première depuis 35 ans. Nommées oxazolidinones, ces molécules s'opposent à l'initiation de la synthèse des protéines bactériennes dans une phase plus précoce que les antibiotiques utilisés jusqu'à présent. Incapables de fabriquer leurs propres protéines, les bactéries se trouvent donc dans l'impossibilité de se multiplier.

Biotech : http://www.usinenouvelle.com/

Les volcans seraient à l'origine de la vie
Samedi, 01/04/2000 - 00:00

D'où viennent les hydrates de carbone, ces produits chimiques simples qui sont à la base de toute vie? Certains affirment qu'ils se sont formés dans les étoiles et qu'ils sont tombés sur Terre sous forme de météorites. Mais d'autres croient que ces composés organiques extraterrestres n'ont joué qu'un rôle marginal et que la plupart se sont formés ici. Jusqu'ici, on ignorait quelle " recette " chimique avait bien pu les créer. Mais un géologue américain vient de démontrer qu'ils sont un sous-produit du volcanisme. On sait depuis des décennies que les roches volcaniques sont couvertes d'un mince film de composés organiques. Mais l'origine de ces composés demeurait mal connue. Everett L. Shock, de l'Université de Washington, vient de déterminer comment ils se forment. Ses calculs, fort complexes, tiennent compte de la température ainsi que de la composition du magma et des gaz volcaniques. Les hydrates de carbone, selon cette théorie, se forment lorsque les gaz volcaniques se refroidissent, passant de 1 200 à environ 150-300 degrés. À ces températures plus modérées, le monoxyde de carbone et l'hydrogène émis par le volcan se combinent naturellement pour former des hydrates de carbone. Les conditions semblent également bonne pour créer des composés encore plus proches de la vie, comme des acides aminés et des polymères organiques. Chose certaine, la magnétite (un minerai de fer que renferme la lave) joue le rôle d'un catalyseur indispensable dans ces réactions chimiques. Cette découverte peut sembler banale. Elle ouvre en fait de larges perspectives. Elle démontre notamment que la vie a pu apparaître dans les sources thermales sous-marines, loin de toute lumière du Soleil, une idée que le chercheur défend depuis 1992. Elle montre aussi que d'autres planètes ayant connu un volcanisme intense (Mars, Europa) pourraient aussi avoir abrité la vie. Enfin, celle pourrait permettre de décider une fois pour toutes si les la matière organique retrouvée dans une météorite martienne en 1996 est le résultat d'une vie microbienne ou d'une simple activité géochimique.

Cybersciences : http://www.cybersciences.com/Cyber/3.0/N1748.asp

L'huile d'olive permettrait de réduire la consommation d'antihypertenseurs
Samedi, 01/04/2000 - 00:00

Un régime basé sur un légère réduction de la consommation de graisses saturées et sur la consommation d'huile d'olive permettrait de réduire la consommation d'antihypertenseurs chez des sujets avec une HTA. Telle est la conclusion d'une étude parue dans le dernier numéro de Archives of Internal Medicine et menée par le Dr L. Ferrarra et son équipe de l'Université de Naples. Plusieurs travaux ont montré que la tension artérielle augmentait avec la consommation totale de graisses et avec le rapport

Caducée : [http://www.caducee.net/">acides gras saturés / acides gras insaturés]. Les auteurs rappellent cependant que la possibilité de prévenir ou contrôler l'HTA par un régime en acides gras (AG) plus approprié reste un sujet contreversé. Les auteurs ont étudié l'effet de deux régimes alimentaires basés soit sur la consommation d'AG mono-insaturés (huile d'olive), soit sur la consommation d'AG poly-insaturés (huile de tournesol). Au total, 23 sujets souffrant d'HTA légère à modérée ont participé à l'étude. Douze d'entre eux ont suivi le régime "huile d'olive" pendant les 6 premiers mois avant de passer au régime "huile de tournesol" pendant 6 mois. Les 13 autres sujets ont débuté l'étude par le régime "huile de tournesol". Chez ces sujets, les AG totaux et les AG saturés composaient respectivement 34 % et 11 % de l'apport énergétique. Dans les régimes "huile d'olive" et "huile de tournesol", les AG totaux et les AG saturés formaient respectivement 26,6 % et 5,6 % de l'apport énergétique. Les auteurs ont étudié l'évolution de la TA et du traitement antihypertensif chez les sujets. Il est important de souligner que la moyenne des indices de masse corporelle n'a pas été modifiée au cours de l'étude. La TA des patients qui ont suivi le régime "huile d'olive" (AG mono-insaturé) est significativement plus basse que dans l'autre groupe : 127/84 mm Hg contre 135/90 mm Hg. Seul le régime "huile d'olive" a permis une réduction significative de la TA. De plus, les auteurs on noté une diminution de 48 % de la consommation d'anti-hypertenseurs dans le groupe "huile d'olive" et 8 de ces patients n'ont plus eu recours à une médication à cet effet. Selon les auteurs, "une légère réduction de la prise de graisses accompagnée de la consommation d'huile d'olive réduit significativement les doses d'antihypertenseurs nécessaires". Ils suggèrent que les polyphénols contenus dans l'huile d'olive (mais pas dans l'huile de tournesol) pourraient augmenter le taux d'oxyde nitrique et dilater les artères.

Caducée : [http://www.caducee.net/

L'infarctus tue de moins en moins
Samedi, 01/04/2000 - 00:00

La mortalité par maladie cardio-vasculaire a baissé de plus de 20 % en moyenne en dix ans et ce à l'échelle mondiale. Ces résultats, fruits de la grande enquête épidémiologique Monica, lancée dans les années 80 par l'OMS, ont été publiés en mai 1999. Deux articles parus en février dans The Lancet affinent et expliquent ces données. Au terme de 10 ans de surveillance portant sur 140 000 hommes et femmes âgés de 35 à 64 ans, dans 21 pays et sur 4 continents, ils révèlent que plus de la moitié de cette baisse de mortalité est due à une meilleure prise en charge des malades dès les premiers stades de l'infarctus : utilisation d'anti-agrégant comme l'aspirine, dissolution du caillot sanguin (thrombolyse) et prescription de substances à action hypotensive. Outre cette prise en charge précoce, l'étude fait apparaître que 15 à 30% de la baisse de la mortalité par infarctus résulte d'une réduction des facteurs de risque classiques que sont le tabagisme, l'excès de cholestérol sanguin et l'hypertension artérielle. En revanche, cet optimisme est tempéré par l'augmentation de la corpulence notée dans les pays industrialisés, surtout parmi les femmes, ainsi que par le tabagisme croissant dans la population féminine, dont les effets risquent de se faire sentir à terme.

Sciences&Avenir : http://www.sciences-et-avenir.com/actualites/page9.html




Le séquençage du génome la drosophile est terminé
Samedi, 01/04/2000 - 00:00

Le séquençage du génome de Drosophila melanogaster vient d'aboutir grâce à la collaboration de plusieurs équipes de recherches dans le monde. La connaissance de l'ensemble des gènes de cet organisme aura inévitablement des implications directes en terme de biologie et médecine. Ce travail n'est qu'une étape d'un programme de séquençage plus ambitieux qui doit aboutir au séquençage complet du génome humain d'ici 2002.Drosophila melanogaster est un des organismes les plus étudiés en biologie. Du fait de sa facilité de manipulation et de son temps de génération très court, ce modèle constitue une référence en génétique. Il a permis en effet la connaissance et la compréhension de nombreux processus cellulaires communs aux eucaryotes. De nombreux gènes humains possèdent leur homologues chez la drosophile: des gènes impliqués dans la maladie de Parkinson et le gène p53 "suppresseur de tumeurs", possèdent par exemple, leur équivalent chez la drosophile. On peut en effet considérer que les fonctions principales qui assurent la vie cellulaire sont conservées parmi les eucaryotes. Le programme de séquençage de la drosophile a débuté en 1991. The Berkeley and European Drosophilia Genome Projet (BDGP et EDGP) qui rassemble des équipes internationales a initié ce travail et a permis le séquençage de 29 Mb (méga bases soit un million de bases nucléiques). Par la suite, la société Celera créée par J. Venter a entamé le séquençage (gratuitement) selon la méthode contreversée du "shot-gunning" qui consiste à générer des fragments d'ADN au hasard, les séquencer puis les mettre bout à bout. Ce travail a été rendu possible grâce à la participation de la société Perkin-Elmer qui a fourni l'ensemble des séquenceurs nécessaires. Ces travaux ont conduit aujourd'hui au séquençage d'environ 98 % du génome codant de la drosophile soit 120 mégabases codant 13.600 gènes. En effet, sur les 180 millions de paires de bases constituant le génome de l'animal environ 120 millions constituent l'euchromatine- composée de séquences codantes. La drosophile devient ainsi le deuxième et le plus grand des animaux dont le génome (4 chromosomes) est séquencé. Ces séquences demandent désormais à être dépouillées et exploitées afin d'affiner notre compréhension des interactions entre les différents gènes. L'ensemble des séquences nucléiques est désormais disponible par tous, sur un serveur informatique (GenBank) qui recense toutes les séquences connues à ce jour. Dans la continuité de ces travaux, le séquençage du génome humain, qui est 30 fois plus important que celui de la drosophile, devrait aboutir en 2001 ou 2002. Ce programme baptisé Human Genome Project mobilise de nombreuses équipes internationales.

Caducée : http://www.caducee.net/

Science/24/03/2000 : http://www.sciencemag.org/content/current/

Les gènes préfèrent la micro-gravité
Samedi, 01/04/2000 - 00:00

La micro-gravité serait un environnement favorable aux transferts génétiques. Des expériences réalisées en 1998 sur des graines de soja lors du vol de John Glenn a bord de la Navette Spatiale ont présenté des taux d'expressions d'un gène artificiellement introduit de l'ordre de neuf pour cent, contre un pour cent en moyenne sur Terre. Richard Vierling de l'Université de Purdue, explique que la pratique commerciale de transformations génétiques de plantes ou de génération de plantes complètes se heurte encore a des taux de réussite trop faibles. M. Vierling a développé de nouvelles expériences qui doivent être emmenées a bord de la Navette Spatiale Atlantis le 17 avril prochain. "Nous espérons découvrir quel mécanisme est favorise par la microgravite, qui augmente le taux de réussite des transferts génétiques. Nous pourrons alors développer de nouveaux équipements permettant de favoriser ces mécanismes sur Terre", explique M. Vierling.

Etats -Unis Espace : http://www.france-science.org/usa-espace

Des empreintes génétiques "digitales"
Samedi, 01/04/2000 - 00:00

Les empreintes génétiques sont de plus en plus utilisées pour les recherches de paternité ou dans les enquêtes criminelles. La loi de bioéthique de 1994 prévoit que ces tests ne soient effectués que sur demande de l'autorité judiciaire, ce qui exclut une exploitation par des compagnies d'assurance notamment. De plus, conformément à la loi N°98-468 du 17 Juin 1998, la France doit mettre en place un Fichier National Automatisé des Empreintes Génétiques (FAEG), destiné à l'identification et la recherche des auteurs d'infractions sexuelles. Les décrets d'application seront publiés au Journal Officiel. A la suite d'une réflexion au niveau européen, les laboratoires français devront analyser au moins 7 régions de l'ADN nucléaire. Les empreintes génétiques seront transmises sous forme de nombres au fichier central (relevant à la fois du Ministère de l'Intérieur et du ministère de la Défense). Seuls les codes génétiques des ADN d'origine inconnue prélevés sur les lieux d'un crime et ceux des ADN des auteurs définitivement condamnés seront conservés dans ce fichier, pendant une période de quarante ans. Les premiers tests d'empreintes génétiques ont été mis au point par l'équipe de Jeffrey et Wilson de l'Université de Leicester (Royaume Uni) en 1984. Cette analyse repose sur la variation individuelle de la longueur de certains fragments d'ADN, appelée également polymorphisme de longueur des fragments de restriction, RFLP (restriction fragment length polymorphism). Les sites chromosomiques présentent une forte variabilité selon les individus. Les régions de l'ADN appelés `minisatellites' ou VNTR (variable number of tandem repeats) correspondent à des séquences d'ADN de 10 à 70 bases, répétées une dizaine à quelques centaines de fois, et sont présentes surtout sur les parties terminales des chromosomes (télomères). Le calcul de la probabilité de trouver deux individus avec le même profil ADN doit prendre en compte la fréquence des minisatellites utilisés. Pour 16 régions VNTR, le profil ADN ne correspond qu'à un individu sur 4,3 millions. Cette méthode des RFLP exige cependant au moins 50 nanogrammes d'échantillons (50 milliardième de grammes) .Aujourd'hui, les empreintes génétiques sont déterminées à partir d'une technique plus sensible, l'amplification génétique par PCR (polymerase chain réaction), une réaction en chaîne s'effectuant en présence d'une enzyme appelée polymérase. Cette technique mise au point par Mullis en 1983 (société californienne Cetus) permet d'obtenir plusieurs millions d'exemplaires d'une séquence d'ADN à partir de quelques nanogrammes d'ADN (quelques molécules d'ADN ou des échantillons dégradés tels que des traces de sang ou d'urine ou un bulbe pileux). La PCR peut être réalisée sur les minisatellites de l'ADN, sur les régions polymorphes du système HLA des globules blancs (système codant le complexe majeur d'histocompatibilité) ou sur la région hypervariable HV1/HV2 de l'ADN mitochondrial. Les produits obtenus peuvent être marqués par des molécules fluorescentes puis séparés par électrophorèse sur gel de polyacrilamide. Les microsatellites ou STR (short tandem repeats), découverts depuis 10 ans, sont des séquences facilement amplifiables par PCR et qui présentent un nombre de répétitions très variable selon les individus. Ils sont constitués de 2 à 5 bases et sont présents par dizaines de milliers dans tout le génome. Il est alors possible d'associer différents systèmes dits `multiplexes' amplifiant chacun plusieurs STR par l'intermédiaire d'amorces de PCR marquées par des sondes fluorescentes de couleurs différentes. La probabilité de coïncidence entre deux profils d'ADN devient alors négligeable, de l'ordre de 10-9, un sur un milliard (en étudiant simultanément 13 STR répertoriés comme le fait le FBI depuis 1997). Rappelons cependant que la sensibilité de la PCR est telle que des fragments d'ADN transportés dans l'air peuvent contaminer les échantillons à analyser.

Science en ligne : http://www.sciences-en-ligne.com/Frames_Actualites.asp

Les tests génétiques, une menace potentielle pour les travailleurs
Samedi, 01/04/2000 - 00:00

Tandis que le Groupe européen d'éthique présidé par Noëlle Lenoir prépare un avis sur ce sujet, afin d'éclairer une prochaine décision de la Commission européenne, la réflexion est actuellement menée au sein de chaque pays membre. " Il existe deux approches de la santé au travail, résume l'un des participants du séminaire, le Dr Karel Van Damme, médecin-inspecteur du travail en Belgique, chercheur au centre de génétique humaine de l'université de Louvain et président du Fonds d'indemnisation des victimes de maladies professionnelles. La première est une approche de standardisation, qui revient à utiliser les tests génétiques de façon quasi systématique. La deuxième consiste à protéger simultanément l'emploi et la société, ce qui confère aux tests génétiques un rôle marginal. " Le Danemark semble avoir opté pour la première approche : " Dans ce pays, un accord a été conclu entre les partenaires sociaux, selon lequel les tests à l'embauche (incluant en sous-entendu les tests génétiques) sont pertinents s'ils ont trait à une maladie présentant des risques pour le travailleur lui-même, mais aussi les personnes qu'il côtoie dans l'entreprise. Quelle est la pertinence de l'employeur pour juger de la pertinence d'effectuer ces tests ? ", interroge le Dr Van Damme. Un autre article de cet accord dit en substance que si ces tests présentent un avantage économique pour l'entreprise, ils sont acceptables. " La standardisation existe déjà ! ", s'alarme le médecin belge. Au sein de l'Europe, la position danoise demeure heureusement marginale. L'Allemagne tolérerait l'utilisation professionnelle de ces tests une fois le contrat de travail signé et dans la perspective d'une nouvelle recherche d'emploi, ce qui ne pose pas les mêmes problèmes éthiques. La France, l'Italie et la Belgique semblent au diapason pour prôner une attitude plus sévère : une interdiction générale, mais pouvant comporter des exceptions. En France, la révision très prochaine des lois de bioéthique devrait être l'occasion pour les parlementaires d'ouvrir ce dossier. Comme dans d'autres pays, les lois de 1994 comportent des incertitudes dans le domaine de la médecine préventive et un flou juridique persiste concernant l'utilisation de tests génétiques en milieu de travail. De l'avis des chercheurs, jusqu'à présent aucune preuve scientifique ne permet de justifier l'utilisation de tests de dépistage d'une susceptibilité génétique donnée lors de l'embauche. Le " piège du débat éthique " est aussi d'évoquer une situation qui n'a rien de réel aujourd'hui et, à quelques exceptions près, ne le sera peut-être jamais. Mais les enjeux économiques sont suffisamment importants pour inquiéter les garants de l'éthique et de la médecine.

Quotidien du médecin : http://www.quotimed.com/

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le Rapport de MM. Christian Cuvilliez et René Trégouët sur le synchrotron est en ligne
Samedi, 01/04/2000 - 00:00

Rapport de MM. Christian Cuvilliez et René Trégouët, déposé par l' Office parlementaire d'évaluation des choix scientifiques et technologiques, sur les conditions d implantation d'un nouveau synchrotron et le rôle des très grands équipements dans la recherche publique ou privée, en France et en Europe.- Tome I. - Les conditions d implantation d'un nouveau synchrotron, no 2258 :

Rapport : http://www.tregouet.org/senat/synchrotron/contenuf.html

http://www.assemblee-nationale.fr/2/oecst/synchrotron/r2258.htm

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top