RTFlash

RTFLASH Recherche & Technologie
NUMERO 120
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 10 Novembre 2000
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le vote électronique, nouveau défi de la démocratie
La résistance sort de l'ombre
Les Etats-Unis expérimentent la cyber démocratie
Des robots autonomes...et carnivores
La carte à puce rêve de se transformer en véritable ordinateur
L'appareil photo numérique devient communicant
La photo numérique ... instantanée
Avenir
Des nanotubes aux limites de l'infiniment petit
Tisser la lumière
Matière
Microprocesseurs : Intel a mis au point une technologie offrant une finesse de gravure de 0,13 micron
Espace
Vers la fabrication d'antimatière
Terre
L'Europe chauffe, mais c'est le Sud qui souffre
Forêts et océans bientôt impuissants à contenir le réchauffement planétaire
Vivant
Les plantes au secours de la prostate
Maladie d'Alzheimer : le nettoyeur des plaques amyloïdes a été découvert
Un antibiotique pour combattre la maladie d'Alzheimer
Coeur : un nouveau facteur de risque
Des cellules souches neurales pour détruire les tumeurs cérébrales ?
Détection du cancer : un test prometteur mais coûteux
Texticaments : la révolution des textiles qui soignent
Un gène responsable d'une maladie neurologique identifié
Recherche
Le moteur à air comprimé à la conquête du monde
Hommage (logique) à George Boole
Edito
Le réchauffement de la planète n'est pas une fatalité



180 pays vont se retrouver du 13 au 24 novembre à La Haye pour ce que le ministre néerlandais de l'Environnement et président de la réunion, Jan Pronk, a appelé la "conférence de la dernière chance" contre le réchauffement climatique. Les ministres de l'Environnement de la planète doivent finaliser les règles d'application du protocole de Kyoto sur la réduction des émissions de gaz réchauffant la planète, notamment le CO2 (gaz carbonique). Les enjeux économiques, sociaux et politiques de ce dernier sommet du siècle consacré à l'environnement sont considérables. Malheureusement, le grand public ne perçoit pas suffisamment l'importance de ces questions essentielles pour notre avenir qui, souvent, sont d'une grande complexité et accaparées par les spécialistes. Le protocole de Kyoto impose à 38 pays occidentaux de réduire à l'horizon 2010 de 5,2 % en moyenne par rapport à 1990 leurs émissions de gaz à effet de serre. Les objectifs varient considérablement selon les pays (- 8 % pour l'Union Européenne, - 7 % pour les Etats-Unis, - 6 % Japon et Canada, 0 % Russie). Il n'a été ratifié que par des pays du Tiers-Monde qui n'ont pas d'obligations chiffrées. Les pourparlers opposent l'Union Européenne aux Etats-Unis (soutenus par la Russie, le Japon et le Canada). Chacun des deux camps tente de rallier à ses positions le troisième, le G-77 (Tiers-Monde), qui est lui-même profondément divisé. L' Union européenne veut instaurer un "plafond" sur les licences d'émission, achetées à un pays ayant fait davantage d'efforts et disposant d'une marge sur son quota d'émissions ou obtenues en réalisant à l'étranger des projets de "développement propre". Pour les Etats-Unis, premiers pollueurs avec 1/4 des émissions mondiales de CO2 et 36 % de celles des pays du Nord, un plafond serait contraire à la souveraineté nationale. Les Etats-Unis et les pays en voie de développement exigent une large prise en compte des "puits de carbone" comme les forêts dont les arbres puisent du CO2 dans l'atmosphère en état de croissance et en rejettent à maturité. Ils veulent inclure ces "puits" dans les projets de développement "propre". Les Européens y sont hostiles. Un autre point de désaccord fondamental porte sur le respect des obligations et la nature des sanctions à prévoir. Par ailleurs, pour éviter que des pays vendent à d'autres des permis d'émission ne correspondant à aucun effort réel de réduction, l'UE demande que la responsabilité des transactions soit partagée entre pays acheteur et pays vendeur. Les Etats-Unis veulent que la responsabilité d'une transaction soit imputée au seul vendeur. Enfin, une prise en compte très large des émissions de gaz à effet de serre des végétaux qui pompent du carbone dans l'atmosphère en état de croissance et en rejettent lorsqu'ils se décomposent, est exigée par les Etats-Unis. Elle est rejetée par l'UE qui souligne la difficulté de quantifier ces "puits" de carbone. Quant aux pays du Tiers-Monde, ils sont fermement opposés aux USA qui veulent les contraindre dès maintenant à réduire la croissance de leurs émissions. Mais au-delà de ces marchandages politiques et de ces débats très techniques, il faut que nous prenions bien conscience de l'importance vitale et de la nécessité absolue qu'il y a à mettre en oeuvre au niveau mondial une réduction massive et durable -beaucoup plus importante que celle réalisée jusqu'à présent- des émissions de gaz à effet de serre. A cet égard, le dernier rapport des Nations Unies sur le changement climatique est très alarmiste. Selon cette étude, la hausse de température de l'atmosphère de la Terre pourrait finalement atteindre 6 degrés au cours du prochain siècle, ce qui serait catastrophique. Les émissions de gaz carbonique liées à l'activité humaine seraient multipliées par 4 pour atteindre 29 milliards de tonnes en 2100, si elles continuent à progresser au rythme actuel. Une telle augmentation de la température aurait des effets désastreux en matière d'élévation du niveau des mers et de précipitations et les conséquences agricoles, économiques et humaines d'une telle évolution seraient incalculables. Bien qu'il soit impossible de déterminer la part des activités humaines dans ce processus de réchauffement, des indices de plus en plus nombreux nous indiquent que l'homme joue un rôle croissant dans ce réchauffement. Mais malgré ces perspectives alarmantes, aucune nation industrialisée n'a encore ratifié les accords de réduction pourtant modestes de Kyoto. Cette inertie politique liée à de puissants intérêts économiques n'est plus acceptable quand on sait que, selon l'étude des Nations Unies, il faudra réduire les émissions de 60 % d'ici 2050 pour maintenir le réchauffement de la planète à un niveau acceptable. Concrètement, cela signifie qu'il faudra que la part des énergies propres dans la production mondiale d'énergie passe de moins de 2 % aujourd'hui à 50 % en 2050, ce qui suppose une mutation profonde de l'économie mondiale, notamment dans le domaine des transports. Cet objectif qui peut sembler trop ambitieux, voire utopique, est réalisable si nous nous en donnons les moyens politiques au niveau national, européen et mondial. Le Gouvernement allemand vient d'ailleurs de se fixer au niveau national cet objectif de produire 50% d'énergie propre en 2050, ce qui est toutefois incohérent avec sa décision de fermer ses centrales nucléaires. Une approche plus raisonnée et surtout moins passionnée de l'énergie nucléaire (fission et fusion), la montée en puissance de l'énergie solaire et éolienne et le remplacement progressif des moteurs thermiques par des piles à combustibles à partir de 2004, à condition toutefois que celles-ci n'utilisent pas de l'énergie fossile pour produire de l'hydrogène, pourraient même permettre l'accélération de la réalisation de cet objectif si la recherche dans ces domaines énergétiques et l'utilisation des ces énergies propres sont encouragées par des politiques très volontaristes au niveau national et européen. Si les responsables politiques du monde n'ont pas le courage et la lucidité de prendre rapidement des mesures drastiques permettant de réduire de moitié les émissions de gaz à effet de serre au cours des 50 prochaines années, ils porteront une écrasante et terrible responsabilité dans les modifications catastrophiques du climat qui risquent d'affecter notre planète dans la 2ème moitié du XXIème siècle. Nous n'avons pas le droit de prendre un tel risque pour les générations futures.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Le vote électronique, nouveau défi de la démocratie
Samedi, 11/11/2000 - 00:00

Après une première expérience de vote en ligne, lors des primaires du parti démocrate de l'Etat d'Arizona, au printemps dernier, le concept de démocratie électronique gagne l'Ancien Continent. Le phénomène attire l'attention des sphères dirigeantes. En France, la présidence de la république organise des réunions de travail sur l'e-démocratie. A l'occasion du récent référendum sur le quinquennat, une expérience pilote de vote sur Internet a été menée à Brest, toujours à l'initiative d'Election.com. Après avoir voté traditionnellement, les électeurs se sont vu proposer de voter sur Internet. Et 35 % d'entre eux se sont effectivement prêté au jeu. Chaque participant à l'opération recevait un code PIN (dix chiffres) et un mot de passe (six chiffres) générés aléatoirement par le logiciel d'Election.com. A Bruxelles, la Commission apporte son soutien et subventionne plusieurs projets d'origine européenne. Dernier programme retenu dans le cadre du quatrième appel d'offres IST (Information Society Technology), Cybervote, lancé le 1-09 2000. Les promoteurs du projet - un consortium piloté par EADS et Matra Systèmes & Information qui réunit les centres de recherche du finlandais Nokia et de l'opérateur l'anglais British Telecom - entendent démontrer « la validité d'un système de vote en ligne à partir de terminaux Internet fixes et mobiles ». Des tests grandeur nature seront effectués en 2003 dans trois pays de l'Union, en France, en Allemagne (Brême) et en Suède (Kista). Cybervote devrait proposer un service multiplates-formes (PDA, mobile, et PC) agrémenté de solutions technologiques profondément différentes de celles qui prévalent aujourd'hui. Notamment pour ce qui est de garantir l'anonymat du suffrage exprimé. Certains projets de vote en ligne mettent l'accent sur la création d'urnes électroniques. Ainsi du projet E-Poll, actuellement développé par France Télécom, en collaboration avec Siemens Informatique et le ministère de l'Intérieur italien. Le système, qui sera testé dès 2002 auprès de 8 000 électeurs français (Arcachon, Mérignac) et italiens, prévoit de faire appel à la biométrie, en utilisant une carte à puce équipée d'un lecteur d'empreintes digitales pour identifier le votant. Il reste que les législations des différents pays de l'Union européenne doivent être adaptées à l'arrivée du vote en ligne. En France, par exemple, la reconnaissance du vote par correspondance, étape indispensable avant de songer à un quelconque système de vote en réseau, n'est toujours pas à l'ordre du jour. Cependant, développement d'Internet oblige, le vote en ligne et ses dérivés sont promis à un brillant avenir. Et il y a fort à parier que les barrières politiques, juridiques et culturelles s'effaceront rapidement, tant l'avènement de la démocratie électronique semble incontournable, pour garantir la pérennité des systèmes politiques actuels. Il reste toutefois à vérifier si le vote électronique est un remède à la désaffection actuelle des citoyens pour le débat public.

OINet : http://www.01net.com/rdn?oid=126920

La résistance sort de l'ombre
Samedi, 11/11/2000 - 00:00

Orwell l'a imaginé, Internet l'a fait ! Lorsqu'il écrit 1984, il y a plus d'un demi-siècle, le romancier britannique ne se doute certainement pas que Big Brother, incarnation virtuelle d'un pouvoir tutélaire omniprésent et omniscient qui espionne les foules dans les moindres recoins de leur intimité pour mieux les contrôler, trouverait une seconde jeunesse à l'aube des années 2000. La faute au progrès technologique, commencent à dire certaines voix. L'inquisition généralisée « devient tout à fait réalisable, voire banale, grâce à l'Ordinateur doublé de la Toile », prévient François Brune dans son dernier ouvrage Sous le soleil de Big Brother (L'Harmattan).« L'organisation de notre 'cité' n'est pas la même, pas tout à fait ; mais tout se passe comme si, et les satellites désormais nous suivent à la trace, et le vertige d'Internet ne semble subjuguer les humains que pour mieux les ficher. »Le moins que l'on puisse dire, c'est que l'actualité ne donne pas tort à l'essayiste français. En juin dernier, des parents américains découvrent non sans stupeur que la société Mattel espionne leur progéniture grâce à un mouchard informatique caché dans un CD-ROM ludo-éducatif. Le 24 octobre, le gouvernement de Tony Blair autorise les entreprises anglaises à surveiller les courriers électroniques et les communications téléphoniques de leurs employés, et ce sans leur consentement. Et, en décembre prochain, c'est le Conseil de l'Europe qui devrait ratifier un projet de convention sur la cybercriminalité encourageant ni plus ni moins les Etats à développer leurs propres systèmes de surveillance du Réseau. A l'instar du logiciel Carnivore, mis en place par les services secrets américains pour intercepter, au niveau inter national, les e-mails comportant des termes jugés suspects, comme « attentat » ou « drogue ». Chassez Echelon, et il revient au galop !Au détail près que la résistance commence à s'organiser. La Global Internet Liberty Campain (GILC), coalition internationale qui regroupe vingt-huit associations, au premier rang desquelles la française Imaginons un réseau Internet solidaire ! (Iris), n'a pas tardé à riposter. Elle vient de lancer une cybercampagne pour dénoncer les « sérieux dangers » que ferait porter sur les libertés individuelles et publiques l'adoption d'un tel traité - qui entend par ailleurs obliger les fournisseurs d'accès à Internet à conserver et à contrôler toutes les correspondances de leurs abonnés. Des dangers que la fameuse « société de l'information » fait peser sur les individus il est également question dans le dernier ouvrage de Jeremy Rifkin, L'Age de l'accès (La Découverte). L'économiste américain arrive à la conclusion que l'avènement de la Netéconomie sonne purement et simplement le glas de la vie privée. « Dans la nouvelle économie en réseau, l'accès à des données privées d'ordre existentiel, telles que le style de vie ou les pratiques de consommation de tel ou tel individu, devient une marchandise convoitée et une forme d'actif immatériel fort recherchée. » Résultat, les marchands du Web se livrent à une véritable traque au cyberconsommateur. Leur arme préférée : le cookie, petit programme informatique qui permet d'enregistrer, à son insu, tous les déplacement d'un internaute sur la Toile. Croisé avec des fichiers nominatifs, il s'avère redoutable pour dresser le portrait-robot d'un client potentiel et atteindre sa cible au coeur. Autant se le tenir pour dit : Big Brother est entré dans les moeurs !

Le Monde :

http://interactif.lemonde.fr/article/0,3649,2858-3824-111260-0,FF.html

Les Etats-Unis expérimentent la cyber démocratie
Samedi, 11/11/2000 - 00:00

Les Etats-Unis ont franchi un pas supplémentaire vers la cyber démocratie, 200 militaires américains ayant obtenu la possibilité d'exprimer mardi prochain leur suffrage en ligne. Tous les comtés de l'Etat de Caroline du Sud et certains comtés du Texas, de Floride et de l'Utah participent à ce programme pilote qui doit permettre aux militaires en poste à l'étranger ou en garnison loin de leur bureau de vote d'honorer leur devoir de citoyen, explique Polli Brunelli, directeur du Federal Voting Assistance Program. Les électeurs participant au programme se verront remettre une disquette contenant un certificat qui leur permettra de se connecter au système de vote en ligne, précise-t-il. Bill Cowles, qui supervise le scrutin dans le comté d'Orange, en Floride, encourage les militaires concernés a participer, y compris s'ils ont choisi l'abstention, de manière à vérifier le bon déroulement de l'opération et à repérer les problèmes éventuels. Le comté de Dallas, au Texas, a également permis à deux votants concernés, qui travaillent en Turquie, de faire part de leur abstention, mais espère qu'ils s'exprimeront pour l'un des candidats. Selon Toni Pippins-Poole, administratrice adjointe pour le scrutin, ce test devrait fournir d'importants enseignements et pourrait venir à bout de l'inquiétude qui entoure le vote en ligne. Jusqu'ici, les scrutins en ligne n'ont guère concerné que les actionnaires de quelques entreprises américaines et une poignée de précurseurs participant à des opérations de vote fictives. A l'occasion de la présidentielle de mardi, la Californie procédera d'ailleurs à un nouveau test, le plus important jamais réalisé par les autorités gouvernementales. Les électeurs des comtés de Sacramento, San Diego, Contra Costa et San Mateo auront la possibilité de voter "à blanc" sur l'internet, explique Alfie Charles, porte-parole du secrétaire d'Etat Bill Jones. Des terminaux seront mis à disposition dans les bureaux de vote et les électeurs seront invités à exprimer leur suffrage une deuxième fois par ce biais. Cette expérience, première du genre à cette échelle, permettra d'évaluer les logiciels et de les certifier en vue d'opérations réelles.

Reuters : http://fr.news.yahoo.com/001104/2/pzg9.html

Des robots autonomes...et carnivores
Samedi, 11/11/2000 - 00:00

Un soir, au coucher du soleil, un cultivateur se promène tranquillement dans son champ de salades. Soudain, il perçoit au loin d'étranges bruits métalliques. En tendant l'oreille, il identifie le bourdonnement d'un, deux, trois, cinq moteurs. Pas de doute, l'armée des slugbots est en route. Petits véhicules tout-terrain à quatre roues, les robots progressent entre les plantations, brandissant un bras articulé d'un mètre cinquante de long, dotés dune pince redoutable et d'une caméra à l'affût. L'heure de la chasse a sonné, une chasse à la limace (en anglais, slug). Les engins traquent les gastéropodes, nuisibles aux cultures, mieux qu'un pesticide. Une fois la limace repérée, le robot s'en approche, le bras fond sur la proie, la saisit et la dépose dans un réservoir. Là, stupeur. Dans les entrailles de métal, la bestiole est broyée, digérée puis transformée en énergie utilisable par le robot pour continuer à avancer. Une révolution ! Cette expérience unique qui inaugure l'ère de nouveaux engins prédateurs, autonomes et indépendants, a été conçue dans le laboratoire Intelligent Autonomous Systems de Bristol (Grande-Bretagne) qui, exceptionnellement, nous a ouvert ses portes. « Le but de notre recherche est d'obtenir un système capable de survivre seul dans la nature comme un animal, explique Chris Melhuish, chercheur du laboratoire. Mis à part les missiles ou les satellites, la plupart des systèmes mobiles ne sont pas réellement autonomes aujourd'hui puisqu'ils nécessitent toujours d'être rechargés en énergie et en informations à un moment donné. Notre nouveau robot doit trouver son énergie dans l'environnement, agir et interagir avec lui et prendre des décisions sans que personne n'intervienne. Une fois attrapé, le mollusque doit être digéré. « Le principe est de transformer la matière organique en électricité en utilisant un biogaz, issu de la fermentation de la chair, qui va alimenter une pile », résume Ian Kelly. C'est la deuxième phase délicate du système. Le gastéropode doit être haché par les dents d'un broyeur puis décomposé dans un « estomac » qui n'est autre qu'une cuve contenant des bactéries. La digestion enzymatique très longue produit du méthane qui, transformé en hydrogène par une opération appelée reformage, va alimenter une pile à combustible.

Sciences&Avenir : http://www.sciencesetavenir.com/techno/page102.html

La carte à puce rêve de se transformer en véritable ordinateur
Samedi, 11/11/2000 - 00:00

Le rectangle de plastique et sa minuscule puce rivaliseront-ils un jour avec les ordinateurs d'aujourd'hui ? Nombre d'exposants du Salon Cartes 2000, qui s'est tenu au CNIT de Paris, du 24 au 26 octobre, en rêvent tout haut. « Les puces des cartes évoluent à la vitesse des ordinateurs, avec quinze ans de retard », affirme Olivier Piou, président de Smart Cards, chez Schlumberger. Les microprocesseurs utilisés aujourd'hui ont la puissance des 80 286, fabriqués par Intel avant les 386 et la gamme des Pentium, dont la troisième génération est actuellement en service. La puce carrée de 5 mm située au centre de la pastille dorée des cartes bénéficie des progrès phénoménaux des techniques de gravure. Certes, avec sa fabrication à 0,35 micron de largeur de trait, elle reste encore en deçà des 0,18 micron dont disposent déjà les Pentium III et autres K6 d'AMD ou G4 d'Apple. Mais elle suit les traces de ses grands frères. D'ici quelques années, la puissance et la mémoire des cartes à puce leur permettront de contenir de véritables applications informatiques. Un prototype, présenté par le japonais NTT, dispose déjà d'un mégaoctet de mémoire Flash. Si les puces des cartes actuelles ne dépassent pas les 64 kilooctets, cette quantité réduite de données permet néanmoins de loger plusieurs applications. Suffisamment pour qu'une carte puisse servir simultanément de carte bancaire, de passeport sur Internet, de dossier santé, de porte-monnaie électronique (PME) et de passe sans contact dans les transports. Le vieux rêve d'une carte à puce remplaçant à la fois les pièces de monnaie et les multiples morceaux de plastique qui encombrent les portefeuilles n'est donc pas mort, même s'il n'est pas encore pour demain.

Le Monde :

http://www.lemonde.fr/article/0,2320,seq-2077-113561-QUO,00.html

L'appareil photo numérique devient communicant
Samedi, 11/11/2000 - 00:00

La photo numérique entre dans l'ère Internet. Le Japonais Ricoh lance le premier appareil connectable aux réseaux. Baptisé RDC-i700, ce produit intègre des fonctions de gestion et de transmission d'images. Aussitôt saisies, les photos peuvent être envoyées par Internet ou par fax, sans passer par un micro-ordinateur comme cela se fait aujourd'hui.Muni d'un capteur CCD à 3,34 mégapixels et d'un écran LCD de 3,5 pouces, cet appareil se présente comme un gestionnaire de poche d'images. Il comporte à cet effet des logiciels d'édition, de navigation, de messagerie électronique, de télécopie et de conversion de fichiers au format HTML. Il dispose d'un lecteur de minicarte CompactFlash pour le stockage des photos et d'un lecteur de carte PC Card pour la connexion aux réseaux. C'est en recevant un adaptateur réseau local, un modem téléphonique ou un modem sans fil GSM au format PC Card de la taille d'une carte de crédit qu'il devient communicant. Les photos peuvent être alors transmises par Internet comme fichiers attachés à des messages électroniques. Elles peuvent être aussi converties au format HTML pour être envoyées directement sur une page Web. A défaut d'un accès à Internet, il est possible de les transmettre par télécopie après les avoir enregistrées au format texte. L'appareil se pilote simplement comme un assistant personnel numérique à l'aide d'un stylet électronique. Le RDC-i700 constitue une première approche de la connectivité, puisqu'il laisse à l'utilisateur le choix du réseau de transmission: réseau téléphonique classique, réseau de téléphonie mobile ou réseau local d'entreprise. La prochaine génération intégrera la connectivité sans fil par le biais des réseaux de téléphonie mobile. D'autres Japonais comme Canon ou Sanyo ont montré ce genre de prototypes.

Industries&Techniques : http://www.industries-techniques.com/

La photo numérique ... instantanée
Samedi, 11/11/2000 - 00:00

Canon a réussi à miniaturiser le système d'impression à bulle d'encre au point de pouvoir l'intégrer dans un appareil de photo numérique. Dans son exposition européenne à Paris, il a démontré cette intégration dans un prototype d'appareil de photo numérique instantané. Le moteur d'impression, de la taille d'un petit paquet de cigarettes, peut imprimer à la demande des images saisies par l'appareil. La photo s'imprime en couleurs en moins d'une minute. La cartouche d'impression combine au format d'une carte de crédit les encres et les papiers d'impression. Elle fournit 20 sorties en papier. La résolution d'impression est de 1200 dpi. Le moteur d'impression et la cartouche pèsent ensemble environ 120 g. L'avantage par rapport à la photo Polaroid est que l'utilisateur choisit les photos qu'il veut imprimer. Il bénéficie en plus de tous les avantages du numérique. Les images sont stockées sur une minicarte CompactFlash. Chaque photo peut être accompagnée d'un commentaire sonore ou du bruit de l'environnement de prise de vue (chants d'oiseaux, vagues de la mer, musique...). Au moment de l'impression, ce contenu sonore est transféré sur la petite bande magnétique du papier. Pour l'écouter, il suffit de passer la photo dans la fente d'un lecteur audio spécialement développé par Canon à cet effet. Chaque photo peut contenir jusqu'à 5 secondes de son. La commercialisation de cet appareil est prévue pour 2001 au Japon.

Industrie&Technique : http://www.industries-techniques.com

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanotubes aux limites de l'infiniment petit
Samedi, 11/11/2000 - 00:00

Deux équipes de recherche travaillant séparément, l' une de la Société NEC du Japon, l'autre de l'Université de Hong-Kong sont parvenues à créer les plus petits nanotubes de carbone stables autorisés par les lois de la physique. Ces cylindres minuscules mesurent seulement 0.4 manomètres (0.4 milliardième de mètre de diamètre). Ces nano-structures sont les versions essentiellement tubulaires de fullerenes, ces cages fermées constituées d' atomes de carbone qui ressemblent à des ballons de football .Les nanotubes font l'objet d'intenses recherches à cause de leurs propriétés électriques et mécaniques très intéressantes.Ils sont chimiquement inertes et possèdent une incroyable résistance à la traction.Les scientifiques rêvent d'utiliser ces nano-structures pour fabriquer des circuits électroniques ultaminiaturisés, 100 fois plus petits que les circuits actuels. Les nanotubes sont produits en appliquant des décharges électriques à haute tension à une tige de graphite dans une chambre remplie d'un gaz comme l'hélium ou l'hydrogène. Parmi les multiples applications de ces nanotubes, il faut aussi souligner leur utilisation comme dispositif de stockage pour le hydrogène utilisé comme carburant dans les piles à combustible. le diamètre des nanotubes étant équivalent au diamètre d'un atome hydrogène, il est en effet possible de réduire le volume de l'hydrogène en le stockant à l'intérieur de nanotubes.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1009000/1009922.stm

Tisser la lumière
Samedi, 11/11/2000 - 00:00

Des rideaux qui éclairent une pièce ou encore des uniformes lumineux devraient bientôt faire partie de notre quotidien. Une petite entreprise du Nord de la France, Dubar Warneton, est parvenue à intégrer des fibres optiques au tissage de fibres naturelles. Ses recherches lui ont également permis de polariser la lumière sur toute la longueur de la fibre optique. Cette dernière est préparée par sablage ou grattage pour maîtriser la diffusion de la lumière et former les motifs voulus dans le tissu. L'alimentation électrique se fait par batterie ou par piles vendues dans le commerce. Il reste encore à améliorer cette alimentation et à travailler sur la longueur du tissu, limité pour l'instant à 3 mètres sur produit fini. Le prototype présenté cette année à Atlanta (États-Unis) était un rideau éclairant. Les visiteurs de l'installation pouvaient lire un magazine grâce à cette seule source lumineuse. Le tissu de 1,70 mètre sur 1,50 mètre était alimenté par trois batteries et donnait des variations de couleurs. L'industrialisation est en cours.

Sciences actualités : http://www.cite-sciences.fr/actu/index.html

^ Haut
Matière
Matière et Energie
Microprocesseurs : Intel a mis au point une technologie offrant une finesse de gravure de 0,13 micron
Samedi, 11/11/2000 - 00:00

Le premier fabricant mondial de processeurs, l'américain Intel, a annoncé mardi qu'il avait achevé de mettre au point une technologie offrant une finesse de gravure de 0,13 micron (130 nanomètres). Cette technologie permettra d'installer plus de 100 millions de transistors sur un microprocesseur, qui auront chacun la taille d'un millième de cheveu, précise le groupe dans un communiqué. Les processeurs actuels contiennent quelque 15 millions de transistors en moyenne, la finesse de gravure étant de l'ordre de 0,18 micron ou plus. Intel est le premier à achever le développement de la technologie de 0,13 micron. La technologie développée par Intel vise à réaliser le transistor le plus rapide du monde. Pour atteindre cet objectif, Intel a conçu une porte de transistor qui ne mesure que70 nm (0,07 microns de longueur), la plus petite porte jamais produite par l'industrie microélectronique. La combinaison des transistors plus rapides et d'un rendement plus élevé va permettre aux microprocesseur issus de cette nouvelle technologie d'être jusqu'à 65% plus rapides que ceux de la technologie précédente utilisant la gravure à 0,18 micron. En outre ces nouveaux microprocesseurs fonctionneront avec une tension de seulement 1,3 volts, soit 20% de moins que les microprocesseurs actuels, ce qui augmentera d'autant l'autonomie et la durée de vie des batteries pour les ordinateurs portables. Intel commencera la production de ses processeurs en gravure à 0,13 micron en 2002 sur des tranches de silicium de 300 millimètres de diamètre, au lieu de 200 millimètres actuellement, ce qui permettra d'abaisser de 30% les coûts de production. Ces nouveaux microprocesseurs devraient franchir la barre des 2 gigahertzs dès 2002.

Intel :

http://www.intel.com/pressroom/archive/releases/cn110700.htm?iid=update+001107&

^ Haut
Espace
Espace et Cosmologie
Vers la fabrication d'antimatière
Samedi, 11/11/2000 - 00:00

Une des plus délicates expériences de physique jamais réalisées se prépare : il s'agit de fabriquer de l'antimatière, le miroir de la matière qui forme notre Univers. Une infime quantité. A peine quelques milliardièmes de gramme sans doute en dix ans. Ce serait déjà une incroyable prouesse. Retour en arrière. Un bond de quinze milliards d'années vers le passé. Le big bang. De la lumière jaillit la matière. Pour chaque particule, un proton par exemple, une antiparticule est créée en même temps. Sa réplique presque parfaite : seule la charge électrique est inversée. Le proton, positif, et l'antiproton, négatif. De même pour l'antiélectron, baptisé positon. Chacun part de son côté, et c'est tant mieux. Sans cela, personne ne serait là pour se poser de questions. Dès qu'une antiparticule retrouve sa particule, retour à la case départ : une gerbe de lumière. La matière ? On la connaît, elle a formé noyaux, atomes et molécules. Quant à l'antimatière créée lors de la formation de l'Univers, c'est un mystère. «Pourquoi la Nature s'est-elle dotée d'un jeu de matière et d'un jeu d'antimatière pour n'en utiliser qu'un seul ?», se demande le physicien John Eades. L'antimatière s'est évaporée sans explication. Introuvable. Et les physiciens n'aiment pas cela. Parce que depuis 1927 et les travaux de Paul Dirac, on sait que l'antimatière apparaît dès que la matière apparaît. ?il pour oeil, particule pour particule. Et les prédictions du chercheur britannique ont été vérifiées expérimentalement dès les années 30. Puis confirmées à de nombreuses reprises. A Genève, les physiciens vont donc tenter de reproduire à grande échelle leur exploit de 1996. En rapprochant des antiélectrons et des antiprotons, ils étaient parvenus à produire neufs «atomes» d'antihydrogène, des tandems entre un «noyau» négatif et un «électron» positif, le plus simple possible des antiatomes, comme l'hydrogène est le plus simple des atomes. Neufs événements si fugitifs que les chercheurs n'avaient pas eu le temps de les saluer par des observations précises : ils n'ont pu que constater les traces de leur passage. Mais, cette fois, les physiciens du Cern ont mis au point un moyen de les calmer pour les guider lentement vers leur lieu de rendez-vous avec des antiélectrons : le décélérateur d'antiprotons. Un anneau circulaire, souterrain, de 188 mètres de diamètre où les quelque 20 à 50 millions d'antiprotons entraînés dans leur course folle sont fatigués à coups de champs électriques et guidés par des aimants. Leur vitesse «freinée» s'élève tout de même à 30 000 km/s. Une allure malgré tout décente, puisque les détecteurs peuvent alors suivre les faits et gestes des particules. Les physiciens auront alors le loisir de les étudier sous toutes les coutures et de les comparer avec les propriétés de banals atomes d'hydrogène, plus faciles à dompter et déjà bien connus. Le tout avec une telle précision que «s'il fallait procéder à la même étude sur vous, nous pourrions faire la différence entre vous et votre anti-vous, même si elle ne tient qu'à un grain de poussière», s'amuse Rolf Landua. Avec, peut-être, à la clef la découverte d'une différence entre la matière et l'antimatière, «quelque chose de tout à fait nouveau». Une infime asymétrie qui pourrait expliquer pourquoi la matière l'a emporté sur son reflet dans le miroir, il y a quinze milliards d'années.

Libération :

http://www.liberation.com/quotidien/semaine/20001107marv.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'Europe chauffe, mais c'est le Sud qui souffre
Samedi, 11/11/2000 - 00:00

Les dernières nouvelles du climat ne sont pas bonnes. Les 3.000 spécialistes qui travaillent pour les Nations unies ne nous ont pas habitués aux effets de manches. Mais leur précédent rapport, qui date de 1995, avait travaillé sur des hypothèses apparemment trop raisonnables. Alors que leur nouvelle somme scientifique sur la question ne doit paraître qu'en mai 2001, les premières conclusions ont filtré. Parallèlement à ce travail monumental, l'université britannique d'East Anglia (Norwich) a coordonné une recherche visant à déterminer l'impact du changement climatique sur la zone européenne. Conclusions du projet « Acacia », financé par la Commission : dans les prochaines années, le sud de l'Europe souffrira bien davantage du réchauffement de l'atmosphère que le Nord. Là, l'élévation des températures se marquera par de fréquentes sécheresses, une multiplication des incendies de forêt, l'érosion des sols, un appauvrissement agricole et une pénurie d'eau de plus en plus marquée. Sous nos latitudes, les précipitations seront plus importantes, entraînant des inondations et des tempêtes plus fréquentes. Les hivers deviendront de plus en plus doux, les étés de plus en plus chauds. La nature des cultures changera, de même que la faune, suite à l'apparition d'espèces originaires des régions plus chaudes. Notre rapport précise des informations dont nous disposions auparavant, souligne Mark Rounsevell, chercheur à l'Université catholique de Louvain, et membre du groupe de 30 scientifiques impliqués dans « Acacia ». Il insiste sur l'approfondissement de la fracture entre le nord et le sud de l'Europe, notamment dans la capacité des différents pays à s'adapter aux changements du climat. Car les adaptations ne seront pas seulement une affaire de choix politiques, mais aussi de ressources financières. Or, le sud de l'Europe dispose de moins de moyens que le Nord, poursuit Rounsevell. Selon le rapport, les températures en Europe augmenteront de 0,1 °C à 0,4 °C par décennie. Ce réchauffement, lit-on, sera plus important au sud de l'Europe (Espagne, Italie et Grèce) et au nord-est (Finlande, Russie occidentale) et moins marqué le long des côtes atlantiques. Conséquences : les hivers froids deviendront de plus en plus rares à partir de 2020 et disparaîtront presque complètement à partir de 2080. En revanche, les étés chauds deviendront de plus en plus fréquents. Notre travail a aussi porté sur les conséquences sociales et économiques de cette évolution, dit le chercheur. Le tourisme et les activités de plein air seront « stimulées » sous nos latitudes, tandis que les vagues de chaleur pourraient chasser les touristes des plages méditerranéennes en été. Enfin, les stations de sports d'hiver souffriront d'un enneigement plus capricieux. Le Nord connaîtra un accroissement des précipitations (en moyenne entre 11 et 12 % par décennie). Ce sera aussi le cas au Sud, mais dans une mesure plus faible (environ + 1 % par décennie). En été, l'humidité moyenne devrait augmenter d'environ 2 % au Nord, alors que le Sud connaîtra une évolution négative de 5 %. Résultats : au désespoir des assureurs, les risques d'inondations augmenteront partout (mais surtout dans les régions côtières et dans les vallées alpines), et un manque croissant d'eau se fera sentir dans les régions du Sud. Nous devons nous attendre à d'autres changements majeurs, poursuit Mark Rounsevell. Le principal d'entre eux touchera le secteur agricole. Suite à l'augmentation du CO2 dans l'atmosphère, le rendement des récoltes augmentera fortement. Cet accroissement se situera entre 20 et 30 % pour les céréales, les pommes de terre, les betteraves sucrières... Alors même que les Européens tentent de réduire leur production agricole. Certaines cultures typiques du Sud apparaîtront dans nos pays, contribuant à une modification des paysages.

Le Soir : http://www.lesoir.com/ARTICLES/00DEE9.html

Forêts et océans bientôt impuissants à contenir le réchauffement planétaire
Samedi, 11/11/2000 - 00:00

Les océans et les forêts, qui "pompent" actuellement la moitié du gaz carbonique rejeté dans l'atmosphère, seront bientôt impuissants à contenir le réchauffement planétaire, selon des études française et britannique. Pire encore, les forêts, qui jouent aujourd'hui un rôle de "puits de carbone" (elles absorbent davantage de gaz carbonique avec la photosynthèse qu'elles n'en rejettent) vont se dégrader avec l'élévation de la température et devenir émetteurs nets de CO2 en 2050, selon une étude de l'institut britannique de météorologie Hadley publiée dans la revue scientifique Nature . Le rôle de puits de carbone des forêts est un sujet polémique dans les négociations qui s'ouvrent le 13 novembre sous l'égide de l'ONU à La Haye pour limiter les émissions de gaz à effet de serre dans le cadre du protocole de Kyoto. Les Américains prônent une prise en compte généreuse des forêts, qui leur permettrait de remplir totalement leurs engagements de réduction d'émission de gaz à effet de serre, si on en croit une étude de l'Université de Princeton de 1998. Les Européens sont réticents, craignant que cela permette aux grands pays forestiers de respecter à bon compte leurs engagements sans effort réel pour réduire les émissions polluantes. Les études scientifiques française et anglaise remettent largement en cause le rôle généralement positif accordé aux forêts, à deux semaines de la rencontre de La Haye. "La biosphère terrestre intervient comme un puits de carbone jusqu'en 2050 environ, puis se transforme en source" d'émission de gaz carbonique, souligne l'étude britannique. De leur coté, les océans, qui jouent aussi un rôle de puits de carbone grâce aux courants marins et au plancton qu'ils contiennent, seront moins efficaces sous l'effet du réchauffement climatique. Une quantité croissante de gaz carbonique (issu de l'utilisation par l'homme des énergies fossiles comme le charbon, le pétrole et le gaz) se retrouvera donc dans l'atmosphère, accélérant le réchauffement du climat. Au total, la température pourrait augmenter de 5,5 degrés si on tient compte de l'interaction entre le CO2 et les océans et les forêts, au lieu de 4 degrés dans le modèle initial, selon le Hadley Centre. En France, les équipes d'Hervé Le Treut et de Philippe Ciais (Institut Pierre Simon Laplace) estiment que "la végétation sera moins efficace dans un climat plus chaud", mais leurs conclusions sont toutefois moins "catastrophiques" que le scénario du Hadley Centre. Le Groupe intergouvernemental sur l'évolution du climat (IPCC, créé par l'ONU) table sur un doublement des concentrations de gaz à effet de serre dans l'atmosphère en 2100 et une élévation de la température moyenne entre 1,5C et 6C. Pour Hervé Le Treut, les nombreuses incertitudes pesant encore sur l'impact du gaz carbonique sur les océans et la végétation devraient conduire à ce que "les puits de carbone ne soient pas être pris en compte dans la négociation à La Haye". Philippe Ciais souligne pour sa part que "planter des arbres permet seulement de gagner du temps", puisque les forêts rejettent à terme le CO2 stocké. "Ce ne peut être au mieux qu'une mesure transitoire, un "tampon", en attendant une véritable réduction des émissions de gaz".

Sciences Actualité : http://www.cite-sciences.fr/actu/index.html

L'Arctique soumis à un régime forcé
Samedi, 11/11/2000 - 00:00

Elle n'en demandait sans doute pas tant : la calotte glaciaire de l'Arctique perd 4% de son épaisseur tous les dix ans. Et le responsable de ce régime forcé s'appelle réchauffement du climat... Des chercheurs de l'Institut d'océanographie de l'Université de Kiel (Allemagne) ont simulé l'évolution de la couche de glace en Arctique par le biais d'un modèle dynamique testé en reprenant les données de vents et de températures de l'air en surface de quarante années, entre 1958 et 1998. Les résultats ont mis en évidence un amincissement de la calotte glaciaire de 4% par décennie, avec une baisse particulièrement forte du côté de la mer de Sibérie Orientale (plus de 30 cm de perte par décennie). La tendance semble suivre une certaine saisonnalité : l'amincissement est le plus important en automne (-4,8% par décennie) et le plus faible au printemps (-2,8% par décennie). Ce phénomène s'expliquerait par une baisse de la formation des glaces entre septembre et décembre due à l'augmentation des températures, elle-même liée aux concentrations de plus en plus élevées des gaz à effet de serre. Et si la disparition de 15% de la calotte glaciaire de l'Arctique sur les 38 dernières années est un signal d'alarme fort, le fait que cette baisse ait été six fois supérieure au cours des douze dernières années par rapport aux périodes équivalentes précédentes en est un non moins édifiant.

Infoscience : http://www.infoscience.fr/breves/breves.php3

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les plantes au secours de la prostate
Samedi, 11/11/2000 - 00:00

Et si on soignait le cancer de la prostate avec des plantes ? Ce n'est pas une boutade, mais on n'en est pas encore là. Toujours est-il que des chercheurs ont démontré qu'un "cocktail" de plantes permettait d'abaisser très sensiblement le taux de PSA (marqueur du cancer de la prostate) des patients présentant cette pathologie. L'étude est publiée dans le "Journal of Clinical Oncology". La cancer de la prostate peut être hormonodépendant ou pas, à savoir sensible à un traitement hormonal ou pas. Depuis de nombreuses années, un mélange de plantes est en vente libre aux Etats-Unis, sous l'appellation PC-SPES, présenté comme complément alimentaire destiné aux hommes ayant un cancer prostatique réfractaire aux traitements estrogéniques. Ce produit est composé de huit plantes : chrysanthème, isatis, gonaderma lucidinum, panax pseudo-ginseng, rabdosia rubescens, palmite et scutelleaire. Des chercheurs de l'université de Californie ont administré ce produit pendant deux ans à 70 hommes ayant un cancer de la prostate. Trente trois avaient un cancer hormonodépendant de la prostate, et 37 un cancer non hormonodépendant. Dans le premier groupe, une baisse de 80 % du taux de PSA est relevée chez tous les patients à l'exception d'un seul, ainsi qu'une baisse de leur taux de testostérone. Ceci permet aux auteurs de conclure que ces plantes agissent comme une hormonothérapie standard, et qu'elle possèdent une activité "estrogène-like". Dans le deuxième groupe de patients, une baisse du taux de PSA de 50 % est également observée chez 19 des 37 patients : leur cancer n'étant pas hormono-dépendant, l'action de ces plantes ne peut être liée à l'activité "estrogène-like" : elles doivent donc contenir d'autres substances ayant une activité "anti-cancer". Il est prématuré au vu de cette étude de proposer cette phytothérapie comme une alternative aux traitements classiques du cancer de la prostate. Des études complémentaires sont indispensables avant de la proposer aux patients.

Csante Presse :

http://www.csante.com/comsante/gen/read.php3?srv=news&id=1200

Maladie d'Alzheimer : le nettoyeur des plaques amyloïdes a été découvert
Samedi, 11/11/2000 - 00:00

Les vaisseaux sanguins élimineraient naturellement la protéine bêta-amyloïde dans le cerveau ; protéine qui, en excès, forme des plaques caractéristiques de la maladie d'Alzheimer. En injectant le peptide amyloïde dans le cerveau de souris et en bloquant plusieurs molécules de la circulation sanguine, les scientifiques de l'université de Rochester (Etats-Unis) ont en effet réussi à identifier un nettoyeur particulièrement efficace. Il s'agit de la protéine LRP-1 (pour low density lipoprotein repeptor-related protein), connue pour jouer un rôle dans le transport et le métabolisme des lipides comme le cholestérol. Cette molécule semble capable de se fixer à la protéine bêta-amyloïde et à la transporter vers le système sanguin où elle est évacuée. On savait déjà que les neurones peuvent se débarrasser d'une petite quantité de la protéine mais les vaisseaux sanguins se révèlent cinquante à cent fois plus rapides, donc plus efficaces. Par ailleurs, les chercheurs ont montré que les individus âgés ont un taux de LRP-1 moins élevé que les jeunes et éliminent la protéine bêta-amyloïde moins facilement. Cette découverte devrait permettre de mieux comprendre la maladie d'Alzheimer, affection qui se traduit par la destruction des neurones par les fameuses plaques amyloïdes. La survenue de ces dernières pourrait ainsi être liée à la baisse d'efficacité du système d'élimination ou à son engorgement.

Infosciences : http://www.infoscience.fr/breves/breves.php3

Un antibiotique pour combattre la maladie d'Alzheimer
Samedi, 11/11/2000 - 00:00

Un antibiotique donné expérimentalement à des souris transgéniques programmées pour développer une maladie d'Alzheimer a permis de réduire voire de supprimer chez certains d'entre elles les dépôts protéiques qui sont caractéristiques de cette maladie dégénérative du cerveau, selon un chercheur américain. La clioquinoline a été mise sur la marché il y a plusieurs décennies, puis retirées dans les années 70, suspectée alors d'être en partie la cause d'une maladie neurologique très rare. Elle va prochainement faire l'objet d'un essai clinique sur 50 malades atteints de maladie d'Alzheimer, a annoncé dimanche le Dr Ashley Bush, du Massachussets General Hospital et de la Harvard Medical School, lors d'une conférence de la Société de neurosciences. Le Dr Ashley Bush est consultant de Prana Biotechnology Ltd., la firme qui fabrique le médicament. Selon lui, la clioquinoline ''s'est montrée efficace dans l'expérience avec les souris, non pas en tuant les germes, mais en liant deux métaux entre eux.'' Les souris étaient génétiquement programmées pour fabriquer des dépôts de protéine béta-amyloïde, la substance à l'origine des plaques séniles qui caractérisent la maladie d'Alzheimer. Or ces plaques contiennent du cuivre et du zinc. Les souris ayant reçu de la clioquinoline (qui assemble ces deux métaux), affichent une réduction de 51% des plaques séniles, comparées aux souris indemnes de traitement. Chez un tiers des animaux les plus jeunes, le médicament a permis l'élimination des plaques, même si les animaux continuent à fabriquer de la protéine béta-amyloïde. Selon le Dr Bush, ces résultats sont le signe que ''le cerveau peut guérir, dès lors qu'il est débarrassé de ces plaques''. Compte tenu de ces résultats, le médicament va être testé chez l'homme. Les cinquante personnes incluses dans cet essai vont être attentivement suivies dans la crainte de voir apparaître des effets secondaires inquiétants, a précisé le Dr Bush. Ils sont atteints de formes légères à modérées d'Alzheimer, et le chercheur espère en inclure d'autres avant que l'étude ne démarre d'ici un an. ''L'étude est excitante'', a pour sa part commenté le Dr David Morgan, de l'Université de Floride du Sud. ''Mais la souris n'est pas un bon modèle de maladie d'Alzheimer, dans la mesure où l'animal ne perd pas beaucoup de neurones, à la différence des humains.''

Brève rédigée par @RT Flash

CNN :

http://www.cnn.com/2000/HEALTH/aging/11/06/alzheimers.drug.ap/index.html

Coeur : un nouveau facteur de risque
Samedi, 11/11/2000 - 00:00

Une homocystéinémie élevée peut être considérée comme un facteur de risque cardio-vasculaire équivalent, en importance, au tabagisme ou à l'excès de cholestérol ! Différentes études l'ont confirmé depuis un peu plus de 18 mois. Elles ont été menées dans tous les pays développés, l'une d'entre elles compilant les résultats de 19 centres de recherche dans 9 pays européens. L'homocystéine est un acide aminé, c'est à dire l'un des constituants de base des protéines, qui est un précurseur de la méthionine. Et ce constat est d'autant plus important à savoir que le fait d'en avoir dans le sang en quantités importantes aggraverait les risques pré-existants. Comme celui qui est lié, par exemple, à un excès de cholestérol. En fait, l'homocystéine favoriserait la formation de plaques d'athérome dans les artères coronaires à partir du cholestérol. C'est pourquoi on suggère, notamment aux Etats-Unis, de faire contrôler sa présence dans le sang. Remède proposé en cas d'excès : la prise de vitamine B6 qui, en tout état de cause, est considérée comme exempte de toute toxicité potentielle. Healthandage.com :

http://www.healthandage.com/newsletter/npf.htm

Des cellules souches neurales pour détruire les tumeurs cérébrales ?
Samedi, 11/11/2000 - 00:00

Implantées dans le cerveau, des cellules souches neurales sont capables de migrer vers une tumeur cérébrale ainsi que vers les cellules tumorales dispersées. Ces résultats laissent envisager leur utilisation pour délivrer des molécules ou des séquences d'ADN thérapeutiques sur les tumeurs cérébrales invasives. Cette propriété de migration des cellules souches neurales a été décrite dans le dernier numéro des Proceedings of the National Academy of Science. Aboody et al ont étudié ces cellules sur des rongeurs présentant une tumeur cérébrale (gliome). Dans ces travaux, des cellules souches neurales implantées dans le cerveau de ces rongeurs ont été capables de migrer vers la masse tumorale intracrânienne. Cette migration a été observée lorsque l'implantation des cellules souches a eu lieu dans la tumeur, sur un site différent de celui de la tumeur mais aussi lors d'une injection de cellules souches dans une veine de la queue des souris. De plus, certaines cellules souches ont migré vers des cellules tumorales infiltrantes, distantes de la tumeur cérébrale initiale. Selon les termes des chercheurs, les cellules souches neurales "entourent" la frontière de la tumeur et "poursuivent" les cellules tumorales infiltrantes. Les chercheurs ont également montré que ces cellules souches étaient, une fois modifiées, capables de réduire la masse tumorale. Ces cellules ont été modifiées de façon à produire la cytosine deaminase, qui convertit la 5-fluorocytosine en 5FU. Une fois injectées, elles ont entraîné une réduction de 80 % de la masse tumorale. Selon les chercheurs, ces données suggèrent l'utilisation des cellules souches neurales pour délivrer des gènes d'intérêt thérapeutique dans les tumeurs cérébrales invasives. "Plus généralement, elles suggèrent que la migration des cellules souches neurales peut être étendue, même dans un cerveau adulte et par des voies non conventionnelles, si une pathologie (comme celle modélisée par une tumeur) est présente", concluent les auteurs.

Caducée : http://www.caducee.net/

Détection du cancer : un test prometteur mais coûteux
Samedi, 11/11/2000 - 00:00

Une prise de sang pourrait être le moyen le plus simple de détecter très tôt la présence d'une tumeur cancéreuse. Un test appelé DR-70, développé aux Etats-Unis, repère les premières réactions du système immunitaire face à la présence de cellules cancéreuses. Selon les tests cliniques, il serait efficace pour les cancers du colon, du rectum, des poumons, du sein, du foie, du pancréas, du col de l'utérus et de la lymphe. En revanche, le test à lui seul ne permet pas de déterminer la nature du cancer. Pour cela le patient doit se soumettre à une autre batterie de tests. La Grande-Bretagne s'interroge sur l'introduction de ce test sanguin dans le NHS (National Health Service). Certains font valoir qu'il est très coûteux (environ 500 F par test) et qu'il ne se substitue pas à d'autres examens. Reste à évaluer les économies qui pourraient être réalisées en soignant les cancers plus tôt. D'autres préfèrent attendre de plus amples évaluations de l'efficacité du DR-70 avant de se prononcer.

Nouvel Obs :

http://quotidien.nouvelobs.com/sciences/20001106.OBS8888.html?0030

Texticaments : la révolution des textiles qui soignent
Samedi, 11/11/2000 - 00:00

En matière de tissus, les nouvelles technologies laissent espérer d'ici à dix ou vingt ans des applications beaucoup plus larges. « On est passé du tissu inerte au tissu actif et même interactif. Demain, on saura concevoir des tissus intelligents », explique Roger Chatelin, responsable de la recherche et de l'innovation à l'Institut textile de France, de Lyon. Le grand public connaît déjà les tissus qui changent de couleur en fonction de la température ou en fonction du taux d'humidité. La médecine s'en sert notamment pour protéger les plaies. Ce n'est qu'un exemple. Déjà, on fabrique des textiles climatiques qui dégagent de la chaleur - comme la ceinture lombaire chauffante - ou, au contraire, qui refroidissent. A côté des antibactériens et des antiacariens qui ne surprennent plus personne, les industriels séduisent les femmes avec ce qu'ils rangent sous l'étiquette des « cosméto-textiles » : bas hydratants, vêtements parfumés, collants antistress ou amincissants. Ces fonctions entrent petit à petit dans la sphère médicale et nourrissent des recherches déjà très avancées dans le domaine des tissus servant de dispositifs médicaux ou d'implants. Les recherches actuelles portent sur les nouveaux polymères, naturels ou dérivés du lactique ou non naturels, des nouveaux matériaux qui soient biorésorbables, bio-ompatibles ou hémocompatibles. Les scientifiques étudient également leur fonctionnalisation avec l'apport de la chimie. L'objectif : créer des polymères à reconnaissance moléculaire qui permettent de libérer des principes actifs de façon progressive, afin de faire bénéficier le patient de fonctions de soins antibiotiques, antiseptiques, antalgiques, mais également de l'étanchéité. Les textiles autoréparants sont encore plus futuristes. L'objectif est que les molécules se reconstituent dès qu'une déchirure apparaît. Les technologies sont de plus en plus subtiles. Avec des résultats spectaculaires : « Un fil de 1 millimètre carré de polyéthylène peut soulever une voiture. Il résiste dix fois plus que l'acier. Or, en santé, on a besoin de supports très solides comme les ligaments, qui offrent un compromis entre force mécanique et élasticité », explique Roger Chatelain.

Quotidien du Medecin : http://www.quotimed.com/articles/actualite

Un gène responsable d'une maladie neurologique identifié
Samedi, 11/11/2000 - 00:00

Le gène responsable d'une maladie neurologique, le syndrome d'Allgrove, qui touche de nombreuses familles nord-africaines, vient d'être identifié par des chercheurs dont la découverte paraît dans le numéro de novembre du mensuel américain "Nature Genetics". Cette maladie, également appelée "syndrome Triple A", est caractérisée par une insuffisance des glandes surrénales responsables de la production des corticoïdes naturels, une paralysie de l'oesophage, dite "achalasie", qui empêche les malades de se nourrir normalement, et une absence de larme, ou "alacrymie". Elle s'accompagne généralement d'atteintes neurologiques progressives (atteinte des nerfs sensitifs, retard mental...) et d'hypoglycémies pouvant être mortelles. La maladie, par ailleurs rare, touche tout particulièrement les populations nord-africaines, notamment tunisiennes et algériennes. Le gène responsable de la maladie a été localisé sur le chromosome 12. Il commande la fabrication d'une protéine dénommée ALADIN (pour alacrima-achalasia-adrenal insuffisiency neurologic disorder) dont le rôle dans ce syndrome est inconnu. Pour l'équipe de chercheurs de l'INSERM (département de génétique, hôpital Necker-Enfants malades, Paris), dirigée par MM. Stanislas Lyonnet et Arnold Munnich, elle pourrait interférer avec l'hormone, le cortisol, produite par les glandes surrénales et avoir un rôle dégénératif sur le système nerveux. L'étude du génome de familles de malades nord-africains a permis de découvrir que toutes possédaient un fragment ou séquence génétique commune, localisée sur le chromosome 12. "Cent à cent-dix générations successives auraient ainsi hérité de cette courte séquence génétique qui daterait de plus de 2.400 ans", selon les chercheurs. Le repérage de cette zone "ancestrale" a grandement facilité l'identification et le décodage de l'anomalie génétique en cause. Ce travail, réalisé avec la collaboration de médecins algériens et tunisiens, a reçu le soutien financier de l'AFM, l'association française contre les myopathies, organisatrice du Téléthon.

AFP :

http://www-old.afp.com/ext/francais/lemonde/sci/001104092224.hfstpin8.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le moteur à air comprimé à la conquête du monde
Samedi, 11/11/2000 - 00:00

Née de l'imagination d'un inventeur français, une voiture, propulsée par un moteur utilisant de l'air comprimé comme seule énergie, s'est lancée depuis plus d'un an à la conquête du monde urbain. Guy Nègre, 59 ans, l'ingénieur qui a développé depuis 1992 le concept d'un moteur totalement non polluant, après de longues années d'expérience dans le monde classique de l'automobile et de la Formule 1, avait donné rendez-vous lundi aux hommes d'affaires de la région lyonnaise (sud-est). Pour faire le point en France de l'avancement de son projet révolutionnaire avec l'objectif de convaincre les investisseurs locaux. Le but de Guy Nègre, est de démontrer que son invention, une petite citadine style Renault Clio dotée d'un moteur "zéro pollution" de 30 cv, utilisant de l'air comme seule énergie, capable de rouler à plus de 110 km/h, avec une autonomie d'environ 200 km en ville, peut offrir des avantages considérables dans le domaine notamment de la lutte contre la pollution en milieu urbain. Protégée par une trentaine de brevets déposés dans 125 pays, l'invention de Guy Nègre s'ouvre sur un marché potentiel énorme. Les taxis, bus et fourgonnettes ou camions de livraisons, en ville ou banlieue, véhicules individuels d'appoint, les tracteurs industriels de manutention, les tramways, les bateaux circulant sur lacs et canaux, sont autant d'applications possibles, selon l'inventeur. Le moteur inventé par Guy Nègre fait appel à de l'air comprimé sous haute pression, dont l'énergie actionne un ensemble chambres-pistons-embiellage complètement redessiné par rapport au système classique. 300 litres d'air à 300 bars sont ainsi stockés dans des réservoirs en fibre de carbone ou de verre. Techniquement, la recharge en air comprimé des réservoirs est réalisée au moyen d'un compresseur intégré au moteur, entraîné par un moteur électrique qui se branche sur une prise de courant standard (4 heures). Une recharge rapide en air (3 minutes) est également possible dans une station-service à partir d'un poste d'air haute pression, le coût de l'opération pour un plein étant alors estimé à 10 F environ. L'objectif de Guy Nègre est d'asseoir son projet mono-énergie sur des bases solides. Dans un premier temps, il exclut la cession de toutes licences aux grands groupes industriels. Sans vouloir entrer en concurrence avec les constructeurs traditionnels, il souhaite s'imposer seul sur le marché. Pour mener à bien ses développements, une holding, MDI (Moteur Développement International), a été créée au Luxembourg. Cette dernière a confié ses travaux à la société "CQFD Air Solution" basée à Brignoles (Var) dans laquelle travaillent, sous la direction de Guy Nègre, une trentaine d'ingénieurs et de techniciens. Une pré-série du véhicule doit sortir des ateliers début 2001 avant le test capital de l'homologation. Le stratégie commerciale de MDI est axée sur la vente d'"usines clé en main" toutes identiques (environ 35 millions de francs, soit 5,34 millions EUR) capables de fabriquer 3.000 véhicules par an au prix unitaire d'environ 62.000 FF hors taxes. Cette vente, assortie d'un contrat de "franchise/licence/concession", commence par un contrat de réservation (1 million de FF) d'une zone pour la construction d'une usine. Selon MDI, la première usine de production doit voir le jour en 2001 à Carros, près de Nice. La région lyonnaise a déjà pris une option.

AFP : http://fr.news.yahoo.com/001107/1/q4bb.html

Hommage (logique) à George Boole
Samedi, 11/11/2000 - 00:00

Qu'un gamin à l'éducation sommaire finisse par inventer les outils mathématiques quiconduiront à l'ordinateur, il n'y a rien de logique là-dedans. Et pourtant, mathématicien, logicien et un peu philosophe, George Boole est bien le père fondateur de la logique moderne. En créant l'algèbre booléenne, il a réussi là où Leibniz avait échoué : allier en un même langage mathématiques et symbolisme. L'histoire commence comme un conte de Charles Dickens, dans le décor d'une ville industrielle d'Angleterre. George Boole naît le 2 novembre 1815 à Lincoln, dans le Lincolnshire. Issu d'une famille pauvre, il n'aura pas les moyens financiers d'aller à l'université. Ses capacités intellectuelles sont cependant remarquables ; seul (ou presque), il apprend le latin, l'allemand, le français et l'italien qu'il maîtrise déjà à l'adolescence. Obligé de travailler pour soutenir sa famille, il devient enseignant à 16 ans. Quatre ans plus tard, il fonde et dirige sa propre école. C'est à ce moment que le jeune Boole, décidément autodidacte modèle, se plonge dans l'étude des mathématiques auxquelles son père l'avait initié dès l'enfance. Bénéficiant des moyens de l'Institut de Mécanique de sa ville, il se confronte aux oeuvres d'Isaac Newton, Pierre-Simon Laplace et Joseph-Louis Lagrange. Mais très vite, il commence ses propres recherches. En 1839, il publie ainsi sa première étude dans le Cambridge Mathematical Journal. Cette publication et l'appui qu'il obtient du cercle des algébristes de Cambridge lui permettent de s'imposer petit à petit comme une personnalité importante du monde des mathématiques. En 1844, après la publication d'un mémoire d'analyse dans les Philosophical Transactions, la Royal Society lui décerne une médaille. C'est le début d'une série de travaux posant les bases de ce qu'on nommera plus tard l'algèbre booléenne. En 1847 sort Mathematical Analysis of Logic, puis An investigation into the laws of thought, on which are founded the mathematical theories of logic and probabilities en 1854. George Boole y développe une nouvelle forme de logique, à la fois symbolique et mathématique. Le but : traduire des idées et des concepts en équations, leur appliquer certaines lois et retraduire le résultat en termes logiques. Pour cela, il crée une algèbre binaire n'acceptant que deux valeurs numériques : 0 et 1. Cette algèbre est définie par la donnée d'un ensemble E (non vide) muni de deux lois de composition interne (le ET et le OU) satisfaisant à certain nombre de propriétés (commutativité, distributivité...). Les travaux de Boole, s'ils sont théoriques, n'en trouveront pas moins des applications primordiales dans des domaines aussi divers que les systèmes informatiques, la théorie des probabilités, les circuits électriques et téléphoniques, etc. grâce à des scientifiques comme Pierce, Frege, Russel, Turing et Shannon. Juste retour des choses, alors qu'il n'a jamais mis les pieds dans une université pour y étudier, George Boole se voit proposer en 1849 une chaire de professeur des mathématiques au Queen's College de Cork, en Irlande. Et en 1857, il est nommé membre de la Royal Society. Il s'intéresse ensuite aux équations différentielles à travers deux traités qui auront une influence certaine : Treatise on differential equations (1859) et Treatise on the calculus of finite differences (1860). Marié, père de cinq filles, il mourra d'une pneumonie en 1864, laissant derrière lui un chemin parcouru qui a de quoi impressionner.

Infoscience : http://www.infoscience.fr/index.php3

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top