RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 155
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 13 Juillet 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Comment rendre crédible un site Internet ?
Vers un meilleur accès à la littérature médicale pour les pays en développement
Microsoft autorise les constructeurs de PC à modifier Windows
Le billet de banque à puce arrive
Pino, un robot humanoïde de compagnie
Le magnétoscope numérique débarque en septembre
Avenir
Le neutrino, cette particule fantomatique
Matière
Vers la puce moléculaire
Un rapport de l'OPECST sur la Pile à combustible
La Pile à combustible : une solution testée aussi pour les maisons individuelles
Deux nouveaux types d'éoliennes voient le jour au Japon
Terre
L'océan, un thermostat liquide
Vivant
La volonté de vaincre le cancer
Une caméra jetable pour explorer l'intestin
Arrêter de fumer, quel que soit votre âge !
Régime méditerranéen : adoptez-le sans tarder !
Du sang neuf pour les transplantations de moelle osseuse !
Un test pour mieux dépister les angines
Le chocolat : un aliment bénéfique à tout point de vue !
Le clonage parfait impossible ?
Des scientifiques Australiens parviennent à féconder un ovule sans sperme
La luzerne «à tout faire», un nouveau pétrole vert
Privée d'émotions, la mémoire flanche
Bébé se souvient de la musique entendue dans le ventre de sa mère
Recherche
Votre voiture veille sur vous
Edito
C'est maintenant une certitude : L'avenir des Pays les plus pauvres passe par les Nouvelles Technologies



Le dernier rapport annuel du Programme des Nations Unies pour le développement (PNUD) sur le développement humain, publié mardi 10 juillet, met en lumière de manière saisissante la place décisive des nouvelles technologies, dans le domaine de l'information comme dans le domaine du vivant, dans le développement économique mondial. (voir http://www.undp.org/hdr2001/ ) et spécialement le chapitre II, véritable mine d'informations, intitulé : « Les transformations technologiques accélèrent la mutation vers l'ère des réseaux », ( http://www.undp.org/hdr2001/chaptertwo.pdf ). L'étude de l'ONU rappelle que le chiffre d'affaires mondial des technologies de l'information passera, de 1999 à 2003, de 2200 à 3000 milliards de dollars, soit plus de 8 % du Produit Mondial Brut. Ce rapport des Nations Unies affirme que les nouvelles technologies peuvent grandement contribuer à réduire la pauvreté dans le monde et à atteindre l'objectif défini par l'ONU en l'an 2000 : réduire de moitié la pauvreté dans le monde d'ici 2015. Un manque de fonds publics, des distorsions dans les marchés et des droits de propriété intellectuelle injustes privent les pays du Tiers-Monde des bénéfices de la haute technologie, relève le Programme des Nations Unies pour le développement (PNUD). Le rapport 2001 appelle aussi à un plus grand financement pour la recherche, et à des prix différenciés pour les médicaments et d'autres produits de haute technologie entre pays riches et pauvres. "Des forces puissantes sont en jeu qui risquent de consigner le Sud à des solutions de faible niveau technologique", a dit aux journalistes l'administrateur du PNUD, Mark Malloch-Brown. Coïncidence heureuse, la veille du jour où était publié le rapport du PNUD, six éditeurs décidaient d'accorder un accès électronique gratuit à un millier de journaux médicaux (http://www.washingtonpost.com/wp-dyn/nation/A33714-2001Jul8.html) ). Six cents institutions, africaines pour la plupart, bénéficieront de cette mesure supervisée par l'OMS. Pour Gro Harlem Brundtand, le directeur général de l'Organisation Mondiale de la Santé (OMS), cité par le Washington Post, "il s'agit peut-être de la mesure la plus importante jamais prise pour réduire l'écart de connaissance médicale entre pays riches et pauvres". Ces Six éditeurs vont fournir gratuitement un accès électronique à leurs journaux scientifiques aux institutions médicales des pays pauvres. L'accès se fera via un portail créé par l'OMS. Les publications seront gratuites pour les pays dont le produit national brut (PNB) par habitant est inférieur à 1 000 dollars par an. Pour ceux dont le PNB par habitant et par an est compris entre 1 000 et 3 000 dollars, il y aura un abonnement réduit. Un médecin du Tiers-Monde qui souhaite s'informer sur les progrès de la médecine doit aujourd'hui payer 134 dollars par an pour s'abonner au célèbre hebdomadaire britannique The Lancet. S'il veut s'abonner au trihebdomadaire Brain Research, il lui en coûte 17 000 dollars par an. Soit la richesse produite l'année dernière par 43 Bhoutanais, 18 Nigérians ou 5 Marocains. Cette décision historique marque une étape importante vers un nouvel ordre mondial de l'information plus équitable et, osons le mot, plus humain. S'agissant de l'impact positif des nouvelles technologies sur le développement, le rapport de l'ONU reprend le cas de la ville de Bangalore, baptisée la Silicon Valley indienne, qui est l'exemple de ce que la haute technologie peut apporter à un pays en développement : ses exportations ont grimpé de 150 millions de dollars en 1990 à 4 milliards de dollars en 1999. Le rapport identifie par ailleurs plusieurs priorités telles que le développement de vaccins contre les maladies tropicales, le sida et la tuberculose, des ordinateurs à bas prix et des connexions sans fil et enfin des cellules photovoltaïques bon marché pour produire localement de l'électricité. Il note que, en 1998, les 29 pays membres de l'OCDE ont consacré 520 milliards de dollars à la recherche scientifique, plus que la richesse totale produite par les 30 pays les plus pauvres. Mais cette recherche est essentiellement tournée vers les maladies du Nord. "Sur les 1.223 médicaments mis sur le marché entre 1975 et 1996, seuls 13 ont été produits pour traiter les maladies tropicales", souligne le rapport. l'Organisation des Nations Unies demande aux pays riches d'oublier leurs craintes pour aider les pays en voie de développement à exploiter le potentiel des biotechnologies. La priorité la plus importante est de créer de "nouvelles variétés de sorgho, de manioc et de maïs, ainsi que d'autres aliments de base d'Afrique sub-saharienne", précise ce rapport du PNUD. Si l'ONU reconnaît que des recherches restent nécessaires sur les impacts potentiels du développement des récoltes transgéniques sur la santé et l'environnement, elle incite également les pays riches à partager les fruits de leurs recherches avec les pays les plus pauvres. A cet égard, et bousculant de manière salutaire les anathèmes et les craintes qui relèvent plus de considérations idéologiques que de réalités scientifiques, «Le débat actuel en Europe et aux Etats-Unis sur les OGM ne prend pas en compte les besoins du monde en développement», dit le rapport qui soutient que les cultures transgéniques pourraient révolutionner l'agriculture en Afrique et en Amérique latine. Ces nouvelles variétés de céréales capables de mieux résister à leurs prédateurs naturels (insectes, champignons, parasites etc...) et possédant de surcroît des qualités nutritionnelles améliorées, pourraient constituer un moyen puissant et efficace de lutte contre la faim dans le monde, selon le PNUD. En matière de technologies de l'information, 55 % des Américains utilisent l'Internet contre seulement 6,5 % de la population mondiale et 0,4 % en Afrique sub-saharienne. Les monopoles des télécommunications sont un obstacle à un usage plus répandu de l'Internet, mais pour Mark Malloch-Brown, le principal facteur est l'éducation. "Si la technologie de l'information ne décolle pas, ce n'est pas forcément parce qu'il n'existe pas de câbles à fibre optique ou de plate-forme de communication. Il est beaucoup plus probable que c'est parce qu'il n'y a pas assez de personnel qualifié dans ce secteur", a-t-il estimé. Les pays en développement ont ainsi un rôle vital à jouer pour généraliser l'enseignement secondaire et supérieur, selon le rapport. Celui-ci appelle aussi les pays riches et les entreprises à apporter leur aide à ce processus, en soulignant qu'une augmentation de 10 % de l'aide publique permettrait de consacrer 5,5 milliards de dollars à la recherche. "C'est la politique, pas la charité, qui déterminera en fin de compte si les nouvelles technologies seront partout un outil pour le développement humain", affirme le rapport. L'étude de l'ONU met en avant la chute vertigineuse du coût de transmission de l'information qui doit être exploitée pour accélérer le développement économique des pays pauvres : 150000 dollars pour 10 mégabits en 1970, 12 cents pour la même quantité d'information en l'an 2000 ! Le rapport du PNUD classe 162 pays en fonction d'un indice de développement humain. La meilleure qualité de vie au monde se retrouve cette année en Norvège, suivie par l'Australie et le Canada. Certains pays progressent, d'autres régressent. Les Etats-Unis sont ainsi passés de la troisième à la sixième position en raison de l'espérance de vie qui y est moins élevée que dans les autres pays développés. Le Canada, qui occupait la première place depuis six ans, est passé au troisième rang, devancé par la Norvège et l'Australie où l'espérance de vie et le niveau d'instruction ont progressé. La France est passée de la 12e à la 13e position. Le rapport mondial sur le développement humain utilise une mesure composite appelée « indicateur du développement humain » (IDH) pour classer chaque année les pays en fonction de trois critères : l'espérance de vie, le niveau d'instruction combiné aux taux d'alphabétisation des adultes et le revenu par habitant. Pour la plupart des pays, l'IDH enregistre avec le temps une progression plus ou moins rapide mais réelle. Le dernier rapport fait pourtant état d'une inversion de tendance, notamment en Afrique subsaharienne. Il est vrai que les 28 pays en queue de liste sont tous situés en Afrique. "Dans la plupart des pays, l'index de développement humain a augmenté ces 25 dernières années", note le rapport. "L'Egypte, l'Indonésie, la Corée du Sud et le Portugal ont accompli des progrès particulièrement remarquables", souligne-t-il. A la lecture de ce passionnant rapport, qui éclaire bien les vrais enjeux du développement planétaire, on comprend mieux à quel point il est important d'appréhender le problème du développement techno-économique et socio-éducatif dans sa dimension mondiale. Il faut que les pays développés comprennent qu'ils ont non seulement le devoir moral d'aider les pays pauvres à décoller économiquement mais qu'il est dans leur intérêt, à terme, de favoriser le développement économique et social des pays du sud -qui sont leurs marchés de demain- en facilitant considérablement les transferts de technologies vers ces pays, notamment dans les 2 domaines essentiels de l'information et des biotechnologies. Nous devons comprendre que, compte tenu de l'écart de développement entre les pays les plus pauvres et les plus riches, il n'est ni possible ni souhaitable de laisser les seules lois du marché régir les relations économiques et commerciales entre le monde développé et le Tiers Monde. Comme viennent de le faire les grandes firmes pharmaceutiques en Afrique, pour les médicaments contre le SIDA, et les grands éditeurs scientifiques, pour l'accès des pays pauvres à des conditions préférentielles à l'information, il faut que nous acceptions, que nous organisions, et que nous favorisions ce nouveau cadre souple et adapté de participation privée au décollage économique des pays les plus pauvres. Loin d'être une dépense à fonds perdu, ou un acte de charité, il s'agit d'un investissement indispensable et d'un pari sur l'avenir et sur les potentialités créatrices des 10 milliards d'hommes qui vont construire ce siècle.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Comment rendre crédible un site Internet ?
Samedi, 14/07/2001 - 00:00

Lorsqu'il achète un quotidien ou un magazine, le lecteur attend de ces publications que l'information proposée soit vérifiée et sérieuse. C'est grâce à ce travail de fond que la plupart des titres de presse ont construit leur crédibilité et ainsi acquis une reconnaissance de la part des lecteurs. L'avènement d'Internet a contribué à brouiller quelque peu les cartes, dans la mesure où n'importe qui pouvait devenir producteur de contenu. Matt Drudge, fondateur du fameux “Drudge Report” à l'origine du scandale Clinton-Lewinsky, reconnaît lui-même que 20 % des informations publiées sur son site sont infondées ou proviennent de rumeurs véhiculées sur le réseau mondial. Internet est un espace idéal pour lancer de fausses informations puisqu'elles peuvent faire le tour de la planète en quelques minutes. Publié sur le bon forum de discussion, repris sur un autre puis encore sur un autre sans qu'il soit vérifié, car sur le Net tout doit aller très vite, un fait peut parfois avoir des conséquences graves. Lors de la crise en Indonésie, il y a deux ans, de folles rumeurs ont circulé dans la région via le Net, provoquant même un début de panique en Malaisie lorsque fut annoncée une marche punitive des Malais contre la communauté chinoise du pays, que l'on accusait de profiter de la situation pour s'enrichir. Bon nombre d'alertes contre des virus informatiques se révèlent aussi souvent infondées, engendrant parfois des réactions exagérées de certains internautes paniqués à l'idée de voir leur ordinateur contaminé par un virus destructeur. Dès lors, la crédibilité de l'information diffusée sur la Toile revêt un caractère primordial pour des usagers de plus en plus nombreux à s'appuyer sur lui pour rester en contact avec l'actualité. Dans l'une de ses récentes livraisons, “Asiaweek” rappelait que, dans le secteur financier notamment, les fausses informations et les rumeurs circulant sur Internet ont coûté cher à certains internautes soucieux de “faire un coup et de s'enrichir rapidement grâce à des indiscrétions” pourtant non vérifiées. Et l'hebdomadaire hongkongais de se féliciter du fait que, “la plupart des sites locaux d'informations financières n'étant désormais plus gratuits, les données et les analyses offertes sur ceux-ci sont à la hauteur des besoins”. L'idée selon laquelle une information payée équivaut à une information de qualité commence donc à faire son chemin, ce qui ravira sans doute tous les propriétaires de sites de presse, qui sont encore à la recherche d'un modèle économique. Même si on peut se ranger dans une certaine mesure derrière l'argument payé = qualité, cela ne garantit pas pour autant que toutes les informations proposées auront subi le processus de vérification normal. La course contre la montre demeure un élément primordial pour les publications sur le réseau mondial. Aussi l'initiative prise par l'association américaine de consommateurs Consumer Reports pour mesurer la crédibilité des sites Internet est-elle louable, même si elle se limite pour l'instant aux sites marchands. A terme, il serait bon de mettre sur pied un projet de ce genre, plus spécialisé dans la presse en ligne, afin d'éviter certains dérapages préjudiciables à l'ensemble des acteurs sur le réseau.

Courrier international :

http://www.courrierinternational.com/actual/multimedia.asp

Vers un meilleur accès à la littérature médicale pour les pays en développement
Samedi, 14/07/2001 - 00:00

Les publications médicales et scientifiques sont des outils indispensables pour un partage rapide des informations de pointe dans le domaine de la médecine. L'OMS et six éditeurs de revues médicales se sont entendus sur un accord qui devrait permettre aux pays en développement d'accéder à ces revues à un prix réduit. Ce programme est basé sur les éditions électroniques de ces revues disponibles par internet. Le problème de l'accès et du coût des revues médico-scientifiques n'est pas nouveau. Depuis une vingtaine d'années, on a assisté à une augmentation du nombre de ces journaux ainsi qu'à une hausse du prix des abonnements. Plusieurs centaines de dollars sont généralement nécessaires pour un abonnement annuel et ils peuvent dépasser 1.500 dollars pour certaines revues. Dans un contexte où la diffusion des informations médicales au plus grand nombre est essentielle, certains institutions et universités éprouvent les plus grandes difficultés à souscrire de nombreux abonnements, et particulièrement dans les pays en développement. L'accord passé entre les six principaux éditeurs et l'OMS est un réel pas en avant pour faciliter l'accès à la littérature médicale pour près de 100 pays. Cette entente (qui n'est qu'une déclaration d'intention pour l'instant) porte sur un millier de publications médicales et scientifiques. Les abonnements seront gratuits ou à des prix réduits. Certaines revues offrent déjà un accès gratuit et complet, d'autres pratiquent des politiques tarifaires préférentielles sous condition, mais la grande majorité reste payante, souvent au prix fort. Le Dr Gro Harlem Bruntland, directeur de l'OMS, a déclaré : « Cette disposition aura pour conséquence directe de permettre à des milliers de médecins, de chercheurs et de responsables des politiques de santé d'avoir à leur disposition, à un degré encore jamais atteint, les meilleures connaissances scientifiques pour les aider à améliorer la santé de leurs populations. Il s'agit peut-être là de la plus grande mesure jamais prise pour combler le fossé entre pays riches et pays pauvres au niveau de l'information sanitaire. » Le début du programme établi sur trois ans est prévu pour janvier 2002. Les organismes d'enseignement et de recherche ainsi que les Universités dont l'activité nécessite l'accès rapide à ces documents en bénéficieront. Les éditeurs signataires sont "Blackwell, Elsevier Science, the Harcourt Worldwide STM Group, Lippincott Williams et Wilkins (Wolters Kluwer), Springer Verlag et John Wiley", a indiqué l'OMS. Le British Medical Journal, qui publie ses éditions gratuitement et en intégralité sur internet, a participé à la mise en relation des différents partenaires.

OMS : http://www.who.int/home-page/index.en.shtml

WP :

http://www.washingtonpost.com/wp-dyn/nation/A33714-2001Jul8.html.

Microsoft autorise les constructeurs de PC à modifier Windows
Samedi, 14/07/2001 - 00:00

L'éditeur informatique américain Microsoft a annoncé une modification des licences de son système d'exploitation vedette Windows afin de permettre aux constructeurs d'ordinateurs de "désinstaller" le logiciel de navigation web Internet Explorer et d'opérer d'autres changements. Cette annonce intervient après la décision de justice rendue le mois dernier par la cour d'appel fédérale qui confirme le jugement de première instance reconnaissant Microsoft coupable de monopole sur le marché des systèmes d'exploitation et de pratiques illégales dans le domaine des licences. "Cette annonce ne remplace pas les discussions sur un arrangement à l'amiable avec la partie gouvernementale, ni toute nouvelle action future dans la procédure de justice ; néanmoins, nous voulions prendre des mesures immédiates à la lumière de la décision du tribunal", a déclaré dans un communiqué le directeur général de Microsoft, Steve Ballmer. Les constructeurs d'ordinateurs, qui fournissent pour la plupart le système Windows préinstallé sur les machines vendues, pourront désormais enlever de l'écran d'accueil l'icône du logiciel Internet Explorer, dont l'imbrication dans Windows avait suscité la plainte du gouvernement américain. A l'inverse, les constructeurs pourront ajouter des programmes et faire figurer leurs icônes sur l'écran d'accueil (ou bureau) de Windows XP, la prochaine version grand public du système de Microsoft qui doit être lancé le 25 octobre. Ces changements demanderont une phase d'essai, mais ne devraient pas retarder la sortie de Windows XP, a assuré Microsoft.

Reuters : http://fr.news.yahoo.com/010711/85/1ggpd.html

Microsoft :

http://www.microsoft.com/presspass/press/2001/Jul01/07-11OEMFlexibilityPR.asp

Le billet de banque à puce arrive
Samedi, 14/07/2001 - 00:00

Après les systèmes de micro-paiements en ligne et les porte-monnaie électroniques offline, voici les billets de banques sécurisés par microchip. Hitachi vient en effet de présenter une puce de moins d'un demi millimètre d'épaisseur, susceptible d'être insérée dans le papier des billets de banque. Doté d'un système de sécurisation et d'une ROM limitée (128 bits), la puce permettrait non seulement d'authentifier un vrai billet, mais aussi (voire surtout) de suivre les mouvements monétaires en espèces. Le système de transmission sans fil dont est équipé la puce peut communiquer dans un rayon de 30 cm, interdisant le tracking par satellite mais permettant par exemple la détection par un portique d'aéroport (passez sous le portique et le montant du cash que vous transportez s'affichera sur l'écran de contrôle). Même si l'article ne l'évoque pas, on peut supposer que la puce coûte peu à produire, consomme quasi rien, voire est télé-alimentée par le lecteur. Au delà de cette application, on peut en imaginer bien d'autres, depuis le calcul automatique du prix du contenu d'un caddie au passage en caisse dans un supermarché, jusqu'à l'intégration serrée de contenu offline et online (votre ordinateur charge automatiquement une page web associée lorsque vous approchez un prospectus papier). Et dire qu'entre les cartes de crédits et les téléphones cellulaires on se trouvait déjà trop pisté ...

Nospoon : http://www.nospoon.org/

ZDnet :

http://www.zdnet.com/zdnn/stories/news/0,4586,2782211,00.html

Pino, un robot humanoïde de compagnie
Samedi, 14/07/2001 - 00:00

Pino arbore de rondes oreilles vertes et un nez en pointe, ne sait pas bien marcher et encore moins bien parler. Le prototype de ce petit androïde, dont le nom est inspiré du célèbre Pinocchio, pèse 4,5 kg et mesure 70 cm, soit la taille d'un enfant. Une trentaine de servomoteurs reliés à un processeur Pentium III l'animent. « Pino peut marcher et bouger librement la partie supérieure de son corps mais, au stade actuel, ses capacités de locomotion demeurent limitées », explique Hisashi Taniguchi, le président de ZMP, son fabricant. Cela n'empêche nullement Pino d'être déjà une vedette des variétés japonaises. Après avoir figuré dans le clip vidéo d'une star de la chanson, Pino se rendra la semaine prochaine en Malaisie pour serrer la main du Premier ministre Mahathir Mohamad. nLe petit bonhomme rejoint ainsi Aibo (le chien de la série des robots-animaux de Sony), mais son prix est nettement plus abordable, ce que ne manqueront pas d'apprécier les parents. Deux modèles grand public seront disponibles au Japon d'ici à la fin de l'année. Le premier sait marcher et se dandiner, il mesure 20 cm et coûtera l'équivalent d'une vingtaine d'euros. Le second est plus onéreux (56 euros), mais du haut de ses 36,6 cm, il sait en plus parler. On attend avec impatience le modèle qui sera capable de mentir !

OINet : http://www.01net.com/rdn?oid=154469&rub=1854

Le magnétoscope numérique débarque en septembre
Samedi, 14/07/2001 - 00:00

Faut-il opter pour un magnétoscope numérique pour remplacer son vieux modèle analogique VHS ? A la rentrée de septembre, le premier modèle de salon, fabriqué par Nokia, sera en vente. Le MediaMaster 9902 S vous permet d'enregistrer vingt heures de programmes, soit l'équivalent de cinq cassettes VHS de quatre heures, grâce à son disque dur intégré de 40 Go, qui a remplacé la cassette. Il n'y a plus de rembobinage : vous accédez rapidement à l'endroit voulu. Mais ce ne sont pas là ses seuls avantages. Si vous devez vous absenter quelques instants pendant la retransmission d'un match de foot, vous pouvez déclencher un enregistrement, puis reprendre le cours de la partie au moment où vous l'avez laissée. Avec le choix de visionner le match en direct ou en différé. Autre intérêt, vous pouvez supprimer les parties inutiles (la publicité, en tout premier lieu !) du début ou de la fin d'un enregistrement. Cette fonction optimise du coup votre capacité de stockage. Enfin, d'autres fonctions vous permettent d'effacer, de renommer ou encore de faire défiler image par image vos enregistrements. Une télécommande fournie assure le pilotage de l'appareil. Ce modèle est par ailleurs livré avec un démodulateur intégré pour la réception des chaînes gratuites et l'accès aux bouquets satellites. Philips, Panasonic, ou Samsung devraient annoncer leur modèle d'ici à la fin de cette année. Le MediaMaster 9902 S sera commercialisé chez Boulanger, Darty, ou encore à La Fnac à environ 5 000 francs (762,25 euros), le prix d'un magnétoscope analogique haut de gamme, voire professionnel. Autre bémol, la conservation des enregistrements. Ce modèle n'autorise pas le transfert de ceux-ci (au format Mpeg-2) vers d'autres supports numériques comme un CD ou un DVD. L'appareil étant dépourvu d'interface adéquate, impossible d'y brancher un périphérique informatique de stockage externe. Certes, il est possible de raccorder un magnétoscope classique pour recopier les enregistrements sur cassette. Mais, alors, exit la qualité numérique. En somme, si vous souhaitez conserver un film ou si vos proches ont l'habitude de vous charger de leur enregistrer des émissions, votre magnétoscope analogique vous sera encore bien utile !

OINet : http://www.01net.com/rdn?oid=154683&rub=1784

^ Haut
Avenir
Nanotechnologies et Robotique
Le neutrino, cette particule fantomatique
Samedi, 14/07/2001 - 00:00

Après trois années de mesures, les chercheurs ont découvert que les neutrinos, ces particules élémentaires parmi les plus abondantes de l'univers, ont une masse. Une masse très petite toutefois, qui ne peut expliquer, comme on l'espérait, le contenu de la matière sombre dont le mystère demeure entier. Les neutrinos sont des particules élémentaires de la matière au même titre que l'électron, le tau, le muon et les quarks. Comme l'indique leur nom italien, les neutrinos ne portent pas de charge électrique. Particules les plus abondantes de l'univers, ils interagissent si peu avec la matière qu'ils parviennent à la traverser aisément. Par exemple, plusieurs dizaines de milliards de neutrinos traversent chaque centimètre carré de notre peau toutes les secondes. Il va sans dire que la détection de telles particules «fantomatiques» s'avère extrêmement difficile et exige le déploiement de grands moyens. À Sudbury, au Canada, les chercheurs ont profité de l'infrastructure d'une mine pour y enfouir un détecteur à plus de 2000 mètres de profondeur afin de filtrer les rayons cosmiques qui, autrement, masqueraient les signaux émis par les neutrinos solaires pourvus d'une énergie plus faible. l'Observatoire de Neutrino de Sudbury (ONS) a en effet été conçu spécifiquement pour la détection des neutrinos solaires et pour résoudre une énigme qui taraude l'esprit des physiciens depuis près de 30 ans. Le flux de neutrinos solaires qui est mesuré sur Terre est trois fois moindre que celui prévu par les modèles théoriques du fonctionnement du soleil. Pour expliquer cette énigme, les physiciens supposaient que les modèles du Soleil étaient incorrects ou que les neutrinos électroniques créés au coeur du Soleil se métamorphosaient en un autre type de neutrinos au cours de leur voyage vers la Terre. l'Observatoire de Neutrino de Sudbury vient d'apporter la preuve que les neutrinos solaires oscillent et se métamorphosent en neutrinos muoniques ou tauiques au cours de leur voyage entre le coeur du Soleil et SNO. Cette transformation n'est pas prévue dans le modèle standard des particules élémentaires qui faisait des neutrinos des particules sans masse. Or ces observations montrent que le neutrino a bien une masse mais minuscule ( 250000 fois moins grande que l'électron). Compte tenu de leur faible masse, «les neutrinos ne compteraient que pour 18 % de la masse de l'univers tout au plus, affirme Clarence Virtue. Ce ne sont donc pas eux qui composent l'essentiel de la matière sombre (comme on l'a longtemps supposé). Le casse-tête demeure entier car l'univers comprend à peine 10 % de matière visible et jusqu'à 90 % de matière sombre, à laquelle les neutrinos semblent contribuer très peu...

Devoir :

http://www.ledevoir.com/public/client-css/news-webview.jsp?newsid=2823

^ Haut
Matière
Matière et Energie
Vers la puce moléculaire
Samedi, 14/07/2001 - 00:00

Des chercheurs de l'université de technologie de Delft aux Pays-Bas ont marqué un grand point. Ou plutôt un tout petit point : un milliardième de mètre. C'est la taille du transistor d'un nouveau genre sur lequel ces scientifiques planchent. Selon le magazine Science, il s'agit d'une molécule de carbone pliée pour prendre la forme d'un tube, capable de piéger un électron. Des équipes précédentes avaient déjà réussi cette manoeuvre. Mais pour la première fois, le dispositif ne demande pas, pour fonctionner, une température proche du zéro absolu. Pour obtenir ce résultat, ils ont mis au point un système ne laissant échapper que les électrons revenus à une température raisonnable. Le principe, utiliser un microscope à force atomique pour extraire les électrons d'un nanotube ; le nanotube étant un assemblage cylindrique d'atomes de carbone d'un nanomètre de diamètre et de 20 nanomètres de long. Ce type de transistor, bien plus petit et moins gourmand en électricité, devrait reléguer aux musées les modèles à silicium. D'autant que, comme l'explique Christophe Delerue, chef du département de physique à l'Institut supérieur d'électronique du nord (ISEN) de Lille, "les puces dotées de transistors au silicium risquent d'arriver bientôt à des limites techniques et physiques : l'interconnexion entre les transistors, trop proches et trop petits, ne se fait plus. Les transistors sur lesquels nous travaillons utilisent le carbone, mais actuellement on sait juste manipuler quelques molécules une à une. C'est insuffisant pour construire une puce fonctionnelle. Du coup, nous faisons des recherches pour amener les transistors à s'auto-organiser." À l'échelle où travaillent les spécialistes de microélectronique, poursuivre la miniaturisation pose d'énormes problèmes techniques. La percée des chercheurs néerlandais, si elle confirme qu'un transistor de la taille d'une molécule est viable, n'a donc pas de conséquence à moyen terme. Selon Christophe Delerue, il faudra attendre au moins une dizaine d'années, plus vraisemblablement 15 ou 20 ans, avant de voir débarquer dans nos micro-ordinateurs les super puces super petites.

Transfert :

http://www.transfert.net/fr/techno/article.cfm?idx_rub=89&idx_art=6235

Sciences&Avenir :

http://quotidien.sciencesetavenir.com/sci_20010709.OBS6221.html

Un rapport de l'OPECST sur la Pile à combustible
Samedi, 14/07/2001 - 00:00

MM. Robert Galley et Claude Gatignol, au nom de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, viennent de publier un rapport sur les perspectives offertes par la technologie de la pile à combustible. Le principe de la pile à combustible a été découvert en 1839 par Grove. Depuis cette époque l'intérêt porté à cette technique a été l'objet de mouvements de flux et de reflux. Nous sommes incontestablement à l'heure actuelle dans une période de « redécouverte » de cette technique. Ce nouvel intérêt s'est confirmé au début des années 1990, époque à laquelle le sénateur Pierre Laffitte évoquait cette technologie dans un rapport de de l'OPECST sur « l'intérêt du véhicule électrique au regard de la protection de l'environnement ». Cette rédécouverte est due en partie aux échecs rencontrés dans l'élaboration des véhicules électriques à accumulateurs. Ceux-ci fonctionnent bien techniquement mais leur coût est trop important et il est impossible d'obtenir une autonomie et des vitesses satisfaisantes comme le notait alors Pierre Laffitte. Cette recherche dans le domaine du véhicule électrique était motivée par des considérations d'environnement. En effet l'évolution de l'atmosphère est devenue un problème majeur. De plus en plus d'autorités scientifiques établissent une corrélation entre l'effet de serre et le réchauffement indiscutable de la planète. On relie mal cet échauffement à des conséquences climatiques mais un certain nombre de répercussions à long terme peuvent d'ores et déjà être envisagées comme par exemple la fonte des glaciers, l'élévation du niveau moyen des océans ou la modification des courants marins, voire l'aggravation des perturbations météorologiques. Cet accroissement de l'effet de serre est dû à l'augmentation considérable des émissions de certains gaz, au premier rang d'entre eux, le dioxyde de carbone et le méthane mais également les oxydes d'azote. L'émission de gaz carbonique et d'oxydes d'azote trouve son origine dans la combustion des énergies fossiles. il est en effet un domaine où le pétrole n'a pas cédé de terrain : c'est celui des transports où il couvre 95 % des besoins. La consommation des carburants automobiles est en augmentation du fait de la croissance du nombre des véhicules au niveau mondial et de l'accroissement des distances parcourues malgré les progrès des moteurs en termes de consommation. Une autre préoccupation s'est faite jour : celle de l'épuisement, à terme inéluctable, de ces énergies fossiles et, notamment, du pétrole ; celui du gaz naturel étant sans doute plus lointain. Il est peut être alors temps de réfléchir à la possibilité de remplacer le pétrole en tant que carburant pour le réserver à l'élaboration de produits à haute valeur ajoutée. Cette énergie de substitution pourrait être l'hydrogène. Cet hydrogène pourrait être employé comme carburant comme il l'est d'ailleurs déjà pour la propulsion des fusées et engins spatiaux. Mais la combustion de l'hydrogène a un rendement relativement faible, et, de plus, ce gaz, quoiqu'extrêmement répandu dans la nature mais sous forme combinée avec l'oxygène ou le carbone, doit être produit à partir de plusieurs précurseurs. L'hydrogène peut être utilisé avec un rendement beaucoup plus élevé dans ce qu'on appelle couramment une « pile à combustible ». C'est en fait un générateur d'électricité à hydrogène. Le principe de base n'est plus une combustion mais une conversion électrochimique, inverse de l'électrolyse. Mais cette pile à combustible devra affronter la concurrence de technologies bien en place comme les batteries et le moteur à combustion interne qui n'a pas encore atteint ses limites de développement. Ce rapport montre que les piles à combustible pourraient être les premières applications de grande diffusion de l'hydrogène, celles qui ouvriront les portes de la civilisation de ce gaz.

Rapport 3216 de l'OPECST :

http://www.assemblee-nationale.fr/rap-oecst/pile_combustible/r3216.asp

La Pile à combustible : une solution testée aussi pour les maisons individuelles
Samedi, 14/07/2001 - 00:00

La pile à combustible, l'une des pistes sur lesquelles planchent les scientifiques pour les transports de demain, pourrait d'ici une dizaine d'années devenir une solution propre pour chauffer et fournir en électricité des logements. Dans l'immédiat, la pile à combustible pour logement individuel commence seulement à sortir des cartons des ingénieurs. EDF, qui présentait mercredi ce projet à la presse dans son centre de recherche des Renardières, près de Fontainebleau (Seine-et-Marne), mène la première expérience en Europe sur une pile à combustible au méthanol pour maison individuelle. Le principe de la pile à combustible, découvert dès 1839 par William Grove, un avocat britannique féru de physique, est simple. C'est en quelque sorte l'inverse de l'électrolyse: le courant continu est produit à partir d'une réaction électrochimique entre l'hydrogène et l'oxygène, comme dans une batterie. La conversion d'énergie chimique en énergie électrique se fait directement, sans combustion ni production intermédiaire d'énergie mécanique comme dans les systèmes classiques. Le système peut produire également de la chaleur. L'hydrogène est obtenu dans un convertisseur chimique (ou reformeur), par transformation de tout combustible possédant des atomes d'hydrogène: gaz naturel, essence, méthanol etc. L'oxygène, quant à lui, est obtenu à partir de l'air ambiant. Le procédé est particulièrement propre: la pile ne rejette ni oxyde de soufre ni particules, et ses émissions de gaz carbonique sont inférieures de 30% à celles d'un groupe électrogène au diesel. Le bruit est pratiquement inexistant. De la taille d'un gros congélateur domestique, la pile testée par EDF fournit une puissance de 3 kilowatts. Elle peut assurer la consommation de base d'une maison individuelle, avec un système de batteries qui engrange l'électricité quand la consommation est faible et qui la restitue lors des pointes de consommation. Elle n'est pas connectée actuellement à un système de chauffage. Construite par la société américaine Idatech, filiale d'Idacorp, compagnie d'électricité de l'Etat d'Idaho, cette pile sera testée pendant douze mois pour évaluer notamment la durée de vie des différents composants et leur comportement dans les conditions réelles de consommation. Mais on en est pour l'instant au stade du prototype. "Il n'y a pas d'avenir commercial pour les piles à combustible avant cinq ou dix ans", souligne Alain Pinget, responsable du projet. Le coût des composants reste prohibitif (500.000 F/ 7.622 Euros pour la pile testée par EDF) et la consommation en litres, soit environ 180 francs, par jour) dissuasive. Les piles, un marché où dominent les constructeurs américains et canadiens, sont produites en très faible quantité, la plus grosse série produite portant sur 225 unités fabriquées par l'Américain ONSI. EDF, qui croit en l'émergence de ce marché d'ici à la fin de la décennie, à côté des sources d'énergie traditionnelles, mène des recherches sur plusieurs axes. Outre la pile pour maison individuelle, une autre pile expérimentale est testée depuis plus d'un an à Chelles (Seine-et-Marne), où elle fournit l'électricité et le chauffage pour 200 foyers. EDF compte également mettre en service à partir de 2002 à Marbach, dans l'ouest de l'Allemagne, une pile à combustible de 1 mégawatt qui permettra d'alimenter une commune de 2000 habitants. Ce projet est mené conjointement avec le troisième groupe énergétique allemand, EnBW, dont EDF détient 34,5 %.

AFP : http://www.larecherche.fr/energie/n010704154204.1p0rboxm.html

Deux nouveaux types d'éoliennes voient le jour au Japon
Samedi, 14/07/2001 - 00:00

La société japonaise Fuji Heavy Industries compte lancer, dès la fin de cette année, la production en série d'une éolienne capable de produire de l'électricité même avec un vent de 2 m/s. Cette efficacité multiplierait le nombre de zones d'implantation possibles au Japon par dix, incluant notamment les zones urbaines, où le vent est sporadique. Selon Fuji Heavy, cette éolienne est six plus efficace que les modèles actuels, qui nécessitent un vent minimum de 3 à 4 m/s. Haute de 30 m avec des hélices de 7,5 m d'envergure, cette éolienne aurait une puissance de 40 kW. Son prix est de 38 0000 Euros, soit 80 % moins cher qu'une unité de 1000 kW. La société compte installer ces éoliennes sur cent sites dans les trois prochaines années. L'autre part, une équipe du tokyo Instute of Technology (TIT) a développé un système pour obtenir une puissance régulière même lorsque le vent est variable. Le principe consiste à associer, au système déjà existant, un convertisseur de fréquence et un volant d'inertie. Lorsque le vent est fort, une partie de l'énergie produite est stockée dans le volant d'inertie, et peut être relâchée ultérieurement lorsque le vent ralentit. Une simulation d'un tel système dans la préfecture d'Aomori (nord du Japon), un endroit bien connu pour ses vents puissants, montre qu'il serait possible de produire une puissance moyenne de 50 kW, deux plus élevée que les systèmes actuels.

Industries&Techniques :

http://www.industries-techniques.com/site/quotidien/page.cfm?

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'océan, un thermostat liquide
Samedi, 14/07/2001 - 00:00

L'eau sur Terre tempère tellement la température de notre planète que, si le Soleil dégageait 50 % plus de chaleur, nous ressentirions une hausse d'à peine dix degrés ! C'est à l'aide d'un modèle informatique simplifié des rapports entre l'océan et l'atmosphère que Hsien-Wang Ou, du Lamont-Doherty Earth Observatory, est arrivé à ce résultat. Lorsque la chaleur n'est pas très importante, l'eau des océans s'évapore : la vapeur ainsi créée réchauffe la Terre comme un gaz à effet de serre, en empêchant la chaleur de repartir vers l'espace. Mais quand il fait très chaud, la vapeur d'eau monte moins haut dans le ciel et, se transformant en d'épais nuages, reflète les ardents rayons du Soleil. Au final, la Terre connaît toujours le même climat tempéré, écrit l'océanologue dans le dernier Journal of Climate. Ce double effet des océans expliquerait un vieux paradoxe : celui du Soleil faible. Il y a environ 4 milliards d'années, notre Soleil encore tout jeune dégageait à peu près 30% de chaleur en moins. Or, des données géologiques montrent qu'à la même époque, les océans terrestres, loin d'être des cubes de glace, étaient liquides ! C'est peut-être simplement parce qu'il y avait plus de gaz à effet de serre dans l'atmosphère terrestre à ce moment-là mais... de quel gaz s'agissait-il ? De dioxyde de carbone, comme le croient certains chercheurs, ou du gaz beaucoup plus courant qu'est... la vapeur d'eau ?

Cybersciences :

http://www.cybersciences.com/Cyber/3.0/N2386.asp

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La volonté de vaincre le cancer
Samedi, 14/07/2001 - 00:00

Le Sénat vient de publier un remarquable Rapport d'information (No 419 ) intitulé "La volonté de vaincre le cancer". Ce rapport présenté par M. Lucien NEUWIRTH, Sénateur de la Loire,au nom de la commission des Affaires Sociales. Cette étude trés complète souligne que le cancer reste, en dépit des récents progrés thérapeutiques, le principal défi auquel est confronté notre système de santé publique : avec 146.837 décès en 1997, pour environ 240000 cas diagnostiqués,les cancers représentent la deuxième cause de mortalité en France derrière les affections cardio-vasculaires, soit environ 28 % des décès. Depuis 1989, les cancers sont, dans notre pays, la première cause de mortalité pour les hommes. Cependant ce rapport souligne que le cancer n'est pas une fatalité : selon les évaluations du Professeur Gérard Dubois, 42.000 morts par an seraient évitables par une politique de prévention et de dépistage adaptée. Malheureusement, les travaux de la mission d'information ont confirmé le constat effectué par la Cour des comptes dans son rapport sur la sécurité sociale de septembre 2000, en ce qui concerne les insuffisances de la politique de lutte contre le cancer dans notre pays. Trois constatations principales peuvent ainsi être établies, à savoir :

*- la volonté affirmée des malades d'être désormais des acteurs « à part entière » de leur propre maladie ;

*- une multiplicité d'acteurs, dont les incontestables capacités d'actions et d'initiatives sont, trop souvent, découragées par l'absence d'une volonté politique, seule capable de les coordonner et de les conforter en les inscrivant dans le cadre d'une priorité nationale de santé publique dont la responsabilité incombe à l'Etat ;

*- un manque de moyens humains et financiers, qui se traduit, notamment, par une connaissance « brouillée » du mal à combattre, des inégalités dans l'accès aux soins et une insuffisance de l'effort de recherche.

Plutôt que de procéder à un nouvel inventaire des insuffisances de la politique française de lutte contre le cancer, la mission s'est donc attachée à définir les voies de l'avenir, et à identifier les différentes solutions lui paraissant appropriées pour surmonter ces insuffisances. La mission estime ainsi que l'amélioration de la lutte contre le cancer dans notre pays passe, nécessairement, par l'augmentation des moyens qui lui sont actuellement consacrés. Dans un contexte budgétaire nécessairement contraint, ceci ne pourra être obtenu que par un choix conscient et délibéré de la collectivité nationale afin de faire de la lutte contre le cancer La priorité d'une véritable politique de santé publique. Les moyens supplémentaires ainsi définis devront, notamment, permettre à l'Etat, et, plus particulièrement, au ministère de la santé, d'assumer pleinement les responsabilités qui sont les siennes en ce qui concerne la définition, l'impulsion et la coordination d'une politique nationale de lutte contre le cancer.

Les principales données épidémiologiques sur le cancer en France : Avec 146.837 décès en 1997, les cancers représentent la deuxième cause de mortalité en France derrière les affections cardio-vasculaires, soit environ 28 % des décès. Depuis 1989, les cancers sont en France la première cause de mortalité pour les hommes qui meurent 1,6 fois plus de cancer que les femmes. En 1997, ils représentent 88.703 décès (33 % des décès masculins) et se placent avant les maladies cardio-vasculaires. Chez la femme, les cancers sont responsables de 58.134 décès (23 % des décès féminins) et constituent la seconde cause de mortalité après les maladies cardio-vasculaires.

La répartition des décès par cancer en 1997

Les causes de décès par cancer les plus fréquentes sont par ordre décroissant en 1997 :

*- le cancer du poumon avec 24.417 décès,

*- le cancer de l'intestin avec 16.409 décès,

*- le cancer des voies aérodigestives supérieures (VADS3(*) : lèvre-cavité buccale, pharynx, oesophage et larynx) avec 11.448 décès,

*- le cancer du sein avec 10.955 décès,

*- le cancer de la prostate avec 9.345 décès.

Chez l'homme, le cancer le plus souvent responsable du décès est le cancer du poumon (23 %). Viennent ensuite les cancers des voies aérodigestives supérieures (12 %), le cancer de la prostate (11 %), les cancers colorectaux (10%). Chez la femme, le cancer le plus souvent responsable du décès est le cancer du sein (19 %), suivi des cancers colorectaux (13 %), puis du poumon (6 %), de l'ovaire (6 %), de l'utérus (5 %), du pancréas (5 %), de l'estomac (4 %), des leucémies (4 %), du cancer de la vessie (2 %), puis des voies aérodigestives supérieures (2 %). La proportion du nombre de décès prématurés dus au cancer et l'évolution de la mortalité prématurée. Les décès par cancer survenant avant l'âge de 65 ans représentent 31 % des décès chez l'homme et 25 % des décès chez la femme. Les cancers représentent en 1997 la première cause de décès prématuré avec 36 % de l'ensemble des décès avant 65 ans chez l'homme et 43 % chez la femme. Cette part a augmenté de près de 2 % entre le début et la fin des années quatre-vingt. La mortalité par cancer chez les hommes entre 0 et 64 ans a régulièrement augmenté depuis le début des années soixante-dix jusqu'en 1985, date à laquelle la tendance a commencé à s'inverser. Cette évolution a placé la France en tête des pays de l'Union européenne. Par contre, la mortalité pour les femmes a baissé régulièrement, comme la moyenne communautaire et situe la France au quatrième rang des pays de l'Union. Cette diminution de la mortalité prématurée est essentiellement expliquée par une diminution importante de la mortalité prématurée par cancers des VADS (- 27 %), en relation avec la baisse de la consommation d'alcool, une diminution importante de la mortalité prématurée par cancers de la prostate (- 24 %), puis plus modérée des cancers colorectaux (- 5 %), et des cancers du poumon (- 1,4 %). La diminution de la mortalité par cancer chez la femme qui a connu un ralentissement progressif depuis 1975 (- 8,9 % en 20 ans), connaît entre 1990 et 1995 une augmentation modérée, de l'ordre de + 4 % alors que pendant la même période, on note une diminution de la mortalité prématurée avant 65 ans supérieure à - 3 %. La diminution de la mortalité prématurée est en partie due à une diminution de la mortalité prématurée par cancers colorectaux (-13 %) et par cancer du col utérin (- 8 %). Chez l'homme, la plus forte augmentation entre 1975 et 1995 concerne le cancer de la prostate (expliquant les ¾ de l'augmentation globale par cancer durant cette période), en lien avec le vieillissement de la population et l'évolution des pratiques de prise en charge. Les cancers colorectaux plutôt stables jusqu'en 1985 ont augmenté de 17 % durant la période étudiée, du fait notamment de l'utilisation accrue de l'hémoccult. Les cancers du poumon ont faiblement augmenté (+ 5 %), en lien avec la diminution du tabagisme. Les cancers des VADS ont diminué de 27 %, en lien avec la diminution de l'alcoolisme en France. Les mélanomes de la peau sont en augmentation. Chez la femme, les cancers du sein ont augmenté de 60 %, expliquant à eux seuls, 93 % de l'augmentation globale de l'incidence. Cette augmentation est en partie expliquée par le diagnostic plus précoce en relation avec le dépistage. Le cancer du poumon a augmenté de 51 % en lien avec la croissance du tabagisme. La croissance du mélanome, liée aux pratiques d'exposition au soleil (exposition pendant enfance, exposition intermittente et forte au soleil) a doublé entre 1975 et 1985, elle s'est ralentie entre 1985 et 1995.

Rapport du Sénat sur le cancer :

http://www.senat.fr/rap/r00-419/r00-419_mono.html

Une caméra jetable pour explorer l'intestin
Samedi, 14/07/2001 - 00:00

La société Given Imaging Ltd va commercialiser une caméra miniature jetable pour explorer l'intestin. Cette invention, qui bénéficie du label européen CE, devrait être prochainement mis sur le marché en Europe. Ingérée par le patient, la caméra transmet en couleurs les informations qu'elle recueille grâce à des récepteurs placés sur sa peau. Ces informations sont alors répercutées vers un appareil enregistreur que le patient porte à la ceinture et qui lui permet de mener une activité normale tout au long de l'examen. Elles sont ensuite converties en un court vidéo-clip de l'intestin grêle que le gastro-entérologue peut, selon ses besoins, visionner, archiver ou fractionner en images fixes. "Ce système, baptisé Given Diagnostic Imaging System, nous permet de voir l'intestin grêle dans son environnement naturel, de procéder à des diagnostics plus aisés et de contrôler des segments de l'intestin, autrement très difficiles à visualiser", a expliqué le professeur Rossini, de l'hôpital San Giovanni de Turin, en Italie, qui a été l'un des principaux responsables des essais cliniques de cette caméra. Avant cette innovation, les médecins procédaient à leurs explorations en fixant une caméra miniature sur un endoscope qui était inséré dans la bouche du patient jusqu'à son intestin. L'Allemagne et l'Australie utilisent déjà le Given Diagnostic Imaging System dont le coût est d'environ 233.000 francs. Ce prix comprend deux enregistreurs, un convertisseur d'images et dix caméras. Les caméras, expulsées par les voies naturelles et donc à usage unique, valent plus de 3.000 francs pièce.

TF1 : http://www.tf1.fr/news/sciences/0,,796482,00.html

Arrêter de fumer, quel que soit votre âge !
Samedi, 14/07/2001 - 00:00

Il n'est pas rare d'entendre des sujets âgés affirmer qu'à leur âge, arrêter de fumer n'y changerait rien. Faux ! Il n 'y pas d'âge pour stopper la cigarette : le bénéfice qui en est retiré est réel à tout âge. D'après une étude publiée dans le British Medical Journal et intitulée " Smoking, smoking cessation, and lung cancer in the UK since 1950", la prévalence du tabagisme aurait diminué de moitié depuis les années 50 au Royaume-Uni. Le taux de cancers du poumon chez les hommes de 35 à 50 ans a littéralement chuté, alors que c'est la frange de la population classiquement la plus à risque. Il semble que les personnes qui s'arrêtent de fumer et ce, même à un âge avancé, voient les risques de présenter un cancer du poumon diminuer : selon l'étude, un homme de 60 ans qui arrête de fumer aura à 75 ans 10 % de risques de présenter un cancer du poumon. Un homme de 30 ans qui arrête de fumer aura à 75 ans 2 % de risques de présenter un cancer du poumon. Il y a donc un véritable bénéfice à arrêter de fumer au plus tôt, mais il est tout aussi judicieux d'arrêter de fumer même en vieillissant, car cet arrêt s'accompagne d'une réelle diminution des risques de survenue d'un cancer du poumon. Ce sevrage est aujourd'hui facilité par la mise sur le marché d'aide spécifique : il y a les classiques substituts nicotiniques, mais aussi un médicament non nicotinique particulièrement efficace chez les fumeurs ayant un tableau de bronchite chronique liée au tabagisme. Pour réduire le risque de cancer lié au tabagisme, il ne sert à rien de fumer des cigarettes allégées ou de fumer un peu "moins" : les études sont formelles, le risque n'est pas diminuer pour autant. Il n'existe qu'une seule alternative pour lutter contre les méfaits du tabac : stopper complètement la cigarette !

BMJ : http://www.bmj.com/current.shtml

Régime méditerranéen : adoptez-le sans tarder !
Samedi, 14/07/2001 - 00:00

Le régime alimentaire joue un rôle primordial sur la santé. Si certains nutriments ont des vertus préventives bien définies, l'ensemble du régime alimentaire a également des conséquences sur la santé. Ainsi, il est parfaitement prouvé qu'une alimentation de type méditerranéenne, médiatisée sous la dénomination de "régime crétois", diminue le risque de décès dans les mois qui suivent un infarctus du myocarde. De nombreux facteurs de risque favorisant la survenue d'un infarctus du myocarde sont identifiés : stress, tabagisme, diabète, hypercholestérolémie, sédentarité, antécédents familiaux, etc. La persistance de ces facteurs de risque ainsi que le non-suivi du traitement médical instauré peuvent entraîner la récidive de l'accident cardio-vasculaire. Une étude italienne permet d'objectiver le bénéfice d'un régime méditerranéen dans la prévention des récidives d'infarctus du myocarde. Pour cela, plus de 11 000 italiens victimes d'un infarctus du myocarde ont rempli un questionnaire portant sur leur alimentation immédiatement après l'incident cardiaque, ainsi que 6, 12 et 42 mois plus tard. Il apparaît que les patients consommant le plus de beurre ou d'huile végétale avaient un risque de décès dans les 42 mois qui suivent leur infarctus du myocarde trois fois supérieur à ceux qui consommaient le plus de l'huile d'olive, des fruits, des légumes frais et du poisson. Le bénéfice de ce régime est lié à sa richesse en antioxydants (dans les fruits et légumes), en acides gras mono-insaturés (dans l'huile d'olive) et en acides gras poly-insaturés (dans le poisson). Une alimentation riche en fruits, légumes frais, poissons, huile d'olive et pauvre en beurre et huile végétale autre que celle provenant de l'olive (alimentation dénommée régime méditerranéen) est donc bénéfique dans la prévention des récidives cardio-vasculaires. Son intérêt ne se limite pas là : les auteurs indiquent que le bénéfice de ce régime concerne également les obèses.

Csanté : http://www.csante.com/

Du sang neuf pour les transplantations de moelle osseuse !
Samedi, 14/07/2001 - 00:00

Optimiser la transplantation de moelle osseuse, voilà l'espoir offert aux médecins par une protéine intelligente dont le rôle vient d'être découvert aux Etats-Unis, la E-selectine...Robert Sackstein et son équipe de la Harvard Medical School, à Boston, viennent d'effectuer une percée spectaculaire. La E-selectine permettrait en effet de guider les cellules transplantées jusqu'à la moelle osseuse, où elles sont nécessaires pour relancer la production de sang, que les spécialistes appellent l'hématopoïèse. L'efficacité et la sécurité des transplantations médullaires pourraient s'en trouver considérablement améliorées. Car il deviendrait alors possible de ne " greffer " que les cellules nécessaires... La E-selectine favorise en effet l'affinité des cellules hématopoïétiques - celles qui génèrent les éléments figurés du sang - pour la moelle osseuse. Or cette protéine, présente dans la moelle, l'est également dans le sang circulant. Elle est capable d'y intercepter les fameuses cellules pour les transporter ensuite jusqu'à la moelle. Où elles sont ensuite affectées à la production d'autres cellules sanguines. Selon Sackstein et ses collègues, cette capacité de la E-selectine à " capter " les cellules hématopoïétiques pourrait être exploitée. Par exemple pour sélectionner les cellules avant une greffe de moelle. Il deviendrait ainsi possible d'injecter un greffon plus concentré, ne renfermant que des cellules utiles. Mais le plus intéressant serait naturellement que ces greffons, plus sélectifs et comportant moins de cellules, soient moins immunogènes. D'où un risque de rejet diminué d'autant.

Journal of Cell Biology : http://www.jcb.org/

Un test pour mieux dépister les angines
Samedi, 14/07/2001 - 00:00

Que fait un médecin généraliste, un ORL ou un pédiatre à l'heure actuelle lorsqu'il découvre une angine chez un adulte ou un enfant ? Dans 90 % des cas, il prescrit une cure d'une semaine d'antibiotiques. Or, dans la plupart des cas, ces antibiotiques sont totalement inutiles car environ 80 % des angines sont virales et guériraient spontanément en deux à trois jours sans traitement. Mais, à l'oeil nu, le médecin est incapable de savoir s'il s'agit d'une angine virale ou d'une angine causée par une bactérie, le streptocoque A. Cette bactérie, non traitée, peut effectivement laisser des séquelles rénales ou articulaires, et le médecin prescrit les antibiotiques « par prudence ». Dans les années qui viennent, ces ordonnances « à l'aveugle » ne devraient plus avoir lieu. Il existe aujourd'hui des tests de diagnostic rapide qui permettent par un simple prélèvement de gorge au cabinet du médecin de dire en quelques minutes si la bactérie est oui ou non présente. A la demande du ministère de la Santé et de la Caisse nationale d'assurance maladie, plus de 700 médecins de la région de Bourgogne ont expérimenté pendant deux ans ces tests angines dans leurs consultations. Les résultats sont plus que positifs. Dans 80 % des cas, les prélèvements réalisés se sont effectivement révélés négatifs (il s'agissait bien d'angines virales). Près de neuf malades sur dix ont en outre trouvé le test facile à supporter et sont prêts à recommencer. De fait, sur les 9 à 11 millions d'angines dénombrées chaque année en France, on estime que 8 millions de prescriptions d'antibiotiques sont délivrées indûment. Outre le coût pour la Sécurité sociale, cet abus pose un vrai problème de santé publique. A trop consommer d'antibiotiques, ceux-ci deviennent de moins en moins efficaces et les bactéries sont de plus en plus résistantes. La Caisse nationale d'assurance maladie et le ministère de la Santé étudient donc en ce moment la possibilité de généraliser ce test à toute la France et de le mettre à disposition de chaque médecin. En attendant, en cas de doute, votre médecin peut tout à fait vous prescrire des tests minute à faire au laboratoire d'analyses médicales le plus proche de chez vous. Réalisé à 17 heures, vous pourrez en avoir le résultat le soir même. Et vous vous économiserez sans doute une cure d'antibiotiques... pour rien.

Parisien : http://www.leparisien.fr/home/info/permanent/article.htm?

Le chocolat : un aliment bénéfique à tout point de vue !
Samedi, 14/07/2001 - 00:00

Le chocolat n'en finit pas de faire parler de lui. On va enfin pouvoir en manger sans aucun sentiment de culpabilité. Lors du 22ème Congrès de la Société Européenne de Cardiologie (SEC) qui s'est tenu à Amsterdam, des résultats de travaux de recherches suggèrent que certains composants présents dans le chocolat ont un effet bénéfique sur la fonction des vaisseaux sanguins. Dans un essai réalisé par des scientifiques de l'université de Californie, Davis a comparé chez des sujets sains la consommation de 37 grammes de chocolat riche en procyanidines (sous-classe de polyphénols) à celle de la même quantité de chocolat mais appauvri en procyanidines (fabriqué pour les besoins de l'étude) lors de traitements séparés d'une semaine. Il apparaît que le chocolat riche en procyanidines entraîne une augmentation significative des concentrations dans le sang des prostacyclines et une diminution des concentrations en leucotriènes, avec une diminution du rapport leucotriènes/prostacyclines. Cela signifie que les polyphénols contenus dans le chocolat ont un effet protecteur sur le système cardio-vasculaire. Ils favorisent la relaxation des vaisseaux sanguins. Par ailleurs, ils permettent de moduler l'agrégation des plaquettes et donc diminuent la formation de caillots sanguins. En plus de cette propriété antithrombogène, les polyphénols ont également une activité antioxydante, et réduisent ainsi l'oxydation LDL. Par ailleurs, la composition en lipides (ou gras) du chocolat est très riche en acide stéarique : il s'agit d'un acide gras saturé à longue chaîne, qui rend la consommation du chocolat neutre sur le cholestérol LDL (ou mauvais cholestérol). Ainsi donc, le chocolat n'entraîne pas une augmentation du LDL cholestérol, mais en plus il agit comme un antioxydant, un antithrombotique et il favorise la relaxation des vaisseaux sanguins. Quand on sait que parallèlement à ces effets bénéfiques sur la fonction cardio-vasculaire, il est riche en magnésium et qu'il a des propriétés antidépressives, qu'attendons-nous pour en manger ? Les Français se placent en douzième position mondiale en quantité de chocolat consommée par habitant et par an : il reste du progrès à faire !

Csanté : http://www.csante.com/

Le clonage parfait impossible ?
Samedi, 14/07/2001 - 00:00

La reproduction à l'identique de cellules ou d'organismes par clonage paraît plus difficile qu'il n'y paraît. En effet, une équipe de recherche vient de montrer que des souris clonées à partir de cellules souches embryonnaires peuvent présenter des anomalies dans l'expression de certains gènes. D'après cette équipe qui publiera ses résultats dans la revue Science du 6 juillet, cette instabilité génétique pourrait poser des problèmes pour l'utilisation des cellules souches embryonnaires humaines. Comme le soulignent David Humpherys et ses collaborateurs, la technique du clonage par transfert de noyau est une procédure délicate. Son efficacité est limitée et les clones qui parviennent à se développer présentent souvent des problèmes respiratoires et circulatoires. De plus, leur poids à la naissance est plus élevé. Dans leurs travaux, ce groupe de chercheurs a étudié l'expression de gènes particuliers chez des souris clonées et sur les populations de cellules souches utilisées pour ce clonage. Ces gènes particuliers sont soumis au phénomène d'empreinte, c'est à dire que leur expression dépend du "parent" qui a transmis la copie du gène. Par exemple, la copie d'un gène transmis par la mère peut être exprimée alors que celle du père est muette sans que cela soit en rapport avec la séquence du gène. Les chercheurs ont montré que, contrairement à ce que l'on observe chez des souris issues d'une fécondation in vitro, l'expression de ces gènes était variable selon les tissus (placenta, rein, coeur, foie) des souris clonées. De même, cet état d'instabilité génétique des gènes "d'empreinte" était retrouvée dans la population de cellules souches embryonnaires utilisées pour le clonage des souris. Il faut toutefois noter que les souris clonées ont pu se développer jusqu'à l'âge adulte. D'après les chercheurs, ce dernier résultat laisse penser que les mammifères tolèrent plutôt bien ce type d'anomalies. Pour résumer ces travaux, les chercheurs expliquent que "ces données impliquent que des animaux clonés apparemment normaux pourraient présenter des anomalies subtiles de l'expression des gènes". Pour résumer ces travaux, les chercheurs expliquent que "ces données impliquent que des animaux clonés apparemment normaux pourraient présenter des anomalies subtiles de l'expression des gènes".

Caducée :

http://www.caducee.net/Breves/Envoyerbreve.asp?idp=1&id=2297

Science :

http://www.sciencemag.org/cgi/content/abstract/293/5527/95

Des scientifiques Australiens parviennent à féconder un ovule sans sperme
Samedi, 14/07/2001 - 00:00

L'unité de recherche du scientifique Orly Lacham-Kaplan, de l'Institut sur la Reproduction et le Développement, à l'Université Monash de Melbourne, est parvenue à féconder des souris à partir de cellules ne provenant pas d'organes reproducteurs. Lacham-Kaplan estime que cette avancée pourrait intéresser au premier chef les hommes qui n'ont pas de sperme ou dont les spermatozoïdes ne sont pas assez actifs. « Beaucoup de ces gens voudraient pouvoir être les pères biologiques de leurs enfants », a-t-elle ajouté. Le processus mis au point a permis de féconder des centaines d'embryons in-vitro, l'étape suivante étant de les implanter dans des souris femelles, et de voir s'ils peuvent se développer et vivre. Les expériences sur les souris pourraient durer un an et en cas de succès - ce dont Lacham-Kaplan admet douter -, elles pourraient ensuite être menées sur les humains.

Cyberpresse :

http://www.cyberpresse.ca/groups/public/documents/convertis/sci_p1069208.hcsp

BBC :

http://news.bbc.co.uk/hi/english/health/newsid_1431000/1431489.stm

La luzerne «à tout faire», un nouveau pétrole vert
Samedi, 14/07/2001 - 00:00

De la luzerne va couler dans nos veines. Ce n'est pas de la science-fiction mais un projet qui prend corps en Champagne-Ardenne avec le concours de Médicago, une société québécoise de biotechnologievégétale qui travaille exclusivement la luzerne pour en faire des «usines à molécules» et dont les travaux de recherche ouvrent des perspectives étonnantes dans le domaine pharmaceutique. À l'origine, la luzerne n'était utilisée que pour l'alimentation du bétail, mais les exploitants des quatre départements champardennais, qui assurent 85% de la production nationale sur leurs 70000 hectares de terre calcaire, ont dû se rendre à l'évidence d'une rentabilité limitée. Dès 1980, ils ont décidé de développer de nouvelles applications fondées sur l'extraction foliaire, la seule qui permet de préserver les molécules. Ainsi est née la société d'origine coopérative Viridis, qui s'est donnée pour mission de récolter la meilleure luzerne possible pour extraire et purifier des composants qui intéressent l'industrie pharmaceutique, mais aussi le domaine des cosmétiques, de la santé animale (on fonde l'espoir de fabriquer un anticorps porcin), de la diététique et de l'alimentation humaine. Dans ce dernier domaine, un succès a déjà couronné la recherche avec l'extraction de la «rubisco», une molécule endogène à haut potentiel nutritif dont l'arrivée sur le marché est imminente. «Nous avons la chance incroyable d'avoir une des plantes les plus riches en potentiel d'extraction», s'est réjouit le président de Viridis, Damien Lévesque, en présentant à la mi-mai les enjeux et les projets à quelque 200 producteurs réunis à Châlons-en-Champagne en présence des associés, les dirigeants canadiens de Médicago.Il va sans dire que les applications les plus spectaculaires vont concerner les médicaments fabriqués à partir de la luzerne génétiquement transformée de façon à produire dans ses feuilles des molécules recombinantes «essentielles à la vie». Le professeur Louis Vézina, agronome et biochimiste, directeur scientifique de Médicago-Québec, qui est parvenu à «transformer la luzerne en usine cellulaire», espère produire à grande échelle de l'hémoglobine humaine. Des plants de tabac transgéniques produisant de l'hémoglobine avaient été obtenus en 1997, sous l'égide de l'Inserm (Institut national de la recherche médicale). «Nous sommes en négociation avec une dizaine de compagnies au Canada, aux États-Unis, au Japon et en France», indique le Professeur Vézina. La fabrication d'hémoglobine n'est pas la seule application envisagée, puisqu'on sait qu'il sera possible de produire de l'insuline, de l'interféron, des anticorps monoclonaux pouvant agir contre le VIH ou participer au traitement du cancer. Cette luzerne à tout faire n'est pas confinée au laboratoire de quelque professeur Tournesol : «Nous en sommes au stade de l'industrialisation», assurent les promoteurs de ce nouveau pétrole vert.

Figaro :

http://www.cyberpresse.ca/groups/public/documents/convertis/sci_p1068662.hcsp

Privée d'émotions, la mémoire flanche
Samedi, 14/07/2001 - 00:00

Nos émotions jouent un rôle essentiel dans notre mémoire autobiographique. Mais l'étude des mécanismes cérébraux qui les gouvernent a longtemps été négligée par les neurosciences. Toute émotion affecte simultanément notre corps, notre comportement, nos sentiments et notre mémoire. Autant d'aspects difficiles à mesurer objectivement et à évaluer simultanément. A la fin du XIXe siècle, Sigmund Freud attribuait déjà aux émotions une influence déterminante dans le développement des individus. Les émotions sont aujourd'hui l'objet d'un intérêt grandissant en neurosciences, comme en témoigne la croissance exponentielle des publications dans ce domaine depuis la fin des années 1990. Ce rebondissement s'explique par la convergence d'au moins trois facteurs. En premier lieu, l'essor des neurosciences cognitives, tout au long du XXe siècle, a considérablement accru notre savoir sur le cerveau, fournissant ainsi les bases indispensables pour aborder la complexité des phénomènes affectifs. En second lieu, des perspectives entièrement nouvelles ont émergé grâce à de récents progrès techniques. Notamment, l'imagerie fonctionnelle nous donne aujourd'hui la possibilité de voir le cerveau humain normal en action, alors qu'autrefois nous devions nous contenter des indices fournis par le cerveau lésé. Enfin, plusieurs chercheurs contemporains, ouvrant la voie des neurosciences affectives, ont su réactualiser l'idée ancienne selon laquelle les émotions sont en réalité la cheville ouvrière du bon fonctionnement de nombre de nos facultés, adaptation sociale, raisonnement, prise de décision, ou mémoire. Les neurosciences affectives offrent déjà un aperçu des mécanismes cérébraux qui gouvernent l'influence des émotions sur la mémoire. Les travaux actuels concernent principalement les deux amygdales (situées chacune à l'avant de la partie médiane du lobe temporal). Chez l'homme, leur importance pour la mémoire émotionnelle a été particulièrement bien démontrée par une étude utilisant l'imagerie fonctionnelle par TEP (Tomographie par émission de positons). Le neuropsychologue Larry Cahill et ses collègues de l'université de Californie ont mesuré l'activité du cerveau de huit volontaires pendant qu'ils regardaient des documentaires relatant soit des événements neutres, soit des images très négatives (de crimes violents, par exemple). Trois semaines plus tard, les sujets se souvenaient beaucoup mieux des films négatifs que des films neutres, reflétant l'amélioration de la mémoire par les émotions. Mais le résultat important était le suivant : plus l'amygdale située du côté droit du cerveau avait été active pendant la présentation des films, meilleurs étaient les souvenirs des films négatifs. A l'inverse, l'activité de cette amygdale ne prédisait en rien la qualité des souvenirs pour les films neutres. Cette étude fournit donc la preuve d'un lien entre l'activité de l'amygdale droite pendant l'encodage d'informations riches en émotions et leur rétention ultérieure. En accord avec cette conclusion, les patients dont l'amygdale a été endommagée présentent une mémoire correcte mais insensible à l'effet accélérateur des émotions. A l'inverse, cet effet reste présent chez les amnésiques dont l'amygdale est intacte, ainsi que chez les personnes atteintes de la maladie d'Alzheimer. Ces patients oublient moins les événements à forte connotation émotionnelle que les autres. Une découverte qui pourrait se révéler utile pour améliorer le soutien quotidien apporté à ces malades.

Recherche : http://www.larecherche.fr/data/344/03440821.html

Bébé se souvient de la musique entendue dans le ventre de sa mère
Samedi, 14/07/2001 - 00:00

Les bébés se souviennent de sons qu'ils ont entendus jusqu'à trois mois avant leur naissance, selon des psychologues britanniques. "Nous savions que le foetus est capable d'entendre dès la vingtième semaine après la conception. Maintenant nous avons découvert que les bébés peuvent, plus d'un an après leur naissance, se souvenir et préférer la musique entendue dans le ventre de leur mère", commente le Dr Alexandra Lamont, psychologue à l'Université de Leicester (groupe de recherche musicale). Pour les besoins de l'étude, dont les résultas seront présentés mercredi à la chaîne télévisée britannique BBC1, une petit groupe de mères a passé un morceau de musique à leur bébé dans les trois mois précédant la naissance. Les bébés ont ainsi entendu avant de naître les divers morceaux de musique choisis par leur mère, allant du classique (opéra, Mozart, Vivaldi) à la pop musique (Five) en passant par le reggae (UB40, Ken Boothe). Entre la naissance et le test, les enfants ne devaient plus entendre aucun de ces passages musicaux. La préférence des nourrissons a ensuite été appréciée par le temps qu'ils passaient à regarder vers la source de la musique plus de douze mois après leur naissance. Leur attention était attirée par des flashs de lumière genre disco, activés quand la musique était mise. La musique cessait dès que les petits regardaient ailleurs. Les bébés ont vite fait l'association entre leur regard et la quantité de musique qu'ils pouvaient entendre, selon la psychologue. Onze autre bébés, utilisés comme groupe contrôle, n'ont manifesté aucun intérêt particulier pour ces morceaux de musique auxquels ils ont également été soumis. "Le style de la musique importe peu", relève la psychologue. En revanche, vers l'âge d'un an les enfants marquent une nette préférence pour la musique plus enlevée et rapide, comme les quatre saisons de Vivaldi ou un morceau de pop musique, selon elle. Il n'existe pas de preuve en outre que faire écouter du classique à son enfant contribue un meilleur développement de ses capacités intellectuelles que le reggae ou la musique pop, ajoute-t-elle.

La Recherche :

http://www.larecherche.fr/medecine/n010710230025.1suq7swe.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Votre voiture veille sur vous
Samedi, 14/07/2001 - 00:00

Après chaque grand départ en vacances, le verdict est toujours le même. Le manque de vigilance au volant est la première cause d'accidents sur autoroute, provoqué par la fatigue, l'abus d'alcool ou le stress. A Toulouse, des industriels, des scientifiques et des médecins développent actuellement un système diagnostiquant cette perte d'attention. Coordonnés par l'équipementier automobile Siemens VDO Automotive, ces travaux viennent d'être primés lors du carrefour du Programme national de recherche et d'innovation dans les transports terrestres. Le système, mis au point grâce au financement du ministère de la Recherche, vise à suivre en continu l'état du conducteur. Les mouvements des paupières et du volant, les pressions exercées sur les pédales, la distance avec la ligne blanche latérale et enfin la vitesse du véhicule sont enregistrés par différents capteurs. Dans la version commercialisée, ces informations seront recueillies dans un boîtier de la taille d'un autoradio. Avant d'être opérationnel, cet équipement devra être adapté au conducteur, à son comportement sur la route. Cette phase d'ajustement durera une dizaine de minutes. Chaque baisse d'attention sera ensuite signalée par des alertes sonores et visuelles. Mais l'arrêt du véhicule ne sera pas automatique. L'automobiliste demeurera libre de choisir: se reposer ou continuer. Serge Boverie, responsable du projet chez Siemens, le rappelle: «Le travail de prévention reste nécessaire.» L'équipe de chercheurs toulousains est à l'origine d'une autre innovation visant à améliorer la sécurité automobile. En 1997, un rapport américain avait révélé que les airbags n'étaient pas toujours efficaces. Pour 1 500 vies sauvées, on déplore 40 victimes. Les personnes touchées étaient de petite taille ou en position inhabituelle au moment du choc. Pour éviter de tels accidents, il faut adapter les coussins gonflables aux passagers. Dans ce dessein, l'utilisation de capteurs vidéo analysant l'habitacle en trois dimensions a été testée. Avec succès. Le développement d'un prototype est en cours et les premiers véhicules équipés - un constructeur étranger est sur les rangs - devraient être disponibles dans deux ou trois ans. Le système de détection de la vigilance est attendu, quant à lui, en 2006 pour des modèles haut de gamme, des bus et des poids lourds. Conducteur ou passager, les voitures vous auront bientôt à l'oeil.

Express :

http://www.lexpress.fr/Express/Info/Societe/Dossier/securite/dossier.asp

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top