RTFlash

RTFLASH Recherche & Technologie
NUMERO 175
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 28 Décembre 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les vrais débuts du haut débit
Des ondelettes pour compresser les images
Une nouvelle étape vers l'ordinateur quantique
L'Europe commande le plus puissant ordinateur du monde
La vidéo à la carte devrait connaître une croissance importante
Pourquoi le DVD fait mouche en France
Espace
Le télescope spatial Képler pourra voir d'autres terres
Vivant
Trois logements sur 4 contaminés par des produits chimiques
Un nouveau médicament pourrait prévenir à la fois l'ostéoporose et le cancer de sein
La résonance magnétique s'impose en cardiologique
Cellules souches de moelle : intérêt dans les AVC
Les gènes qui contrôlent le cancer
Un gène impliqué dans la plupart des cancers de la prostate
Alzheimer : Des activités de loisir réduisent le risque
L'alcool consommé avec modération protégerait les facultés intellectuelles
La caféine bonne pour la mémoire ?
Homme
L'ordinateur à l'école en Europe: la France dans le peloton de queue
Edito
Il y a cent ans, la radio faisait entrer notre Monde dans une époque nouvelle



Il y a cent ans, le 12 décembre 1901, le physicien italien Guglielmo Marconi inventait la radio en réalisant la première transmission sans fil au-dessus de l'océan Atlantique. Ce jour-là, Marconi, qui a 27 ans, se trouve à Saint-Jean de Terre-Neuve au Canada. L'oreille collée à l'écouteur de son récepteur rudimentaire, il attend les trois signes brefs de la lettre "S" émis en morse à plus de 3.000 km de là, à Poldhu en Cornouailles (Angleterre). La liaison est très mauvaise mais la lettre est déchiffrable. Un an plus tard, le 15 décembre 1902, Marconi émet depuis la Nouvelle-Ecosse (Canada) le premier message radio jamais diffusé entre le Nouveau Monde et le Vieux Continent. Cette première innovation majeure du XXème siècle marquait l'aboutissement de trois décennies de progrès théoriques et techniques remarquables. En 1873, le génial Maxwell unifiait l'électricité et le magnétisme dans une théorie unique. En 1888, Heinrich Hertz vérifiait par l'expérience les travaux de Maxwell. A partir de 1890, les français Branly et Ducretet perfectionnaient les appareils de détection des ondes électromagnétiques. Enfin, en 1895, Marconi réalisait les premières transmission de TSF, Villa Grifone à Bologne, sur 2,4 km. Mais au-delà de son Prix Nobel de physique qui couronna ses travaux en 1909, Marconi obtint sa plus belle récompense en avril 1912 quand son invention permit au Titanic de lancer son "SOS" et de sauver 700 vies parmi les 2.200 passagers du paquebot qui venait de heurter un iceberg. Ses premières expériences, Marconi les a commencées dans la maison de campagne paternelle des environs de Bologne, à Pontecchio, aujourd'hui rebaptisé Pontecchio Marconi. En 1894, ses premières transmissions ne dépassaient pas le périmètre du jardin, soit une centaine de mètres. Mais comme son pays ne croyait pas à l'avenir de son invention, Marconi choisit en 1896 de s'exiler en Angleterre où il reçut les crédits nécessaires à la poursuite de ses recherches. La même année, il déposa le brevet de son système de transmission télégraphique. En 1899, il établit la première liaison radio au-dessus de la Manche dans le sens Angleterre-France. En 1901, Marconi sent qu'il est en mesure de réaliser la première transmission transatlantique. Avec son collaborateur John Ambrose Fleming, il construit à Poldhu une importante station de transmission. La puissance prévue est de 25 kilowatts. L'antenne est constituée d'une série de câbles attachés à 20 pylônes en bois, hauts de 60 mètres. Une installation identique est montée à Cape Cod aux Etats-Unis. Marconi arrive à Terre-Neuve le 6 décembre 1901. Vers 12h30, Marconi entend clairement les trois clics correspondant aux trois points du Morse. La distance était vaincue. Le 17 décembre 1901, le New York Times annonçait à juste titre "La plus merveilleuse conquête scientifique des temps modernes". A partir de décembre 1901, la puissance de l'émetteur de Poldhu est portée à 50 kilowatts, permettant au système de Marconi d'établir des liaisons régulières entre les Etats-Unis et l'Angleterre. En 1905, des modifications sont apportées aux stations émettrices : leur puissance est augmentée et Marconi met au point un nouveau type d'antenne : l'antenne directive. Le premier véritable message radio, quant à lui, fut transmis par un professeur canadien du nom de Reginald Aubrey Fessenden. Il utilisa les idées de Marconi et les améliora. Plutôt que d'utiliser un code morse, il apprit comment transmettre les messages vocaux et musicaux. La veille de Noël 1906, Fessenden surprit bon nombre d'opérateurs de télégraphie sans fil à bord des navires de l'océan Atlantique. Au lieu de recevoir des points et traits, ils reçurent de la musique de Noël et des versets de la Bible. Le professeur mit fin au premier programme radio en souhaitant à tous un " Joyeux Noël ". Il fallut cependant attendre 1907 pour que les communications soient suffisamment fiables et permettent que des télégrammes soient échangés 24 heures sur 24. La télécommunication commerciale venait de voir le jour. Marconi devait en 1909 partager le prix Nobel avec Ferdinand Braun, physicien allemand qui fut professeur à l'Université de Strasbourg et fit progresser la radiotélégraphie en découvrant des propriétés des cristaux que nous appelons aujourd'hui "semi-conducteurs" et notamment de la fameuse galène (PbS) dont il montra l'importance comme détecteur à la réception des ondes hertziennes. Le détecteur à galène détrôna rapidement le cohéreur et équipa de 1900 à 1920 tous les radios récepteurs. Parallèlement à ses recherches, Marconi qui fut aussi, comme Edison et Bell, un véritable entrepreneur, fonda la "Marconi Wireless Co", première entreprise spécialisée dans la transmission sans fil. Entre les liaisons maritimes, la seconde guerre mondiale, et l'apparition de l'électronique (lampe de Lee Forest en 1906), la T.S.F continua à progresser et donna naissance à la radiotéléphonie. En 1927, le premier poste radio entièrement électrique commença ses transmissions à partir de Toronto. Quant à Marconi, il devint sénateur et mourut en 1937 couvert de gloire et d'honneur. Dès les années 30, la radio pénétrait dans les foyers français où elle allait profondément modifier les mentalités en ouvrant à nos concitoyens, notamment en milieu rural, une fenêtre irremplaçable sur le monde. Cet extraordinaire médium d'information, de culture et de distraction devint aussi un redoutable instrument de propagande et d'endoctrinement au service des régimes et des idéologies totalitaires de toute nature. Il est frappant de constater que, contrairement au téléphone qui mit presque un siècle à pénétrer massivement dans nos foyers, moins de quarante ans suffirent pour que la radio devienne un objet familier pour les Français. Cette accélération dans la diffusion de masse des moyens d'information et de communication se poursuivra avec la télévision qui mettra 30 ans à pénétrer dans nos foyers. Le micro-ordinateur ne mettra que 20 ans à se banaliser puis, plus récemment, le mobile et l'Internet se répandront sur toute la planète en à peine 10 ans. Cent ans après cette première transmission transatlantique historique, la radio est plus populaire et plus vigoureuse que jamais et de récentes études nous confirment que la radio reste le médium préféré des Français. Après l'introduction de la modulation de fréquence et de la stéréophonie dans les années 60, la radio vit actuellement une nouvelle révolution technologique avec la montée en puissance de la diffusion audionumérique (DAB) qui permet une qualité et un confort d'écoute exceptionnels. Contrairement à ce que prévoyait de nombreux spécialistes de prospective, la radio n'a donc pas été supplantée par les nouveaux médias, pas plus qu'elle n'a elle-même fait disparaître l'écrit imprimé. Demain, la radio numérique sera partout, sur l'Internet bien sûr, mais aussi sur nos mobiles et nos assistants personnels. La radio est sans nul doute, avec le téléphone, la télévision, l'ordinateur et l'Internet l'une des innovations technologiques fondamentales qui aura le plus transformé la vie quotidienne et l'horizon informationnel et culturel des hommes au cours des cents dernières années. Merci Monsieur Marconi, vous avez bien mérité de l'humanité !

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Les vrais débuts du haut débit
Samedi, 29/12/2001 - 00:00

L'Internet rapide sous le sapin? «C'est la première année qu'on me demande des packs ADSL pour Noël.» Ce vendeur d'une agence parisienne de France Télécom n'en revient pas. Le groupe confirme qu'il vend plus de 1 000 accès par jour en France depuis trois semaines. Aujourd'hui, les opérateurs rivalisent de campagnes promotionnelles: affichage et spots radio. Depuis le milieu de 2001, cette technologie, qui démultiplie les capacités de la ligne téléphonique à l'aide d'un modem spécifique, a quitté la rampe de lancement. Le marché évalué par l'Idate, un institut spécialisé dans les télécommunications, à un peu moins de 500 000 abonnés à la fin de l'année (contre 350 000 en juin) est en progression rapide (1). Toutefois, inutile de s'emballer, seuls 7 % des internautes français ont choisi le haut débit. Pour l'année à venir, l'observatoire de l'Autorité de régulation des télécommunications (ART) prévoit 1,3 million d'internautes ADSL. Dans la famille haut débit, la technologie ADSL dépasse désormais celle du câble qui compte 152 000 abonnés à la fin de l'année. Lancées en novembre 1999, les premières offres ont peiné à séduire les utilisateurs. Elles sont encore chères (plus de 400 francs mensuels tout compris) et cantonnées à certaines régions seulement. De fait, avant juin 2001, le câble, moins onéreux et plus largement opérationnel sur le territoire, représentait deux tiers des accès haut débit, contre un tiers pour l'ADSL. C'est exactement l'inverse aujourd'hui: le câble se limite à 650 communes et l'ADSL couvre, lui, 66 % de la population. Autre difficulté, en France, l'incontournable France Télécom, via sa filiale Wanadoo, truste le marché. Il existe bien des offres chez Club-Internet, 9 Online ou LibertySurf, mais l'opérateur historique, favorisé par sa mainmise sur les infrastructures, détient près de 90 % des parts de ce marché. Frein principal du développement français: les tarifs, dénoncés sans relâche par le collectif Libre ADSL. Monté cet été à l'initiative du directeur général de Télé2 Jean-Louis Constanza, Libre ADSL vient de publier un «livre noir de l'Internet» (3). «L'Internet grand public ne se démocratisera pas sans l'ADSL, car cette technologie permet des applications plus ludiques», clame Jean-Louis Constanza qui se plaint des montants excessifs que les opérateurs doivent reverser à France Télécom pour l'exploitation de son infrastructure. «En baissant les tarifs, beaucoup d'internautes basculeraient vers l'ADSL. Le montant pivot se situe entre 200 et 240 francs mensuels contre 300 francs aujourd'hui», poursuit Jean-Louis Constanza. Paradoxe savoureux, la Commission européenne a accusé France Télécom en fin de semaine dernière de vendre son accès Internet haut débit à perte pour empêcher la concurrence. En clair, l'ADSL de France Télécom est encore trop peu cher pour Bruxelles qui soupçonne, par ailleurs, l'opérateur français d'abus de position dominante.

Libération : http://www.liberation.com/quotidien/semaine/011227-040015060ECON.html

Des ondelettes pour compresser les images
Samedi, 29/12/2001 - 00:00

De plus en plus, le traitement d'images ne se fait plus en chambre noire mais sur l'écran d'un ordinateur. Et nous parlons d'images numériques. Qu'entend-on au juste par numériser une image ? Comme dans tout autre procédé de numérisation, le principe est de transformer l'information en une suite de 0 et de 1 : les fameux bits. Pour y parvenir, il faut coder l'image. Une technique courante est d'associer à chaque pixel (point sur l'écran) 3 entiers compris, en général, entre 0 et 255. Ils indiquent la proportion de rouge (red), de vert (green) et de bleu (blue) : c'est le code RGB (utilisé pour notre téléviseur couleurs). Pour une image de qualité standard, on compte 640 pixels par 480, soit 307 200 pixels ; ce qui aboutit à un fichier numérique de plusieurs centaines de kilo-octets*. Si l'on veut avoir une résolution de qualité photographique, la taille du fichier est au moins multipliée par 10. Que ce soit pour stocker, manipuler, imprimer ou transférer l'image, il est donc crucial de diminuer la taille de ces fichiers, tout en gardant l'information pertinente : il faut compresser l'image. Aujourd'hui, la norme de compression la plus courante est la norme JPEG. Elle a été mise au point à la fin des années 1980 par un groupe d'experts nommés par des organismes nationaux de normalisation et des industriels : le Joint Photographic Expert Group (JPEG). Cette norme repose sur une méthode mathématique qui porte le nom de « transformée en cosinus discret » (TCD). Le principe est de découper l'image en blocs de 8 pixels par 8 et de travailler indépendamment sur chacun de ces blocs. Un bloc est représenté par 64 nombres qui, en général, ne sont pas liés entre eux. Lorsque l'on applique la TCD à cette suite de nombres, on obtient une nouvelle suite de 64 nombres rangés en ordre décroissant. Si le bloc ne représente pas des motifs aléatoires, la fin de cette suite est constituée de nombres très petits. On décide alors d'annuler a priori un certain nombre de ces coefficients - par exemple, de ne conserver que les 8 premiers. Cette opération permet de compresser le fichier d'un facteur 8 tout en conservant l'information la plus pertinente (les plus grands nombres de la suite). La méthode présente cependant une limite majeure : à fort taux de compression, les frontières entre les blocs deviennent très visibles. D'où une utilisation impossible en imagerie médicale : les frontières deviennent des artefacts qui ont de grandes chances d'induire un médecin en erreur lors d'un diagnostic. Aussi, la Food and Drug Administration (FDA) avait interdit aux médecins de faire appel aux méthodes de compression, limitant de facto tous les rêves de traitements médicaux à distance. La situation vient de changer : pour la première fois, la FDA a agréé un algorithme de compression, la nouvelle norme « JPEG 2000 ». Celle-ci fait appel à une autre technique d'analyse mathématique : l'analyse par ondelettes. Les ondelettes ont été découvertes par un ingénieur d'Elf-Aquitaine, Jean Morlet, alors à la recherche de nouvelles manières d'analyser des signaux issus de relevés sismiques en prospection pétrolière. En un peu plus de vingt ans, les ondelettes ont été appliquées avec plus ou moins de succès à la suppression de bruits dans un signal, à la résolution d'équations différentielles, à l'analyse de signaux biologiques ou encore au stockage d'empreintes digitales, et, ce qui nous intéresse ici, à la compression des images numériques. La transformation en ondelettes repose non plus sur un découpage de l'image en blocs dans l'espace physique, mais sur un découpage dans l'« espace des échelles ». La notion d'échelle, essentielle en physique, fait référence au niveau auquel on perçoit un objet : par exemple, selon les problèmes étudiés, la Terre peut être considérée comme un point matériel, une sphère, un ellipsoïde de révolution, ou un solide de surface irrégulière. La transformation en ondelettes classe les échelles par ordre décroissant, et compresser par ondelettes revient à ne retenir a priori qu'un nombre déterminé d'échelles en excluant les plus fines. Les avantages de cette technique sont nombreux. Tout d'abord, on ne perçoit plus de limites de blocs sur l'image finale. Ensuite, il est possible de définir à l'avance le taux de compression. Pour les grosses images, ce dernier peut être très important (une image de 50 Mo peut être facilement ramenée à 1 Mo). Enfin, la restitution de l'image (la décompression) se fait de manière progressive : l'image se reconstitue petit à petit à l'écran, à la manière d'une mise au point, avec un confort visuel non négligeable lorsque l'on télécharge une page Web. Le langage Java vous permet d'ores et déjà de manipuler les images compressées par ondelettes sur votre navigateur Internet, et, dans la mesure où il s'agit d'une nouvelle norme, tous les logiciels courants de traitement d'image y seront adaptés. Pour le mathématicien, une chose étonnante dans l'histoire des ondelettes est le délai très bref qui aura été nécessaire pour mettre au point des algorithmes efficaces et pouvoir transférer cette technologie à des applications « grand public ».

La Recherche : http://www.larecherche.fr/data/349/03490581.html

Une nouvelle étape vers l'ordinateur quantique
Samedi, 29/12/2001 - 00:00

D'après un article du magazine Nature du 19 décembre, une équipe de chercheurs d'IBM et de l'Université de Stanford vient de réaliser une opération mathématique simple à l'aide d'un "ordinateur quantique". Pour ce faire, les chercheurs ont synthétisé une molécule constituée de sept atomes dont les états quantiques des spins ou "qubit" (quantum bit) ont pu être contrôlés par pulsations de fréquence radio, et mesurés à l'aide d'un appareil d'imagerie par résonance magnétique. Contrôler ainsi les propriétés quantiques des atomes permet d'obtenir des fonctions de mémoire et d'opérateurs logiques, et d'accélérer la résolution de problèmes mathématiques très complexes. Les premiers résultats présentés par cette équipe confirment que des applications sont envisageables notamment en cryptologie, domaine dans lequel la factorisation des nombres est importante.

Nature du 19-12-01 : http://www.nature.com/nature/links/011220/011220-2.html

NYT 20/12/01 : http://www.nytimes.com/2001/12/20/science/20QUAN.html

L'Europe commande le plus puissant ordinateur du monde
Samedi, 29/12/2001 - 00:00

Le plus puissant ordinateur du monde, baptisé "Blue Storm", a été commandé par un centre européen de prévisions météorologiques, annonce son constructeur américain International Business Machines. "Blue Storm" aidera l'Europe à traiter le flux de données en provenance des futurs satellites météorologiques, a déclaré Dominique Marbouty, directeur du Centre météorologique européen pour les prévisions de moyen terme. Le centre, basé en Angleterre mais parrainé par 22 pays européens, est spécialisé dans les prévisions à trois jours et plus. IBM lui facturera "Blue Storm" environ six ou sept millions de livres sur une période de quatre ans, service après-vente inclus. "Blue Storm", un titan de 130 tonnes, sera au départ capable d'effectuer des calculs à la vitesse de sept téraflops, soit 7.000 milliards d'opérations à la seconde, et sera développé progressivement jusqu'en 2004 pour atteindre la vitesse de 20 téraflops. Le plus puissant ordinateur du monde est actuellement "ASCI White" d'IBM, utilisé par le gouvernement américain pour faire des simulations d'essais nucléaires, et dont la capacité est de 12,3 téraoctets par seconde. IBM avait fait la "une" de la presse en 1997 quand son super-ordinateur "Deep Blue" avait battu le champion du monde d'échecs Garry Kasparov. IBM a précisé que "Blue Storm" serait 1.700 fois plus puissant que "Deep Blue".

Reuters : http://fr.news.yahoo.com/011222/85/2ddow.html

La vidéo à la carte devrait connaître une croissance importante
Samedi, 29/12/2001 - 00:00

Promise pendant des années comme une innovation essentielle, la vidéo à la carte, qui permet de regarder un film ou un autre programme sur sa télévision au moment choisi, commence à prendre son essor aux Etats-Unis, estiment les analystes. L'essentiel des progrès de cette nouvelle technologie provient des investissements, à hauteur de 50 milliards de dollars, réalisés par les opérateurs pour améliorer les infrastructures aux Etats-Unis durant les cinq dernières années. Les nouveaux systèmes permettent au câble numérique de compresser le contenu et d'augmenter le nombre de chaînes, tout en offrant l'infrastructure nécessaire à la vidéo à la carte. Celle-ci permet à l'utilisateur de faire commencer un film ou d'accéder à tout autre contenu lorsqu'il le désire, de l'arrêter et d'en reprendre la lecture quand il le souhaite. "Les mises en route ont bien fonctionné cette année, à la lumière de tout ce qui s'est passé", a déclaré Lydia Loizides, analyste à l'institut Jupiter Media Metrix, qui estime que d'ici la fin de l'année, la télévision à la carte aura pénétré 5,5 millions de foyers et que le câblage numérique concernera 15 millions de ménages. La vidéo à la carte est attendue comme la première étape de la télévision interactive, qui devrait être une source de revenus importante pour les câblo-opérateurs, les studios de cinéma et les sociétés de nouvelles technologies qui fabriquent les équipements permettant d'acheminer le contenu sur les postes télévisés, selon la demande des clients. "La vidéo à la carte sera la prochaine application phare de la télévision interactive", ont écrit les experts Thomas Blakey et Michael Cristinziano dans un récent rapport de Gerard Klauer Mattison. Cet institut prévoit que le nombre d'abonnés potentiels atteindra les 39 millions en 2005 aux Etats-Unis, contre un million actuellement. Elle devrait suivre le guide des programmes interactifs, première application de la télévision interactive. Le guide Gemstar-TV propose déjà ce service à 15 millions de foyers nord-américains et vise 20 millions de foyers d'ici début 2002. La vidéo à la carte pose la question de la multiplication du contenu à la télévision, les spectateurs ne souhaitant pas nécessairement un si grand nombre de chaînes. Certains, comme le numéro un du logiciel, Microsoft Corp, Comcast Corp ou AOL-Time Warner Inc ont ainsi fait le pari de la télévision numérique. Le paiement des programmes pourrait prendre plusieurs formes, comme le paiement à la carte (pay-per-view), qui existe sur la télévision câblée depuis une dizaine d'années sans avoir jamais obtenu le succès escompté, estiment Blakey et Cristinziano. Le service pourrait aussi être accessible sous la forme d'un abonnement mensuel, avec un montant fixe pour accéder au service et un paiement par chaîne supplémentaire. De fait, la formule du "pay-per-view" a des inconvénients. "Lorsque le client reçoit la facture et qu'il voit un supplément de 15, 20 ou 25 dollars, cela lui fait un choc", a estimé Loizides, l'expert de Jupiter. "L'abonnement à la vidéo à la carte est différent. L'abonné paie pour chaque chaîne supplémentaire, une porte ouverte à la consommation à outrance." De plus, la vidéo à la carte est susceptible de menacer les services de "pay-per-view" plutôt que les locations de vidéo ou le marché des films en salle, selon Jupiter Media Metrix. En effet, contrairement au paiement à la carte, la vidéo à la carte permet de décider à quel moment on regarde le programme, à choisir dans un catalogue plus restreint. Les experts du cabinet Jupiter estiment que bien que ce nouveau produit soit assimilé à court terme au "pay-per-view" dans l'esprit des consommateurs, la vidéo à la carte pourrait à plus long terme être plus populaire.

Reuters : http://fr.news.yahoo.com/011226/85/2dimd.html

Pourquoi le DVD fait mouche en France
Samedi, 29/12/2001 - 00:00

Avec une capacité de stockage et une qualité d'image bien supérieures à celles des cassettes VHS, et grâce à l'interactivité qu'il propose, le DVD orchestre une vraie révolution, offrant à chaque grand film une deuxième vie. « Le DVD, c'est comme le livre de poche, mais en mieux, commente le réalisateur Claude Chabrol. Offrant, outre une édition soignée, un essai sur l'auteur, le résumé de ses autres oeuvres, etc. Le DVD, c'est aussi le plaisir d'une convivialité reconquise autour du spectacle. Il donne à l'oeuvre sa véritable dimension », souligne Richard Guillorel, le président du Syndicat des industries de matériels audiovisuels et électroniques (Simavelec). Un mariage de raison mais aussi de passion, en somme, entre des contenus et une technologie. Les consommateurs ne s'y sont pas trompés. Depuis 1998, date du lancement en France des lecteurs DVD de salon, le parc français est passé de 50 000 à plus d'1 million de lecteurs. Et devrait encore augmenter d'ici à la fin 2001. Cet engouement ahurissant des Français n'a pas d'équivalent en Europe. Aujourd'hui, les Français achètent à eux seuls plus du quart des lecteurs DVD européens, devant le Royaume-Uni et l'Allemagne. D'après l'observatoire britannique Screen Digest, cette croissance fantastique devrait porter le taux d'équipement des foyers français à 44 % d'ici à 2003. « La France a toujours été un pays profondément cinéphile, c'est une spécificité culturelle qui s'explique en grande partie par le fait que nous sommes un pays gros producteur de films », analyse Jean-Yves Mirski, le président du Syndicat de l'édition vidéo (SEV). Voilà quelques années, ce fort penchant culturel avait déjà profité à feu le disque laser, qui avait connu dans l'Hexagone un succès aussi massif que surprenant : en quelques années, le marché français avait absorbé la moitié des 800 000 lecteurs de disques laser qui avaient été vendus en Europe. Apparemment, l'abandon de ce standard par Philips n'a pas échaudé les amateurs, bien au contraire. Les professionnels de l'électronique grand public eux-mêmes sont complètement bluffés par le phénomène. Tous soulignent que le DVD tire en France à lui tout seul l'ensemble du secteur de l'électronique de loisirs en lui permettant depuis trois ans d'afficher des performances record. Ainsi, actuellement, le quart du chiffre d'affaires de l'édition vidéo est réalisé grâce à la vente et à la location de quelque 3 500 titres DVD disponibles sur le marché. En 1999, la dépense annuelle moyenne du « DVDphile » dépassait les 2 000 francs, contre moins de 500 francs pour le possesseur d'un magnétoscope VHS, selon Screen Digest. Mais, surtout, la vague DVD entraîne inévitablement dans son sillage tous les équipements propres au home cinema : rétroprojecteurs, enceintes, amplis et télévisions au format 16/9. Car les Français étant attachés au format cinemascope, ils privilégient le 16/9 bien plus que leurs voisins européens et s'équipent en conséquence. La magie est toujours là.

Expansion : http://www.lexpansion.com/article_milieu.asp?id=1640&rub=4

^ Haut
Espace
Espace et Cosmologie
Le télescope spatial Képler pourra voir d'autres terres
Samedi, 29/12/2001 - 00:00

La NASA vient d'autoriser une nouvelle mission d'exploration de l'espace nommée Képler, du nom d'un télescope spatial qui sera lancé en 2006 pour rechercher l'existence d'éventuelles planètes semblables à la Terre au-delà de notre système solaire. Equipé des dernière technologies, ce télescope sondera de manière fixe une partie de l'espace intersidéral, scrutant en permanence pendant quatre ans une région contenant environ 100.000 étoiles. "La mission Képler va nous permettre pour la première fois d'explorer notre galaxie pour tenter d'y trouver des planètes de la taille de la Terre ou même plus petites", explique William Borucky, un des responsables de cette mission au Centre de recherches Ames de la NASA. "Avec sa technologie de pointe, Képler pourrait nous aider à répondre à l'une des questions les plus intriguantes de l'histoire humaine: sommes-nous seuls dans l'Univers ?", souligne Borucki. Quelque 80 planètes hors de notre système solaire ont été découvertes à ce jour mais ces "exoplanètes" sont des planètes géantes gazeuses similaires à Jupiter et composées essentiellement d'hélium et d'hydrogène. Aucune des méthodes actuelles ne permettent de détecter des planètes plus petites, de 30 à 60 fois plus petites que Jupiter, soit de la taille de notre Terre. Or la méthode d'observation mise en oeuvre par Képler sera très différente des missions précédentes de télescopes spatiaux. Les chercheurs utiliseront en effet la technique du "transit", qui consiste à observer la variation de luminosité d'une étoile produite par le passage d'une planète devant celle-ci. Grâce aux technologies aujourd'hui disponibles, les chercheurs peuvent analyser ces variations infimes de la lumière et en tirer des conclusions quant à la taille de la planète, la durée de sa révolution, sa distance par rapport à son "soleil", ainsi que la composition chimique de son atmosphère, si elle en possède une. Képler, qui sera construit par la firme Ball Aerospace & Technologies, basée à Boulder (Colorado), emportera un télescope appelé photomètre. Cet instrument optique, d'un mètre de diamètre et d'un champ de vision de 105 degrés, collectera des photons (particules de lumière) sur 42 matrices de détecteurs photosensibles à transfert de charge (CCD), semblables à celles qui permettent aux caméscopes vendus dans le commerce de "voir". Le télescope sera placé sur une orbite qui suivra pas à pas celle de la Terre autour du Soleil. Vu d'ici, il apparaîtra donc, en position relative, comme un point immobile dans le ciel étoilé. Il pourra ainsi rester pointé sur la constellation du Cygne. L'équipe Képler de chercheurs s'attend à découvrir des centaines de planètes de type terrestre", s'enthousiasme un des chercheurs, David Koch. Le télescope a été baptisé en hommage au célèbre astronome et mathématicien austro-allemand Jean Képler (1571-1630). Ce dernier, convaincu de l'harmonie de l'univers, consacra sa vie à l'étude des phénomènes célestes et atmosphériques. Il découvrit, entre autres, que les orbites des planètes sont des ellipses et non des cercles et qu'elles sont parcourues à vitesse variable et non constante. Pour Harry McDonald, directeur du centre Ames, cette mission d'un coût de moins de 300 millions de dollars devrait permettre de faire faire à l'astrobiologie - l'étude de la vie dans l'Univers - un "pas de géant".

NASA : http://amesnews.arc.nasa.gov/releases/2001/01

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Trois logements sur 4 contaminés par des produits chimiques
Samedi, 29/12/2001 - 00:00

Trois logements sur quatre analysés par un laboratoire du magazine de l'Union fédérale des consommateurs Que Choisir présentent des cocktails de polluants chimiques toxiques ou allergisants, selon le numéro de janvier du magazine. Que Choisir avait proposé à ses lecteurs il y a un an, en janvier 2001, de tester l'air de leur intérieur grâce à un kit de prélèvement. 885 lecteurs se sont prêtés à l'expérience et ont placé le kit dans l'endroit le plus fréquenté, généralement la chambre à coucher. 634 analyses ont ensuite été réalisées en laboratoire. 855 portaient sur les composés organiques volatils (COV), qui regroupent notamment les hydrocarbures, le benzène (cancérigène pour l'homme) et les composés chlorés, présents dans de nombreux produits ménagers comme les désinfectants, cires et colles, vernis, bombes dépoussiérantes, etc... 779 analyses ont porté sur les aldéhydes, présents à la fois dans le tabac et dans des colles, vitrificateurs et cosmétiques. Les 885 logements analysés montrent des taux de COV supérieurs aux seuils de qualité américains pour 76% d'entre eux, et au delà du seuil allemand de qualité, moins exigeant, pour 54% d'entre eux. Les concentrations de formaldéhyde (bois agglomérés, sols stratifiés, colles, papiers peints...) sont supérieures dans 90% des cas aux recommandations de l'Organisation mondiale de la santé pour les populations sensibles (asthmatiques, allergiques). Cette contamination de l'air intérieur "n'est nullement une fatalité", comme en témoigne la trentaine de logements indemnes, souligne le magazine. La recette? Ventiler généreusement les pièces, même l'hiver. Bannir les produits en aérosols, qui "relarguent" dans l'air davantage de produits chimiques, tels que les bombes dépoussiérantes et cires vaporisables, et éviter les formulations contenant des solvants. Il n'y a pas de norme concernant la qualité de l'air intérieur en France. Les pouvoirs publics ont lancé en juillet le premier "Observatoire" chargé d'étudier l'air à l'intérieur des bâtiments, afin de mesurer ses incidences sur la santé.

AFP : http://www.caducee.net/afp/edit.asp?id_depeche=8264

Un nouveau médicament pourrait prévenir à la fois l'ostéoporose et le cancer de sein
Samedi, 29/12/2001 - 00:00

Les scientifiques britanniques ont mis au point un nouveau médicament qui pourrait prévenir à la fois l'apparition de l'ostéoporose et du cancer de sein chez les femmes âgées. Ce médicament, baptisé Tibolone, a été mis au point par une équipe du Centre Hospitalier pour l'Etude des Maladies Osseuses en coopération avec la firme pharmaceutique hollandaise Organon. Le Tibolone se distingue du traitement hormonal conventionnel en associant trois hormones : progestogène, oestrogène et androgène. Les premiers essais sont assez encourageants pour que nous passions à une expérimentation à plus grande échelle" a déclaré le Professeur David Purdie, qui rappelle que la moitié des femmes anglaises de plus de 75 ans sont touchées par l'ostéoporose et que les fractures provoquées par cette maladie ont un coût de 1,7 milliard de livres par an pour le Service National de Santé (NHS).

BBC : http://news.bbc.co.uk/hi/english/health/newsid_1730000/1730137.stm

La résonance magnétique s'impose en cardiologique
Samedi, 29/12/2001 - 00:00

Un groupe international rapporte dans le NEJM les bons résultats de l'angiographie par résonance magnétique pour la détection des sténoses coronaires. Selon les résultats publiés, cette technique non invasive est aussi efficace que l'angiographie par rayons X pour écarter la présence d'une lésion du tronc commun gauche ou une maladie tritronculaire. Ces auteurs ont recruté 109 hommes et femmes chez lesquels une sténose coronaire était suspectée. Un matériel et un protocole standardisé étaient utilisés pour réaliser les angiographies par résonance magnétique. Les patients ont bénéficié dans un premier temps d'une angiographie par résonance magnétique dont la durée était d'environ 70 minutes. Une angiographie par rayons X était ensuite réalisée et les résultats des deux méthodes comparés. Les auteurs soulignent l'efficacité de l'angiographie par résonance magnétique pour les lésions du tronc commun gauche ou les atteintes coronariennes tritronculaires : la sensibilité et la spécificité de la méthode étaient respectivement de 100 % et 85 %. La valeur prédicitive négative était de 81 % pour l'ensemble des sténoses et de 100 % pour les sténoses du tronc commun gauche. Cette étude représente une avancée majeure dans l'angiographie non invasive par résonance magnétique. Elle montre que l'emploi de l'angiographie par résonance magnétique peut être standardisé et donc généralisable.

NYT : http://www.nytimes.com/2001/12/27/health/27MRI.html

Cellules souches de moelle : intérêt dans les AVC
Samedi, 29/12/2001 - 00:00

Le potentiel thérapeutique des cellules souches de moelle semble important et intéresse de plus en plus les chercheurs. De nouveaux travaux montrent son intérêt dans la prise en charge des accidents vasculaires cérébraux. De nombreux travaux ont montré l'intérêt de la greffe de cellules souches dans de nombreuses indications, portant sur des organes divers (pancréas, cerveau, oeil). Les cellules souches de moelle sont elles aussi porteuses d'un grand espoir thérapeutique. Une équipe de chercheurs américains vient de publier ses travaux dans la revue "Stroke". Elle s'est intéressée aux accidents vasculaires cérébraux et a mené ses travaux sur des rats. Deux groupes ont été constitués : le premier a bénéficié d'une perfusion de cellules souches du stoma medullaire, prélevées sur leur propre moelle et mises en culture avant de leur être réinjectées après l'accident vasculaire cérébral ( à J1 ou J7 ). Le deuxième groupe n'a rien reçu. Un bilan neurologique a régulièrement été pratiqué chez tous les rats, avant l'AVC et jusqu'à cinq semaines après. Les résultats sont sans appel : tous les rats traités présentent 14 jours après l'AVC une récupération complète ou quasi-complète, qu'ils aient bénéficié de la perfusion directement après l'accident vasculaire cérébral ou sept jours après. Dans la transposition de ce traitement à l'homme, le fait que les résultats soient comparables quel que soit le délai de perfusion des cellules souches après l'accident vasculaire cérébral est important. Par ailleurs, ces résultats ouvrent des perspectives de recherches dans d'autres maladies neurologiques, telles que la maladie de Parkinson ou les traumatismes cérébraux ou médullaires. Il faut noter que le mécanisme d'action de ces perfusions n'est pas encore connu.

Stroke : http://www.stroke.ahajournals.org/

Les gènes qui contrôlent le cancer
Samedi, 29/12/2001 - 00:00

Les gènes BARD1 et BRCA1 jouent un rôle très important dans la biologie de certains cancers. Alors que des mutations de ces gènes prédisposent les femmes qui en sont porteuses au cancer du sein, de l`utérus ou des ovaires, dans leur forme normale ces gènes participent à la prévention et à l'élimination de ces tumeurs. De quelle manière ? C'est ce que les travaux du Dr. Irminger, réalisés avec le groupe du prof. Karl-Heinz Krause de l'Université de Genève, ont récemment mis en évidence. Les protéines issues des gènes BARD1 et BRCA1 jouent un rôle important dans la réparation des mutations de l'ADN. En effet, avec le vieillissement, des dommages de l'ADN s'accumulent, ce qui accentue les risques de développer un cancer. La protéine produite par le gène BARD1 joue à ce stade un double rôle de réparateur des dommages de l`ADN ou de destructeur des cellules endommagées. Dans le cas de dégâts mineurs, il favorise l`action d`enzymes réparateurs de l`ADN. Lors de dommages trop importants, la protéine BARD1 augmente et finit par induire l'autodestruction, ou apoptose, de la cellule, évitant ainsi que celle-ci ne se multiplie pour former une tumeur. De manière plus précise, le groupe d'Irmgard Irminger a montré que c'est en se combinant avec une autre protéine « suppressive » de tumeur, la p53, que BARD1 peut déclencher le mécanisme d'apoptose. L'identification de cette nouvelle combinaison montre comment BARD1 peut empêcher la prolifération incontrôlée dans certains tissus cancéreux et ainsi garantir un équilibre entre prolifération et mort cellulaire. Deux exemples d'applications concrètes d'une telle découverte peuvent être cités. La capacité de la cellule à induire son autodestruction est un point important dans la thérapie des cancers. La résistance des cellules tumorales aux chimiothérapies est souvent liée à une perte ou à une mutation des gènes impliqués dans l'apoptose. Ainsi, déterminer la présence de la protéine BARD1 dans les cellules tumorigéniques apporte une indication supplémentaire pour les pronostiques de réponse à certaines thérapies tumorales. Enfin, la connaissance du rôle de BARD1 dans le processus d'apoptose peut également suggérer de nouvelles stratégies thérapeutiques. On pourrait, par exemple, chercher à réintroduire ce gène pour favoriser le bon fonctionnement du programme d'autodestruction des cellules tumorales.

Université de Genève : http://www.futura-sciences.com/actu_scv.php3#299

Un gène impliqué dans la plupart des cancers de la prostate
Samedi, 29/12/2001 - 00:00

Le gène KLF6 (Kruppel-like factor 6) est un gène retrouvé délété ou muté dans plus de 75% des cas de cancers de la prostate étudiés par l'équipe de Scott Friedman, de la Mount Sinaï School of Medicine (New York, EU). Les expériences fonctionnelles in vitro sembleraient indiquer que KLF6 serait un suppresseur de tumeur impliqué dans le cancer de la prostate.Chez l'homme, le cancer de la prostate représente le cancer le plus fréquent. Il touche un homme sur huit aux Etats Unis. Des facteurs génétiques sont impliqués dans le cancer de la prostate mais aucun de façon isolé n'avait été identifié dans une majorité de cas.Etant donné que le gène KLF6, qui code pour un facteur de transcription exprimé de façon ubiquitaire dans l'organisme, se trouve dans une région du chromosome 10 souvent altérée dans de nombreux adénocarcinomes sporadiques de la prostate (environ 55%), les chercheurs ont voulu examiner ce gène de façon plus affinée parmi 22 patients atteints d'un cancer prostatique.Les auteurs ont trouvé que 77% des patients (17) avait un allèle de KLF6 délété et que l'allèle restant était muté dans 71% des cas. Des analyses sur des cellules en culture ont montré que le gène KLF6 sauvage régulait positivement la protéine p21, de manière p53 indépendante, et réduisait significativement la prolifération cellulaire, alors que le gène muté ne le faisait pas.Les auteurs pensent donc avoir mis en évidence un nouveau gène suppresseur de tumeur, KLF6, impliqué dans les cancers de la prostate. Ils s'attachent maintenant, étant donné le caractère ubiquitaire de KLF6, à étudier son rôle dans d'autres cancers associés au chromosome 10.

Science 21 décembre 2001 : http://www.sciencemag.org

Alzheimer : Des activités de loisir réduisent le risque
Samedi, 29/12/2001 - 00:00

La participation à diverses activités de loisir réduit le risque de développer une démence après 65 ans, indique une étude qui sera publiée dans le prochain numéro de la revue Neurology. Ainsi, les personnes de plus de 65 ans qui pratiquent ce type d'activité auraient un risque de démence réduit de 38 % par rapport aux autres. On savait déjà que le niveau d'étude et l'activité professionnelle étaient associés à une diminution du risque de maladie d'Alzheimer. Des chercheurs de l'Université Columbia à New York ont montré que les activités de loisirs étaient un facteur indépendant pour la réduction du risque de démence, quel que soit le niveau d'étude ou le degré d'activité professionnelle. Les auteurs de cette étude ont suivi 1.772 personnes de plus de 65 ans. Un examen médical et neurologique en début d'étude avait écarté l'existence d'une démence chez les participants. De nouvelles évaluations régulières étaient réalisées sur une période de sept ans."Même après avoir pris en compte des facteurs comme le niveau d'étude ou l'activité professionnelle, les sujets avec une activité de loisir forte avaient un risque de développer une démence réduit de 38 %", indique le premier auteur de cette étude, le Dr Yaakov Stern. Il semblerait que cet effet soit cumulatif puisque le risque serait réduit encore de 8 % pour chaque activité supplémentaire. Le bénéfice a été visible pour les trois types d'activité bien qu'il soit plus marqué pour celles qualifiées d'intellectuelles. Ces résultats montrent donc que le maintien d'une activité de loisirs permet de ralentir sensiblement l'apparition d'un déclin cognitif lié au vieillissement.

Neurology : http://www.neurology.org/cgi/content/short/57/12/2236

L'alcool consommé avec modération protégerait les facultés intellectuelles
Samedi, 29/12/2001 - 00:00

Ce sont les conclusions d'une étude italienne réalisée sur des personnes âgées et qui fait ressortir un rôle protecteur de l'alcool, en quantité modérée, chez ces personnes, vis à vis de la baisse de leurs capacités intellectuelles. L'étude comparative entre buveurs et non buveurs montre des différences significatives en terme d'altérations mentales qui toucheraient davantage les non buveurs. Cette étude publiée par Giuseppe Zuccala et al (Catholic University of the Sacred Heart, Rome, Italie) dans la revue Alcoholism :Clinical and Experimental Research, s'est basée sur l'évaluation des capacités mentales de 15807 hommes et femmes italiens âgés de plus de 65 ans. Les chercheurs ont observé que parmi les 8700 buveurs d'alcool les plus réguliers, 19% ont montré des signes de défaillance mentale, contre 29% chez les quelques 7000 non buveurs. Lorsque les chercheurs ont tenu compte des facteurs tels que l'âge, l'éducation et les conditions de santé, l'usage modéré d'alcool a continué d'être associé avec un risque abaissé de défaillance mentale. Cependant, bien que ce risque ait été diminué parmi ceux buvant avec modération comparés aux non buveurs, une consommation excessive a été trouvée associée à un risque accru de dysfonctionnements intellectuels. Les chercheurs, pour expliquer ces observations, pensent que l'alcool en quantité modérée a des effets bénéfiques sur la pression sanguine, le flux sanguin et peut-être sur le ralentissement des maladies artérielles.

Caducée : http://www.caducee.net/breves/breve.asp?idb=3098&cal=1

La caféine bonne pour la mémoire ?
Samedi, 29/12/2001 - 00:00

C'est tout du moins ce que pensent des chercheurs de l'Université d'Arizona (Tucson, EU), après avoir testé chez les personnes âgées les effets du café avec ou sans caféine, sur leurs capacités de mémorisation. Une tasse de café par jour améliorerait les scores des tests réalisés tout au long de la journée. Ces résultats présentés par Lee Ryan et al dans la revue Psychological Science de janvier, avaient pour objectif premier d'étudier l'influence de l'heure du jour sur la mémoire et l'apprentissage, étant donné qu'au moins trois quarts des adultes de plus de 65 ans se disent être 'du matin' pour parler de leur fraîcheur intellectuelle. Les chercheurs ont soumis 40 séniors de plus de 65 ans rentrant dans cette dernière catégorie à des tests intellectuels oraux, effectués soit à 8 heure du matin soit à 8 heures du soir. Les volontaires ont bu soit une tasse de café comprenant 220 à 270 mg de caféine soit une tasse de café décaféiné comprenant moins de 10 mg de caféine, 30 minutes avant le test. Tous les volontaires étaient buveurs de café réguliers. Les chercheurs se sont aperçus que ceux ayant pris du café avec de la caféine augmentaient considérablement les notes aux tests de mémoire, quelque soit l'heure.Ces effets ne sont pas visibles chez les plus jeunes ou chez ceux n'étant pas des buveurs de café réguliers, ont fait remarqué les auteurs. Les auteurs pensent que la caféine a un impact sur certaines régions du cerveau en stimulant la concentration, la fraîcheur et la pensée. Il semble que la caféine ait une action non seulement sur les capacités de mémoire mais également sur plusieurs fonctions intellectuelles.

Psychological Science Janvier 2002 : http://www.psychologicalscience.org/

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'ordinateur à l'école en Europe: la France dans le peloton de queue
Samedi, 29/12/2001 - 00:00

La France se situe plutôt dans le peloton de queue de l'Europe des quinze vis-à-vis de l'utilisation de l'ordinateur dans le système scolaire, selon le rapport 2001-2002 publié lundi par Eurydice, le réseau d'information sur l'éducation en Europe. En Europe, le nombre d'élèves par ordinateur simple se situe globalement à 13,2 en primaire et à 8,6 en secondaire. Avec 14,1 élèves par ordinateur dans le primaire et 9,4 dans le secondaire, la France se situe loin derrière le Luxembourg ou le Danemark (un à deux élèves par ordinateur) et seuls, le Portugal (17 élèves par ordinateur dans le primaire), l'Italie (20,8) et la Grèce (29,4) sont derrière. De même, le nombre d'élèves par ordinateur connecté à internet est de 32,9 en primaire et de 14,9 en secondaire globalement. La France se situe respectivement à 43,9 élèves et 21,4, tandis que le Luxembourg et le Danemark toujours se situent entre 2 et 5 élèves par ordinateur. Dans le primaire, l'Allemagne se situe cependant derrière la France (52,3 élèves par ordinateur connecté) ainsi que l'Italie (55,1) et la Grèce (80,6). Pour l'utilisation de l'ordinateur en cours, la France, avec 71% dans le primaire, se situe au dessus de la moyenne européenne (71%), mais dans le secondaire elle se trouve en dessous de la moyenne européenne (60%), avec 52% des enseignants qui y utilisent l'ordinateur. La Grande-Bretagne avec 100% se trouve largement en tête, tandis que le Portugal (41%), l'Espagne (39%) et la Grèce (26%) sont en queue. Les enseignants n'utilisant pas l'ordinateur invoquent globalement les problèmes d'accès (93%), de pertinence (34%), et de difficulté d'utilisation (14%). En France, 85% seulement citent un problème d'accès, mais 38% parlent de manque de pertinence et 36% de difficultés d'utilisation.

La Recherche : http://www.larecherche.fr/actu/n011224114643.cql0tcm0.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top