RTFlash

RTFLASH Recherche & Technologie
NUMERO 209
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Septembre 2002
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Sat : le pari de l'Internet par satellite bidirectionnel
Le gouvernement américain dévoile son plan contre le cyberterrorisme
Disque dur Seagate : record de densité grâce au laser
La technologie contre les pirates de l'air
Intel dévoile ses projets pour les PC de bureau
Microsoft veut transformer l'ordinateur en télévision
Les écrans portables font sortir l'informatique de la maison et du bureau
IBM va fournir la technologie pour un projet de cinéma en ligne
Matière
AMD met au point un transistor "double porte" qui ouvre la voie vers des puces à un milliard de transistors
Espace
Des astronomes vont tenter de mesurer la vitesse de la gravité
Le successeur du télescope Hubble s'appellera James Webb
Terre
Le déluge en France est-il dû au changement climatique?
Vivant
Le logiciel Virtual Surg ouvre la voie à la chirurgie virtuelle
Des appareils à air conditionné efficaces contre le virus de la grippe
La diminution de l'activité physique a des conséquences dramatiques en matière de santé
Santé: la France a dépensé 148 mds EUR en 2001, soit 10,1 % du PIB
Le tabagisme maternel pendant la grossesse augmente le risque de mort subite du nourrisson
GenOdyssee découvre des interférons jusqu'à 100 fois plus efficaces que les molécules existantes
Cancer débutant de la prostate: l'ablation immédiate de la prostate réduit le risque de décès
Un jeune sur deux consomme du cannabis
Une nouvelle clé génétique pour les tumeurs du côlon
Une thérapie génique pour remplacer le pacemaker
Homme
L'académie de Dijon teste la "Net-éducation"
L'association SEA veut réconcilier science et art
Edito
France Télécom et l'UMTS : L'heure de vérité



Le Gouvernement Français devrait annuler l'ensemble des procédures de vente des licences UMTS et devrait, immédiatement, rembourser les sommes déjà perçues par le Trésor Public, au titre de ces attributions. Le Gouvernent actuel de la France peut tout à fait, avec l'accord du Parlement, revenir sur la démarche aberrante d'attribution des fréquences UMTS, décidée par le précédent Gouvernement, en plein euphorie, créée par la bulle Internet. L'ensemble des gouvernements européens, dont la France, ont vendu, pour un prix scandaleux (134 Milliards d'Euros soit 880 milliards de Francs), des fréquences pour le déploiement, sur l'ensemble de l'Europe, d'une technologie qui n'a pas encore montré sa fiabilité, son réel équilibre économique, et surtout, son acceptation par les clients éventuels. Le Gouvernement Français s'honorerait à ne percevoir, dans ce domaine particulièrement aléatoire des nouvelles technologies, des redevances et taxes diverses que sur des chiffres d'Affaires réellement réalisés et non sur les promesses trop souvent non vérifiées depuis quelques années, faites par les fabricants de matériels pour vendre les nouvelles générations de mobiles. En demandant une redevance marginale de Chiffre d'Affaires réellement réalisé grâce à l'utilisation d'une ou plusieurs fréquences (et non par une technologie donnée...), les Gouvernements Européens se trouveraient aujourd'hui dans une situation bien plus confortable face à la crise des Télécoms. En effet, bien qu'il ne soit pas dans mon idée de laisser croire que l'UMTS soit la seule raison de la situation de France Télécom, j'y reviendrai dans quelques instants, il est indéniable que le téléphone portable dit de 3e génération est la cause essentielle du désastre actuel. France Télécom, directement ou indirectement, a pris l'engagement de verser 12 Milliards d'Euros aux Gouvernements Européens, pour y disposer des fréquences nécessaires à l'UMTS. Selon les évaluations actuelles (qui pourraient être revues à la hausse, lors du constat de la réalité sur le terrain), le déploiement physique des réseaux UMTS, dans les pays européens, et les coûts de commercialisation de cette nouvelle technologie (qui exige des terminaux onéreux) s'élèveraient à 150 Milliards d'Euros (1.000 Milliards de Francs). Et encore, nous ne prenons pas, dans cette estimation, la subvention réelle qu'il faudrait verser à chaque utilisateur pour acquérir son terminal (selon Datamonitor, l'utilisateur accepterait de payer son terminal 250 euros, alors que sa valeur réelle dépasserait les 1.000 euros). Ce sont ainsi des sommes démentielles qui sont potentiellement engagées pour le déploiement d'une technologie qui n'a pas fait ses preuves. Le modèle économique sur lequel se sont appuyés les opérateurs européens pour s'engager dans l'UMTS est définitivement obsolète. Souvenons-nous des prévisions de la Commission Européenne en l'an 2000 : Selon ses calculs, il devait y avoir 200 millions d'abonnés à l'UMTS en 2005 représentant un Chiffre d'Affaires de près de 90 milliards d'Euros. Cette euphorie incontrôlée a incité les opérateurs, en l'an 2000, lors de folles enchères, à acquérir 5 licences UMTS en Grande-Bretagne pour 38,4 milliards d'euros et 6 licences UMTS en Allemagne, pour 50,8 milliards d'euros. Le Gouvernement Français, lui-même englué dans cette bulle irréaliste, voulait alors vendre 4 licences UMTS pour un prix de 4,8 milliards d'euros (31,5 milliards de francs), pour chaque licence... Ce temps est fini et, malheureusement, les principaux gouvernements responsables ne semblent pas en avoir encore bien pris conscience.... (Le Président de l'autorité allemande de régulation des Télécoms, Monsieur Matthias Kurt, a estimé, il y a quelques jours, que l'UMTS serait un succès dans dix ans !). Ce sont les opérateurs qui, depuis plusieurs mois, mais en vain, tirent les sonnettes d'alarme. De reports en partage de réseau, ils ont décidé, maintenant, de frapper fort en abandonnant purement et simplement des sommes colossales qu'ils ont pourtant déjà versées pour acquérir des licences. Ainsi, en Août, l'opérateur espagnol Telefonica, et l'opérateur finlandais Sonera, viennent de jeter l'éponge en Allemagne en y abandonnant définitivement une licence UMTS qui leur avait pourtant déjà coûté 8 milliards d'euros... Excusez du peu !!! Et tout laisse malheureusement augurer, si très rapidement les règles du jeu n'évoluent pas, que nous ne sommes qu'au début de nombreux déboires dans le domaine de l'UMTS. Ainsi, il faut analyser le sens profond de la décision récente de Vodaphone de reporter d'un an son déploiement dans l'UMTS, en Grande-Bretagne et en Allemagne. Laisser ainsi, sur une étagère, pendant un an, deux pépites qui ont coûté plus de 16 milliards d'euros, n'est pas sans signification. S'il est prouvé, définitivement, en 2003, que l'aventure UMTS ne sera jamais rentable, tous les opérateurs européens se retireront, et ce sera un désastre. Aussi, il serait préférable que les gouvernements européens en prennent vite conscience et, sans retard, en tirent les conclusions. Si le Gouvernement Français remettait à plat les procédures d'attribution des fréquences UMTS et effaçait les lourdes ardoises dues pour ce téléphone dit de 3e génération, par France Télécom et Vivendi, il est indéniable que dans le domaine des Télécommunications, ces deux sociétés verraient l'avenir avec plus de sérénité. J'imagine immédiatement les vives réactions que vont entraîner ces propositions auprès du Ministère du Budget. Mais le temps n'est-il pas venu de faire, enfin, des budgets sincères dans ce domaine des nouvelles technologies. Il serait regrettable de traiter ma proposition d'opportunisme. Cela fait deux ans que je crie (dans le désert...) dans ces colonnes, pour attirer l'attention du Gouvernement Français et des autres gouvernements européens, sur la voie sans issue sur laquelle ils se sont engagés, en attribuant, par voie d'enchères ou de concours de beauté, les fréquences UMTS. Je m'honore d'avoir été le seul parlementaire français à avoir dit au Gouvernement, en Mai 2000, qu'il ferait une erreur en vendant aux enchères les fréquences UMTS. Je n'ai pas été entendu. Je pense que les gouvernements européens devraient avoir l'humilité, mais aussi le courage, de dire « nous avons eu tort », et cela serait incontestablement un signal fort à tous les investisseurs européens, mais aussi à l'opinion secouée par l'effondrement de la Bourse. Si le Gouvernement Français prenait cette décision de ne plus demander des redevances « a priori » pour l'attribution de fréquences, mais appuyant ses recettes sur le Chiffre d'Affaires réel, cela secouerait l'ensemble des Télécommunications européennes, et nous ferait entrer, j'en suis convaincu, dans un cercle vertueux. Avec de la bonne volonté et beaucoup d'inventivité, cette mesure d'assainissement de la situation UMTS devrait permettre, en raison de très bons résultats opérationnels annoncés récemment par le Président de France Télécom, de procéder autrement à la puissante augmentation de capital actuellement préconisée par les instituts financiers. Un démarche novatrice et innovante, que les créatifs de Bercy ont tout à fait la capacité d'imaginer, devrait permettre de ne pas diluer les actifs de quelque 1,6 millions de petits porteurs, et de ne pas sanctionner une très grande partie des personnels de France Télécom qui ont fait confiance à l'ouverture sur le marché de notre grand opérateur public. Le Gouvernement doit jouer pleinement son rôle d'actionnaire majoritaire et dominant. Il doit apporter à France Télécom les sommes nécessaires, mais il me semble important qu'il le fasse sans pénaliser plus encore les petits porteurs qui ont déjà été sanctionnés par le marché. Pourquoi ne pas souscrire cette augmentation de capital au cours d'entrée lors de la privatisation ? Au-delà de l'effet bénéfique que cette décision aurait sur le marché, les 55% de France Télécom (600.000 actions) encore détenus seraient mécaniquement réévalués et permettraient à l'Etat de rapidement pouvoir récupérer une grande partie de sa mise. Pour une action qui ne vaut plus aujourd'hui qu'un peu plus de 10 euros alors qu'elle valait 219 euros en Mars 2000, et pour une entreprise affichant des résultats opérationnels, dont la valeur actuelle en Bourse ne représente que 6 fois son résultat brut d'exploitation, il y a inexorablement, dans des termes maintenant rapprochés, une importante marge de croissance. Le gouvernement devrait tenir compte de cette situation singulière (qui n'a rien à voir avec le précédent du Crédit Lyonnais) dans le montage qu'il va proposer pour faire repartir France Télécom. Mais, comme je le disais au début de cet éditorial, l'UMTS n'est pas la seule cause des grandes difficultés que connaît actuellement France Télécom. Le régime « bâtard » de France Télécom qui doit se plier à un régime purement français (« ni-ni »), mi public, mi privé, ne satisfait personne et est fortement handicapant pour le management de cette grande entreprise dans le contexte entrepreneurial international qui régente le monde des affaires depuis quelques années. C'est un monde qui exige beaucoup de réactivité, de transparence, mais aussi de responsabilité. Or, avec le statut actuel, le Président et son Conseil d'Administration, dépendent beaucoup trop de l'actionnaire majoritaire qu'est l'Etat. Pourquoi le cacher : les modes de décision exigées par le nécessaire respect des règles administratives par l'Etat d'une part et celui d'une grande société cotée, engagée dans la compétition mondiale, sont maintenant devenues totalement antinomiques. Aussi, il est nécessaire, aussi bien pour France Télécom qu'EDF, de sortir, dès que cela sera capitalistiquement possible, de cette situation qui risquerait d'avoir des conséquences très graves s'il y avait entêtement. Mais, auparavant, le Gouvernement, avec patience et détermination devra rassurer les personnels des ces grandes entreprises. Ceux à qui le Gouvernement (qu'il soit de Droite ou de Gauche) avait promis le respect du statut de la fonction publique, doivent avoir la certitude que ces engagements seront strictement respectés même quand ces groupes seront totalement privatisés. Enfin, pour que ces grands groupes qui, il y a peu encore, disposaient d'un monopole, retrouvent sérénité et confiance dans l'avenir, il faut aussi avoir l'amitié de leur dire que, trop souvent, ceux qui ont à traiter avec eux, que ce soient les élus, leurs concurrents ou leurs clients, souffrent de leur comportement incompréhensible. Il faut cesser ce lobbying honteux qui, depuis plusieurs années, a freiné le développement des nouvelles technologies dans notre Pays. Ces amendements qui ont pour finalité d'interdire ou compliquer les investissements des collectivités locales dans les Télécommunications, doivent définitivement appartenir au passé. Ces comportements non qualifiables qui avaient pour finalité de fortement ralentir le déploiement de la concurrence (rappelons-nous de la mise en place de l'ADSL dans notre Pays...), et qui pouvaient même mener France Télécom à préférer payer des pénalités que de respecter des décisions de justice, doivent être strictement proscrits. Ces guerres picrocholines ont coûté cher à la France. Ainsi, comme vient de le confirmer l'OFTEL (régulateur britannique des Télécoms), en Juin, le Français doit payer une somme 30 % plus élevée que celle versée par l'Anglais ou l'Allemand et même 50 % plus élevée que celle payée par le Suédois pour accéder au haut débit avec l'ADSL. Cela ne peut plus perdurer, car ces prix aberrants nous obligent à constater que la France est un des pays industrialisés qui a pris le plus de retard pour entrer dans le haut débit. Quand on sait combien ces hauts débits vont très rapidement être nécessaires pour relever le défi de l'avenir, on ne peut que regretter ce gâchis. Pour conclure, je voudrais m'adresser au Chancelier (ne devrais-je pas dire candidat ?) Gerhard Schröder. En effet, le Chancelier Allemand qui a violemment réagi à la récente décision du Conseil d'Administration de France Télécom de stopper la démarche aventureuse avec Mobilcom, ne semble pas avoir pris conscience que c'est le comportement de son Gouvernement, depuis les enchères folles de 2000, pour l'attribution des fréquences UMTS, qui est à l'origine de la situation actuelle, non seulement de Mobilcom, mais qui a aussi précipité (suite à un entêtement stupide de ne rien vouloir modifier) le retrait de Telefonica et Sonera. Maintenant que les échéances politiques essentielles dans les principaux pays européens vont appartenir au passé, et que l'horizon de gestion va se dégager pour plusieurs années pour le Gouvernement de ces Pays, il va être très urgent qu'au plus haut niveau les gouvernants européens se rencontrent et définissent, avec courage, de nouvelles règles pour le déploiement des télécommunications du futur sur l'ensemble de notre continent. Avec la crise que nous traversons actuellement, chacun a bien pris conscience qu'il est dorénavant nécessaire d'emprunter une autre voie pour pénétrer dans l'avenir.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Sat : le pari de l'Internet par satellite bidirectionnel
Samedi, 21/09/2002 - 00:00

Internet Point, société créée en 1996 et spécialisée dans les technologies Internet, vient de lancer une offre de connexion Internet bidirectionnelle par satellite. La société - qui achète en fait de la capacité de connexion à l'opérateur Hot Telecom - propose trois offres. La première, I-sat 5, permet une connexion avec jusqu'à 128 Kbits/s en émission et 512 Kbits/s en réception pour un à cinq utilisateurs, pour un usage classique de type e-mail et navigation sur le Web. L'offre comprend une adresse IP fixe et cinq boîtes aux lettres protégées par antivirus. L'abonnement mensuel est de 155 euros HT. I-sat 10, la deuxième offre, fournit un débit permanent jusqu'à 128 Kbits/s en émission et 640 Kbits/s en réception. L'offre, adaptée pour six à dix utilisateurs, comprend en outre une adresse IP fixe, 10 boîtes aux lettres protégées et un nom de domaine. L'abonnement mensuel est de 225 euros HT. Enfin, I-sat 25 offre un débit jusqu'à 128 Kbits/s en émission et 768 Kbits/s en réception et comprend une adresse IP fixe, 25 boîtes aux lettres et un nom de domaine. Son coût est de 335 euros HT par mois, le client s'engageant pour une durée de trois ans. Le marché du satellite est relativement vaste d'autant que la zone couverte est importante et dépasse largement le cadre local de l'opérateur. Ainsi Internet Point reçoit des commandes provenant non seulement de la France, mais de l'Europe toute entière, d'Afrique du Nord et du Proche-Orient. "Il faut savoir qu'il y a des pays qui ne savent même pas ce que c'est que l'ADSL. Et le satellite leur offre aujourd'hui le seul moyen d'accéder à l'Internet haut débit", explique Philippe Tintignac. L'échec de la boucle locale radio en zone rurale et le coût élevé d'une liaison louée ouvrent la voie aux connexions Internet par satellite. Si les offres unidirectionnelles, permettant uniquement la réception de données, n'ont pas permis l'émergence de ce mode de connexion, la technologie permet aujourd'hui également l'émission, ce qui devrait faciliter l'usage du satellite dans l'accès à Internet. Notamment par les entreprises établies dans des régions non desservies par l'ADSL. En fait, le satellite ne se trouve être en compétition qu'avec les connexions Internet par routeur Numéris avec des débits de 64 kbits/s. Et face aux coûts de télécommunications liés à la ligne téléphonique, le satellite devrait arriver sans peine à séduire les clients.

VNUNET : http://fr.news.yahoo.com/020906/34/2qnc1.html

Le gouvernement américain dévoile son plan contre le cyberterrorisme
Samedi, 21/09/2002 - 00:00

Un rapport intitulé National Strategy to Secure Cyberspace, préparé par l'administration américaine, a été rendu public mercredi 18 septembre 2002. Il met en lumière et recenses les failles du Net afin de protéger les Etats-Unis des attaques informatiques. Ce rapport appelle à une révision des protocoles réseaux actuels. Parmi les principales points de vulnérabilité à corriger d'urgence le rapport pointe les serveurs DNS (Domain Name System) qui traduisent l'adresse Internet "texte" en adresse purement numérique (le numéro IP) correspondant à la machine qui héberge le site. Zone sensible de l'architecture du Réseau puisqu'en cas de piratage, les requêtes des internautes vers les sites originaux peuvent être détournées. Le rapport préconise un meilleur contrôle de l'exactitude des données ainsi que l'authenticité de la base à chaque mise à jour. Autre faille dénoncée, Le BGP (Border Gateway Protocol), utilisé dans l'échange d'informations entre réseaux interconnectés; le rapport insiste sur la nécessaire modification de ce protocole qui connaît des lacunes en termes de sécurité. Ce rapport recommande par ailleurs l'implication, aux côtés de l' l'IETF (Internet Engineering Task Force), des instances fédérales américaines pour établir les nouvelles normes techniques. La vie privée s'arrête-t-elle où commence la sécurité ? Le rapport préconise également la création de cellules chargées d'intervenir en cas d'attaque, et l'ouverture d'une National Cyberspace Academy consacrée à l'enseignement de la sécurité informatique. Des mesures qui coûteraient des dizaines de millions de dollars. Concernant les libertés individuelles, le texte indique que l'exécutif devra consulter leurs groupes de défense pour veiller à leur respect. Mais il émet des réserves, estimant que cela sera difficile dans certains cas. «Maintenir un anonymat complet à grande échelle pour les communications, sans possibilité aucune de connaître l'émetteur, peut potentiellement permettre à des communications à caractère criminel, voire terroriste, de transiter». Il reste à présent à voir quand et sous quelles formes législatives et judiciaires les orientations générales contenus dans ce rapport-cadre s'appliqueront concrètement et quel sera leur impact réel sur la sécurité du Net américain.

CNET News :

http://news.com.com/2009-1023-958333.html?tag=fd_lede

Communiqué de la Maison Blanche du 18-09-2002 :

http://www.whitehouse.gov/pcipb/

La stratégie nationale de sécurisation du cyberespace (65 pages) :

http://www.whitehouse.gov/pcipb/cyberstrategy-draft.pdf

Disque dur Seagate : record de densité grâce au laser
Samedi, 21/09/2002 - 00:00

50 térabits de données par pouce carré (soit plus de 6 téraoctets, ou 6 000 milliards d'octets rangés sur un carré de moins de 3 cm de côté). Tel est le record de densité de stockage que pourraient établir les ingénieurs de Seagate, suite à une démonstration d'une nouvelle technologie présentée fin août à l'occasion de l'inauguration d'un centre de recherche à Pittsburgh. Un record qui "repousse les limites de l'enregistrement magnétique au-delà de ce qui avait été imaginé", n'hésite pas à annoncer le communiqué du constructeur. Il est vrai que la nouvelle capacité va au-delà de la technologie pixie dust d'IBM limitée à 100 milliards de bits (ou 12,5 milliards d'octets) par pouce carré. La technologie de Seagate permettrait donc de stocker cinq cents fois plus d'informations que celle d'IBM, à support égal. Toute la difficulté de l'enregistrement sur support magnétique (composé de particules de fer et de platine en l'occurrence) réside dans la stabilité des données inscrites. Au delà d'une certaine finesse, nommée "limite superparamagnétique", les particules sont trop instables pour inscrire et conserver les données de manière fiable. Il faut donc utiliser un support plus stable. Mais les têtes magnétiques des disques durs ne supportent pas d'autres surfaces. D'où l'idée de chauffer la surface du support magnétique propre aux disques durs à l'aide d'un laser. Ainsi réchauffée, la surface facilite les enregistrements des données et le refroidissement quasi immédiat fige les particules de fer-platine, générant ainsi une stabilité impossible à atteindre jusqu'à présent. D'où le nom de HAMR, Heat Assisted Magnetic Recording. Cette technologie, qui reste à développer à l'échelle industrielle, permet à Seagate de conserver son avance face aux autres supports tout en profitant des procédés et des coûts de fabrication actuels. Selon Seagate, d'ici 5 à 10 ans, il sera possible, grâce à sa technologie HAMR, de stocker sur son ordinateur portable autant de données qu'en contient la bibliothèque du Congrès américain (exemple classique de l'autre côté de l'Atlantique). Reste à savoir si l'usage du laser ne ralentira pas de manière trop excessive le traitement des données.

Vunet :

http://www.vnunet.fr/actu/article.htm?numero=10028&date=2002-09-03

La technologie contre les pirates de l'air
Samedi, 21/09/2002 - 00:00

Techniquement, on est capable aujourd'hui de faire décoller, voler et atterrir un avion de ligne sans aucune intervention humaine, en passant directement des commandes au FMS (Flight Management System), c'est-à-dire à l'ordinateur de bord qui équipe quasiment tous les appareils modernes. En cas d'attaque terroriste, les contrôleurs aériens auraient ainsi la possibilité d'imposer à l'avion, une altitude de vol, un cap, une vitesse mais aussi le suivi de son plan de vol ou l'exécution d'une manoeuvre telle que l'atterrissage. L'alerte, qui déclencherait ce pilotage téléguidé depuis le sol, pourrait être donnée soit par l'équipage lui-même, soit par un dispositif de surveillance permanent du trafic aérien, chargé de détecter toute intrusion dans un périmètre de sécurité autour de zones sensibles. Dans les deux cas, l'avion échapperait entièrement au contrôle des pirates et serait rapatrié vers un aéroport de secours. Séduisante sur le papier, cette solution soulève, en pratique, bon nombre de difficultés. Même si l'avion devient indétournable, rien n'empêcherait les terroristes d'exercer un chantage en menaçant de faire exploser l'avion en vol ou en s'en prenant directement à l'équipage ou aux voyageurs. L'éventualité de perdre la maîtrise de l'appareil risque, en outre, d'inciter les commandos à agir en amont, en investissant les centres de contrôles pour détourner les avions depuis le sol, ce qui ne ferait que déplacer le problème... Ce scénario catastrophe pourrait également se produire si le service connexion, mis au point par Boeing pour doter les avions de ligne de liaisons Internet haut débit destinée aux passagers, sert un jour à piloter à distance un avion détourné, comme l'a proposé le président américain George W. Bush, le 27 septembre 2001. Vu qu'aucun système n'est sécurisé à 100 %, un pirate informatique astucieux pourrait dès lors s'introduire sur la fréquence de l'avion via Internet et en prendre le contrôle sans violence. Tout l'enjeu est d'assurer une interface homme-machine optimale dans des situations où les opérateurs humains sont en état de stress ou à la limite de leurs capacités. On en est encore loin... Face à tous ces aléas, la société Thales (ex-Thomson CSF) a préféré opter pour des solutions techniques susceptibles d'aider l'équipage à éviter le détournement de l'avion plutôt qu'à se passer de lui. Le rêve de l'avion sans pilote ne séduit pas l'équipementier français, même pour faire face à des situations d'urgence comme un acte de piraterie. Le système de gestion de vol ADS-C (Automatic Dependent Surveillance-Contract), déjà opérationnel dans une quinzaine d'aéroports dans le monde (Lyon-Saint-Exupéry et prochainement Roissy-Charles-de-Gaulle), permet, par exemple, d'assurer un contrôle permanent de la trajectoire de l'avion depuis le sol. Si l'appareil dévie du plan de vol, le contrôle aérien est immédiatement alerté. D'ici à cinq ans, lorsque les procédures auront été certifiées, l'équipage aura même la possibilité de transmettre les commandes de l'avion au FMS pour le faire atterrir vers un aéroport de secours en suivant un plan de vol préprogrammé. Mais contrairement aux solutions évoquées plus haut, le pilote pourra reprendre les commandes à tout moment. Autre innovation majeure, Thales va proposer incessamment un transpondeur (appareil qui permet à l'avion d'être identifié par la tour de contrôle) entièrement sécurisé : impossible - en principe - à d'éventuels terroristes de le désactiver, comme ce fut le cas le 11 septembre, et de faire disparaître l'avion des écrans. Cela dit même lorsqu'un transpondeur est hors service, l'aéronef reste quand même sous l'oeil des radars militaires. C'est d'ailleurs ce qui a permis aux Américains de reconstituer, malheureusement après coup, la trajectoire exacte des quatre avions détournés sur Washington et Manhattan. Enfin, à l'horizon 2006-2007, le concept du « couloir d'atterrissage » proposé par Thales, dérivé des systèmes anticollision au sol (GCAS), interdira à l'avion qui en est équipé de descendre en dessous d'une altitude dite de sécurité, sauf lorsqu'il se trouve en phase d'approche sur une piste autorisée . Avec un tel système, aucun des quatre avions détournés le 11 septembre n'aurait pu s'écraser sur leurs cibles. Mais quel que soit le bénéfice que l'on peut en attendre en termes de sûreté, le recours à ces technologies ne pourra se faire sans une négociation préalable avec les pilotes et les contrôleurs aériens. Ces derniers accepteront-ils si facilement de se défaire d'une partie de leurs responsabilités au profit de machines, si perfectionnées soient-elles ?

Figaro : http://www.lefigaro.fr/sciences/20020909.FIG0022.html

Intel dévoile ses projets pour les PC de bureau
Samedi, 21/09/2002 - 00:00

Intel vient de dévoiler s une nouvelle technologie destinée à augmenter la performance de ses microprocesseurs Pentium pour PC de bureau et a passé en revue les dispositifs de sécurité qui seront intégrés à ses puces dans les années à venir. Le numéro un mondial des semiconducteurs fait part de ses initiatives au moment où l'un de ses responsables souligne la faiblesse des ventes de PC sur le marché américain et où International Data Corp (IDC) revoit à la baisse ses prévisions de croissance mondiale des ventes de PC en 2002. L'institut de recherches table désormais sur une croissance de 1,1% contre 4,7% auparavant et sur une période des fêtes de Noël sensiblement identique à celle de l'an dernier. La semaine dernière, Intel a réduit sa prévision de ventes au troisième trimestre. Le numéro un mondial des semiconducteurs table désormais sur un chiffre d'affaires compris entre 6,3 et 6,7 milliards de dollars contre une prévision précédente comprise entre 6,3 à 6,9 milliards de dollars. En revanche, les investissements pour la recherche et le développement sont restés inchangés à quatre milliards de dollars cette année. "Le marché américain souffre encore d'un certain nombre de problèmes", a déclaré Otellini lundi, évoquant l'insécurité en matière d'emploi, la baisse des marchés boursiers et l'approche du premier anniversaire des attentats du 11 septembre. A cette réunion bi-annuelle rassemblant concepteurs de logiciels et de matériel, Intel a annoncé que la technologie dite "hyper-threading", qui permet à un même processeur d'exécuter plusieurs threads (flots d'instructions) simultanément, serait intégré à son microprocesseur Pentium 4 cadencé à 3 gigahertz au quatrième trimestre, en avance sur son propre calendrier. Pour la première fois, la technologie, déjà implémentée plus tôt dans l'année dans les processeurs pour serveurs, commence à s'appliquer aux ordinateurs de bureau, a déclaré Intel. La technologie d'hyper-threading, qui fait apparaître un seul processeur comme étant doublé au système d'exploitation et aux logiciels conçus pour cette application, permet à un programme d'exécuter deux instructions en même temps, et non pas l'une après l'autre comme les processeurs actuels. Cette technologie, supportée notamment par le système d'exploitation Windows XP de Microsoft et certains progiciels de dessin et de conception 3D, permet ainsi d'augmenter la performance du microprocesseur jusque 25 %, selon l'application, a assuré Intel. Otellini a également évoqué une initiative en matière de sécurité numérique d'Intel baptisée LaGrande Technology, affirmant qu'elle offrirait une plus grande sécurité que celle actuellement possible avec les logiciels. Par exemple, elle permettra d'initialiser le système en toute sécurité, évitant qu'un virus présent sur le disque dur du PC ne devienne actif, a expliqué Intel. "L'association du matériel et du logiciel n'est pas parfaite mais elle se rapproche aussi près que possible de ce que nous pouvons faire de mieux aujourd'hui", a expliqué Otellini en parlant de LaGrande, qui sera intégrée au noyau "Prescott", nom de code du processeur de prochaine génération pour ordinateurs de bureau qui devrait faire son apparition au second semestre 2003. Otellini a également présenté un ordinateur doté d'un processeur Pentium 4 cadencé à 4,7 gigahertz. Intel : http://www.intel.com/pressroom/archive/releases/20020909corp.htm

Microsoft veut transformer l'ordinateur en télévision
Samedi, 21/09/2002 - 00:00

Après l'annonce début 2002 par Microsoft des caractéristiques de son nouveau système d'exploitation Windows XP Media Center Edition, la compagnie a dévoilé le 4 septembre la version " beta " de son nouveau lecteur de video et musique, Windows Média Series 9 incluant notamment Windows Media Player 9. Avec ce système d'exploitation et ce nouveau logiciel, Microsoft a tout mis en oeuvre pour que les particuliers utilisent leurs ordinateurs pour regarder la télévision et des DVD, écouter de la musique, enregistrer des émissions de télévision et consulter des albums photos le plus facilement possible. Selon Microsoft, Windows Media Series 9 apportera des améliorations spectaculaires en terme de qualité, de vitesse et d'ergonomie pour les utilisateurs de réseau a faible débit. Grâce a de nouveaux algorithmes de compression d'image et de son ce nouvel outil multimédia permettra un rendu inégalé, quel que soit le débit de la connexion, et une image d'une qualité comparable au DVD pour les utilisateurs de haut débit. Avec son Windows Média Series 9 Microsoft espère également s'imposer sur le marché très prometteur de la visioconférence professionnelle.

Microsoft : http://www.microsoft.com

Les écrans portables font sortir l'informatique de la maison et du bureau
Samedi, 21/09/2002 - 00:00

Une étude de l'université de Colombus dans l'Ohio montre que les lunettes avec moniteurs intégrés sont appelées à devenir rapidement une véritable alternative à la lecture de texte sur un écran d'ordinateur traditionnel. Les participants de l'étude ont jugé le confort et la performance de ces accessoires comparables à ceux des moniteurs actuels. Jusqu'à présent ces lunettes étaient peu confortables et peu pratiques : poids trop important et résolution d'image insuffisante. Mais ces accessoires ont fait des progrès remarquables et aujourd'hui les performances des lunettes basées sur une vision monoculaire sont comparables a celles d'un écran plat ou d'une copie papier. Cette étude en arrive donc à la conclusion que beaucoup de ces lunettes sortiront prochainement des laboratoires et deviendront rapidement des accessoires indispensables. Elle ne remplaceront pas l'écran classique à la maison ou au bureau mais elles s'imposeront dans l'industrie, dans les transports ou les loisirs. Enfin, dernier avantage de ces lunettes, mais non le moindre, personne ne sait à quel moment vous les utilisez et elles permettent une totale confidentialité de lecture.

Ohio State University : http://www.osu.edu/researchnews/archive/neareye.htm

IBM va fournir la technologie pour un projet de cinéma en ligne
Samedi, 21/09/2002 - 00:00

IBM annonce qu'il va fournir la technologie nécessaire au fonctionnement de Movielink, une coentreprise fondée par cinq des principaux studios de cinéma qui entendent ainsi proposer des films en ligne. Les termes de l'accord n'ont pas été révélés mais le contrat court sur trois années durant lesquelles le géant de l'informatique interviendra en tant que fournisseur extérieur, a déclaré un porte-parole de Movielink qui a précisé que le projet devrait démarrer au quatrième trimestre de cette année. La création de Movielink a été annoncée l'an dernier. Il s'agit d'une initiative regroupant cinq "majors": Metro-Goldwyn-Mayer; Paramount Pictures, la filiale de Viacom, Sony Pictures Entertainment, filiale de Sony, Universal Pictures, de Vivendi Universal et Warner Bros, les studios d'AOL Time Warner. Ce service permettra aux utilisateurs d'ordinateurs personnels équipés en haut débit de télécharger des films. IBM sera responsable de l'environnement internet et devra fournir à la coentreprise une large gamme de serveurs hôtes ainsi que du conseil technologique.

Reuters : http://fr.news.yahoo.com/020909/85/2qqvq.html

^ Haut
Matière
Matière et Energie
AMD met au point un transistor "double porte" qui ouvre la voie vers des puces à un milliard de transistors
Samedi, 21/09/2002 - 00:00

Advanced Micro Devices, le deuxième fabricant mondial de microprocesseurs, a annoncé une percée technologique qui pourrait conduire à la création d'une puce contenant un milliard de transistors. La société californienne a déclaré avoir fabriqué le plus petit des transistors double-gate ("double porte" ou "double jonction") à partir d'une technologie de fabrication standard. La "porte" du transistor, par laquelle le courant électrique circule, mesure 10 nanomètres ou 10 milliardièmes de mètre. Un transistor double-gate permet de doubler le flux du courant électrique qui circule. AMD, principal concurrent d'Intel sur le créneau des microprocesseurs, a affirmé que ces minuscules transistors double-gate pourraient permettre d'intégrer à une puce un milliard de transistors contre 100 millions actuellement. "Tout le secteur des semi-conducteurs travaille à la conception de nouveaux transistors plus petits et plus performants et qui peuvent déjà être fabriqués en ne modifiant que légèrement les procédés de fabrication standards", a expliqué Graig Sander, vice-président de la division Technology Developpement d'AMD dans un communiqué. De son côté, Intel projette de développer et de fabriquer des transistors triple-gate. Le numéro un mondial des semi-conducteurs a également déclaré qu'il développait déjà un processeur pour serveurs qui posséderait un milliard de transistors.

AMD : http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104

NYT :

http://www.nytimes.com/reuters/technology/tech-tech-amd-transistors.html

^ Haut
Espace
Espace et Cosmologie
Des astronomes vont tenter de mesurer la vitesse de la gravité
Samedi, 21/09/2002 - 00:00

Une équipe internationale de radioastronomes va tenter de mesurer la vitesse de propagation de la gravité, une donnée hypothétique théorisée par Albert Einstein en 1916 mais qui n'a jamais pu être vérifiée. "Selon la théorie d'Einstein, la vitesse de gravité est supposée être égale à la vitesse de la lumière", soit environ 300.000 km/sec, a expliqué Serguei Kopeikin, professeur de physique et d'astronomie à l'Université du Missouri-Columbia. "Bien que cela ait été prouvé indirectement, cette vitesse n'a jamais pu être directement mesurée et c'est ce que nous allons tenter de faire lors de cette expérience qui ne pourra pas être répétée avant une décennie", a-t-il ajouté. L'expérience va consister à mesurer avec une très grande précision la distance angulaire séparant plusieurs quasars, des astres d'apparence stellaire et de très grande luminosité, et situés dans des galaxies distantes. Pour cela, les astronomes vont profiter d'un alignement visuel exceptionnel entre la planète Jupiter et l'un des quasars. La gravité de Jupiter devrait entraîner un infime déplacement de la position dans le ciel de ce quasar. Or la distance de ce "déplacement" dépend de la vitesse de propagation de la gravité. "Nous utilisons un système gravitationnel relativement stable, la seule variable étant que Jupiter bouge. Nous utilisons donc ce changement gravitationnel - Jupiter passant devant le quasar - pour mesurer la vitesse de propagation de la gravité", a expliqué à l'AFP l'astronome Ed Folamont de l'Observatoire national de radio-astronomie (National Radio Astronomy Observatory, NRAO). De nombreux principes physiques, même ceux qui restent inexpliqués, décrits par Einstein dans sa théorie de la relativité générale (1916) ont pu être vérifiés expérimentalement, comme par exemple la courbure de l'espace-temps sous l'effet d'une quantité d'énergie (ou masse). Seule la vitesse de propagation de la gravité n'a jamais pu être observée directement. La gravité est la force de gravitation exercée par un astre sur un corps. Par exemple, c'est la gravité du Soleil qui "retient" les planètes et les fait tourner autour de lui. Autrement dit, si l'on retirait d'un seul coup le Soleil, notre Terre continuerait comme si de rien n'était sur sa trajectoire pendant au moins huit minutes et demie, c'est-à-dire le temps que met la gravité du Soleil (tout comme sa lumière) pour nous parvenir. Mais, faute d'instruments suffisamment sensibles, personne jusqu'à présent n'avait pu s'attaquer à l'intuition d'Einstein. Cette fois, l'équipe d'astronomes va recourir à la radio-interférométrie intercontinentale qui permet de combiner plusieurs radiotélescopes sur une vaste distance afin d'obtenir une sorte d'image "en stéréo". Ces mesures très fines seront réalisées à l'aide du réseau à très longue base (Very Long Baseline Array, VLBA) de l'observatoire NRAO, qui comprend une série de dix radiotélescopes de 25 mètres de diamètre répartis entre les Iles Vierges (mer des Caraïbes) et Hawaï (Pacifique). Il sera couplé à l'énorme radiotélescope de 100 mètres de diamètre opéré par l'Institut Max Planck de radio-astronomie, situé à Effelsberg (Allemagne). "Les résultats d'essais d'observations avec le VLBA ont montré que nous pouvons parvenir à la précision nécessaire pour déterminer la vitesse de la gravité", a indiqué Ed Folamont. D'autres scientifiques de la NASA et au Japon vont également profiter de cet alignement céleste pour conduire leurs propres mesures. "Nous pourrons comparer nos conclusions", a espéré Serguei Kopeikin. Les résultats ne devraient pas être connus avant la mi-novembre.

Nature : http://www.nature.com/nsu/020902/020902-13.html

Le successeur du télescope Hubble s'appellera James Webb
Samedi, 21/09/2002 - 00:00

Le successeur du télescope Hubble portera le nom de l'un des premiers patrons de la NASA, James Webb, qui joua un rôle important dans la construction de l'agence spatiale américaine. James Webb, deuxième directeur de la NASA, avait dirigé l'agence de 1961 à 1968, années durant lesquelles le programme Apollo permit l'exploration humaine de la Lune. Il avait aussi initié un important programme de recherche spatiale se traduisant par 75 lancements non habités pendant sa présidence. La NASA a été créée en 1958. "Il convient que le successeur de Hubble porte le nom de James Webb. Grâce à ses efforts, nous avons pu jeter les premiers coups d'oeil sur les paysages spectaculaires de l'espace intersidéral", a commenté mardi l'actuel patron de la NASA, Seon O'Keefe. Le télescope spatial James Webb doit être lancé en 2010 par une fusée qui devrait mettre environ trois mois à atteindre sa destination, en orbite à 1,5 millions de kilomètres de notre planète, dans une région de l'espace appelé le deuxième point de Lagrange (L2), l'un des points d'équilibre entre la gravité du Soleil et de la Terre. En raison de sa distance, le nouveau télescope ne pourra pas recevoir de visite d'entretien ou de réparation comme c'est le cas pour le télescope spatial Hubble. L'un des principaux intérêts de cette orbite est la possibilité de protéger le télescope des rayonnements du Soleil et de la Terre d'un seul côté. Ce système permet de refroidir l'observatoire orbital jusqu'à des températures très basses nécessaires à ses instruments, sans l'aide des fragiles systèmes de réfrigération qui équipent Hubble. Le télescope sera doté d'instruments sensibles aux rayonnements infrarouges du spectre électromagnétique : caméra infrarouge à courtes longueurs d'onde, spectromètre multi-objet et caméra/spectromètre à longueurs d'onde moyennes. Le nouveau télescope devrait voir plus loin que Hubble notamment grâce à la capacité de collecte de la lumière accrue de son miroir principal d'un diamètre d'au moins six mètres (contre 2,4 mètres pour Hubble) et de la sensibilité plus grande de ses instruments à la lumière infrarouge.

NASA : ftp://ftp.hq.nasa.gov/pub/pao/pressrel/2002/02-171.txt

NASA : http://ngst.gsfc.nasa.gov/FastFacts.htm

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le déluge en France est-il dû au changement climatique?
Samedi, 21/09/2002 - 00:00

Après les inondations du début de l'été en Europe de l'Est, le déluge qui s'est abattu dimanche et lundi sur le sud de la France relance la question du lien avec le changement climatique, sur lequel les experts restent extrêmement prudents. "Le réchauffement climatique est là, et nous savons qu'il se traduira par une augmentation des événements violents, mais nous n'avons aucune certitude que ce qui arrive lui est déjà attribuable directement", explique Jean Jouzel, spécialiste du climat au Laboratoire des sciences du climat et de l'environnement (LSCE) à Saclay. Pour Patrick Galois, de Météo France, les pluies dans le sud-est sont "exceptionnelles mais pas inédites". Localement, il est tombé en 24 heures 680 mm (soit 680 litres d'eau par m2) sur le Gardon à Anduze, soit une année de pluie moyenne à Paris. Mais ce n'est pas un record absolu: en septembre 1900, il était tombé 950 litres par m2 au Mont Aigual, rappelle Météo France. Plus récemment, des inondations y avaient fait plusieurs dizaines de morts en 1958. Le Sud est coutumier des événements violents, comme l'attestent les inondations de Nîmes (octobre 1988), de l'Aude (novembre 1999) ou de Vaison-la-Romaine (Vaucluse, septembre 1992). Selon Météo France, les données statistiques ne font pas apparaître de recrudescence marquée. "Les statistiques de ces 50 dernières années montrent une augmentation de 2 à 4 % de la fréquence de la pluviosité exceptionnelle, ce qui est faible", précise Patrick Galois. Et de souligner qu'"un recul d'au moins 50 ans sera nécessaire avant d'établir un lien formel avec le réchauffement climatique". Pourtant, les experts qui travaillent sur le climat sous l'égide de l'ONU sont formels: le climat change à un rythme sans précédent, à cause de l'homme. La température moyenne à la surface du globe a augmenté de 0,6 degrés depuis le milieu du 19e siècle à cause des émissions polluantes issues de la combustion du pétrole, du charbon et du gaz. D'ici 2100, le thermomètre devrait grimper en moyenne de 1,4 à 5,8 degrés, avec une fréquence accrue d'événements violents: inondations, froids ou canicules, sècheresses et pluies intenses. Les modèles climatiques essaient de calculer les conséquences pour le climat. Mais ils manquent de précision, avec des "mailles" de 200 km à 300 km de large, trop lâches pour cibler telle région. Pour la France, on sait que l'hiver sera marqué par davantage de précipitations au Nord, et l'été par une sècheresse accrue au Sud, ce qui n'est d'ailleurs pas incompatible avec des épisodes de pluies brèves et violentes. Outre l'imprécision des modèles, les scientifiques butent sur la pauvreté des statistiques. "On dispose en gros d'une cinquantaine d'années de relevés fiables, c'est peu pour dire qu'un événement est exceptionnel à l'échelle de plusieurs milliers d'années", souligne Jean Jouzel. Toutefois, devant l'avalanche d'événements violents, les experts sortent peu à peu de leur réserve pour appeler à l'action. Un des dirigeants de l'Organisation météorologique mondiale (OMM), Michel Jarraud, a appelé solennellement au sommet de la Terre les pays à mettre en oeuvre d'urgence des mesures de prévention. "Un dollar dépensé en prévention permet d'économiser jusqu'à 100 dollars de dégâts", a-t-il estimé. Selon lui, les inondations en Europe centrale "auraient fait plusieurs dizaines de milliers de morts il y a cinquante ans". Les systèmes d'alerte météo permettent d'éviter le pire. Reste à modifier nos habitudes, pour construire mieux, et plus loin des cours d'eau.

AFP : http://fr.news.yahoo.com/020911/202/2qxty.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le logiciel Virtual Surg ouvre la voie à la chirurgie virtuelle
Samedi, 21/09/2002 - 00:00

"Dans l'avenir, au lieu d'opérer le patient directement, le chirurgien opèrera son clone virtuel sur ordinateur": les visions de Luc Soler et de l'équipe Virtual Surg (VIrtual Reality for TUmor Analysis and Liver SURGery) de l'Institut de recherche contre le cancer de l'appareil digestif à Strasbourg confinent parfois à la science fiction. Le nouveau logiciel créé par le Pr Soler et son équipe, et qui sera totalement opérationnel d'ici trois ans, permet de reconstruire un corps humain en trois dimensions, à partir d'un simple scanner ou d'une IRM. En seulement quinze minutes, ce logiciel détecte les organes un par un, analyse les volumes, et reconstruit en couleurs l'intérieur du tronc du patient. Il permet surtout de détecter les tumeurs les plus petites, notamment dans le colon et l'intestin grêle, ce qui pourrait remplacer les coloscopies, après validation par des études cliniques. Pour l'instant, le système permet uniquement de détecter les polypes et de planifier l'opération, mais l'avenir est à la simulation: "Le chirurgien qui opérera un clone virtuel pourra revenir en arrière s'il fait des erreurs. Il enregistrera ensuite la simulation, sélectionnera les gestes et tout sera envoyé au robot qui reproduira l'intervention", explique le Pr Soler. La première démonstration devrait avoir lieu l'an prochain avec une intervention relativement simple: l'introduction d'une aiguille dans le foie à travers la peau pour détruire une tumeur par radiofréquence. Quant aux simulations plus complexes, comme enlever une tumeur du foie, il faudra attendre, peut-être 50 ans, selon Luc Soler. Le temps notamment de mieux connaître les organes et leurs réactions.

Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=11524

Des appareils à air conditionné efficaces contre le virus de la grippe
Samedi, 21/09/2002 - 00:00

Le géant japonais de l'électronique grand public Sharp a annoncé en première mondiale avoir découvert que sa technologie actuelle de dépoussiérage utilisée dans les appareils à air conditionné combat efficacement les virus contenus dans l'air, comme la grippe. Cette technologie "de purification de l'air à base d'ions de plasma agrégé", développée par Sharp en 2000, neutralise les virus et bactéries porteuses de maladies, comme le staphylocoque doré, résistant à la méticilline, selon l'entreprise. "Selon notre étude, c'est la première fois qu'un fabricant électronique prouve scientifiquement l'efficacité d'une technologie pour neutraliser les virus et les bactéries", a indiqué un porte-parole de Sharp. La dite technologie produit des ions positifs et négatifs, qui réagissent de façon chimique au contact de microparticules, tels que les microbes et les molécules odorantes, a précisé Sharp. Finalement, les ions neutralisent les champignons contenus dans l'air et ils désagrègent les molécules odorantes, a souligné Sharp. Cette technologie est déjà expérimentée sur plusieurs produits du groupe, tels que les appareils à air conditionné et les réfrigérateurs. L'entreprise, qui a mené cette étude en partenariat avec le centre de recherche des sciences de l'environnement Kitasato, présentera les résultats de son travail au cours d'un congrès universitaire au Japon cet automne et regroupant des chercheurs spécialisées dans l'étude des virus, a ajouté le porte-parole de Sharp.

Recherche : http://www.larecherche.fr/afp/n020905112740.5fmc8b5f.html

La diminution de l'activité physique a des conséquences dramatiques en matière de santé
Samedi, 21/09/2002 - 00:00

Deux études récentes relèvent, d'une part, les dramatiques conséquences de la réduction de l'activité physique chez les jeunes Américains et, d'autre part, l'effet protecteur remarquable, en matière cardio-vasculaire, d'une demi-heure de marche quotidienne. Depuis un siècle siècle, l'effort physique que nous devons désormais accomplir dans notre vie quotidienne s'est considérablement réduit. La voiture et les transports en commun ont remplacé la marche à pied pour se déplacer, même pour des courtes distances ; les ascenseurs détrôné les escaliers, y compris pour grimper un étage. Malheureusement pour nous, cette sédentarité est devenue aujourd'hui un des facteurs majeurs de risque cardiaque, d'obésité et de diabète. Cette étude a le mérite d'avoir mesuré objectivement cette baisse de l'effort physique. Pour la première fois, des chercheurs américains de l'Institut national du coeur et des poumons se sont intéressés à l'évolution de l'exercice physique chez 2 400 jeunes filles américaines entre l'âge de 9 et 19 ans, en les interrogeant chaque année sur leurs activités physiques, y compris la marche. Les résultats publiés dans le New England Journal of Medicine relèvent qu'en dix ans, l'intensité des efforts évaluée sur différents scores chute de 100 % chez les filles noires et de 64 % pour les blanches. A l'âge de 16 ans, 56 % des adolescentes noires et 31 % des blanches ne pratiquent aucune activité de loisir (marche, natation, sport...). Le niveau socioculturel bas, l'obésité, le tabagisme, les grossesses, étant les paramètres les plus souvent associés à une telle évolution. « Ces résultats devraient sonner l'alarme, face à l'épidémie d'obésité qui sévit dans notre pays », concluent les auteurs. Quant à la France, elle est également touchée par cette diminution générale de l'activité physique. L'obésité en France a été multipliée par cinq en vingt ans. Elle concerne aujourd'hui 10 % des adultes et surtout 16 % des enfants. Aujourd'hui, près de 40 % des français sont concernés par un problème de poids. Alors que la France avait récemment le taux d'obésité le plus bas d'Europe, nous risquons, d'ici 20 ans, de rattraper les Etats-Unis et si cette progression se confirme, un français sur cinq sera obèse en 2020, 50 % de la population et 25 % d'enfants souffriront d'une surcharge pondérale ! La seconde étude parue dans le même numéro du New England Journal of Medicine confirme qu'il suffit pourtant d'une activité physique modérée, mais régulière, pour prévenir les maladies cardiaques. Ainsi, 74 000 femmes en bonne santé, d'âge compris entre 50 et 79 ans ont décrit chaque année pendant 5 ans à des enquêteurs toutes leurs activités physiques, tandis que tout accident cardiaque survenant dans ce groupe était recensé. Les auteurs ont montré une relation inverse entre le score d'activité physique et les évènements coronariens et cardiovasculaires. Précision importante : la marche a le même impact que l'exercice physique soutenu pour réduire le risque. En revanche, les longues périodes d'inactivité l'augmentent. « Les femmes qui pratiquent au moins deux heures et demi par semaine de marche rapide ou d'exercices vigoureux présentent 30 % en moins d'accidents cardiaques », soulignent les auteurs.

NEJM : http://content.nejm.org/cgi/content/short/347/10/716

NEJM : http://content.nejm.org/cgi/content/full/347/10/706

Santé: la France a dépensé 148 mds EUR en 2001, soit 10,1 % du PIB
Samedi, 21/09/2002 - 00:00

L'ensemble des dépenses de santé en France en 2001 se sont élevées à 148 milliards d'euros, soit 10,1% du produit intérieur brut, et 2.437 euros en moyenne par habitant, a indiqué jeudi le ministère de la Santé à l'issue de l'examen des Comptes nationaux de la santé. Sur cette somme, 128 milliards EUR représentent la consommation de soins et biens médicaux, c'est-à-dire ce que les Français dépensent effectivement pour se soigner, sans distinction de ce qui est remboursé ou non par la Sécurité sociale. Cette consommation médicale reste une part importante (12,6 %) de la consommation, tous postes confondus, des ménages. Le reliquat regroupe la recherche, les indemnités journalières, l'enseignement ... et la médecine préventive (médecine du travail, scolaire, planning familial et campagnes de prévention ou de dépistage) qui reste le parent pauvre du système de soins en France avec seulement 2,8 milliards dépensés en 2001. "Il y a eu une accélération de la croissance de la consommation de soins et biens médicaux en 2001: elle progresse par rapport à 2000, de 5,8 % en valeur et de 5,2 % en volume, pour atteindre 8,7 % du PIB", a expliqué à l'AFP la Direction de la recherche, des études, de l'évaluation et des statistiques (Drees). Selon la DRESS, trois tendances se confirment. La première est la diminution des dépenses hospitalières, même si l'hôpital reste le premier poste de dépenses, et de loin, avec 57,3 milliards d'euros. En 2001, le secteur hospitalier, public et privé confondus, a cru de 4,1 % en valeur et 1,9 % en volume, et représente 44,9 % des dépenses de santé en France (le secteur public en représente 34,9 % à lui seul). Deuxième tendance forte : la quasi stabilité de la part des soins de ville (33,7 milliards d'euros) et l'augmentation du poids des médicaments et autres biens médicaux (27,3 milliards d'euros). Les soins ambulatoires ont fortement progressé de 5,1% en valeur et de 6,2% en volume (26,4% de la consommation) mais ce sont les médicaments qui enregistrent la plus forte progression : 8,3 % en valeur et 9,5 % en volume (21,4 % de la consommation). Une progression qui recouvre à la fois le nombre d'unités vendues et l'arrivée de nouveaux produits plus onéreux, souligne la DRESS. Commentant ces Comptes nationaux de la santé, Jean-François Mattéi a souligné que cette tendance à l'augmentation, qui paraît inéluctable, « ne doit pas être jugée négativement. Elle est en fait corrélée à l'évolution de notre richesse ». Pour autant, le ministre de la Santé estime qu'elle « impose une réduction des gaspillages, qui sont toujours injustifiables s'agissant des fonds publics ». « Il faut donc s'engager dans une démarche conduisant à une meilleure responsabilisation des acteurs, la promotion de l'excellence de l'offre de soins et le développement de la prévention », a déclaré Jean-François Mattéi. Recherche : http://www.larecherche.fr/medecine/n020905165442.32guxda9.html

Le tabagisme maternel pendant la grossesse augmente le risque de mort subite du nourrisson
Samedi, 21/09/2002 - 00:00

Première cause de mortalité en France chez les enfants de moins d'un an, la mort subite du nourrisson a diminué de façon spectaculaire ces dernières années - passant de 1 464 cas en 1991 à 338 en 1999 selon l'Inserm - grâce aux simples mesures de couchage sur le dos des bébés. Un lien entre le tabagisme passif au cours de la vie foetale et le risque de mort subite a, par ailleurs, été souligné par plusieurs études épidémiologiques, mais son mécanisme restait peu clair. C'est en étudiant un des récepteurs cérébraux à la nicotine (contenant une sous-unité appelée 2nAChR), que les chercheurs ont trouvé le chaînon manquant. Ils ont démontré que ces récepteurs jouaient un rôle dans la régulation de la respiration pendant le sommeil, notamment dans les réflexes vitaux déclenchés par le manque d'oxygène. Au cours de la nuit, il existe de façon normale de (brèves) pauses respiratoires qui induisent un manque d'oxygène. Celui-ci déclenche en principe une forte excitation cardiaque et respiratoire, et donc le réveil. Jean-Pierre Changeux et son équipe ont comparé ces mécanismes chez des souris sauvages et chez d'autres, modifiées génétiquement et dépourvues de cette sous-unité 2. Résultats : les animaux normaux ont plus de réflexes face au manque d'oxygène que les mutants. Par ailleurs, l'injection de nicotine est sans effet sur les souris génétiquement modifiées, mais elle est néfaste chez les autres. Conclusion des chercheurs ? Quand les femmes enceintes fument, la nicotine transmise au foetus active en continu le récepteur nicotinique et bloque durablement le système qui permet de réagir aux pauses respiratoires. «C'est la confirmation biochimique de ce que l'on sait depuis longtemps : le tabac est nocif pour le cerveau foetal», commente Elizabeth Briand (hôpital Antoine-Béclère, Clamart).

PNAS : http://www.pnas.org/

GenOdyssee découvre des interférons jusqu'à 100 fois plus efficaces que les molécules existantes
Samedi, 21/09/2002 - 00:00

Les essais pré-cliniques réalisés sur les interférons naturels découverts et protégés en 2001 par GenOdyssee concluent à une efficacité jusqu'à cent fois supérieure à celle des molécules équivalentes actuellement sur le marché pour des traitements antiviraux ou anticancéreux chez l'Homme. Les essais réalisés par GenOdyssee ont permis d'identifier des activités dissociées chez plusieurs de ses interférons qui permettent d'entrevoir une approche plus spécifique et plus efficace des maladies traitées par ce type de molécules, ce qui constitue une première dans le domaine de la recherche médicale et pharmaceutique sur les interférons. GenOdyssee poursuit le développement de ses molécules les plus prometteuses pour des applications dans l'hépatite C et le traitement des cancers. Les premiers essais cliniques chez l'Homme sont prévus en 2003. GenOdyssee, en appliquant son approche originale de la variabilité génétique et phénotypique de la population mondiale (brevetée en 2000 en France et 2001 aux USA), a découvert 9 nouvelles molécules naturelles appartenant à la classe des interférons humains pour lesquelles elle a fait réaliser, par des laboratoires publics indépendants, des essais pré-cliniques ciblés pour des applications dans le traitement de l'hépatite C et des cancers par immunothérapie. L'innovation de la recherche réalisée par GenOdyssee sur les interférons est la découverte, pour la première fois, de molécules interférons naturelles ayant une activité dissociée par rapport aux interférons de référence (alpha 2a et 2b). Par rapport aux activités antiproliférative, antivirale, et immunomodulatrice classiques qui caractérisent les interférons du marché, les molécules découvertes par GenOdyssee démontrent une très forte amélioration de l'une ou l'autre, voire de deux des activités pharmacologiques classiques des interférons. ' Ces découvertes originales devraient permettre de développer des interférons beaucoup plus efficaces et plus spécifiques pour le traitement des maladies traitées par ce type de molécules comme les maladies infectieuses et le cancer ' souligne le Professeur Michael TOVEY, directeur du laboratoire d'oncologie virale du CNRS (UPR 9045). Les activités dissociées de ces molécules devraient également permettre de jouer sur un autre paramètre clef de l'amélioration des traitements par interférons : la toxicité. En effet, le nombre important d'effets indésirables associés aux interférons classiques étant communément lié à la multiplicité des réponses physiologiques qu'ils stimulent, la forte modification du spectre d'activités pharmacologiques des interférons développés par GenOdyssee devrait s'accompagner d'une diminution des effets indésirables associés à ce type de molécules chez l'Homme comme la fièvre, la perte de poids, des anémies et surtout des désordres psychiques. Le Professeur Patrick MAUREL (CNRS, INSERM 128) confirme ainsi que ' l'efficacité accrue des molécules découvertes par GenOdyssee (jusqu'à 100 fois supérieure aux interférons du marché testés en parallèle) démontrée in vitro sur un modèle innovant d'infection par le virus de l'hépatite C (HCV) de cultures primaires d'hépatocytes humains, cellules cibles du développement de la maladie chez l'Homme, est sans précédent'. D'autre part, parmi les interférons naturels découverts par GenOdyssee, des profils immunomodulateurs significativement améliorés par rapport aux molécules commercialisées ont été également caractérisés qui permettent déjà de développer des applications nouvelles pour ce type de molécules dans le traitement des cancers.

Copmpagnynews :

http://financier.companynews.fr/communiques/communique.asp?communique_id=62747§...

Cancer débutant de la prostate: l'ablation immédiate de la prostate réduit le risque de décès
Samedi, 21/09/2002 - 00:00

Retirer la prostate aux hommes atteints d'un cancer débutant permet de réduire de moitié au moins le nombre de morts, selon une nouvelle étude publiée jeudi dans le "New England Journal of Medicine". L'opportunité d'une intervention avait longuement été discutée, le cancer de la prostate évoluant lentement et touchant le plus souvent des hommes âgés appelés à mourir d'autres pathologies avant que le cancer ne s'étende. Par ailleurs, l'ablation de la prostate n'est pas sans danger. Elle entraîne souvent des complications importantes, notamment une impuissance et une incontinence. L'étude menée auprès de 695 hommes en Suède, en Finlande et en Norvège, répartis en deux groupes, souligne que le risque de mourir de ce cancer très fréquent chez l'homme est de 9% chez les non-opérés et de 5% chez les hommes opérés six années après l'intervention. Toutefois, le nombre de décès dus à d'autres maladies est le même que les hommes aient été opérés ou pas. "Nous avons maintenant la preuve que l'ablation rapide et totale de la prostate dans la cas d'un cancer débutant diminue le risque de récidive. Nous avons donc la possibilité d'influer sur le cours normal de la maladie", a déclaré le Dr Lars Holmberg, premier auteur du papier, un épidémiologue au Centre hospitalo-universitaire d'Uppsala (Suède). Mais pour le Dr John Wasson de l'Université de Dartmouth, le cancer de la prostate est une maladie bien trop prise en charge. "L'étude ne nous dit pas quels patients vont tirer le meilleur bénéfice de cette technique", a-t-il souligné. "Des hommes âgés de 80 ans et plus sont opérés, alors qu'ils vont mourir de toute autre chose. Ce que nous montre cette étude, c'est que les hommes en bonne santé âgés de 50 à 75 ans, qui choisissent de se faire dépister et chez lesquels un cancer est découvert savent maintenant qu'un traitement immédiat est bénéfique".

NYT : http://www.nytimes.com/2002/09/12/health/12PROS.html

New England Journal of Medicine :

http://content.nejm.org/cgi/content/short/347/11/781

Un jeune sur deux consomme du cannabis
Samedi, 21/09/2002 - 00:00

Un jeune sur deux âgé de 18 ans a déjà expérimenté le cannabis, mais les usagers réguliers sont trois fois plus nombreux chez les garçons que chez les filles. C'est ce qu'indique une étude publiée le 16 septembre par l'Observatoire français des drogues et toxicomanies. Le cannabis est, de loin, la substance psychoactive illicite la plus expérimentée. "A 18 ans, plus de quatre filles sur 10 (45,2%) et plus de cinq garçons sur 10 (55,7 %) l'ont déjà" consommée au moins une fois au cours de leur vie, selon l'enquête Escapad. Mais les plus gros "fumeurs" sont les garçons : un garçon sur deux et plus d'une fille sur trois ont consommé du cannabis au cours des 12 derniers mois. L'écart est encore plus flagrant pour les jeunes déclarant avoir fumé du cannabis plus de 10 fois au cours du dernier mois : 19,7% de garçons contre 6,9 % des filles. L'étude montre aussi que l'expérimentation des autres drogues est beaucoup plus rare. "Un produit comme l'ecstasy n'a été expérimenté 'que' par 2,7% des filles et 5% des garçons", précise l'étude - les jeunes lui "préférant" les champignons hallucinogènes, les produits à inhaler et le poppers. Quant aux psychotropes, qualifiés dans le questionnaire de "médicaments pour les nerfs, pour dormir", ils sont les "seuls produits dont l'expérimentation est plus répandue chez les filles que chez les garçons : respectivement 31,1% contre 12,4%", sans qu'il soit précisé si cette consommation correspondait à une prescription médicale ou à un usage détourné. Quant à la consommation de tabac, elle est extrêmement banalisée chez les jeunes de 18 ans, quel que soit leur sexe : ils sont 44,6 % à fumer quotidiennement. En revanche, si 9 jeunes de 18 ans sur 10 ont déjà bu de l'alcool, "les garçons sont quatre fois plus nombreux que les filles à en consommer régulièrement (plus de 10 prises au cours des 30 derniers jours) : 16,6 % contre 4,4 %", indique l'enquête.

Rapport 2002 de l'OFDT : http://www.drogues.gouv.fr/fr/index.html

Une nouvelle clé génétique pour les tumeurs du côlon
Samedi, 21/09/2002 - 00:00

Est-ce la fin d'un dogme en matière de cancer du côlon, l'un des plus fréquents dans notre pays avec 35 000 nouveaux cas et 16 000 décès par an ? Des chercheurs du CNRS et de l'Inserm, Sylvie Robine et Klaus-Peter Janssen, sous la direction du professeur Daniel Louvard à l'Institut Curie, viennent de découvrir une nouvelle explication génétique aux premières phases de développement de ces tumeurs du gros intestin. Ils viennent de publier leurs travaux dans la revue Gastroenterology d'août 2002, soulignant l'importance d'une mutation sur le gène Ras dans l'initiation du processus tumoral, contrairement à la théorie qui faisait des mutations sur un autre gène, APC, les grandes initiatrices de la cancérisation. Une découverte qui, dans le maquis complexe des mécanismes à l'origine de la cancérogénèse, devrait servir de base à la recherche de nouvelles cibles thérapeutiques. On admet que le cancer du colon débute, dans la majorité des cas, par un polype qui va se cancériser progressivement. Jusqu'ici, il était admis depuis les travaux du professeur Bert Vogelstein (Johns Hopkins University à Baltimore) en 1990 qu'une altération du gène APC (pour polypose adénomateuse du colon) était la grande initiatrice de la transformation cancéreuse. Une fois muté, ce gène déclenchait une prolifération excessive de cellules. Les chercheurs de l'Institut Curie ont mis au point un modèle très raffiné de souris transgénique, porteuse du gène « ras » (1) muté. Mais contrairement aux modèles mis au point jusqu'ici par d'autres équipes, ce gène muté était non seulement exprimé dans les cellules de la muqueuse intestinale qui se renouvellent tous les trois jours, mais dans l'ensemble des cellules de la muqueuse intestinale, des cellules souches aux cellules les plus spécialisées. Au bout de quelques mois, ils ont eu la surprise de voir que 80 % de ces souris développaient des cancers intestinaux et ceci, sans aucune mutation du gène APC. « Nous sommes très excités par cette découverte en totale contradiction avec le dogme qui prévalait jusque-là », pointe Klaus-Peter Janssen. Contrairement à l'idée généralement admise, la mutation du gène k-ras peut donc être l'un des événements initiateurs du processus tumoral dans le côlon. Dans l'immédiat, les chercheurs de Curie ont mis au point, avec ceux d'Orsay, une visualisation par imagerie par résonance magnétique (IRM) de ce qui se passe dans le tube digestif des souris transgéniques porteuses du gène K-ras muté, afin de suivre la croissance de la tumeur. Observant ainsi sa progression dès les premiersstades, lorsqu'elle est encore de petite taille, ils vont pouvoir ensuite tester l'éventuelle efficacité de molécules ou de traitements en cours d'expérimentation. En attendant, rappelons qu'en matière de cancer colo-rectal, la prévention est indispensable. Elle passe par une alimentation riche en légumes et en fruits et pauvre en graisse, assortie d'une activité physique régulière.

Figaro : http://www.lefigaro.fr/sciences/20020910.FIG0179.html

Une thérapie génique pour remplacer le pacemaker
Samedi, 21/09/2002 - 00:00

En utilisant la thérapie génique, des chercheurs américains de l'Institut de cardiobiologie moléculaire de l'université John Hopkins (USA), sont parvenus à spécialiser des cellules cardiaques ''passives'' du cochon d'Inde en cellules capables de déclencher la contraction du muscle cardiaque. Selon Eduardo Marbàn, qui dirige ces recherches, il devait être possible de remplacer le stimulateur cardiaque électronique par un stimulateur biologique, mieux adapté au rythme de chaque individu. Dans le coeur adulte, seules certaines cellules ont la capacité de produire l'impulsion électrique provoquant la contraction du myocarde. Chez les autres cellules, cette fonction a été bloquée au cours du développement embryonnaire. Les cardiobiologistes ont en quelque sorte ''débloqué'' les cellules en modifiant l'équilibre calcium/ potassium dans la cellule. Ils ont isolé le gène permettant ce déblocage et l'ont inséré dans le coeur des cochons d'Inde grâce à support viral rendu inoffensif. Trois à quatre jours après, les chercheurs ont observé de nouvelles impulsions électriques dans le coeur des rongeurs. Les premiers essais de cette thérapie génique chez l'homme pourraient commencer dans 4 ans précise Eduardo Marbàn.

Nature : http://www.nature.com/nsu/020909/020909-7.html

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'académie de Dijon teste la "Net-éducation"
Samedi, 21/09/2002 - 00:00

L'académie de Dijon a lancé il y a deux ans un projet de "net-éducation", actuellement testé en Saône-et-Loire et qui prend une nouvelle dimension en cette rentrée avec la distribution de "cartables numériques", des petits boîtiers permettant de stocker des données. Ces boîtiers, sous la forme d'un gros stylo, doivent permettre aux élèves cobayes, une fois de retour chez eux, de travailler sur ordinateur mais sans se connecter à un internet, en déchargeant par exemple des cours ou des exercices stockés en classe, explique Marie-Ange Arnoux, ingénieur de recherche informatique. Elle est chargée de ce projet, qui a été baptisé ArianeDijon (académie de dijon, réseau interactif d'accès à la net-éducation). Ce "cartable numérique", selon elle, a d'abord été pensé pour les familles les plus défavorisées. Celles qui ne peuvent acquérir du matériel et des abonnements au réseau internet. Des ordinateurs leur seront prêtés. Car, chez lui, l'élève doit retrouver l'environnement utilisé dans sa classe, c'est-à-dire le "bouquet de services" mis en place progressivement par l'académie et accessible via l'internet. Il s'apparente à un portail spécialisé, destiné également aux professeurs et aux parents, avec un certain nombre de rubriques. "Ce n'est pas un professeur virtuel, c'est complémentaire du cours", précise Mme Arnoux. Une rubrique "éducation musicale" est ainsi disponible. Une vidéo réalisée par le professeur permet de le voir interpréter un morceau de musique à la flûte, comme dans la classe. Des exercices sont également proposés ainsi que des consignes d'aide pour les parents. Les professeurs peuvent mettre dans ce bouquet ce qui leur semble le plus approprié. Un prof de math de sixième a mis en ligne une explication du parallélogramme, "un point précis qui présente des difficultés pour les élèves", selon Mme Arnoux. "ArianeDijon", testé dans deux écoles primaires, trois collèges (un en zone rurale, un en centre-ville et le dernier en zone d'éducation prioritaire) et un lycée de la région de Chalon-sur-Saône (Saône-et-Loire), va également servir aux enfants malades, qui par ce biais garderont le contact avec le monde scolaire. Pour mener à bien le projet, des partenariats multiples ont été conclus, notamment avec France Telecom et Microsoft. Pour couper court à toute polémique née de cette collaboration avec le géant américain, Mme Arnoux souligne qu'"ArianeDijon" propose aussi des "logiciels libres". "On essaie de trouver les meilleurs outils qui soient", dit-elle. Pour le recteur, Josiane Attuel, l'essentiel est que les élèves n'aient rien à payer. "Il y a une mission de service public et s'il faut passer par Microsoft, nous passons par Microsoft", dit-elle.

ArianeDijon : http://www.arianed.com/

L'association SEA veut réconcilier science et art
Samedi, 21/09/2002 - 00:00

L'association SEA, Science et Art, a été créée le 25 septembre 2000. Son objectif est de favoriser les croisements entre démarches scientifiques et démarches artistiques, d'interroger le curseur entre approches « objectives » et approches « subjectives », de mettre en vis à vis «esprit critique » et «conscience poétique ». Pour cela, elle vise à mettre en place des actions pédagogiques (en particulier projets de découverte du patrimoine naturel et culturel) où la créativité sera utilisée comme un outil de cognition (approches développant la créativité au coeur de l'apprentissage) autant qu'un outil de médiatisation de la "science" (oeuvre artistique exprimant les résultats scientifiques). L'objectif est de concevoir et de rédiger un ensemble de propositions d'outils pédagogiques mettant en jeu le va-et-vient entre "science" et "art", où s'agira de développer la créativité artistique en perspective d'objets et de questionnements scientifiques. Par ailleurs, elle a pour but de favoriser des événements culturels autour de la rencontre de « la science » et de « l'art »: débats, conférences, expositions.

Les actions menées favoriseront les ponts entre langages (objectif et sensible, scientifique et artistique) mais aussi entre générations et entre cultures. Cette association est présidée par Mr Philippe LOUISGRAND, professeur à l'Ecole Nationale des Beaux-Arts de Lyon. Le Vice-Président est Mr François LAPLANTINE, professeur-chercheur à l'Université Lumière Lyon II, ethnologue et écrivain. Contact coordination : Edith PLANCHE, ethnologue et artiste, 29 Boulevard de l'Europe, 69600 OULLINS (06 16 29 68 28) e-mail/sea.scienceetart@free.fr

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top