RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 249
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Juin 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le Sénat adopte le projet de loi pour la confiance dans l'économie numérique
Projet de loi pour la confiance dans l'économie numérique: Intervention du Sénateur Trégouët
Le DRM, parade au piratage des données ?
Des fonctionnalités de Microsoft Word permettent l'injection de virus et la fuite d'informations
Besoin d'un médecin ? Un robot s'occupe de vous
Xerox prépare le papier intelligent
Le prêt en bibliothèque devient virtuel
Avenir
Les vêtements intelligents arrivent
Matière
Passage à l'hydrogène : un grand défi à relever d 'ici 2020
L'Islande veut devenir la première économie à l'hydrogène
La naissance de l'Europe de l'hydrogène
Espace
Les dernières observations spatiales confortent l'hypothèse d'un univers fini
Terre
La désertification menace la subsistance de plus d'un milliard de personnes
Un siècle qui s'annonce caniculaire
Vivant
Polyarthrite rhumatoïde : et si tout se jouait à la naissance ?
Grippe: un premier vaccin par voie nasale approuvé pour le marché américain
Un vaccin contre le mélanome d'ici cinq ans
Cancer de la prostate : deux nouveaux traitements donnent des résultats remarquables
Des chercheurs retracent l'histoire du virus du SIDA chez deux petits singes africains
Le gouvernement lance un plan en faveur des biotechnologies
L'activité intellectuelle régulière semble réduire ses risques de démence
La timidité pourrait avoir une composante génétique
Edito
Hauts débits : La feuille de route



Jamais depuis l'origine de l'Humanité notre Monde n'a bougé aussi rapidement. Et pourtant, souvent, nous n'en avons pas conscience, un peu comme le passager d'un TGV qui ne réalise pas qu'il se déplace à plus de 300 Km/heure, alors que son aïeul utilisant les diligences était cassé dès que les chevaux le tiraient à plus de 10 Km/heure sur les fondrières des chaussées de l'époque. Avons-nous bien conscience que dans les 10 ans qui viennent, l'Humanité va globalement acquérir autant de connaissances nouvelles qu'elle n'en a acquis depuis l'origine de l'Homme ? Dix années vont suffire à l'Homme pour parcourir, dans les domaines de la connaissance, autant de chemin que la totalité de celui parcouru par tous ces aïeux depuis l'origine des temps. Cela semble inimaginable, et pourtant, c'est bien vrai. Toutes les bibliothèques qui, maintenant, sont devenues virtuelles, vont doubler de volume dans les 10 ans qui viennent. Cela est dû à un phénomène majeur. Notre planète est en train de se mettre en réseau. 500 millions d'êtres humains sont déjà, à ce jour, reliés les uns aux autres par Internet. Dans 5 ans, nous devrions être un milliard. Cette mutation profonde qui accompagne un développement extraordinaire de l'informatique, nous permet déjà de définir de façon générique, ce que sera le métier de demain : pour être dans l'économie du futur, chacun d'entre nous devra avoir la capacité d'ajouter du Savoir à un signal. Pour exercer ces métiers d'un futur maintenant très proche, il faudra non seulement acquérir des Savoirs, mais aussi, quelque soit notre lieu de résidence, disposer d'un signal de qualité accessible au meilleur coût. Dans moins de 10 ans, toute entreprise, qu'elle soit petite ou d'importance, devra obligatoirement être connectée à un réseau haut débit, pour être reliée au Monde entier. Cela lui sera aussi nécessaire que peut l'être, aujourd'hui, son raccordement au réseau électrique ou téléphonique. De plus, les habitudes de vie auront profondément changé pour des millions et des millions de Français dans les 10 ans qui viennent. Tous ceux que Claude Reich appelle « les enrichisseurs de signes » dans son économie mondialisée, vont constater qu'il n'est plus nécessaire de rejoindre, chaque matin, son bureau pour être efficace. Ils pourront l'être plus encore, puisqu'ils ne perdront plus de temps dans de stériles embouteillages, à partir de leur domicile, à condition que celui-ci soit, lui aussi, puissamment relié au réseau mondial. Or, quand nous abordons ce problème fondamental du haut débit qui est aussi important dans notre, encore jeune, vie d'internaute, que l'a été, pour nos grands-parents, l'arrivée de l'eau potable sur l'évier, après avoir dû la tirer du puits avec son seau, il faut bien avoir conscience qu'à l'encontre de ce que nous avons connu pour l'électricité ou le téléphone, notre définition du haut débit va évoluer très rapidement. Là où nous nous contentons, aujourd'hui, d'un simple filet continue de signaux, nous allons exiger bien rapidement, car les produits virtuels que nous transporteront seront de plus en plus lourds, un flux beaucoup plus puissant. Les observateurs les plus avertis affirment que la Loi de Moore qui, depuis 30 ans éclaire l'avenir de la Micro-informatique, en prévoyant que la capacité des ordinateurs doublent tous les 18 mois, tout en se maintenant au même prix, va dorénavant s'appliquer aux hauts débits. Ceci signifie que, si aujourd'hui nous nous satisfaisons de 512 K sur ADSL ou le câble, dans une dizaine d'années, chacun d'entre nous exigera de disposer de 100 Mégabits, soit près de 20 fois plus. Or, tous les scientifiques sont unanimes. A ce niveau là, il aura fallu quitter le domaine de l'électron pour entrer dans celui du photon. Ceci signifie qu'alors, le cuivre et donc l'ADSL, ne pourra plus suivre et que le vecteur naturel sera devenu le verre qui, seul, a la capacité de transporter les photons : les réseaux optiques prendront alors leurs réelles dimensions. Or, dix ans c'est court ! Même si nous commencions le travail dès demain matin, cela serait une vraie prouesse de voir toute la France équipée de réseaux optiques dans dix ans. Surtout, ne pensez pas que je sois original en proposant d'équiper ainsi l'ensemble de notre Pays, de réseaux optiques. La Corée l'a déjà fait, et la plupart des autres pays avancés du Monde en tête desquels les Etats-Unis, le Japon, l'Allemagne, la Suède sont en train de le faire. De tous les principaux pays de l'OCDE, nous sommes celui qui est le plus en retard dans la mise en place d'un réseau alternatif face à celui mis en place, dans le temps par l'opérateur historique. Ainsi, pour ne parler que de nos voisins, il faut savoir que plus de 90% des Belges disposent du câble en plus de leur ligne téléphonique et que huit Allemands sur dix disposent du même avantage. A s'être égaré, depuis plus de 20 ans, dans des procédures et technologies alternatives liées au génie singulier de nos responsables politiques et de nos ingénieurs qui ont préféré la télévision payante par satellite, et bien d'autres originalités, le satellite de diffusion directe (TDF 1 et TDF 2), nous avons oublié l'importance de la construction systématique d'un réseau câblé alternatif. Cela nous amène logiquement à une autre erreur que nous nous apprêtons à commettre. Nous pensons que l'ADSL qui utilise notre ligne téléphonique pour nous apporter, sans génie civil supplémentaire, le haut débit à notre domicile, sera suffisant pour répondre à nos attentes du haut débit dans le futur. S'il est vrai que l'ADSL pourra semer l'illusion pendant les 5 à 7 ans qui viennent comme les superbes locomotives à vapeur avaient su le faire, en leur temps, face aux locomotives électriques, il faut bien avoir conscience, dès maintenant, que le cuivre ne pourra pas suivre et devra laisser la place au verre. Les ingénieurs de France Télécom, face à cet argument, rétorqueraient immédiatement qu'ils vont eux-mêmes construire un immense réseau optique puisqu'ils ont l'ambition, à terme, de relier la plupart de leur DSLAM (serveur distribuant l'ADSL), par la fibre. Mais cette réponse n'est pas la bonne car, dans l'établissement d'un réseau, les coûts essentiels ne sont pas induits par la construction des artères, mais bien par le chevelu optique ou coaxial qui devra desservir chaque utilisateur dans les dix ans qui viennent. Or, la construction de ce chevelu, même France Télécom n'aura pas les moyens de le réaliser dans cette prochaine décennie. Seule une synergie entre la volonté politique de l'Etat et des Collectivités Territoriales et l'initiative privée des principaux acteurs permettra de relever à temps ce défi. La seule obligation qui devra être apportée à une telle démarche, sera de permettre à la Collectivité de rester propriétaire des réseaux ainsi construits avec des financements croisés, publics privés, afin qu'une réelle concurrence puisse ainsi s'exercer sur ces réseaux du futur. Cette « feuille de route » nous permet de découvrir la seule voie que doit suivre la France si nous voulons qu'elle soit exacte au rendez-vous du futur.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Le Sénat adopte le projet de loi pour la confiance dans l'économie numérique
Samedi, 28/06/2003 - 00:00

Le Sénat a examiné et adopté, les 24 et 25 juin, le projet de loi, adopté par l'Assemblée nationale, pour la confiance dans l'économie numérique. L 'examen de ce texte a été l'occasion pour le Gouvernement de témoigner de l'importance qu'il accorde aux nouvelles technologies, dans la ligne du plan réseaux 2007 annoncé par le Premier ministre. Madame Fontaine a rappelé au Sénat que la révolution en cours est mondiale ; la France est en retard et n'est qu'au 21ème rang des pays les plus avancés dans ce domaine. C'est un handicap pour la croissance et l'emploi, que rien ne justifie. A l'automne 2002, le Gouvernement a affirmé sa volonté de rattraper ce retard. Les transactions commerciales sur Internet ont progressé de 61 % en 2002, des secteurs entiers se transforment -vente par correspondance, voyages notamment. Ce texte conforte le cadre juridique de ces nouveaux canaux de distribution et entend favoriser le développement de l'équipement des ménages en micro-informatique et de l'accès au haut débit. Les tarifs de gros de l'ADSL ont baissé : la France a pu rattraper son retard par une croissance fulgurante -trois millions d'abonnés fin 2003 ; l'objectif de dix millions d'ici cinq ans peut être atteint. Dès lors, des investissements pourront être plus rapidement amortis et les services se développeront. Le Gouvernement a choisi de sortir de la logique des « grands plans » et des « grandes lois ». Pour autant, ce projet de loi est le premier texte d'ensemble sur le sujet : un autre viendra pour transposer les directives dites « paquet télécom ». Ces deux textes sont complémentaires. Un climat de confiance doit s'instaurer entre fournisseurs et utilisateurs : il faut combler les vides juridiques actuels, concernant notamment la publicité électronique et la protection des données personnelles. Le texte ne crée pas de toutes pièces un droit spécifique mais modifie de nombreux codes, autour de quatre grands thèmes. A l'Assemblée nationale, le Gouvernement a complété le texte pour permettre aux collectivités territoriales d'intervenir dans le secteur des télécommunications. Premier thème : la définition et la régulation de la communication publique en ligne. Le texte conserve le rattachement de celle-ci à la communication audiovisuelle, donc la compétence du CSA, toutefois limitée -en plein accord avec le CSA lui-même. Les responsabilités des acteurs sont précisées sur le fondement de la directive sur le commerce électronique et de la décision du Conseil constitutionnel. La mise en cause de cette responsabilité est limitée aux seuls cas de négligence, dès lors que les hébergeurs ont eu connaissance des contenus illicites. Les adresses en « point fr » seront désormais gérées par l'Etat. Deuxième thème : la confiance dans le commerce électronique. Le texte définit le cadre juridique de ce commerce, sur la base de la directive européenne ; les législations des différents Etats membres se seront ainsi considérablement rapprochées. Le texte renforce la protection des consommateurs et leur information sur l'identité des fournisseurs. S'agissant du spam, phénomène de grande ampleur et source de nuisances pour les utilisateurs, des règles transparentes sont édictées ; l'Assemblée nationale a toutefois autorisé la publicité professionnelle électronique sans autorisation préalable. La signature électronique... Le texte innove et introduit dans le code civil une disposition permettant la conclusion de nombreux types de contrat par voie électronique. Troisième thème : la libéralisation totale des moyens de chiffrement, afin de mieux sécuriser les échanges et les transactions ; les outils cryptologiques ne seront plus soumis qu'à déclaration. La sécurité des paiements par carte bancaire est un sujet sensible ; les consommateurs peuvent déjà agir en cas de fraude à distance. Le texte ne contient pas de disposition spécifique, sinon la mise en place de moyens cryptologiques plus performants. Les moyens publics de lutte et les sanctions seront renforcés ; un délit de diffusion intentionnelle de virus est créé. Les systèmes satellitaires seront enfin développés. Le groupe UMP a apporté son soutien à la ministre par la voix de René Trégouët, Sénateur du Rhône. "Vous avez eu le courage et la volonté de tenir les engagements pris lors de la campagne présidentielle", a-t-il déclaré en "incitant les Pouvoirs publics à la vigilance". M. Trégouët a proposé la création d'un Comité national d'éthique de l'internet. "Si nous n'y prenons garde, les Etats vont de plus en plus se dégager des responsabilités pour laisser aux grands groupes les prendre à leur place", a-t-il affirmé. S'agissant de l'examen des articles de ce projet de loi de confiance numérique, les sénateurs ont d'abord abordé la question de la responsabilité des hébergeurs d'accès à internet et due renforcement des règles du commerce en ligne. Les sénateurs ont consacré une large place au rôle des prestataires techniques d'internet, à qui l'Assemblée nationale avait imposé "un minimum de surveillance" sur les pages qu'ils stockent, afin de prévenir la diffusion d'informations faisant l'apologie du racisme, de la pédophilie et des crimes contre l'humanité. Tout en soulignant la nécessité de mieux protéger "l'enfance et l'adolescence" face aux messages "indésirables" diffusés sur le net, le Sénat a tenu à réduire la responsabilité des hébergeurs tant en matière de stockage des données que d'obligation de vérifier le contenu des pages. Il a ainsi supprimé un dispositif apporté par les députés et qui faisait obligation aux hébergeurs de "mettre en oeuvre les moyens conformes à l'état de l'art pour prévenir la diffusion de données constitutives" d'infractions. "La lutte contre les contenus illicites est un souci légitime, mais elle est déjà engagée par plusieurs instances spécialisées. Pourquoi en créer une nouvelle? Cela va-t-il dans le sens de la clarification?", a demandé la ministre de l'Industrie Nicole Fontaine. Les sénateurs ont ensuite examiné les articles traitant du commerce électronique, en apportant des modifications, souvent techniques, aux dispositifs approuvés en février dernier par l'Assemblée. Les députés avait défini "une responsabilité globale" du marchand en ligne sur l'ensemble de la vente depuis la passation de commande jusqu'à la fourniture de biens ou de prestations de services. Ils avaient aussi renforcé la protection des clients en ligne. Selon l'association pour le commerce et les services en ligne, le montant des achats par internet a augmenté d'environ 60 % en 2002 en France, pour atteindre environ deux milliards d'euros. Le nombre de transactions a augmenté de 47 %, avec un bond de 63 % au 4è trimestre, par rapport à la même période de 2001. Les sénateurs ont également approuvé les dispositifs de lutte contre la publicité non sollicitée (le "spaming") par messagerie électronique sur internet, que les députés avaient décidé d'interdire. Enfin le Sénat a adopté des articles sur les contrats électroniques, sur le renforcement des sanctions contre la cyber-criminalité, ainsi que sur le mode de calcul de la contribution des opérateurs au Fonds du service universel (FSU), en fixant celle-ci "au prorata du chiffre d'affaires" relatif à l'activité de télécommunication de chaque opérateur. Parmi les principaux amendements adoptés figure celui, adopté mardi soir avec l'accord du gouvernement et qui vise à encadrer et à protéger l'exercice par les collectivités locales de la fonction d'opérateur (exploitation de réseau et fourniture de service). Cet amendement très important précise que les collectivités territoriales et leurs groupements ne peuvent exercer une activité d'opérateur de télécommunications au sens du 15° de l'article L. 32 du code des postes et télécommunications qu'après avoir constaté une insuffisance d'initiatives privées propres à satisfaire les besoins des utilisateurs."Au-delà de nos divergences, au-delà de la très grande technicité du débat, chacun et chacune d'entre vous avait à chaque instant conscience de l'importance des enjeux et de la nécessité de rechercher les bons équilibres", a conclu Mme Fontaine, rappelant la nécessité de "réduire la fracture numérique" dans le pays.

Sénat : http://www.senat.fr/dossierleg/pjl02-195.html

Projet de loi pour la confiance dans l'économie numérique: Intervention du Sénateur Trégouët
Samedi, 28/06/2003 - 00:00

SENAT -Séance du 24 juin 2003

M. TRÉGOUËT. - Jamais, depuis les origines de l'humanité, notre monde n'aura changé aussi rapidement et pourtant nous n'en avons guère conscience, comme ces voyageurs qui, dans un T.G.V., ne réalisent pas qu'ils roulent à plus de 300 Km/h. Avons-nous bien conscience que dans les dix prochaines années, l'humanité aura accumulé autant de connaissances que des origines à nos jours ? Le volume des bibliothèques, pour la plupart virtuelles, aura doublé dans dix ans : c'est un phénomène majeur ! La planète se met en réseau : aujourd'hui, 500 millions d'êtres humains sont connectés ; dans cinq ans, ils seront un milliard ! Cette mutation profonde est accompagnée d'un développement extraordinaire de l'informatique ce qui nous permet de savoir quels seront les métiers de demain : chacun devra en effet ajouter du savoir à un signal. Quel que soit le lieu de résidence et de travail, il faudra recevoir un signal de qualité. Dans moins de dix ans, toutes les entreprises devront obligatoirement être connectées à un réseau à haut débit pour être reliées au monde. Cela sera aussi nécessaire que l'est aujourd'hui le raccordement à un réseau électrique ou téléphonique. Les habitudes de vie vont aussi profondément changer : dans « l'économie mondialisée » décrite par R. Reich, il ne sera plus nécessaire de se rendre chaque matin à son bureau après avoir été retardé par des embouteillages stériles pour être efficace. On pourra travailler de son domicile, à condition qu'il soit relié au réseau mondial. Le haut débit va devenir aussi important pour nous que ne le fut en son temps l'eau du robinet, lorsqu'elle remplaça le seau tiré du puits, ou l'installation de l'électricité et du téléphone. Nos demandes à l'égard du haut débit évolueront aussi très rapidement : les fichiers qui vont transiter seront de plus en plus lourds et il nous faudra des ordinateurs qui puissent les accueillir. La loi de Moore stipule que la puissance des ordinateurs double tous les dix-huit mois tandis que leurs prix restent stables. Cet axiome vaut pour le haut débit à l'heure actuelle, les 512 kilobits délivrés par l'A.D.S.L. semblent suffisants. Dans dix ans, chacun d'entre nous exigera 100 mégabits, soit vingt fois plus ! Or les scientifiques sont unanimes : si nous en arrivons là, il aura fallu quitter le domaine des électrons pour entrer dans l'ère des photons. Le cuivre et l'A.D.S.L. ne pourront alors plus suivre. Le verre sera devenu l'unique vecteur. Le réseau optique prendra alors toute sa dimension. Or, dix ans, c'est court ! Il faut s'y prendre dès maintenant si la France veut s'équiper d'un réseau optique digne de ce nom. Ne croyez pas que je sois original en disant cela : la Corée l'a fait et la plupart des pays industrialisés sont en train de se couvrir d'un tel réseau, à commencer par les États-Unis, le Japon, l'Allemagne et la Suède. Nous sommes le pays le plus en retard dans la mise en place de ce réseau alternatif. Pour ne parler que de nos voisins, plus de 90 % des Belges disposent du câble en sus de leur ligne téléphonique comme d'ailleurs huit Allemands sur dix. À cet égard, depuis plus de vingt ans, nous nous ingénions à suivre des solutions alternatives qui ne mènent nulle part : nos responsables politiques et nos ingénieurs ont voulu mettre des télévisions payantes sur les satellites, ils ont décidé le lancement de TDF1 et de TDF2 alors qu'ils oubliaient l'importance d'un réseau câblé alternatif ! Nous nous apprêtons à commettre une nouvelle erreur en estimant que l'A.D.S.L. qui permet d'apporter le haut débit à domicile sera suffisant dans le futur. Certes, cela pourra faire illusion pendant cinq ans, peut être sept... comme le firent les dernières locomotives à vapeur, superbes, mais qui ne purent rivaliser avec les locomotives électriques. Alors, le rêve cèdera la place à la réalité... À mes critiques, les ingénieurs de France Télécom rétorqueront qu'ils vont prochainement relier les différents serveurs par fibre optique. Ce n'est pas la bonne réponse car l'essentiel du coût résulte non pas des artères, mais du chevelu optique et coaxial que France Télécom n'a pas les moyens de construire. Seule une synergie entre l'État, les collectivités et l'initiative privée peut nous permettre de relever ce défi à temps (Applaudissements à droite), et de construire avec des financements croisés un réseau dont la propriété doit rester à la collectivité afin d'assurer la concurrence. Je regrette le glissement observable en matière de sanctions : les internautes n'ont pas à être jugés et censurés par des groupes privés. Si un juge ne peut connaître chaque cas, créons au moins une nouvelle structure : je vous propose de créer un conseil national de l'éthique sur internet. Si l'État n'assure pas sa responsabilité, des grands groupes prendront sa place. Comme le Premier ministre, vous parlez volontiers, Madame, de confiance et le mot figure même dans l'intitulé du texte, mais, le hasard a de ces énoncés, Intel développe le projet T.C.P.A., Trusted computing platform alliance, soit « Alliance par une informatique de confiance ». Comment ne pas évoquer ici « le tiers de confiance » auquel nous aurions confié des clefs de déchiffrement dont la sécurité eût été violée à la première réquisition. En effet, si ce projet est mené jusqu'à son terme, et il le sera inexorablement, tous nos ordinateurs seront dotés d'un des mouchards appelé - Fritz - en hommage au sénateur Fritz Holling qui se bat pour leurs généralisations ; votre ordinateur se bloquera si vous utilisez des logiciels qu'on vous aura prêtés ou si vos enfants ont chargé un film ou une musique sans avoir réglé les droits. L'ordinateur ne redémarrera qu'une fois votre situation régularisée. Les grands éditeurs de musique et de cinéma sont très favorables à un dispositif qui fera diminuer le piratage. Il suffit d'ajouter T.C.P.A. aux autres logiciels et systèmes d'exploitation développés par Microsoft comme Possport ou Palladium, pour mesurer les risques pour la liberté et la démocratie : de même que l'U.R.S.S. avait voulu répertorier toutes les machines à écrire et tous les fax, Microsoft tend à référencer tous les ordinateurs... Je veux enfin, Madame, vous remercier d'avoir présenté un texte alors que la précédente majorité nous avait annoncé à plusieurs reprises une grande loi sur la société de l'information. Vous avez eu le courage de tenir les engagements pris pendant la dernière campagne présidentielle envers la communauté des internautes. Nous devons avoir l'humilité de l'aborder en sachant qu'un serveur peut se déplacer à l'étranger mais que nous ne gagnerons pas le respect de nos citoyens si nous ne proposons pas des solutions réalistes et efficaces pour relever ce défi. (Applaudissements à droite et au centre.)

Sénat ; séance du 24 juin 2003 :

http://www.senat.fr/cra/s20030624/s20030624H21.html#toc22

Le DRM, parade au piratage des données ?
Samedi, 28/06/2003 - 00:00

Les leaders de l'informatique qui tentent par tous les moyens de protéger leurs produits du piratage ont mis au point un système qui permet, entre autres, de faire en sorte que les films ou les chansons s'auto-détruisent après un seul passage si les droits d'auteur n'ont pas été réglés. Chacun des "barons" du secteur a élaboré sa propre version du DRM, ou "digital rights management" (gestion des droits numériques) visant à protéger le contenu des logiciels, des DVD et autres CD. Dans un futur proche, le courrier électronique, les logiciels de tableurs ou le contenu des pages web seront sécurisés par des "verrous" numériques. Sun Microsystems a annoncé la semaine dernière qu'il prévoyait de sortir un nouveau logiciel pour protéger le contenu couvert par "copyright" stocké dans des téléphones mobiles et des cartes à puce. Warner Music vient pour sa part de sortir un titre de chanson sous forme de CD et DVD audio encodés censés être inviolables. Le marché de la sécurité informatique vise en premier lieu les entreprises, les administrations et les hôpitaux, qui tous stockent des données qui n'ont pas à tomber sous les yeux de n'importe qui. Mais ce sont les médias qui font le plus grand battage autour du DRM. Pour contrer le piratage des oeuvres qu'ils produisent, les producteurs de films et les éditeurs de musique ont mis au point de nouveaux supports bardés de codes informatiques censés empêcher ou limiter le commerce en ligne non autorisée ou le gravage. Des groupes tels que Sony ou Nokia sont à leur tour entrés dans le bal en équipant du DRM des systèmes hi-fi et des appareils portables pour faire en sorte que le contenu couvert par le "copyright" ne puisse être transféré d'appareil à appareil si le consommateur ne paye pas les droits. Tout en insistant sur le fait que l'accès à la musique, à la vidéo ou aux actualités sur n'importe quel gadget équipé d'un écran doit donner lieu au paiement de droits d'auteur, les groupes multimédia conviennent que leur marge est étroite entre le respect de ces droits et la satisfaction du consommateur. Un système qui introduirait trop de limitations pourrait être mal perçu du client. "Nous devons trouver des moyens d'atténuer le piratage permis par les formats (technologiques) ouverts tout en répondant à la demande des consommateurs pour de tels formats", explique Barney Wragg, vice-président d'eLabs, le département en recherche et développement technologique d'Universal Music. L'an dernier, Sony a fait bondir les amateurs de musique en sortant en Europe des CD de Céline Dion et deShakira ne pouvant être lus ni sur un PC, ni sur un Apple. Bien des difficultés initiales ont été réglées et les éditeurs de musique affirment qu'ilsvont continuer à sortir des CD et DVD protégés et des produits à télécharger qui expireront après quelques passages, le tout basé sur les derniers systèmes DRM. Leur talon d'Achille, c'est l'absence de normalisation. Les technologies DRM sont aussi variées qu'il y a de fournisseurs - qu'il s'agisse du titan de l'électronique grand public Philips ou du géant des logiciels Microsoft, qui va doter sa suite bureautique Office 2003 de systèmes de contrôle désignant quel utilisateur peut imprimer, copier ou faire suivre telles ou telles données. L'an dernier, Sony et Philips ont acquis pour 450 millions de dollars Intertrust, une firme américaine qui fait figure de pionnier dans la protection des droits numériques et possède la plupart des licences DRM. Le poids des deux acquéreurs pourraient permettre aux fabricants de matériels et aux éditeurs de logiciels de parler le même langage. "Il est très important de travailler ensemble pour ne pas troubler le consommateur", déclare Mike Tsurumi, responsable de la division Electronique de Sony pour l'Europe.

AFP : http://fr.news.yahoo.com/030616/85/39b23.html

Des fonctionnalités de Microsoft Word permettent l'injection de virus et la fuite d'informations
Samedi, 28/06/2003 - 00:00

Trois chercheurs, dont deux sont des militaires, affirment qu'une bonne partie des fichiers créés ou consultés par les internautes, et tout particulièrement les documents Word, recèlent des fonctionnalités cachées permettant l'injection de codes malveillants et la fuite d'informations confidentielles. Les antivirus et firewalls n'y peuvent rien ou presque : pour parer à ces problèmes de sécurité, il conviendrait donc d'apprendre à se protéger, voire de ne pas utiliser la suite Office de Microsoft (qui comprend les logiciels Access, Excel, Word, Outlook, etc.). Philippe Lagadec, ingénieur au Centre d'électronique de l'armement souligne que même s'il a été vérifié par un ou plusieurs antivirus, un fichier téléchargé ou consulté sur internet peut, "à l'insu de l'utilisateur et de l'administrateur, permettre l'"envoi de données confidentielles vers internet, l'installation d'une porte dérobée ou d'un logiciel de commande à distance sur le poste de l'internaute, la destruction ou la falsification de ses données, ou encore "l'écoute des mots de passes saisis au clavier ou circulant sur le réseau". Fait peu connu, le logiciel Microsoft Word comprend en effet des fonctionnalités cachées permettant, entre autres choses, de prendre connaissance des différentes étapes de la rédaction d'un document. Selon Patrick Chambet et Eric Filiol, dans le cas de Word, "il ne s'agit pas de failles", mais de "fonctionnalités conçues délibérément, certainement dans un souci d'ergonomie toujours plus grande, mais qui au final font de l'utilisateur une victime". Un document Microsoft Word peut fournir divers types de renseignements. Il contient notamment des informations sur son auteur. Il comprend, par défaut, son nom, celui de son entreprise, les dates et heures de la création et des dernières sauvegardes du fichier ainsi que le temps passé à l'éditer. Il peut aussi révéler le nom de la machine sur laquelle il a été créé, une partie de l'arborescence du disque dur de l'auteur, voire des informations sur la topologie du réseau interne à son entreprise ainsi que le Global Unique Identifier (GUID, identifiant unique attribué lors de l'enregistrement du système). Surtout, il permet de récupérer les modifications effectuées. A l'appui de leur démonstration, les auteurs citent, dans leur article, deux autres cas de fuites, moins connus qu'Alcatel, mais "particulièrement édifiants". Le premier a permis à un laboratoire de s'apercevoir que l'un de ses fournisseurs avait proposé des tarifs inférieurs à un laboratoire concurrent. L'étude détaillée du devis (un fichier Word) révéla en effet que la secrétaire du prestataire avait tout simplement repris le devis établi pour le concurrent, avant d'en modifier les tarifs à la hausse... Dans le second cas, les rédacteurs de MISC ont découvert la présence d'un e-mail compromettant dissimulé dans un document Word. Une société de presse les avait contactés pour vanter la sécurité des produits de l'un de ses clients. Le fichier, analysé, révéla le contenu complet d'un e-mail indiquant que la société de presse agissait bien en sous-main pour le compte de son client, et non de sa propre initiative. Autre faille permise par Microsoft Word, ce que les auteurs nomment les "word bugs". Similaires aux "web bugs" (liens dissimulés dans une page html permettant de surveiller ceux qui consultent la page), ces liens cachés dans un document Word peuvent donner des informations sur sa consultation. Ils peuvent ainsi révéler le moment où le fichier a été consulté, le lieu d'où cette consultation a été effectuée ainsi que diverses données concernant l'identité et l'environnement du lecteur et de sa connexion réseau, toutes informations utiles à un assaillant potentiel. Conclusion de Filiol et Chambet : "Les cas évoqués dans cet article sont d'autant plus effrayants qu'ils se reproduisent sans l'ombre d'un doute dans de nombreuses entreprises ou administrations, qui ne suspectent même pas ces 'fonctionnalités'. Combien d'entreprises mettent quotidiennement en péril leur activité ? Combien de services de l'administration, même parmi les plus sensibles, mettent en danger les données de l'Etat ?" Pour Philippe Lagadec, "cette menace est habituellement mal ou sous-évaluée, et les outils disponibles peu adaptés (...), il reste donc beaucoup de recherches à mener dans ce domaine". Il préconise un certain nombre de mesures en vue de se prémunir de ce genre de problèmes. En premier lieu, sécuriser son poste de travail en installant les dernières mises à jour de sécurité de son système d'exploitation ou de ses logiciels (à commencer par l'antivirus et autres outils de sécurité). Mais les documents créés au moyen de Word ne sont pas les seuls à contenir de tels codes malveillants, ou à occasionner des "fuites" d'informations potentiellement préjudiciables à l'auteur - ou au lecteur - d'un fichier. Le code source des pages HTML permet lui aussi l'insertion de tels scripts et codes malveillants de type virus informatiques ou "spywares". Ainsi, de même qu'il est fortement déconseillé d'ouvrir les pièces jointes aux e-mails (qui dissimulent souvent des programmes malveillants, quand bien même les mails semblent provenir de personnes de confiance), il est aussi admis qu'il vaut mieux désactiver les contrôles ActiveX ou javascript dans les logiciels de navigation internet et de courrier électronique. Pour éviter ces problèmes, Filiol et Chambet donnent deux règles. Ils conseillent d'une part de "ne jamais diffuser un document retouché. Il doit être créé ex nihilo et d'un seul jet" ; ils préconisent également l'utilisation "d'un traitement de texte libre et parfaitement compatible avec la suite Office", tels que OpenOffice (la version "libre", et gratuite, de Star Office), exempts de telles failles de sécurité.

Transfert : http://www.transfert.net/a8977

Besoin d'un médecin ? Un robot s'occupe de vous
Samedi, 28/06/2003 - 00:00

Au centre de soins pour personnes âgées Silverado Senior Living à Salt Lake City, les patients - tous atteints de maladies neurologiques (Alzheimer, etc.) - bénéficient désormais de consultations médicales à distance. L'établissement est en effet le cinquième aux Etats-Unis à s'équiper d'un système robotique permettant de mettre en relation les plus éminents spécialistes à travers tout le pays avec les pensionnaires et le service médical sur place. Le robot, mis au point par la société californienne InTouch Health, mesure entre 1m50 et 1m80 et représente virtuellement le médecin dans le centre. L'écran d'ordinateur qui sert de tête à la machine reproduit le visage et la voix du praticien, tandis qu'une caméra téléguidée lui renvoie, à plusieurs centaines de kilomètres de là, l'image et les paroles du patient. Le robot peut également se mouvoir en avant et en arrière, tourner sur lui-même ou encore baisser la tête et ainsi suivre les moindres déplacements du malade. Pour un coût de 3000 dollars par mois, Silverado entend grâce à ce nouvel outil améliorer la formation de son personnel et bien sûr la qualité de ses consultations. Un atout non négligeable pour les institutions qui n'ont pas les moyens d'engager des experts à plein temps.

USAT 18/06/03 :

http://www.usatoday.com/tech/news/techinnovations/2003-06-18-robot-senior-home_x...

Xerox prépare le papier intelligent
Samedi, 28/06/2003 - 00:00

L'ère du document électronique, on pensait la phase du zéro papier enfin accomplie. Retour en force. La feuille de papier devient, chez Xerox, l'interface privilégiée entre l'utilisateur et le photocopieur intelligent. Dotée d'une sorte de code à barres à peine perceptible à l'oeil - le Dataglyph, qui peut contenir plusieurs kilo-octets d'informations -, elle informe le copieur des fonctions demandées par l'utilisateur : traduction, classement, résumé, recherche d'un document... « L'administrateur préimprime à l'avance des feuilles avec leur Dataglyph. Et l'utilisateur coche des cases pour indiquer ses besoins. Il pourra obtenir, par exemple, une traduction en russe de son document rédigé en anglais, ou un résumé en dix lignes, et l'envoyer à un collègue à une adresse donnée » , explique Jean-Luc Meunier, ingénieur de recherche à Xerox Research Centre Europe - le XRCE de Grenoble, qui compte quatre-vingts ingénieurs de toutes les nationalités. Ces informations sont lues par le logiciel de reconnaissance de formulaires Flowport, à l'origine de l'invention de la feuille de papier intelligente. Cette technologie a été développée au centre de recherche du constructeur à Palo Alto, aux Etats-Unis. Objectif : améliorer considérablement la convivialité du photocopieur intelligent, dont les fonctions sont multiples. La partie concernant l'aide à la traduction automatique, mise au point par une équipe de linguistes, est déjà commercialisée par XXL, l'entité commerciale de XRCE. Mais elle n'est pas encore dotée de l'interface papier. Toutefois, précise-t-on chez Xerox : « Nous considérons que c'est, en soi, une véritable aide à la traduction, car le système traduit les expressions et les mots-clés qui permettent de comprendre un texte. Il s'appuie, pour cela, sur une analyse sémantique fine, qui étudie tous les mots employés. »

OINEt : http://www.01net.com/article/211984.html

Le prêt en bibliothèque devient virtuel
Samedi, 28/06/2003 - 00:00

Depuis un mois, la bibliothèque de Boulogne-Billancourt expérimente un nouveau service de prêt. Les titres numérisés sont téléchargeables gratuitement sur un assistant électronique, pour une durée de 8 jours. Le transfert s'effectue sur place à partir d'une station infrarouge ou en ligne sur un site réservé aux abonnés. Grâce au logiciel Mobipocket Reader, les ouvrages numérisés au format standard .prc peuvent être récupérés sur plusieurs supports : les principaux assistants personnels (Palm, Pocket PC, Psion), les Smart Phones (téléphones intégrant des fonctions d'assistant personnel, comme le P800, de Sony-Ericsson) et les tablettes numériques. « Le principe est remarquable. Je peux accéder depuis chez moi à une bibliothèque facile à transporter », explique Bertrand Strauss, lecteur retraité de 78 ans. Faisant partie des 25 premiers inscrits au nouveau service, il alimente et diversifie sa petite bibliothèque ambulante selon ses centres d'intérêt : informatique, philosophie, histoire, sociologie. Alain Patez, responsable multimédia de la bibliothèque de Boulogne, souligne que, contrairement aux idées reçues, la lisibilité est très bonne sur les assistants personnels, grâce à l'option d'agrandissement et au rétro éclairage. Les premiers retours le démontrent : « A notre grande surprise, les gens ne se contentent pas de consulter des ouvrages documentaires, types dictionnaires ou guides touristiques. Ils lisent des romans entiers et sont friands de littérature de loisir. » « Mais l'offre du catalogue et la durée de consultation restent limitées », regrette Bertrand Strauss. En effet, le catalogue ne compte aujourd'hui que 250 oeuvres et le prêt est restreint à deux titres « chrono dégradables » par lecteur. Au bout de 8 jours, le texte est automatiquement effacé de la mémoire du support électronique. Des accords ont été conclus avec Mobipocket et Numilog pour constituer et enrichir le catalogue. Mais il faudra attendre les nouvelles acquisitions pour prolonger la durée de prêt. « Comme pour l'imprimé, le droit fonctionne à l'exemplaire. Pour que deux lecteurs empruntent le même titre en même temps, il faut détenir deux licences d'exploitation. Pour avoir de nombreux lecteurs, il faudra de nombreux exemplaires », confie Alain Patez. Le prêt d'oeuvres numérisées reste un défi à relever pour les bibliothèques. Les déboires du livre électronique ont bloqué les initiatives. Christian Ducharme, enseignant à l'Enssib (École nationale supérieure des sciences de l'information et des bibliothèques), qui a mené une expérimentation de prêt de livres électroniques en bibliothèque, est pessimiste : « Les projets sont en veille. La faillite de Cytale a fait beaucoup de mal. Il n'y a aucun frein de la part du lecteur, mais les bibliothèques n'adhéreront pas à ce genre d'initiative tant que l'offre ne sera pas rétablie. » Le lancement par Virgin d'un service de téléchargement de livres numérisés à la rentrée prochaine redonnera peut-être un nouveau souffle à ce marché encore fragile.

OINet : http://www.01net.com/article/211988.html

^ Haut
Avenir
Nanotechnologies et Robotique
Les vêtements intelligents arrivent
Samedi, 28/06/2003 - 00:00

Il y a deux façons de faire des vêtements 'intelligents'", explique Roshan Shishoo, directeur de recherche à l'IFP Research à Göteborg, un institut spécialisé dans les technologies des fibres et des textiles. "Dans le premier cas, les sociétés d'électronique travaillent avec les industries textiles et introduisent des fonctions intelligentes dans le vêtement, par exemple en cousant dans une veste des détails électroniques externes. L'autre tendance, dotée d'un plus grand potentiel, est un domaine de recherche entièrement nouveau : on travaille sur des matériaux intelligents, sous la forme de polymères et de capteurs interactifs." Dans leur forme la plus simple, ces polymères sont des fibres en plastique dont la capacité à conduire l'électricité varie en fonction d'une influence physique, par exemple si elles sont étirées, chauffées ou si elles reçoivent les rayons du soleil. En tissant de telles fibres dans un vêtement, plusieurs fonctions peuvent être créées, comme la mesure du rythme cardiaque de la personne qui le porte ou l'enregistrement des mouvements de son corps. Un collant de sport développé par l'Institut de recherche sur les polymères intelligents, à Wollongong, en Australie, enseigne ainsi aux athlètes à plier davantage leurs genoux quand c'est nécessaire, par exemple lorsqu'ils atterrissent après un saut. Il les protège aussi contre les blessures des ligaments. "Nous avons placé un capteur textile sur une protection textile ordinaire, une chaussette de contention", explique Julie Steel, du Biomechanics Research Laboratory à l'université de Wollongong. "Le capteur couvre la partie externe de la rotule. Quand le sportif plie le genou, le capteur est étiré et sa résistance électrique est modifiée. Un avertisseur sonore est déclenché à partir d'une certaine limite d'étirement." D'autres applications pourraient être des pyjamas ou des chemises de nuit qui contrôlent en permanence le rythme cardiaque de l'utilisateur ou des vêtements qui modifient la capacité d'évacuation de la transpiration en fonction de la température et de l'humidité extérieures. Les experts en polymères pensent que l'on produira bientôt de tels vêtements. "Le principe pourrait être un réseau de carreaux de polymères dans lequel la pression pourrait varier à l'intérieur de chaque carreau", avance Mats Andersson du département de la technologie des polymères à l'Ecole supérieure technique de Chalmers à Göteborg. Même s'il existe depuis le début des années 70 des textiles extrêmement résistants faits de fibres de polymères comme le Kevlar, on essaie aujourd'hui de produire des textiles encore plus résistants, notamment grâce aux nanotubes de carbone. De petites feuilles composées d'atomes de carbone sont enroulées en forme de tubes dont les extrémités sont fermées par de petits bouchons. De tels nanotubes microscopiques sont cinquante fois plus résistants que du fil d'acier. Les chercheurs espèrent trouver un moyen de créer de longs fils avec ces tubes tissés ensemble afin d'obtenir un tissu extrêmement résistant tout en étant incroyablement léger. Les vêtements de demain posséderont de nouvelles fonctions, comme des tissus repoussant la poussière ou antitaches. Déjà aujourd'hui, l'industrie textile introduit des particules de dioxyde de titane dans ses produits afin de rendre le tissu plus blanc. "Le dioxyde de titane a une forte capacité catalytique, surtout au soleil. Résultat : les hydrocarbures et autres impuretés sont transformés en eau et en gaz carbonique", dit Lars Hultman. Toujours du côté des vêtements autonettoyants, une technique américaine consiste à éliminer les bactéries dans les tissus en découpant leurs membranes cellulaires avec de petits "couteaux" microscopiques fixés sur des molécules. "Notre projet a pour but de découvrir un tissu capable de maintenir la vie à l'intérieur de bactéries génétiquement modifiées. Ce sera aux généticiens de découvrir quel type de bactéries sera le plus à même de contrôler les odeurs, mais je suis persuadé que nous nous habillerons un jour avec des vêtements 'bioactifs'", dit le professeur Alex Fowler de l'Université du Massachusetts, à Darmouth. Alex Fowler utilise une variante génétiquement modifiée inoffensive de la bactérie Escherichia coli pour produire une protéine de méduse phosphorescente. Il est très optimiste. "Dans quelques années, on pensera plus à 'nourrir' sa chemise qu'à la laver", conclut-il.

Courrier international : http://www.courrierinternational.com/

Des nanotubes aux fibres textiles : une étape décisive est franchie
Samedi, 28/06/2003 - 00:00

Les propriétés mécaniques et électriques extraordinaires des nanotubes de carbone fascinent les scientifiques depuis plus de 10 ans. Mais l'un des grands défis pour les chercheurs consiste à exporter au niveau macroscopique les étonnantes propriétés des nanotubes dont la largeur n'excède pas quelques nanomètres (quelques milliardième de mètre). En s'appuyant sur des travaux français dirigés par Philippe Poulin, du Centre de Recherche Paul Pascal de Passac, une équipe américaine de l'Université de Dallas au Texas, dirigée par Ray Baughman, est parvenue à produire, en utilisant de l'alcool polyvinylique, un polymère industriel commun, une nanofibre plus résistante et plus légère que n'importe quel matériau naturel ou synthétique. Les fibres produites ont environ le diamètre d'un cheveu et mesurent plus de 100 mètres de long. Les chercheurs du Texas ont examiné les propriétés mécaniques de leurs fibres et les ont comparées aux valeurs connues pour 3.000 autres matériaux. Les fibres sont 20 fois plus résistantes que le fil d'acier, 17 fois plus résistantes que le Kevlar utilisé dans des gilets pare-balles, et 4 fois plus résistantes que la toile d'araignée, un matériau pourtant renommé pour ses extraordinaires propriétés mécaniques. Baughman et ses collègues travaillent également sur l'utilisation de ces nanofibres dans des dispositifs de stockage énergétique appelés supercondensateurs, qu'ils ont incorporés au tissu ordinaire. L'objectif est de réaliser des textiles électroniques légers, résistants et fiables, tels que des tenues de combat militaire avec antennes intégrées, capteurs biologiques et micro-batteries. Pour Philippe Poulain, du Centre de Passac, la mise au point de ces nanofibres est " une très bonne nouvelle dans le domaine de recherche des nanotubes," Il est vrai que de tels fibres pourraient trouver des applications dans une multitude de secteurs : énergie, automobile, industrie... Reste à présent à faire baisser le coût de production de ces nanofibres pour passer au stade de la production industrielle.

Science News : http://www.sciencenews.org/20030614/fob3.asp

^ Haut
Matière
Matière et Energie
Passage à l'hydrogène : un grand défi à relever d 'ici 2020
Samedi, 28/06/2003 - 00:00

La pile à combustible, porteuse d'espoir contre les graves conséquences climatiques des émissions de gaz à effet de serre dues à l'automobile et à la production d'énergie, a encore bien des défis à relever pour pouvoir faire partie du quotidien, ont estimé des experts à Tokyo. Inventée en 1839 par un Britannique, William Grove, elle produit de l'électricité par la réaction de la molécule d'hydrogène (H2) avec celle de l'oxygène de l'air (O2) et son seul rejet est de la vapeur d'eau (H2O). Outre l'automobile et les transports en commun, elle pourrait chauffer, climatiser, alimenter en électricité de grands ensembles tels qu'hôpitaux ou bâtiments, équiper des domiciles individuels et alimenter des ordinateurs portables. Mais son coût extrêmement élevé, son encombrement, les difficultés de transport et de stockage de l'hydrogène, très explosif, sont autant d'obstacles à sa diffusion, ont expliqué récemment des experts rassemblés à Tokyo à l'occasion de la Conférence mondiale du gaz. "On ne verra pas de large adoption (de la pile à combustible) par le marché tant que" son coût ne sera pas descendu à 1.000 dollars par kW, a déclaré Firoz Rasul, président de la société canadienne Ballard Power Systems. "Avant que l'on ne parvienne à de tels prix, la décennie touchera à sa fin". Le coût de revient de la production d'hydrogène est trois fois supérieur à celui du gaz naturel, note le Commissariat à l'énergie atomique (France). Les premières voitures à pile à combustible utilisées au monde, depuis décembre, sont louées une fortune en Californie et à des ministères à Tokyo par le géant japonais Toyota (1,2 million de yens par mois, 8.700 euros) et son compatriote Honda (800.000 yens). Le véhicule de Toyota (le FCHV) a un coût de production de plus de 100 millions de yen (722.400 euros), avait précisé en décembre Taiyou Kawai, responsable de la recherche du constructeur dans ce domaine. "La commercialisation de masse n'est pas pour demain. Cela prendra peut-être encore 10 ans", avait-il déclaré. L'autonomie de tels véhicules n'est généralement que de 300 kilomètres pour une vitesse maximale de 155 km/h en ce qui concerne le FCHV. A ces difficultés techniques s'ajoute un bémol quant aux réels bénéfices pour l'environnement, car l'hydrogène ne se trouve pas à l'état naturel et est en majorité produit actuellement à partir de gaz naturel avec émission de CO2, contribuant au réchauffement du climat, selon les spécialistes. "Compte tenu des techniques disponibles aujourd'hui, le bilan économique et environnemental de la filière hydrogène est discutable", a déclaré à l'AFP Olivier Appert, président de l'Institut français du pétrole (IFP), organisme public de recherche sur les hydrocarbures. Une voiture à pile à combustible utilisant de l'hydrogène produit à partir de gaz naturel émet tout de même deux à trois fois moins de CO2 qu'une voiture à essence "du puits de pétrole au pot d'échappement", a souligné Soji Tange, de l'Association japonaise des véhicules électriques. "Cela va bouger parce que des financements importants vont être mis en place", a affirmé M. Appert. Différents ministères japonais investissent dans la filière hydrogène 31,6 milliards de yens (228,3 M d'euros) sur l'année s'achevant fin mars 2004. Le président américain George Bush a annoncé en février un budget équivalent à 1,7 milliard de dollars sur cinq ans. L'Union européenne a lancé un projet comprenant le lancement de bus à hydrogène dans dix villes européennes en coopération avec le constructeur germano-américain DaimlerChrysler. Mais les piles à combustible "n'en sont pas au stade où leur adoption soit garantie et nombre de technologies concurrentes pourraient être développées à leur place", a conclu David Hart, de l'Imperial College (Royaume Uni). Le CEA, plus optimiste, prédit l'apparition de flottes de bus et véhicules utilitaires d'ici 2008, des piles stationnaires pour les bâtiments d'ici 2010 et la pénétration du marché automobile entre 2010 et 2020.

AFP : http://www.larecherche.fr/afp/n030615073316.9sv5uyi5.html

L'Islande veut devenir la première économie à l'hydrogène
Samedi, 28/06/2003 - 00:00

L'Islande pourrait bien devenir la première économie du monde libérée des combustibles fossiles émetteurs de gaz à effet de serre si elle parvient à produire suffisamment d'hydrogène pour les piles à combustible à partir de ses multiples sources d'énergie renouvelable. "C'est là notre objectif", a déclaré à l'AFP Ingimundur Sigfusson, ambassadeur d'Islande au Japon, où s'est récemment tenue la conférence mondiale du gaz. "L'Islande souhaite être devenue une économie à l'hydrogène d'ici l'année 2040", a-t-il précisé. Mais pour atteindre son objectif, elle "est dépendante du développement des technologies des piles à combustible et de stockage d'hydrogène, ce qui demeure un handicap", a-t-il concédé. La pile à combustible produit de l'électricité par la réaction de la molécule d'hydrogène (H2) avec celle de l'oxygène de l'air (O2) et son seul rejet est de la vapeur d'eau (H2O). Mais l'hydrogène est encore en majeure partie extrait du gaz naturel, processus qui émet du CO2, gaz à effet de serre. Pays volcanique de sources chaudes et de magnifiques chutes d'eau, l'Islande produit à partir de ressources renouvelables plus de 70 % de l'énergie qu'elle consomme: 50 % de géothermie et 20 % d'énergie hydraulique. Environ 90 % des maisons islandaises sont chauffées par de l'eau chaude souterraine et une part croissante de l'électricité est produite à l'aide de la vapeur des sources géothermiques. Le fait que 17% seulement de ses ressources géothermiques et hydrauliques aient été maîtrisées encourage cette île de l'océan Atlantique de 288.000 habitants à mettre fin à l'usage des combustibles fossiles. "Nous avons bon espoir qu'en utilisant ces ressources en énergie pour produire de l'hydrogène et en convertissant les transports à l'hydrogène, entre 90 et 95 % de nos besoins totaux en énergie seront satisfaits par des sources renouvelables", avait déclaré le 2 septembre le Premier ministre islandais David Oddsson au Sommet de la terre en Afrique du Sud. L'Islande fait partie du projet européen ECTOS (Ecological City Transport System) prévoyant que trois autobus à hydrogène DaimlerChrysler à pile à combustible commenceront de rouler le 31 août à Reykjavik. Le coût est couvert à 40 % par l'Union Européenne. La conversion de la grande flotte de bateaux de pêche du pays est un projet à plus long terme. Des sociétés mènent des recherches dans ce domaine, dont le groupe japonais de mécanique lourde et construction aéronautique Ishikawajima-Harima Heavy Industries (IHI).

AFP : http://www.larecherche.fr/afp/n030615104204.i0wwa276.html

La naissance de l'Europe de l'hydrogène
Samedi, 28/06/2003 - 00:00

Est-on en train d'assister à la naissance de l'Europe de l'hydrogène ? Si l'objectif est encore lointain - pas avant 2040-2050 - les experts du groupe «Hydrogène et piles à combustibles», créé par la Commission européenne en octobre dernier, ont proposé hier, lors d'une conférence organisée à Bruxelles, l'«agenda stratégique» et la «feuille de route» qu'il convient de suivre pour l'atteindre. L'appauvrissement prévisible des réserves d'énergies fossiles (gaz, pétrole, charbon), l'augmentation de la demande énergétique mondiale et le risque de changement climatique induit par les rejets de gaz à effet de serre (CO2 notamment), ont remis cette source d'énergie porteuse d'espoir sur le devant de la scène, tant pour la production d'électricité que pour le chauffage ou les transports. Mais son coût prohibitif (5 000 à 8 000 Û par kilowatt contre 30 à 50 Û par kW actuellement dans le transport individuel), les difficultés de transport et de stockage, du fait de son explosibilité, sont pour l'instant d'énormes obstacles. Sans compter que la production d'hydrogène, à partir de gaz naturel ou de pétrole, rejette d'importantes quantités de CO2 dans l'atmosphère... Pour surmonter ces défis, le groupe d'experts propose la création d'une plate-forme européenne sur les technologies de l'hydrogène réunissant sous une même bannière les centres de recherche et les industriels des pays membres de l'Union. Présente hier à Bruxelles, Claudie Haigneré s'est déclarée «favorable, sur le principe, à une participation française à cette structure». Le ministre français de la Recherche a identifié «trois verrous technologiques» qu'il convient de lever en priorité («le prix», «la fiabilité» et «l'impact environnemental») par de grands accords de partenariat public-privé. En marge de la conférence, un accord de coopération et de recherche, portant notamment sur le développement de véhicules et de groupes électrogènes fonctionnant à l'hydrogène, a été signé entre les États-Unis et l'Union européenne. L'Administration Bush, qui mise beaucoup sur cette énergie du futur, a demandé au Congrès de débloquer 1,7 milliard de dollars sur cinq ans pour cette recherche. Soit presque trois fois plus que le budget dégagé par l'UE pour la période 2002-2006.

Figaro : http://www.lefigaro.fr/sciences/20030617.FIG1279.html

^ Haut
Espace
Espace et Cosmologie
Les dernières observations spatiales confortent l'hypothèse d'un univers fini
Samedi, 28/06/2003 - 00:00

Les équations de la relativité générale (1916) autorisent les deux solutions, Univers fini ou infini. Toutefois, ces dernières décennies, un modèle standard de la cosmologie s'est imposé suite à la théorie de l'inflation selon laquelle, tout juste après le Big Bang, l'Univers primordial aurait connu une phase d'expansion aussi brève que considérable. L'inflation a pour corollaire un Univers infini et "plat". Cette traduction du flat anglo-saxon n'implique évidemment pas que le cosmos est plat comme une limande mais que l'espace-temps n'est pas courbé et que s'y applique la géométrie euclidienne apprise à l'école. En bref qu'un vaisseau intergalactique partant de notre planète et voyageant toujours dans la même direction s'éloignerait indéfiniment de la Terre. On le comprend aisément, dans un tel Univers infini, se poser la question de la forme ne se justifie plus. Cet article s'arrêterait donc ici sans quelques équipes de cosmologistes récusant le dogme du modèle standard et rappelant notamment que, bien avant la deuxième guerre mondiale, les pères du Big Bang, le Russe Alexandre Friedmann et le Belge Georges Lemaître avaient choisi un Univers "sphérique", c'est-à-dire un Univers fini dont l'espace-temps est courbé. En France, Jean-Pierre Luminet est un de ces frondeurs. Dire que l'Univers est fini n'implique pas qu'il ait un bord (car, dans ce cas, on est en droit de se demander ce qu'il y a au-delà). Si l'on considère un explorateur situé au pôle Nord et filant plein sud, au bout de 20 000 kilomètres de cette trajectoire rectiligne, il atteindra le pôle Sud puis, continuant tout droit, finira par revenir vers son point de départ. Si l'on ajoute une troisième dimension et que l'on introduit un vaisseau intergalactique dans cet Univers sphérique, il finira, de même, par revenir sur Terre s'il voyage toujours dans la même direction. Sur le plan cosmologique, prétendre que l'Univers a une courbure positive équivaut à dire que sa densité de matière et d'énergie - il s'agit en fait de la même chose, comme l'explicite la célébrissime formule e = mc2 -, appelée oméga (Ω), dépasse un seuil critique de 1. Si Ω est égal à 1, la courbure est nulle et l'espace euclidien. Tout le but du jeu consiste donc à peser l'Univers pour déterminer Ω... Mais, en l'absence de balance adéquate, comment faire ? Heureusement, les astrophysiciens disposent d'un merveilleux instrument de mesure indirect grâce au rayonnement fossile, cette reli-que d'un événement spectaculaire survenu 380 000 ans après le Big Bang. A cette époque, le jeune Univers s'est suffisamment refroidi pour que les électrons, moins excités, commencent à s'associer aux noyaux atomiques. Ce faisant, ils laissèrent passer la lumière. D'opaque, le cosmos devint subitement transparent et, du même coup, éblouissant. Le rayonnement fossile se capte dans le domaine des micro-ondes, tâche du satellite WMAP (Wilkinson Microwave Anisotropy Probe, NASA - université de Princeton). Des minuscules fluctuations de température de ce fond de ciel, les scientifiques peuvent extraire de multiples informations telles que la densité d'énergie de l'Univers. Au cours des précédentes mesures, moins précises que celles du WMAP, Ω se trouvait dans une frange plus ou moins centrée autour de 1. Aucun problème pour le modèle standard, donc. Mais, en février, la publication des premiers résultats de WMAP a redonné espoir aux adeptes d'un Univers plus exotique. On y lisait que Ω était compris entre 1 et 1,04. La valeur de 1, synonyme d'Univers euclidien, figurait bien dans la fourchette mais à la marge... Si les données de WMAP sont justes, elles marqueront peut-être la revanche des partisans des Univers aux formes exotiques et aux propriétés aussi étranges que fascinantes. Le glas sonnerait également pour le dogme de l'inflation, qui prévoit un Univers extraordinairement grand. "Si on montre un jour que l'Univers est fini, il faudra tout recommencer, confirme Simon Prunet. J'imagine qu'en ce moment une bonne partie des théoriciens de l'inflation doivent chercher à concevoir des modèles qui mènent à un Univers fini." Si l'on parvient un jour prochain à déterminer la forme du cosmos, une autre question se posera : pourquoi l'Univers a-t-il "choisi" cette forme ?

Le Monde : http://www.lemonde.fr/article/0,5987,3244--324250-,00.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La désertification menace la subsistance de plus d'un milliard de personnes
Samedi, 28/06/2003 - 00:00

La désertification concerne environ 30% de la surface de la Terre et menace les moyens de subsistance de plus d'un milliard de personnes, a affirmé le secrétariat de l'ONU sur la désertification, l'UNCCD, mardi à Hambourg (nord de l'Allemagne).Si le désert continue à avancer au même rythme, dans trente ans la surface arable se réduira à 0,16 hectare par tête, ce qui risque de menacer la sécurité alimentaire, a déclaré le président de l'UNCCD, Arba Diallo, à l'occasion de la journée de lutte contre la désertification. De plus en plus de personnes, avant tout en Afrique et en Asie, doivent quitter leur terre, qui n'est plus arable. En Chine, 2,62 milliards de km2 sont concernés par le phénomène, selon la même source. Les origines de la désertification sont multiples: les changements naturels y contribuent pour une mince partie, tandis que le pâturage intensif, le déboisement et l'insuffisance de l'approvisionnement en eau sont les causes principales, selon M. Diallo. "On ne peut pas reprocher aux hommes du Tiers-monde de surexploiter leur terre pour survivre. Ils n'ont pas d'autres possibilités car ils sont dépendants de leur terre", a relevé le président.

AFP : http://fr.news.yahoo.com/030618/202/39g4m.html

Un siècle qui s'annonce caniculaire
Samedi, 28/06/2003 - 00:00

Pannes de trains, coupures d'électricité, hausse de la pollution à l'ozone dans les agglomérations : la canicule des derniers jours s'est accompagnée de multiples désagréments. Mais ce qui nous apparaît aujourd'hui exceptionnel devrait, selon Météo-France, peu à peu devenir la norme. Michel Déqué, du Centre national de recherches météorologiques de Météo France, a lancé lundi un avertissement lors du premier colloque organisé par le nouvel observatoire sur les effets du réchauffement climatique (ONERC). Cet organisme consultatif vise une meilleure prise en compte de l'effet de serre dans les DOM-TOM, particulièrement menacés par le changement climatique. Si rien ne vient contrarier le réchauffement climatique, des températures maximales de plus de 35 degrés frapperont le Midi "un jour sur trois" en 2070 l'été, selon Michel Déqué. Elles seront aussi beaucoup plus fréquentes dans le Nord, "à Paris ce sera un jour sur dix". Actuellement, les chances de voir le thermomètre dépasser 35 degrés en été sont inférieures à 1 % dans le Nord et comprises entre 1 et 5 % dans le Sud. Côté froid, en hiver une minimale inférieure à 5 degrés, actuellement rare dans l'ouest du pays, deviendrait "quasi inexistante" à la fin du siècle. "Assez fréquemment" enregistrée aujourd'hui dans l'Est, elle serait très rare mais "encore possible" dans cette région.

TF1 : http://www.tf1.fr/news/sciences/0,,1079825,00.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Polyarthrite rhumatoïde : et si tout se jouait à la naissance ?
Samedi, 28/06/2003 - 00:00

Plusieurs facteurs liés à la période périnatale pourraient influer sur le risque de survenue d'une polyarthrite rhumatoïde. Une information d'autant plus importante que la cause de cette maladie reste pour le moment inconnue. L'équipe de Lennart Jacobsson, de l'université de Malmö en Suède, a suivi 77 patients tous atteints de polyarthrite rhumatoïde et les a comparés à 308 sujets sains. A partir des données recueillies dans les dossiers hospitaliers des maternités, les auteurs ont comparé le poids de naissance, l'âge de la mère à l'accouchement, la durée de l'hospitalisation, le début de l'allaitement et enfin le type d'activité professionnelle du père...Il ressort de cette compilation qu'un poids de naissance élevé (supérieur à 4 kg) serait lié à la survenue d'une polyarthrite rhumatoïde. L'allaitement maternel au cours du séjour à la maternité et le fait que le père occupe un emploi manuel constitueraient également deux facteurs de risque direct. Mais ce n'est peut-être pas tout. Selon l'auteur, l'exploration de la période périnatale n'aurait pas encore livré tous ses secrets.

BMJ : http://bmj.com/current.shtml

Grippe: un premier vaccin par voie nasale approuvé pour le marché américain
Samedi, 28/06/2003 - 00:00

Le premier vaccin contre la grippe administré par voie nasale a été approuvé pour le marché américain, a-t-on appris auprès de l'Agence fédérale pour la sécurité alimentaire et pharmaceutique (FDA).Il s'agit également du premier vaccin contre cette maladie utilisant un virus actif approuvé aux Etats-Unis, a précisé l'agence en donnant l'autorisation de mise sur le marché de FluMist, contre les virus A et B de la grippe. Le vaccin est préconisé pour les enfants à partir de 5 ans et les adultes. Il devrait être disponible pour la prochaine saison de vaccination, à l'automne. La grippe provoque environ 36.000 décès par an aux Etats-Unis. L'infection touche d'abord les enfants de 5 à 14 ans, mais la mortalité est la plus forte chez les personnes dont l'organisme est affaibli par d'autres maladies, les enfants de moins de deux ans et les personnes de plus de 65 ans, selon les Centres de contrôle et de prévention des maladies (CDC) américains. "Ce nouveau vaccin fournit une autre option pour la protection contre la grippe", particulièrement chez "les personnes qui n'aiment pas les piqûres, comme les enfants en bonne santé de plus de 5 ans", a estimé le responsable de la FDA, Mark B. McClellan. Ce nouveau vaccin sera efficace contre au moins trois souches du virus de la grippe pour la saison 2003-2004: deux souches du virus de type A, qui cause les épidémies les plus graves, et une souche du virus de type B.

AFP : http://fr.news.yahoo.com/030618/202/39hfx.html

Un vaccin contre le mélanome d'ici cinq ans
Samedi, 28/06/2003 - 00:00

Un traitement contre le mélanome mis au point en Australie pourrait être disponible d'ici cinq ans après des tests qui ont permis à plusieurs patients en phase terminale de vaincre la maladie. Le gouvernement de l'Etat du Queensland a indiqué que la dernière série de tests du vaccin contre le mélanome (cancer de la peau), permettant ensuite l'homologation du produit, était désormais entreprise. Le traitement peut potentiellement empêcher la mort de milliers de personnes dans le monde, a indiqué dans un communiqué le Premier ministre du Queensland, Peter Beattie, qui devait faire part de ces recherches lors d'une conférence médicale lundi à Washington. Le Queensland, surnommé l'Etat du soleil, a le plus fort taux de mélanome d'Australie et l'un des plus élevés au monde, en raison de sa population européenne au teint clair et de son climat particulièrement chaud dans le sud et tropical au nord. On estime que dans cet Etat un habitant sur 25 développe un mélanome à un moment donné de son existence. M. Beattie a indiqué que le Queensland "avait maintenant pris la tête de la course pour découvrir un traitement contre ce cancer virulent de la peau". Le responsable du programme de recherches, Chris Schmidt, a indiqué que la dernière phase d'essais porterait sur le traitement de 200 personnes du Queensland atteintes d'un cancer de la peau et que les résultats pourraient être connus d'ici cinq ans.

AFP : http://au.news.yahoo.com/030623/19/kjxl.html

Cancer de la prostate : deux nouveaux traitements donnent des résultats remarquables
Samedi, 28/06/2003 - 00:00

Des spécialistes français ont présenté le 23 juin le premier traitement par ultrasons du cancer de la prostate, deuxième cause de mortalité par cancer en France et premier cancer chez l'homme après 50 ans. Fruit d'une collaboration de plus de dix ans entre l'Institut national de la santé et de la recherche médicale (Inserm), les Hospices Civils de Lyon et la société EDAP, spécialiste français des ultrasons thérapeutiques, l'Ablatherm a été présenté à l'occasion du 3ème congrès international sur les ultrasons thérapeutiques qui se tient à Lyon jusqu'au 25 juin 2003. Son principe repose sur la destruction des tissus tumoraux par des ultrasons de haute intensité émis par voie endorectale. L'émission de ces ultrasons s'accompage localement d'une élévation brutale de température qui induit une nécrose des tissus. L'appareil permet à la fois de visualiser la prostate et de réaliser le traitement de la zone ciblée. A l'aide d'un ordinateur, le médecin dirige la sonde à l'intérieur du rectum vers la prostate et commande l'émission (le "tir") des ultrasons. La destruction du volume prostatique choisi est obtenue en répétant les tirs à plusieurs reprises (500 en moyenne) et en déplaçant le faisceau entre chaque émission. Un logiciel de contrôle permet à l'opérateur de bien délimiter le volume ciblé pour protéger les parties environnantes: aucune énergie n'est délivrée en dehors de la partie traitée. Ce traitement est dit peu "invasif" car, contrairement à d'autres méthodes, il se réalise sans abord chirurgical, sans même aucune effraction de la peau. Il épargne ainsi au maximum les organes avoisinant la prostate. Le patient entre à l'hôpital la veille. Après le traitement, une sonde urinaire est mise en place, qui est retirée deux ou trois jours plus tard. Le patient peut alors partir dans la plupart des cas. Le suivi des patients traités à l'hôpital Edouard Herriot à Lyon a permis d'établir un taux de guérison, sans récidive à cinq ans, de 85% chez les patients bénéficiant d'un pronostic favorable avant le traitement. En l'absence de résultats à très long terme (15 ans), les urologues continuent de conseiller ce traitement aux patients ayant une espérance de vie de l'ordre de 10 ans, c'est-à-dire aux hommes de plus de 70 ans. De leur côté, des chercheurs australiens ont enregistré en trois ans un taux de guérison de 90 % du cancer de la prostate avec un minimum d'effets secondaires. Le traitement mis au point par l'équipe australienne allie brachythérapie (introduction d'implants radioactifs dans une zone cancéreuse) et radiothérapie, a été mis au point par des médecins de l'Hôpital Saint Vincent de Syndey, avant d'être développé aux Etats-Unis puis testé avec succès en Australie sur 82 patients atteint à des degrés divers d'un cancer de la prostate. Les résultats de ces recherches, démontrant que ce traitement pouvait constituer une thérapie définitive pour un cancer de la prostate localisé, viennent d'être publiés dans le journal Radiologie Australasienne. Ce traitement convient notamment aux personnes atteintes d'un cancer agressif qui a résisté aux traitements plus conventionnels. "La combinaison de la brachythérapie à taux élevé et de rayons est techniquement et cliniquement réalisable pour guérir de manière définitive un cancer de la prostate localisé", a indiqué l'équipe médicale. Le responsable du service d'urologie de l'hôpital St Vincent, Dr Phillip Stricker, a indiqué que les traitements très ciblés étaient une solution alternative pour les patients atteints de cancers agressifs. "La brachythérapie à haute dose a été développée pour tenter de guérir les patients qui n'ont pu être soignés auparavant par la chirurgie et pour limiter les dégâts sur les tissus adjacents", a-t-il indiqué.

Brève rédigée par @RT Flash

Caducée : http://www.caducee.net/afp/edit.asp?id_depeche=16491

AP : http://fr.news.yahoo.com/030623/5/39wic.html

Des chercheurs retracent l'histoire du virus du SIDA chez deux petits singes africains
Samedi, 28/06/2003 - 00:00

Une équipe internationale de chercheurs a retracé l'origine du virus du SIDA: ils ont isolé chez deux espèces de singes africains deux souches de virus distinctes qui se sont combinées chez les chimpanzés pour former le VIH qui infecte les humains depuis les années 1930. Les scientifiques avaient déjà établi que le virus d'immunodéficience simienne (VIS) retrouvé chez les chimpanzés, était à l'origine du VIH-1 responsable chez les humains du SIDA. Ils pensent aujourd'hui que les chimpanzés ont contracté le VIS en mangeant la viande de petits singes, avant de le transmettre à l'homme par la même voie. Des spécialistes américains, britanniques et français ont analysé la structure génétique de plusieurs souches de VIS présentes chez les singes africains. Selon eux, au moins deux de ces souches, retrouvées chez le singe hocheur et le cercocèbe à collier blanc d'Afrique centrale, se sont combinées pour former le type de virus qu'on retrouve aujourd'hui chez les chimpanzés. C'est ainsi que s'est formé le virus à l'origine chez l'homme de l'épidémie de SIDA qui a tué plusieurs millions de personnes, rapporte ce groupe de chercheurs dans la revue "Science". "La recombinaison de ces virus a eu lieu chez les chimpanzés et ceux-ci l'ont transmis aux hommes à au moins trois occasions", dit Frédéric Bibollet-Ruche, virologue de l'Université d'Alabama et co-auteur de cette étude réalisée notamment en partenariat avec l'université de Montpellier. Trois types de VIH-1 -appelés M, N et O- sont ainsi passés des chimpanzés aux hommes. "Le transfert du chimpanzé à l'homme est probablement intervenu avant 1930", juge M. Bibollet-Ruche. L'homme a sans doute contracté la maladie en consommant du chimpanzé, par exemple en se coupant en préparant la viande. D'autres études avaient déjà établi qu'un autre type du virus, le VIH-2, a été transmis à l'homme directement par le mangabey d'Afrique de l'Ouest, sans passer par l'intermédiaire du chimpanzé. Les singes porteurs de ce type de virus représentent toujours un risque de contamination possible: le VIS pourrait, en théorie, être transmis à l'homme et déclencher une nouvelle immunodéficience. "Ce n'est pas une si bonne idée de chasser et de manger du singe", observe Frédéric Bibollet-Ruche, qui met en garde contre les dangers d'exposition au VIS. Contrairement aux humains séropositifs, les singes infectés par le VIS ne développent pas de maladie. Le virus s'attaque à leurs globules blancs, mais ne provoque pas de baisse de leur nombre chez l'animal. Chez les hommes, le VIH détruit les lymphovytes et fini par anéantir les défenses immunitaires: les malades sont alors victimes de nombreuses infections opportunistes qui sont d'ordinaire facilement combattues par les défenses naturelles.

Science du 13-06-2003 :

http://www.sciencemag.org/cgi/content/full/300/5626/1713?etoc

Le gouvernement lance un plan en faveur des biotechnologies
Samedi, 28/06/2003 - 00:00

Visitant le 19 juin plusieurs entreprises innovantes du Rhône, notamment BioMérieux, Nicole Fontaine a annoncé en avant-première les grandes lignes de son « plan biotech », qui sera précisé à l'automne 2003 et qui devrait entrer en vigueur au 1er janvier 2004. Voulu par le président de la République, ce plan d'action gouvernemental 2004-2008 viendra compléter le « plan cancer » annoncé récemment par Jacques Chirac. « Notre objectif est simple : que les biotechnologies françaises bénéficient du plus fort taux de croissance en Europe. Nous serons ainsi dans le lot de tête des pays européens, avec le Royaume-Uni et l'Allemagne, dans une Europe qui doit également combler son retard vis-à-vis des Etats-Unis », indique Nicole Fontaine. En pratique, le « plan biotech » concocté avec les ministères de la Recherche et de la Santé comporte deux volets : « D'une part, permettre l'émergence de cinq biopôles de réputation internationale en France, d'autre part, doubler la part des moyens d'intervention du ministère de l'Industrie en faveur des biotechnologies ». Concernant les biopôles, Nicole Fontaine ne cache pas que « pour être efficace, il faut concentrer les aides sur quelques pôles d'excellence. Le saupoudrage dans ce domaine n'est pas bon ». Avant d'ajouter que « Lyon aura toute sa place » parmi les cinq biopôles prévus. Ces biopôles devront favoriser la coopération entre laboratoires publics et privés, établissements hospitaliers, entreprises et sociétés de services. A propos du doublement des moyens du ministère de l'Industrie pour les biotechnologies, la ministre admet que ceux-ci sont limités actuellement à 13 millions d'euros par an. Ils devraient donc augmenter substantiellement dans les trois ans et surtout « être mieux coordonnés avec les actions des régions ». Par ailleurs, Nicole Fontaine rappelle qu'un plan en faveur de l'innovation va être également lancé en 2004. Les mesures, qui seront annoncées à la rentrée, prévoient principalement des crédits d'impôts évalués à 200 millions d'euros, pour les entreprises de moins de 8 ans qui consacrent une part importante de leurs revenus à la recherche.

Progrés : http://www.leprogres.fr/infosdujour/francemonde/175212.html

L'activité intellectuelle régulière semble réduire ses risques de démence
Samedi, 28/06/2003 - 00:00

L'activité intellectuelle régulière d'une personne âgée paraît réduire ses risques de démence et notamment la survenance de la maladie d'Alzheimer, selon une longue étude menée sur le sujet, publiée jeudi aux Etats-Unis.La lecture, les jeux de réflexion, la pratique d'un instrument de musique, ainsi que la danse, ont été associés à un risque réduit de démence parmi les 469 personnes de plus de 75 ans suivies durant cette étude débutée il y a 21 ans, rapportent ses auteurs. La participation à l'une de ces activités une fois par semaine a réduit de 7 % le risque de démence au sein du groupe étudié, et ce risque a chuté de 63 % chez les personnes comptant au moins 11 jours par mois d'activité mentale, selon les travaux publiés dans le New England Journal of Medicine. Ses auteurs soulignent cependant que l'étude "ne signifie pas que des sujets intellectuellement moins actifs augmentent leurs risques de démence". Ils insistent aussi sur le caractère non représentatif de la population étudiée, constituée uniquement de personnes de plus de 75 ans, majoritairement blanches, "ce qui limite la généralisation de nos résultats", alors que la démence frappe une population générale de personnes de plus de 65 ans. Les chercheurs concluent prudemment que "s'il y a une relation de cause à effet, la participation à des activités de loisirs pourrait augmenter la réserve cognitive, retardant le déclenchement clinique ou pathologique de la démence". Alternativement, "la participation à des activités cognitives pourrait ralentir le processus pathologique de la maladie", ajoutent-ils. A l'appui de sa réflexion publiée dans un éditorial de la même revue, il cite une autre étude menée sur des religieuses et des journaux spirituels rédigés dans leur jeunesse. L'étude montrait, selon le psychiatre, que les religieuses utilisant la syntaxe la plus complexe au début de leur vie étaient aussi celles qui avaient le moins de risques d'être atteintes de démence à un âge avancé.

NEJM : http://content.nejm.org/cgi/content/short/348/25/2508

La timidité pourrait avoir une composante génétique
Samedi, 28/06/2003 - 00:00

En présence d'étrangers, le cerveau des timides sécréterait une substance particulière, selon une étude américaine publiée par la revue "Science". Des chercheurs de l'Université de Harvard sont parvenus à ces résultats en analysant les scanners pratiqués sur un groupe de jeunes de 22 ans, que leur comportement observé dans l'enfance, à l'âge de deux ans, avait permis d'étiqueter timides. Selon Jérome Kagan, chercheur au sein du département de psychologie de Harvard, les scanners des personnes jugées inhibées et timides à l'âge de deux ans montraient qu'une région du cerveau répondait de façon plus significative à certains signaux que la même région des cerveaux d'enfants jugés au même âge extravertis."Ces enfants ont maintenant 22 ans, une grande partie de ceux qui étaient craintifs ne le sont plus aujourd'hui, ils ont réussi à dépasser ce problème, et pourtant ils présentent toujours une zone cérébrale hyperactive", a observé Jérome Kagan. Les chercheurs de Harvard ont mené l'étude sur 13 enfants qualifiées de timides à l'âge de deux ans, et les résultats ont été comparés avec ceux de neuf enfants considérés, eux, comme extravertis et audacieux au même âge. Tous les sujets ont été exposés à une série de photos prises de face et ne présentant aucune expression particulière. Après qu'ils se sont habitués à ces images, on leur a présenté de nouvelles photos, de nouveaux visages. Les chercheurs ont ensuite analysé sur le scanner les modifications provoquées au niveau de la zone cérébrale en cause. Selon les résultats, les cerveaux des enfants timides étaient plus actifs que ceux des autres. "Ceci prouve que la raison de leur timidité dans l'enfance s'explique par l'hyperactivité de cette zone cérébrale", a estimé Kagan. D'après lui, "ceci suggère que la timidité pourrait être un trait de caractère héréditaire". Toutefois, a-t-il ajouté, "des études plus poussées sont nécessaires, menées sur un plus grand nombre de personnes". Une timidité extrême peut faire le lit de troubles psychologiques plus importants, notamment de phobies sociales et de dépression. Selon Kagan, le fait de trouver à ce trait de caractère une origine organique pourrait permettre la mise au point de traitements pour des personnes très handicapées.

Science du 20-06-2003 : http://www.sciencemag.org/content/current/

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top