RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 228
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 31 Janvier 2003
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'e-commerce pèse 2 milliards d'euros en France
L'équipement en NTIC ne progresse plus dans le G4
Une étude de l'ART prévoit un avenir difficile pour l'économie du câble en France
Avenir
Le sous-sol décodé par les "codas" sismiques
Les nanotechnologies, secteur d'avenir où la France est "trop timide"
Les nanotechnologies une nouvelle fois à l'honneur au Sénat
Matière
Des laboratoires virtuels pour imaginer le bureau intelligent
L'Alsace mise sur la géothermie
Espace
Les profondeurs de Mars plus riches en eau que celles de la Terre
Vivant
Des cellules souches pour traiter la sclérose en plaques
La combinaison des huiles de plante et de poisson assure une meilleure prévention des maladies cardiaques chez les femmes
Un Français sur sept meurt des conséquences d'une consommation excessive d'alcool, selon une étude
Attaques cardiaques et cérébrales : le profil des patients évolue
Les fumeurs précoces de cannabis auraient un risque plus grand de consommer d'autres drogues
Le premier greffé des deux mains dresse un bilan positif de sa rééducation
Des veines artificielles enduites de cellules humaines
Une imprimante à jet d'encre pour produire des organes
Premier chat cloné : la copie ne ressemble pas à l'original
Homme
Les enfants de famille monoparentale seraient psychologiquement plus fragiles
Recherche
Bientôt les voitures lèveront le pied pour nous
Edito
Le câble en France : C'est un 4e scénario qu'il faut mettre en oeuvre



L'étude sur l'économie du câble que vient de publier l'ART (Autorité de Régulation des Télécommunications) est désespérante, car elle ne laisse pas de place à la prospective. (voir étude de l'ART www.art-telecom.fr/publications/etudes/jlm/syn-jlmjan03.htm ). Aucun des trois scénarii proposés n'est satisfaisant car ils s'appuient tous sur une démarche défensive sinon sur la résignation. Le développement actuel de l'ADSL ne doit pas masquer l'horizon. Il est indubitable que cette technologie utilisant les centaines de millions de lignes téléphoniques existant déjà dans le monde, connaîtra un très large succès, pendant ces prochaines années. Mais, lorsque tous les usages (très nombreux) qui sont actuellement en gestation, seront activés (télévision numérique sur l'ordinateur, vidéotransmission, vidéosurveillance, les jeux en 3D, l'image animée omniprésente, etc...) ce n'est plus 512 K/Bits ni même 10 Méga/Bits qui seront nécessaires par foyer, mais 100 ou 200 Mbits, surtout si nous prenons en considération l'interactivité permanente qui va se créer entre les êtres humains, leurs lieux de résidence, de travail ou de loisirs et tous les objets qui, alors, nous entoureront. Comme j'ai l'habitude de le dire dans ces colonnes depuis plusieurs années, la Loi de Moore (doublement des performances tous les 18 mois et ce pour des coûts stables), va dorénavant s'appliquer au débit dont chacun disposera, comme elle s'applique depuis plus de 30 ans au processeur de l'ordinateur de Monsieur Toutlemonde. Ainsi, si nous prenons comme origine les hauts débits (ADSL ou câble), dont les utilisateurs peuvent aujourd'hui disposer (500 KBits), c'est dans une décennie (en 2013) que chaque accédant au haut débit devrait pouvoir disposer de 100 à 200 Mbits. Or, toutes les études menées dans tous les laboratoires du monde mettent en évidence que pour atteindre de telles performances, le photon devra s'être substitué à l'électron. Ceci signifie simplement qu'à échéance d'une décennie, les réseaux physiques ne devront plus être en cuivre, mais en verre qui, seul, est capable de guider la lumière. Aussi, à la suite de l'étude publiée par l'ART, il ne faudrait pas croire que les réseaux câblés n'ont plus d'avenir. Tout au contraire. Dix ans c'est bien court pour nous qui partons avec un tel retard sur les autres Pays développés du Monde (sauf les Pays du sud de l'Europe...), pour être au rendez-vous de l'Internet 2 (Très Haut Débit) qui sera aussi nécessaire à chacun de nous dans 10 ans que l'est aujourd'hui l'électricité ou le téléphone. Aussi, je demande à tous les responsables de notre Pays de ne pas tirer des conclusions hâtives de l'étude qui vient d'être publiée par l'ART. Il ne faut surtout pas que les centaines et les centaines de projets de câblage, qui sont actuellement en gestation dans de nombreuses collectivités de France, soient mis au placard pour attendre des jours meilleurs. En effet, au-delà des 3 scenarii proposés par l'étude de l'ART, dont aucun n'est satisfaisant, je suis convaincu que, très rapidement, c'est un quatrième scénario, à la fois plus ambitieux et plus réaliste, qui devra être mis en oeuvre. Très vite une double réflexion s'imposera.

-* Il n'est pas possible que la concurrence ne s'exerce pas pleinement sur les réseaux d'information et de communication, sur lesquels s'appuieront tous les métiers de demain. Or, le déploiement de l'ADSL, même s'il donne l'impression de mettre en jeu plusieurs acteurs, s'appuie sur le réseau cuivré unique de l'opérateur historique. Si nous voulons qu'une véritable concurrence s'instaure, il faut donc qu'une autre technologie performante s'installe face à l'ADSL.

-* Il ne serait pas imaginable que seule une partie du territoire soit accessible aux hauts débits dans dix ans, alors qu'aucune entreprise, aucun artisan, aucun commerçant ne pourra exercer son activité, à cette échéance, s'il n'est pas relié au reste du Monde par ces hauts débits. Or, la technologie ADSL, c'est une de ses limites techniques, se dégrade très rapidement avec la distance, et ne fonctionne plus si l'utilisateur réside à plus de 5 km du multiplexeur de l'opérateur.

Autant il n'est pas imaginable aujourd'hui qu'il puisse y avoir un hameau en France qui ne dispose pas de l'électricité, du téléphone et même de l'eau courante, autant cette exigence de disposer partout du haut débit sur l'ensemble du territoire sera grande dans dix ans. Certes le Wi-Fi (ou autres standards radios) permettra de résoudre beaucoup de problèmes d'aménagement du territoire (je vous en parlerai la semaine prochaine). Mais cette technologie radio n'est efficace que dans des rayons relativement faibles et exige donc la mise en place d'un réseau dense de collecte (en technologie ADSL dans une première phase et en technologie fibre optique ultérieurement). Aussi, devant de telles exigences, et pour faire face à un calendrier qui, très vite, va paraître très court (dix ans...c'est très court), il est nécessaire, non seulement d'imaginer, mais aussi de mettre en oeuvre, sans retard, un quatrième scénario qui viendra se substituer aux trois scénarii trop peu ambitieux et manquant de réalisme, de l'étude de l'ART. Ce scénario, pour être efficace, devra s'appuyer sur une nécessaire synergie entre l'initiative privée et la volonté publique. En effet, en raison des occasions manquées pendant les années 1980 (Plan Câble confié à France Télécom, Canal+, Satellites de Diffusion directe, etc...) notre Pays a pris un retard considérable pour la construction d'un réseau câblé alternatif au réseau téléphonique classique (97,8 % des foyers belges, 93,5 % des foyers américains, 84,6 % des foyers allemands, 80 % des foyers suédois sont raccordés au câble pour seulement 35,2 % en France). Par ailleurs, en raison de la géographie de notre Pays (la France est territorialement, et de loin, le plus grand pays d'Europe : 560.000 Km² pour 390.000 Km² pour les 2 Allemagne) il ne sera pas rentable avant plusieurs décennies de construire un réseau câblé sur l'ensemble du territoire. Aussi, il n'est pas imaginable de laisser aux seuls financements privés l'ensemble de l'aménagement numérique du territoire français. Des fonds publics, avec des clauses strictes de retour lorsque la fortune viendra et avec des mises à dispositions gratuites d'une petite partie de la bande passante pour l'acquisition des usages publics, devront être mis en place par l'Etat, l'Europe, les Régions, les Départements et les Communes. Ce n'est bien que par cette synergie entre un volontarisme politique accepté par tous et la décision enfin déterminée des acteurs privés, anticipant enfin des revenus longuement attendus, que la France relèvera, avec ce 4e scénario, le véritable défi de l'avenir.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
L'e-commerce pèse 2 milliards d'euros en France
Samedi, 01/02/2003 - 00:00

« 2002 restera l'année de la démocratisation de l'achat en ligne » . Henri de Maublanc, coprésident d'Aquarelle.com et président de l'Association pour le commerce et les services en lignes (Acsel), a dressé un bilan très positif de l'activité 2002 des principaux sites marchands français. Le chiffre d'affaires d'un panel de 15 sites membres de l'Acsel (eBay France, Voyages-SNCF, Fnac, La Redoute, Surcouf, Price Minister, MisterGoodDeal, Lastminute, ChateauOnLine, Clust, Chapitre, Aquarelle, Nomatica, Paniers, Omniticket) affiche une croissance sur un an de 64% au quatrième trimestre 2002. Le cabinet PricewaterhouseCoopers, qui a consolidé l'activité des 15 membres, a recensé plus de 10 millions de transactions ayant abouti à un paiement, soit un bond de 47 % par rapport à 2001. Le seul quatrième trimestre, marqué par la période de Noël traditionnellement propice aux achats, représente près d'un tiers de l'activité annuelle, avec 3,3 millions de transactions, soit une hausse de 63 % par rapport au quatrième trimestre 2001. Selon l'Ascel, le marché français de l'e-commerce pèse désormais environ 2 milliards d'euros. « Cela représente de 10 à 15 % du chiffre d'affaires total de la vente par correspondance », précise Henri de Maublanc. Les principaux sites marchands français s'accordent pour considérer 2003 comme une « année charnière pour la rentabilité». Cela explique peut-être pourquoi, la plupart d'entre eux tablent sur une croissance moins forte, de l'ordre de 40 % en moyenne.

Les Echos : http://www.lesechos.fr/

L'équipement en NTIC ne progresse plus dans le G4
Samedi, 01/02/2003 - 00:00

Selon l'étude publiée par l'Atelier BNP Paribas, l'équipement en NTIC ne progresse plus, le commerce électronique accuse une légère baisse. G4 réunit l'Allemagne, la France, l'Italie et l'Espagne. Dans le G4 en 2002, la part des investissements consacrée aux NTIC a perdu 2 points, elle est passée de 24% à 22%. Ce recul se constate dans les 4 pays : l'Italie à 16% et l'Allemagne à 23% perdent 2 points, et la France à 27% et l'Espagne à 21% perdent 3 points. Si aujourd'hui, toutes les entreprises du G4 sont informatisées, le taux d'équipement dans les PME-PMI de 6 à 9 salariés, avec 0,6 ordinateur par personne, est le double de celui des entreprises de 100 à 200 salariés. Les Services et l'Industrie sont comme toujours plus équipés que le BTP et le Transport. Un ordinateur sur 2 a fait l'objet d'un contrat d'entretien en 2002. C'est en Italie (67%) et en Espagne (61%) que la pratique est la plus répandue. En France, les contrats d'entretien ne sont signés que par 46% PME et en Allemagne, le taux descend à 40%. Les usages les plus courants d'Internet ont peu évolué en 2002 : l'e-mail reste en tête avec 90% d'entreprises qui l'utilisent. Viennent ensuite les Relations clients-fournisseurs pour 66%, les recherches d'informations professionnelles pour 64%, et la consultation des comptes bancaires pour 53%. Dans le G4, la majorité des connexions reste en moyen débit (58% en 2002 vs 51% en 2001), le solde se partageant entre le haut débit (24%) et le modem simple (22%). C'est en France que l'ADSL progresse le plus. Les PME sont de plus en plus équipées en sites Internet, la proportion de PME disposant d'un site progresse : de 45% à 52% pour la France de 55% à 63% pour l'Italie, de 60% à 67% pour l'Allemagne. Si l'Espagne conserve le même taux d'équipement qu'en 2001 à 45%, elle enregistre cependant le plus fort taux de sites fermés : 5% au cours de l'année 2002. Le site sert davantage à communiquer qu'à vendre directement. 86% des PME du G4 déclarent que l'objectif de leur site est d'assurer la notoriété de l'entreprise. Ce résultat est conforme à celui des années précédentes. L'apport de services aux clients ou aux fournisseurs régresse à 61% alors qu'il était à 66% en 2001. Le commerce électronique ne porte que sur 18% des PME du G4, contre 21% en 2001 et cette baisse affecte les 4 pays. L'Allemagne présente le taux le plus élevé d'entreprises vendant en ligne, avec 24 %, et à l'opposé, on n'en compte que 11% en Italie. Les PME allemandes offrent le plus souvent dans leur site des services à leurs clients ou fournisseurs (73% d'entre elles) et font davantage de commerce que dans les autres pays (24% d'entre elles).

Atelier Paribas : http://www.atelier.fr//

Une étude de l'ART prévoit un avenir difficile pour l'économie du câble en France
Samedi, 01/02/2003 - 00:00

L'Autorité de régulation des télécommunications (ART) a fait réaliser par le cabinet JLM Conseil une étude sur "l'économie du câble en France". L'étude publiée lundi par l'ART, rappellent que la proportion d'abonnés au câble sur le marché français des télécoms et sur celui de l'audiovisuel reste faible : Seuls 13% des foyers français sont abonnés à un réseau câblé. Au 30 juin 2002, le câble comptait 233 000 abonnés à Internet, contre 650 000 abonnés pour l'ADSL (asymetric digital subscriber line). Le poids économique du marché du câble (693 millions d'euros en 2001) reste faible. Ce secteur ne représente que 2 % du chiffre d'affaires global du secteur des télécommunications en France. Sur le secteur de l'audiovisuel et de la télévision (câble, diffusion par satellite, télévision hertzienne, chaînes thématiques et locales), cette proportion atteint difficilement 4%. Aux Etats-Unis, où le câble occupe depuis plus de vingt ans "une place importante", près de 70% des foyers sont abonnés. Le CA global du câble 'US' s'élève à environ 44 milliards d'euros ! Le câble européen, de son côté, n'a pas surmonté toutes les difficultés : concurrence du satellite et de la télévision numérique terrestre (TNT), lourds investissements nécessaires pour passer au câble numérique afin de proposer des services Internet haut débit, concentration du secteur...Alors, quel sera l'avenir du câble en France ? A travers son étude, JLM Conseil propose trois scénarii :

-# la consolidation du câble

Pour l'ART, « l'option la plus simple consiste à rationaliser les réseaux par échange de plaques afin de favoriser le regroupement des opérateurs en grands ensembles régionaux. » Si ce scénario a l'intérêt d'être réalisable dans la réglementation actuelle, on doute de son intérêt pour les câblo-opérateurs. Si Noos peut voir d'un oeil positif un recentrage sur l'Île-de-France, on doute que UPC par exemple soit particulièrement enclin à abandonner son réseau francilien. Une variante à ce scénario serait la suppression des obstacles réglementaires à la fusion entre câblo-opérateurs. Aujourd'hui ces derniers sont soumis à la loi de septembre 1986 qui leur interdit de desservir sur un même plaque un bassin de plus de 8 millions d'habitants. Mais la probable transposition de la directive européenne « paquet télécoms » en droit français, devrait supprimer cet obstacle législatif. Mais dès lors n'y aurait-il pas position hégémonique de France Télécom ? L'opérateur historique est non seulement l'heureux propriétaire de boucles locales dans nombre de grandes villes françaises mais il possède aussi 100 % de France Telecom Câble, 27 % de Noos, et 70 % des prises exploitées par NC Numéricable. L'ART préconise donc la cession des réseaux mis en place lors du Plan câble aux opérateurs l'exploitant, et une sortie programmée de France Télécom Câble. Une autre alternative pourrait être apportée par un nouvel acteur. En apportant des capitaux frais, il diluerait la part des actionnaires - et de France Telecom en particulier dans la nouvelle entité fusionnée. Encore faut-il pouvoir trouver un prétendant au câble français ?

-# la séparation des infrastructures et des services

Dans un scénario qui tient plutôt de la science-fiction, l'ART imagine la reprise des infrastructures physiques du câble par un opérateur, nouveau et unique qui proposerait aux fournisseurs de services un accès unifié "aux 8,5 millions de prises raccordables installées en France." . Une telle perspective permettrait l'arrivée de nouveaux entrants, grâce au ticket d'entrée peu élevé. Mais encore faudrait-il que les opérateurs acceptent de se défaire de leurs infrastructures acquises à un coût exorbitant.

-# l'érosion technologique du câble

Enfin, l'ART prévoit tout simplement la disparition des câblo-opérateurs, pris entre la forte progression du satellite et la montée en puissance de l'ADSL. Dès lors l'exploitation des réseaux reviendrait aux collectivités locales qui pourraient « organiser un appel d'offres pour en céder l'exploitation à un nouvel opérateur, soit réaffecter les capacités du réseau à des usages d'intérêt général ». Par ailleurs, l'Autorité demande aux instances concernées que soit établi "un traitement juridique équitable et technologiquement neutre entre les réseaux".

Pour éviter ce scénario-catastrophe, l'autorité de régulation préconise la cession des réseaux du Plan câble par France Télécom aux acteurs privés, la transposition rapide des textes du « paquets télécoms ». Quelle que soit les hypothèses retenues, le moins qu'on puisse dire est que l"avenir ne s'annonce pas rose pour les câblo-opérateurs

Brève rédigée par @RT Flash

L'économie du câble en France :

http://www.art-telecom.fr/publications/etudes/jlm/syn-jlmjan03.htm

^ Haut
Avenir
Nanotechnologies et Robotique
Le sous-sol décodé par les "codas" sismiques
Samedi, 01/02/2003 - 00:00

Une méthode qui pourrait permettre aux géologues de connaître l'hétérogénéité des sous-sols de la Terre, même dans des zones à faible sismicité, a été découverte par des chercheurs du CNRS à Grenoble. Jusqu'à présent, n'étaient possibles que des analyses locales, à partir d'ondes directes enregistrées à proximité des séismes. La technique est détaillée dans la revue Science du 24 janvier: en étudiant ces ondes secondaires ou "codas", l'équipe de Michel Campillo a montré qu'il était possible d'obtenir un signal d'ondes directes. De même qu'en musique la "coda" (queue) indique la fin d'un morceau, les "codas sismiques", ultimes ondes visibles après un tremblement de terre, se propagent à travers la roche pendant plusieurs minutes. Résultant d'une combinaison des ondes directes, elles subissent les nombreuses hétérogénéités du sous-sol. Pendant leur trajet, elles traversent des milieux aux propriétés différentes qui provoquent leur diffraction. "Avec l'oeil, nous voyons loin car le faisceau optique est direct entre le lointain et nos yeux. Mais pensons au brouillard... On ne voit rien car les ondes lumineuses ne viennent pas directement d'un objet, elles sont propagées à travers un amas de gouttes d'eau, leur diffusion n'est plus simple mais multiple", déclaré à l'AFP Michel Campillo, pour expliquer sa démarche scientifique. Les codas perdent rapidement leur énergie en se divisant: certaines sont réfléchies, d'autres réfractées, une propagation aléatoire et complexe qui est le témoin de la structure de la Terre. "Avant, on pensait qu'on ne pouvait pas retrouver la trace d'ondes directes, c'est-à-dire d'information", souligne Michel Campillo, mais "depuis quelque temps, des expériences en laboratoire ont montré qu'il était peut-être théoriquement possible de le faire". L'équipe de Michel Campillo s'est employée à appliquer à la sismologie cette hypothèse toute théorique: les enregistrements de stations sismologiques basées au Mexique, zone très sismique, ont été exploitées. Résultat: après quelques minutes, ce sont bien des ondes diffuses qui parviennent aux observatoires. Ensuite les géophysiciens ont compilé ces "codas" mesurées sur deux stations d'enregistrement A et B, distantes de plusieurs dizaines de km. En les exploitant mathématiquement, ils se sont aperçus que la corrélation moyenne entre les signaux n'était autre que la réponse sismique que l'on aurait enregistrée en B si l'on avait généré une impulsion forte et brève en A. "On a découvert la trace d'ondes sismiques, de signaux directs, qu'on aurait eu à une station si on les avait produites à l'autre. C'est assez magique", souligne le chercheur. Ce résultat est d'importance pour la théorie, "mais il ouvre surtout des perspectives très intéressantes". Pour analyser le sous-sol, il faut soit des explosions (coûteuses), soit attendre un tremblement de terre (aléatoire). "S'il suffit d'installer deux stations pour trouver la réponse sismique entre deux points, il n'est plus besoin d'attendre un tremblement de terre", explique M. Campillo.

Science du 24-01-2003 :

http://www.sciencemag.org/cgi/content/abstract/299/5606/547?etoc

Les nanotechnologies, secteur d'avenir où la France est "trop timide"
Samedi, 01/02/2003 - 00:00

Les nanotechnologies portent aujourd'hui une grande part de la croissance de l'économie mondiale, mais la France et l'Union européenne ont une politique de soutien "trop timide" vis-à-vis de ce secteur, selon un rapport parlementaire français publié mercredi.Le secteur de "l'infiniment petit" (1 nanomètre = 1 milliardième de mètre) a connu depuis 1960 une révolution décisive, rappelle ce rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques. La taille des composants a été réduite d'un facteur de dix mille, tandis que le prix d'un gigabit de mémoire est passé de 75.000 euros en 1970 à 5 centimes aujourd'hui. "C'est comme si on avait réussi à intégrer les fonctionnalités du paquebot France dans sa réplique en maquette, pour le même prix", souligne l'Office, qui regroupe des députés et des sénateurs. Ce secteur pèse aujourd'hui 200 milliards d'euros pour la micro-électronique, générant un chiffre d'affaires de 1.000 milliards d'euros dans les industries électriques et de 5.000 milliards d'euros dans les services. Les nanotechnologies, "qui irrigueront notre quotidien d'ici dix à quinze ans", bénéficient toutefois d'un soutien public sans rapport avec ce qui se pratique aux Etats-Unis et au Japon. "Au regard des politiques de soutien public du Japon et des Etats-Unis, les réponses des Etats européens et de l'Union européenne sont trop timides. Celle de la France l'est encore plus que celle de l'Allemagne", selon le rapport parlementaire. Aux Etats-Unis, les crédits fédéraux consacrés à ce secteur atteindront 700 millions de dollars en 2003, enveloppe qui est doublée par l'engagement des collectivités territoriales, notamment d'Etats comme la Californie ou l'Etat de New York. "Ce sont des sommes qui n'ont rien à voir avec ce que l'on est capables d'engager en France et en Europe", a déploré le rapporteur Claude Saunier (PS, Côtes d'Armor) sur Europe 1. Le rapport suggère un ensemble de mesures financières pour soutenir ces filières de haute technologie, notamment dans le domaine fiscal. Les crédits d'impôt accordés actuellement dans ce domaine sont notoirement insuffisants" et ne correspondent pas aux investissements réalisés par les très grandes entreprises, souligne le rapport.

OPECST : http://www.senat.fr/opecst/rapports.html

Les nanotechnologies une nouvelle fois à l'honneur au Sénat
Samedi, 01/02/2003 - 00:00

Dans le prolongement du colloque sur les nanotechnologies organisé au Sénat du 20 juin 2002, l'Office parlementaire d'évaluation des choix scientifiques et technologiques a organisé le 23 janvier dernier au Sénat un nouveau colloque entièrement consacré aux nanotechnologies. La Haute Assemblée affirme ainsi le rôle d'éclaireur et de catalyseur qu'elle entend jouer dans les domaines scientifiques et techniques stratégiques les plus riches de potentialités pour l'avenir. Au cours de ce colloque les participants ont retracé les étapes de révolution microélectronique. Depuis 1960, la taille des composants a été réduite d'un facteur dix mille et leur prix s'est effondré (le prix d'un gigabits de mémoire était de 75 000 ? en 1970, il est aujourd'hui de 5 centimes d'euro. Cette avancée scientifique et technologique a été à la source d'une révolution tranquille mais décisive qui a porté une grande part de la croissance de l'économie mondiale. La microélectronique est devenue un secteur central de l'économie :

-* elle est omniprésente dans notre vie quotidienne, ce dont témoigne la multiplicité de produits qui ont créé autant d'usages nouveaux (ordinateurs, radios-réveils, téléphones portables, magnétoscopes, lecteurs DVD, etc.) ;

-* elle contribue fortement au développement durable dans le domaine vital des économies d'énergie grâce à l'électronique de puissance dont les progrès ont permis de répondre à la croissance de la consommation alors que celle de la production est inférieure de moitié à celle-ci ;

-* son poids est croissant dans le PNB mondial : en 2000, 200 milliards d'euros de chiffre d'affaires de la microélectronique ont généré 1 000 milliards d'euros de chiffre d'affaires dans les industries électriques et 5 000 milliards d'euros de chiffre d'affaires dans les services (sur un PNB mondial de 28 000 milliards d'euros).

La place de cette industrie est encore appelée à s'accroître :

-* du fait de la « pervasion croissante du silicium » qui conduit les objets quotidiens à incorporer de plus en plus de microélectronique (il y a vingt ans, la valeur d'un ordinateur n'incorporait que 15 % de semiconducteurs, aujourd'hui 40 % ; actuellement, ce pourcentage atteint près de 40 % dans les automobiles de luxe),

-* grâce aux microsystèmes, c'est-à-dire au couplage de la microélectronique avec des capteurs (thermiques, magnétiques, biologiques, chimiques, etc) et des transpondeurs,

-* en raison de la montée progressive des nanotechnologies qui irrigueront notre quotidien d'ici dix à quinze ans.

La microélectronique et les nanotechnologies constitueront donc un secteur vital pour l'avenir économique de notre pays, et donc une chance à saisir. Mais cette industrie est soumise à un double défi, technologique et économique.

Les spécialistes considèrent que la tendance à la miniaturisation est inéluctable. Les traitements numériques de l'image et du son exigent de plus en plus de puissance de calcul et les futurs processeurs permettront le dialogue homme-machine et machine-machine, modifiant radicalement notre environnement et nos usages.

L'objectif est, d'ici dix à quinze ans, de produire industriellement des transistors de 20 nm de section (10 milliards sur une puce, soit l'équivalent d'un cheveu sur un terrain de football) pour atteindre une vitesse d'horloge de 100 GHz, contre 2 GHz actuellement (c'est-à-dire capables de traiter 100 milliards d'opérations par seconde).

Mais, en-deçà de 50 nm, on se heurte à des phénomènes quantiques - qui ne sont pas encore contrôlés scientifiquement et encore moins industriellement.

Au-delà des usages actuels, les progrès technologiques ouvrent de nouvelles perspectives et de nouveaux marchés.

Les microsystèmes : Dérivés de la microélectronique, les microsystèmes sont en plein développement et représentent dès à présent un marché mondial de plusieurs dizaines de milliards d'euros. Ils sont très présents dans plusieurs industries (automobile, espace, télécommunications, aéronautique, médecine, agroalimentaire).

Les nanotechnologies : En complément de la miniaturisation de la microélectronique, les nanotechnologies regroupent des procédés fondés sur l'auto-organisation de la matière à l'échelle atomique. Mais les futurs nanosystèmes seront très différents des microsystèmes :

-* l'horizon de temps n'est pas le même : les microsystèmes sont actuellement disponibles, les nanosystèmes ne seront pas sur le marché avant dix à quinze ans,

-* le changement d'échelle, de l'ordre d'un facteur 100, offre des possibilités d'applications économiques et sociales beaucoup plus importantes, On peut, sans crainte, affirmer que les nanosystèmes vont irriguer le tissu industriel . Certains de leurs domaines d'application sont, dès à présent, connus :

-* les nanosystèmes dédiés à la santé et à la compensation des handicaps liés au vieillissement de la population (techniques de diagnostic in vivo et systèmes d'alertes liés, thérapies cellulaires ciblées, domotique reposant sur des annonces vocales pour les personnes âgées) ;

-* les nanosystèmes dédiés au développement durable :

Ils permettront la mise au point des processus industriels beaucoup plus économes (pour caricaturer, éviter d'abattre un arbre pour fabriquer un cure-dent).

Mais des applications plus spécifiques sont envisageables :

-* les télévisions à laser, qui permettront d'économiser 5 % de la consommation électrique d'un pays ;

-* l'amélioration de 30 à 40 % de l'efficacité des piles photovoltaïques est envisageable;

-* les nanosystèmes dédiés à la sécurité, comme par exemple les réseaux de nanocapteurs pour la sécurité des aéroports ou des zones militaires ou encore les systèmes de détection du gaz par des nanotubes de carbone.

La microélectronique a réussi 7 sauts technologiques majeurs en 30 ans (rappelons que les transports n'en ont accompli que 3 - le train, l'auto, l'avion - en un siècle), mais au prix d'investissements en recherche et en développement considérables, bien supérieurs à ceux du programme Apollo.

Ces coûts atteignent aujourd'hui 15 % des chiffres d'affaires du secteur (de 22 à 30 milliards d'euros), et au fur et à mesure que la miniaturisation progresse la pente se raidit. Ainsi, en quinze ans, les investissements en recherche et développement des trois principaux producteurs européens ont été multipliés par dix.

Les coûts de production

Pour fabriquer un disque de 300 mm sur lequel sont imprimés près de deux milliards de transistors sur 250 microprocesseurs, 700 opérations différentes sont nécessaires, les tolérances de planité sont de l'ordre d'un Angström (10-10 m), les taux d'impureté admissibles sont de l'ordre du milliardième. Les charges de production de l'infiniment petit augmentent avec la réduction de la taille des composants : les coûts des équipements sont à l'échelle des défis technologiques qu'ils sont destinés à surmonter. Une fabrique de disques de 200 mm coûtait 1,5 milliard de $ en 2000. En 2003, pour des disques de 300 mm, le coût correspondant est de 2,5 milliards de $, et en 2010, pour des unités de 450 mm, il sera de l'ordre de 6 milliards de $. Soit, dans ce dernier cas, le coût de quatre centrales nucléaires. A l'exception d'Intel, qui a seul une masse critique suffisante, les principaux producteurs mondiaux regroupent leurs activités de recherche et de production (comme STMicroelectronics, Philips et Motorola le font sur le pôle de Crolles - en liaison avec le CEA-LETI à Grenoble). Le secteur est ainsi constitué d'oligopoles de fait de moins en moins nombreux.

Les pays qui tiennent les discours les plus libéraux sont ceux qui mènent les politiques publiques les plus volontaristes dans les secteurs stratégiques de la microélectronique et des nanotechnologies. Depuis trois ou quatre ans, les soutiens américain et japonais à ces secteurs ont évolué :

-* ils s'inscrivent dans des stratégies lisibles à terme qui privilégient certains domaines,

-* ils sont devenus beaucoup plus massifs,

-* ils s'efforcent de renforcer les liens entre le développement technologique et l'aval industriel de la filière.

1. Les Etats-Unis

Le département de la défense a un budget de recherche de 56 milliards de $ pour 2003, dont 2,7 milliards pour la DARPA, qui développe des recherches duales (à applications civiles directes) et consacre 1,3 milliard de $ aux secteurs de la microélectronique avancée et aux nanotechnologies. La fondation nationale pour la science (5 milliards de $ de budget annuel) dédie 220 millions de $ par an aux interfaces recherche fondamentale-développement technologique de base du secteur. On mentionnera également, de façon non limitative, d'autres programmes transversaux à plusieurs départements ministériels et à plusieurs agences :

-* l'« initiative nanotechnologique », dont le budget total est de 700 millions de $ pour 2003,

-* et le SBIR (soutien à la recherche dans les PME), qui mobilise 300 millions de $ pour les applications microélectroniques.

Outre ces soutiens directs, les entreprises américaines bénéficient d'un crédit d'impôt-recherche fédéral dont l'assiette est très large puisqu'elle porte sur 20 % des dépenses exposées au cours de l'exercice fiscal considéré.

2. Le Japon

En 1988, les entreprises japonaises détenaient plus de la moitié du marché des composants, aujourd'hui à peine un quart. Le Japon a mis en oeuvre depuis 2001 une politique visant à redresser cette situation :

-* création d'un « Conseil pour la politique scientifique et technologique » auprès du Premier ministre qui fixe les priorités dans le terme et arbitre entre les différents ministères,

-* allocation de fonds très importants : 240 milliards d'euros sur cinq ans (dont 1,3 milliard d'euros par an pour la microélectronique et les nanotechnologies),

-* renforcement des agences de moyens (comme le NEDO, installé auprès du ministère de l'économie), dans le but de compenser une des faiblesses du Japon, la relative coupure entre l'université et l'industrie.

3. Les politiques européennes

L'initiative Eurêka : Le programme Eurêka-Medea+ fédère les entreprises et les centres de recherche européens et doit couvrir la période 2001-2008 avec des dotations annuelles des États de l'ordre de 500 millions d'euros par an. Il se concentre, notamment, sur l'application de technologies-clés permettant de faire sauter certains verrous qui ralentissent le processus de miniaturisation des composants.

L'Union européenne : Le 6e programme-cadre de développement et de recherche de l'Union européenne Doté, sur la période 2002-2006 d'un budget de 17,5 milliards d'euros (dont 3,6 milliards d'euros pour les technologies de la société de l'information et 1,3 milliard d'euros pour les nanosciences et les nanotechnologies), il traduit la nécessité de créer un espace européen de la recherche, concentré sur des pôles d'excellence et met en oeuvre des programmes intégrés destinés à unir l'industrie et les laboratoires de recherche sur des objectifs prioritaires.

Si son architecture est satisfaisante, des interrogations subsistent sur son application et, en particulier :

-* sur la définition des pôles d'excellence qui doivent être peu nombreux pour conserver une masse critique à l'échelle mondiale ,

-* sur les masses financières des programmes intégrés qui ne joueront pas un rôle fédérateur si les volumes financiers des grands projets sont insuffisants.

En revanche, le cadre concurrentiel européen n'apparaît plus adapté à la réalité du marché mondial :

-* éligibilité trop restreinte des aides à la recherche,

-* définition et application de règles de concurrence qui n'ont plus de sens lorsque les principaux industriels européens coopèrent en matière de recherche et mettent en commun certaines de leurs lignes de production.

Les traités européens ne sont pas des pactes suicidaires. Si la Commission européenne souhaite mettre en oeuvre une politique industrielle, elle doit s'en donner les moyens.

4. Le dispositif français

Le dispositif français repose principalement :

-* D'abord sur un réseau de grandes centrales technologiques installées sur 5 sites :

CEA-LETI à Grenoble (centrale également liée au pôle Minatec en voie de constitution), Laboratoire d'Analyses et d'Architectures des Systèmes à Toulouse, Laboratoire de Photonique et de Nanostructures à Marcoussis, Institut d'Électronique Fondamentale à Orsay, Institut d'Électronique et de Microélectronique du Nord à Lille.

La constitution de ce réseau doit faire l'objet d'une dotation totale de 100 millions d'euros de 2003 à 2005. Ces centrales ont pour but de donner un nouvel élan au développement technologique de la filière en activant les interfaces avec la recherche fondamentale en amont et la recherche appliquée en aval. Ensuite, sur l'établissement des priorités de recherche technologique de base menée en commun par le CNRS et le CEA, qui feront l'objet d'un soutien supplémentaire de l'ordre de 25 millions d'euros. Si cette architecture est satisfaisante, l'effort français demeure encore insuffisant :

-* les moyens opérationnels ne sont pas à la hauteur des enjeux (ils sont, par exemple, trois fois inférieurs aux soutiens allemands). Sur ce point, la suppression du CNET et la réorientation de l'activité de recherche de France Telecom, qui ont soustrait du soutien public à la recherche-développement 600 millions d'euros, n'ont pas été compensées par la création de réseaux qui n'allouent, tous secteurs confondus, que 50 millions d'euros par an ;

-* le degré d'irrigation du tissu industriel est insuffisant.

Si la mise en oeuvre de plates-formes constituera un pôle d'attraction des industriels de la microélectronique comme le montre l'exemple du pôle de Crolles, près de Grenoble), la France ne possède pas de structures, comme les Fraunhofer en Allemagne, qui relient directement des centres de recherches aux entreprises industrielles utilisatrices de ces composants. Au total, au regard du volontarisme des politiques de soutien public du Japon et des Etats-Unis, les réponses des États et de l'Union européenne sont trop timides. Celle de la France l'est encore plus que celle de l'Allemagne. Il est donc urgent que la France définisse et mette à niveau une politique de soutien aux filières de haute technologie. A défaut, elle ne participera qu'à la marge à la révolution industrielle qui se prépare.

Colloque du Sénat"Les nanotechnologies, une chance à saisir" :

http://www.senat.fr/evenement/pdf/note-presse_nanotechno.pdf

^ Haut
Matière
Matière et Energie
Des laboratoires virtuels pour imaginer le bureau intelligent
Samedi, 01/02/2003 - 00:00

A votre arrivée, le bureau s'éveille, lumière et climatisation sont parfaitement maîtrisées. Quand le soleil brille, vous en profitez; quand il vous éblouit, le store s'abaisse tout seul. Le prototype du bureau de demain, imaginé par le Centre scientifique et technique du bâtiment (CSTB), tente de faciliter la vie tout en restant aux ordres de l'utilisateur. Prototype d'une nouvelle génération de "laboratoires virtuels" développés dans le cadre de recherches européennes et internationales, le laboratoire Simbad, (simulateur de bâtiment et d'équipements), installé à Marne-la-Vallée (Seine-et-Marne), est pionnier dans l'utilisation des technologies de simulation. Simbad, montré mercredi à la presse et à des industriels, peut être configuré pour simuler une simple pièce, un pavillon, une école, un immeuble de bureaux. Il permet de représenter les installations de chauffage, de climatisation et de ventilation, d'éclairage ainsi que les protections solaires. "La nouveauté dans ce bureau, c'est que, sans qu'on les entende, le store, l'éclairage et la climatisation se parlent", explique Mireille Jandon, chercheur au CSTB. "Et que peuvent-ils se dire d'intelligent pour arriver à un meilleur confort et une meilleure économie d'énergie ? Plutôt que de s'allumer, la lampe va demander au store de s'ouvrir quand le soleil peut remplacer l'électricité. Pour rafraîchir la pièce, climatisation et stores vont dialoguer pour trouver la solution la plus intelligente, et si la finalité des automatismes est de convenir à l'occupant du bureau, celui-ci peut bien sûr à tout moment reprendre la main avec une télécommande". L'économie d'énergie est évidente puisque la lumière s'éteint lorsqu'on quitte le bureau. De plus, la multiplication des automatismes permettent de mieux détecter les dysfonctionnements, et donc de les réparer. "Nos efforts sont épargnés, mais nous sommes en quelque sorte passés de la civilisation de la peine à la civilisation de la panne", souligne Jean-Christophe Visier, chef de la division automatismes au CSTB. Pour Rouzbeh Rezakhanlou (R&D d'EDF, un des principaux participants à la recherche en simulateurs) l'enjeu est de répondre à une contradiction : "Comment accroître l'efficacité énergétique d'un bâtiment alors que les occupants demandent de plus en plus de confort (climatisation, services) ? Il est nécessaire d'avoir une cohérence d'ensemble, que les équipement communiquent entre eux". "On peut imaginer que l'on arrive dans son bureau à avoir un renouvellement de l'air quand on le souhaite, comme on peut déjà le faire dans sa voiture. Si au lieu d'utiliser un simple interrupteur on arrive à réguler l'éclairage, les gains en efficacité peuvent aller jusqu'à 50%", selon M.Visier. Même chose pour la ventilation : quand on entre dans une salle de réunion, elle est rarement confortable et quand on la quitte, la ventilation continue à tourner pour rien. Ces salles sont utilisées 10% du temps et personne n'est à la fois en réunion et dans son bureau, lesquels sont plus souvent vides que pleins (168 h par semaine d'occupation en moyenne avec les 35 h). "Le but est de faire des économies quand ils sont vides, et améliorer le confort en période d'occupation", résume l'ingénieur. Il existe toutefois une demande sociale pour garder la commande. "Les automatismes sont là pour faciliter la vie, pas pour prendre le pouvoir", insiste M.Visier. Selon lui, "si les industriels le souhaitent, de tels sytèmes pourraient être commercialisables d'ici trois ans".

AFP : http://www.wanadoo.fr/bin/frame.cgi?

L'Alsace mise sur la géothermie
Samedi, 01/02/2003 - 00:00

Ironie de l'histoire, c'est sur le site d'anciens forages pétroliers du début du XXe siècle, que la petite ville alsacienne de Soultz-sous-Forêts s'apprête à construire une usine d'électricité géothermique, dans le cadre d'un projet européen. Le principe est simple : «On utilise la perméabilité de la roche pour la transformer en échangeur thermique», explique Pascal Vix, l'ingénieur qui coordonne le projet. En clair, de l'eau froide est injectée à haute pression (100 à 130 bars) dans la roche par un puits jusqu'à 3 500 mètres de profondeur. L'eau circule ainsi dans le réseau de fractures naturelles qui existent dans le granit, élargies sous l'effet de la pression, et se réchauffe au contact de la roche chaude avant d'être pompée par un autre puits distant de 450 mètres. Il ne reste plus qu'à installer une turbine en surface. Une première expérience, menée en 1997 sur quatre mois, a permis de valider le concept scientifique. Aucun problème de corrosion n'a été déploré et aucune perte d'eau n'a été constatée (un mètre cube d'eau froide injecté se transforme en un mètre cube d'eau chaude récupérée). Seul effet secondaire : le voisinage perçoit, la nuit, quelques vibrations dues aux frottements de la roche qui, stimulée par l'eau, crée des interstices. Ce projet né en 1987 grâce à l'appui de la Commission européenne est aujourd'hui à un tournant. Le forage du deuxième puits, permettant à l'eau de remonter à la surface, a été réalisé avec succès et la réalisation d'un troisième puits, également destiné au pompage, est prévu pour le printemps. La phase de recherche fondamentale étant quasiment achevée, la construction d'une usine expérimentale de 5 à 6 mégawatts électriques (MWe) doit démarrer en 2004 pour valider le schéma industriel. Elle devrait être suivie en 2006 par la construction de deux prototypes d'une puissance de 25 MWe permettant à chacun d'approvisionner en électricité une ville de 25 000 habitants. C'est pour s'en donner les moyens qu'a été constitué le GEIE Exploitation minière de la chaleur, composé à parts égales des français EDF et Électricité de Strasbourg, de l'italien Enel Green Power, de l'allemand Pfalzwerke et du néerlandais Shell International, qui vont désormais financer à hauteur de 20% ce projet. D'un coût total de 100 millions d'euros, il a été financé jusqu'à présent essentiellement sur des deniers publics. Avec un objectif de coût de production de 4 à 9 centimes d'euro le kWh et un tarif de rachat garanti par EDF de 7,62 centimes le kWh, la géothermie n'est pas, loin s'en faut, la moins rentable des énergies renouvelables. Il reste que cette source d'énergie ne sera compétitive dans l'Hexagone que lorsqu'au moins une dizaine d'unités, représentant une capacité de 300 MW, seront mises en place. Le potentiel ne manque d'ailleurs pas. En France, 30 000 kilomètres carrés de territoire, dans le couloir rhodanien, le Massif central et le Languedoc-Roussillon, présentent un potentiel géothermique, c'est-à-dire une chaleur supérieure à 180° C à une profondeur de 5 000 mètres. Celui-ci est même estimé à 110 GW électriques - la puissance actuelle du parc français de production d'électricité - sur l'ensemble de l'Europe occidentale. Sans compter que cette source d'énergie qui n'émet aucun gaz à effet de serre n'est pas dénuée d'atouts sur le plan de l'environnement. «A la différence de ce qui se fait à Bouillante en Guadeloupe par exemple - exploitation d'une nappe d'eau chaude existante, sans injection d'eau -, avec ce principe, il s'agit d'une réelle énergie renouvelable», souligne Michèle Larchez, d'EDF Alsace. «A la différence de l'éolien et du solaire, dépendants des conditions climatiques, c'est une production décentralisée en continu», poursuit Isabelle Ardouin, attachée environnement à EDF Alsace. On ignore toutefois combien de temps la roche ainsi refroidie continuera à produire de la chaleur. Mais Pascal Vix estime qu'«on peut tabler sur une exploitation raisonnable de 20 à 40 années». A l'heure où le gouvernement lance un grand débat sur les énergies et où l'Union européenne vient de se fixer pour objectif de produire 21% de l'électricité à partir de sources d'énergies renouvelables, il serait dommage de passer à côté de cette source d'énergie non dépourvue d'avantages.

Le Figaro : http://www.lefigaro.fr/sciences/20030127.FIG0126.html

^ Haut
Espace
Espace et Cosmologie
Les profondeurs de Mars plus riches en eau que celles de la Terre
Samedi, 01/02/2003 - 00:00

Les magmas de la planète Mars sont plus riches en eau que ceux de la Terre, selon les premières analyses d'une météorite martienne découverte au Sahara Occidental, a indiqué jeudi le Consortium Théodore Monod, groupe français de spécialistes de météorites planétaires.Cette météorite de 38,85 g a été achetée en janvier 2001 au Maroc par Carine Bidaut et Bruno Fectay, chasseurs de météorites demeurant à La Boissière, près de Lons-le-Saunier. Les deux Français sont ainsi entrés en possession de leur cinquième fragment de pierre martienne en quatre ans, en l'espèce une roche basaltique, une shergottite, la plus fréquente des trois grandes classes de météorites martiennes connues. Dans cette pierre dénommée NWA 1669 (Northwest Africa 1669) et surnommée "Al Mala'ika", l'augite, un des deux principaux pyroxènes qui la composent, présente la particularité d'avoir cristallisé avant la pigeonite, fait inhabituel chez les shergottites. Or, indiquent les chercheurs du consortium, "les expériences sur des liquides identiques ont montré qu'un tel phénomène ne pouvait se produire que si le liquide magmatique contient une quantité appréciable d'eau dissoute, supérieure à 3%, sous une pression élevée". "C'est le premier échantillon de roche martienne qui nous permet de confirmer l'hypothèse selon laquelle les profondeurs de Mars sont plus riches en eau que celles de la Terre", explique Albert Jambon, du Laboratoire de magmatologie et géochimie de l'Université Paris-VI et membre du Consortium Théodore Monod. "Ces analyses, ajoute-t-il, soulignent le paradoxe de voir une planète comme Mars former des magmas riches en eau - les basaltes terrestres en possèdent toujours moins de 1% -, alors qu'à la surface, on ne trouve pas d'océan, comme sur Terre, et que la quantité d'eau y paraît très faible."

AFP : http://fr.news.yahoo.com/030123/202/2z0b9.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules souches pour traiter la sclérose en plaques
Samedi, 01/02/2003 - 00:00

Des chercheurs australiens ont mis au point une technique qui pourrait éventuellement permettre d'éliminer les symptômes de la sclérose en plaques , une maladie neurologique qui se caractérise par la destruction de la gaine de myéline qui entoure les nerfs. Ces chercheurs de l'hôpital Saint-Vincent de Sydney ont annoncé avoir utilisé, sur des souris, des cellules souches pour traiter des cellules du cerveau atteintes par la maladie et ils ont constaté que ces injections de cellules-souches pouvaient réparer les dommages causés par la destruction de la myéline. Les chercheurs estiment que quelques années seront encore nécessaires avant de tester cette méthode aux humains. Ils soutiennent toutefois que le fait qu'ils aient réussi à utiliser des cellules souches adultes représente un développement très important pour trouver des thérapies efficaces n on seulement contre la sclérose en plaques mais aussi contre d'autres de maladies cérébrales comme les méningites et les encéphalites. La sclérose en plaques peut entraîner des troubles de l'équilibre et de la vue, des difficultés d'élocution, une extrême fatigabilité et même, la paralysie. Cette maladie a été décrite pour la première fois par un neurologue français, Dr Jean-Martin Charcot, en 1868.

New Scientist :

http://www.newscientist.com/news/news.jsp?id=ns99993288

Radio Canada :

http://radio-canada.ca/nouvelles/Santeeducation/nouvelles/200301/21/001-sclerose...

La combinaison des huiles de plante et de poisson assure une meilleure prévention des maladies cardiaques chez les femmes
Samedi, 01/02/2003 - 00:00

Selon une nouvelle étude portant sur les femmes, la combinaison des acides gras dérivés du poisson (omega 3) et des plantes (omega 6) assure plus efficacement la prévention des maladies cardiaques que les huiles de poisson seules. (Les effets des apports complémentaires avec les acides gras n-3 dérivés de l'huile de poisson et l'acide gamma-linolénique sur les lipides plasmatiques circulant et les profils des acides gras chez les femmes. Utilisant des huiles spécialement enrichies de Croda (R.-U.), l'étude a été menée à l'Université de Guelph au Canada et a montré une réduction estimée de 43 pour cent dans le risque d'infarctus du myocarde sur une période de 10 ans parmi les femmes prenant un mélange de 4 g d'huile de poisson EPA et DHA avec 2 g de GLA provenant d'huile de plante. En Europe, les maladies cardiovasculaires constituent la cause première de la mortalité, avec un impact plus important chez les femmes que chez les hommes : 55 pour cent des décès des femmes et 43 pour cent des décès des hommes (British Heart Foundation). Toutefois, selon le Docteur Claire Packer, scientiste à Croda Healthcare, les femmes sont laissées pour compte lors des études sur les maladies cardiaques. Elle lance un appel pour d'autres recherches : " La protection du coeur apportée traditionnellement par l'hormone femelle oestrogène est, apparemment, inhibée par des facteurs défavorables comme un régime alimentaire mal équilibré, l'obésité, le diabète et l'habitude de fumer. Nous avons donc besoin de davantage de recherches sur les compléments alimentaires pouvant réduire les niveaux du risque chez la population féminine.

The American Journal of Clinical Nutrition :

http://www.ajcn.org/cgi/content/abstract/77/1/37

Un Français sur sept meurt des conséquences d'une consommation excessive d'alcool, selon une étude
Samedi, 01/02/2003 - 00:00

En France, chaque année, 43.000 personnes meurent des conséquences directes ou indirectes d'une consommation excessive d'alcool; ce fléau touche un homme sur sept. C'est ce que révèle une étude menée par l'institut Sorgem pour le ministère de la Santé, l'Institut national de prévention et d'éducation pour la santé (INPES) et l'Assurance maladie, rendue publique mercredi matin. L'institut s'est penché sur la manière dont les hommes se représentent l'alcool et sur leur attitude face à la boisson après avoir fait ce constat: 23.000 personnes meurent chaque année en France d'une consommation excessive d'alcool, dont 80% d'hommes. Une grande majorité succombe à un cancer (des lèvres, de la cavité buccale, du pharynx, de l'oesophage ou du larynx), les autres de cirrhose ou d'alcoolo-dépendance. Si l'on compte les décès dans lesquels l'alcool agit comme "facteur associé", le nombre de morts imputables à une consommation excessive d'alcool atteint 45.000, dont 38.000 hommes. Au total, l'alcool est à l'origine d'un décès sur 7 chez les hommes, contre 1 sur 33 pour les femmes. Entre 45 et 65 ans, la proportion passe à un homme sur quatre, soit deux fois plus que les femmes. Si la consommation quotidienne d'alcool concerne essentiellement les plus de 25 ans, les jeunes déclarent plus d'ivresses que leurs aînés (14,5% des 20-25 ans contre seulement 1% des plus de 45 ans). Quel que soit l'âge, c'est le vin qui est le plus consommé. Bu quotidiennement par 17,5% de la population, il est surtout la boisson préférée des femmes. La bière reste la boisson la plus prisée des hommes. Outre ce travail de compilation statistique, l'institut Sorgem a organisé 25 entretiens individuels et trois réunions de groupe avec des hommes qui boivent plus de trois verres d'alcool par jour. Les témoignages qui en ressortent sont éloquents. Si la majorité des hommes questionnés assure contrôler sa consommation, certains, notamment les 30-50 ans, avouent être un peu lents à la prise de conscience: "Souvent, quand je le sens, il est trop tard. Je sens quand les limites sont dépassées". Nombreux sont ceux qui estiment que leur amour immodéré pour la bière ou le vin fait partie de l'art de vivre français: "Je considère que la bière, c'est ma culture", "Je n'ai aucun problème avec la bière, j'en bois depuis que je suis tout petit" ou "Avec un boeuf Bourguignon, je me vois mal boire de l'eau, c'est éthique". De manière générale, les hommes tentent de dédramatiser leur consommation d'alcool, se basant sur de la mauvaise foi ou simplement des idées reçues et s'aveuglant sur les conséquences dramatiques de leur consommation sur leur santé: "Si vous buvez deux verres de whiskey, ça va représenter deux bouteilles de vin en degrés d'alcool," assure un sondé, tandis qu'un autre assène: "Je n'achète jamais d'alcool, je n'achète que du vin, du rosé et du rouge". Parmi les préjugés les plus pernicieux, figure aussi le malheureusement toujours traditionnel "il faut boire pour être un homme". "Pour moi, la bière, c'est les moments masculins", explique l'un des hommes interrogés. "Le vin, c'est la convivialité, c'est la camaraderie, c'est peut être aussi une histoire d'hommes," confirme un autre. Certains hommes, surtout ceux de plus de 35 ans, considèrent la privation d'alcool comme une punition injuste. "Il m'est arrivé de supprimer le vin pendant un mois et une semaine, c'est vraiment catastrophique, (...) j'étais très triste (...) c'est comme une journée sans soleil". La Direction générale de la Santé rappelle donc comment réguler sa consommation d'alcool, rappelant les normes établies par l'Organisation mondiale de la Santé (OMS): pas plus de trois verres par jour pour les hommes et pas plus de deux pour les femmes et dans tous les cas pas plus de quatre verres en une seule occasion.

AP : http://fr.news.yahoo.com/030122/5/2ysk9.html

Attaques cardiaques et cérébrales : le profil des patients évolue
Samedi, 01/02/2003 - 00:00

Les attaques cardiaques et cérébrales restent la première cause de mortalité aux Etats-Unis. En revanche, le profil des personnes qu'elles frappent s'est radicalement modifié depuis une trentaine d'années. Le patient typique n'est plus du tout un homme d'une cinquantaine d'années qui décède suite à une attaque cardiaque. Aujourd'hui, une victime peut être un homme ou une femme, âgé de 70 à 85 ans, qui le plus souvent survivra à l'attaque. Ce résultat positif entraîne cependant de nouveaux problèmes pour la gestion des maladies chroniques et du grand âge qui sont dûs à une convergence complexe de facteurs. Ainsi la réduction considérable du tabagisme ne joue presque aucun rôle dans les statistiques des maladies cardio-vasculaires, les fumeurs décédant dans l'ensemble de cancers du poumon avant de pouvoir développer des anomalies cardiaques. Par contre, la maîtrise de l'hypertension grâce à des traitements médicamenteux concerne environ 70% des personnes qui en souffrent, et l'utilisation des statines sous forme de cachets pour réduire les taux de mauvais cholestérol a augmenté de façon massive. Les interventions chirurgicales utilisant les techniques d'angioplastie, d'implantation de stents et de défibrillateurs ont transformé la vie des personnes souffrant d'affections cardiaques. Les chercheurs soulignent que même l'augmentation de l'obésité n'infléchira pas beaucoup l'occurrence des maladies cardio-vasculaires, la surveillance médicale de l'hypertension, du cholestérol et du diabète ayant augmenté proportionnellement.

NYT 19/01/03 :

http://www.nytimes.com/2003/01/19/health/19HEAR.html

Les fumeurs précoces de cannabis auraient un risque plus grand de consommer d'autres drogues
Samedi, 01/02/2003 - 00:00

Une étude scientifique menée par des chercheurs australiens et américains montre que les personnes ayant consommé du cannabis avant l'âge de 17 ans ont 2 à 5 fois plus de risques de passer à d'autres drogues ou de devenir dépendant à l'alcool ou aux drogues. Afin d'évacuer tout impact du patrimoine génétique ou du milieu familial, les scientifiques se sont intéressés à 311 "paires" de jumeaux et jumelles australiens, âgés d'une trentaine d'années en moyenne. A chaque fois, l'un d'eux (ou d'elles) avait commencé à fumer des joints avant 17 ans et pas l'autre. Résultat : chez les fumeurs "précoces", 46% ont indiqué avoir par la suite abusé du cannabis ou y être devenu "accro" et 43% ont développé une dépendance à l'alcool. Et ils sont également plus nombreux que leur jumeau à prendre de la cocaïne et d'autres stimulants (42%), d'hallucinogènes (35%), de sédatifs à des fins non médicales (15%) et d'opiacés (13%). Des pourcentages entre 1,8 et 5,2 fois plus élevés que chez les jumeaux et jumelles ayant fumé du cannabis pour la première fois après 17 ans. Le lien entre la consommation de cannabis et ces phénomènes de dépendance n'est pas clair. S'il est implicitement admis que l'usage du cannabis agit sur le cerveau et pousse à essayer d'autres substances illicites, il existe d'autres mécanismes potentiels, explique l'un des chercheurs, le docteur Michael Lynskey (Queensland institute of medical research, Australie). Parmi ces mécanismes, il relève la facilité de se procurer de la drogue, la volonté de violer la loi et la probabilité de s'engager dans des comportements à risques. Une autre étude récente réalisée sur une période de 13 ans par l'Université Johns Hopkins( Baltimore) a par ailleurs clairement montré que les fumeurs de tabac qui avaient déclaré être également consommateurs de cannabis étaient proportionnellement trois fois plus nombreux à continuer à fumer que ceux qui n'avaient jamais consommé de cannabis. L'usage quotidien de cannabis apparaissait comme un facteur prédictif très important d'échec du sevrage tabagique. L'usage du cannabis chez les parents et leurs enfants est devenu tellement commun que la société pourrait sous-estimer les risques qu'il représente, souligne le professeur Andrew Heath (Washington university school of medicine, Etats-Unis), qui a dirigé l'équipe scientifique binationale. Et d'alerter : "Une chose importante à dire aux parents dont les enfants de 16 ans fument du cannabis, c'est que la majorité de ces jeunes ne connaîtront pas de problèmes de drogues ou d'alcool. Mais il est important qu'en tant que parents et que société, nous reconnaissions qu'il existe un risque accru".

Brève rédigée par @RT Flash

BBC : http://news.bbc.co.uk/2/hi/health/2679471.stm

JAMA : http://jama.ama-assn.org/issues/v289n4/abs/joc21156.html

Le premier greffé des deux mains dresse un bilan positif de sa rééducation
Samedi, 01/02/2003 - 00:00

Denis Chatelier, le premier homme à avoir été greffé des deux mains en janvier 2000, a dressé un bilan "très positif" de sa rééducation lors d'une conférence de presse du 24 janvier à Lyon. Un constat partagé par son équipe soignante et le professeur Jean-Michel Dubernard, qui avait dirigé l'intervention chirurgicale. "Trois ans après l'opération, j'ai l'impression de retrouver l'usage normal de mes mains. Je peux manger avec une fourchette, téléphoner sur mon portable, me raser. J'ai peu à peu retrouvé les gestes que j'avais oubliés", a expliqué Denis Chatelier, 36 ans, qui suit aujourd'hui encore deux heures de rééducation quotidienne. Le Pr Jean-Michel Dubernard a tenu à insister sur "la ténacité, l'énergie et la motivation" de son patient qui, selon lui, ont été "déterminantes". "Denis a progressé bien au-delà de nos espérances", a expliqué le chirurgien lyonnais qui s'est en particulier félicité du non rejet de la peau greffée, "un obstacle que l'on pensait pourtant majeur". Lors de la conférence de presse à l'hôpital Edouard-Herriot, le psychiatre qui suit de Denis Chatelier, Gabriel Burloux, a de son côté souligné "la bonne acceptation psychologique de ces mains qui ne lui appartenaient pas". "Il a eu un déclic lorsqu'il a voulu rendre hommage au donneur, c'est à ce moment qu'il a pu réellement s'approprier ses mains". Selon le Pr Dubernard, "cette réussite a permis d'ouvrir une porte historique dans le domaine des greffes de tissus composites". Le chirurgien a d'ailleurs annoncé qu'ilespérait pouvoir procéder à une nouvelle double greffe de mains prochainement. "Nous avons un receveur depuis le mois de septembre, mais nous recherchons encore un donneur, ce qui est compliqué", a-t-il dit. Interrogé sur l'hypothèse des greffes de visages, Jean-Michel Dubernard a déclaré qu'il y était "favorable", "à condition que cette greffe soit demandée par un patient et qu'elle soit soumise à l'approbation d'un comité éthique". "Si une personne, suite à un accident, ne peut plus supporter son visage, on doit pouvoir lui faire une greffe", a-t-il estimé. Denis Chatelier avait été le premier patient à recevoir une allogreffe des deux mains. Il avait été opéré à Lyon le 13 janvier 2000 par les équipes du Pr Dubernard et de son confrère australien, le Pr Earl Owen. Ce peintre en bâtiment, orignaire de Charente-Maritime, avait perdu ses deux mains en 1996 en manipulant une fusée artisanale qu'il fabriquait pour ses neveux. Il portait depuis des prothèses myoélectriques ne lui permettant de réaliser que des gestes simples. Aujourd'hui, Denis Chatelier aimerait reprendre une activité professionnelle. Il a notamment exprimé le souhait de travailler pour le Parc aux oiseaux de la ville de Rochefort où il réside. Son médecin de famille, Philippe Henry, exclut cependant encore la possibilité de tout emploi exigeant "une certaine force physique". Le Pr Jean-Michel Dubernard et son équipe avaient réalisé la première allogreffe en septembre 1998 à Lyon. L'opération avait été réalisée pour une seule main coupée à hauteur du poignet sur le Néo-Zélandais Clint Hallam. Par la suite, Clint Hallam s'était révélé moins coopératif que ne l'a été Denis Chatelier. Durant six mois, il avait en effet refusé de poursuivre son traitement immunosuppresseur anti-rejet. Et à sa demande, il s'était fait amputer sa main greffée, en février 2001, à Londres. "Je ne peux pas en vouloir à Clint Hallam, malgré cet échec", a répété vendredi Jean-Michel Dubernard. "Car je n'oublie pas que c'est grâce à cette première greffe que nous pouvons aujourd'hui réaliser les suivantes".

AP : http://fr.news.yahoo.com/030124/5/2z47o.html

Des veines artificielles enduites de cellules humaines
Samedi, 01/02/2003 - 00:00

Nourriture trop grasse, tabac ou alcool sont des facteurs favorisant l'apparition des plaques d'athérome, qui bouchent progressivement les artères. Première cause de mortalité dans l'Hexagone, les maladies cardio-vasculaires tuent ainsi quelque 180 000 Français chaque année. Parmi les soins qui peuvent être proposés aux patients concernés, la pose d'une prothèse vasculaire : un conduit artificiel qui remplace une artère. Au CHU de Bordeaux commence actuellement un essai mené à travers l'Europe qui doit valider l'utilisation d'une génération nouvelle de prothèses. Celles-ci sont «endothélialisées» : en laboratoire, leur surface est enduite de cellules humaines cultivées au préalable (l'endothélium est la fine couche cellulaire qui tapisse l'intérieur des vaisseaux). Après implantation, on ne rencontre donc pas les problèmes classiques de coagulation du sang au contact d'une prothèse. «Après un premier essai en Autriche, on estime que les résultats seront aussi bons que ceux des autogreffes de vaisseaux», s'enthousiasme le Professeur Charles Baquey, qui travaille sur le sujet dans un laboratoire Inserm à Bordeaux. N'importe quel tuyau ne peut pas remplacer une artère malade. Les implants vasculaires doivent répondre à des critères d'élasticité, de solidité et d'étanchéité très rigoureux. Sans parler de la nécessaire «bio-inertie» dans le corps humain : les vaisseaux artificiels ne doivent pas se décomposer dans l'organisme. Bio-inertes, les prothèses ne sont pas pour autant biocompatibles. Le matériau utilisé, en général un textile polyester, n'est pas colonisé par de nouvelles cellules. Et c'est là le point faible des prothèses classiquement utilisées : quand le sang entre en contact avec l'implant, il va avoir tendance à coaguler. «Au niveau des grosses artères, cela ne pose pas de réel problème, explique le Professeur Baquey. Mais pour les vaisseaux de diamètre inférieur à six millimètres, le caillot formé par la coagulation peut boucher la prothèse». C'est pourquoi l'on administre aujourd'hui un traitement anticoagulant aux personnes porteuses d'un implant vasculaire. Cela pose problème, car ces patients sont souvent relativement âgés, et présentent d'autres pathologies. Un ulcère par exemple, qui va saigner sous l'effet du traitement. Les nouvelles prothèses, actuellement testées, sont recouvertes d'une couche de cellules : à leur contact, le sang ne coagule pas. Pour les malades, qui pourront désormais éviter de prendre des anticoagulants, cela constitue une véritable révolution.

Figaro : http://www.lefigaro.fr/sciences/20030127.FIG0124.html

Une imprimante à jet d'encre pour produire des organes
Samedi, 01/02/2003 - 00:00

Des scientifiques étudient la possibilité d'utiliser des imprimantes de bureau pour produire des cylindres en trois dimensions de tissus vivants voire d'organes entiers, peut-on lire dans une revue spécialisée. Des chercheurs américains modifient des imprimantes à jet d'encre et utilisent des cellules pour créer des structures tridimensionnelles selon le magazine New Scientist. Actuellement, bien que la production d'organes soit encore lointaine, de nombreux laboratoires "impriment" déjà des segments d'ADN, des protéines et même des cellules. "Comme lorsqu'on utilise plusieurs couleurs à l'impression, placer différents types de cellules dans les cartouches d'encre devrait permettre de recréer des structures complexes composées de cellules multiples." "Les travaux (actuels) sont un premier pas vers l'impression de tissus complexes voire d'organes entiers", dit la revue scientifique. Vladimir Mironov, de la Faculté de Médecine de Caroline du Sud, et Thomas Boland, de l'Université Clemson du même Etat, ont utilisé un gel biodégradable, non toxique, et des cellules animales pour créer des structures. "En imprimant des couches alternées de gel et des agrégats de cellules sur des lamelles de verre, ils ont présenté des structures 3D en forme de tube", selon le New Scientist. Lorsque les couches deviennent suffisamment fines les contacts entre les cellules permettent de former des bouts de tissus. Le gel peut ensuite être retiré. Mais avant d'être en mesure de produire des organes, les scientifiques devront résoudre le problème des réseaux d'alimentation des structures cellulaires en oxygène et substances nutritives. "L'impact pourrait être celui de la presse de Gutenberg", a déclaré Mironov.

New Scientist :

http://www.newscientist.com/news/news.jsp?id=ns99993292

Premier chat cloné : la copie ne ressemble pas à l'original
Samedi, 01/02/2003 - 00:00

Le 22 décembre 2001, Mark Westhusin de l'Université A&M, au Texas, a cloné pour la première fois un animal domestique : CC (Copy Cat) est le clone de Rainbow, une chatte adulte. Mais il ne lui ressemble ni physiquement, ni moralement. La robe de Rainbow est blanche avec des taches marron tandis que celle de son clone est blanche avec des rayures grises. La première est bien en chair et la seconde svelte. Et Rainbow est aussi réservée que CC est curieuse et enjouée. Les propriétaires d'animaux domestiques qui espèrent que le clonage permettra de « ressusciter » leur animal préféré seront donc déçus : les clones ne sont pas parfaitement identiques à l'original. Duane Kraemer, chercheur à l'Université A&M, indique que des gènes identiques ne produisent pas forcément la même couleur de pelage et que l'environnement est tout aussi important que les gènes pour déterminer la personnalité d'un chat. Selon ses créateurs, CC est en bonne santé et ses gènes sont normaux. La naissance de CC a été financée par l'entreprise Genetic Savings and Clone, basée en Californie, qui souhaite développer un marché lucratif autour du clonage d'animaux domestiques. Genetic Savings and Clone offre un service d'entreposage et de conservation d'ADN de chien et de chat. Des particuliers ont déjà fait stocker à leurs frais des centaines d'échantillons d'ADN de leurs animaux de compagnie. Ils ont dû payer 895 dollars pour ceux qui étaient en bonne santé et 1 395 dollars pour l'ADN prélevé sur leurs animaux morts ou malades. La technique de clonage utilisée pour CC est celle du transfert nucléaire, la même méthode employée que pour la brebis Dolly. Les scientifiques ont d'abord prélevé sur la chatte Rainbow des cellules de l'ovaire qu'ils ont fusionnées avec des ovules énucléés de chattes donneuses. Ils ont obtenu cinq embryons qu'ils ont introduits dans deux chattes porteuses. Les embryons se sont développés mais n'ont abouti qu'à une seule naissance.

Cybersciences : http://www.cybersciences.com/

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Les enfants de famille monoparentale seraient psychologiquement plus fragiles
Samedi, 01/02/2003 - 00:00

Les enfants de famille monoparentale ont deux fois plus de risques que ceux élevés avec leurs deux parents de souffrir de graves maladies psychiatriques ou de conduites addictives, selon de nouveaux travaux suédois. L'étude, qui est publiée cette semaine dans le journal "The Lancet", concerne environ un million d'enfants suivis pendant une décennie jusqu'à l'âge de 25 ans environ. Elle est convaincante du fait de son envergure. Sans éclairer en rien les raisons qui font de ces enfants des malades psychiatriques, elle souligne toutefois l'importance de l'éducation, qu'elle place avant l'importance de la monoparentalité ou celle du manque d'argent. Les responsables de l'étude se sont servis des registres suédois, qui concernent la presque totalité de la population et qui regroupent des informations médicales et socio-économiques. Parmi les enfants concernés, 60.000 habitaient avec leur mère et 5.500 avec leur père. Ils étaient 921.257 à vivre avec les deux. Les enfants étaient âgés de six à 18 ans au début de l'étude. Selon les résultats, les enfants ne vivant qu'avec un seul parent présentaient deux fois plus de risques de développer une maladie psychiatrique telle qu'une schizophrénie ou une dépression sévère; ils étaient aussi plus enclins au suicide et à souffrir de conduites addictives (alcool, notamment). Les filles étaient deux fois plus souvent toxicomanes, les garçons quatre fois plus souvent. Les chercheurs ont conclu que les difficultés financières, en particulier le chômage ou la vie en appartement loué, contribuaient en grande partie à faire la différence. A l'inverse, d'autres experts ont rappelé qu'en Suède, les mères qui élèvent seules leur enfant ne sont pas en grande difficulté financière. "Si la situation matérielle était si importante, la situation serait pire en Angleterre, un pays où la pauvreté des mères seules est plus criante. Or elle est la même. La qualité de l'éducation semble donc plus primordiale", a souligné Sara McLanahan, professeur de sociologie et d'affaires publiques à l'Université de Princeton. "La plupart du temps, lorsque vous tenez compte de la qualité de la relation entre l'enfant et son parent, les effets de la monoparentalité deviennent infimes", a pour sa part relevé Stephen Scott, chercheur en santé et comportementalisme de l'enfant à l'Institut de psychiatrie de Londres, qui est extérieur à l'étude. Il peut aussi exister un élément génétique: plus les personnes sont irritables, plus elles risquent de se séparer de leurs conjoints. Mais séparés ou non, elles ont aussi plus de risques d'avoir des enfants difficiles.

Lancet :

http://www.thelancet.com/journal/vol361/iss9354/full/llan.361.9354

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Bientôt les voitures lèveront le pied pour nous
Samedi, 01/02/2003 - 00:00

Baptisé «Lavia» - pour Limiteur s'Adaptant à la VItesse Autorisée - ce projet est mené sous l'égide tout à la fois de l'Institut national de recherches et d'études sur les transports et leur sécurité (Inrets), du Laboratoire central des Ponts et Chaussées (LCPC) et des deux constructeurs automobiles impliqués dans son expérimentation. Il fera appel au positionnement par satellite et à une mémoire informatique embarquée pour que l'injection de carburant soit régulée dans les moteurs, de manière aussi automatique qu'incontournable. «On ne peut pas ne pas respecter des règles de conduite sur la route qui font partie d'un système social. Il faut imposer des sanctions à ceux qui ne le font pas, tout en aidant au maximum les conducteurs à ne pas transgresser les interdits, au besoin par des systèmes contraignants», estime ainsi Jean-Marc Blosseville, directeur du Livic, laboratoire commun mis sur pied par le LCPC et l'Inrets pour étudier la faisabilité de divers systèmes d'assistance ou de guidage de la conduite automobile. «Il ne faut pas avoir peur d'un «Big Brother» qui contrôlerait tout le monde», modère cependant Jacques Ehrlich, l'ingénieur du LCPC responsable du programme. Il souligne que le recours aux satellites n'aura pour objectif que de permettre aux véhicules de se positionner. Ensuite, tout se passera à bord de ceux-ci : comme les systèmes de navigation routière, Lavia fonctionnera grâce à un logiciel embarqué qui lui permettra de savoir qu'à l'endroit où se trouve le véhicule, la vitesse est limitée à telle ou telle valeur. «Ainsi, qu'il s'agisse de 30 km/h au droit d'une école, de 50 ou 70 km/h en zone urbaine, de 90, 110 ou 130 km/h ailleurs, l'accélérateur n'agira plus au-delà de la vitesse limite qui aura été enregistrée dans la mémoire du système, exactement comme si on levait le pied de soi-même, explique-t-il. Mais en aucun cas un suivi ou repérage individuel de véhicule ne pourra être assuré par ce moyen.» Lavia restera donc aveugle. Et peut-être aussi un peu permissif. «Dans la version qui va bientôt être expérimentée, il sera doté d'un système qui laissera la possibilité de s'en affranchir», annonce en effet Jacques Ehrlich : un système de «kick-down», analogue à celui couplé aux boîtes automatiques, permettra de neutraliser le système en appuyant à fond sur l'accélérateur, «de manière par exemple à pouvoir achever au plus vite un dépassement délicat, ou à s'insérer dans un flot de véhicules ne respectant pas une limitation de vitesse», explique-t-il. Au-delà de son utilité même, qui apparaît indéniable, c'est à ce niveau de permissivité que Lavia semble surtout susciter le débat. Farida Saad, directrice de recherche à l'Inrets et responsable du volet «psychologie» du programme, ne prône pas, elle non plus, une ligne trop «dure» dont elle souligne les risques : «L'important, estime-t-elle, est de parvenir à pleinement aider le conducteur à bien conduire, mais sans pour autant le déresponsabiliser, notamment en lui retirant trop de capacité d'intervention sur le comportement du véhicule». Pour elle, si des concepts comme celui du limiteur de vitesse doivent «forcément» s'imposer ces prochaines années, il faut rester conscient que les systèmes de sécurité active des véhicules du futur ne trouveront de véritable efficacité que s'ils sont ressentis comme des aides et non comme des contraintes. «Sinon, l'automobiliste cherchera toujours à les contourner au lieu de les utiliser.» Reste à savoir ce qu'en penseront les véritables responsables de la sécurité routière, c'est-à-dire les pouvoirs publics. Pour l'instant programme de recherche, Lavia doit permettre de définir toutes les facettes d'un système qui ne pourra commencer à devenir opérationnel qu'à partir de 2006. D'ici là, estiment les chercheurs, les automobilistes eux-mêmes participeront à sa définition finale qui dépendra certainement, pour une bonne part, de la manière dont le nombre de tués sur les routes aura évolué.

Figaro : http://www.lefigaro.fr/france/20030124.FIG0192.html

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top