|
|
Edito
Pour que l'intelligence l'emporte sur la violence : vive le logiciel libre
Selon l'excellente définition d'Alvin Toffler, trois pouvoirs différents régissent notre Monde. Le Pouvoir par la violence, le Pouvoir par l'argent et le Pouvoir par le savoir. Après la chute du mur de Berlin nous avions cru que le Pouvoir par le Savoir l'avait définitivement emporté sur le Pouvoir par la violence. Malheureusement, depuis le 11 Septembre 2001, nous avons pris conscience qu'il n'en est rien. Le pouvoir par la violence s'appuie sur des structures pyramidales (hiérarchie et chef), et veut contraindre plus que convaincre. Ne parlons pas du Pouvoir par l'argent qui est fondamentalement amoral puisqu'il ira toujours là où c'est le plus lucratif. Le Pouvoir par le Savoir s'appuie sur les réseaux. Selon la nature du Pouvoir qui l'emportera, dans ces prochaines années, ce sont les logiciels propriétaires qui l'emporteront si la violence domine ou les logiciels libres si le savoir et les réseaux prédominent. La partie est loin d'être gagnée pour les logiciels libres car l'histoire de l'Open Source est trop souvent liée, de façon erronée, à l'histoire échevelée et anarchique de l'Internet des années 90. En confondant les valeurs des biens immatériels, et en voulant accéder gratuitement aux produits à valeur ajoutée que sont la connaissance et l'expertise, comme si c'étaient de simples informations, les internautes ont obligé la communauté mondiale de la propriété intellectuelle, surtout dans les domaines de la musique et du cinéma, à réagir. C'est ainsi que Microsoft, le leader mondial du logiciel propriétaire, a peu à peu élaboré une riposte qui pourrait fondamentalement changer la nature même du monde Internet, dans ces prochaines années. Ainsi, avec les systèmes Passport, Palladium (récemment devenu NGSCB) et DRM (Gestion des Droits Numériques), chacun devra montrer patte blanche sur le réseau et s'acquitter de tous les droits avant de pouvoir accéder à un bien numérique. Il est difficile d'imaginer voir les producteurs de biens immatériels refuser une telle aubaine, eux qui souvent ont été pillés par de nombreux hackers, depuis plusieurs années. Mais, si cela se passait ainsi, la communauté Internet serait en grand danger. En effet, une société privée, aussi puissante et respectable soit-elle, n'aurait pas le droit moral de « fliquer » l'ensemble de la toile mondiale. Devant de tels agissements, je pense qu'il devient urgent pour toutes les Démocraties, de favoriser le développement des communautés « Open Source » sur leurs territoires, et d'obliger leurs administrations à utiliser des logiciels libres. Ce n'est qu'ainsi que les Gouvernements et nos concitoyens pourront être assurés que les logiciels qu'ils utilisent ne cachent pas de programmes espions et ne recèlent pas de portes dérobées. Seuls les Gouvernements sous le contrôle du Parlement ont le droit dans nos Démocraties de mettre en oeuvre des règles qui régissent toutes les relations entre les citoyens, et ont en charge la protection de la vie privée. Les démarches initiées par Microsoft, mais aussi par Intel avec TCPA, vont beaucoup trop loin car elles entrent dans un domaine qui est de la seule compétence des Gouvernements. Si nos Démocraties n'ont pas la sagesse de tout mettre en oeuvre, très rapidement, pour éviter que de grandes compagnies se substituent à elles pour remplir certaines de leurs missions régaliennes, il est à craindre que, très rapidement, se lève une profonde révolte contre ces tentatives de retirer des libertés fondamentales à chacun de nous. Ce serait alors un vrai gâchis car, après la vague d'espoir apportée par la mise en réseaux de plus d'un milliard d'être humains, nous pourrions connaître une période de glaciation sans précédent s'appuyant sur la défiance et une forme nouvelle de technophobie. René TRÉGOUËT Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
1. Qu'est ce que TCPA et Palladium ? TCPA, qui signifie « alliance pour une informatique de confiance » (Trusted Computing Platform Alliance en anglais), est un projet développé par Intel. « Une nouvelle plate-forme informatique pour le prochain siècle qui améliorera la confiance dans le monde PC », tel est l'objectif d'Intel. Palladium est un logiciel que Microsoft déclare vouloir incorporer dans les futures versions de Windows ; il s'installera sur des machines TCPA et y ajoutera quelques fonctionnalités supplémentaires. 2. Concrètement, à quoi servent TCPA et Palladium ? Ils fournissent une plate-forme informatique sur laquelle vous ne pouvez pas toucher aux logiciels, et où ces logiciels peuvent communiquer de manière sécurisée avec l'éditeur. La « gestion numérique des droits » (DRM ou digital rights management) en est l'application la plus évidente : Disney pourra vous vendre des DVD qui seront décodés et lus sur une plate-forme Palladium, mais que vous ne pourrez pas copier. Les maisons de disques pourront vous vendre de la musique en ligne que vous ne pourrez pas échanger. Ils pourront vous vendre des CD que vous ne pourrez écouter que trois fois, ou bien seulement à votre anniversaire. Toutes sortes de nouvelles variantes marketing deviennent possibles. Il sera beaucoup plus difficile avec TCPA / Palladium d'utiliser des logiciels sans licence. Les logiciels piratés pourront être détectés et effacés à distance. À côté de la vente, la location des logiciels sera facilitée ; et en cas de cessation du paiement du loyer, non seulement le logiciel ne fonctionnera plus mais peut-être aussi les fichiers qu'il a créés. Depuis des années, Bill Gates rêvait de trouver un moyen pour que les chinois payent leurs logiciels : Palladium pourrait être la réponse à sa prière. Il y a beaucoup d'autres applications. Les gouvernements pourront faire en sorte que des documents Word créés sur les PC des fonctionnaires naissent classés « secret défense » et que les fuites électroniques vers les journalistes soient impossibles. Des sites d'enchères pourraient vous obliger à utiliser des logiciels mandataires accrédités pour les enchères, pour que nous ne puissiez pas enchérir de manière tactique. On pourra rendre plus difficile le fait de tricher aux jeux sur ordinateurs. Il existe aussi un inconvénient : la censure en ligne. Les mécanismes conçus pour effacer à distance de la musique piratée pourraient être utilisés pour effacer des documents qu'une cour de justice (ou une société d'informatique) aurait déclarés injurieux ; il pourrait s'agir aussi bien de pornographie que d'articles critiques sur des leaders politiques. Les éditeurs de logiciels pourraient aussi rendre plus difficile le passage vers les produits de leurs concurrents ; par exemple, Word pourrait verrouiller tous vos documents en utilisant des clefs auxquelles seuls les produits Microsoft auraient accès ; c'est-à-dire que vous ne pourriez les lire qu'en utilisant des produits Microsoft, et avec aucun autre traitement de texte concurrent. 3. Donc je ne pourrai plus lire des MP3s sur mon ordinateur ? Avec les MP3s actuels, vous pourrez peut-être le faire encore un certain temps. Microsoft déclare que rien ne cessera brutalement de fonctionner avec Palladium. Pourtant une mise à jour récente de Windows Media Player a déclenché une polémique, car elle demandait que les utilisateurs acceptent de futures mesures anti-piratages, qui pourraient aller jusqu'à l'effacement des contenus piratés trouvés sur votre ordinateur. De plus, il est vraisemblable que certains logiciels qui offrent aux gens un meilleur contrôle de leurs PC, comme VMware et Total Recorder, ne fonctionneront pas avec TCPA. Vous serez probablement obligés d'utiliser un lecteur différent. Et bien que votre lecteur pourra jouer des MP3s piratés, il est par contre improbable qu'on l'autorise à jouer les nouveaux titres, qui seront protégés. C'est au logiciel qu'il reviendra de définir les règles de sécurité pour ses fichiers, en utilisant en ligne un serveur dédié. Media Player déterminera donc quels types de restrictions seront attachés aux titres protégés, et je m'attends à ce que Microsoft passe toutes sortes d'accords avec les fournisseurs de contenus, qui pourront expérimenter toutes sortes de pratiques commerciales. Vous pourriez recevoir des CD au tiers du prix normal mais vous ne pourrez les lire que trois fois ; si vous payez les deux tiers restants, vous obtenez la totalité des droits. Vous pourriez être autorisé à prêter la copie numérique d'un morceau de musique à un ami, mais vous ne pourriez écouter votre propre exemplaire qu'après la restitution de la copie par votre ami. En fait, on ne pourra probablement plus du tout prêter de la musique. Ces règles rendront la vie difficile à certaines personnes ; une politique de zonage pourrait vous empêcher de regarder la version polonaise d'un film si votre PC avait été acheté hors d'Europe. Tout ceci pourrait être fait aujourd'hui ; Microsoft n'aurait besoin que de télécharger une correctif pour votre lecteur multimédia ! Mais quand TCPA / Palladium aura empêché toute altération du logiciel de lecture par des utilisateurs et aura facilité le contrôle des mises à jour et des correctifs par Microsoft, il vous sera plus difficile d'y échapper, et ce sera une façon bien plus agréable de faire du commerce ! 4. Comment cela fonctionne-t-il ? TCPA fournit un composant de surveillance et d'alerte à insérer dans les futurs PC. La mise en oeuvre privilégiée au cours de la première phase de TCPA est une puce « Fritz » : une puce de type carte à puce ou un périphérique dongle soudé à la carte mère. Lorsque vous amorcez votre PC, Fritz prend la main. Il vérifie que la ROM d'amorce est conforme, l'exécute, contrôle l'état de la machine ; puis il vérifie la première partie du système d'exploitation, le charge et l'exécute, vérifie l'état de la machine, et ainsi de suite. Le périmètre de confiance, englobant le matériel et les logiciels considérés comme connus et vérifiés, est régulièrement étendu. Une table du matériel (carte audio, vidéo, etc) et des logiciels (système d'exploitation, pilotes, etc.) est tenue à jour ; Fritz vérifie que les composants matériels sont sur la liste « approuvé TCPA », que les composants logiciels ont été signés, et qu'aucun d'entre eux ne possède un numéro de série ayant été résilié. Si la configuration du PC a connu des modifications significatives, la machine doit se reconnecter pour être certifiée en ligne. Au final, le PC a démarré dans un état bien déterminé, avec une combinaison de matériels et de logiciels (dont les licences n'ont pas expiré) dûment approuvée. L'autorité est ensuite transférée à un logiciel de surveillance du système d'exploitation ; il s'agira de Palladium si vous utilisez Windows. Une fois la machine dans cet état, Fritz peut la certifier auprès de tiers : par exemple il exécutera un protocole d'authentification avec Disney pour démontrer que cette machine est apte à recevoir « Blanche Neige ». C'est-à-dire certifier que le PC utilise actuellement un logiciel autorisé : MediaPlayer, DisneyPlayer, ou autre. Le serveur de Disney envoie ensuite des données chiffrées, et une clef que Fritz utilisera pour les décoder. Fritz ne fournit la clef qu'aux logiciels autorisés et seulement tant que l'environnement demeure « de confiance ». Cette notion de « confiance » est déterminée par la politique de sécurité qui a été téléchargée sur un serveur où l'éditeur du logiciel a toute autorité. Ce qui veut dire que Disney peut décider de fournir ses dernières nouveautés pour un logiciel de lecture multimédia en échange d'un contrat stipulant que le logiciel ne fera pas de copie non autorisée, et qu'il peut imposer que certaines conditions soient respectées (incluant la définition du niveau de sécurité TCPA). Il peut s'agir aussi de conditions financières : Disney pourrait demander, par exemple, que le logiciel facture un dollar à chaque fois que vous regardez le film. En fait, le logiciel lui-même pourrait être loué, et c'est un aspect qui intéresse particulièrement les éditeurs de logiciels. Les possibilités ne semblent limitées que par l'imagination des hommes du marketing. 5. À quoi d'autre peuvent servir TCPA et Palladium ? TCPA peut aussi être utilisé pour mettre en place des conditions d'accès plus restrictives sur des documents confidentiels. Une armée pourrait, par exemple, décider que ses soldats créeront uniquement des documents Word avec une étiquette de type « confidentiels » ou d'un type supérieur et que seul un PC TCPA ayant un certificat délivré par son agence de renseignement pourra les lire. On nomme ceci un « contrôle d'accès obligatoire » (mandatory access control), et les gouvernements s'y intéressent particulièrement. L'annonce de Palladium laisse à penser que ce sera une fonctionnalité des produits Microsoft : vous pourrez configurer Word pour qu'il chiffre tous les documents produits dans tel compartiment de votre machine, et qu'il ne les partage qu'avec les utilisateurs d'un groupe bien défini. Les grandes entreprises pourraient disposer des mêmes facilités, pour rendre difficile toute dénonciation de pratiques illicites. Elles pourraient s'assurer que tous les documents de l'entreprise ne soient lisibles que sur leurs propres PC, sauf lorsqu'une personne dûment autorisée lève cette interdiction. Elles pourraient aussi créer des dates de péremption : elles s'assureraient, par exemple, que tous les courriels disparaissent après 90 jours, sauf décision explicite de les conserver. (Pensez combien ceci aurait été utile pour Enron, ou Arthur Andersen, ou même Microsoft pendant leur procès antitrust.) La mafia pourrait utiliser les mêmes facilités : elle pourrait s'assurer que les feuilles de calcul détaillant les dernières livraisons de drogues ne puissent être lues que par les PC accrédités de la mafia, et disparaissent à la fin du mois. Cela pourrait rendre le travail du FBI plus difficile ; quoique Microsoft soit en discussion avec les gouvernements pour savoir si les policiers et les espions auront accès aux clefs principales. Mais dans tous les cas, le fait pour un employé d'envoyer par courriel un document à un journaliste sera plutôt inefficace, puisque la puce Fritz du journaliste ne lui donnera pas la clef nécessaire au décodage. TCPA / Palladium semble aussi destiné à être utilisé dans les systèmes de paiements électroniques. L'une des visions de Microsoft est que la plupart des fonctionnalités développées aujourd'hui autour des cartes bancaires pourraient migrer dans les logiciels une fois ceux-ci rendus infalsifiables. C'est une nécessité si nous devons vivre dans un futur dans lequel nous paierons pour les livres que nous lirons, et la musique que nous écouterons, tant de centimes la page ou la minute. Même si ces modèles économiques ne peuvent pas fonctionner, et il y a de bons arguments en ce sens ; c'est clairement un enjeu pour les systèmes de paiement en ligne, et cela pourrait avoir des répercussions sur l'utilisateur. Si dans dix ans, il est pénible de faire des achats en ligne avec une carte bancaire, sauf à utiliser une plate-forme TCPA ou Palladium, cela poussera un grand nombre de personnes vers ce système. 6. Ok, donc il y aura des gagnants et des perdants ; Disney pourrait gagner beaucoup et les fabricants de cartes à puces faire faillite. Mais il est sûr que Microsoft et Intel n'investissent pas des milliards par pure bonté ! Comment espèrent-ils gagner de l'argent ? Mes espions chez Intel me disent qu'il ne s'agit que d'une posture défensive. Comme ils gagnent principalement de l'argent en vendant des microprocesseurs pour PC, que leur part de marché est presque maximale, ils ne peuvent faire grossir leur entreprise qu'en augmentant la taille du marché. Ils sont déterminés à ce que le PC devienne le centre du futur réseau électronique domestique. Si les loisirs électroniques sont la poule aux oeufs d'or, et que la gestion numérique des droits (DRM) devient la technologie qui les autorise, alors le PC doit faire de la DRM ou risquer de se faire remplacer sur le marché grand public. Microsoft était également motivé par le souhait d'annexer toute l'industrie des loisirs au sein de son empire. Mais ils sont placés pour gagner gros si TCPA ou Palladium se généralise, puisqu'ils pourront l'utiliser pour éradiquer de manière drastique la copie des logiciels. « Faire payer les logiciels aux chinois » est une affaire très importante pour Bill ; avec Palladium, il peut rattacher chaque PC à sa copie individuelle et légale d'Office, et avec TCPA il peut rattacher chaque carte mère à sa copie personnelle et légale de Windows. TCPA maintiendra aussi une liste noire mondiale des numéros de série de toutes les copies d'Office qui ont été piratées. Enfin, Microsoft aimerait rendre plus coûteux le fait d'abandonner ses produits (comme Office) pour passer à des produits concurrents (comme OpenOffice). Il lui serait possible d'augmenter le prix des mises à jour sans provoquer la fuite de ses utilisateurs. 7. D'où vient cette idée ? Elle est apparue la première fois dans un article de Bill Arbaugh, Dave Farber et Jonathan Smith, A Secure and Reliable Bootstrap Architecture (une architecture d'amorçage fiable et sécurisée), dans les actes de « IEEE Symposium on Security and Privacy (1997) » pages 65-71. Un brevet fut déposé aux USA : « Secure and Reliable Bootstrap Architecture», U.S. Patent N° 6,185,678, du 6 février 2001. Bill développa ses idées lors d'un travail qu'il fit pour la NSA en 1994 sur la signature de code. Les gens de Microsoft ont aussi déposé une demande de brevet sur la partie système d'exploitation. (Les textes des brevets sont disponibles ici et là.) Il existe certainement un grand nombre de travaux antérieurs. Markus Kuhn a écrit the TrustNo1 Processor il y a des années, et les idées de base : « un contrôleur de confiance spécialisé dans les fonctions de sécurité » ; remontent au moins à un article écrit par James Anderson pour USAF en 1972. Ce fut, depuis lors, un élément de réflexion pour les systèmes sécurisés des militaires américains. 8. En quoi est-ce associé au numéro de série du Pentium 3 ? Intel avait démarré au milieu des années 90 un programme qui aurait pu installer la fonctionnalité de la puce Fritz au sein du processeur principal des PC, ou en 2000 dans la puce de contrôle du cache. Le numéro de série des Pentium était un premier pas dans cette direction. La réaction négative du public les a apparemment obligés à une pause, puis à monter un consortium avec Microsoft et d'autres, pour disposer de l'avantage du nombre. 9. Pourquoi la puce moniteur s'appelle-t-elle « Fritz » ? C'est en l'honneur du sénateur Fritz Hollings de la Caroline du Sud, qui travaille d'arrache-pied au congrès des États-Unis pour faire de TCPA un composant obligatoire dans toute l'électronique grand public. 10. Ok, donc TCPA interdit aux gamins de graver de la musique et aide les entreprises à garder des données confidentielles. Il pourrait aider aussi la mafia, à moins que le FBI n'obtienne une porte secrète, ce que je considère comme acquis. Mais en dehors des pirates, des espions industriels et des militants, qui cela dérange-t-il ? Beaucoup d'entreprises peuvent y perdre. L'industrie européenne de la carte à puce, par exemple, devrait être atteinte, puisque les fonctions aujourd'hui fournies par leurs produits passeront dans les puces Fritz des ordinateurs portables, des PDA et des téléphones mobiles de troisième génération. En fait, la majeure partie de l'industrie des technologies de sécurité informatique pourrait être touchée si TCPA décolle. Microsoft déclare que Palladium supprimera les spams, les virus et tous les autres défauts du cyberespace ; si c'était le cas, alors les entreprises d'antivirus, les publicitaires spammeurs, les vendeurs de filtre anti-spam, de pare-feux ou de systèmes de détection d'intrusion se verraient voler leur gagne-pain. Il existe de sérieuses inquiétudes concernant les effets sur les biens immatériels et l'économie des services, et en particulier sur l'innovation, sur le nombre de créations d'entreprises et sur la probabilité qu'ont les entreprises florissantes de conserver leur monopole. Ces effets sur l'innovation sont très bien expliqués dans une colonne récente du New York Times par l'éminent économiste Hal Varian. Mais il y a des problèmes plus fondamentaux. Le principal aspect réside dans le fait que celui qui contrôle les puces Fritz acquiert un immense pouvoir. Cette unicité du point de contrôle revient à obliger tout le monde à avoir la même banque, le même comptable et le même avocat. Ce pouvoir peut être détourné de multiples façons. 11. Comment TCPA peut-il être détourné ? La censure est l'une des inquiétudes. TCPA a été conçu dès le départ pour rendre possible l'élimination centralisée de contenus piratés. Les logiciels piratés seront repérés et désactivés par Fritz lors d'une tentative de chargement, mais qu'en est-il des chansons et des vidéos ? Et comment pourrez-vous transférer une chanson ou une vidéo que vous possédez d'un PC à un autre, sauf à pouvoir la radier sur la première machine ? La solution proposée consiste à ce qu'un serveur distant administre la politique de sécurité des logiciels utilisant TCPA, comme un lecteur multimédia ou un traitement de texte, et tienne à jour une liste des mauvais fichiers. Elle sera téléchargée de temps à autre et utilisée pour vérifier tous les fichiers que le logiciel ouvrira. Les fichiers pourront être radiés en fonction du contenu, du numéro de série de l'application qui les a créés, et selon d'autres critères. L'utilisation prévue de cette technique est que si tout le monde en Chine utilise la même copie d'Office, vous ne faites pas qu'empêcher l'exécution de cette copie sur toutes les machines compatibles TCPA ; cela encouragerait juste les Chinois à utiliser des PC standards à la place de PC TCPA pour échapper aux vérifications. Vous interdisez aussi à tous les PC compatibles TCPA du monde de lire les fichiers créés à partir de ce logiciel piraté. C'est déjà terrible, mais les possibilités de détournement vont jusqu'à la censure politique, bien plus loin que l'intimidation commerciale ou la guérilla économique. Je pense que tout cela se fera progressivement. D'abord, des forces de police bienveillantes recevront des ordres pour lutter contre la pornographie pédophile ou un manuel de sabotage de la signalisation des voix ferrées. Tous les PC compatibles TCPA effaceront ces mauvais documents, et peut-être les dénonceront. Puis un plaignant dans un procès sur des droits d'auteurs ou en diffamation, obtiendra un arrêt d'une juridiction contre un document injurieux ; peut-être que les scientologues chercheront à mettre à l'index le célèbre Fishman Affidavit. Une fois que les avocats et les censeurs gouvernementaux auront compris toutes les possibilités, nous serons vite submergés par une myriade de conséquences. Le monde moderne commença seulement quand Gutenberg inventa l'imprimerie en Europe, ce qui permit de préserver et de répandre les idées même quand les princes et les évêques voulaient les interdire. Quand Wycliffe traduisit par exemple la Bible en anglais en 1380-1381, le mouvement Lollard qu'il avait fondé fut facilement démantelé ; mais lorsque Tyndale traduisit le nouveau testament en 1524-1525, il put imprimer plus de 50000 copies avant d'être rattrapé et brûlé vif. L'ancien régime en Europe s'effondra et le monde moderne commença. Les sociétés qui essayèrent de contrôler l'information devinrent moins compétitives, et avec l'effondrement de l'Union Soviétique, il semble que le capitalisme libéral et démocratique ait gagné. Mais aujourd'hui, TCPA et Palladium mettent en danger l'héritage inestimable que Gutenberg nous a légué. Les livres électroniques, une fois publiés seront vulnérables ; des tribunaux pourront ordonner qu'ils soient interdits et l'infrastructure TCPA fera le sale boulot. Après les tentatives de l'Union Soviétique pour référencer et contrôler toutes les machines à écrire et les fax, TCPA tente de référencer et de contrôler tous les ordinateurs. Les implications en terme de liberté, de démocratie et de justice sont inquiétantes. 12. Perspective effrayante. Mais ne peut-on simplement le désactiver ? Bien sûr, sauf si votre administrateur système configure votre machine de manière à ce que TCPA soit obligatoire, vous pouvez toujours le désactiver. Vous pourrez alors faire fonctionner votre PC avec les privilèges d'administrateur et utiliser des logiciels non sécurisés. Il y a malgré tout un domaine où vous ne pouvez pas désactiver Fritz. Vous ne pouvez pas l'obliger à ignorer les logiciels piratés. Même s'il a été informé que le PC ne démarre pas en mode « de confiance », il vérifie toujours que le système d'exploitation n'est pas sur la liste des numéros de série résiliés. Ceci a des implications sur la souveraineté nationale. Si Saddam est assez stupide pour équiper ses PC de TCPA, alors le gouvernement des États-Unis sera capable de faire la liste de ses licences Windows, et donc d'éteindre ses PC, la prochaine fois qu'il y aura une guerre. Démarrer en désactivant Fritz ne sera d'aucun secours. Il devra ressortir de veilles copies de Windows 2000, passer à GNU/linux ou trouver un moyen pour isoler les puces Fritz sans abîmer les cartes mères. Si vous n'êtes pas quelqu'un que le président des États-Unis déteste personnellement, ce n'est peut-être pas un problème. Mais si vous désactivez TCPA, alors vos logiciels conçus pour TCPA ne fonctionneront pas, ou ne fonctionneront pas aussi bien. Cela sera comparable à passer actuellement de Windows à Linux. vous aurez peut-être plus de liberté, mais vous finirez en ayant moins de choix. Si les logiciels qui utilisent TCPA/Palladium sont plus attractifs pour une majorité de gens, vous finirez peut-être par être contraint de les utiliser ; comme beaucoup de gens sont obligés d'utiliser Microsoft Word parce que leurs amis et collègues leur envoient des documents Microsoft Word. Microsoft déclare que Palladium, au contraire de TCPA seul, sera capable de faire cohabiter, en même temps dans différentes fenêtres, des logiciels de confiance et les autres ; cela rendra probablement plus facile son adoption. 13. Donc l'aspect économique est important ? Exactement. Sur le marché des biens et des services informatiques, les plus gros profits sont dégagés par les entreprises qui peuvent établir des plates-formes (comme Windows ou Word) et contrôler leurs interoperabilités, afin de verrouiller le marché des produits complémentaires. Par exemple, certains vendeurs de téléphones mobiles utilisent une authentification de type question-réponse (challenge-response) pour vérifier que la batterie du téléphone est d'origine, plutôt qu'un clone, auquel cas, le téléphone refuse de la recharger, voire l'épuise aussi vite que possible. Certaines imprimantes vérifient leurs cartouches d'encre de manière électronique ; si vous utilisez un substitut bon marché, l'imprimante passera silencieusement sa configuration de 1200 DPI à 300 DPI. La console Playstation 2 de Sony utilise un système d'identification similaire pour s'assurer que les cartouches mémoires ont été fabriquées par Sony et non pas par un concurrent à bas prix. TCPA paraît conçu pour maximiser l'effet, et donc le poids économique, de tels comportements. Et je pense que Palladium s'intégrera parfaitement dans la conduite bien connue de Microsoft en matière de concurrence déloyale. Si vous êtes éditeur d'un logiciel TCPA, votre serveur de sécurité pourra faire respecter votre politique quant à l'utilisation, par les autres logiciels, des fichiers créés par votre application. Ces fichiers pourront être protégés en utilisant une cryptographie forte, dont les clefs seront gérées par les puces Fritz de toutes les machines. Cela signifie qu'un logiciel à succès conçu avec TCPA rapportera bien plus d'argent à l'éditeur, puisqu'on pourra louer l'accès à ses interfaces pour tout ce que pourrait inventer le marché. Il y aura donc une forte pression sur les développeurs de logiciels pour qu'ils ajoutent une compatibilité TCPA à leurs logiciels ; et si Palladium est le premier système d'exploitation à utiliser TCPA, cela lui donnera un avantage compétitif dans le monde des développeurs sur GNU/Linux et MacOS. 14. Mais attendez, le droit à l'ingénierie inverse pour des besoins d'interopérabilité n'est-il pas protégé par la loi ? Oui, et c'est très important pour le bon fonctionnement du marché des biens et des services informatiques ; voir Samuelson et Scotchmer, « The Law and Economics of Reverse Engineering » (La loi et l'économie de l'ingénierie inverse), Yale Law Journal, Mai 2002, 1575-1663. Mais la loi dans la plupart des cas vous donne juste le droit d'essayer, pas de réussir. À l'époque où l'interopérabilité signifiait trifouiller les formats de fichiers - lorsque Word et Word Perfect se battaient pour la domination, chacun essayant de lire les fichiers de l'autre et travaillant à rendre le sien incompréhensible -, cela représentait un véritable enjeu. Mais avec TCPA, ces jeux sont terminés ; sans accès aux clefs, ou sans moyen de casser la protection des puces, l'affaire est pliée. Interdire à ses concurrents l'accès aux formats de fichiers des logiciels était l'une des motivations de TCPA : voir cette intervention de Lucky Green, ou son discours à la conférence Def Con pour en savoir plus. C'est une tactique qui se répand en dehors du monde informatique. Le congrès des États-Unis s'est irrité du fait que les constructeurs automobiles interdisent l'accès à leurs formats de données pour empêcher leurs consommateurs d'effectuer des réparations chez des garagistes indépendants. Or les gens de Microsoft disent qu'ils veulent installer Palladium partout, même dans votre montre ! Les conséquences économiques pour tout le commerce indépendant pourraient être significatives. 15. TCPA peut-il être cassé ? Les premières versions seront vulnérables à quiconque disposera des outils et de la patience nécessaires pour casser le matériel (i.e., lire les données en clair sur le bus entre le processeur et la puce Fritz). Cependant, à partir de la phase 2, la puce Fritz disparaîtra à l'intérieur du processeur principal, appelons-le « Hexium », et les choses deviendront beaucoup plus difficiles. Des opposants très motivés, et très riches, seront encore capable de le casser. Néanmoins, il est probable que cela devienne de plus en plus dur et coûteux. De plus, dans beaucoup de pays, casser Fritz sera illégal. C'est déjà le cas aux États-Unis avec le « Digital Millennium Copyright Act », tandis que dans l'Union Européenne la situation varie d'un pays à l'autre, dépendant de la manière dont les législations nationales transcrivent la directive européenne sur le droit d'auteur. Par ailleurs, pour beaucoup de produits, la question de l'interopérabilité est déjà délibérément mélangée avec la protection des droits d'auteur. Les puces d'authentification de la PlayStation de Sony contiennent aussi l'algorithme de chiffrement des DVD, de manière à ce que toute ingénierie inverse puisse tomber sous l'accusation de détournement d'un mécanisme de protection des droits d'auteur et puisse être poursuivie au nom du Digital Millennium Copyright Act. La situation va certainement se complexifier, et cela favorisera les grandes entreprises disposant de départements juridiques aux larges budgets. 16. Quels seront les conséquences probables pour l'économie en général ? L'industrie du disque pourrait gagner un peu de l'arrêt de la copie : attendez-vous à ce que Sir Michael Jagger devienne légèrement plus riche. Mais je m'attends au renforcement des positions dominantes des géants du marché des biens et des services informatiques aux dépens des nouveaux entrants. Cela pourrait se traduire par une hausse des valeurs boursières d'entreprises comme Intel, Microsoft et IBM , mais aux dépens de l'innovation et de la croissance en général. Les documents d'Eric von Hippel montrent comment la plupart des innovations qui favorisent la croissance économique ne sont pas anticipées par les fabricants des plates-formes sur lesquelles elles se basent ; et les changements technologiques sur ces marchés sont généralement incrémentaux. Donner des armes supplémentaires aux sortants pour mener la vie dure à tous ceux qui essayent de développer de nouveaux usages de leurs produits, produira une multitude d'effets pervers et de chausse-trappes. L'énorme centralisation du pouvoir économique que TCPA/Palladium représente favorisera les grandes entreprises au détriment des petites ; les logiciels conçus pour Palladium permettront aux grandes entreprises de se réserver un peu plus l'activité économique autour de leurs produits, tout comme les constructeurs automobiles obligent les propriétaires de voiture à effectuer leurs réparations chez un garagiste concessionnaire. Et, puisque la majeure partie de la croissance de l'emploi provient des petites et moyennes entreprises, les conséquences pour l'emploi seront probablement visibles. Les effets pourraient être différents suivant les régions. Ainsi, des années de soutien gouvernemental ont créé la puissante industrie européenne de la carte à puce, et marginalisé les autres innovations technologiques. Des sources bien informées du monde industriel, avec lesquelles j'ai pu discuter, anticipent qu'à partir de la seconde phase de TCPA, qui place les fonctionnalités de Fritz au coeur du processeur principal, les ventes de cartes à puces seront atteintes. De nombreux informateurs dans les entreprises concevant TCPA ont admis qu'évincer les cartes puces du marché de l'identification est l'un de leurs objectifs économiques. Beaucoup des fonctions prévues par les fabricants de cartes à puces seront effectuées par les puces Fritz de votre ordinateur portable, de votre PDA ou de votre téléphone mobile. Si TCPA se débarrasse de cette industrie, l'Europe pourrait faire partie des grands perdants. D'autres secteurs importants de l'industrie de la sécurité informatique pourraient aussi être touchés. 17. Qui d'autre parmi les perdants ? Dans beaucoup de secteurs, les pratiques commerciales actuelles seront morcelées pour que les détenteurs de droit d'auteur en retirent de nouveaux profits. J'ai ainsi récemment déposé une demande de permis pour transformer des terres agricoles que nous possédons en un jardin ; pour ce faire, nous devions fournir aux autorités locales six copies d'une carte du terrain au 1:1250ème du terrain. Par le passé, il suffisait de photocopier la carte que tout le monde pouvait emprunter dans la bibliothèque locale. Maintenant, les cartes sont sur un serveur de la bibliothèque, avec un système de contrôle, et il n'est pas possible d'obtenir plus de quatre copies pour chaque page. Pour un individu, c'est très simple à contourner : en achetant quatre copies aujourd'hui et en envoyant un ami le lendemain pour les deux autres. Mais les entreprises qui utilisent beaucoup ces cartes finiront par payer plus aux éditeurs de cartes. Cela peut sembler sans importance ; mais multipliez ça par mille pour comprendre l'impact économique global. Le différentiel de revenu et de prospérité ira, vraisemblablement, encore une fois des petites entreprises vers les grandes et des nouveaux entrants vers les anciens. Heureusement, cela pourrait provoquer une résistance politique. Un célèbre avocat anglais déclarait que les lois sur la propriété intellectuelle ne sont tolérées que parce qu'elles ne sont pas appliquées pour la vaste majorité des infractions mineures. On peut s'attendre à de lamentables affaires particulièrement médiatiques. Il paraît que la législation sur le droit d'auteur, attendue en fin d'année au Royaume-Uni, privera les aveugles du droit légitime d'utiliser leur logiciel de capture d'écran pour lire des livres électroniques. Normalement, une telle idiotie bureaucratique n'a que peu d'importance, puisque les gens se contentent de l'ignorer, et la police ne serait pas assez stupide pour poursuivre quelqu'un. Mais si des mécanismes matériels de protection, qu'il est impossible d'outrepasser, font respecter les lois sur la propriété intellectuelle, alors les aveugles pourraient sérieusement en souffrir. (Des menaces similaires existent envers beaucoup d'autres groupes minoritaires.) 18. Heu. Quoi d'autre ? TCPA sapera les bases de la GPL (Licence Publique Générale), sous les termes de laquelle beaucoup de logiciels libres sont distribués. La GPL est conçue pour éviter que les fruits du travail volontaire et commun ne soient détournés par des entreprises privés pour en faire profit. Tout le monde peut utiliser et modifier un logiciel distribué sous la licence GPL, mais si vous distribuez une version modifiée, vous devez la mettre à disposition de tous, accompagnée du code source pour que les gens puissent continuer à y apporter eux-mêmes des modifications. Deux entreprises au moins ont commencé à travailler sur une version TCPA de GNU/Linux. Cela supposera un nettoyage du code et la suppression d'un certain nombre de fonctionnalités. Pour obtenir un certificat du consortium TCPA, le postulant devra soumettre le code nettoyé à un laboratoire d'évaluation, en même temps qu'une masse de documentation démontrant pourquoi diverses attaques connues contre le code ne fonctionnent pas. (L'évaluation est du niveau E3 : suffisamment coûteuse pour laisser à l'écart la communauté du logiciel libre, mais assez permissive pour que la plupart des éditeurs de logiciels aient une chance de faire valider leurs codes sources vérolés.) Bien que le logiciel modifié sera protégé par la GPL, et que le code source sera libre, il ne pourra pas utiliser toutes les fonctionnalités TCPA à moins d'avoir un certificat spécifique à la puce Fritz de votre machine. Ce certificat vous coûtera de l'argent (sinon au début, du moins à terme). Vous serez toujours libre de faire des changements au code modifié, mais vous ne pourrez pas obtenir un certificat qui vous fasse rentrer dans le système TCPA. Quelque chose de similaire est arrivé avec le système Linux fourni par Sony pour la Playstation 2 ; les mécanismes de protection anti-copie de la console vous empêche d'exécuter un binaire modifié, et d'utiliser un certain nombre de fonctionnalités matérielles. Même si un mécène finançait une version sécurisée gratuite de GNU/linux, le produit résultant ne serait pas vraiment une version GPL d'un système d'exploitation TCPA, mais un système d'exploitation propriétaire que le mécène donnerait gratuitement. (Reste à savoir qui payerait pour les certificats utilisateurs.) Les gens pensaient que la licence GPL rendait impossible le fait qu'une entreprise vienne et vole le code résultant de l'effort communautaire. Cela encouragea des volontaires à sacrifier leur temps libre à écrire des logiciels libres pour le bénéfice de la communauté. Mais TCPA change cette donne. Une fois que la majorité des PC sur le marché sont de type TCPA, la GPL ne fonctionne pas comme prévue. La destruction directe des logiciels libres n'est pas l'avantage attendu par Microsoft. Le coeur du problème, c'est qu'une fois que les gens réaliseront que même un logiciel sous GPL peut être détourné pour des objectifs commerciaux, les jeunes programmeurs idéalistes seront bien moins motivés par l'écriture de logiciels libres. 19. J'imagine que certaines personnes se mettront en colère contre tout ceci. Cela pose en effet beaucoup d'autres problèmes politiques : la question de la transparence de traitement des données nominatives au coeur de la directive européenne sur la protection de données ; le problème de la souveraineté, si les lois sur la propriété intellectuelle seront écrites pas les gouvernements nationaux, comme à présent, ou par un développeur de logiciel de Portland ou de Redmond NDT : villes où sont situées les sièges sociaux d'Intel et de Microsoft] ; savoir si TCPA sera utilisé par Microsoft comme un moyen pour éliminer Apache ; et savoir si les gens accepteront en pratique l'idée d'avoir leurs PC contrôlés à distance, contrôle dont pourrait s'approprier secrètement une cour de justice ou une administration. 20. Attendez, TCPA n'est-il pas illégal suivant la loi antitrust ? Intel a détaillé sa stratégie de domination du marché des plates-formes dans laquelles ils conduisent le développement des technologies qui rendront le PC plus efficace, comme le bus PCI ou USB. Son modus operandi est décrit dans un livre de Gawer et Cusumano. Intel monte un consortium pour partager le développement de la technologie, demande aux membres fondateurs d'apporter quelques brevets dans la corbeille, publie un standard, crée tout un mouvement autour de lui, puis accorde des licences à toute l'industrie à la condition que ceux qui ont obtenu cette licence accordent gratuitement à leur tour des licences pour leurs brevets qui interfèrent avec ce standard à tous les membres du consortium. L'avantage de cette stratégie, c'était qu'Intel augmentait la taille du marché des PC ; l'inconvénient, c'était qu'elle empêchait tout concurrent d'obtenir une position dominante dans une quelconque technologie qui aurait pu menacer sa domination du marché des PC. Ainsi, Intel ne pouvait pas se permettre la victoire du bus « microchannel » d'IBM, pas seulement comme un connecteur concurrent de la plate-forme PC mais aussi parce qu'IBM n'avait aucun intérêt à fournir la bande-passante nécessaire pour que le PC rivalise avec les grands systèmes. L'effet en terme stratégique est d'une certaine manière identique à l'antique pratique romaine, qui consistait à démolir toutes les habitations et de couper tous les arbres près de leurs routes et autour de leurs forteresses. Aucune structure concurrente ne peut être autorisée près de la plate-forme d'Intel ; tout doit être ramené au niveau des choses communes, avantageusement ordonné et parfaitement réglementé : les interfaces doivent être « ouvertes et non libres ». [NDT : par opposition au logiciel libre] Cette pratique du consortium a évolué en une méthode très efficace pour contourner la loi antitrust. Pour l'instant, les autorités ne semblent pas s'inquiéter de tels consortiums, tant que les normes sont ouvertes et accessibles à toutes les entreprises. Il faudra sans doute que leurs méthodes se complexifient un peu plus. Bien sûr, si Fritz Hollings réussit à faire passer sa loi au congrès des États-Unis, alors TCPA deviendra obligatoire et le problème des pratiques monopolistiques s'évanouira, au moins en Amérique. On peut espérer que les législateurs européens seront plus fermes. 21. Quand tout ceci sortira-t-il ? C'est déjà fait. Les spécifications ont été publiées en 2000. Atmel vend d'ors et déjà une puce Fritz, et bien que vous deviez signer un contrat de non-divulgation pour recevoir une fiche technique, il est possible que vous en ayez acheté une depuis mai 2002 dans un ordinateur portable IBM de type Thinkpad. Certaines des fonctionnalités existantes de Windows XP et de la X-Box sont des éléments de TCPA : par exemple, si vous ne changez rien qu'un peu la configuration de votre PC, vous devez réenregistrer tous vos logiciels avec Redmond. Par ailleurs, depuis Windows 2000, Microsoft a mis en oeuvre la certification de tous les pilotes de périphérique : si vous essayez d'installer un pilote non signé, XP se plaindra. Il existe également un intérêt croissant du gouvernement des États-Unis pour le processus de normalisation technique. La machine est en marche. Le calendrier de Palladium est plus incertain. Il semble qu'il y ait une lutte d'influence en cours entre Microsoft et Intel ; Palladium fonctionnera aussi sur le matériel de fournisseurs concurrents comme Wave Systems, et les logiciels écrits pour tourner avec TCPA seul, nécessiteront d'être réécrits pour tourner sur Palladium. Cela ressemble à une manoeuvre destinée à assurer que la plate-forme informatique sécurisée du futur soit contrôlée seulement par Microsoft. C'est peut-être aussi une tactique pour dissuader les autres entreprises d'essayer de développer des plates-formes logicielles basées sur TCPA. Intel et AMD planifient manifestement la seconde génération de la fonctionnalité TCPA qui serait fournie par défaut par le processeur principal. Elle pourrait apporter plus de sécurité, mais elle leur donnerait le contrôle des développement à la place de Microsoft. Je sais que l'annonce de Palladium fut reportée de plus d'un mois après que j'eus présenté une publication lors d'une conférence sur l'économie du logiciel libre le 20 juin 2002. Cette publication critiquait TCPA comme anti-concurrentiel, et ce fut largement confirmé depuis par de nouvelles révélations. 22. Qu'est-ce que TORA BORA ? Il semble que c'était un jeu de mot chez Microsoft : voir l'annonce de Palladium . L'idée est que Trusted Operating Root Architecture (« l'architecture logiciel de confiance », c'est-à-dire Palladium) arrêtera les attaques de type Break Once Run Anywhere (cassé une fois, fonctionnant partout), c'est-à-dire que les fichiers piratés, une fois déverrouillés, peuvent être distribués sur Internet et utilisés par tout le monde. Ils semblent s'être aperçu depuis que cette plaisanterie pouvait paraître de mauvais goût. Lors d'une conférence à laquelle j'assistais le 10 juillet au centre de recherche de Microsoft, le slogan était devenu BORE-resistance, où BORE est l'acronyme de Break Once Run Everywhere (cassé une fois, fonctionnant partout). (Au passage, le conférencier employait là-bas le terme « filtrage de contenu », désignant normalement les outils de contrôle parental de la pornographie, en lieu et place « d'empreinte numérique » : la boîte à idées des relations publiques est apparemment en ébullition ! Il nous dit aussi que tout ceci ne fonctionnera que lorsque tout le monde sera équipé d'un système d'exploitation « de confiance ». Lorsque je lui demandai si cela impliquait de se débarrasser de Linux, il répondit que les utilisateurs de Linux allaient devoir s'habituer à utiliser le filtrage de contenu.) 23. Mais la sécurité des PC n'est-elle pas une bonne chose ? La question est : la sécurité pour qui ? Vous préférez peut-être ne plus être inquiété par les virus, mais ni TCPA ni Palladium ne régleront ce problème : les virus profitent de la manière dont les logiciels (comme Office ou Outlook de Microsoft) utilisent les macros. Vous êtes peut-être irrité par le spam, mais cela non plus ne sera résolu. (Microsoft laisse entendre que cela sera résolu par filtrage de tous les messages non signés ; mais les spammers achèteront simplement des PC TCPA. Il serait plus intelligent d'utiliser votre lecteur existant pour filtrer les courriels des personnes que vous ne connaissez pas et de les mettre dans un dossier à survoler une fois par jour.) Vous êtes peut-être inquiet pour votre vie privée, mais ni TCPA ni Palladium ne vous aideront ; presque toutes les intrusions dans des données personnelles résultent de l'abus des autorisations d'accès, souvent obtenues par des moyens coercitifs. La compagnie d'assurance médicale qui vous demande d'accepter que vos données soient partagées avec votre employeur ou avec tous ses clients, ne va pas s'arrêter simplement parce que leurs PC sont maintenant officiellement « sécurisés ». Au contraire, il est probable qu'elle les vende même davantage, puisque nous pouvons maintenant faire « confiance » aux ordinateurs. Les économistes ont remarqué que lorsqu'un fabricant produisait un bien écologique, cela augmentait souvent la pollution, car les gens achetaient le coté écologique au lieu de moins acheter ; nous avons ici un équivalent concernant la sécurité de ce qu'il est convenu d'appeler une « chausse-trappe sociale » . De plus, en fortifiant et en étendant les monopoles existants, TCPA augmentera l'intérêt à la discrimination par les prix et donc de la collecte de données personnelles pour analyse marketing. L'opinion la plus indulgente concernant TCPA est avancée par un chercheur de chez Microsoft : il existe des domaines pour lesquels il est souhaitable de contrôler les gestes de l'utilisateur. Par exemple, vous devez empêcher les gens de trafiquer le compteur d'une voiture avant qu'il ne la vende. De la même manière, si vous voulez activer le DRM sur un PC, vous devez traiter l'utilisateur comme l'ennemi. De ce point de vue, TCPA et Palladium n'offrent pas autant de sécurité à l'utilisateur qu'au vendeur de PC, à l'éditeur de logiciel, et à l'industrie du spectacle. Ils ne sont d'aucune utilité pour l'utilisateur, bien au contraire. Ils restreignent votre liberté d'action sur votre PC afin d'autoriser fournisseurs de services et de logiciels à vous soutirer plus d'argent. C'est la définition classique d'un cartel : une entente industrielle qui change les termes de l'échange pour diminuer les avantages du consommateur. Il ne fait aucun doute que Palladium sera introduit avec de nouveaux gadgets pour que le paquet dans son ensemble paraisse ajouter de la valeur sur le court terme, mais sur le long terme, les conséquences économiques, sociales et juridiques requièrent une sérieuse réflexion. 24. Pourquoi est-ce donc nommé « informatique de confiance »? Je ne vois pas pourquoi je devrais lui faire confiance ! C'est presque une blague d'initié. Au « Department of Defense » des Étas-Unis, un « système ou composant de confiance » est défini comme « celui qui a la capacité de violer les règles de sécurité ». Cela peut sembler contre-intuitif au premier abord, mais repensez-y encore une fois. Le filtre à courriel ou pare-feu situé entre un système Secret et un autre Top-Secret peut, s'il échoue, violer la règle disant qu'un courriel ne peut circuler que du système Secret vers celui Top-Secret, et jamais dans l'autre sens. On lui fait donc confiance pour faire respecter les règles de circulation de l'information. Ou prenons un exemple dans la vie quotidienne : supposez que vous ayez confiance en votre docteur pour qu'il garde confidentiel votre dossier médical. Cela veut dire qu'il a accès à votre dossier, qu'il peut donc le dévoiler à la presse s'il est négligent ou sans scrupule. Vous n'avez pas confiance en moi concernant votre dossier médical, parce que je ne l'ai pas ; peu importe que je vous aime ou que je vous déteste, je ne peux rien faire pour enfreindre la règle de confidentialité de votre dossier médical. Par contre votre docteur le peut ; et le fait qu'il soit en position de vous porter préjudice, est vraiment ce qui compte (d'un point de vue logique) lorsque vous déclarez votre confiance en lui. Il vous est peut-être très sympathique, ou vous devez juste lui faire confiance parce qu'il est le seul docteur de votre île ; peu importe, la définition de « confiance » du « DoD » ne tient pas compte de ces aspects émotionnels et superflus (qui peuvent induire les gens en erreur). Rappelez-vous que durant la fin des années 90, quand les gens débattaient du contrôle gouvernemental sur la cryptographie, Al Gore proposa un service de « tiers de confiance » ; pour garder une copie de vos clefs de déchiffrement à l'abri, simplement pour le cas où vous (ou le FBI, ou la NSA) en auriez un jour besoin. Ce nom fut tourné en dérision comme appartenant à la catégorie des slogans publicitaires, celle qui qualifie de « république démocratique » la colonie Russe d'Allemagne de l'est. Mais c'est vraiment en harmonie avec la manière de penser du DoD. Un « tiers de confiance » est un « tiers qui a la capacité de violer votre sécurité ». 25. Donc un « ordinateur de confiance » est un ordinateur qui viole ma sécurité ? Maintenant, je crois que vous avez compris. Ross Anderson. Traduction française par Christophe Le Bars. Merci à Philippe Batailler et à Frédéric Bothamy pour leurs relectures. TCPA : [http://www.trustedcomputing.org/tcpaasp4/index.asp TCPA : http://www.lebars.org/sec/tcpa-faq.fr.html The Register : http://www.theregister.co.uk/content/4/25852.html The Register : http://www.theregister.co.uk/content/archive/23387.html New Scientist : http://www.cw.com.hk/Comment/c990713001.htm La loi et l'économie de l'ingénierie inverse : http://www.sims.berkeley.edu/~pam/papers/l&e%20reveng3.pdf
|
|
|
|
|
|
|
|
Trois ans après la loi qui lui conférait la même force qu'à la signature manuscrite, le paraphe électronique et les fonctions de chiffrement qui lui sont associées tardent à se généraliser. La complexité de l'organisation nécessaire à sa mise en place rebute les industriels. Trois ans après l'adoption de la loi sur la signature électronique, celle-ci tarde à entrer dans les moeurs. Certes, les industriels ont dû patienter pour que les décrets d'application (2001) et les arrêtés ministériels (2002) précisent les conditions techniques et juridiques donnant à la signature électronique la même valeur probante qu'à la signature manuscrite. Certes, la "bulle Internet" a éclaté dans l'intervalle, tarissant les financements. Pour autant, on s'explique mal le manque d'enthousiasme vis-à-vis d'une technologie - l'infrastructure à clés publiques (ICP) - qui était présentée naguère comme le moyen idéal pour établir la confiance sur Internet. Elle permettrait, annonçait-on, de contrôler l'identité des internautes, de garantir la confidentialité et l'intégrité des messages transitant sur le réseau et de garder la preuve que l'échange de documents avait bien eu lieu. Bref, d'utiliser le réseau ouvert pour faire circuler des informations sensibles, pour passer des commandes, signer des documents, toutes choses coûteuses en temps et en argent dans le monde réel. Au milieu des années 1990, les plus optimistes tablaient sur un marché généré par l'ICP de 3,5 milliards de dollars en 2005. Or, en 2002, il n'aurait pas dépassé 350 millions de dollars. En théorie, les ICP sont un outil sans rival. Elles reposent sur le principe du chiffrement dit asymétrique, inventé en 1973 au sein des services secrets britanniques, puis redécouvert par des universitaires américains, Whitfield Diffie et Martin Helmann, qui en 1976 en énoncent le principe : utiliser une paire de clés, dont l'une est publique et permet à tous de signer ou chiffrer un document, tandis que l'autre est secrète et permet à son seul possesseur de procéder à l'opération inverse. En 1978, des universitaires, Ronald Rivest, Adi Shamir et Leonard Adleman, proposaient un algorithme permettant de réaliser cette prouesse à l'aide de nombres premiers. Leur système, baptisé RSA, est au coeur des solutions ICP proposées aujourd'hui, qui reposent sur l'attribution aux utilisateurs de cartes d'identité numériques, les certificats, normalisés et reconnus par la majorité des logiciels de navigation ou de messagerie. Il a suffi d'augmenter la longueur des clés pour les mettre à l'abri des attaques d'ordinateurs toujours plus puissants et capables, désormais, de travailler en réseau sur toute la planète. La technologie n'est donc pas en cause. C'est sa mise en oeuvre qui pose problème. La réglementation prévoit une pyramide d'acteurs. Elle comprend des distributeurs de certificats (en France, essentiellement Certplus et Certinomis) agréés par des autorités de certifications (généralement des banques) qui, elles-mêmes, font l'objet de procédures de qualification. Il faut aussi des validateurs capables de tenir à jour les annuaires de certificats et d'en retirer ceux qui sont parvenus à expiration ou qui ont été révoqués. L'utilisateur final doit enfin être dûment identifié, ce qui suppose parfois une rencontre physique. "Le plus compliqué, c'est d'organiser la confiance et la maintenir vingt-quatre heures sur vingt-quatre", souligne Richard Pirim, architecte système sécurité et réseau de la direction générale des impôts, qui a pu juger de la complexité du problème à l'occasion de la mise en place de téléprocédures pour l'acquittement de la TVA par les grandes entreprises et la déclaration en ligne de l'impôt sur le revenu, à laquelle 608 000 personnes ont procédé en 2003. Il s'agit là - avec la carte de santé - des seules utilisations d'envergure d'IPC en France. Encore le ministère des finances a-t-il dû rendre obligatoire le télépaiement de la TVA pour les quelque 20 000 entreprises de plus de 15 millions d'euros de chiffre d'affaires qui sont contraintes d'acheter des certificats électroniques. Le Minefi envisage plusieurs projets de téléprocédures faisant appel à la signature électronique. Mais il ne peut se permettre de proposer une application qui contraindrait les utilisateurs dans le choix du matériel - certains logiciels ne prévoient pas le stockage des certificats, les Mac ne gèrent pas les algorithmes de chiffrement et certaines versions de Windows n'acceptent pas les applications Java. Trouver une solution universelle relève donc du défi. "Une complexité à faire frémir les développeurs", note Richard Pirim. Le Minefi envisage de faire appel aux grandes écoles pour développer une application de signature qui pourrait être versée dans le domaine public. Ce qui suppose de nouveaux délais... Une telle éventualité pourrait susciter l'émergence de nouveaux lecteurs de cartes à puce capables d'authentifier formellement leur porteur. Les ministres de l'intérieur et de la justice du G8, qui se sont réunis à Paris, lundi 5 mai, se sont d'ailleurs engagés à recourir à la biométrie comme méthode d'identification de leurs citoyens. Les Etats-Unis ont déjà fixé, en effet, à octobre 2004 la date à partir de laquelle les contrôles recourant à la biométrie des titres de transport et d'identité seront nécessaires pour l'entrée sur le territoire américain. Le Monde : http://www.lemonde.fr/article/0,5987,3244--321098-,00.html
|
|
|
|
|
|
|
|
Avec près de dix millions d'abonnés broadband, le Japon fait aujourd'hui partie des pays les plus développés en matière d'Internet haut débit. Chaque mois, 300 000 nouveaux clients japonais décident de s'abonner à une offre ADSL. Un succès qui s'explique essentiellement par les tarifs planchers proposés par les FAI japonais. Selon le palmarès Point Topic, Yahoo BB est la deuxième offre ADSL la moins chère au monde, derrière le Taiwanais Chunghwa, avec un tarif global de 29,27 dollars par mois. Un abonnement deux fois moins que celui proposé par France Télécom. En septembre 2001, un acteur va révolutionner le marché du haut débit. Yahoo BB, financé par Yahoo et Softbank, décide de casser les prix en lançant une offre ADSL à 2 280 yens par mois (17,55 euros). L'électrochoc est immédiat : en l'espace de deux mois, le prix moyen du forfait ADSL tombe au Japon à moins de 3 000 yens par mois (23 euros) alors que les abonnements mensuels coûtaient initialement entre 5 000 et 6 000 yens (38,5 et 46,2 euros). Un mouvement qui va se traduire par une explosion du nombre d'abonnés. Début 2001, le Japon ne compte que 16 194 abonnés ADSL. Deux ans plus tard, ils seront 6,5 millions. Pour entretenir cette "folie" du haut débit, les FAI ne vont pas se limiter à une stratégie tarifaire discount. A partir de la rentrée 2002, un autre front commercial apparaît avec le débit proposé. Une fois encore, Yahoo BB ouvre la voie en lançant un pack à 8 Mbps. Suivront des offres à 12 Mbps, commercialisées à 4 000 yens par mois (30,76 euros), douze à vingt-quatre fois plus rapides que le plus haut débit ADSL proposé en France. Une course au débit qui n'est pas près de s'arrêter : dans les mois qui viennent, des offres ADSL à 24 Mbps devraient voir le jour au Japon. Mais le 24 Mbps n'est qu'une étape. Le plan gouvernemental e-Japan lancé en janvier 2001, qui vise à faire de l'Archipel le pays le plus avancé dans la diffusion des NTIC, va encore encore plus loin. D'ici 2005, le programme prévoit que 30 millions de foyers seront reliés au haut débit (moins de 30 Mbps) et 10 millions au très haut débit (de 30 à 100 Mbps). Pour atteindre des vitesses aussi importantes, le Japon parie sur une autre technologie : la connexion FTTH (Fiber To The Home, fibre optique à domicile). Le lancement commercial du FTTH s'est déroulé au printemps 2002. Sa couverture reste pour l'heure très limitée, principalement dans les grandes agglomérations japonaises. A la fin de l'année dernière, la FTTH comptait néanmoins plus de 200 000 abonnés. Sur le terrain, la bataille des prix sur la fibre optique a déjà commencé entre les FAI. Les frais mensuels pour une connexion à 100 Mbps sont proposés aujourd'hui à partir de 5 500 yens (42,35 euros) dans un bâtiment déjà câblé et à partir de 8 280 yens (63,76 euros) pour les foyers individuels. Mais l'essor du très haut débit pose un nouveau problème pour les FAI : quels contenus proposer ? les portails japonais travaillent selon deux axes. D'une part développer des accords de distribution avec les producteurs de contenu occidentaux comme la Warner Bros. D'autre part mutualiser les contenus dont ils disposent. Un autre domaine intéressent au plus haut point les fournisseurs d'accès japonais : la téléphonie sur IP. Pour la plupart des FAI, ce service est même considéré comme la nouvelle "killer application" commerciale. Aux yeux des abonnés, la téléphonie sur IP permet surtout de réduire sa facture téléphonique et ce, d'autant plus que la distance d'appel est longue. Sur ce nouveau marché, Yahoo BB - encore lui - propose une offre baptisée BB Phone, gratuite pour ses abonnés ADSL. Les appels directs entre les abonnés de Yahoo BB y sont également gratuits. Pour appeler une ligne fixe, le prix de la communication est de 7,5 yens (0,06 euro) les trois minutes sur tout le territoire japonais. Pendant ce temps, chez les opérateurs classiques, le même appel est facturé jusqu'à 20 yens (0,15 euro) les trois minutes. En quelques mois, BB Phone a réussi à engranger 1,97 million d'abonnés. Cet intérêt pour la téléphonie sur IP ne se limite pas aux seuls FAI. Depuis octobre dernier, le Japon bénéficie d'un nouveau préfixe téléphonique, le 050, entièrement dédié à la téléphonie sur IP. Tous les acteurs télécoms se sont engouffrés dans la nouvelle brèche. NTT, l'opérateur historique, a d'ores et déjà annoncé qu'il gelait ses investissements dans les réseaux téléphoniques conventionnels afin de réorienter l'ensemble de ses infrastructures sur l'IP. JDNet : http://www.journaldunet.com/dossiers/pays/japon/030522japon.shtml
|
|
|
|
|
|
|
|
Plus d'un milliard et demi d'ordinateurs, soit trois cinquièmes du total des machines vendues, seront équipés pour le haut débit sur internet d'ici la fin de la décennie, a déclaré jeudi le président d'Intel, Paul Otellini. Vers 2010, les appareils portables combinant fonctions ordinateur, téléphone et outils vidéo tourneront plus vite que le plus rapide microprocesseur actuel du premier fondeur mondial, a-t-il poursuivi lors d'une réunion avec des analystes sur la stratégie d'Intel. Certains mettront en oeuvre jusqu'à un milliard de transistors tournant à plus de quatre milliards de cycles/seconde, selon Otellini. "Je pense qu'il y aura au moins un milliard et demi de PC (équipés pour le) haut débit", a-t-il déclaré, précisant que cette estimation était partagée par l'ensemble des acteurs du secteur. Environ les deux tiers des ordinateurs de travail aux Etats-Unis sont équipés d'une connexion haut débit mais la même proportion d'utilisateurs privés passent encore par les liaisons classiques à 56 kilobits par seconde. L'industrie informatique a vendu en 2002 son milliardième ordinateur, selon le cabinet d'études de marché Gartner. Pour autant, le secteur cherche à créer une demande pour de nouveaux types d'ordinateurs intégrant la liaison sans fil et de grandes capacités de traitement des données pour sortir de trois ans de croissance atone, voire négative. Les analystes situent cette croissance entre 4 % et 6 % cette année. Reuters : http://fr.news.yahoo.com/030516/85/375bu.html
|
|
|
|
|
|
|
|
Le géant de l'informatique IBM a décroché un contrat pour équiper les voitures de police de Yakima, dans l'Etat de Washington, de caméras numériques pouvant enregistrer et garder en mémoire les images des contrevenants susceptibles d'être déférés à la justice. L'accord porte sur l'équipement de 32 voitures, pour un montant de 463.000 dollars, selon un responsable du service, le capitaine Jeff Schneider. L'équipement des voitures de police avec des caméras embarquées pour fournir des preuves au moment des arrestations mais aussi pour se protéger des éventuelles poursuites judiciaires à leur propre encontre est devenue monnaie courante aux Etats-Unis, mais IBM affirme que c'est la première fois qu'un service opte pour du numérique embarqué avec enregistrement et stockage sur ordinateur. IBM dit que son système est en cours d'expérimentation dans sept autres services de police à travers le pays. Sur le système en cours d'installation à Yakima, le policier branche un disque dur portable sur un ordinateur installé entre les sièges avant de la voiture. Une caméra bidirectionnelle et un micro enregistrent tout en continu, mais seules trois à quatre minutes sont sauvegardées à la fois. Mais quand le policier actionne la sirène et sa rampe de feux de poursuite, le système enregistre automatiquement les minutes précédentes et tout ce qui suit, jusqu'à ce que le système soit éteint. A la différence des caméras analogiques, qui généralement ne tournent pas au moment précis où se commet une infraction, le système numérique permet aux policiers d'enregistrer les événements qui ont conduit à cette infraction - qu'il s'agisse d'un feu rouge brûlé ou d'un excès de vitesse. Les policiers sont aussi équipés d'un micro à leur ceinture qui permet d'enregistrer les conversations de l'extérieur. Une fois son service terminé, le policier emporte le disque dur à son commissariat et décharge les données sur un serveur qui est capable de stocker 3,5 teraoctets (ou trillions de octets par seconde) d'informations. USA Today : http://www.usatoday.com/tech/news/2003-05-16-ibm-cameras_x.htm
|
|
|
|
|
|
|
|
Le gouvernement de Corée du Sud vient de présenter, selon le Korea Times, un plan de 2 milliards de wons (1,5 milliard d'euros) visant à automatiser dix millions d'habitations d'ici à 2007, soit une très large majorité des domiciles coréens. Programmer le chauffage ou les cycles du lave-linge, faire ses courses via la connexion Internet de son frigo, tel pourrait donc être le quotidien de l'habitant local dans quelques années. Un habitant bien équipé. Mi-2001, 28,6 millions de Coréens disposaient déjà d'un téléphone portable. Quant au haut débit , il compte aujourd'hui 10,8 millions d'abonnés. Des chiffres très élevés pour un pays de 47 millions d'habitants. Pour démarrer, un Digital Home Policy Promotion Committee, chapeauté par le vice-ministre de l'Information et de la Communication, va être créé, afin de permettre le développement des maisons automatisées. Les fournisseurs et installateurs devraient ainsi bénéficier de prêts à taux très favorables. Les systèmes de licences et autres autorisations technologiques seront simplifiés. Régulièrement, des salons seront organisés et des récompenses décernées lors de cérémonies officielles. Un Digital Home Standardization Forum sera aussi mis en place. Il sera chargé d'obtenir de la part des industriels qu'ils définissent des standards technologiques pour les futures maisons intelligentes. Avec l'i-Mode, le Japon a pu s'imposer comme pays de référence pour les innovateurs en téléphonie mobile. Avec son plan, la Corée pourrait bien devenir le pays de référence pour les maisons intelligentes. OINet : http://www.01net.com/article/208116.html
|
|
|
|
|
|
|
|
Lancés par Hitachi dès l'an 2000, les caméscopes avec graveur de DVD n'ont pas envahi le marché. Et pour cause, ils coûtaient près de 2500 euros. Aujourd'hui, Sony revient sur ce segment, avec un premier prix à 1500 euros, le DCR-DVD100. L'utilisation du mini-DVD comme support de stockage, en remplacement de la cassette (VHS ou mini DV) présente plusieurs avantages : fini les branchements, les raccords à la télévision. Le mini-DVD (8cm) peut être lu par la plupart des platines DVD de salon (et d'ordinateur) et même par la PlayStation 2, sans la moindre manipulation. Le caméscope de Sony peut utiliser plusieurs supports : le mini-DVD ou bien le mini-DVD-RW (réinscriptible). Cependant, leur capacité de stockage est limitée à 1,5 Go, soit une demi-heure de vidéo en qualité normale ou une heure en mode compressé (LP). De plus, le prix de ces mini disques est encore assez élevé : 8 euros pour un mini-DVD et 12 euros pour un mini-DVD-RW. Mais, la durée de vie de ce média est supérieure à celle des cassettes. Et quelle simplicité : accès instantané aux plages, recherche automatique des plages libres, taille miniature... Les images obtenues par le DCR-DVD100 auront un rendu quasi équivalent à un DVD-vidéo du commerce. Vous pourrez alors choisir soit de laisser vos films sur mini-DVD, soit de les transférer et de les graver sur CD ou DVD. Ces nouveaux caméscopes DVD de Sony sortironta en octobre 2003. Prix de départ annoncé : 1500 euros ? Avec l'apparition du caméscope DVD, on risque d'assister à l'émergence d'une nouvelle technologie grand public. Après l'explosion des ventes de platines DVD cet hiver, le DVD pourrait devenir le futur support de stockage de référence. JDNet : http://www.journaldunet.com/votreit/actu/030505camesony.shtml
|
|
|
|
|
|
|
|
Les groupes Disney et Thomson vont tester dès cet été, chacun de leur côté, les premiers DVD à durée limitée; un procédé développé par la société new-yorkaise Flexplay Technologies. Il se base sur une dégradation chimique du support (habituellement en polycarbonate), par simple oxydation: «un DVD Flexplay Wired : [http://www.wired.com/news/technology/0,1282,58883,00.html">baptisé EZ-D] est similaire à un DVD conventionnel, mais ne peut être lu que pendant une durée limitée prédéterminée débutant dès que le DVD est sorti de son emballage sous vide. Une fois le disque sorti de son emballage, sa surface se modifie par réaction chimique avec l'oxygène de l'air. Le disque de Flexplay change alors de couleur en passant du rouge au noir. Au bout d'un certain laps de temps, il devient illisible pour le laser et est alors bon pour la poubelle. Pour les tests pilotes, Flexplay Technologies a signé avec Buena Vista Home Entertainment, division vidéo de Disney, qui fournira le catalogue des films, et Technicolor Home Entertainment Services (THES), branche vidéo professionnelle de Thomson, qui aura en charge la fabrication des disques. Cette technologie Flexplay a déjà été testée en novembre dernier par les studios MGM. Ils avaient alors diffusé des DVD promotionnels, limités à 36 heures de durée de vie, du film "Die Another Day" de la série des James Bond. Thomson et Disney ont retenu une durée de 48 heures pour des films tels que "Signs" ou "Frida", qui seront disponibles dans quelques vidéoclubs ciblés aux États-Unis dès le mois d'août prochain. Le client achètera ainsi un DVD "jetable", qu'il n'aura pas besoin de rapporter. À terme, cela devrait permettre de réaliser des économies dans la gestion des retours de location pour les vidéoclubs. Enfin, au-delà des films, ces disques «peuvent être utilisés pour la musique, les jeux vidéo, les logiciels, la publicité ou encore les promotions», précise Thomson. Reste que «pendant la période autorisée de lecture, le DVD FlexPlay peut être lu comme un DVD standard, avec la même qualité d'image et de son» que les DVD classiques, précise Thomson. Il peut donc être copié de la même manière. Mais par sa durée de vie limitée, ce système pourrait séduire les majors d'Hollywood. Ils pourraient y voir une alternative aux systèmes de protection anticopie, qui peuvent entraîner des défauts de lecture et posent encore des problèmes juridiques non résolus. Wired : [http://www.wired.com/news/technology/0,1282,58883,00.html
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Il y a un demi-siècle, les laboratoires Bell de Murray Hill, dans le New Jersey, changeaient la face du monde avec l'invention du transistor. Depuis, ce dispositif n'a cessé d'évoluer : il s'est fait plus petit, plus rapide, et il est devenu omniprésent puisqu'on le trouve aussi bien dans les ordinateurs que dans les grille-pain. Cependant, les puces en silicium sont encore trop chères et présentent des contraintes trop importantes pour certaines applications. Dans les laboratoires de Lucent Technologies, Howard Katz et son équipe comptent bien y remédier en misant non pas sur le silicium, mais sur la chimie organique. Des semi-conducteurs organiques, affirme Howard Katz, seraient bon marché, faciles à produire et à imprimer sur des feuilles de plastique souples de façon à recouvrir de vastes surfaces irrégulières. Des prototypes électroniques ont déjà été fabriqués. Les transistors chimiques pourraient être utilisés dans la fabrication de jouets, de capteurs et, si tout se déroule comme prévu, dans la fabrication d'étiquettes d'identification par fréquence radio - les codes-barres du futur - qui relaieront, en temps réel, des informations concernant le stock et les besoins d'achat d'un magasin à un ordinateur central. Mais Howard Katz précise que la commercialisation des semi-conducteurs organiques ne se fera pas avant plusieurs années. "Chaque composante nécessite des recherches supplémentaires afin d'acquérir une excellente fiabilité." Howard Katz a inventé, puis testé près d'une centaine de matériaux depuis qu'il a lancé le projet, il y a dix ans. "Lorsque je conçois ces pièces, je dois optimiser leurs propriétés électriques mais également tenir compte de l'utilisation qui en sera faite", explique-t-il. Aujourd'hui, il mène des expériences sur un nouveau composé : par déposition de vapeur, il cherche à recouvrir une surface test en silicium d'une fine pellicule de polymère. Pour cela, il introduit la surface ainsi qu'une petite quantité de polymère dans une chambre, fait le vide, puis chauffe lentement la chambre. "A partir d'une certaine température, l'évaporation du polymère commence, explique-t-il, puis la vapeur recouvre toutes les surfaces de la chambre." Une fois que la surface de silicium est recouverte de polymère, Howard Katz introduit de l'azote pour remettre la chambre sous pression et décoller la couche. "Il suffit d'une couche de 10 nanomètres d'épaisseur pour conduire le courant, commente le scientifique. Par une nouvelle opération de déposition de vapeur, les pellicules organiques sont ensuite recouvertes de fils d'or. "Ces fils constituent des lignes de contact qui nous permettent d'étudier les propriétés électriques du matériau, poursuit Howard Katz. C'est à ce stade que l'on peut savoir si le composé que nous avons fabriqué est un semi-conducteur ou non." La procédure de test s'effectue au microscope. "Nous mettons les fils d'or en contact avec des sondes semblables à des aiguilles, puis nous les mettons sous tension et nous observons ce qui se passe." "Beaucoup de choses nous échappent, mais les semi-conducteurs sont efficaces", commente Howard Katz. Il précise qu'à terme les fils d'or seront remplacés par une encre conductrice qui pourra être déposée sur les puces à l'aide d'imprimantes à jet d'encre. L'autre voie suivie par les physiciens est la puce électronique "moléculaire". Ces dernières années, la course à la miniaturisation a poussé les chercheurs à utiliser des nanotubes de carbone, des structures cylindriques dont le diamètre est 100 000 fois plus petit que celui d'un cheveu. Ces tubes d'environ un milliardième de mètre sont constitués d'atomes de carbone liés entre eux. En 1998, les chercheurs d'IBM à Yorktown Heights (New York) ont produit un circuit électronique minuscule composé d'une seule de ces molécules. En 2001, ils ont fabriqué un circuit logique composé de deux transistors moléculaires. Technology Review : http://www.technologyreview.com/articles/demo0503.asp
|
|
|
|
|
|
|
|
Les conclusions du dernier rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPCST) ont le mérite de la clarté : «La France doit engager sans délai la construction d'un démonstrateur tête de série EPR.» Au terme de 110 heures d'audition de 180 personnalités du secteur, françaises et étrangères, les conclusions des députés Claude Birraux (UMP, Haute-Savoie) et Christian Bataille (PS, Nord), auteurs du rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques consacré à «la durée de vie des centrales et les nouveaux types de réacteurs», sont on ne peut plus explicites. En plein «débat national» sur l'énergie organisé par le gouvernement, cette prise de position des deux députés réputés pour le sérieux de leurs travaux précédents sur la question - n'est pas anodine. Ce rapport, publié en plein débat national sur l'énergie, conforte ceux qui souhaitent que la relève du parc nucléaire actuel soit organisée sans tarder. Car l'EPR (European pressurized water reactor) est un réacteur nucléaire franco-allemand conçu dans les années 90 par Framatome et Siemens, destiné à prendre progressivement la relève de ceux en fonctionnement dans les centrales EDF. Pour les deux députés, «si le gouvernement décide de suivre nos recommandations, il doit inscrire dans sa loi d'orientation sur l'énergie prévue à l'automne prochain la décision de construire un EPR». Les conclusions des deux élus traduisent les préoccupations des acteurs du nucléaire. Comme l'a expliqué lors de son audition par l'Office parlementaire le président d'EDF, François Roussely, «il faudrait pouvoir mettre en service un démonstrateur EPR à l'horizon 2010, ce qui veut dire, compte tenu d'un temps de construction de six ans, pouvoir en démarrer le chantier à court terme». L'idée étant d'exploiter ce premier prototype jusqu'en 2015, date à laquelle, après un premier retour d'expérience, pourrait démarrer la construction d'une série de sept ou huit EPR dans l'Hexagone. Juste à temps pour prendre la relève du parc français. Car en 2020, 14 réacteurs français auront 40 ans. Et ce sera également le cas de 34 autres en 2025. «La durée de vie des centrales françaises pourra-t-elle atteindre voire dépasser une durée de vie de 40 ans ? Cela devra être jugé au cas par cas en fonction de l'état de la cuve et de l'enceinte de confinement», répondent les deux députés. Compte tenu de ce calendrier, une décision rapide équivaut à «la tranquillité d'esprit que demande l'exploitant». Partant du constat que c'est uniquement à l'occasion des visites décennales que l'Autorité de sûreté nucléaire peut prolonger de dix ans la durée de vie des centrales, les auteurs du rapport plaident à cet égard pour que «la durée des autorisations soit désormais fixée à 20 ans, afin d'assurer une meilleure visibilité à long terme à l'exploitant». L'un des soucis des auteurs du rapport, à l'instar des constructeurs et exploitants de centrales en France, est de «lisser le renouvellement «pour éviter l'effet de falaise» qu'on a connu en France au début des années 80, au cours desquelles les investissements massifs ont été concentrés. Chaque année de prolongation de la durée de vie d'un réacteur déjà amorti représente en effet 100 millions d'euros d'économie en terme de coûts de production par rapport à un réacteur neuf, soit un milliard d'euros d'économies pour une prolongation de dix ans. L'idée est également d'«éviter que ne se produise un défaut générique qui rende inutilisables les tranches nucléaires dans des conditions optimales». Sur ce point, le directeur de l'Autorité de sûreté nucléaire (ASN) André-Claude Lacoste a d'ailleurs fait part de ses craintes lors de son audition : «le fait que les 58 réacteurs français aient été construits par Framatome et soient gérés par le même exploitant EDF est une situation unique. Cela nous conduit à avoir une obsession, celle d'un problème de sûreté générique et grave.» Le fait de se prononcer en faveur d'un EPR n'est pas un choix exclusif, soulignent les auteurs. «Si certaines centrales ne passent pas avec succès leur visite décennale pour durer jusqu'à cinquante ans, on peut envisager un cycle combiné au gaz. Mais il existe la pression du protocole de Kyoto et si la France dépasse ses quotas d'émissions de gaz à effet de serre, on aura besoin de toutes les formes d'énergies, y compris les renouvelables». D'autant qu'entre-temps, la demande d'électricité aura crû de 33 % d'ici à 2020, estiment les experts. Et qu'EDF s'est fixé pour objectif de faire tomber la part du nucléaire dans la consommation électrique de 85 % à 66 % à l'horizon 2050. La construction d'un démonstrateur EPR, moins cher (10 % de moins que le réacteur actuel N4 selon Framatome et 20 % de moins qu'un cycle combiné à gaz), plus propre (produisant moins de déchets) et plus sûr que les réacteurs actuels, représenterait un atout décisif pour l'industrie française. Car il existe un véritable marché aujourd'hui dans le monde, aux États-Unis, en Inde et en Chine. Comme l'explique Vincent Maurel, président de Framatome ANP. Il faut enfin souligner que la technologie mise en oeuvre par le réacteur EPR est particulièrement bien adaptée à la production massive, propre et peu onéreuse d'hydrogène par electrolyse. Or si nous voulons qu'en 2050 l'hydrogène représente 20 % de notre consommation énergétique il faudra multiplier la production actuelle d'hydrogène par 26. Dans cette perspective le choix du réacteur EPR pour le renouvellement du parc nucléaire français apparait également comme particulièrement intéressant. OPECST : http://www.assemblee-nationale.fr/12/rap-oecst/i0832.asp
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Un scientifique californien propose dans la très sérieuse revue scientifique Nature un voyage au centre de la Terre, remettant au goût du jour le roman de Jules Vernes. Dave Stevenson, éminent spécialiste des planètes, estime possible d'envoyer une sonde explorer le coeur en fusion de la Terre si une brèche était ouverte grâce à une petite explosion nucléaire. "Je voudrais que les gens réalisent l'énormité des sommes d'argent que nous avons consacrées à explorer l'espace. Je plaide pour un peu d'équilibre", souligne Stevenson, professeur à l'Institut de technologie de Californie à Pasadena. L'exploration "intérieure" pourrait être réalisée grâce à des technologies qui ont fait leurs preuves et sur la base de théories scientifiques établies de longue date, souligne-t-il dans son article dans Nature. Stevenson penche donc le percement d'une faille dans la Terre, qui pourrait être réalisée grâce à une bombe atomique. Selon ses calculs, il faudrait une brèche de plusieurs centaines de mètres de long à quelques centaines de mètres sous terre et d'une trentaine de centimètres de large, une cavité qui pourrait contenir de 100.000 à plusieurs millions de tonnes de fer en fusion. Comme un volcan inversé, le matériau en fusion descendrait vers le coeur, emportant une sonde capable de résister à la chaleur qui renverrait, entre autres, des informations sur les températures ou la composition des couches qu'il traverse. Cependant, "je m'attends à ce que la principale réaction soit un grand éclat de rire", confesse le chercheur. Stevenson estime le coût du projet à près de 10 milliards de dollars. "Nous ne sommes allés qu'à une dizaine de kilomètres à l'intérieur de notre planète", plaide Stevenson, se plaignant du peu de connaissances qu'on a tiré de ces expériences. Les scientifiques ne connaissent pas, par exemple, l'exacte composition ou même la température du coeur de la Terre, enfoui à quelque 3.000 kilomètres sous la surface terrestre. Jeanloz estime pour sa part qu'il serait intéressant de déterminer l'état du champ magnétique terrestre. Les études géologiques montrent que le champ magnétique de la Terre "s'inverse" toutes les centaines de milliers d'années", bien qu'il soit resté stables pendant plusieurs millions d'années. "Le dernier changement date d'il y a 700.000 ans. Il devrait être intervenu depuis longtemps", indique Jeanloz. Stevenson avoue qu'il a ce projet en tête depuis des dizaines d'années, mais que son article intitulé "A Modest Proposal" ("Une modeste proposition") est le résultat d'une rencontre l'année dernière avec les producteurs du film "The Core" ("Le coeur"), qui avaient imaginé un voyage habité au centre de la Terre. Nature : http://www.nature.com/nsu/030512/030512-10.html
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs américains de l'Ecole de Médecine de l'Université de Stanford ont démontré pour la première fois chez l'animal la possibilité d' utiliser des ARN interférents pour inhiber la réplication du virus de l'hépatite B, qui peut être réduite de 90 à 99 %. Parmi les nombreux ARNi testés, deux se sont révélés de puissants inhibiteurs. Notre prochain objectif est de chercher à exprimer des ARNi par des vecteurs viraux qui pourraient être utilisés dans des essais cliniques », précise le Dr Mark Kay, qui a dirigé les travaux. « Des essais cliniques pourraient débuter dans deux ou trois ans environ. Nous sommes d'un optimisme prudent. Les ARNi sont plus efficaces que les autres molécules que nous avons testées, parmi lesquelles les ribozymes et les DNAses. » Les ARN interférents, découverts pour la première fois chez le ver C. elegans en 1998, sont des petits ARN double brin capables de se fixer à un ARN messager de séquence homologue et de provoquer sa destruction. A l'origine, les ARNi devaient jouer un rôle dans la protection contre les virus : en se fixant aux ARN viraux, ils permettaient leur destruction. Mais ce rôle a disparu chez l'homme. Les ARNi interviennent encore dans la régulation de l'expression de certains gènes. Ces petites molécules soulèvent un grand intérêt. En théorie, des ARNi synthétiques pourraient être introduits dans les cellules afin d'inactiver l'expression du ou des gènes causant certaines pathologies. Ils pourraient offrir, par exemple, une nouvelle approche antivirale. Plusieurs équipes ont montré que la réplication virale peut être inhibée en culture en utilisant des ARNi synthétiques ciblant certains gènes viraux. Mais cela n'avait pas encore été mis en évidence, in vivo, chez le mammifère. Nature Biotechnology du 12-05-2003 : http://www.nature.com/cgi-taf/DynaPage.taf?file=/nbt/journal/vaop/ncurrent/abs/n...
|
|
|
|
|
|
|
|
L'impact du virus du Nil occidental, qui a contaminé des dizaines d'espèces animales et fait 284 morts l'an dernier aux Etats-Unis, pourrait être bien pire cette année que le virus de la pneumonie atypique (SRAS), ont prévenu mercredi deux scientifiques américains."L'attention accordée ces dernières semaines au SRAS est extraordinaire et, on pourrait dire, excessive. Cette maladie, certainement mortelle, n'a infecté que quelques milliers de malades dans le monde et tué que quelques centaines", a rappelé le Dr Paul Epstein, directeur adjoint du centre pour la santé et l'environnement mondial de l'école de médecine de l'Université de Harvard. "Par contraste, a-t-il ajouté, le virus du Nil occidental a causé 4.156 malades et fait 284 morts l'an dernier rien qu'aux Etats-Unis". Selon lui, le virus devrait notamment frapper durement cette année les grandes plaines du centre et l'ouest des Etats-Unis, l'Alaska. Le virus du Nil occidental, qui se transmet par le sang via des piqûres de moustique, a été détecté pour la première fois en 1999 à New York. Des cas de contamination par transplantation d'organes et transfusion sanguine ont été établis l'an dernier par les autorités sanitaires fédérales américaines. Une personne sur cinq infectées par le virus ne développe que des symptômes mineurs qui subsistent trois à six jours sous la forme d'une légère fièvre. Mais, dans un cas sur 150, le virus peut causer une méningo-encéphalite entraînant la mort, particulièrement chez les personnes âgées ou immunodéficientes. L'an dernier, le virus s'est répandu dans 44 Etats de l'Union et contaminé 230 espèces animales, dont 130 d'oiseaux, a rappelé pour sa part le Dr Douglas Causey, biologiste au département de zoologie de Harvard. "L'an dernier, les morts d'oiseaux ont quintuplé par rapport à l'année précédente" aux Etats-Unis, a-t-il souligné. "Cette année, le virus du Nil occidental a gagné les Caraïbes et il est le suspect principal dans la diminution du nombre d'espèces d'oiseaux au Costa Rica", a-t-il ajouté. Ecole de médecine de l'Université de Harvard : http://www.hms.harvard.edu/news/relsum.html
|
|
|
|
|
|
|
|
L'Organisation mondiale de la santé envoie un message rassurant sur la pneumonie atypique. L'épidémie de syndrome respiratoire aigu sévère (SRAS) touche à sa fin dans la plupart des régions touchées à travers le monde, même si la situation reste préoccupante en Chine continentale, a estimé samedi l'OMS en clôture d'une conférence scientifique à Genève le 17 mai. Des chercheurs venus de 16 régions du monde touchées par l'épidémie de SRAS ont débattu pendant deux jours de cette crise sanitaire au siège de l'OMS. "C'est certainement un message de grand espoir qui ressort de cette réunion, un message pour se réjouir que les mesures (de lutte contre le SRAS) marchent, mais aussi un appel à l'action car nous avons encore beaucoup à faire avant d'en finir avec ce problème", a déclaré Mike Ryan, responsable de l'OMS chargé de coordonner la lutte mondiale contre l'épidémie. "L'expérience issue d'une série de pays concernés montre que les mesures de contrôle conçues au début de l'épidémie ont marché. Pays après pays, nous avons réussi à briser le cycle de la transmission à travers la simple application de mesures comme la reconnaissance des personnes saines, le suivi des contacts et les pratiques d'isolement dans les hôpitaux", a expliqué M. Ryan lors d'une conférence de presse. "Nous avons vu le nombre de cas secondaires à partir d'un cas initial baisser systématiquement dans tous ces pays jusqu'à un point où nous pensons désormais que, dans la majorité des cas, nous voyons l'épidémie toucher à sa fin", a ajouté ce responsable de l'OMS. L'OMS souligne toutefois qu'Il faudra un an au moins avant de savoir si le Syndrome respiratoire aigu sévère (SRAS) deviendra ou non une maladie endémique. La lutte contre le Syndrome respiratoire aigu sévère (SRAS) a enregistré des succès au Canada et à Hong Kong mais il y a "des défis gigantesques à relever en Chine continentale", a résumé le Pr Angus Nickel, responsable de l'agence britannique pour la protection de la santé, qui présidait la réunion de Genève. "Le problème est très différent en Chine continentale à cause de sa taille et de la complexité de la situation", notamment la multiplicité des foyers d'infection, a expliqué le Dr Margaret Chan, directrice du département de la santé de Hong Kong. Cette même OMS a ajouté une nouvelle province chinoise sur la liste des régions à éviter. Il s'agit de la province de Hebeï (nord), limitrophe de la capitale Pékin, où huit personnes sont déjà mortes du SRAS et près de 200 autres en sont atteintes. Sept autres régions figuraient déjà sur la liste des zones où l'OMS déconseille de se rendre: Taïwan, Hong Kong, Pékin, Guangdong (Canton), Mongolie intérieure, Shanxi et Tianjin. En Chine, les médias officiels ont annoncé la mise en quarantaine de plus de 200 personnes dans la ville de Lanfang, dans la province de Shanxi (nord), à la suite d'un manque de vigilance de médecins qui n'avaient pas diagnostiqué le SRAS chez deux patients. Cet homme et cette femme sont venus pourtant plusieurs fois à l'hôpital de la ville pour de la fièvre, et il n'est pas impossible qu'ils aient contaminé d'autres patients. Le bilan des victimes du SRAS s'est encore alourdi avec la mort de 12 nouveaux malades (sept en Chine continentale et cinq à Hong Kong), ce qui porte à 625 le nombre des patients décédés de cette maladie à travers le monde. Plus de 7.800 personnes sont contaminées. Les deux jours de discussions entre experts ont permis "de confirmer l'essentiel de ce que nous savons pour l'instant (sur le SRAS) et d'échanger des informations sur les mesures de contrôle de la maladie", a précisé le Dr Arlene King, des services de santé du Canada. En particulier, a souligné le Dr Chan, les experts sont en mesure de "réaffirmer après cette réunion que la transmission (du virus) se fait essentiellement par les gouttelettes respiratoires" expectorées par les malades, c'est-à-dire par "contact personnel étroit". "Il n'y a pas de preuve que les animaux ou les insectes propagent l'infection", a-t-elle ajouté. Il est essentiel d'isoler et de traiter rapidement les cas probables, ont encore indiqué les participants, qui ont aussi répété la nécessité d'une coopération internationale intense et régulière. OMS : http://www.who.int/csr/sars/en/
|
|
|
|
|
|
|
|
Histoire déjà ancienne dans les pays riches, qui se contentent souvent de promettre leur aide aux pays en développement, le sida frappe de plein fouet les pays du sud, où meurent chaque année 95 % des trois millions d'hommes, femmes et enfants sidéens et où survivent - mal - les neufs dixièmes des 42 millions de personnes actuellement infectées par le virus. Bien qu'une soixantaine d'essais cliniques aient été menés ces dernières années dans le monde pour tester quelque 30 candidats, aucun vaccin n'a encore vu le jour. Sans être sûrs d'aboutir, les chercheurs ne se découragent pas, même si la barre doit être mise particulièrement haut. Compte tenu de la nature de la pandémie, le cahier des charges est particulièrement strict : le vaccin devra être peu coûteux, aisé à prendre, en une prise ou deux maximum, et couvrir le plus largement possible les différentes souches existantes. C'est dans cette optique que s'est développé à l'Institut Pasteur un projet visant à élaborer un vaccin anti-sida à partir du vaccin de la rougeole. Le projet, si les recherches sont couronnées de succès, présenterait l'avantage de bénéficier de la plus large distribution possible puisque ce vaccin fait partie des campagnes de vaccination soutenues par l'Organisation Mondiale de la Santé (OMS). De plus, "le vaccin rougeole ayant depuis longtemps prouvé son innocuité et son efficacité, cela laisse présumer qu'un vaccin rougeole recombinant devrait être aussi bien toléré et qu'il aurait également un bon pouvoir immunogène", souligne le Pr Frédéric Tangy, responsable de l'unité des "virus lents" à l'Institut Pasteur. "L'objectif, explique-t-il, est de réaliser un vaccin +recombinant+, c'est-à-dire d'introduire deux à trois gènes du virus du sida dans le génome du virus atténué de la rougeole". Idéalement, les médecins disposeraient alors d'un vaccin mixte anti-sida et anti-rougeole. Les chercheurs ont déjà la preuve - sur des macaques - que ce double vaccin entraîne "une réponse significative" contre le virus du sida. Sur le papier, ce vaccin présente bien des avantages mais aussi un inconvénient: la plupart des adultes étant déjà vaccinés contre la rougeole, il serait essentiellement pédiatrique. Pour tester son efficacité, les chercheurs ont mis en route des expériences infectieuses chez le primate et, si les résultats de ces tests - attendus pour 2004 - sont positifs, un essai clinique sur l'homme sera envisagé. Mais les biologistes se gardent de tout optimisme: "le VIH cumule toutes les difficultés, il est extrêmement variable, les modèles animaux permettant de tester un candidat-vaccin sont plus ou moins performants, et, en plus, même amoindri ou tué, le virus ne peut pas être utilisé pour fabriquer un vaccin car il risque d'être quand même pathogène", rappelle Frédéric Tangy. Et comme il s'agit maintenant d'une maladie qui touche essentiellement les pays du Tiers-Monde - dans bien des cas dénués de presque toute infrastructure médicale - la phase finale des essais qui devra impérativement y être menée risque d'être extrêmement difficile et chère. "Ces essais coûtent des fortunes et, comme l'industrie pharmaceutique consacre 30 fois plus d'argent à la recherche de molécules anti-sida qu'au vaccin, il ne faudra pas compter sur les fonds privés", constate le Pr Philippe Kourilsky, directeur de l'Institut Pasteur de Paris. Et même si les recherches débouchent un jour sur un vaccin, en raison de la variabilité du virus, "il ne sera jamais possible de baisser la garde", ajoute-t-il. AFP : http://fr.news.yahoo.com/030517/202/37ea5.html
|
|
|
|
|
|
|
|
L'Assemblée mondiale de la Santé, représentant les 192 états-membres de l'OMS, a pris une décision « historique » en adoptant par acclamation le 21 mai le premier traité internationale de lutte contre le tabac. Il aura fallu plus de trois ans de travaux et de négociations acharnées pour parvenir à ce texte final, qui représente une avancée décisive en matière de lutte contre le tabagisme. Au cours des négociations, les efforts de l'OMS s'étaient heurtés à de très fortes résistances des cigarettiers, à tel point que de hauts responsables de l'agence de l'Onu avaient dénoncé les "coups bas" de l'industrie pour faire capoter cette initiative. Des pays comme les Etats-Unis, l'Allemagne ou le Japon avaient maintenu des réserves sur divers points du texte jusqu'à la dernière minute. L'objectif de cette convention-cadre de l'OMS pour la lutte anti-tabac est de faire diminuer la mortalité due au tabagisme. Cinq millions de personnes meurent chaque année des suites d'une maladie liée au tabac dans le monde. Ce chiffre pourrait grimper à dix millions d'ici 2030, dont 70 % dans les pays en développement, selon l'OMS. Rappelons que le tabac a déjà tué 100 millions de personnes dans le monde au cours du XX e siècle, ce qui représente plus de victimes que celles des deux guerres mondiales ! Le traité reconnaît que le tabagisme et l'exposition au tabac peuvent entraîner "la mort, des maladies ou un handicap" et que les cigarettes ont été "conçues de façon à entretenir une dépendance". Il s'alarme de la consommation de plus en plus importante de tabac chez les enfants et les adolescents. Selon les termes de cette convention, le tabac doit notamment être interdit dans les lieux publics ou fermés, tandis que les avertissements sanitaires doivent occuper entre 30 et 50 % de la surface de chaque paquet. Ce traité prévoit également une limitation drastique de la publicité pour tous les produits du tabac. La convention impose aussi de faire figurer sur les paquets de cigarettes des mises en garde sur le danger du tabac. Elle prévoit l'interdiction de la vente de produits du tabac aux mineurs, le traitement de la dépendance et l'adoption de mesures de lutte contre la contrebande. Enfin, et ce point est capital pour les pays en voie de développement, des aides spécifiques seront prévues pour encourager les cultures de substitution au tabac. Ce traité est désormais ouvert à la signature et à la ratification par les Etats. Il entrera en vigueur après la 40ème ratification. Il s'agit d'une victoire personnelle pour Gro Harlem Brundtland , directrice de l'OMS. Mais aussi pour tous ces pays si différents, unis par la crainte de voir le tabagisme devenir demain « le principal tueur de nos petits-enfants », comme le leur avait expliqué la veille celle qui doit quitter la direction de l'OMS le 20 juillet prochain. Pour l'Inde dont le ministre de la Santé, Shandrima Swaraj, a salué « la décision pionnière » prise par l'Organisation. Pour la Zambie, qui a fait savoir par la voix de son représentant le ministre de la santé D. Chituwo, qu'il allait « signer (la convention) des deux mains, bien que la culture du tabac représente 30 % du revenu national total. » Pour autant, les responsables de la santé ne sont pas au bout de la route. Certes, les grandes lignes de la lutte contre le tabagisme sont maintenant posées : interdiction de fumer dans les lieux publics et les espaces dévolus aux activités pédagogiques, limitation du nombre de points de vente, interdiction de la publicité, de la vente aux adolescents... Mais quels seront les pays signataires de la convention ? Car à ce stade les présents ont adopté les termes de sa rédaction, et ceux de la résolution de l'OMS qui en permettra la mise en oeuvre. Chaque pays devra ensuite s'engager individuellement dans la voie de son application, en signant le texte au niveau gouvernemental et en adaptant sa législation nationale. Tous ne suivront pas cette route difficile. Il y aura d'abord les pays qui n'aiment pas les conventions et les traités dès lors qu'ils interfèrent si peu que ce soit avec leurs prérogatives intérieures. Il y aura également ceux qui auront du mal à résister aux pressions des très puissantes sociétés productrices de tabac. Ceux là auront besoin que les plus riches les aident dans leur résistance. La Zambie a déjà appelé la communauté internationale à veiller au strict respect de l'article 26 de la convention concernant « le financement de la diversification des cultures. » Brève rédigée par @RT Flash OMS : http://www.who.int/mediacentre/releases/2003/prwha1/en/
|
|
|
|
|
|
|
|
Le lithium, utilisé depuis plus de cinquante ans pour soigner certains troubles psychiatriques, pourrait constituer un traitement potentiel de la maladie d'Alzheimer, suggère une équipe de chercheurs américains dans la revue Nature . Le Dr Peter Klein et ses collègues de l'école de médecine de l'université de Pennsylvanie ont démontré que le lithium bloque la production des plaques amyloïdes (dépôts de protéines observés dans le cerveau des personnes atteintes, autrefois appelés plaques séniles), dans des cultures de cellules mais aussi "in vivo", chez les souris présentant une forme de la maladie. Le lithium, ont observé les chercheurs, réduit la formation de ces plaques, et ceci à des concentrations de l'ordre des doses thérapeutiques habituellement utilisées chez l'homme pour traiter les troubles maniaques. Ainsi, expliquent Peter Klein et ses collaborateurs, ce remède "pourrait être envisagé dans la prévention de la maladie d'Alzheimer, en particulier chez les patients les plus jeunes". Les sels de lithium sont utilisés comme régulateurs de l'humeur dans la psychose maniaco-dépressive, caractérisée par des alternances d'accès de dépression et d'excitation euphorique. Le traitement se prolonge sur plusieurs années et nécessite une surveillance étroite de l'état de santé du malade. La maladie d'Alzheimer se manifeste par des troubles de la mémoire, du langage et du comportement, et aboutit à une démence grave. Rien qu'en France, cette maladie touche aujourd'hui 434.000 personnes de plus de 65 ans et, avec le vieillissement de la population, les experts prévoient que ce chiffre atteindra 600.000 vers 2020. Nature du 22-05-2003 : http://www.nature.com/
|
|
|
|
|
|
|
|
La question des biotechnologies en général et des organismes génétiquement modifiés (OGM) en particulier renvoie à de nombreux aspects des choix collectifs de notre société : la liberté de chacun d'entre nous de choisir, et notamment de savoir ce qu'il mange ; la confiance ou la défiance de l'opinion publique dans le progrès et la recherche ou dans les institutions garantes de la sécurité sanitaire, alimentaire et environnementale ; la capacité de notre société à organiser un large débat démocratique permettant de définir, dans des conditions acceptées par le plus grand nombre, des choix collectifs qui apparaissent conformes à l'intérêt général. Ce rapport du Sénat rappelle, de manière imagée et très rapidement, dans la mesure où ces informations sont amplement développées dans de nombreux rapports publics et ouvrages, ce qu'est un OGM. Tous les organismes vivants portent dans leurs cellules leur patrimoine génétique. Toutes ces informations sont écrites dans une langue commune à tous les organismes vivants. Pour poursuivre cette comparaison avec le langage, on pourrait dire que les individus sont comme des livres, dont les chromosomes seraient les chapitres et les gènes les mots. La modification génétique consiste à modifier un ou plusieurs mots dans le livre. Tout comme les mots, les gènes prennent leur sens dans un contexte, c'est-à-dire en interaction avec les autres gènes, de même que le sens d'une phrase ne dépend pas que du vocabulaire, mais aussi de la syntaxe. Nous commençons, grâce à la génomique, à avoir une maîtrise rudimentaire du vocabulaire : nous connaissons un certain nombre de gènes, avec parfois leur fonction ou l'une de leurs fonctions. Mais nous maîtrisons beaucoup moins bien la syntaxe : on ne peut pas, pour l'heure, choisir précisément où le mot va s'intégrer dans le texte, ce qui pose bien entendu la question de la modification du sens, plus ou moins contrôlée, qu'il va entraîner. La question est alors de savoir si nous savons juger, après la modification, de la qualité d'ensemble de l'organisme ainsi modifié. Les opposants aux OGM estiment que l'équilibre de l'organisme a pu être bouleversé, sans que l'on s'en rende compte ; les défenseurs de la transgénèse jugent au contraire que les altérations majeures de la nature et des propriétés des organismes considérés sont détectables. Ainsi, la découverte fondamentale de la carte d'identité de chaque être vivant grâce aux avancées de la génétique et à la technique du séquençage permet désormais de déplacer des gènes porteurs de certaines qualités et de les introduire dans le patrimoine génétique d'une espèce vivante, qu'elle appartienne au règne animal ou végétal. En étudiant des phénomènes qui jusqu'alors n'étaient pas expliqués, comme l'apparition dans une parcelle donnée d'épis de maïs plus forts, plus grands, alors même que la sécheresse ou les infections touchaient tous les autres, l'homme s'est rendu compte que les propriétés biologiques de ces épis étaient différentes des autres. Et il s'est intéressé sur ce qu'il était possible de faire pour obtenir la même qualité de résistance pour tous les épis de maïs. Via la modification génétique, on peut ainsi rendre une plante résistante à la sécheresse et des opérations de sélection qui prenaient dix ans peuvent ainsi se réaliser en une ou deux années. De là, bien des applications sont imaginables et votre rapporteur au travers de ses lectures, de ses auditions et de ses déplacements, a pu mesurer concrètement les points positifs, les points négatifs et les possibles dérives de la manipulation génétique. Il en conçoit la nécessité d'une très grande prudence. Le véritable enjeu est en effet de savoir comment la société doit traiter les découvertes scientifiques. La question des conséquences sanitaires, environnementales et économiques des OGM a été largement débattue, et ce rapport y revient. Mais un point est d'ores et déjà incontestable : ce dossier a mis en lumière la difficulté pour notre société de définir clairement les objectifs qu'elle assigne à son développement, entendu dans toutes ses dimensions, économique aussi bien qu'humaine. Le moratoire de fait adopté au niveau européen depuis 1999 (qui ne portait que sur l'obligation de seuil d'étiquetage et de traçabilité) n'a fait, de ce point de vue, que différer le moment de la prise de décision. Ce rapport conclut à la nécessité d'une approche politique de la question, c'est-à-dire une approche qui tâche de peser les avantages et les inconvénients, pour notre société dans son ensemble, des différentes attitudes possibles et qui mette à la disposition du citoyen les éléments lui permettant de décrypter les évolutions en cours. La notion de progrès est en effet attachée à l'importance des apports sociaux d'une innovation, lesquels ne sont pas perçus d'emblée, s'agissant des OGM, mais méritent pourtant d'être mis en perspective et encadrés par une nécessaire régulation. Cette régulation doit viser à prévenir les dérives, dont la plus visible serait l'appropriation du vivant et dont les enjeux sont mobilisateurs car porteurs de rapports de force entre les hommes. Elle doit également permettre de mobiliser l'effort de recherche au bénéfice des pays en développement et contribuer ainsi au rééquilibrage des rapports Nord/Sud. Le présent rapport se veut un exercice visant à réintroduire le débat sur les OGM dans une phase active, en tenant compte des différentes sensibilités de perception qui coexistent dans notre pays, et à l'enrichir d'éléments de réflexion et de décision, sans perdre de vue que la logique économique ne peut être déterminante que si elle entre en corrélation directe avec les besoins du plus grand nombre. Ce rapport est le fruit d'une année de réflexion, au cours de laquelle la mission d'information de la commission des Affaires économiques a procédé à soixante-sept auditions. Il s'articule en trois parties, dont les deux premières sont le reflet des auditions : le chapitre I analyse l'état de l'opinion publique, notamment à travers la description des risques associés aux OGM et l'évocation de leurs bénéfices prospectifs ; le chapitre II met en lumière les multiples facettes du dossier, dans les contextes européen et mondial, sans l'aborder uniquement à travers le prisme agroalimentaire ; le chapitre III présente les propositions que formule votre rapporteur, afin d'avancer grâce à une meilleure régulation institutionnelle du dossier. Le rapport estime qu'un certain nombre d'éléments font déjà l'objet d'un assez large consensus. Les propositions qu'il formule s'inscrivent donc dans un cadre défini par : - le droit pour le consommateur de choisir et de savoir ce qu'il mange. Cela implique étiquetage et traçabilité des produits ; - la protection de l'agriculture biologique et « fermière », suivant l'appellation de votre rapporteur, qui commande le recours à de bonnes pratiques dans la mise en culture des OGM, et l'indemnisation des producteurs bio en cas de présence fortuite d'OGM dans leurs produits, au-delà d'un seuil défini par les pouvoirs publics ; - la transparence des procédures de contrôle des OGM, qui passe par une amélioration du système actuel, conformément aux recommandations des quatre Sages ; - la poursuite de la recherche en biotechnologies, notamment sur les OGM, afin d'éviter que notre recherche publique, plus particulièrement, ne soit distancée par les travaux des firmes multinationales. Lors de ses auditions, la mission d'information a été particulièrement sensible aux éléments d'information apportés par le projet de recherche PABE (Perceptions publiques des biotechnologies agricoles en Europe) mené dans cinq pays européens pour le compte de la Commission européenne. En effet, cette étude suggère que le degré de crispation actuelle des opinions publiques sur ce sujet n'est pas essentiellement dû à des erreurs de communication des institutions de contrôle alimentaire et sanitaire, mais aussi aux difficultés du débat démocratique, qui ne permettent pas une expression appropriée de tous les points de vue. Le rapport propose de dessiner une position de nature politique, qui exprime clairement le choix collectif qu'aura fait notre société. Notre pays est dans une situation où il va devoir faire des choix au-delà du moratoire. Votre commission des Affaires économiques a entendu l'appel des quatre Sages invitant la représentation nationale à se saisir de ce dossier. Votre Rapporteur estime qu'il appartient à présent au Parlement de légiférer, en s'appuyant sur certaines des recommandations qui ont été faites au fil des différents rapports, et notamment sur celle des quatre Sages, pour qui « l'innovation technologique doit privilégier le caractère concret de bénéfice qualitatif plutôt que les objectifs productivistes ». Quelle politique des biotechnologies pour la France ? : http://www.senat.fr/rap/r02-301/r02-301.html
|
|
|
|
|
|
|
|
Une équipe française vient de découvrir que, dès leur naissance, les bébés humains sont capables de mettre en relation une information tactile et une information visuelle. Lorsqu'ils ont tenu un objet dans leur main droite, les nourrissons sont capables de le reconnaître, visuellement, parmi d'autres objets. Cette capacité étonnante remet en cause les théories dominantes fondées sur l'apprentissage. A trois jours, les nourrissons sont déjà capables d'associer des données tactiles avec leur contrepartie visuelle. Le transfert intermodal toucher-vision, un processus cognitif absolument nécessaire à une conception cohérente du monde, serait donc un phénomène inné. C'est ce que viennent de mettre en évidence deux chercheurs du laboratoire « Cognition et Développement » de l'université Paris-V, Arlette Streri (professeur de psychologie de l'enfant) et Edouard Gentaz (chargé de recherche au CNRS). Cette découverte remet en cause les théories selon lesquelles le transfert des informations du mode tactile vers le mode visuel nécessiterait un apprentissage issu de l'expérience. Les chercheurs ont mené leur étude sur des bébés âgés de trois jours en moyenne. Durant la première phase de l'expérience, purement tactile, de petits objets (prisme ou cylindre) ont été placés dans la main (droite ou gauche) des nourrissons. Les nouveau-nés ne pouvaient pas voir l'objet en question. Lorsque les bébés lâchaient l'objet, l'expérimentateur le remettait dans leur main de manière qu'ils « s'habituent » à sa forme. Lors de la seconde partie de l'expérience, les nouveau-nés ont été placés devant deux objets, celui qu'ils avaient touché lors de la première partie de l'expérience et un second objet avec lequel ils n'avaient jamais été en contact auparavant. Les chercheurs se sont alors appuyés sur leur connaissance du comportement naturel des nourrissons pour savoir s'ils étaient capables de reconnaître l'objet qu'ils avaient touché. Face à une nouveauté, les bébés montrent une certaine curiosité et une attention qui diminuent au fur et à mesure qu'ils s'y accoutument. Les scientifiques nomment cette période « phase d'habituation ». Au terme de cette phase, si le nourrisson rencontre une situation inédite, il lui porte davantage d'attention qu'à la situation à laquelle il est habitué. Ainsi, face à deux objets dont l'un est familier, l'attention d'un bébé se focalise principalement sur l'objet inconnu. Les observations de Streri et coll. semblent donc bien signifier que les nouveau-nés humains sont capables, à partir d'une sensation tactile manuelle, d'extraire l'information sur la forme d'un objet, puis de la transposer dans un format visuel. Cette capacité semble être latéralisée dès la naissance puisque seuls les objets tenus dans la mains droite ont été reconnus par les bébés de trois jours. Cette découverte s'oppose aux théories traditionnelles (empiristes) et modernes (connexionnistes) qui se fondent sur un apprentissage perceptif. Selonces théories, seule l'expérience permettrait aux nourrissons d'acquérir la capacité d'associer des informations tactiles aux informations visuelles. Or, dans le travail de Streri et coll., les bébés n'ont pas eu la possibilité de vivre de telles expériences, et il apparaît que le processus cognitif permettant de coordonner le toucher et la vue est dépendant de structures perceptives innées dont la nature reste à déterminer. Quotimed : http://www.quotimed.com/information/index.cfm?
|
|
|
|
|
|
|
|
Ce n'est pas parce qu'on a dépassé l'âge de la trentaine que notre personnalité est figée pour la vie. C'est en tous cas ce qu'affirme une nouvelle étude réalisée par des psychologues américains et révélée par le magazine New Scientist. Sanjay Srivastava et ses collègues, de l'Université de Californie, à Berkeley, ont analysé les traits de caractère de 130 000 personnes âgées entre 21 et 60 ans. Plus précisément, les chercheurs se sont penchés sur les cinq traits de caractère « type » : la minutie, l'ouverture d'esprit, l'extraversion, le caractère agréable et la stabilité. Ces traits ne dépendent pas de facteurs tels que l'humeur. De nombreux psychologues pensent que ces cinq caractéristiques sont en grande partie génétiques et ne changent que très peu après trente ans. En réalité, révèle l'étude, les traits de caractère des adultes continuent d'évoluer avec l'âge. Certaines personnes changent même complètement de personnalité au cours du temps. L'équipe a découvert que les femmes devenaient en général plus instables avec l'âge, au contraire des hommes. L'ouverture d'esprit a tendance à diminuer chez les deux sexes. En général, les jeunes de vingt ans sont plus minutieux que leurs aînés. Enfin, le caractère agréable se retrouverait surtout chez les personnes au delà de la trentaine. Cet âge coïncide avec la création d'une famille pour beaucoup d'adultes. New Scientist : http://www.newscientist.com/news/
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Les chimpanzés et les hommes ont un ancêtre commun dont ils ont divergé il y a cinq à six millions d'années, ce qui devrait faire classer les deux espèces sous le même genre homo, estiment des chercheurs dans une étude génétique publiée aux Etats-Unis. Ces scientifiques estiment que l'homme et le chimpanzé ont divergé d'un ancêtre commun qui avait précédemment divergé du gorille il y a six à sept millions d'années. Traditionnellement, les hommes (fossiles et actuels) étaient les seuls membres de la famille des hominidés et du genre homo, tandis que les chimpanzés, gorilles et autres grands singes étaient classés dans une autre catégorie. Le chercheur Morris Goodman et son équipe ont testé la validité de cette classification en comparant 97 gènes humains à ceux de cinq autre espèces, les chimpanzés, gorilles, orang-outans, singes eurasiens et souris. Les scientifiques se sont appuyés sur des mutations génétiques affectant la production de protéines pour construire un arbre de l'évolution qui mesurait le degré de proximité entre les six espèces, concluant que l'homme et le chimpanzé occupent des branches soeurs, avec une similarité génétique de 99,4 %. Les gorilles arrivent en troisième position, suivis des orang-outans et des singes. Les primates sont tous génétiquement éloignés des souris, utilisées purement comme un groupe de contrôle. Les chercheurs de l'école de Médecine de l'Université de Wayne dans le Michigan (nord) concluent que tous les grands singes devraient faire partie de la famille des hominidés et que les humains et les chimpanzés devraient former le genre homo. PNAS du 20-05-2003 : http://www.pnas.org/
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|