|
|
|
|
|
NUMERO 79 |
|
|
|
|
|
|
|
Edition du 07 Janvier 2000
|
|
|
|
|
Edito
Clonage et brevetabilité de l'être humain : sachons prendre nos responsabilités
Le Conseil d'Etat a remis, il y a quelques semaines, au Premier Ministre un rapport très riche qui rouvre fort opportunément le débat sur les conséquences éthiques et sociétales résultant des fulgurantes avancées des sciences de la vie au cours de la décennie qui vient de s'écouler. Ce rapport, qui devrait servir de base de réflexion à la nécessaire modification de la Loi de 1974 sur la bioéthique, aborde 4 grandes questions qu'il convient de distinguer et dont il faut rappeler les enjeux. -* La première question concerne l'assistance médicale à la procréation. Dans ce domaine, le Conseil d'Etat propose d'élargir cette assistance médicale à la procréation aux couples dont l'un des membres est atteint d'une maladie transmissible grave pour l'autre membre et suggère d'autoriser le transfert d'embryons dans les 18 mois qui suivent la mort de l'un des deux conjoints, sous réserve cependant de la préexistence d'un réel projet de couple. Toute insémination directe post-mortem est donc exclue. Est également exclue l'éventuelle levée de l'anonymat pour les donneurs de spermatozoïdes. -* La deuxième question concerne la recherche sur l'embryon. Sur ce sujet très sensible, le Conseil d'Etat préconise l'instauration d'un cadre juridique strict mais n'interdisant pas toutefois certaines recherches dont l'intérêt thérapeutique est évident. Ce cadre prévoit que seuls les embryons in vitro congelés, qui ne font plus l'objet d'un projet parental, puissent être utilisés dans des expérimentations pendant une durée limitée à 5 ans. Il faut souligner qu'aujourd'hui, ces embryons dits “surnuméraires” sont destinés à être détruits. Pour s'assurer de leur intérêt médical, ces recherches devraient en outre faire l'objet d'un agrément préalable délivré par un organisme national composé de médecins et de personnalités compétentes. -* Le troisième point concerne la question oh combien capitale du clonage humain. Sur cette question évidemment essentielle, le Conseil d'Etat préconise une interdiction absolue et sans ambiguïté qui devrait prendre la forme d'un article dans notre Code civil précisant que “est interdite toute intervention ayant pour but de faire naître un enfant ou de faire se développer un embryon humain dont le génome serait identique à un autre être humain vivant ou décédé”. -* Enfin, la dernière question concerne le champ de brevetabilité du corps humain, mais aussi des découvertes et inventions liées au génome humain. Face à l'explosion des biotechnologies et alors qu'une première cartographie complète du génome humain est annoncée avant la fin de l'année qui vient de commencer, cette question soulève des enjeux industriels et financiers considérables et elle est certainement la plus complexe à régler sur le plan juridique et éthique. A l'heure actuelle, notre droit national ne délimite pas clairement le champ de brevetabilité du vivant. Toutefois, la France doit transposer dans sa loi, d'ici juillet 2000, la Directive européenne de 1998 dont le contenu est ambigu et l'interprétation délicate. Cette directive précise, d'une part, (art. 5) que “le corps humain aux différents stades de sa constitution ainsi que la découverte de ses éléments, y compris la séquence d'un gène, ne sont pas brevetables”. Mais cette directive précise également “qu'un élément isolé du corps humain produit par un procédé technique, y compris une séquence de gêne, est une invention brevetable, même si cet élément a une structure identique à celle d'un élément naturel”. Le moins que l'on puisse dire est que cette notion “d'élément isolé” n'est ni claire, ni satisfaisante car, outre les gênes et cellules, il existe à présent de nombreuses parties du corps humain, tissus ou organes, qui sont susceptibles d'être cultivées en laboratoire et d'être isolées de manière technique. C'est ici tout le problème fondamental de la distinction scientifique, industrielle et morale, entre découverte et invention qui est posé. Il faut parvenir à distinguer et définir la connaissance des gênes qui relève de la découverte, et doit absolument rester libre d'accès, car elle appartient au patrimoine commun de l'humanité, et l'invention que va permettre cette connaissance et qui se traduit, elle, par un nouveau mode d'action thérapeutique. Pour avancer sur cette question essentielle, mais très difficile, le Conseil d'Etat propose que la brevetabilité d'une séquence de gêne soit possible, mais toujours subordonnée à la précision de son application médicale et industrielle. On le voit, ces questions qui peuvent sembler arides et techniques sont d'une importance capitale, non seulement pour notre avenir personnel en temps que malade potentiel, mais aussi en ce qui concerne le type de société que nous voulons construire ensemble. Nous devons, plus que jamais, réfléchir ensemble pour trouver un équilibre acceptable et équitable entre la logique du marché, condition de l'efficacité techno-économique, et la logique d'humanité qui fait de l'homme à tout jamais une valeur singulière et irréductible à un objet marchand. René Trégouët Sénateur du Rhône
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
L'Autorité de régulation des télécommunications (ART) a préconisé le 3 janvier l'application du droit existant à l'internet, dans sa réponse à la consultation publique, lancée en octobre par le gouvernement, sur l'adaptation du cadre législatif de la société de l'information. "Le droit commun des réseaux de télécommunications s'applique à internet. Créer un cadre juridique spécifique pour internet serait aller dans le mauvais sens", a expliqué Sylvie Poussines, chef du bureau prospective technique de l'ART. Estimant que "la réglementation doit être neutre par rapport aux technologies utilisées, sous peine de devenir rapidement obsolète", l'ART a aussi jugé que "l'unification et la simplification du cadre juridique doivent être l'objectif dans un contexte de convergence technologique" des réseaux de télécommunications, a-t-elle indiqué dans un communiqué. Pour l'ART, "la réglementation et la régulation des réseaux doivent être identiques quels que soient les types d'infrastructures, les technologies utilisées et les services qu'ils permettent d'offrir aux utilisateurs". L'autorité a estimé que le développement d'internet "passe par la liberté d'accès aux réseaux et aux services, donc par l'exercice d'une concurrence effective et loyale, au bénéfice du consommateur". L'ART considère que "la diffusion de l'accès à internet passe par le développement concomitant de l'accès par le réseau commuté et des accès à haut débit, dans le cadre d'une concurrence effective sur la boucle locale". Enfin l'ART a rappelé qu'il était capital de Favoriser l'accès du plus grand nombre aux réseaux de télécommunications. Pour l'ART, le développement de l'utilisation d'Internet par l'ensemble de nos concitoyens passera également par des mesures permettant de faciliter la diffusion des terminaux d'accès (le plus souvent des micro-ordinateurs), ainsi que par l'acquisition d'un bagage culturel adapté : maîtrise du langage et des outils informatiques et capacité à formuler ses recherches et ses choix. Compte tenu de l'importance des technologie xDSL, le dégroupage de la boucle locale dans ses différentes modalités techniques constitue un moyen efficace de contribuer à l'essor du marché de l'accès à haut débit, au bénéfice des utilisateurs. Si une évolution du cadre législatif apparaissait souhaitable, dans un souci de sécurité juridique, pour la mise en oeuvre complète du dégroupage, elle ne devrait pas constituer un préalable à l'engagement des travaux techniques et économiques et à la mise en oeuvre d'autres solutions. Plus généralement, les règles de la liberté d'accès aux réseaux et de non discrimination qui s'appliquent dans le secteur des télécommunications doivent être généralisées, par exemple dans le cas des systèmes d'accès conditionnels, matériels (décodeurs) et immatériels (plates-formes d'accès), appelés à jouer un rôle important dans le cadre de la société de l'information et susceptibles de constituer les goulets d'étranglement du marché global des services de la société de l'information. La gestion des noms de domaines et des adresses Internet pourrait également s'inspirer des règles de gestion des ressources rares utilisées pour les télécommunications. Il faut également noter l'importance du concept de service universel. En raison des évolutions technologiques et économiques, son contenu et sa fourniture peuvent être appelés à évoluer, même si, pour l'heure, les dispositifs instaurés paraissent satisfaisants ART/3/01/2000 : http://www.art-telecom.fr/
|
|
|
|
|
|
|
|
A en croire une étude publiée par le cabinet Forrester Research, la guerre que se livrent les sites portails serait terminée. Il serait même judicieux pour ceux qui croient encore à une possible victoire de "baisser les armes et de chercher à exploiter des niches plutôt que de vouloir faire partie du gratin". C'est ainsi que Lycos, Go Network (filiale de Disney), AltaVista ou encore Excite auraient intérêt à limiter les frais et laisser les poids lourds de la catégorie, Yahoo!, AOL et Micorsoft Network, se battre pour déterminer qui est le plus fort. "Si ces autres sites portails veulent survivre, ils vont devoir se spécialiser", explique Charlene Li, l'auteur de l'étude de Forrester Research, citant le cas d'AltaVista. Ce dernier devrait profiter de sa réputation de supermoteur de recherche pour fournir un contenu plus académique et plus économique.Ce type d'analyse ne manque pas de faire réagir les responsables des sites portails, à l'image de Lycos. "Nous n'allons pas nous limiter à un public particulier car notre objectif est d'être l'une des trois principales destinations du Net", explique Ron Sege, vice-président de Lycos, dans les colonnes de ZDNet, alors que l'étude de Forrester Research conseille à Lycos de viser principalement un public jeune. Si les ambitions de Lycos et autres Go Network sont louables, il leur sera difficile de rattraper AOL avec ses 53 millions d'utilisateurs mensuels ou Yahoo ! et ses 40 millions de visites mensuelles. Face à ces mastodontes, les sites qui sauront se créer un petit coin au soleil en offrant un service adapté à une clientèle ciblée peuvent espérer poursuivre leur croissance tranquille sur le réseau des réseaux.
|
|
|
|
|
|
|
|
Entre câble et ADSL, le marché américain de la connexion Internet à haut débit est en pleine effervescence, mais dans ce domaine, les Etats-Unis ne sont pas vraiment en avance sur l'Europe. A l'heure actuelle, différentes estimations évaluent entre 300.000 et 600.000 seulement le nombre d'utilisateurs privés de la technologie ADSL (dont un quart dans la seule Silicon Valley), qui s'acquittent d'un forfait mensuel d'environ 40 dollars pour utiliser leur connexion sans limitation de durée et qui permet des vitesses de transmission dix fois supérieures à celles d'un modem classique. Dans l'attente d'une régulation qui devrait permettre à des opérateurs spécialisés de concurrencer plus facilement les opérateurs classiques, ce marché est encore particulièrement éclaté. Il a profité à de petits fournisseurs d'accès qui n'ont pas hésité à louer des lignes aux compagnies régionales de téléphone, les " Baby Bells ", pour occuper le terrain. Jusqu'à présent en effet, celles-ci ont remis à plus tard les investissements considérables nécessaires pour l'acquisition de nouveaux équipements, redoutant que l'ADSL ne réduise leurs revenus issus de la téléphonie locale. Pour autant, sous la pression d'une concurrence renforcée, notamment d'opérateurs spécialisés comme NorthPoint ou Covad, ces hésitations n'ont plus cours. SBC Communications, propriétaire de Pacific Bell en Californie, a récemment annoncé un investissement de 6 milliards de dollars qui permettra, dans les deux ans, de proposer l'ADSL à 70 millions de foyers américains. En début de semaine, la firme a même précisé qu'elle allait proposer l'ASDL aux entreprises américaines situées en dehors de la zone géographique où elle peut fournir de la téléphonie locale. D'autres annonces importantes d'investissements de la part d'opérateurs devraient suivre. Quoi qu'il en soit, le succès de l'ADSL passe également par une simplification de son usage par l'internaute. A l'heure actuelle, celui-ci doit s'équiper d'un modem spécial et demander un rendez-vous avec sa compagnie de téléphone locale pour qu'elle vienne tester sa ligne. Deux verrous qui devraient sauter progressivement avec l'apparition, notamment chez Dell, de micro-ordinateurs haut de gamme qui pourront être prééquipés de modems ADSL et de logiciels capables de tester de façon autonome la ligne téléphonique, sans intervention d'un opérateur. Même s'il finira par profiter des moyens marketing et financiers considérables des " Baby Bells ", l'ADSL ne sera pas la seule voie de l'accès Internet à haut débit aux Etats-Unis. La bataille du câble fait également rage, pour l'instant dominée par ExciteHome, qui a déjà plusieurs centaines de milliers d'abonnés. Les actionnaires principaux de cette société sont les grands câblo-opérateurs américains, qui ont consenti à ATT _ qui vient de dépenser plusieurs milliards de dollars dans ce secteur _ le droit de contrôler ses opérations. Actuellement, la stratégie d'ExciteHome consiste à proposer aux internautes un accès Internet à haut débit en remplaçant leurs décodeurs actuels (dont 70 % des foyers américains sont équipés) par des décodeurs numériques, capables de diffuser un contenu aussi bien sur les postes de télévision que sur les PC familiaux. Une furieuse bataille oppose ATT à America online car le premier refuse au second l'accès à ses réseaux pour proposer un autre contenu que celui d'Excite, même s'il a promis le mois dernier d'ouvrir son réseau à d'autres concurrents. Là encore, la FCC doit prochainement décider si, oui ou non, l'accès aux réseaux câblés pour Internet sera ouvert aux prestataires de services Internet. Les Echos/3/1/2000 : http://www.lesechos.fr/hightech/index.html
|
|
|
|
|
|
|
|
Disponible depuis deux mois dans quelques villes, l'abonnement à l'Internet rapide par l'ADSL est promis à un bel avenir en France. L'" assymmetric digital subscriber line " est une technologie qui permet de multiplier la vitesse de transmission d'une ligne téléphonique classique. Avec un abonnement ADSL, le débit constaté est environ dix fois supérieur à celui qu'on obtient avec un modem classique de 56 K. En connexion permanente, il présente en outre l'avantage de ne pas occuper la ligne téléphonique, qui peut continuer à recevoir des appels. Lancée le 3 novembre dans six arrondissements de Paris et trois villes des Hauts-de-Seine, l'offre Wanadoo ADSL de France Télécom compte aujourd'hui " entre 2.000 et 3.000 abonnés ", selon l'opérateur. Trois concurrents de France Télécom, Club Internet, Easynet, et Worldnet, commercialisent eux aussi leur offre ADSL sous leur propre marque après avoir acheté en gros à l'opérateur historique de l'accès à l'abonné. Début décembre, France Télécom a étendu son offre à plusieurs autres villes, comme Lyon, Strasbourg et Lille. C'est d'ailleurs cette extension, que l'opérateur n'a pas soumise à homologation, qui a suscité les menaces de sanction de l'Autorité de régulation des télécoms la semaine dernière (" Les Echos " du 29 décembre). France Télécom compte proposer une offre ADSL dans 250 villes d'ici deux ans, ce qui représente un investissement de 2 milliards de francs. Une étude de Salomon Smith Barney prévoit que 70 à 80 % de la population française sera couverte dans cinq ans. Pour l'instant, l'ADSL reste réservé aux gros consommateurs d'Internet. L'abonnement revient en effet à 450 francs par mois environ pour la location du modem spécial, le forfait téléphonique et l'abonnement au fournisseur d'accès. Mais ce prix pourrait baisser, avec le développement de la concurrence notamment. Salomon Smith Barney prévoit 172.000 abonnés français à l'Internet rapide (ADSL et câble) à la fin de l'année. Le cap du million de clients serait dépassé en 2002. Mais les bénéficiaires du haut débit ne devraient toujours représenter qu'une minorité des internautes (un sur cinq en 2003). Dès son apparition, l'ADSL est déjà en vive concurrence avec le câble aux Etats-Unis (lire ci-dessous) et dans certains pays européens comme la Suisse ou les Pays-Bas, où plus de 80 % des foyers sont reliés au réseau câblé. En France, l'ADSL n'a que 7,5 millions de foyers câblés face à lui. Et l'accès à Internet par le câble, proposé par quelques opérateurs comme Lyonnaise Câble, connaît encore des problèmes techniques qui pèsent sur son développement. Les Echos/3/1/2000 : http://www.lesechos.fr/hightech/index.html
|
|
|
|
|
|
|
|
La société Applied Biometrics Products (ABP) a annoncé aujourd'hui qu'elle allait présenter son Kryptic Pilot (accessoire d'identification par empreinte digitale) pour PalmOS au CES 2000 (Consumer Electronic Show). Le Kryptic Pilot, qui a déjà pour lui une consommation d'énergie particulièrement faible, est le seul appareil d'identification par reconnaissance digitale qui réponde aux besoins des plates-formes mobiles en termes de sécurité. Cet accessoire va conférer aux transactions mobiles (m-commerce ou simplement échange d'e-mail) le caractère étanche, sécurisé, le blindage qui lui faisait encore défaut. Ce devrait être une solution miraculeuse pour les professionnels. Ce nouveau type de sécurisation, indépendant et absolument infalsifiable, renverse ainsi l'ultime obstacle au développement du m-commerce. Grâce au Kryptic Pilot, les data mobiles personnelles seront totalement protégées. Avec une durée de vie de plusieurs mois sur un seul set de batteries, l'appareil se "rappellera" de toutes les empreintes digitales entrées plusieurs années durant, quand bien même les batteries auraient été retirées. Sa taille réduite (une grosse carte de crédit) et son coût attractif ($69, soit environ 425 FF) en feront probablement un outil mobile indispensable pour les professionnels. En tout cas, la bestiole sera lâchée lors du CES 2000 qui se tiendra à Las Vegas du 6 au 9 janvier 2000. Lettre de l'internet : http://www.lalettre.com/todaynews.cfm?id=142&actions=view
|
|
|
|
|
|
|
|
La société Cocedal Conseil vient de rendre publics les résultats de sa deuxième étude, intitulée QualiWeb 1999/2000, portant sur la qualité d'accueil des sites Web français. Réalisée auprès de 200 sites appartenant aux 16 secteurs d'activités les plus représentatifs du Web, l'étude apporte des conclusions qui, malgré un léger progrès par rapport à l'édition précédente, laissent encore dubitatifs. En effet, sur 1 000 eMails mystères envoyés entre le 13 septembre et le 8 novembre 1999, il apparaît que seuls 19 % des sites répondent de manière systématique (ils n'étaient que 9 % lors de la première étude), 12 % ne répondent jamais, et 47 % ne donnent une réponse qu'à 3 ou 4 messages sur 5. De plus, 58 % des messages ont reçu une réponse dans un délai de deux semaines, et 80 % de celles-ci sont encore imparfaites. Pourtant la situation s'améliore, puisque 50 % des messages reçoivent une réponse correcte (contre 42 % lors du premier baromètre), et 23 % des sites, contre 15 % l'année dernière, ont une qualité d'accueil jugée excellente. Les sites de bourse en ligne sont les plus réactifs (72 % d'entre eux répondent aux eMails et 95 % des réponses parviennent sous 24h), suivis par les sites de vente de produits culturels, les hébergeurs et les opérateurs de télécommunication. Bonnet d'âne en revanche pour les sites du secteur de l'audiovisuel et de la presse, qui ne répondent qu'à 45 % des messages. Les meilleurs taux de réponse sont constatés sur les sites qui ont pour vocation affichée le service aux clients, l'image de l'entreprise ou une démarche commerciale, par opposition au x sites d'information de masse. De leur côté, les sites de commerce électronique "pur" répondent plus rapidement que leurs homologues alliant distribution traditionnelle et commerce électronique ; ces derniers obtiennent toutefois des résultats supérieurs à la moyenne (64 %). Cette seconde étude confirme les tendances dégagées lors de la première édition : les eMails sont soit traités immédiatement (72 % des réponses reçues sont réceptionnées sous 24 h), soit tout simplement oubliés. Le style des réponses est plutôt informel, très convivial et proche de la langue parlée. Les lauréats de cette étude sont CNP Assurances, Biotherm (dont le service eMail est assuré par NetForce, via sa solution MailForce), AXA Assurances, PSA Peugeot Citroën, CPR-ETrade et Dégriftour.
|
|
|
|
|
|
|
|
Le bogue informatique de l'an 2000, tant redouté, a finalement fait, par son absence, un pied de nez grandiose à tous ceux qui l'attendaient au tournant du siècle. Il y a bien eu quelques petits avatars sans conséquences ici et là. Mais le monde s'est réveillé au jour de l'an nouveau, sinon un peu groggy, du moins avec la satisfaction d'avoir évité le pire. Et même si personne n'osait encore crier victoire, les énormes efforts déployés à travers le monde pour lui faire échec semblaient bien avoir porté leurs fruits. Il ne fait aucun doute, dans mon esprit, que les centaines de milliards de dollars qui ont été dépensés dans le monde (pour lutter contre le bogue) l'ont été à bon escient", a souligné le sénateur républicain de l'Utah, Robert Bennett, président de la sous-commission du Sénat sur le bogue de l'an 2000. Aux Etats-Unis, où, pour parer à toute éventualité, l'Etat et le secteur privé ont dépensé plus de 100 milliards de dollars au cours des trois dernières années (soit environ 365 dollars par Américain), de nombreux experts redoutaient surtout une transmission en chaîne de petites défaillances isolées, susceptible de résulter en un véritable chaos. Mais jusque-là, les erreurs provoquées par le bogue de l'an 2000 constatées n'ont été que très mineures et, dans tous les cas, ont pu être rapidement corrigées. Dans le Delaware, ce sont ainsi 800 machines à sous sur des champs de course qui se sont bloquées lorsqu'elles ont reçu la date erronée du 1er janvier 1900. A Washington, le site internet par l'horloge atomique de l'Observatoire naval affichait un horaire plutôt incongru: "1er janvier 19100". Dans le Midwest, les horloges électroniques de huit centrales électriques sont soudainement passées à minuit de l'heure locale à l'heure universelle (ou GMT), créant une confusion qui n'a eu aucune répercussion sur la production d'électricité. Finalement, quelques heures après le coup de minuit, les responsables américains poussaient un ouf de soulagement. "Je suis agréablement surpris. Nous nous attendions à davantage de difficultés au début, en particulier dans le monde", a confié le "Monsieur bogue" de la Maison Blanche, John Koskinen. Même son de cloche dans le secteur privé. "C'est un énorme sentiment de soulagement qui prévaut. L'effort financier et humain a été gargantuesque pour que tout soit prêt. Il apparaît maintenant que cela en valait bien la peine", a déclaré pour sa part James Woodward, un des vice-présidents de la société d'informatique Cap Gemini America. Pourtant, le bogue pourrait ne pas avoir dit son dernier mot. "Il est encore trop tôt pour crier victoire", avertit, prudent, John Koskinen. "Tous les problèmes ne vont pas apparaître immédiatement. Nous n'aurons une vue complète que vers le milieu de la semaine prochaine". Selon la firme de consultants Gartner Group, moins de 10% des défaillances dues au bogue de l'an 2000 devaient survenir dans les deux premières semaines. Le reste frappera surtout les systèmes informatisés internes des entreprises (facturation, payes, etc...) et devrait n'affecter que très peu la population. La réussite des travaux de préparation au bogue de l'an 2000 des grands systèmes informatiques, mais aussi leur coût énorme, ont suscité des interrogations qui ont contraint de nombreux responsables à rappeler que le bogue n'était pas un fantasme. Les entreprises et administrations françaises ont consacré plus de 120 milliards de francs (18,29 mds EUR) depuis trois ans à préparer leurs ordinateurs au passage à l'an 2000. Ce week-end, les systèmes considérés comme stratégiques, (énergie, transport, défense etc...) ont passé le cap sans fléchir. Ce que certains ont vite considéré comme une preuve que les sommes investies n'étaient pas forcément nécessaires. Une idée apparue tout d'abord dans des journaux cubains, qui ont affirmé que le bogue entrait probablement dans le cadre d'une manipulation capitaliste, dont le but était de gonfler les dépenses électroniques. Le quotidien "Juvendud Rebelde" a même estimé que c'était pour des raisons économiques que l'avènement du troisième millénaire, qui aurait dû attendre 2001, a été célébré avec un an d'avance. Face à ces accusations, les réactions dans les sociétés informatiques, soupçonnées d'avoir voulu gonfler leur chiffre d'affaires grâce au bogue, oscillaient entre l'indignation et l'abattement. "On a dépensé plus de 300 milliards de dollars dans le monde pour réparer des systèmes qui étaient réellement dangereux. On pouvait donc s'attendre à des résultats, et que le passage à l'an 2000 se passe correctement", rappelait le responsable An 2000 chez IBM France, Maurice Talbot. "Des dizaines de millions de lignes de code informatique ont été corrigées, pour que les dates puissent être lues correctement par les ordinateurs, qui sans cela se seraient bloqués ou auraient fonctionné de manière fantaisiste", expliquait de son coté Nicolas Du Peloux, Monsieur An 2000 chez Cap Gemini. La plupart des grandes entreprises de services informatiques (SSII) n'ont que très peu profité des travaux de préparation au bogue, qui pour Cap Gemini comme pour Sema ou Atos, les leaders européens, n'a représenté que 2 à 5% du chiffre d'affaires en 1999. Les conversions des entreprises au commerce électronique représentent pour les SSII des marchés beaucoup plus rémunérateurs, rappelle Jean François Perret, chez Pierre Audouin Conseil. Au surplus, selon une récente enquête de l'institut d'études américains IDC, l'investissement informatique des entreprises françaises n'a pas augmenté à cause du bogue. La progression a été de 11,9% en 1999 par rapport à 1998, alors qu'elle avait été de 12,9% l'année précédente. AFP (brève résumée par @RTFlash) http://fr.news.yahoo.com/000101/32/7vbr.html http://fr.news.yahoo.com/000103/32/7vwa.html
|
|
|
|
|
|
|
|
A cause de deux malheureux octets qui auraient dû être quatre, le bug de l'an 2000 a entraîné des dépenses informatiques évaluées à au moins 300 milliards de dollars dans le monde, ce qui en fait l'un des sinistres les plus retentissants de l'histoire industrielle. Par comparaison, la guerre du Vietnam a " coûté " aux Etats-Unis 500 milliards de dollars, et la guerre du Golfe de 40 à 60 milliards. Autre exemple, le tabac coûte plus de 100 milliards de dollars par an en dépenses de santé aux Etats-Unis. Les chiffres les plus divers, allant du simple au double, ont été publiés sur le total des dépenses effectuées par les entreprises et les administrations pour empêcher que leurs ordinateurs et systèmes électroniques embarqués ne tombent en panne le 1er janvier. L'institut d'études américain IDC indique 250 milliards de dollars, tandis que le Gartner Group donne une fourchette entre 300 et 600 milliards dépensés au cours des cinq dernières années. Le souci des informaticiens des années 70 d'économiser de la place dans les mémoires des ordinateurs, alors très onéreuses, en codant les années sur deux chiffres au lieu de quatre, a finalement imposé des réparations bien plus coûteuses. Mais l'étendue du problème provient surtout de l'obstination des entreprises à utiliser indéfiniment des parties de vieux programmes informatiques, alors que ceux-ci n'avaient été écrits que pour quelques années. En France, le gouvernement a estimé à 120 milliards de francs le total des dépenses depuis 1997. Une enquête de 01 Informatique arrive à un total de 140 milliards de francs, chiffre conforté par une enquête d'IDC, qui montre que, sur la seule année 1999, 71 milliards de francs ont été dépensés par les entreprises françaises. Ce qui représente 17 % des dépenses totales des entreprises dans les technologies de l'information. Une grande partie du travail de nettoyage des logiciels a été accomplie dans des pays disposant d'une main d'oeuvre peu payée, mais qualifiée, comme l'Inde ou Israël. Ce qui a entraîné récemment plusieurs avertissements, notamment aux Etats-Unis, contre les risques d'espionnage ou d'attaques virales en provenance de certains de ces pays. Ceux-ci ont en effet eu tout loisir de laisser des " portes d'entrée " dérobées dans les logiciels qu'ils ont renvoyés à leurs clients américains ou européens. OI Informatique : http://www.01-informatique.com/actus/2/6654.html
|
|
|
|
|
|
|
|
Les robots marcheurs présentent par rapport à leurs homologues à roues plusieurs avantages : franchissement des obstacles très aisé, emprise au sol plus faible, adaptabilité meilleure. Si les robots multipodes permettent de couvrir de grands domaines de la robotique non manufacturière : exploration, maintenance, intervention, ils ne conviennent pas à l'accompagnement de l'homme dans ses activités personnelles ou professionnelles. C'est pourquoi, la communauté mondiale des robots marcheurs consacre désormais une bonne part de ses recherches aux systèmes dits humanoïdes. Le robot marcheur androïde P3 de Honda constitue une réalisation de qualité exceptionnelle, mais les lois de commande en sont relativement simples. L'objectif du projet Bip 2000 se situe à un niveau différent. On ne recherche ni à réaliser un humanoïde complet, ni à obtenir l'autonomie, en particulier énergétique mais à mettre en oeuvre une conception mécanique originale des jambes couplée avec l'étude de techniques nouvelles de contrôle/commande. Bip 2000 possède deux jambes avec 2 articulations à la cheville, l'articulation du genou et la flexion/extension à la hanche et un bassin à 7 degrés de liberté. Bip 2000 constitue un support de recherches, d'expérimentations avancées et de démonstrations. L'automatique des systèmes soumis à des impacts et à des liaisons unilatérales et les techniques d'intégration du système contrôle-commande sont les défis que le projet s'est attaché à relever. Un environnement logiciel complet permettant la spécification, la vérification formelle et la programmation temps réel automatique du contrôle/commande a été développé. Il a été réalisé avec le système ORCADD dont la robustesse a été grandement améliorée. La conception et la réalisation mécanique sont prises en charge par le Laboratoire de Mécanique des Solides de Poitiers. Le projet Bip et le Service des moyens robotiques de l'INRIA Rhône-Alpes traitent les problèmes d'analyse de la marche et ceux du contrôle et de la commande en temps réel avec la collaboration du laboratoire d'automatique de Grenoble (ENSIEG). Deux exemplaires du robot ont été réalisés. Le premier se tient dans une sorte de trotteur et a déjà effectué ses premiers mouvements. Le deuxième, plus complet, pourra réaliser de vrais mouvements tridimensionnels au début de l'an 2000. Il sera équipé ultérieurement d'un capteur à ultrasons pour se repérer dans l'espace. INRIA : http://www.inria.fr/INedit/INedit-fra.html#14
|
|
|
|
|
|
|
|
Un jour, alors que vous perdez votre temps et votre argent au casino, vous vous apercevez qu'un jeu de dés sur ordinateur a un comportement des plus étrange. Pour 100 lancers de dés consécutifs, c'est un chiffre impair qui sort à chaque fois. Vous vous prenez alors à rêver d'empocher le pactole. Faut-il commencer à parier sur les chiffres impairs ? Ou bien est-ce une superstition idiote ?Ce dilemme plonge les joueurs comme les mathématiciens dans une profonde perplexité : comment savoir si un événement pris isolément est le fait du hasard ou suit un schéma sous-jacent ? Le hasard est partout, dans le mouvement des cours de la Bourse comme dans celui des atomes, mais son caractère insaisissable est exaspérant. Si vous arrivez à le saisir, ce n'est plus du hasard. Un événement véritablement aléatoire ne se conforme à aucun schéma, et il est donc indescriptible. C'est du moins ce que semblent affirmer les théories classiques de la chance. Mais une opinion révisionniste, dénommée complexité de Kolmogorov, est en train de bouleverser cette idée jusqu'ici admise. A l'aide de cette théorie, les mathématiciens ont découvert une chose curieuse : il existe une partie de leur monde où les rôles habituels sont inversés, où le hasard est entièrement entouré par l'ordre, comme un lac est environné de terres. Une telle théorie constitue un énorme pas pour les mathématiciens. Les informaticiens vont jusqu'à comparer cette avancée à la percée qui a conduit à la physique quantique. Car elle signifie qu'il est possible de tracer et d'analyser les contours de ce lac de hasard, quel qu'il soit. Equipés d'une telle carte, les chercheurs devraient être en mesure de mieux explorer la nature de la chance et de résoudre des problèmes demeurés jusqu'ici insolubles. Et, dans le monde réel, les informaticiens, les analystes financiers et même les joueurs de casino pourraient en profiter. Courrier International : http://www.courrierinternational.com/mag/INTsciences.htm
|
|
|
|
|
|
|
|
La guerre du MP3 continue à faire rage. En quelques mois ce standard de compression numérique a réussi à faire trembler sur ses bases l'industrie phonographique mondiale, soit un marché de près de 40 milliards de dollars. Dans cette bataille, les principaux enjeux demeurent ceux de la protection des oeuvres et de la sécurisation du paiement. Des solutions existent mais elles sont logicielles, et donc facilement crackables : les pirates l'ont abondamment démontré...Et voici que la carte à puce, poussée par son inventeur Roland Moréno, pointe le bout de son nez. Ambition affichée de Moréno : adapter sa carte magique, sécurisée à souhait, pour en faire une " discothèque virtuelle ". Début janvier, le gourou de l'électronique ouvrira un site expérimental, baptisé " discosite ", et qui proposera au cyber-mélomane de changer sa carte de crédit en boîte à musique et de se balader avec une discothèque dans son portefeuille. Explication : à partir d'un terminal - qui peut être un clavier d'ordinateur équipé d'un lecteur de carte à puce, un tuner MP3, ou bien un décodeur télé numérique déjà muni d'un lecteur et de toutes les prises nécessaires - l'utilisateur pourra acquérir, sur sa carte, jusqu'à 5000 titres, après les avoir (bien entendu) payés. Les titres eux-mêmes ne sont évidemment pas téléchargés sur la puce qui ne dispose pas de suffisamment de mémoire. Ils restent sur le serveur de " discosite " : seule l'autorisation d'écouter ces titres en streaming (c'est-à-dire en direct) sur le site est conservée dans la puce. À chaque fois que vous voulez écouter un morceau, il faut vous connecter au Net et insérer votre carte dans le lecteur. Les références des titres que vous avez achetés sont conservées dans la carte, de façon à constituer une discothèque personnelle. Avantages de la solution : " sécurité et mobilité ", répond Éric Legent, pdg de FranceMP3, le premier site français de téléchargement de musique en ligne. Sécurité : la licence électronique personnelle délivrée sur la carte à puce est, comparée à un programme informatique, quasiment inviolable. Mobilité : il suffira d'emporter sa carte dans son portefeuille pour emmener sa discothèque avec soi et l'écouter à partir de n'importe quel appareil équipé et connecté. Les inconvénients ? Pour l'heure, l'absence d'une liaison haut-débit généralisée et le faible nombre de lecteurs de cartes connectés freinent le projet. Car le téléchargement de musique en temps réel nécessite une vitesse de connexion minimale de 128 kilobits par seconde, ce que ne peut offrir une ligne téléphonique classique. Quant aux équipements pour cartes à puce, ils n'existent pas encore en nombre suffisant pour séduire le grand public. Moréno a encore du boulot... Transfert : http://www.transfert.net/mail/mfmel283.htm
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
En août dernier, des chercheurs du monde entier ont profité de l'éclipse de Soleil complète pour se livrer à diverses expériences sur des pendules de Foucault, des gravimètres et des des horloges atomiques. Depuis les années 50, on soupçonne les éclipses de perturber certains effets de la gravité. On ne connaît pas encore les résultats complets concernant les pendules, mais l'Institut Max Planck, d'Allemagne, vient de publier dans Nature le fruit de ses observations sur les horloges atomiques. Résultat: elles n'ont pas été affectées du tout par l'éclipse. En 1987 et 1992, des chercheurs chinois ont vu la vitesse des horloges atomiques varier de 65 millionième de seconde lors d'éclipses. Une variation énorme, compte tenu de la grande précision de ces horloges. On avait alors pensé que les modifications de la gravité lors des éclipses affectaient peut-être la constante de structure fine, qui mesure les transitions que connaissent les atomes lorsqu'ils passent d'un état d'énergie à l'autre. Les horloges atomiques utilisent cette propriété. Mais en août dernier, les chercheurs de l'Institut Max Planck n'ont enregistré aucun effet de ce genre, même pas mille fois moins puissant que celui enregistré par les Chinois. Ils ont utilisé trois types différents d'horloges atomiques, mais pas une seule n'a enregistré d'erreurs. S'il y avait eu un effet lié à la gravité, la loi de la relativité générale stipule que les trois horloges auraient varié de la même façon, car c'est la nature du temps lui-même qui aurait été changé localement. Ces expériences anodines à première vue devraient éventuellement permettre aux chercheurs de mieux comprendre la nature de la gravité. Car si le phénomène est bien décrit par la science, on ne comprend pas encore son fonctionnement exact au niveau quantique. Les effets étranges qui se produisent lors des éclipses fournissent une chance de l'étudier plus en détail. On croit, sans en avoir la preuve, que la Lune bloque une partie de la force d'attraction du Soleil lorsqu'elle passe devant celui-ci lors des éclipses. Cybersciences : http://www.cybersciences.com/Cyber/0.0/0_0_0.asp http://www.nature.com/
|
|
|
|
|
|
|
|
Un ver à soie transgénique vient d'être obtenu par des chercheurs français, dans le cadre d'une coopération internationale, grâce à une nouvelle méthode susceptible de profiter à l'industrie textile et à la pharmacologie, annonce la revue "Nature Biotechnology", dans son édition de janvier. Ce procédé a été mis au point à Lyon, au Centre de génétique moléculaire du Centre national national de la recherche scientifique (CNRS/Université Claude Bernard) et à l'Unité nationale séricicole de l'Institut national de la recherche agricole (INRA), avec des chercheurs japonais et américains. Il a été appliqué au bombyx du mûrier (dont la larve est le ver à soie), qui devient ainsi le premier lépidoptère à recevoir des gènes étrangers. Cette technique de greffe, réalisée par une quinzaine de chercheurs dont Gérard Chavancy (INRA) et Pierre Couble (CNRS/Université Claude Bernard), est le résultat de plus de douze ans de recherches. La nouvelle méthode, qui consiste à utiliser un élément mobile (dit "piggyBac") pour transférer le gène étranger dans les chromosomes, devrait permettre notamment d'améliorer la production de fibres et de récolter de la la soie d'animaux transgéniques. En outre, la production massive devrait être exploitée pour synthétiser des protéines d'intérêt diagnostique ou thérapeutique, qui seraient récoltées dans les cocons. La question de la dissémination dans la nature de gènes codants véhiculés par les organismes génétiquement modifiés (OGM) "ne se pose pas a priori pour cette espèce", affirment les scientifiques, puisqu'il s'agit d'un insecte domestiqué, totalement inféodé à l'homme. La transgénèse demeure néanmoins une méthode délicate, qui se limite encore à quelques modèles de laboratoire, reconnaissent-ils: la souris, le rat, le ver rond (ou nématode), la mouche du vinaigre (ou drosophile) et quelques mammifères domestiques, dont la vache, le mouton et la chèvre, pour des applications pharmaceutiques. AFP : http://www.actualinfo.com/fr/sciences/depeche.cfm?depeche_Index=153944&cat=14&f=...
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Photo Vision Systems affirme avoir développé un capteur d'image CMOS capable de rivaliser avec la qualité d'un capteur CCD. C'est un véritable jeu de saute-mouton: deux mois seulement après que Fuji annonce un progrès révolutionnaire dans les capteurs d'image à CCD , la petite entreprise New-Yorkaise affirme avoir fait faire un bond similaire aux technologies CMOS, concurrentes du CCD. Ce n'est pas une mince affaire parce que les capteurs CMOS, s'ils sont moins chers et moins gourmands en énergie que les CCD, ont une qualité d'image plus limitée, entre autres à cause du bruit électronique des puces. Pour réduire ce bruit, il faut ou bien ajouter un filtre logiciel qui complique beaucoup le traitement du signal, ou bien consacrer une grande partie de la puce CMOS à de la circuiterie dédiée, ce qui va à l'encontre de la simplicité recherchée pour les imageurs CMOS et force généralement à utiliser plusieurs puces. PVS, lui, a trouvé une solution monopuce dans l'architecture même de l'imageur CMOS . Sa solution, baptisée "Active column sensor", consiste à associer un amplificateur à chaque pixel de l'imageur. Cela complique évidemment le capteur, mais cela permet également d'éliminer d'autres étapes de traitement, conduisant à un imageur simplifié. Au point que l'équivalent d'un capteur CCD peut tenir sur une seule puce CMOS. Évidemment, le haut de gamme des CCD est encore en tête puisqu'il taquine désormais la qualité de l'image chimique . Mais la course à la qualité continue, et représente un casse-tête pour les acheteurs qui acquièrent aujourd'hui des appareils photos électroniques appelés à devenir obsolètes de plus en plus vite. Mais on se consolera facilement puisque c'est le prix à payer pour des performances toujours plus impressionnante, à des prix de plus en plus serrés. L'Usine Nouvelle : http://www.usinenouvelle.com/
|
|
|
|
|
|
|
|
Le 18 janvier prochain, Intel présentera les premiers processeurs pour ordinateurs portables intégrant la technologie Speedstep. Leur fréquence d'horloge change selon le mode d'alimentation électrique. Dans le but de réduire l'écart de fréquences qui existe aujourd'hui entre les processeurs pour ordinateurs de bureau et ceux destinés aux portables, Intel a annoncé la sortie pour le 18 janvier prochain d'un tout nouveau processeur pour portable cadencé à 600 MHz. Basé sur la technologie de gravure à 0,18 micron, il sera le premier à intégrer la technologie SpeeStep, anciennement appelée Geyserville .Plus qu'un problème de fabrication, l'augmentation de la puissance des processeurs pour portable accroît la consommation électrique et donc diminue l'autonomie des machines. "Les technologies de batterie ne progressent pas aussi vite que celles du silicium" avait indiqué en février dernier Robert Jecmen, vice Président d'Intel pour les produits mobiles. C'est là qu'entre en jeu la technologie SpeedStep qui modifie la fréquence du processeur selon que la machine est ou non branchée sur le secteur. Le premier Pentium III SpeedStep fonctionnera donc à 600 MHz en vitesse nominale et à 500 MHz lorsque la machine fonctionne sur batterie. Des versions plus rapides sont, bien entendu, attendues tout au long de l'année. Pour arriver à 750 MHz "dans la deuxième moitié 2000" dit-on prudemment chez Intel. L'éternel challenger AMD n'est pas en reste. Il devrait présenter une technologie similaire, nom de code Gemini, pour les versions destinées aux ordinateurs portables de sa gamme de processeurs Athlon. Prévue pour le milieu de l'année prochaine, la technologie Gemini devrait donner, selon AMD, plus de latitude à l'utilisateur en lui permettant notamment, de choisir de faire tourner son processeur à plein régime même lorsque la machine est débranchée. Le fondeur n'a pas encore annoncer les fréquences qui seront disponibles lors de la sortie des premiers Athlon Gemini. Les deux technologies, SpeedStep et Gemini, jouent également sur le voltage des processeurs pour faire varier la consommation électrique en fonction de l'utilisation de la machine portable. Network news : http://www.vnunet.fr/VNU2/ent/actualites/page_article.htm?id=1&date=2000-01-03
|
|
|
|
|
|
|
|
Aujourd'hui, tous les composants électroniques à base de semi-conducteurs fonctionnent sur un principe simple : le transport des charges électroniques. Et si, au lieu de la charge, on utilisait le spin - la rotation propre - de l'électron ? Ce rêve, bon nombre d'ingénieurs le font. Seulement, injecter des électrons dotés d'un spin particulier dans un semi-conducteur n'est pas une mince affaire. Deux équipes de chercheurs allemands, américains et japonais ont pourtant relevé ce défi, avec un certain succès.Sur le vieux continent, les scientifiques de l'université de Würzburg ont tout d'abord utilisé un semi-conducteur semi-magnétique (le BeMnZnSe) pour polariser les électrons, c'est-à-dire aligner tous les spins. Les particules ont ensuite été introduites dans une couche non magnétique d'arséniure de gallium. Mais comment être sûr que le transfert a réussi ? En fait, la couche d'arséniure de gallium faisait partie d'un dispositif couramment utilisé : une diode électroluminescente ou LED. Ce composant semi-conducteur a la particularité d'émettre de la lumière. Les électrons excités entraînent l'émission de photons en retournant spontanément à leur état de repos. Donc, des électrons polarisés émettent des photons eux-mêmes polarisés. Les chercheurs allemands ont ainsi mesuré une efficacité de 90 %. Seul bémol : la température à laquelle ils ont dû travailler. Le matériau employé pour aligner les spins fonctionne bien à basse température, de l'ordre du Kelvin. En revanche, il devient pratiquement inefficace à température ambiante. De l'autre côté de l'Atlantique, le son de cloche est différent. L'équipe américano-japonaise a décidé de polariser, non plus les électrons, mais les charges positives. Ces trous ont alors été injectés du "polarisateur" (GaMnAs) à un puits quantique configuré en LED à travers une couche d'arséniure de gallium. En se recombinant à des électrons non polarisés, introduits eux aussi dans le puits quantique, les trous ont émis de la lumière. Malheureusement, si la polarisation des trous dans le GaMnAs frôle les 100 %, celle de la lumière atteint difficilement les 2 %. "Les raisons d'une si faible efficacité ne sont pas claires, commente Michael Oestreich, de l'université de Marburg (Allemagne). Mais l'orientation du spin d'un trou est beaucoup moins stable que celle d'un électron et disparaît extrêmement rapidement, même dans un puits quantique. "Ces expériences annoncent-elles la naissance prochaine de composants électroniques fonctionnant avec des spins d'électrons ? Avant de répondre par l'affirmative, il faudra allier l'efficacité allemande à une température plus modérée, comme celle des expériences américano-japonaises. En attendant, les plans des transistors, des mémoires ou même des ordinateurs à spin dormiront dans les tiroirs. Info-science : http://www.infoscience.fr/
|
|
|
|
|
|
|
|
Une cellule photoélectrique révolutionnaire vient de voir le jour à Zurich, dans un laboratoire de l'Institut d'électronique quantique. La nouveau-née mesure cinq centimètres de côtés, vingt-cinq microns d'épaisseur et pèse beaucoup moins lourd que ses grandes soeurs. Surtout, elle bénéficie d'une souplesse extraordinaire et d'un rendement jamais vu pour ce type d'appareil. "Treize pour cent ! Il s'agit tout simplement du record mondial pour des cellules solaires sur support souple de polymère", s'enorgueillit Ayodhya Nath Tiwari, l'un de ses pères. Cette cellule dernier cri est constituée de couches minces d'un semi-conducteur à base de cuivre, d'indium, de gallium et de sélénium (Cu(In,Ga)Se2 ou CIGS). Or, les dispositifs de ce genre, n'avaient été déposés, jusqu'à présent, que sur du verre. Les chercheurs zurichois, eux, ont voulu le placer sur des feuilles de polymère. "Pour obtenir la qualité requise, la couche de CIGS est produite sous vide par déposition de vapeur à une température avoisinant les 500°C", explique Ayodhya Nath Tiwari. Malheureusement, une telle chaleur rend les feuilles de polymère mécaniquement instables. L'astuce a donc été d'élaborer la cellule en deux étapes. "Le polymère est d'abord étendu sur une plaque de verre, qui assure la stabilité nécessaire, indique le docteur Tiwari. Puis le CIGS est finalement déposé sur le polymère." Comment séparer ensuite le substrat de verre de la cellule en elle-même ? Tout simplement en dissolvant le sel dont la plaque de verre a été préalablement recouverte. L'avantage de la technologie CIGS est qu'elle n'emploie qu'une faible quantité de matériau (les couches ne mesurent que deux ou trois microns). Cela réduit le coût de fabrication et le temps de retour énergétique, à savoir le temps qui s'écoule jusqu'à ce qu'une cellule solaire ait fourni autant d'énergie que son élaboration en a consommé. Légères, flexibles et bon marché, les nouvelles cellules photoélectriques offrent donc de nombreuses perspectives d'applications. En particulier, leur puissance spécifique de 1,5 kilowatts par kilogramme, trois à quatre fois supérieure à celle des cellules en silicium actuelles, leur ouvre les portes de l'espace. "Il faut quand même noter qu'elles restent plus chères que des cellules photovoltaïques conventionnelles, tempère le docteur Tiwari. Donc seuls les produits à haute valeur ajoutée pourront en bénéficier." Mais pour lui, "ces produits pourraient voir le jour d'ici deux ans." Info-Science : http://www.infoscience.fr/
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le XXe siècle a vu l'émergence d'une civilisation planétaire. À la fin du XXIe siècle, nous pourrions bien vivre à l'ère interplanétaire. Il est probable, en effet, qu'une première mission habitée vers Mars ait lieu d'ici 2020. Certains experts croient qu'on pourrait y établir une base permanente vers le milieu du siècle et qu'une colonisation plus intensive surviendrait dès sa fin. Et à plus long terme, on pourrait faire revivre cette planète morte. Au fait, pourquoi Mars? Parce que la Lune est trop stérile, Mercure et Vénus, trop chaudes et Jupiter, trop loin et inhabitable à l'exception de ses lunes. Mieux encore, Mars renferme des réserves exploitables d'eau et d'oxygène. Il est possible, et même assez facile, d'extraire ces éléments indispensables. Enfin, la planète rouge abrite peut-être aussi une vie microbienne primitive, dont l'étude serait d'un immense intérêt scientifique. Pour le moment, le principal problème d'une mission martienne reste son coût - au moins 20 milliards de dollars américains. Exorbitant? Oui et non: c'est le prix de dix bombardiers furtifs B-2. Mais les experts de la NASA s'accordent pour dire qu'avant d'établir une base permanente, il faudra réduire sans frais à quelque chose comme 200 millions de dollars par année. C'est ce que coûte actuellement la présence américaine en Antarctique. S'il y a colonisation permanente, la question de notre relation avec l'environnement martien se posera tôt ou tard. Pour le moment, on stérilise à fond les sondes qu'on y envoie, de peur de contaminer une possible vie locale. Mais éventuellement, l'activité humaine modifiera l'environnement, comme elle le fait sur Terre. La vie martienne, si elle existe, en profitera peut-être: elle doit souffrir du climat de plus en plus aride. Une terraformation qui insufflerait un peu de chaleur et d'eau pourrait redonner un peu de vie à la planète rouge, semblable pour le moment à un grand malade. Cybersciences : http://www.cybersciences.com/Cyber/0.0/0_0_0.asp
|
|
|
|
|
|
|
|
Tandis que les astronautes de la navette Discovery, après l'avoir capturé dans l'espace, remettaient en état de marche le déjà vieux - sa construction remonte aux années 80 - télescope spatial international Hubble, les astronomes avaient une autre raison de se réjouir. Lors de son premier vol commercial le mois dernier, la fusée européenne Ariane V a livré en orbite un autre paquet cadeau de fin de siècle. En l'occurrence, XMM (X-Ray Multimirror Mission), un télescope d'exploration de l'Univers dans la gamme des rayons X. Ce satellite est, avec 3,9 tonnes, le plus gros et le plus complexe des satellites scientifiques jamais construits sur le Vieux Continent. Contrairement à Hubble, dont l'oeil d'aigle scrute, en lumière visible, les confins de l'Univers, ce gros bijou d'optique et d'informatique va, à partir de mars prochain, grâce à ses trois capteurs de rayons X, décrypter des phénomènes étranges comme : étoiles en train d'en cannibaliser d'autres, explosions de supernovae, trous noirs avalant goulûment toute matière s'approchant d'eux, noyaux actifs de galaxie dont on suppose qu'ils tirent leur énergie de monstrueux trous noirs, amas de galaxies lointaines baignant dans d'immenses nuages de matière invisible... Lorsque l'Univers nous parle sous forme d'ondes radio ou se montre en lumière visible, nous l'entendons et le voyons plus ou moins bien d'ici-bas. En revanche, lorsqu'il rayonne au-delà de l'ultraviolet, par la faute de l'écran atmosphérique qui absorbe ces longueurs d'onde, nous ne pouvons l'observer depuis le sol. Or c'est dans ce domaine, celui des rayons X et gamma, que les événements les plus violents se signalent. Effectivement, si la température moyenne de l'Univers affiche un frileux 3° Kelvin - trois degrés centigrades au-dessus du zéro absolu ! -, ponctuellement existent des fournaises où les degrés se comptent en millions, voire en dizaines de millions. Voilà pourquoi, depuis les années 60, les astrophysiciens s'intéressent aux télescopes à rayons X et gamma embarqués à bord des satellites. Le télescope français Sigma embarqué sur le satellite russe Granat, va utiliser XMM pour tenter de lever un coin de voile sur le centre de la Voie lactée, notre galaxie. Ce centre galactique pourrait bien, en effet, être habité par un bon gros trou noir. Un puits gravitationnel sans fond qui, en cannibalisant toute matière proche de lui, la transforme, suivant l'équation d'Einstein, en énergie avec un rendement de 100 %. Mais, avant de disparaître à jamais dans la gueule du Moloch cosmique, cette matière follement sollicitée par les forces de gravitation s'échauffe, jusqu'à atteindre des millions de degrés. Elle lance alors un dernier SOS sous forme de rayons X et gamma. Pour pêcher cette bouteille à la mer cosmique, les astronomes ont envoyé XMM. Le Point : http://www.lepoint.fr/data/PNT1424/2403601P.html
|
|
|
|
|
|
|
|
Le ministre britannique des Sciences, Lord Sainsbury vient de créer un groupe de travail qui va étudier les risques de destruction de la terre par un astéroïde géant. L'équipe, constituée de trois spécialistes, devra faire des propositions au Centre National Spatial Britannique sur la meilleure façon dont la Grande-Bretagne peut contribuer aux efforts internationaux de protéger la planète contre une frappe venue de l'espace. Ce comité spécial, qui sera présidé par Harry Atkinson, 70 ans, un ancien président du Conseil de l'Agence Spatiale européenne, doit remettre un rapport au milieu de l'année 2000. Les deux autres membres sont Crispin Tickell, 69 ans, un expert en environnement et David Williams, 62 ans, un professeur d'astronomie à l'université de Londres qui a travaillé pour la NASA. Lord Sainsbury a indiqué que "le risque qu'un astéroïde ou qu'une comète cause d'importants dégâts demeure très éloigné". "Cela ne doit pas empêcher les gens de dormir mais nous ne pouvons cependant écarter ce risque qui, bien qu'éloigné, demeure et doit être étudié au plan international", a-t-il estimé. Aucun des astéroïdes ou comètes connus, circulant dans les parages de la terre, est censé présenter un quelconque danger dans une avenir proche, selon les données scientifiques gouvernementales. Au cours de ces derniers millions d'années, la Terre a bien été frappée par des bolides d'une taille suffisante pour provoquer d'importantes destructions, dont l'impact d'un objet, il y a 65 millions. Selon des scientifiques, il a rayé les dinosaures de la surface de la Terre. Brève rédigée par @RTFlash BBC News : http://news.bbc.co.uk/hi/english/uk_politics/newsid_589000/589566.stm
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
La surface de la Terre n'est pas la seule à souffrir des forces de marée générées par le Soleil et la Lune. Ses entrailles sont, elles aussi, soumises à rude épreuve. Deux chercheurs français viennent même d'établir qu'à plusieurs reprises au cours de l'histoire de notre planète, les forces solaires sont entrées en résonance avec le mouvement de rotation du noyau fluide. Un phénomène qui pourrait avoir provoqué la formation de volcans et aurait également influencé le champ magnétique terrestre. Précession*, nutation**, variations de la durée du jour... Les effets de marée de la Lune et du Soleil sur la Terre sont nombreux. En 1910, le Français Henri Poincaré démontrait que ces forces étaient également à l'origine du mouvement de rotation rigide du noyau fluide. Et plus récemment, deux équipes internationales leur ont attribué la paternité de la rotation différentielle de la graine (le noyau solide) par rapport au manteau. Or, comme pour n'importe quel oscillateur harmonique, ces mouvements peuvent entrer en résonance, même imparfaite. Marianne Greff-Lefftz, de l'Institut de physique du globe de Paris, et Hilaire Legros, de l'Observatoire des sciences de la Terre à Strasbourg, ont voulu en savoir plus sur ce phénomène. Ils ont calculé les périodes passées de résonance, lorsque la fréquence des marées était égale à la fréquence propre, ou mode propre, du noyau fluide. Pour cela, ils ont intégré aux équations classiques qui décrivent la conservation du moment angulaire des paramètres tels que les vitesses de rotation de la Terre et de la graine et les nutations libres du noyau et de la graine. Il leur a aussi fallu prendre en compte la décélération de la Terre et le grossissement de la graine. Finalement, les deux scientifiques ont réussi à établir un calendrier. Les forces de marée, essentiellement solaires, et la rotation rigide du noyau se sont trouvées en résonance à quatre reprises, il y a 3,8 milliards, 3 milliards, 1,8 milliards et 300 millions d'années. "Chaque période aurait duré environ un million d'années, estime Marianne Greff-Lefftz. Quelles ont bien pu être les conséquences de tels événements ? Pour les deux chercheurs, elles se situent aux frontières du noyau. Entre le noyau fluide et le manteau, la puissance engendrée par les frictions a dû se dissiper essentiellement par effet Joule, à savoir en chaleur. Cela aurait alors déstabilisé la couche D'', une couche thermique d'une épaisseur variant de cent à trois cents kilomètres située à la base du manteau. Ces instabilités auraient ensuite fait naître des points chauds, sources des plumes, ces panaches montants qui se traduisent par du volcanisme. "Il est également possible que l'augmentation de température, cette fois entre la graine et le noyau fluide, ait agit sur l'équilibre magnétohydrodynamique du noyau, ajoute Marianne Greff-Lefftz. La dynamo de la Terre s'en serait vue perturbée." Info-science : http://www.infoscience.fr/
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
François Jacob, professeur honoraire au Collège de France et à l'Institut Pasteur, Prix Nobel de Medecine a prononcé, samedi 1er janvier, sur le thème : " Qu'est-ce que la vie ? ", la conférence inaugurale de l'Université de tous les savoirs, organisée par la Mission 2000. Voici un résumé de son intervention. La biologie moléculaire permet d'éclairer plusieurs des questions qui se posent à propos de l'évolution. Ici je voudrais en évoquer seulement deux. La première est la question de savoir si - et comment - les molécules des différents organismes sont différentes. On a longtemps pensé qu'elles étaient entièrement différentes. Et même que c'était la nature de leurs molécules qui donnait aux organismes leurs propriétés et particularités. En d'autres termes, que les chèvres avaient des molécules de chèvre et les escargots des molécules d'escargot. Que c'étaient les molécules de chèvre qui donnaient à la chèvre ses particularités. Peu à peu, à mesure que s'amélioraient les moyens d'analyse des protéines et des gènes, à mesure qu'on étudiait des organismes plus nombreux, on s'est aperçu que certaines molécules, comme l'hémoglobine par exemple, ou les hormones, étaient les mêmes ou presque chez des organismes très différents. Progressivement, il est ainsi apparu que tous les animaux, tous les êtres vivants sont apparentés à un point naguère encore insoupçonnable. Gènes et protéines ne sont plus chacun des objets uniques, des idiosyncrasies propres à une espèce. On retrouve des structures extrêmement voisines d'une espèce à une autre. Mieux, dans une même espèce, on retrouve souvent des structures extrêmement voisines assurant des fonctions très différentes. En outre, on voit souvent des segments de séquence commune insérés parmi des séquences différentes. Gènes et protéines sont pour la plupart des sortes de mosaïques formées par l'assemblage de quelques éléments, de quelques motifs portant chacun un site de reconnaissance, Ces motifs existent en nombre limité, mille ou deux mille. C'est la combinatoire de ces motifs qui donne aux protéines leur infinie variété. C'est la combinaison de quelques motifs particuliers qui donne à une protéine ses propriétés spécifiques. L'élément de base, celui qui est directement impliqué dans la chimie de la cellule, c'est le site de reconnaisance contenu dans un domaine protéique. La reconnaissance moléculaire avait semblé, tout d'abord, limitée à l'interaction entre enzyme et substrat ou entre antigène et anticorps. On lui attribue maintenant le premier rôle dans toute une série de phénomènes : polymérisation des protéines pour former des structures telles que les protéines du muscle, le cytosquelette, les ribosomes, les capsides des virus, interaction protéine-ADN (acide désoxyribonucléique) dans la régulation de l'activité des gènes ; interaction récepteur-ligand dans toute une série de phénomènes, telles la transduction des signaux ou les interactions de cellules, l'adhérence cellulaire, etc. Nombre de sites de reconnaissance moléculaire persistent sans changement à travers toute l'évolution. De sorte qu'on les retrouve à peu près identiques chez les organismes les plus variés. On voit les changements apportés ainsi dans la manière de considérer l'évolution biochimique. Tant que chaque gène, donc chaque protéine, était regardé comme un objet unique, résultat d'une séquence unique de nucléotides ou d'acides aminés, chacun d'eux ne pouvait se former que par une création nouvelle, de toute évidence hautement improbable. Mais l'existence d'importantes familles de protéines de structures identiques, la formation de protéines en mosaïque formées de motifs retrouvés dans de nombreuses protéines, ce fait surprenant que, au cours de l'évolution, les protéines conservent leur motifs spécifiques et leurs sites actifs malgré une énorme diversification morphologique, tout cela montre bien que l'évolution procède de manière bien différente de ce qu'on avait cru jusque-là. En fait, l'évolution biochimique paraît fonctionner selon deux principes, concernant l'un la création de molécules nouvelles, l'autre leur sélection. La part créative de l'évolution biochimique ne se fait pas à partir de rien. Elle consiste à faire du neuf avec du vieux. C'est ce que j'ai appelé " le bricolage moléculaire ". Les premiers gènes ont dû se former à partir de courtes séquences de nucléotides, trente ou quarante. Ces segments se sont ensuite agrandis, soit en s'aboutant les uns aux autres, soit en se dédoublant chacun une ou plusieurs fois. On trouve, en effet, dans de nombreux gènes la trace d'une, deux, trois ou même plusieurs duplications successives suivies de diversifications plus ou moins importantes. La duplication soit de segments d'ADN, soit de gènes entiers paraît bien être l'un des grands modes de bricolage moléculaire. C'est par duplications successives que se sont formées les nombreuses familles de gènes comme ceux des hémoglobines, de nombreux facteurs de régulation ou les gènes de la famille des immunoglobulines qui remplissent des fonctions voisines, reconnaissance d'antigènes, adhérence cellulaire ou guidage des axones. Second mode de production des gènes : le réassortiment de fragments préexistants pour former des gènes mosaïques. Là intervient aussi l'aspect sélection. Une formidable surprise a été de constater, chez les protéines, la persistance, presque l'intangibilité, au cours de l'évolution, des motifs de reconnaissance spécifiques. Cette stabilité, malgré l'énorme variété des espèces, s'explique par les fortes contraintes pesant sur ces sites de reconnaissance, base de toutes les interactions moléculaires, donc de toutes les activités chimiques de la cellule. Il est nécessaire de conserver la spécificité des interactions moléculaires. D'où une inertie, à travers l'évolution, des structures en jeu. Cette inertie s'applique au segment d'un gène, un segment codant ou exon, qui détermine ce site de reconnaissance. Elle ne s'applique pas aux segments non codants du gène ou introns. Ni au voisinage, à la nature des segments qui jouxtent l'exon en cause. Introns et segments d'ADN voisins peuvent donc varier librement. D'où le second mode de bricolage moléculaire : le réassortiment de fragments d'ADN, d'exons, pour former des protéines mosaïques. Une fois encore, c'est donc une combinatoire d'éléments en nombre limité qui produit une énorme variété de structures pour former les principaux constituants cellulaires. L'évolution biochimique ne repose que secondairement sur des mutations comme on l'avait longtemps cru. Elle est due avant tout à la duplication de segments d'ADN et à leur réassortiment. Dans cette évolution existent de véritables points fixes, des îlots formés par les sites de reconnaissance spécifique. Autour des segments d'ADN qui les codent, s'échangent plus ou moins librement, comme une sorte de ballet, d'autres fragments d'ADN. Dans ces conditions, les structures de base, les sites de reconnaissance se retrouvent dans tous les organismes dans des contextes qui peuvent être chaque fois différents. L'ensemble du monde vivant ressemble ainsi à une sorte de Meccano géant. Les mêmes pièces peuvent être démontées et remontées de façon différente, de manière à produire des formes différentes. Mais, à la base, ce sont toujours les mêmes éléments qui sont utilisés. La structure en mosaïque des gènes et des protéines donne à celles-ci des possibilités d'interactions multiples. La formation de complexes protéiques, parfois très volumineux, accroît encore ces possibilités. C'est ainsi que pour réaliser certaines opérations de base de la cellule, comportant des réactions et interactions multiples, des ensembles spécifiques sont mis en oeuvre. C'est le cas notamment d'opérations impliquées dans la division de la cellule ou d'interactions cellules-cellules ou de certaines étapes de morphogenèse. Les gènes d'un ensemble qui assure de telles opérations sont liés par les reconnaissances cellulaires qui associent étroitement leurs produits. L'ensemble des gènes qui gouvernent la division de la cellule sont les mêmes chez la levure et chez l'homme. Ils ont conservé leurs fonctions et une bonne part de leurs structures au long d'une évolution qui s'étend sur plus de cinq cents millions d'années. De tels ensembles ont été baptisés " syntagmes " par Antonio Garcia-Bellido. Ils fonctionnent comme des sortes de modules utilisés dans l'architecture de toutes les cellules. C'est aussi une construction en modules régis par des ensembles de gènes que l'on observe dans le développement embryonnaire de nombreuses espèces. Peut-être même de toutes. Les organismes, insectes notamment, paraissent se développer sous forme de segments répétés, c'est-à-dire de modules multicellulaires. Tout d'abord identiques, ces modules se différencient secondairement de manière spécifique sous l'effet d'ensembles de gènes régulateurs, tels les homéogènes. Le rôle de ces gènes est de modifier les règles qui régissent le développement du module-type. Ils définissent ainsi un territoire bien défini et donnent à chaque segment une identité particulière. Chacun de ces territoires, de ces segments est défini par la combinaison de plusieurs homéogènes qui fonctionnent en parallèle dans les mêmes cellules. De la même façon, la différenciation terminale, qui produit les différents types cellulaires observés dans le corps, utilise des ensembles de gènes conservés qui opèrent de concert. Par exemple, pour produire cellules musculaires ou cellules nerveuses chez tous les organismes étudiés, du nématode à l'être humain. Le monde vivant comprend des bactéries et des baleines, des virus et des éléphants, des organismes vivant dans les régions polaires à - 20 0 C. Mais tous ces organismes présentent une remarquable unité de structures et de fonctions. Ce qui distingue un papillon d'un lion ou une poule d'une mouche, c'est moins une différence dans les constituants chimiques que dans l'organisation et la distribution de ces constituants. Parmi les groupes voisins, les vertébrés, par exemple, la chimie est la même. Ce qui rend un vertébré différent d'un autre, c'est plus un changement dans le temps d'expression et dans les quantités relatives des produits des gènes au cours du développement de l'embryon que les petites différences observées dans la structure de ces produits. Dans la nature, la complexité naît souvent d'une combinatoire : combinatoire de particules pour former les atomes, combinatoire d'atomes pour former les molécules, combinatoire de cellules pour former les organismes. C'est aussi le processus qui sous-tend la formation des gènes et des protéines : combinatoire de fragments ayant chacun une fonction spécifique et qui se réassortissent à l'infini pour jouer des rôles variés. Un petit nombre de ces fragments d'ADN suffit ainsi à former un nombre considérable de gènes. Une surprise a été de découvrir à quel point les molécules sont conservées au cours de l'évolution. Pas seulement les protéines de structure comme les hémoglobines des globules rouges, les actines et les myosines des muscles ou les kératines des cheveux et des ongles. Pas seulement les enzymes comme la pepsine et la trypsine qui interviennent dans la digestion ou les cytochromes qui interviennent dans la respiration. Mais aussi les protéines de régulation qui dirigent, par exemple, le développement de l'embryon et déterminent la forme de l'animal. Deux exemples suffisent à montrer cette surprenante conservation des molécules. Chez la mouche, qui jouit d'un long passé génétique, ont été mis en évidence les gènes qui assurent, dans l'oeuf, la mise en place des axes du futur embryon, puis ceux qui découpent le corps de l'embryon en segments, puis ceux qui déterminent le destin et la forme de chacun de ces segments. A la stupéfaction générale, ces mêmes gènes ont été retrouvés chez tous les animaux examinés : coup sur coup grenouille, ver, souris et homme. Qui eût dit, il y a encore quinze ans, que les gènes qui mettent en place le plan d'un être humain sont les mêmes que ceux fonctionnant chez une mouche ou un ver ? Il faut admettre que tous les animaux existant aujourd'hui sur cette terre descendent d'un même organisme ayant vécu il y a six cents millions d'années et possédant déjà cette batterie de gènes. Autre exemple non moins saisissant : les yeux. Il existe, chez les animaux, toute une série d'yeux bâtis sur des principes très différents. Notamment l'oeil à facettes des insectes et l'oeil à cristallin des céphalopodes et des vertébrés. Si différents que puissent être ces deux types d'oeil, ils utilisent pour leur construction les mêmes gènes bricolés de façon différente pour produire des organes remplissant une même fonction, mais d'architectures très différentes. Au cours de ce demi-siècle, on est ainsi allé de surprise en surprise. Au point que dans les quinze dernières années a émergé du monde vivant une vision entièrement nouvelle. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-37082-QUO,00.html
|
|
|
|
|
|
|
|
Un index de perfusion hépatique, déterminé par échographie doppler, est un très bon indice prédictif du risque de récidive chez les patients opérés d'un cancer du côlon. Ces données, étonnantes et potentiellement importantes en termes de suivi thérapeutique, sont rapportées une équipe britannique. Cette méthode non invasive est basée sur la détermination du DPI hépatique (doppler perfusion index) défini comme le rapport du flux sanguin dans l'artère hépatique sur la somme du flux sanguin dans l'artère hépatique et la veine porte. Selon les auteurs, il est possible que des métastases hépatiques induisent une augmentation de la résistance vasculaire hépatique, conduisant à une réduction du flux sanguin veineux portal et une élévation compensatrice du flux hépatique artériel. Le Dr Edward Leen et ses collaborateurs de la Royal Infirmary de Glasgow avaient auparavant montré que les métastases dans le foie sont associées à un DPI augmenté, ce qui suggère que la détection de changements dans le flux sanguin hépatique pourrait servir à détecter la présence de métastases occultes. Ces investigateurs ont étudié 120 patients qui ont subi l'ablation de leur tumeur colo-rectale. Le DPI a été mesuré avant chirurgie par échographie doppler couleur. Cet examen prend 30 minutes. Les résultats, publiés dans The Lancet, montrent que le DPI peut être utilisé pour prédire le pronostic à 5 ans après chirurgie potentiellement curative. Ainsi, seuls 22 % des patients qui avaient un DPI anormalement élevé étaient indemnes de maladie, contre 89 % des patients qui avaient un DPI normal. Les taux de survie étaient par ailleurs respectivement de 29 % et 91 % (p<0,0001). De plus, les patients avec DPI normal avaient un bon pronostic, indépendamment du stade de la tumeur selon la classification de Dukes. De même, les patients avec DPI anormalement élevé avaient un mauvais pronostic, quelque soit le stade de Dukes. Le DPI s'avère donc curieusement plus sensible pour réduire le risque de récidive que les méthodes d'imagerie conventionnelles, comme l'échographie standard, le scanner ou l'IRM. Caducée : http://www.caducee.net/
|
|
|
|
|
|
|
|
Des chercheurs japonais et américains ont pour la première réussi à produire des bovins génétiquement identiques en utilisant pour le clonage des cellules adultes préalablement maintenues en culture durant une période prolongée, allant jusqu'à trois mois. Le transfert du noyau de ces cellules, des fibroblastes provenant de l'oreille d'un taureau d'élite âgé de 17 ans, dans des ovocytes a conduit après réimplantation à des vaches porteuses à la naissance de six veaux normaux, aujourd'hui âgés de 10 et 12 mois. Il s'agit d'une première en matière de clonage dans la mesure où la culture à long terme de cellules donneuses de noyau permet de disposer d'assez de temps pour procéder à des modifications sophistiquées sur leur patrimoine génétique et ainsi obtenir des populations de cellules purifiées porteuses des modifications souhaitées (délétions homozygotes, mutations conditionnelles, transgène, etc). Il devient donc maintenant possible de combiner clonage animal et ciblage de gène, et ce aussi bien pour inactiver un gène donné (animaux knock-out) que pour introduire une séquence génétique particulière (animaux transgéniques). Jusqu'à aujourd'hui, le clonage de cellules somatiques se limitait principalement à l'utilisation de cellules donneuses de noyau, soit fraîches, soit cultivées in vitro pendant moins de 10 passages, un laps de temps insuffisant pour permettre de précéder à des manipulations génétiques. Les applications de cette nouvelle technologie de clonage chez l'animal concernent l'agriculture et la médecine, qu'il s'agisse de la conservation d'espèces menacées, de la production d'animaux d'élevage à forte valeur ajoutée, de la fabrication de médicaments à usage humain et vétérinaire, de l'utilisation d'organes animaux à des fins de transplantation. Il est en effet concevable de modifier des molécules qui participent à la réaction de rejet d'une greffe en produisant par clonage des porcs donneurs d'organes génétiquement identiques. Par ailleurs, en matière de recherche fondamentale, le clonage d'animaux âgés offre la possibilité de directement comparer longueur des télomères et vieillissement, et d'étudier " l'âge biologique " des animaux clonés. Cette expérience prouve donc que des noyaux provenant de cellules somatiques d'animaux mâles et femelles peuvent être reprogrammés et assurer un développement embryonnaire normal après transfert dans le cytoplasme d'ovocytes. Caducée : http://www.caducee.net/
|
|
|
|
|
|
|
|
Des médecins de l'hôpital Necker-Enfants-Malades à Paris ont réussi pour la première fois au monde à guérir, au moins temporairement, des " enfants bulles " par thérapie génique. La nouvelle avait déjà été donnée lors du Téléthon au début du mois de décembre. Le professeur Alain Fischer et son équipe de l'Unité Inserm U429, dans un essai thérapeutique préliminaire, avaient traité quatre bébés atteints de déficit immunitaire combiné sévère par thérapie génique. Trois des bébés ont retrouvé une fonction immunitaire normale, le quatrième est encore en observation. On ne connaîtra les détails de cet essai thérapeutique que lorsque l'article scientifique envoyé à la revue Science aura été expertisé et publié. La thérapie génique consiste à remplacer dans les cellules un gène défectueux par sa copie normale. Cet espoir thérapeutique a pu naître de la connaissance et de la disponibilité des gènes humains. Mais les problèmes d'application de ce concept thérapeutique sont nés des difficultés à amener le gène réparateur dans les bonnes cellules, d'une part, et, d'autre part, qu'il s'y exprime, c'est-à-dire qu'il soit recopié et que son messager sorte du noyau cellulaire pour engager la synthèse de la protéine correspondante dans le cytoplasme. Dans le cas actuel, le gène en cause est responsable de la fabrication d'une partie des récepteurs communs à plusieurs molécules indispensables au développement des lymphocytes. Les cellules souches qui donnent naissance à ces cellules responsables de la défense de l'organisme contre les infections sont normalement présentes dans la moelle mais les lymphocytes qui en dérivent n'apparaissent pas, faute de reconnaître les signaux leur enjoignant de proliférer et de se spécialiser. Le gène responsable du déficit immunitaire en cause chez les petits malades du professeur Fischer n'est connu que depuis quelques années. Grâce à cette connaissance on a pu créer des souris manifestant le même déficit en supprimant ce gène dans leurs cellules embryonnaires. Ce qui a permis de tester les outils de la thérapie génique et d'observer la correction du déficit immunitaire chez le souriceau. Le traitement des cellules se fait à l'extérieur du corps après ponction de la moelle osseuse. Puis on les réinjecte au malade. Un certain nombre de ces cellules ont incorporé le gène, ce qui leur donne un avantage pour leur survie et celle de leurs descendantes tel que ces cellules guéries prennent l'ascendant sur les autres et qu'elles restaurent du même coup la fonction immunitaire du sujet. Jusqu'à présent, ces enfants ne pouvaient survivre que dans un milieu stérile et grâce au traitement fréquent par des immunoglobulines humaines, les produits des lymphocytes. Leur seule chance de survie reposait sur la greffe de moelle. Mais on connaît les difficultés à trouver un donneur compatible et les aléas d'un tel traitement. Peut-on espérer que ce traitement par thérapie génique soit définitif ? On ne sait pas encore si ce sont les cellules souches multipotentes qui ont incorporé le gène ou si ce sont des cellules qui en sont issues et déjà spécialisées. Si c'était le cas, les enfants ne seraient qu'en rémission et le traitement demanderait à être refait. Il faudra sans doute en savoir plus pour conclure. Le Monde : http://www.lemonde.fr/article/0,2320,seq-2077-36284-QUO,00.html
|
|
|
|
|
|
|
|
L'élimination de toutes les maladies touchant le système cardiovasculaire aux Etats-Unis augmenterait l'espérance de vie de sept ans et permettrait de réaliser des économies de 300 milliards de dollars par an. Selon l'Association américaine de cardiologie (AHA), qui publie ce rapport, des progrès remarquables ont été faits dans la lutte contre les maladies cardiaques et les congestions cérébrales au cours des 50 dernières années, mais les maladies cardio-vasculaires sont toujours la cause numéro 1 de décès pour les hommes comme pour les femmes. Selon les dernières statistiques, près de 60 millions d'Américains souffrent d'une forme ou d'une autre d'affections cardiaques ou vasculaires, des maladies qui ont provoqué la mort de 953.110 personnes en 1997. Cette année-là, les maladies cardio-vasculaires ont été à l'origine de 41% de tous les décès. Elles provoquent chaque année la mort de plus d'un demi-million de femmes. le rapport. Enfin, l'hypertension artérielle reste également un problème de santé important aux Etats-Unis, affectant selon l'AHA quelque 50 millions d'Américains, soit un adulte sur quatre. Nouvel Obs : http://quotidien.nouvelobs.com/sciences/20000103.OBS0909.html?1811
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
L'excellente revue Sciences&Avenir propose un dossier spécial "an 2000" composé d'entretiens avec de grands scientifiques, comme Pierre-Gilles de Gennes, Yves Coppens, Etienne-Emile Baulieu, Trinh Xuan Thuan et Michel Serres. A la fois bilan du siècle et réflexion sur la finalité de la science, ce bilan mérite une lecture attentive. DOSSIER SPECIAL AN 2000 * Les forgerons du siècle * Entretien avec Pierre-Gilles de Gennes : Retrouver l'esprit des pionniers * Deux hommes du siècle * La tête dans l'espace * Entretien avec Yves Coppens : Développer une superintelligence * Ami et ennemi * Entretien avec Etienne-Emile Baulieu : Le plaisir de la recherche * Si petit et si grand * Entretien avec Trinh Xuan Thuan : Mouvements dans le cosmos * Jusqu'ici, tout va bien * Entretien avec Michel Serres : Deux révolutions pour un siècle * Vieille avant de naître Sciences et Avenir : http://www.sciencesetavenir.com/dossier/index.html
|
|
|
|
|
|
|
|
Top model à 120 ans, est-ce bien raisonnable ? Assurément non, mais ce sera possible avant la fin du prochain siècle. Les centenaires de demain reprendront à leur compte le mot de la regrettée Jeanne Calment : " Je n'ai qu'une seule ride, et je suis assise dessus. " L'ex-doyenne de la planète n'exagérait que par anticipation. Ses arrière-petites-filles s'enorgueilliront d'une peau de satin et d'une silhouette à damner Keanu Reeves à un âge où jusqu'ici l'on ressemblait plus à la momie de Ramsès II qu'à Nefertiti adolescente. Déjà, les quinquagénaires actuels affichent une fraîcheur que leurs parents leur auraient enviée à 40 ans. Le mouvement ne peut que s'accélérer. Le rapprochement explosif de la médecine, de la génétique et de l'informatique va révolutionner la santé et transformer le corps humain d'une manière jamais vue auparavant. Cette révolution nous permettra de vivre plus longtemps, en meilleure santé, avec l'intégralité de nos moyens physiques et intellectuels. Mais elle va aussi, selon la revue " Scientific American ", accroître fantastiquement nos capacités et nos perceptions, grâce à " un cocktail détonant de biotechnologies, d'implants, de dispositifs portables, d'environnements artificiels, de sensations synthétiques et aussi de mutations démographiques et sociétales ". La revue, qui consacre un passionnant numéro spécial à " notre futur bionique " (1), n'hésite pas à annoncer, entre autres innovations prévisibles à l'horizon 2010-2020, les premiers clones humains, l'utérus artificiel, des greffes sur mesure, un vaccin génétique pour faire pousser les muscles, des aliments anti-diabète ou anti-cholestérol, etc. Sur quoi se fonde l'espoir de telles avancées ? En premier lieu sur le fait que, pour la première fois dans l'histoire de la médecine, nous accédons aux causes profondes des phénomènes biologiques. On peut isoler le gène responsable d'une maladie héréditaire, établir sa séquence d'ADN, repérer les mutations pathogènes, en déduire le mécanisme de la maladie, remplacer une protéine absente ou inactive par une protéine de synthèse, comme dans le cas de l'hémophilie. On peut décrypter les processus qui transforment une cellule normale en cellule cancéreuse. On peut connaître les hormones qui stimulent la croissance d'un tissu ou qui influencent un état émotionnel. Bref, la médecine s'attache désormais à démonter pièce par pièce le Meccano intime du vivant. Ce qui ouvre la possibilité symétrique de remplacer toute pièce défectueuse par un nouveau composant, un peu comme on le ferait pour une automobile. Nous entrons dans l'ère de l'homme en kit. Prenez une mauvaise fracture osseuse, par exemple un fémur dont une partie est broyée et irréparable. Il sera bientôt possible de cultiver des cellules osseuses sur un support fait d'un polymère biodégradable. Cette culture sera réalisée à partir de cellules du blessé lui-même, donc compatibles avec son système immunitaire. Lorsque la culture aura atteint un volume suffisant, on l'implantera en lieu et place de l'os détruit. A mesure que l'os nouveau se consolidera, le support en polymère se résorbera. A l'arrivée, le patient retrouvera un fémur comme neuf. On pourrait aussi reconstituer une peau brûlée ou abîmée par une cicatrice. Les greffes de peau existent déjà depuis longtemps, et de nombreux laboratoires dans le monde développent des techniques de culture de tissu cutané. Le muscle, constituant indispensable à la conservation d'un corps jeune et actif, peut être développé en recourant aux stéroïdes ou à l'hormone de croissance, comme l'ont illustré les affaires de dopage sportif. Dans l'avenir proche, une démarche plus sophistiquée consistera à élaborer un " vaccin génétique " qui stimulera la croissance musculaire, sans exercice intensif et sans les effets toxiques des produits dopants. En somme, un corps d'athlète à la portée de tout un chacun ! Autre espoir : soigner les maladies du vieillissement ou de la dégénérescence cérébrale (Alzheimer, Parkinson, démences séniles). Ces pathologies sont liées au fait que les neurones ne se régénèrent pas spontanément, comme par exemple les cellules de la peau. On a recouru, avec un succès mitigé, à des greffes des neurones de foetus. Il est probable que l'on obtiendrait de meilleurs résultats en réimplantant dans le cerveau du malade ses propres neurones, cultivés et stimulés par des facteurs de croissance. Ces derniers sont des substances naturelles qui stimulent la croissance d'un type de cellule donné. Certaines recherches prometteuses visent à introduire directement ces facteurs dans les régions du cerveau frappées par le vieillissement, afin de provoquer une dégénérescence des neurones. L'aboutissement ultime des techniques de culture consisterait à fabriquer non un simple tissu mais un organe entier, comme le foie, le coeur ou le rein. Cet objectif pourrait être atteint par un procédé voisin du clonage, en partant de cellules capables de se différencier. Si les scientifiques s'intéressent au clonage humain, ce n'est pas pour fabriquer des hommes à la chaîne comme dans "le Meilleur des mondes ", mais plutôt dans la perspective de reconstituer des organes. On réaliserait ainsi des greffes " à la demande ", en évitant le problème de la pénurie de donneurs et le risque de rejet : les cellules mères étant celles du receveur, l'organe greffé serait totalement compatible. Faut-il toujours reconstituer à l'identique la matière vivante ? Souvent, il est aussi efficace de la remplacer par un composant non biologique. On réalise déjà des implants en silicone, des prothèses de hanche en céramique, des pontages métalliques ou des ligaments synthétiques. Les " biomatériaux ", les matériaux compatibles avec l'organisme, offrent des possibilités de prothèses de plus en plus évoluées. Prenons l'exemple d'un blessé qui a perdu une main dans un accident. Les roboticiens savent construire des bras ou des mains artificiels très perfectionnés. Ceux-ci sont commandés par un ordinateur. Mais ils pourraient l'être par le cerveau. La prothèse idéale devrait être directement raccordée au système nerveux du patient et dotée de capteurs tactiles procurant une sensation de toucher. Diverses expériences ont démontré que c'était faisable : on peut utiliser des signaux émis par le cerveau pour commander un dispositif artificiel, ou à l'inverse transmettre au cerveau des signaux émis par un tel dispositif. L'une des expériences les plus fascinantes est celle que vécut Johnny Ray en mars 1998 au Veteran's Hospital d'Atlanta, Géorgie. En 1997, Johnny Ray a été entièrement paralysé à la suite d'une crise d'apoplexie. Il voit et entend, mais ne peut ni parler ni bouger. Philip Kennedy, neurologue, et Melody Moore, informaticienne, ont implanté dans son crâne un système qui capte ses signaux cérébraux et les retransmet à un processeur. Ce dernier convertit les signaux en commandes interprétables par un ordinateur (voir " le Monde ", 5-6 décembre 1999). Grâce à ce dispositif, Johnny pilote mentalement le déplacement d'un curseur sur un clavier virtuel affiché à l'écran. Il peut ainsi écrire et correspondre sur Internet, à l'adresse . Dans cette expérience, la prothèse ne se limite pas à remplacer un membre ou un organe déficient, elle permet à Johnny de sortir des limites physiques de son corps. Ces limites ont été imposées par la maladie, mais le même principe pourrait servir à doter le sujet de nouvelles aptitudes, plutôt qu'à restaurer celles qu'il a perdues. " Les applications non médicales de nos recherches sont immenses, mais je préfère ne pas y penser : ça me fait un peu peur ", avoue Philip Kennedy, qui a été abordé par le Pentagone et a décliné les offres de subvention des militaires. Le couplage d'un cerveau humain à un ordinateur offre de formidables perspectives. Imaginez, par exemple, un émetteur-récepteur miniature implanté dans le cerveau qui vous relie directement au web. Ou un implant en liaison avec le réseau du téléphone, doté d'un système de codage pour traduire vos pensées en messages compréhensibles par vos correspondants : ce serait de la télépathie électronique. Risto Linturi, chercheur à la Compagnie de Téléphones d'Helsinki, suggère une variante de " télépathie pratique " : des dispositifs de transmission sans fil, implantés dans la gorge et les oreilles, permettant de communiquer nos pensées sans les formuler à haute voix. L'interface neurone-processeur électronique ouvre la voie à toutes sortes d'extensions de nos capacités sensorielles : prolongés par d'innombrables capteurs, nos sens pourraient percevoir les ultrasons ou les ondes radio, observer le coeur d'un réacteur nucléaire ou le ciel lointain, s'immerger dans un univers infini de rêves électroniques ou échanger des caresses virtuelles avec un partenaire sexuel à des milliers de kilomètres de distance ! La révolution bionique nous confronte au vertige d'une humanité qui ne se définirait plus par sa seule nature biologique. La peur de la machine, de l'androïde, du Martien a nourri les meilleures pages de la science-fiction. Dans " Les androïdes rêvent-ils de moutons électriques ? ", le roman de Philip K. Dick qui a inspiré le film " Blade Runner ", le héros a pour profession d'éliminer les androïdes infiltrés sur la Terre. Le " blade runner ", littéralement " le faucheur ", assure l'intégrité de l'espèce, en effaçant de la surface du globe les imitations non humaines. Cette paranoïa antitechnologique cède aujourd'hui le pas à la dynamique inverse, au désir de se fondre dans le cybermonde, d'être la machine. Etrange aspiration, d'où pourrait naître une créature composite, un hybride mi-chair mi-silicium. Entre Superman, Robocop et le cyborg, l'homme. Nouvel Obs : http://quotidien.nouvelobs.com/sciences/20000103.OBS0909.html?1811
|
|
|
|
|
|
|
|
Un ordinateur dieu qui régente le monde, des cités de l'espace construites autour de nouveaux soleils, l'homme éternel et la nature sous bulle : la réalité va-t-elle rattraper les rêves, ou les cauchemars, de la science-fiction ? L'an 2000 c'est déjà hier. Projections dans le futur. 2029 Mars, mission réussie ! On a marché sur Mars ! Soixante ans après le premier pas d'Armstrong sur la Lune, l'humanité se réveille, une nouvelle fois, avec des horizons inédits et des rêves plein la tête. Cette nuit du 14 octobre 2029, six Terriens (deux Américains, deux Russes, une Européenne et un Japonais) ont foulé l'un après l'autre, émus, le sol rouge brique de notre voisine planétaire. Rééditant les mésaventures de leurs prédécesseurs lunaires, l'équipage (et leurs 10 milliards de congénères sur Terre) a vécu un amarsissage épique. Contrairement à ce qui avait été prévu, les vents martiens se sont levés hier en fin d'après-midi. Peu à peu, ce mistral d'outre-espace s'est transformé en tempête de sable rouge, rendant totalement impraticable la plaine d'Hellas (Hellas planitia), lieu prévu pour l'arrivée du vaisseau. L'équipage a dû attendre plusieurs heures en orbite avant que les ingénieurs, sur Terre, ne leur indiquent une solution de repli. Le cap a été mis alors sur la région d'Isidis planitia, au nord. Tout s'est ensuite déroulé sans problème et c'est à cinq heures, finalement, que le grand vaisseau argenté s'est doucement posé, amorti par des Airbags géants. Les trois hommes et trois femmes de l'équipage ont alors découvert un paysage frileux, silencieux, infiniment désert, déjà rosi par la lumière du matin naissant. Ils vont maintenant rallier Hellas planitia avec leur Marsomobile afin d'établir leurs quartiers pour trois mois dans la base de vie déposée par modules depuis trois ans. Elle était prête à les accueillir dès juillet dernier, date à laquelle l'équipage international aurait dû arriver si son départ n'avait été plusieurs fois ajourné. Souhaitons-leur bienvenue dans leur logis extraterrestre, plus isolé qu'aucun autre abri humain, plus merveilleux, de ce fait, qu'aucun palais terrestre. 2004 Le téléphone 3e génération - Le téléphone est mort, vivent les T3 (téléphones 3e génération). Depuis plusieurs années, les antiques postes fixes avaient disparu des foyers, remplacés progressivement par des téléphones mobiles. Mais désormais, ces mêmes appareils ne servent plus uniquement à faire passer la voix. Images, films vidéo, courriers électroniques, pages Internet... : ce sont de véritables ordinateurs que l'on fourre dans sa poche. Fondés sur la nouvelle norme UMTS (Universal Mobile Telecommunications System), ces téléphones ont débarqué début 2002. Plus chers au départ que les GSM, ils n'ont pas mis longtemps à s'imposer, et 75 % des Français en sont aujourd'hui équipés. 2007 Les avions solaires à la rescousse - Les gigantesques feux de forêt qui dévastaient la forêt de Niokolo-Koba (Sénégal) depuis près de trois semaines sont peu à peu maîtrisés grâce à l'intervention d'une escadre d'avions stratosphériques solaires. Ces vastes ailes transparentes de 75 mètres d'envergure, totalement automatiques et télécommandées, fonctionnent essentiellement à l'énergie solaire. Depuis leur poste d'observation à 20000 mètres d'altitude, où ils évoluent sans discontinuer depuis deux semaines (ils peuvent rester ainsi six mois en l'air de manière autonome), ces engins ont pu détecter précisément les foyers résistants et cartographier l'évolution de l'incendie et la diffusion des fumées dans toute la région. Remplaçant à moindre frais les habituels satellites, ils devraient dans l'avenir être utilisés pour survoler les lieux des tremblements de terre, d'inondations, ou de catastrophes écologiques en tout genre. 2109 Météorologie : prévision à 1000 jours - Temps ensoleillé ; quelques nuages fugaces entre 14 et 15 heures ; températures comprises entre -5 °C le matin et 10 °C l'après-midi : tel est le bulletin météo pour Paris le jour de Noël... 2012. Soit dans 1000 jours ! Non il n'y a pas de coquille : les chercheurs de Météo XXII ont bien annoncé qu'ils s'estimaient capables de relever le défi des prévisions à 1000 jours, avec un taux d'erreur de 5 % seulement. Jusqu'à présent, les estimations ne se projetaient que rarement à plus de quelques semaines. Mais le lancement, il y a trois ans, d'une constellation de 142 satellites, baptisée Zeus, a tout changé. Chacun des engins est capable de dresser une cartographie au 1/50 000 d'absolument tous les courants aquatiques, qu'ils se cachent dans un océan, une mer ou encore un grand lac. Et capable surtout de répéter la prouesse toutes les 5 secondes. Leur secret : ils hébergent un spectromètre de masse qui suit une vingtaine de radionucléides naturels, sorte d'empreinte pour identifier les courants. Avec une observation quasi en temps réel, et compte tenu du rôle essentiel de ces courants dans la grande machinerie climatique, les ingénieurs n'ont plus qu'à donner à digérer le million de milliards d'informations/seconde au Cray 1050 de Météo XXII pour obtenir leurs prévisions météorologiques. Si la nouvelle est époustouflante, elle ne fait pas que des heureux : les professionnels du tourisme savent d'ores et déjà que le printemps 2011 sera pourri sur les Caraïbes, que l'hiver 2011 sera sans neige sur les Alpes. Autant de raisons pour ne pas prendre de location dans ces régions. 2002 La conduite au bout des doigts - Les voleurs de voitures ont du souci à se faire. En cette fin 2002, le système de démarrage par reconnaissance des empreintes digitales, le Biometric Sensor Fingertrip, mis au point par Siemens Automotive, s'impose sur plusieurs véhicules de série. Lorsque le conducteur pose son doigt à l'emplacement prévu, le système reconnaît quasi instantanément son empreinte digitale mémorisée au centième de millimètre près. Un gestionnaire central d'empreintes, qui garde jusqu'à 100 photos d'empreintes en mémoire, autorise ou interdit alors l'accès à l'auto, réglant dans le même temps divers paramètres selon les préférences personnelles du conducteur (distance au volant, inclinaison des fauteuils et des rétros, etc.). Le même processus se répète pour la mise du contact. 2040 Les vacances sur la Lune n'ont plus la cote - Les Européens préfèrent passer leurs vacances en orbite, plutôt que sur la Lune ou dans les abysses. C'est ce qui ressort du sondage effectué par l'institut Haup-hope sur un échantillon de 2000 personnes de différents pays de l'Union européenne. Les formules actuelles des agences internationales de tourisme proposent des séjours en hôtels orbitaux (entre 300 et 500 kilomètres d'altitude), dont les planchers de verre permettent d'admirer le spectacle des paysages multicolores de notre bonne vieille planète, avec, en prime, des sorties dans l'espace en scooter des airs. Le voyage vers la Lune, étonnamment, recueille moins les faveurs du public depuis quelques années. Des paysages trop vus et un parcours-pèlerinage vers la mer de la Tranquillité trop conventionnel ont lassé la curiosité des touristes de l'espace. Le lancement d'une nouvelle formule de trekking lunaire devrait relancer l'intérêt des vacanciers plus jeunes. Quant aux abysses, visités régulièrement par des sous-marins de croisière, ils attirent généralement les amoureux de la mer et de la plongée, ainsi que ceux que tenaille une soif d'aventure hors du commun. Cette " destination " attire également les anciens aficionados de l'Antarctique, qui ne peuvent plus s'y rendre depuis que les nations se sont unies pour en interdire l'accès au tourisme de masse, dont les conséquences écologiques hypothéquaient l'avenir du continent blanc. 2075 Les paroles s'envolent, les écrits aussi - Les historiens sont atterrés. Après 50 ans d'interdiction juridique, ils venaient enfin d'obtenir le droit d'accéder aux archives de la Commission européenne des années 2020-2030, époque où l'Union européenne avait été ébranlée par une affaire de pots de vin entre certains commissaires et le géant des télécommunications, Eurocom. L'affaire n'a en fait jamais vraiment été éclaircie, et l'on attendait beaucoup de ces archives. Hélas, les archaïques QVB-Rom (Quantum Versatile Box) de 100 téraoctets sont illisibles ! Nos systèmes informatiques sont incapables de décrypter ces supports d'un autre âge. Ce drame inquiète aussi les fans de la série Star Wars, dont l'épisode numérique sorti en 2007 est sans doute impossible à visionner dans sa version originale. 2411 Un tabac en perspective - La " clope ", comme on l'appelait, cet objet mythique du XXe siècle tombé en désuétude au début du IIIe millénaire, va-t-elle revenir à la mode ? En mars 2040, le seul exemplaire connu de cigarette, daté de 2004, fut retrouvé en Vieille Europe, non loin des marécages putrides qui entourent la ville disparue de Paris-en-France. La composition de cet objet cylindrique mou avait été dévoilée presque instantanément grâce à des analyseurs moléculaires. Bien que les végétaux servant à sa fabrication aient disparu, un chercheur d'Edimbourg s'est lancé dans une synthèse ex nihilo à partir de l'antique mégot. Un an plus tard, son prototype est enfin dévoilé : filtre en diacétate de cellulose, tabac de synthèse et additifs divers comme de l'ammoniaque, rien ne manque. Le chercheur attend impatiemment d'avoir synthétisé un second exemplaire avant de s'autoriser à y goûter. 2039 Le Big-Brother - L'annonce de l'utilisation du casque sensoriel par les services de police américains provoque une vive réaction des associations des droits de l'homme. Cet appareil, que ses détracteurs surnomment le Big-Brother implantable, a pour but de suivre les faits et gestes des détenus en liberté conditionnelle, et bien sûr des " indics ". Les yeux de l'individu deviennent de véritables caméras au service des policiers. Impossible de se soustraire à leur surveillance. Grâce à de simples électrodes introduites sous anesthésie générale dans la zone visuelle cérébrale, le mouchard enregistre les influx nerveux transmis par les yeux au cerveau. Il envoie ensuite ses informations par ondes jusqu'à un ordinateur central. Ce dernier décode l'influx et recrée sur l'écran une image parfaite de ce que le cobaye est en train d'observer. C'est une expérience menée sur un chat dès 1999 qui avait décidé l'armée américaine à se lancer dans cette aventure. Ironiedusort,presque40 ans plus tard, les auteurs de l'étude fondatrice se retrouvent en tête des opposants à l'utilisation de ce mouchard pour la vidéosurveillance intérieure. 2053 Nucléaire : bactérie gloutonne Plomb 206 : c'est le principal constituant du bol alimentaire de Bacterius radiodigerus, une bactérie capable de transformer - de transmuter disent les physiciens - d'encombrants radionucléides de haute énergie et longue durée de vie - césium 135, technétium 99, etc. - en éléments stables. Pour obtenir un tel résultat, Jacques Pointrat, directeur de recherche au CEA, a tout simplement mis au travail Bacterius radiodigerus, connue par ailleurs pour résister aux rayonnements a, b et g. Elle s'est avérée capable de transmettre des neutrons à un noyau radioactif à vie longue, le transformant ainsi en élément stable. Ainsi le neptunium 237 gagnant un neutron devient du plutonium 238 qui avec un nouveau neutron devient de l'uranium 234, puis du plomb 206, stable. " C'est toute la filière des déchets nucléaires qui va être révolutionnée ", lance-t-il après sa publication dans Nature-Science. Aujourd'hui, les centres de stockage en surface des poubelles radioactives sont plus de 100 en France. 2013 Souris XXL - Elle s'est échappée ! La souris géante, surnommée " Arnold ", concoctée par l'équipe de Jacques Montagne a déjoué la surveillance de ses créateurs et s'est enfuie du laboratoire du Friedrich Miescher Institut de Zurich (Suisse) où elle avait été conçue. Ce rongeur était une première. D'une longueur de cinquante centimètres, soit 10 fois plus grand que la normale, il était le résultat de la manipulation de gènes particuliers, les S6Kinase, impliqués dans la régulation du développement cellulaire. Treize ans auparavant (voir Sciences et Avenir n° 633, novembre 1999), l'équipe avait obtenu une mouche deux fois plus petite que ses consoeurs, par la modification des mêmes gènes. S'il a fallu tout ce temps avant d'aboutir à Arnold, c'est que le taux de réussite de la technique reste très faible. Les chercheurs s'inquiètent de la probable dissémination des gènes modifiées de cette souris hors normes, si elle se reproduit dans la nature helvète. EN HAUSSE * 2012 - L'équipe franco-russo-américaine vient de déterminer avec exactitude la masse du neutrino grâce au nouveau détecteur enterré dans le laboratoire souterrain de Modane. Depuis 1998, date à laquelle des physiciens japonais ont démontré que le neutrino avait une masse, les chercheurs avaient déjà réussi à inscrire celle-ci dans une fourchette qui se rétrécissait au fil des expériences. * 2023 - Chin Wu Yang : Sa combinaison spatiale a atteint le prix record de vente aux enchères cette année. D'autres effets (combinaison de vol, chaussures lunaires, instruments scientifiques, appareil photo, clichés, etc.) du premier Chinois à avoir mis le pied sur la Lune, en 2009, ont également été achetés à des prix faramineux lors de la vente aux enchères organisée par Sotheby's à Londres. EN BAISSE * 2002 - Bill Gates : Le pire est arrivé à l'ex-futur maître du monde. Son empire, Microsoft, va finalement être démantelé et dispersé en trois sociétés : une consacrée aux systèmes d'exploitation, une pour les logiciels et la troisième dédiée à tout ce qui touche à Internet. C'est la fin d'un long feuilleton entamé en 1998 par le procès antitrust intenté par le gouvernement fédéral. * 2070 - Bob Blynton : Ce petit employé d'une multinationale de biotechnologies est à l'origine du premier procès pour harcèlement sexuel entre humanoïdes télécontrôlés. La robotique a fait franchir un tel pas au télétravail qu'il est maintenant possible de travailler en restant chez soi tout en ayant sous contrôle un double humanoïde physiquement présent au bureau. Mais la distance n'abolit pas le vice. Sciences & Avenir N°635 : http://www.sciencesetavenir.com/encouverture/art11.html
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|