RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 149
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Juin 2001
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La convention internationale contre la cybercriminalité est prête
Les internaute américains adoptent lentement le haut débit
Les robots vont envahir nos muséums
Un sixième sens au service de la réalité virtuelle
Jusqu'où l'ordinateur calculera-t-il?
British Telecom veut faire de la télévision
Avenir
Vers la maîtrise du spin des électrons
La revanche de la bande magnétique
Matière
Centrales solaires sur orbite : l'idée fait son chemin
Terre
Les forêts, de faux réservoirs de CO2
Vivant
Des cellules musculaires pour réparer le coeur
Découverte d'une possible cible contre la maladie d'Alzheimer
Vaccin contre la maladie d'Alzheimer : premiers essais en France en septembre
Des antagonistes du glutamate peuvent bloquer la prolifération cancéreuse
Un polymère bactéricide
Le cartilage enfin réparé
La cocaïne néfaste dès la première prise
Embryons sur commande
Comment voit notre cerveau
Le colossal chantier de l'exploration du cerveau
Homme
Les niveaux d'éducation de la population de l'UE sont en constante progression
Edito
Science sans conscience...



L'annonce de l'accouchement d'une femme de 62 ans, qui a donné naissance à un petit garçon il y a une dizaine de jours dans une clinique de Fréjus, a provoqué de nombreuses réactions dans le corps médical qui condamne globalement cette dérive dangereuse pour la mère comme l'enfant. Un tel événement était pourtant prévisible en France si l'on considère l'évolution très contestable des pratiques médicales depuis 1992 en Italie ou aux USA qui ont permis à des femmes de 63 ans de devenir mères. A la suite de cette naissance le parquet de Draguignan a saisi les services d'aide sociale à l'enfance "pour connaître l'environnement familial de l'enfant et pour déterminer les conditions dans lesquelles il est venu au monde", a déclaré le substitut du procureur. Ainsi, une enquête va déterminer dans quelles conditions cette femme a pu tomber enceinte : en effet, cette femme ménopausée a dû suivre un traitement aux Etats-Unis car ce dernier est interdit en France. Il consiste à trouver une donneuse d'ovules fécondés par un homme, et à les transplanter chez la femme demandeuse. A cet égard, il fait rappeler qu'en France, le don d'ovocytes est légalement interdit par les lois bioéthiques de 1994. il faut également souligner les risques médicaux réels que présentent ces accouchements chez des femmes qui ont plus de 60 ans. Le professeur Roger Henrion, de la faculté de médecine de Cochin-Port Royal, à Paris, a d'ailleurs souligné les risques d'une telle grossesse. ''A partir du moment où on passe 45 à 50 ans, cela devient vraiment à la limite de l'anomalie avec des conséquences que l'on connaît, et il y a, par ailleurs, les conséquences éventuelles pour l'enfant, là cela s'est peut-être bien passé mais dans d'autres cas, c'est peut-être plus ennuyeux'', a-t-il jugé. Enfin, a ajouté le professeur Henrion, ''il y a le fait d'élever l'enfant, à 62 ans, cela fait quand même une mère qui aura plus de 70 ans lorsqu'il aura une dizaine d'années''. Nous touchons ici à la dimension sociale et morale d'une telle naissance car, au delà de la prouesse technique, et de la sincérité des femmes qui ont recours à de telles méthodes pour avoir un enfant bien après les limites fixées par la nature, il faut s'interroger sur les limites que doit fixer notre société en matière de transgression des lois du vivant. Les progrès extraordinaires de la médecine et de la biologie rendent aujourd'hui possibles des pratiques médicales qui étaient encore impensables il y a 10 ou 15 ans, mais notre société doit admettre que tout ce qui est possible n'est pas souhaitable car de telles pratiques remettent en cause notre conception de la vie et de la dignité humaine. Qu'on ne se méprenne pas : il ne s'agit nullement ici de jeter l'anathème sur des femmes qui ont un profond désir de maternité et qui peuvent réaliser le rêve de leur vie. Mais comment de ne pas éprouver, comme dans la conception du "bébé thérapeutique", dont la finalité était de soigner sa soeur (voir mon éditorial de la lettre 116 du 14 au 20-10-2000

(http://www.tregouet.org/lettre/index.html), un malaise profond en assistant à ces dérives bioéthiques de plus en plus fréquentes. "L'enfer est pavé de bonnes intentions", dit un vieil adage populaire, et c'est effectivement le cas pour ces "mères tardives". Leur sincérité et leur désir d'enfants ne sont pas contestables mais est-ce suffisant pour admettre et, à terme, légaliser de telles pratiques? Quelles seront les conséquences psychologiques pour ces enfants qui risquent de perdre leur mère avant d'être entré dans l'âge adulte? Faut-il aller toujours plus loin dans les sacrifices sur l'hôtel de l'épanouissement individuel qui devient le principe social et moral suprême dans notre société? Si demain la science nous donne les moyens de produire par clonage des doubles de nous même, pour servir de banque d'organes de rechanges, faudrait-il s'en réjouir ou le déplorer? Ces questions n'ont pas de réponses simples mais elles n'en sont pas moins essentielles et il est temps de nous les poser, individuellement et collectivement. "Science sans conscience n'est que ruine de l'âme", écrivait déjà Rabelais il y a quatre siècles et demi et la fin, et la fin, même la plus estimable, ne justifie jamais tous les moyens. La recherche de la pure satisfaction individuelle, si elle est compréhensible, ne doit pas conduire à instrumentaliser le vivant car nous risquons alors de nous retrouver dans le "Meilleur des mondes" si bien décrit par Huxley. Une société est plus que la somme des individualités et des intérêts personnels qui la composent, et la recherche légitime du bonheur individuel et du progrès technique ne doivent pas nous conduire à renoncer à notre dignité et, en dernier ressort, à notre humanité.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
La convention internationale contre la cybercriminalité est prête
Samedi, 02/06/2001 - 00:00

Le Conseil de l'Europe a publié la version finale de son projet de convention internationale sur la cybercriminalité. Ce texte très controversé en est à sa vingt-septième rédaction! Malgré les protestations des associations de défense des libertés publiques, il accorde toujours de larges pouvoirs aux autorités policières, supérieurs en tout cas à ceux concédés par les législations de certains pays membres ou de pays «observateurs» qui devraient signer le traité, comme les Etats-Unis, le Canada ou le Japon. Les rédacteurs sont également restés sourds aux appels des fournisseurs d'accès, qui demandaient un assouplissement de la mesure les obligeant à stocker au moins soixante jours les données pouvant servir aux enquêtes. Le Conseil, qui regroupe 43 Etats du continent européen, a toutefois amendé le texte afin de garantir le respect de la vie privée lors des enquêtes policières sur des crimes tels que le piratage informatique, la diffusion de virus ou l'utilisation de numéros de cartes bancaires. Son article 15 a été modifié. Il prévoit désormais que les Etats signataires doivent s'assurer que leur législation nationale respecte les dispositions du Conseil de l'Europe en matière de défense de la vie privée, ainsi que celles des Nations unies et d'autres organismes internationaux de défense des droits de l'homme. Les Etats doivent également soumettre leur législation à un contrôle judiciaire indépendant. Ce projet de convention, qui doit devenir le premier document international contraignant dans le domaine de l'Internet, sera soumis le mois prochain au Comité européen pour les problèmes criminels, puis, en septembre, au Conseil des ministres du Conseil de l'Europe pour adoption. La convention devra ensuite être ratifiée d'ici un à deux ans par chaque Etat membre ou observateur.

Conseil de l'Europe :

http://conventions.coe.int/treaty/FR/cadreprojets.htm

Les internaute américains adoptent lentement le haut débit
Samedi, 02/06/2001 - 00:00

Contrairement à ce que l'on pouvait imaginait il y a quelques mois, les internautes américains ne se bousculent pas pour adopter l'internet à grande vitesse. Et nombre d'entre eux semblent même préférer leur connexion par ligne téléphonique « classique » à une offre par câble ou par technologie DSL. Seulement 10 % des foyers américains étaient ainsi équipés d'une connexion Internet à haut débit à la fin de l'année 2000, selon le Yankee Group, un cabinet d'étude filiale de Reuters. Même si la demande reste soutenue, selon les fournisseurs d'accès spécialisés, il apparaît que le développement du haut débit sera beaucoup plus lent que prévu. « Quand on demande aux consommateurs s'ils sont satisfaits de leur connexion téléphonique à l'Internet, ils se disent en fait assez satisfaits, explique Joe Laszlo, analyste chez Jupiter Media Metrix. Un jour viendra où presque tout le monde sera doté du haut débit, mais probablement pas avant 10 à 20 ans. » Comme Joe Laszlo, nombre d'observateurs estiment que l'on n'a pas encore trouvé la « killer application » (l'application-décisive) qui convaincra les consommateurs de s'équiper en lignes haut débit. Ces dernières années, la connexion à l'internet a joué ce rôle en dopant les ventes de PC. Mais aujourd'hui, les services proposés par les fournisseurs d'accès haut débit, comme la vidéo sur l'ordinateur, ne suffisent pas à convaincre les consommateurs - d'autant que le prix du haut débit est élevé : plus de 40 dollars par mois en moyenne aux Etats-Unis. Handicapés par une lourde dette, d'importants coûts de fonctionnement et l'attente de résultats bénéficiaires, les fournisseurs d'accès spécialisés comme Verizon Communications et SBC Communications ont dû se résoudre récemment à de fortes hausses de tarifs.Verizon, qui recensait 720 000 clients haut débit au premier trimestre, assure que ces hausses n'ont pas ralenti la demande. D'autres n'ont pas la même analyse : « Il est clair que les consommateurs veulent les avantages du haut débit, mais ils veulent de véritables avantages, à un prix abordable, de la part de fournisseurs d'accès en qui ils ont confiance, explique Nick Donatiello, responsable d'Odyssey, un cabinet de San Francisco. Aujourd'hui, le haut débit ne remplit aucune de ces conditions. » Les opérateurs téléphoniques et les câblo-opérateurs pâtissent de leur mauvaise image de marque, souligne Donatiello. Les plaintes d'utilisateurs sur la qualité de l'offre à haut débit sont désormais si courantes qu'elles ont donné lieu à de nombreux sites Web. La plupart des fournisseurs de services à haut débit reconnaissent aujourd'hui que la vidéo en ligne ne sera pas un argument suffisant pour attirer les clients. Mais lancer de nouvelles applications revient à résoudre la quadrature du cercle : les innovations sont coûteuses, et le nombre d'abonnés est encore insuffisant pour les amortir. « C'est vraiment le problème de la poule et de l'oeuf », résume Seth Cohen, directeur de la stratégie chez ExciteAtHome, dont l'offre haut débit sur le câble comptait 32,2 millions de clients à la fin du premier trimestre. ExciteAtHome étudie des usages spécialisés convenant au haut débit, comme le jeu en ligne ou le téléchargement de logiciels. D'autres usages, comme la téléconférence, ne sont pas encore suffisamment entrés dans les moeurs pour constituer un marché sur l'Internet.

OINet : http://www.01net.com/rdn?oid=149929

Les robots vont envahir nos muséums
Samedi, 02/06/2001 - 00:00

Après cinq ans d'effort, un chercheur américain du Massachusetts Institute of Technology (MIT) a réalisé un "robot dinosaure" capable de se mouvoir sur deux pattes. Peter Dilworth, chercheur au laboratoire d'intelligence artificielle du MIT, souhaitait intéresser les enfants aux matières scientifiques et techniques. S'inspirant du cinéma et du célèbre "Jurassik Park" Peter Dilworth a conçu Troody, un robot squelette de 45 centimètres de haut, qui ressemble aux "raptors" du film de Steven Spielberg mais s'inspire des troodons, des dinosaures carnivores du crétacé qui mesuraient à l'origine 1 mètre de haut pour 2,4 de long. Troody vient de faire ses premiers pas en public et s'est révélé trés convaincant. Il prend successivement appui sur chaque patte, en gardant l'équilibre comme tout bipède. Ses déplacements sont assurés par 16 articulations et 36 moteurs contrôlés par un système inspiré de notre l'oreille interne qui gère les balancements et l'équilibre du robot grâce un ordinateur embarqué et un algorithme de contrôle de marche. Peter Dilworth a fondé sa propre société pour fabriquer et commercialiser des versions plus grande taille de son robot bipède, qui sera recouvert d'une peau et pourra exprimer des mimiques faciales. Ces robots animaux seront donc plus vrais que nature mais ils auront le bon goût de ne pas dévorer les visiteurs des muséums. Tous les avantages du réel sans les inconvénients!

Brève rédigée par @RT Flash

Forbes du 23-05-2001 : http://www.forbes.com/2001/05/23/0523dino.html

Un sixième sens au service de la réalité virtuelle
Samedi, 02/06/2001 - 00:00

Assis face à un ordinateur, un aveugle en explore l'interface graphique et semble s'y retrouver aussi bien qu'une personne voyante grâce à une souris d'un nouveau genre. De la forme d'un stylo, le dispositif lui permet de sentir au bout de ses doigts les icônes, les barres de menu et autres fenêtres affichées à l'écran. Pénétrer dans l'un de ces objets lui donne l'impression de tomber dans une petite dépression. Un son retentit alors pour confirmer qu'il y est bien entré. À mesure qu'il se déplace le long de la gouttière tenant lieu de barre de menu, une succession de petites indentations, auxquelles sont associés des sons de hauteur différente, permettent de décliner les diverses fonctions offertes. Le coeur de ce système multimodal est un dispositif de pointage à retour de force, appelé dispositif «haptique». Les scientifiques définissent un «sixième» sens: le sens haptique - du grec haptein, qui signifie toucher. Le sens haptique permet de percevoir la géométrie tridimensionnelle des objets que l'on manipule, ainsi que leur surface, leur poids et leur texture. Le sens haptique résulte de l'activité simultanée des récepteurs tactiles et proprioceptifs. Présents dans la peau, les premiers sont entre autres responsables des sensations mécaniques (pression, vibration, toucher). Ils permettent notamment de percevoir la texture des surfaces que l'on touche. Les récepteurs proprioceptifs qui sont situés dans les articulations, les muscles, les tendons et la peau nous renseignent quant à eux sur la position des différentes parties du corps, leur mouvement ainsi que les forces déployées par les muscles pour maintenir cette position et effectuer un mouvement. Ils aident à déduire la forme des objets. «Le sens haptique est probablement celui qui traduit le mieux la réalité physique des choses. Les informations qu'il fournit sont à ce point riches qu'elles permettent de suppléer à l'absence ou à la déficience d'un autre sens», souligne Vincent Hayward, chercheur au Centre for Intelligent Machines de l'Université McGill de Montréal. L'aveugle qui, grâce à un dispositif haptique, parvient à naviguer sur une interface graphique de type Windows ou une page Web avec autant de facilité qu'une personne voyante, en est un exemple frappant. La personne qui conduit sa voiture sur une voie rapide tout en réfléchissant au trajet qu'elle doit emprunter est également handicapée puisqu'elle est visuellement et cognitivement occupée. Et c'est furtivement et en courant certains risques qu'elle parvient à actionner les essuie-glaces de sa voiture ou à changer la station du poste de radio par exemple. «Un dispositif haptique peut lui permettre de contrôler les essuie-glaces, la température intérieure, les systèmes audio, de messagerie et de navigation sans avoir à détourner son regard de la route», affirme Christophe Ramstein, vice-président de la R&D chez Immersion Canada, une entreprise de Montréal qui a justement développé un tel dispositif en collaboration avec le constructeur automobile BMW. Comment un système haptique (appelé PenCAT-Computer Assisted Touch) comme celui manipulé par le non-voyant fonctionne-t-il? Le système comprend une partie matérielle et une partie logicielle. La partie matérielle est essentiellementconstituée de capteurs et de moteurs reliés à un stylo par des tringles. La partie logicielle comprend un pilote (driver) et une interface logicielle qui permet de contrôler l'application de forces possédant différentes propriétés telles que la raideur, l'élasticité, la viscosité, la friction, la vibration et l'inertie. Les capteurs mesurent la position exacte de la pointe du stylo, que l'utilisateur peut déplacer sur une surface d'environ 125 centimètres carrés. Une fois informé de cette position, l'ordinateur calcule la force qui doit être appliquée en retour à la pointe du stylo pour produire sur la main de l'utilisateur la sensation correspondant à la manipulation qui est simulée. Les forces sont générées par de petits moteurs et leur valeur est réestimée 1000 fois par seconde afin d'obtenir une impression de continuité. L'interface logicielle contient quant à elle des modèles mathématiques qui décrivent divers types de force. La raideur est obtenue en simulant l'action d'un ressort dont la résistance peut varier. La viscosité dépend pour sa part de la vitesse de déplacement et des propriétés du matériau. Plus l'utilisateur bouge vite, plus la force de viscosité est grande. L'inertie, de son côté, répond à la loi fondamentale de la dynamique et est donc proportionnelle à l'accélération et à la masse. La vibration est produite en appliquant une force qui crée des déplacements dont l'amplitude oscille de quelques millimètres et à une fréquence que l'on peut aussi contrôler. À l'instar de la raideur et de la viscosité, la friction est une force qui s'oppose au mouvement. Elle dépend de la pression que l'on applique sur la surface et de l'adhérence de cette dernière. La véritable magie du dispositif haptique PenCAT est qu'il permet de percevoir les trois dimensions d'un objet virtuel alors que le stylo avec lequel on explore cet objet n'est mobile que dans un seul plan (horizontal), soit dans deux dimensions. «Le dispositif haptique met en pratique une illusion tactile», explique le chercheur. Normalement, pour percevoir la forme d'un objet par le toucher, il nous faut la parcourir des doigts. La position et le mouvement des doigts et de la main génèrent alors des informations proprioceptives qui constituent d'importants indices pour percevoir la forme de l'objet. Or le dispositif haptique permet la perception d'une forme uniquement en créant un gradient de force dans un seul plan. Pour simuler la présence d'une bosse, par exemple, le système haptique déploie une force dans la direction contraire au déplacement du doigt, afin d'opposer une résistance au mouvement du stylo. Cette force s'accroît au fur et à mesure de l'ascension pour devenir nulle au moment d'atteindre le sommet de la bosse. Lorsque s'amorce la descente sur l'autre versant de la bosse, une force nous entraîne cette fois dans la direction du déplacement. Cette force augmente tout au long de la descente jusqu'à la base de la bosse, où elle devient nulle. De même, lorsque le dispositif haptique traverse une dépression, l'évolution de la force est alors inversée. «Cette illusion est la démonstration que la représentation mentale qu'on se fait d'un stimulus - comme une force appliquée dans une seule dimension - peut être beaucoup plus élaborée - en trois dimensions», souligne Vincent Hayward.

Le Devoir :

http://www.ledevoir.com/public/client-css/news-webview.jsp?newsid=1714

Jusqu'où l'ordinateur calculera-t-il?
Samedi, 02/06/2001 - 00:00

En avril 1965, dans un article publié dans la revue Electronics Magazine, Gordon Moore (qui dirige alors la recherche chez Fairchild Semiconductors et qui cofondera avec Robert Noyce la firme Intel en 1968) remarque que, depuis l'invention du circuit intégré (en 1958), on observe un doublement annuel du nombre de transistors par unité de surface. Il prédit que ce doublement durera encore dix ans. Sa prévision se réalisera assez bien ; pourtant, en 1975, dans un exposé où on lui demande de proposer un nouveau pronostic, G. Moore, analysant les difficultés technologiques présentes, annonce cette fois un doublement du nombre de transistors par unité de surface tous les deux ans (au lieu de tous les ans). Notons qu'il ne s'agit pas, bien sûr, d'une loi mathématique ou physique, mais d'une simple règle hypothétique permettant l'évaluation de l'avenir des performances informatiques. Ces performances résultent d'une combinaison de facteurs sociaux, économiques, technologiques et physiques : les succès des techniques informatiques auprès du public (facteur social) et la concurrence entre firmes (facteur économique) déterminent les bénéfices de l'industrie des semi-conducteurs, qui fixent à leur tour l'investissement en recherche de cette industrie (facteur technologique), lui permettant de surmonter les obstacles qu'oppose la réalité matérielle (facteur physique). Un doublement de performance tous les 18 mois est équivalent à une multiplication par 1 000 tous les 15 ans (dix doublements valent exactement une multiplication par 1 024) et à une multiplication par un million tous les 30 ans. Si les performances des voitures avaient suivi le même rythme, nous roulerions aujourd'hui un million de fois plus vite qu'en 1970, soit environ à 30 000 kilomètres/seconde... et dans six ans nous dépasserions la vitesse de la lumière ! G. Moore, voyant que chaque prédiction concernant l'évolution de l'informatique lui est attribuée dit avec humour qu'il est l'inventeur de la fonction exponentielle comme Al Gore est l'inventeur d'Internet (Gordon Moore est républicain !).

Menons un petit calcul pour tester la loi de 1975. Nous sommes passés de 2 300 transistors pour le Intel-4004 de 1971, à 42 millions de transistors pour le Pentium 4 disponible depuis novembre 2000. Cela correspond à un facteur multiplicatif de 18 260 en 29 ans, soit une multiplication par 18 2602/29 = 1,967 tous les deux ans, valeur remarquablement proche du facteur 2 du second pronostic de Moore. L'augmentation de densité prédite s'est précisément réalisée entre 1971 et aujourd'hui, mais, comme Moore le fait remarquer, sa prophétie était «auto-réalisatrice» : l'industrie (et lui-même en particulier comme acteur de premier plan de cette industrie) s'est fondée sur elle pour fixer ses objectifs et ses plans d'investissements. Gordon Moore, aujourd'hui milliardaire et âgé de 71 ans, a évalué que les usines de circuits produisent chaque année plus de transistors (1017 environ), qu'il n'existe de fourmis sur terre (1016, nombre proposé par le naturaliste Edward Wilson). Ramené au nombre d'humains sur terre, on peut aussi noter que, chaque année, plus de dix millions de transistors sont dessinés pour chaque être humain : les inventeurs du transistor de 1947 (W. Shockley, W. Braittain, J. Barden) peuvent être fiers d'eux ! Gordon Moore prévoit maintenant que sa loi ne restera pas indéfiniment vraie. Il pense que, dans les dix prochaines années, elle sera satisfaite, mais au-delà, il prédit un ralentissement, le rythme se réduisant à un doublement du nombre de transistors par unité de surface tous les quatre ans (donc un doublement de performance tous les trois ans environ). Si l'on s'en tient au perfectionnement des techniques de gravure optique des puces, on devra utiliser des longueurs d'onde de plus en plus courtes. Or, au mieux, on ne peut graver des traits qu'avec une précision de l'ordre de la longueur d'onde de la lumière utilisée. Comme plus rien n'est transparent pour les longueurs d'onde très courtes, on ne peut plus concevoir et réaliser des lentilles pour contrôler la gravure au-delà d'une limite qu'on n'est pas loin d'atteindre. Aujourd'hui ,les longueurs d'onde utilisées se situent entre l'ultraviolet et les rayons X. Le récent Pentium 4, par exemple est dessiné avec une gravure de 180 nanomètres. On étudie déjà ce que l'on va pouvoir faire avec des longueurs d'onde de 130 nanomètres et l'on envisage pour la prochaine décennie des longueurs d'onde de 15 nanomètres, qui semblent la limite des méthodes actuelles. Quant aux projets de développements de calculateurs quantiques ou à ADN étudiés dans certains laboratoires de recherche, Gordon Moore, comme la plupart des spécialistes, pense que cela ne pourra jouer un rôle que dans un avenir lointain, et en tout cas pas dans les dix ans à venir. Lorsqu'on observe certains aspects particuliers des performances informatiques, on découvre que la loi de Moore (standard) a été récemment dépassée dans trois domaines où l'augmentation des performances a été plus rapide que le fameux doublement tous les dix-huit mois. Ces trois domaines sont l'affichage graphique, le stockage sur disques magnétiques et la capacité des fibres optiques. Fin 1998, pour 250 $, on pouvait disposer d'une carte graphique traitant un million de polygones par seconde et produisant donc de belles animations 3-D en images de synthèse. Les spécialistes annoncent, pour un prix équivalent, des cartes capables d'afficher 100 millions de polygones par seconde à la fin 2001. Le gain en performance sera donc d'un facteur 100 en trois ans, ce qui correspond à un facteur 10 en 18 mois, bien plus que le doublement habituel. L'explication de ces progrès accélérés se trouve dans le succès commercial des jeux utilisant les simulations 3-D qui ont conduit à la mise au point de puces spécialisées; celles-ci bénéficient à la fois des progrès d'intégration (le nombre de transistors par unité de surface) de la fréquence plus élevée des processeurs (ces deux facteurs conduisent au doublement tous les 18 mois), et tirent aussi avantage d'une meilleure conception des algorithmes et du dessin optimisé des circuits. C'est là que les progrès dans la maîtrise mathématique et le savoir-faire spécialisé sont responsables de ce dépassement des prévisions : non seulement l'électronicien avance, mais aussi le mathématicien et l'informaticien. Dans le domaine du stockage des données sur disques magnétiques, la loi de Moore s'est appliquée sans fantaisie jusqu'en 1998, mais, depuis, suite à des avancées techniques accélérées (ici, il ne s'agit plus de densité de transistors, mais de maîtrise des constituants magnétiques), l'augmentation de la capacité de stockage est multipliée par 3,5 tous les 18 mois, beaucoup plus que ce que prévoit la loi de Moore standard. Les disques durs d'un teraoctet (10 12 octets, c'est-à-dire mille milliards de caractères) dont nous allons pouvoir disposer d'ici peu permettront de stocker l'équivalent d'un million de livres de 200 pages, ou 400 cassettes vidéo vhs, ou encore toutes les conversations d'une personne durant toute sa vie!Enfin, dans le domaine du transport optique d'informations on assiste, grâce au procédé de multiplexage (passage simultané de plusieurs lumières de longueurs d'onde différentes dans la même fibre) à un doublement de capacité tous les six mois (multiplication par 8 tous les 18 mois) largement supérieur encore à ce qu'une traduction directe de la loi de Moore standard laisse espérer. Ces accélérations dans des domaines particuliers seront peut-être momentanées, et la loi de Moore d'un doublement de performance tous les 18 mois semble pour l'instant le repère général le plus fiable pour envisager l'avenir des performances informatiques dans les dix prochaines années. Pour sa part, Ray Kurzweil a adopté dans son étude futuriste l'unité «instruction par seconde pour 1 $». Il constate une évolution allant de 10-8 en 1900 à 105 en 2000, soit une augmentation de puissance - pour une somme donnée - d'un facteur 1013, ce qui correspond à un accroissement moyen de 35 pour cent par an, équivalant à un doublement tous les 2,4 ans. Au cours du XXe siècle, une multitude de technologies de calcul ont défilé : machines mécaniques (à base d'engrenages et de tringles métalliques), puis machines électromécaniques (assemblage d'interrupteurs commandés par électroaimants - appelés «relais» - et connectés), puis machines électroniques (construites avec des kilomètres de fils et des milliers de lampes), puis machines à transistors isolés (fichés individuellement sur des cartes), et enfin machines à circuits intégrés (comportant des transistors dessinés simultanément par lithographie optique par centaines, puis par millions). Les transitions technologiques se sont non seulement faites à chaque fois que cela a été nécessaire, sans que jamais la capacité de calcul ne stagne, mais, en fait, les transitions ont conduit à un progrès qui s'est légèrement accéléré, passant d'un doublement de performances tous les trois ans au début du XXe siècle, à un doublement tous les ans aujourd'hui. Cette évolution technologique va-t'elle déboucher sur des machines capables de rivaliser avec le cerveau humain ? Plusieurs méthodes ont été utilisées pour mesurer la puissance de calcul d'un cerveau humain, et ont donné lieu à de nombreuses dissertations conduisant à une estimation qui oscille entre 1013 et 1019 instructions par seconde. Cette grande imprécision ne fait que refléter l'ignorance où nous sommes encore aujourd'hui quant au fonctionnement détaillé du cerveau humain et illustre la difficulté qu'il y a à comparer des puces électroniques et des neurones.Du côté des machines, le plus puissant ordinateur du monde aujourd'hui, est un ordinateur ibm destiné à la simulation d'essais atomiques au Lawrence Livermore Laboratory en Californie, aux États-Unis. Il dispose d'une puissance d'environ 1013 instructions par seconde. La plus puissante machine, avec ses 1013 instructions par seconde, en est donc précisément arrivée aux estimations basses de puissance du cerveau humain. Si le rythme du progrès se maintient, en 2015, l'ordinateur le plus puissant du monde atteindra 1016 instructions par seconde et, en 2030, 1019 instructions par seconde correspondant à l'estimation la plus haute proposée pour la puissance du cerveau humain qui serait ainsi, selon toute vraisemblance, largement dépassée à cette date. Ray Kurzweil de son côté évalue avec plus de précision (mais en prenant sans doute plus de risques) qu'un ordinateur de 1 000 $ atteindra la puissance du cerveau humain en 2030 (et atteindra la puissance de tous les cerveaux humains réunis en 2060). Tout semble assez cohérent, et c'est là une grande nouvelle : pour ce qui est de la puissance de calcul, l'espèce humaine est entrée dans l'ère où elle construit des machines égalant ses propres capacités. Aurons-nous pour autant des machines intelligentes ? L'idée un peu trop simple qu'imiter l'intelligence n'est qu'une question matérielle et technique n'est pas nouvelle. En 1950, le célèbre mathématicien anglais Alan Turing prédisait qu'en l'an 2000, avec un ordinateur disposant d'une mémoire d'un milliard de chiffres binaires (pour lui semble-t-il, plus importante que la puissance de calcul et aujourd'hui largement dépassée), nous obtiendrions une machine imitant assez correctement le comportement humain. Cela n'est pas le cas : la «machine de Turing est encore assez bête». Plus proche de nous, Herbert Simon prévoyait, en 1965, qu'en 1985 les machines seraient capables de faire n'importe quel travail qu'un homme réalise. Là encore, la prédiction était trop optimiste. Le débat sur l'intelligence artificielle, qui a déjà fait couler beaucoup d'encre, n'est donc pas clos. Il entre cependant dans une nouvelle phase. La charge de la preuve - qui était dans le camp des anti-IA, car à défaut de machines puissantes c'était à eux d'argumenter qu'on ne pourrait rien en faire - change de côté, et maintenant qu'une puissance comparable à celle du cerveau est disponible (ou sur le point de l'être), l'échec des tentatives pour rendre intelligentes nos machines prend une nouvelle signification. Les années qui viennent seront déterminantes.

Pour la science : http://www.pourlascience.com/

British Telecom veut faire de la télévision
Samedi, 02/06/2001 - 00:00

Trois semaines après avoir quitté la présidence de la BBC pour celle de BT (British Telecom) Christopher Bland impose sa stratégie à l'ancien opérateur public britannique. Certes, le successeur de Lain Vallance a repris à son compte une stratégie de désendettement énergique - la dette atteint 28 milliards de livres (46,4 milliards d'euros) - qui devrait se réaliser grâce à de nombreuses cessions. Mais, plus original, Christopher Bland entend aussi repositionner l'opérateur sur les marchés de la télévision et de l'Internet câblés. Mais l'objetif avoué de Christopher Bland est de recentrer les activités de l'opérateur historique dans les services grand public, un marché qui compte 19 millions d'usagers - déjà clients de BT. L'opérateur pourrait même s'ouvrir à la fourniture d'électricitéet de gaz. « Il y a convergence entre les diffuseurs et les sociétés de télécommunication ; et avec l'arrivée de l'ADSL, nous serons en mesure de proposer des programmes télévisés dans les foyers », a déclaré un porte-parole de BT . Enfin, ce dernier ajoute qu' Openworld, la filiale Internet de BT qui assure la fourniture des lignes ADSL à plusieurs FAI comme Freeserve, pourrait se lancer dans la télévision par câble et par l'ADSL. Selon le Yankee Group, le lancement de l'offre d'Openworld pourrait ramener les tarifs dans une fourchette comprise entre 20 et 30 livres par mois (33 et 50 euros). Pour l'instant, le prix moyen d'un abonnement ADSL tourne autour des 50 livres (83 euros). Mais les opérateurs d'accès à haut débit, concurrents de BT, se plaignent des coûts d'interconnexion encore trop élevés, ce qui les obligent à pratiquer des tarifs prohibitifs. En revanche, BT patientera jusqu'au mois de janvier 2002 avant d'affronter la concurrence de NTL et Telewest, les deux câblo-opérateurs déjà présents au Royaume-Uni. En effet, lors de la privatisation de BT en 1984, l'opérateur renonçait à devenir diffuseur jusqu'en 2002.

OINet : http://www.01net.com/rdn?oid=150015&rub=2834

British Telecom : http://www.telegraph.co.uk/et?

^ Haut
Avenir
Nanotechnologies et Robotique
Vers la maîtrise du spin des électrons
Samedi, 02/06/2001 - 00:00

Pour la première fois, des électrons ont massivement conservé un spin imposé par des chercheurs, une découverte qui pourrait mener à des puces électroniques plus petites et plus rapides. Le spin, ou le fait que les électrons tournent sur eux-mêmes, n'est pas appliqué dans les puces actuelles. Dans les puces, en effet, les transistors font uniquement passer le courant en augmentant le nombre d'électrons libres. L'idée est simple : le matériau semi-conducteur de la puce, soumis à de la chaleur ou de la lumière, "perd" certains liens atomiques et les électrons ainsi libérés conduisent le courant. Les spins, s'ils étaient cordonnés, affaibliraient la résistance du matériau et pourraient augmenter sa conductivité. Mais cela est plus facile à dire qu'à faire car pour contraindre 40 % des électrons d'une surface à garder un spin donné, les chercheurs doivent les refroidir à -263 Celsius ! Vincent LaBella et son équipe pensent avoir trouvé la solution à ce problème. À l'aide d'un aimant, ces physiciens ont d'abord coordonné les spins des électrons situés dans la pointe d'un microscope à effet tunnel. Ce type de microscopes explore les surfaces en échangeant des électrons avec elles. Ces particules ont ensuite été transférées dans un matériau semi-conducteur refroidi à -173 Celsius. Après ce transfert dans de l'arséniure de gallium, 92 % des électrons avaient conservé leur spin ! Surpris par ce résultat, l'équipe scientifique a ensuite compris que l'uniformité du matériau semi-conducteur avait joué un grand rôle. En effet, là où la surface présentait des irrégularités d'à peine quelques nanomètres, les spins changeaient six fois plus de direction.

Brève rédigée par @RT Flash

Science : http://www.sciencemag.org/cgi/content/abstract/292/5521/1518

La revanche de la bande magnétique
Samedi, 02/06/2001 - 00:00

Sony a annoncé qu'elle venait de développer une technologie d'enregistrement sur bande magnétique de haute densité qui permettrait aux cassettes 8 mm de contenir des enregistrements jusqu'a un teraoctet de données. Cette technologie a été développée pour répondre à la demande croissante de supports de sauvegarde de très grande capacité principalement pour les applications multimedia. La combinaison de la technique ultra sensible de Magnéto-Résistance Géante (MRG) et d'une bande a haute densité de métal obtenue par évaporation permet d'atteindre une densité de stockage de 6,5 gigaoctets par pouce carré. Sony pense mettre cette application sur le marché dans le courant de l'année 2003. Cette technologie permet d'obtenir sur la bande des pistes de 0,8 micron de large pour un rapport signal sur bruit de 26 dB. Ces caractéristiques ont été obtenues en réduisant à 30 nm l'épaisseur de la couche magnétique (un cobalt partiellement oxyde) ce qui représente un sixième de l'épaisseur conventionnelle et approximativement la taille des particules magnétiques. De plus la taille de la tête de lecture peut être réduite à un vingtième de sa taille conventionnelle. Ces modifications ont permis d'améliorer d'un facteur 17 la densité d'enregistrement par comparaison aux bandes conventionnelles.

ADIT : http://www.adit.fr

^ Haut
Matière
Matière et Energie
Centrales solaires sur orbite : l'idée fait son chemin
Samedi, 02/06/2001 - 00:00

Au cours du quatrième colloque international consacré au TESF -transport d'énergie sans fil- le projet d'une centrale solaire sur orbite a été validé par les scientifiques. Comme toute ondulation, les micro-ondes transportent de l'énergie. Un mécanisme adopté à grande échelle pour la cuisson dans les fours ou la téléphonie mobile. Le gadget distribué par les organisateurs du congrès en atteste, qui allume une petite diode lumineuse quand il capte les ondes d'un téléphone GSM. Bien maîtrisée, la propagation de faisceaux de micro-ondes permettrait de renvoyer sur Terre de l'énergie fournie par de gigantesques centrales solaires en orbite, ou nucléaires sur la Lune. Avec comme maître mot la «sécurité», insiste Bryan Erb. Alors que les citoyens s'alarment de la généralisation des relais de téléphonie mobile, comment pourraient-ils accepter de véritables fermes de captation de l'énergie envoyée par des projecteurs spatiaux ? Les chercheurs se sont fixé une ligne directrice. N'utiliser que des faisceaux de basse énergie, engager des études sur les effets des micro-ondes et, surtout, accepter de débattre des risques avec les pouvoirs publics et les citoyens. Pour limiter les risques et les interférences avec les réseaux de télécommunications, les scientifiques envisagent de restreindre la densité de puissance de leurs projecteurs à une fraction du flux de micro-ondes que la Terre reçoit naturellement du Soleil. Richard Dickinson, un ancien du Jet Prop Lab de la Nasa, a calculé qu'un canard volant dans le faisceau ne subirait pas plus d'un à deux dixièmes de degrés d'augmentation de température, «nettement moins que celle engendrée par ses battements d'aile». Pour compenser la faible densité des faisceaux, les scientifiques imaginent des antennes gigantesques : 1 000 mètres carrés pour capter 10 kilowatts depuis un émetteur placé à 700 mètres sur le projet de Grand-Bassin. Et probablement des kilomètres carrés quand l'émetteur sera placé en orbite. Mais comme les antennes qui convertissent les micro-ondes en électricité sont «pleines de vide», elles ne monopolisent pas le terrain qui peut être utilisé pour l'agriculture. Le Japon vient d'engager un important programme qui vise à réaliser une centrale spatiale de grande capacité à l'horizon 2040. L'Institut des sciences aéronautiques et spatiales de Tokyo espère installer dès 2006 un prototype de 12 à 20 mètres de diamètre à 500 kilomètres d'altitude, qui projetterait sa petite production électrique solaire (300 à 500 kW) vers une station terrestre japonaise.

Libération :

http://www.liberation.com/quotidien/semaine/20010529marx.html

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les forêts, de faux réservoirs de CO2
Samedi, 02/06/2001 - 00:00

N'en déplaise à certains politiciens, les forêts absorberaient bien peu les surplus de dioxyde de carbone (CO2) liés à la pollution de l'air Pour réduire le CO2 présent dans l'atmosphère, certains proposent de planter davantage d'arbres. Les végétaux, en effet, utilisent ce gaz pour fabriquer des glucides et de l'oxygène. Mais, écrivent Ram Oren et son équipe dans le Nature d'aujourd'hui, les arbres n'ingèrent des surplus de CO2 que s'ils sont plantés dans un sol riche. Or, les terres fertiles sont rarement des forêts... et souvent des terres cultivées. Ram Oren et ses collègues ont découvert que ce lien entre fertilité des cols et absorption de gaz en inondant de CO2 des pins de la forêt de Duke en Caroline du Nord. Ces chercheurs, plus précisément, ont créé en milieu naturel les taux CO2 qui seront présents sur Terre d'ici cinquante ans. Ils ont alors constaté qu'en moyenne, les pins gavés de gaz grandissent 34% plus vite que les autres mais qu'au bout de trois ans, cette croissance accélérée chute fortement. À cause d'un manque de nutriments ? Pour s'en assurer, les biologistes ont donné un fertilisant à base d'azote à la moitié de leurs pins : la croissance a reprit mais... de façon beaucoup plus modérée. De toute façon, que le CO2 soit ou non avalé par des arbres qui grandissent rapidement, ce gaz finirait par regagner l'atmosphère ! C'est du moins ce qu'affirme l'équipe de William Schlesinger dans le même Nature. Cette équipe souligne que 50% du CO2 cueilli par les pins se retrouve dans ses épines mais que, lorsque celles-ci tombent sur le sol, elles se dégradent trop vite pour être incorporée à la terre. Trois ans plus tard, le CO2 qu'elles contiennent retourne donc dans l'atmosphère. Les pins de la Caroline du Nord ne représentent pas tous les arbres de tous les pays, mais ces deux études suggèrent tout de même que la meilleure façon d'assainir l'air est encore de... réduire la consommation de combustibles fossiles.

Cybersciences : http://www.cybersciences.com/cyber/3.0/N2331.asp

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules musculaires pour réparer le coeur
Samedi, 02/06/2001 - 00:00

Des chercheurs ont utilisé des cellules de muscles du bras pour réparer un coeur abîmé par plusieurs accidents cardiaques. Plusieurs méthodes sont à l'étude pour régénérer les muscles cardiaques afin d'éviter la transplantation. A Los Angeles, une équipe de l'université de Californie (UCLA) a prélevé des cellules de muscle squelettique dans le bras d'un patient âgé de 62 ans. Il avait souffert de deux crises cardiaques et avait subi une angioplastie. Les chercheurs ont cultivé ces cellules pendant une dizaine de jours avant de les transplanter dans le coeur du patient lors du pontage coronarien. Cette opération a eu lieu il y a trois semaines. La technique s'est avérée efficace sur les animaux et a pour l'instant été menée sur trois patients. Les chercheurs espèrent obtenir une amélioration du fonctionnement du coeur sur le long terme qui éviterait à ce patient de 62 ans, comme à d'autres, de subir une transplantation cardiaque. L'année dernière, une équipe française de six médecins a réussi une greffe de cellules de muscles dans le coeur d'un patient âgé souffrant d'une sévère défaillance cardiaque. Les cellules avaient été prélevées sur le patient lui-même. Plusieurs mois après l'opération, les examens montrent que la greffe a fonctionné. Le coeur se contracte mieux qu'avant et les médecins n'ont pas constaté d'effets indésirables. L'utilisation de ces cellules de muscles évitent d'avoir recours aux cellules souches d'embryons, dont l'utilisation pose de sérieux problèmes éthiques.

Brève @RTflash

UCLA du 29-05-2001 :

http://www.ucla.edu/Templates/NewsItem1.html

Découverte d'une possible cible contre la maladie d'Alzheimer
Samedi, 02/06/2001 - 00:00

Des chercheurs japonais ont identifié un enzyme qui semble jouer un rôle-clé dans la destruction des plaques graisseuses dont l'accumulation est à l'origine de la maladie d'Alzheimer, selon un article à paraître vendredi dans la revue Science. Cet enzyme baptisé néprilysine fait partie d'une classe d'enzymes qui régulent l'activité de ces plaques formées de protéine béta-amyéloïde. Certains de ces enzymes, les secrétases, favorisent leur formation, tandis que d'autres commandent leur destruction, comme celui découvert par une équipe de neurologues de l'Institut Riken pour la science cérébrale. Jusqu'à présent, les recherches se sont concentrées sur la mise au point de substances capables de bloquer l'action de ces secrétases mais les chercheurs japonais, eux, ont concentré leurs efforts sur l'identification d'un enzyme destructeur de ces plaques. Ils ont ainsi découvert un enzyme, baptisé néprilysine, qui détruit les plaques. Or, ils se sont aperçus qu'une diminution, même légère, par exemple lors du vieillissement du niveau de cette substance dans l'organisme était à même de favoriser une accumulation des plaques de béta-amyéloïde. Selon les chercheurs, une nouvelle piste de traitement consistant à amplifier l'activité de la néprilysine pourrait offrir une alternative à la communauté médicale. En outre, leurs conclusions suggèrent également qu'il sera sans doute possible un jour d'identifier les personnes à risque en étudiant les variations génétiques sur le gène qui commande la production de néprilysine. La maladie d'Alzheimer, une affection dégénérative identifiée en 1906 est caractérisée par une dégénérescence des neurones (cellules cérébrales). Elle se traduit par une perte progressive de la mémoire, pouvant aller jusqu'à la démence. Selon certaines estimations, environ 22 millions de personnes à travers le monde sont affectées par cette maladie.

La Recherche : http://www.larecherche.fr/actu/n010524225110.4g4da473.html

Vaccin contre la maladie d'Alzheimer : premiers essais en France en septembre
Samedi, 02/06/2001 - 00:00

Pour la première fois en France, 120 volontaires sont participer aux essais d'un vaccin contre la maladie d'Alzheimer.A Lille, à Montpellier, Toulouse et Paris, 6 services hospitalo-universitaires de neurologie seront associés à une étude multicentrique internationale. Elle permettra d'en évaluer deux formes différentes, administrées par injection intramusculaire ou par voie nasale. A raison de 20 patients par centre, 120 Français seront ainsi inclus dans cet essai dit " de phase 2 ". Développé par le laboratoire américain Elan allié au groupe Wyeth, le candidat-vaccin est pour l'instant baptisé d'un nom de code, AN-1792. La première phase d'essais, menée sur de jeunes souris génétiquement modifiées, a permis de prévenir l'apparition de plaques amyloïdes. Par ailleurs, des souris plus âgées atteintes par l'affection en ont également tiré bénéfice. Chez ces dernières en effet, le vaccin a limité le développement des plaques, dont le nombre et la taille ont été réduits. Les souris vaccinées ont recouvré une certaine mémoire spatiale, ce qui leur a permis de retrouver la sortie de labyrinthes ou le chemin l'accès à un ponton situé dans un bassin... Il s'agit ainsi de ce qu'il est convenu d'appeler un vaccin-thérapeutique... Dans un premier stade, les essais sur l'homme se feront par injection intramusculaire. Mais une vaccination par inhalation pourrait aussi être envisagée. Elle serait en principe mieux tolérée, permettant une répétition fréquente, voire à vie pour une meilleure protection. Reste à vérifier que le passage de la souris à l'homme se fera bien, avec une bonne tolérance et sans perte d'efficacité.

Impact Médecin : http://fr.news.yahoo.com/010528/81/1axrs.html

Des antagonistes du glutamate peuvent bloquer la prolifération cancéreuse
Samedi, 02/06/2001 - 00:00

Des antagonistes des récepteurs au glutamate limitent in vitro la prolifération et la migration de certaines lignées de cellules cancéreuses. Des scientifiques de l' Université de Würzburg, en Allemagne, ont étudié les antagonistes des récepteurs NMDA et AMPA. Leur action a été démontrée pour les cancers du côlon, du sein, du poumon, de la thyroïde et des tumeurs neurales ou de la glie. L'effet anti-prolifératif est dû à la fois à la diminution de la division cellulaire et à l'augmentation de la mort cellulaire. Les chercheurs ont remarqué que l'inhibition de la migration cellulaire, indicateur de la réduction des métastates, a lieu à des concentrations plus basses d'antagonistes que l'effet anti-prolifératif. Or empêcher la migration des cellules et la formation de métastases est la priorité dans la thérapie anticancéreuse. En outre, il s'avère que l'action combinée des antagonistes et des molécules utilisées dans les traitements anticancer comme le cyclophosmamide ou le cisplatine augmente le pouvoir cytostatique (capacité d'inhiber la prolifération) de ces derniers. Les scientifiques vont maintenant s'atteler à effectuer ces mêmes recherches in vivo afin de découvrir les voies de signalisation utilisées par les antagonistes du glutamate.

PNAS : http://www.pnas.org/cgi/content/short/98/11/6372

Un polymère bactéricide
Samedi, 02/06/2001 - 00:00

Une équipe de recherche du Massachusetts Institute of Technology a mis au point un polymère bactéricide capable d'éliminer les bactéries responsables des infections communes. Applicable en couche mince, l' hexyl-PVP élimine la quasi totalité des Staphylococcus, Pseudomonas et E. coli. Chargé électriquement positif de façon permanente, ce polymère détruit les parois cellulaires des bactéries. Après avoir été testé en laboratoire pour les bactéries, ce polymère fait actuellement l'objet d'études de toxicité pour l'animal et l'homme. Une telle couche antiseptique pourrait être appliquée aux jouets, aux téléphones, aux claviers et même aux outils chirurgicaux.

Brève rédigée par @RT Flash

PNAS du 22-05-2001 :

http://www.pnas.org/cgi/content/abstract/98/11/5981?

Le cartilage enfin réparé
Samedi, 02/06/2001 - 00:00

On a fabriqué du cartilage à partir de cellules de graisse." L'expérience annoncée triomphalement lors du dernier congrès de l'Orthopedic Research Society, à San Francisco (Etats-Unis), ouvre des perspectives thérapeutiques inespérées pour traiter les traumatismes cartilagineux. Une pathologie fréquente chez les sportifs de haut niveau ou plus banalement chez les skieurs du dimanche. Cette découverte permettrait aussi de disposer d'une source de cartilage inépuisable et aisément accessible. Trois donneurs se sont prêtés à l'expérience de l'équipe du Dr Farshid Guilak, du Duke University Medical Center de Durham (Caroline du Nord, Etats-Unis). Celle-ci a prélevé par lipo-aspiration des cellules du tissu adipeux afin de les soumettre à un traitement enzymatique (collagénase) avant de les plonger dans un bain chimique composé d'un cocktail de glucocorticoïdes et de facteurs de croissance. Détail important, les cellules recueillies et cultivées sont des cellules "non différenciées" : un pedigree biologique équivalent à celui des cellules souches localisées d'ordinaire chez l'embryon ou dans la moelle osseuse de l'adulte (lire l'encadré p. 91). Après deux semaines de croissance, ces cellules naturellement programmées pour fabriquer des adipocytes (c'est-à-dire de la graisse) ont donné des chondrocytes, autrement dit des cellules cartilagineuses. "Ce n'est pas la première fois que l'on fabrique des chondrocytes à partir de cellules indifférenciées, explique Anne Coulombel, directrice de recherche à l'Unité 474 Inserm de l'hôpital Cochin (Paris). En mettant en culture des cellules indifférenciées de la moelle osseuse qui donnent d'ordinaire naissance aux cellules sanguines (globules blancs et rouges), on peut obtenir des cellules osseuses (ostéoblastes), graisseuses (adipocytes) et même cartilagineuses (chondroblastes). La destinée des cellules est dirigée vers l'une des ces trois voies grâce au dosage précis des substances de croissance et autres produits nutritifs utilisés." La maîtrise de la "plasticité" des cellules souches est l'un des enjeux majeurs actuels des recherches en biologie cellulaire et de leur application en thérapie cellulaire. "La médecine regénérative qui consiste à greffer non pas un organe mais les cellules souches qui les composent et qui ont pour fonction de fabriquer d'autres cellules est une avancée primordiale mais encore mal maîtrisée", souligne Gérard Dine, de l'Ecole centrale de Paris. De fait, la thérapie cellulaire utilise depuis bientôt quinze ans déjà des cellules souches adultes mais dans des domaines extrêmement restreints. Par exemple, les cellules souches sanguines choisies, en cas de greffe de la moelle osseuse, pour traiter les leucémies et certaines anémies. Ce sont également des cellules souches adultes qui servent dans les greffes de peau des grands brûlés. L'expérience américaine si elle se confirme pourrait donc permettre de greffer un morceau de cartilage obtenu à partir d'une simple ponction dans le gras du patient ! Le Docteur Guilak avance même "que ce traitement pourrait devenir opérationnel dans 3 à 5 ans".

Sciences&Avenir : http://www.sciencesetavenir.com/vivre/page90.html

La cocaïne néfaste dès la première prise
Samedi, 02/06/2001 - 00:00

L'administration d'une seule dose de cocaïne provoque un effet sur les synapses comparable aux modifications impliquées dans les processus de mémoire et d'apprentissage. Selon les chercheurs à l'origine de cette découverte, cet effet apporte un nouvel éclairage sur les mécanismes premiers de la dépendance."La signification de cette découverte est qu'une seule dose de cocaïne détourne un mécanisme cellulaire impliqué dans un processus normal d'apprentissage et d'adaptation, ce qui peut aider à expliquer la capacité de la cocaïne à prendre contrôle du système de conditionnement et à produire des comportements de recherche de drogue", explique le Dr Antonello Bonci, un des auteurs de cette étude. Ces travaux ont fait l'objet d'une publication dans le numéro de Nature du 31 mai. Dans cet article, Mark Ungless (Université de Californie) et ses collaborateurs démontrent qu'une prise de cocaïne suffit à induire une potentialisation à long terme (LTP) au niveau des neurones à dopamine. Ce phénomène correspond à une plasticité des synapses, un remodelage cellulaire qui est déterminant pour plusieurs formes de mémoire et l'apprentissage. Ces modifications ont été mises en évidence chez des souris et des rats. Les chercheurs estiment que cette découverte est importante non seulement pour expliquer les premières étapes de l'addiction mais aussi les bases biologiques des rechutes.

Nature du 31-05-2001 :

http://www.nature.com/nlink/v411/n6837/abs/411583a0_fs.html

Embryons sur commande
Samedi, 02/06/2001 - 00:00

Deux chercheurs américains, David Beebe and Matthew Wheeler, de l'université de l'Illinois ont mis au point un appareil qui automatise la fécondation de l'ovocyte et la culture de l'embryon dans la perspective d'une fécondation in vitro (FIV). Réalisé en élastomère transparent, leur appareil contient un réseau de canaux de 0,2 millimètre de largeur et de profondeur où sont installés des embryons. Les chercheurs connectent les canaux à des seringues programmables qui peuvent modifier la position de l'embryon et ajouter ou retirer du liquide. En testant la machine avec des souris, ils ont obtenu de bien meilleurs résultats qu'avec les techniques traditionnelles. Au bout de 48 heures, aucun embryon de souris n'avait atteint la blastogenèse par les méthodes classiques alors que les trois-quarts des embryons de ce nouveau dispositif avaient atteint ce stade. Les embryons ont ensuite été implantés dans des souris et les souriceaux sont nés sans anomalie. Cet appareil permet également d'enlever la pellicule qui enveloppe les embryons à peine fécondés en minimisant les risques. Dans une seconde expérience, les chercheurs ont laissé croître des ovocytes dans les canaux pour les fertiliser avec du sperme. Ils vont à présent tenter d'améliorer leur machine en y intégrant ces deux fonctions, fécondation et culture de l'embryon. Cet appareil pourrait considérablement simplifier les diagnostics pré-implantatoires destinés à repérer des anomalies génétiques. Il reste que la prochaine génération de cette machine à "produire" des embryons va poser de serieux problèmes éthiques. Avec une telle technologie en effet il sera trés facile de sélectionner les embryons selon des critères eugéniques ce qui ne va pas manquer de relancer le débat sur la procréation médicalement assistée et ses conséquences sociales et morales.

New Scientist : :

http://www.newscientist.com/newsletter/news.jsp?id=ns229228

Comment voit notre cerveau
Samedi, 02/06/2001 - 00:00

Des scientifiques de l'université du Minessota ont montré que les neurones de notre cortex visuel étaient capables de détecter des lignes tellement fines qu'elles apparaissent comme au regard comme une surface uniforme. Le cortex visuel, situé dans le lobe occipital, contient de nombreuses cellules différentes dont certaines qui sont spécialisées dans la détection d'une direction. Ainsi, en regardant des lignes horizontales, verticales, inclinées vers la droite ou vers la gauche, les yeux activent des groupes de neurones spécifiques. C'est en utilisant cette sensibilité cellulaire que Sheng He et Donald McLeod ont découvert que nous ne sommes pas toujours conscients de ce que nous voyons. Dans leur expérience des lignes étaient projetées à l'aide d'un laser sur la rétine des sujets, et ceux-ci devaient dire si ces dernières étaient horizontales ou verticales. Certaines de ces lignes étaient si fines et rapprochées que les participants les voyaient comme des blocs uniformes de couleur. Mais lorsque les psychologues leur ont présenté des lignes plus espacées, mais toujours orientées dans la même direction, ils prenaient plus de temps pourrépondre ce qui signifiait que leurs cellules visuelles avaient été stimulées à l'insu de leur conscience. Il semblerait donc que, contrairement à ce que croyaient les neurologues, la rétine distingue bel et bien des lignes très rapprochées et envoie cette information au cortex. Il semble alors que notre cortex visuel préfère garder cette information pour lui. Il reste à présent à comprendre pourquoi notre cerveau nous cache parfois ce qu'il voit.

Brève rédigée par @RT Flash

BBC :

http://news.bbc.co.uk/hi/english/sci/tech/newsid_1357000/1357729.stm

Nature du 24-05-2001 :

http://www.nature.com/nlink/v411/n6836/abs/411473a0_fs.html

Le colossal chantier de l'exploration du cerveau
Samedi, 02/06/2001 - 00:00

Que sont au juste les neurosciences ? Un ensemble toujours plus grand de disciplines fonda-mentales, cliniques, technologiques, où les spécialistes de l'évolution côtoient les généticiens, les neurochirurgiens les informaticiens et les histologistes. Il y a des questions qui concernent des maladies humaines graves. A quoi est due exactement la maladie d'Alzheimer ? Comment le prion de l'ESB, dépourvu de tout élément de programme génétique, trans-forme-t-il pour l'altérer le pro-gramme des neurones du cerveau qu'il infecte ? Pourquoi assiste-t-on à une augmentation des cancers du cerveau dans les pays développés ? Il faut comprendre, pour lutter contre elles, les maladies neurodégénératives, les affections héréditaires, les lenteurs et les limites de développement du cerveau, la maladie de Parkinson, l'épilepsie et les tumeurs. Les chercheurs doivent aussi mieux saisir comment se différencient les différents centres cérébraux, comment apparaissent les fonctions supérieures, comment s'intègrent en cartes corticales les représentations de nos sens, comment naît et s'installe la douleur, la migraine. D'autres spécialistes tentent d'élucider le mystère et l'origine du cortex cérébral, apanage des seuls mammifères : car ni les reptiles ni les oiseaux n'ont cette fine couche cellulaire de matière grise enrobant le cerveau, et qui représente dans l'espèce humaine jusqu'à 40 % de ses cent milliards de neurones. Paradoxalement, sans cortex, les plus petits oiseaux sont capables de fonctions supérieures, d'analyse et d'apprentissage du langage, ils peuvent utiliser des outils, élaborer des stratégies cognitives. Le mariage du vivant et du synthétique est également un des en-jeux des neurosciences modernes : des équipes de recherche mettent au point des réseaux hybrides, constitués de neurones vivants, greffés sur des supports électroniques, des neurones artificiels gravés sur des puces. Pour pouvoir faire communiquer entre eux des systèmes électroniques ou informatiques avec du tissu nerveux vivant. La pousse des neurones sur des surfaces artificielles est maîtrisée, la jonction entre le vivant et l'inerte au moyen de synapses artificielles aussi, et l'on a même reconstitué une boucle neuronale hybride.

Figaro : http://www.lefigaro.fr/cgi-bin/gx.cgi/AppLogic+FTContentServer?

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Les niveaux d'éducation de la population de l'UE sont en constante progression
Samedi, 02/06/2001 - 00:00

Les niveaux d'éducation de la population ont progressé dans tous les pays de l'UE depuis plus d'une trentaine d'années. Ainsi, alors que moins de la moitié des personnes âgées de 50 à 64 ans en 1999 dans l'UE, avaient achevéle niveau d'éducation secondaire supérieur, cette proportion dépassait 70% pour les personnes de 25 à 29 ans. En dépit de cette amélioration, près d'un jeune sur cinq de 18 à 24 ans quittait encore le système éducatif en ayant achevé au mieux le premier cycle du secondaire. Deux rapports publiés aujourd'hui par Eurostat, l'Office statistique des Communautés européennes à Luxembourg, font le point sur l'évolution des niveaux d'éducation dans les Etats membres au cours des années 1990 et sur la situation dans les régions de l'UE à la fin des années 1990. Si dans l'ensemble de l'UE en 1999, 71 % des jeunes âgés de 25 à 29 ans avaient au moins achevé le niveau du secondaire supérieur, cette proportion dépassait 80% au Danemark (89 %), en Suède (87 %), en Finlande, en Autriche (85 % chacun), en Allemagne (83 %) et en France (78 %). A l'opposé, le Portugal (35%), l'Espagne (58 %) et l'Italie (60 %) enregistraient les taux les plus bas. L'allongement de la scolarité observé dans tous les pays de l'UE a conduit à l'élévation des niveaux de formation des générations successives, puisqu'il n'y avait en 1999 que 48 % des personnes de 50 à 64 ans à avoir achevé le secondaire supérieur. Cette progression des niveaux d'éducation se retrouve dans tous les Etats membres; elle est allée de pair avec une certaine réduction des écarts entre les différents pays puisque ce sont les pays du sud de l'UE (Portugal, Espagne, Italie et Grèce), où les niveaux d'éducation étaient les plus faibles en 1999 chez les personnes de 50 à 64 ans, qui ont connu les améliorations les plus rapides, constatées surtout chez les jeunes de 25 à 29 ans. Les diplômés de l'enseignement supérieur représentaient en 1999, en moyenne dans l'UE, 21% de la population âgée de 25 à 64 ans. C'est en Finlande et en Suède que la proportion de diplômés de l'enseignement supérieur était la plus élevée en 1999, avec des taux respectivement de 31 % et de 29 %. Il est intéressant de noter que les pourcentages de diplômés de l'enseignement supérieur parmi la population de 25 à 64 ans étaient, en 1999, les plus faibles en Italie et au Portugal (10 % pour chacun), mais aussi en Autriche (11 %), où le pourcentage des personnes de 25 à 64 ans ayant achevé le niveau du secondaire supérieur (75 %) était pourtant supérieur à la moyenne de l'UE (60 %). Dans l'UE, la proportion de diplômés du supérieur demeurait un peu plus forte chez les hommes de 25 à 64 ans que chez les femmes, avec des taux respectivement de 22 % et 19 % en 1999. Cette situation se retrouvait dans la plupart des Etats membres, en particulier en Allemagne, où 28 % des hommes étaient diplômés contre 18 % des femmes. La France pour sa part se situe dans la moyenne européenne avec 21 % de diplômés du supérieur, qu'il s'agisse des hommes ou des femmes. Malgré les avancées notables enregistrées en matière de formation, il y avait en 1999 encore un peu plus de 20 % des jeunes Européens de 18 à 24 ans à avoir arrêté leur scolarité au mieux à la fin de l'enseignement secondaire inférieur, lequel correspond la plupart du temps à la fin de l'enseignement obligatoire. De grandes différences étaient cependant constatées selon les Etats Membres. Si en Suède (avec un taux de 7 %), en Finlande (10 %), en Autriche et au Danemark (12 % chacun), seul un jeune sur dix quittait l'école à ce niveau, c'était le cas d'un jeune sur six en France (15 %) et un sur quatre en Italie (27 %) et en Espagne (29 %) et de près d'un jeune sur deux au Portugal (46 %). L'arrêt précoce des études s'avérait plus fréquent chez les hommes de 18 à 24 ans que chez les femmes dans tous les Etats Membres, à l'exception de l'Allemagne et de l'Autriche.

Union européenne :

http://europa.eu.int/comm/eurostat/Public/datashop/print-product/FR?catalogue=Eu...

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top