RTFlash

RTFLASH Recherche & Technologie
NUMERO 203
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Juillet 2002
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Haut débit en France : l'état de lieux
Haut-débit : ce n'est pas seulement une question de vitesse
Un PC pour 6 terriens !
Disques durs : le mur des 200 Go bientôt franchi
Une boule de cristal pour projeter des images 3D
Rolltronics présente une nano-mémoire Flash
Logiciel libre et logiciel propriétaire : vers la cohabitation
Microsoft lève petit à petit le voile sur son projet "Palladium"
Taxation des disques durs : deux poids deux mesures ?
France Télécom met la visioconférence devant le mur
Avenir
Le neutron : un proton sans charge
Un prototype de transistor à base de nanotubes de carbone en forme d'anneau
Espace
Essais réussis pour futur vaisseau européen de ravitaillement ATV
Vivant
Les deux tiers des cancers pourraient être évités ou guéris, selon l'OMS
Un essai de vaccination contre les maladies à prion
Le lien entre cholestérol et maladie d'Alzheimer se précise
Les statines : une arme majeure contre les maladies cardio-vasculaires
Sida: 29 millions d'infections peuvent être évitées grâce à la prévention
Sida : le fossé se creuse entre le Nord et le Sud
Une longue fibre développée pour les os
L'asymétrie des organes dans le corps serait déterminée par de minuscules cils
Recherche
L'OCDE prône un interventionnisme public éclairé en matière d'innovation
Edito
La France ne doit pas prendre de retard dans la recherche sur les cellules-souches



Les Académies des Sciences et de Médecine ont rendu public le 21 juin un avis favorable à l'utilisation de cellules-souches humaines et se sont dites "inquiètes du blocage des recherches en France dans ce domaine". Les deux institutions jugent nécessaire que ces recherches puissent se développer en France, en respectant les dispositions légales concernant les dons de cellules, de tissus, et d'organes. Elles considèrent aussi qu'il est impératif de comparer par des études expérimentales les différents types de cellules-souches - d'origine embryonnaire, en provenance d'organismes adultes, ou obtenues par transfert nucléaire (clonage) - et d'apprécier leurs capacités respectives en vue de leurs applications thérapeutiques. Ces recherches, soulignent les Académies, doivent - compte tenu de la complexité des enjeux de ces recherches notamment sur les plans éthique, juridique, scientifique et de l'industrie -, être réalisées dans des conditions strictes d'encadrement, sous le contrôle de la puissance publique. Les Académies des Sciences et de Médecine rappellent enfin leur opposition formelle à tout clonage reproductif d'êtres humains, et à toute réimplantation, même temporaire, des tas de cellules embryonnaires (blastocystes) obtenus après transfert nucléaire. Pour tenter de contourner l'interdiction instaurée par les lois de bioéthique, l'ancien ministre de la Recherche Roger-Gérard Schwartzenberg avait autorisé le 3 mai l'importation de lignées de cellules-souches embryonnaires déjà existantes. Cette mesure avait été recommandée par une pétition de scientifiques français - dont quatre prix Nobel - puis par un collège d'experts. Le 22 janvier, l'Assemblée nationale avait adopté en première lecture un projet de loi relatif à la bioéthique autorisant notamment les recherches sur les cellules-souches d'embryons surnuméraires. Mais ce parcours législatif ne devrait pas déboucher avant 2003, ce qui inquiète le Pr Claude Sureau, de l'Académie de Médecine, qui craint que la France ne prenne un retard difficile à rattraper dans ce domaine d'avenir. Il faudra en effet une première lecture au Sénat, puis une deuxième lecture du texte par les deux assemblées et, enfin, le passage des décrets d'application, un processus qui ne devrait pas être achevé avant cette date. Ces avis favorables des Académies des Sciences et de Médecine concernant la recherche encadrée sur les cellules-souches, et excluant clairement tout clonage reproductif, surviennent, et ce n'est sans doute pas un hasard, le lendemain d'une publication scientifique importante sur les cellules-souches dans la prestigieuse revue "Nature" du 20 juin. Dans cette publication, deux équipes de chercheurs américains viennent de confirmer les immenses potentialités de la médecine réparatrice (voir article dans la rubrique biologie de notre lettre 201 http://www.tregouet.org/lettre/index.html), et montrent que les cellules-souches - adultes ou embryonnaires - pourraient, un jour, servir de stocks de pièces détachées inépuisables pour remplacer des organes ou des tissus défaillants. La première équipe démontre que des cellules-souches adultes peuvent être aussi souples d'utilisation que celles d'origine embryonnaire. Des chercheurs du Stem Cell Institute de l'Université du Minnesota, dirigés par Catherine Verfaillie ont obtenu in vivo et in vitro, à partir de cellules-souches de la moelle osseuse de souris, des cellules correspondant aux trois couches formant l'embryon dans les premiers stades de son développement : le mésoderme (moyen), l'ectoderme (externe), qui donnera ensuite l'épiderme et le système nerveux, et l'endoderme (interne), qui donnera le tube digestif et les organes associés. Ces cellules de la moelle osseuse, baptisées MAPCs par les chercheurs (pour multipotent adult progenitor cells), auraient donc un potentiel énorme pour la thérapie cellulaire. La seconde équipe a montré, pour sa part, que des cellules-souches embryonnaires peuvent donner naissance, chez des rats, à de nouveaux neurones permettant de corriger les effets de la maladie de Parkinson. Cette accélération de découvertes de plus en plus prometteuses en matière de potentialités réparatrices des cellules-souches vient donc confirmer les craintes exprimées par la pétition de scientifiques français, dont quatre prix Nobel, qui réclamaient un cadre législatif et juridique cohérent permettant à la France de développer ses recherches dans ce domaine absolument capital pour l'avenir. Les chercheurs français craignent en effet que l'avance prise, notamment par les Etats-Unis et la Grande-Bretagne, dans le domaine de la médecine réparatrice à partir de cellules-souches, ne puisse plus être comblée. Face à cette situation et aux enjeux scientifiques, médicaux, industriels et économiques considérables de ces recherches, il faut que nos responsables politiques et nos parlementaires prennent conscience de la nécessité de fixer rapidement un cadre législatif et réglementaire souple et évolutif qui permette enfin à nos chercheurs de poursuivre ces recherches sur les cellules-souches dans les meilleures conditions, avec bien entendu toute la clarté et les précautions éthiques qui s'imposent dans un tel domaine. Face à l'accélération sans précédent de la recherche dans ce domaine de la biologie qui va révolutionner la médecine, nous devons savoir être plus réactifs et adapter nos processus de décisions et nos outils d'évaluation et de contrôle. Si nous ne prenons pas conscience de cette urgence, nous risquons tout simplement de manquer une des révolutions scientifiques et médicales majeures de ce siècle.

René TRÉGOUËT

Sénateur du Rhône


TIC
Information et Communication
Haut débit en France : l'état de lieux
Samedi, 13/07/2002 - 00:00

Jean-Michel Hubert, le président de l'ART a fait le point sur le haut débit en France lors du Colloque de l'association des maires de grandes villes. Fin mars 2002, l'AFA recensait 7,7 millions d'abonnés à Internet sur le marché résidentiel, dont 734 500 abonnés à haut débit, soit 9,5 % de l'ensemble des abonnés résidentiels. En 2001, le nombre d'abonnés haut débit à triplé, passant d'environ 200 000 à 600 000 abonnés. Le chiffre d'affaires des opérateurs autorisés sur le segment du haut débit est passé, quant à lui, de 59 millions d'euros à 185 millions d'euros. Les utilisateurs passent au haut débit pour le confort d'utilisation qu'il procure (rapidité de navigation et de téléchargement, connexion permanente) et l'attractivité des tarifs. Le développement du haut débit s'effectue à la fois par le câble et par l'ADSL. L'évolution du nombre d'abonnés ADSL (de 70 000 à 400 000 abonnés) est supérieure à celle du câble dont le nombre d'abonnés à Internet, en hausse de 50 % en 2001, est d'environ 200 000 fin décembre 2001, selon l'Aform. La France se situe plutôt dans la moyenne pour le développement du haut débit par rapport à ses voisins européens. Fin 2001, elle enregistre un taux d'équipement supérieur à celui du Royaume-Uni et de l'Italie, mais inférieur à l'Allemagne. Jean-Michel Hubert a également rappelé que le déploiement des solutions pour développer le haut débit sur l'ensemble du territoire sera nécessairement progressif, compte tenu des investissements à réaliser et des difficultés techniques pouvant apparaître, notamment dans le cadre du dégroupage. Les collectivités territoriales ont un rôle important à jouer pour le développement du haut débit. Elles vont devoir sensibiliser le public en développant des services ou en favorisant la promotion des usages. Elles peuvent aussi agir sur la demande. En tant qu'utilisateurs de services de télécommunications, elles peuvent faire jouer la masse critique de la commande publique. Enfin, elles peuvent agir sur l'offre, essentiellement par deux voies : en favorisant l'arrivée et le déploiement d'opérateurs sur leur territoire, en établissant un réseau indépendant pour satisfaire les besoins propres d'une collectivité. Selon Jean-Michel Hubert, il reste encore beaucoup à faire pour parvenir à l'objectif du haut débit pour tous, sur l'ensemble du territoire. Le succès du haut débit repose sur plusieurs facteurs : la diversité et la complémentarité des voies d'accès, le développement des services et des usages, l'articulation harmonieuse entre le mouvement du marché et l'intervention publique. En conclusion, l'une des difficultés majeures sur ce marché est de parvenir à concilier, avec des outils juridiques adaptés, les objectifs d'aménagement du territoire et le développement d'un marché, en tenant compte des contraintes techniques et économiques inhérentes au secteur des télécommunications. L'ART fera des propositions pour améliorer le dispositif. Le Gouvernement et le Parlement devront en définir les orientations.

Atelier : http://www.atelier.fr/page.php?

Haut-débit : ce n'est pas seulement une question de vitesse
Samedi, 13/07/2002 - 00:00

Le Pew Internet & American life Project vient de publier une étude très intéressante sur le comportement en ligne des utilisateurs d'Internet à haut-débit. Cette étude montre en effet que 80% d'entre eux publient sur le réseau des contenus numériques, que ce soit via des sites Web, des "blogs" ou encore en partageant leurs fichiers sur des réseaux peer-to-peer. Acteurs du réseau, bien plus que consommateurs, ils l'utilisent essentiellement pour la recherche d'informations, ce qu'ils estiment ne pas pouvoir faire avec la même efficacité au moyen d'une connexion classique. Pour ces utilisateurs, c'est autant la possiblité de rester en ligne de manière permanente que la vitesse de connexion qui importe. Par ailleurs, le rapport révèle que ces utilisateurs intensifs font usage d'Internet de manière plus riche et diversifiée que les autres, effectuant de manière régulière sept activités contre trois pour les connectés à bas débit. Pour l'analyse ces données, les auteurs du rapport reconnaissent être confrontés à un problème de l'oeuf et de la poule : ces utilisateurs ont-ils souscrits à une connexion à haut-débit parce qu'ils sont des utilisateurs intensifs ou le sont-ils devenus grâce à leur connexion ? Question insoluble bien sûr, mais qui montre que la vitesse de la connexion n'est pas seulement une question de rapidité : elle engendre un saut quallitatif dans l'utilisation d'Internet.

Homo Numericus :

http://www.homo-numericus.bonidoo.net/breve.php3?id_breve=341

Un PC pour 6 terriens !
Samedi, 13/07/2002 - 00:00

Un milliard ! Un cap symbolique est franchi aujourd'hui dans le monde de l'informatique. Selon le cabinet d'études de marché Gartner Dataquest, l'information n'est révélée aujourd'hui mais c'est en avril dernier que le milliardième micro-ordinateur est sorti d'usine. Un milliard d'ordinateurs PC sur la planète... Pour en arriver là, il aura fallu presque 30 ans. C'est en 1973, en effet, qu'est sorti le premier micro-ordinateur personnel : le Micral. Et on l'a oublié un peu vite mais c'est un Français qui l'a inventé : François Gernelle. Certes, il ressemblait à peu près autant à ce qui se fait aujourd'hui qu'une 4 chevaux ressemble à une formule 1. Il y a 28 ans, les micro-ordinateurs étaient gros et rudimentaires, limités à de simples fonctions de calculs et quels capacités de traitement de texte. Aujourd'hui, les ordinateurs personnels sont tout à la fois des juke-boxes numériques, des studios photos et vidéo et des consoles de jeux, sans oublier leurs phénoménales fonctions bureautiques. La firme Intel se félicite aujourd'hui en grandes pompes de ce premier milliard d'ordinateurs vendus. Il faut dire que la plupart de ces machines étaient équipées de puces de sa fabrication. C'est Intel qui a inventé le microprocesseur en 1971. Avec toujours la célèbre loi de Moore qui veut que la puissance des ordinateurs double tous les 18 mois. Aujourd'hui, l'évolution technologique semble un peu marquer le pas. La prochaine rupture, le prochain grand pas en avant, ce sera l'informatique sans fil. Des ordinateurs reliés à Internet mais sans fil à la patte. Les premières tablettes PC, ces ordinateurs ultra plat qui permettent de surfer sur le Web dans le canapé du salon, arriveront à l'automne prochain. Le développement des réseaux Wifi, c'est-à-dire par ondes radios, commencent aussi à devenir très intéressants. Un milliard d'ordinateurs aujourd'hui. Combien demain ? On prévoit un deuxième milliard vers 2008. Pour l'instant, l'Amérique du Nord et l'Europe ont consommé majoritairement ces machines. Il reste encore à équiper des continents entiers comme la Chine, l'Amérique latine et l'Europe de l'Est. France Info :

http://www.radio-france.fr/chaines/info2000/chroniques/monde/fiche.php?numero=40...

Disques durs : le mur des 200 Go bientôt franchi
Samedi, 13/07/2002 - 00:00

200 Go ! C'est le nouveau record annoncé par Western Digital (WD) pour son prochain disque dur Caviar, prévu pour juillet prochain. Ce nouveau modèle dépasse les 160 Go, actuel record détenu par Maxtor. Le WD Caviar 200 Go travaille à 7 200 tours par minute (TPM) et bénéficie, en option, de la technique de réduction de bruit fluid dynamic bearing. Selon le constructeur, ce nouveau modèle exploite la technologie de plateaux de 60 Go. Reste à comprendre comment WD fait pour atteindre 200 Go avec des plateaux de 60 Go... D'autre part, WD ne précise pas l'interface utilisée pour atteindre ces 200 Go, sachant que l'actuelle interface ATA limite la taille des disques à 128 Go. S'agira-t-il de l'EIDE en ATA/100, ATA/133 ou Serial ATA ? WD ne le précise pas, pas plus que le prix de son futur produit. L'autre annonce majeure vient du concurrent Seagate. En collaboration avec Intel, le constructeur des Barracuda a fait la démonstration, mercredi 26 juin au TechXNY de New York, d'un disque dur en Serial-ATA, la future interface IDE qui devrait optimiser les taux de transfert tout en simplifiant la connectique. Le Barracuda ATA V est programmé pour l'automne prochain alors que les premières cartes mères équipées du Serial-ATA ne sont pas attendues avant l'année prochaine. L'arrivée de périphériques aux normes de la nouvelle interface permettra-t-elle d'accélérer les mises à jour ou devra-t-on passer par des cartes PCI dédiées pour exploiter ce nouveau type de disque ? Dans ce dernier cas, il n'est pas certain que le système bénéficie du taux de transfert de 150 Mo/s du Serial-ATA (contre 133 Mo/s au mieux avec l'ATA/133 actuel). Proposé en 120 Go, le Barracuda ATA V travaillera en 7 200 TPM et bénéficiera de 2 Mo de cache. Là encore, il est trop tôt pour en préciser le prix.

SVM : http://www.vnunet.fr/svm/actu/article.htm?numero=9848

Une boule de cristal pour projeter des images 3D
Samedi, 13/07/2002 - 00:00

Une image 3D en relief projetée dans un environnement spatial offrant une vision horizontale à 360 degrés, le tout sans lunettes spéciales ou autre périphérique dédié aux effets spéciaux. Tels sont les avantages de l'écran Perspecta proposé par la jeune société américaine Actuality Systems spécialisée dans les systèmes de visualisation 3D. En fait d'écran, il s'agit plutôt d'une sphère transparente, sorte de boule de cristal, au milieu de laquelle se forme l'image 3D visualisable sous tous les angles. Evidemment, la sphère ne se branche pas simplement sur le port VGA de l'ordinateur. Pour l'exploiter, il faut utiliser la plate-forme dédiée, Perspecta OS, développée par la start-up. Déployé sur une station graphique de type IBM IntelliStation M Pro ou HP Workstation x2100 sous Windows 2000 ou Linux, l'OS génère une image d'environ 25 cm de diamètre et composée de 100 millions de pixels "en volume" (ou voxels) rendu par 198 "tranches" de 768 x 768 pixels. Le moteur graphique permet à l'utilisateur d'animer son image à raison de 5 000 images par secondes. Si la vision horizontale est complète, en revanche le support de la boule la limite à 270 degrés en vertical. A 40 000 dollars, la plate-forme de visualisation Perspecta ne s'adresse évidemment pas au grand public mais aux industriels. Actuality Systems vise notamment les secteurs de la biotechnologie, les laboratoires pharmaceutiques, l'imagerie médicale en général et la sécurité, notamment pour le contrôle du trafic aérien et des bagages. Mais les applications pourront parfaitement s'étendre aux marchés de la conquête spatial, du jeu vidéo et, pourquoi pas, de l'industrie cinématographique. En attendant, c'est l'armée qui s'intéresse au Perspecta. L'Army Research Laboratory (ARL) d'Adelphi a passé commande, le 25 juin 2002, d'un exemplaire du produit. Elle n'a, bien entendu, pas précisé l'usage qu'elle ferait du Perspecta.

Vnunet :

http://www.vnunet.fr/actu/article.htm?numero=9853&date=2002-06-28

Rolltronics présente une nano-mémoire Flash
Samedi, 13/07/2002 - 00:00

Implantée dans la Silicon Valley, la start-up Rolltronics a développé une mémoire Flash qui stocke les données dans des cylindres de la taille d'une molécule et les conserve même sans apport d'énergie. Selon l'entreprise, la technologie NanoMem utilisée permettrait de stocker entre dix et cent fois plus de données que dans une mémoire Flash traditionnelle, pour un coût de production beaucoup plus bas. Rolltronics espère produire 3 mètres de composants sur circuit imprimé à la minute pour des transistors de 5 microns de longs. Un taux qui permettrait de produire 150 000 transistors par minute. Selon John Sheats, responsable des recherches, la technologie employée est très simple. "Les données sont stockées dans les molécules assemblées sous forme de piles cylindriques dans des feuilles de plastique d'environ 1 micron d'épaisseur", explique-t-il. "Les données sont écrites par un procédé optoélectronique à faible voltage qui capture la charge électrique dans la molécule de plastique." Rolltronics espère lancer son produit d'ici deux ans. L'un des produits potentiellement visés est une carte mémoire (type smartcard) qui pourrait contenir le compte bancaire de l'utilisateur avec mise à jour en temps réel. Une autre possibilité serait l'intégration dans un puissant et léger e-book avec fonctions d'impression de qualité laser et faible besoin énergétique qui permettrait un fonctionnement continu des semaines durant. Testés à l'université d'Austin (Texas), les premiers prototypes n'ont révélé aucune perte de donnée jusqu'à 7 000 heures sans énergie et aucune dégradation après 1,5 milliard de cycles "écriture/lecture".

Vunet :

http://www.vnunet.fr/actu/article.htm?numero=9869&date=2002-07-02

Logiciel libre et logiciel propriétaire : vers la cohabitation
Samedi, 13/07/2002 - 00:00

Le débat opposant logiciel libre et logiciel propriétaire laisse la place à un travail plus rigoureux sur les aspects économiques et juridiques du logiciel libre. C'est ce qu'a montré la conférence "Open Source Software : Economics, Law and Policy", organisée par l'Institut d'Economie Industrielle et le Center for Economic Policy Research à Toulouse. Cette conférence a confirmé la tendance dans le monde de la recherche et de l'industrie à concilier logiciel libre et logiciel propriétaire, afin de combiner leurs avantages respectifs. Les avantages du logiciel libre sont bien connus. L'accès libre au code source du logiciel et le mode de travail collaboratif, à l'origine basé sur le volontariat et Internet, permettent de produire rapidement des logiciels très fiables et gratuits. C'est ainsi que des logiciels libres de grande qualité ont pu être développés. Citons parmi les plus médiatisés le système d'exploitation Linux et le serveur Web Apache. Mais le mode de diffusion gratuit du logiciel libre n'encourage pas à innover ni à créer des produits véritablement nouveaux car il ne permet pas un retour sur investissement de l'effort R&D important que nécessite l'innovation. De fait, la plupart des logiciels libres sont des clones de logiciels propriétaires (Linux, par exemple, est un clone d'Unix). Il s'agit aussi surtout de logiciels de base, développés par des informaticiens pour des informaticiens. A l'inverse, le logiciel propriétaire, où le code source est protégé (en ne livrant que le code binaire) et rémunéré par la vente de licences, favorise davantage l'innovation par les éditeurs de logiciel et l'utilisation par des utilisateurs non spécialistes. Les organismes de recherche concilient adroitement développement de logiciel libre et logiciel propriétaire. Les chercheurs développent et utilisent le logiciel libre pour tester librement de nouvelles idées, sans avoir à tout prototyper, et contribuent ainsi à son évolution. Aussi, les organismes de recherche encouragent l'utilisation et le développement de logiciel libre pour accélérer le processus de recherche et mutualiser les efforts de développement. Par exemple, le consortium ObjectWeb (www.objectweb.org) créé par l'Inria, Bull et France Télécom a pour mission de construire une plateforme générique de gestion de composants distribués, à partir de laquelle les industriels pourront développer et vendre des composants métiers. En même temps, les organismes de recherche encouragent la production de brevets logiciels (pour protéger les inventions de leurs chercheurs) et la création de start-up pour créer des produits innovants à partir de ces brevets. Ce n'est pas une contradiction car les objectifs de retombées scientifiques et de valorisations industrielles sont différents. Comme l'a montré la conférence de Toulouse, nous assistons de plus en plus à l'intégration logiciel libre/logiciel propriétaire à la fois chez les constructeurs, les éditeurs de logiciels et les utilisateurs. Contrairement au mouvement initial, une proportion rapidement croissante des développements en logiciel libre se fait dans l'industrie et est donc rationalisée. Chez les constructeurs comme IBM, Sun et HP-Compaq, la tendance majeure est au support généralisé de Linux en complément de leur système d'exploitation propriétaire. Chez les éditeurs de logiciel, l'intégration de composants logiciel libre avec des logiciels propriétaires devient monnaie courante. La plupart des éditeurs de serveurs d'applications comme IBM et BEA intègrent le serveur Web Apache. Dans les entreprises, le logiciel libre cohabite désormais avec le logiciel propriétaire, parce que certains logiciels, libres ou propriétaires, sont mieux adaptés à des besoins spécifiques que d'autres. Et le choix d'un logiciel dépend de la satisfaction d'un besoin utilisateur et d'autres critères importants comme le ratio coût/performance, la fiabilité, la facilité d'intégration dans l'environnement existant, etc. Le poste client reste largement dominé par le système Windows de MS pour la richesse et l'intégration des outils et des applications. Le marché des serveurs est beaucoup plus fragmenté, car différents serveurs supportent différentes fonctions mieux que d'autres. Ainsi, des fonctions spécialisées comme la gestion d'imprimantes ou de messagerie sont de plus en plus réalisées par des solutions logiciel libre sous Linux. Mais les fonctions plus complexes comme la gestion de transactions ou la gestion de bases de données sont typiquement réalisées par des logiciels propriétaires comme Oracle, DB2 ou SQL Server. La standardisation des protocoles de communication entre serveurs tend à faciliter la compatibilité des serveurs hétérogènes. L'avènement de protocoles basés sur les standards du Web devraient améliorer encore cette interopérabilité et donc faciliter l'intégration entre logiciel libre et logiciel propriétaire. Le logiciel libre apparaît comme un complément souvent très intéressant au logiciel propriétaire plutôt qu'une alternative intégrale. Les professionnels de l'informatique et les utilisateurs ont bien compris tout le parti qu'ils pouvaient tirer du logiciel libre. La logique de marché doit donc naturellement réguler l'intégration logiciel libre/logiciel propriétaire.

Monde : http://www.lemonde.fr/article/0,5987,3416--283153-0,00.html

Microsoft lève petit à petit le voile sur son projet "Palladium"
Samedi, 13/07/2002 - 00:00

Microsoft a discrètement dévoilé au cours de la semaine dernière quelques détails de sa nouvelle initiative en matière de sécurité baptisée "Palladium" destinée à ses futurs systèmes d'exploitation. Les améliorations préconisées touchent autant les matériels que les logiciels. Palladium devrait faire partie intégrante de la prochaine version de Windows, connue sous le nom de code "Longhorn". Ce système offrira "aux particuliers et aux groupes d'utilisateurs une meilleure protection de leurs données, un meilleur respect de leur vie privée ainsi qu'une meilleure intégrité du système", selon John Manferdelli, chargé du projet Palladium, interviewé sur le site internet de Microsoft. L'une des améliorations vise à stocker des données sensibles, telles que les mots de passe, non plus seulement sur la partie logicielle mais également au coeur de l'ordinateur lui-même, en encodant des touches de clavier ou en faisant passer des signaux vidéo dans les branchements électriques par exemple. Pour parvenir à son objectif, Microsoft espère une collaboration de tout le secteur informatique et travaille déjà avec Intel et Advanced Micro Devices sur la future architecture de ce système de sécurité. En janvier dernier, dans une note au personnel, président-fondateur de Microsoft, Bill Gates, présentait les grandes lignes de sa stratégie "Trustworthy Computing" (Informatique fiable) dont Palladium semble l'une des premières briques. L'initiative porte le nom de la déesse censée protéger la ville de Troie (Pallas en français, ou encore Athéna). La légende voulait que, tant que la statue de Pallas (le Palladion) était en sûreté à l'intérieur des murs, Troie ne tomberait pas.

Reuters : http://fr.news.yahoo.com/020703/85/2nurp.html

Taxation des disques durs : deux poids deux mesures ?
Samedi, 13/07/2002 - 00:00

Il fallait s'y attendre. Après les supports analogiques puis numériques (CD, DVD...), les disques durs seront bientôt taxés. Ainsi en a décidé la commission Brun-Buisson, entraînant la colère des industriels. Le montant des redevances est calculé en fonction des capacités d'enregistrement. Pour les baladeurs et chaînes hi-fi, la taxe serait de 8 euros pour un disque dur inférieur à 5 gigaoctets et de 15 euros pour des disques allant de 15 à 20 gigaoctets. En revanche, les PC sont épargnés. La taxe sera appliquée 15 jours après sa publication au Journal Officiel. La décision a été prise avec une semaine de retard. La dernière commission réunie le 27 juin dernier n'avait pu se prononcer en l'absence des industriels, opposés à cette taxe. La nouvelle commission qui s'est déroulée jeudi n'était plus liée à la règle du quorum et a pu surmonter cet obstacle. Les réactions ont été immédiates. Le Syndicat des industries de matériels audiovisuels électroniques (Simavelec) a affirmé vendredi dans un communiqué que "la majorité de la Commission copie privée a adopté, en l'absence de tous les industriels, une décision injuste, déséquilibrée, hâtive et préjudiciable à tous les utilisateurs". Les industriels craignent un impact de 5 à 10% de hausse des prix des produits concernés, portant préjudice au consommateur. Le Simavelec s'est "réservé le droit de remettre en cause les décisions de la commission devant toutes les instances adéquates". En 1985, la loi "Lang" avait établi une première taxe sur la copie privée, touchant ceux qui enregistraient sur un support vierge une oeuvre originale. La taxe était jusqu'ici appliquée aux cassettes audio et vidéo. Avec l'avènement des nouvelles technologies, le principe de la taxe a été étendu début 2001 aux supports numériques tels que les DVD, les CD et les baladeurs MP3, avec l'appui du ministère de la Culture, alors dirigé par Catherine Tasca. Elle est reversée aux divers ayants-droits (maisons de disques, auteurs, compositeurs, artistes-interprètes...).

Tribune :

http://www.latribune.fr/Tribune/Articles.nsf/ArticlesWeb/ID02569C972AC6CAFFC1256...

France Télécom met la visioconférence devant le mur
Samedi, 13/07/2002 - 00:00

Cela ressemble à de la visioconférence. Mais le mur de téléprésence de France Telecom R&D n'en est pas vraiment. « Il s'agit d'un véritable tunnel de communication entre sites interconnectés. Les usagers sont en immersion totale avec le son et l'image », décrit Georges Buchner, chef de projet chez FT R&D. Le mur est actuellement testé entre Issy-les-Moulineaux et Lannion. Le système se présente sous la forme de miroirs dotés d'une caméra et de 21 micros situés à l'arrière. Miroirs qui peuvent s'accoler les uns aux autres (le prototype en comporte trois). Il suffit aux chercheurs de se placer devant ce mur d'images pour voir et entendre en temps et grandeur réelle ce qui se passe sur le site distant. Les miroirs inclinés selon un angle spécifique suppriment les erreurs de parallaxe, courantes dans les systèmes de visioconférence classique. Côté son, grâce à une antenne acoustique maison, les différentes sources sonores perçues sont localisées avec précision (spatialisation sonore), renforçant ainsi la sensation de présence. Autre atout : l'absence de larsen (retour de son dans le micro) et d'écho. Jusqu'à vingt personnes à la fois peuvent converser simultanément sans aucun problème de transmission. L'ingéniosité du système ne réside pas dans son matériel (micros, caméra et PC relativement standards), mais dans la puissance de traitement du logiciel de calcul maison baptisé econf. Notons que tous ces flux sont bien entendu compressés (normes H263+, G722) et transmis par le réseau haut débit de FT (VTHD), débit qui reste d'ailleurs plutôt élevé : 4 Mbit/s pour la vidéo, 1 Mbit/s pour le son. Une offre commerciale devrait voir le jour mi-2003. Cette innovation ouvre une nouvelle dimension à la visioconférence mais elle nécessite un débit encore rare en entreprise (5 Mbit/s).

OINet : http://www.01net.com/rdn?oid=188080&rub=3365

^ Haut
Avenir
Nanotechnologies et Robotique
Le neutron : un proton sans charge
Samedi, 13/07/2002 - 00:00

Les noyaux des atomes sont formés de l'assemblage de deux types de particules : les protons et les neutrons. Depuis la découverte du neutron, dans les années 1930, et notamment la mesure de sa masse en 1932, par le physicien anglais James Chadwick, les physiciens savent que ces deux particules se ressemblent beaucoup : même masse, mêmes interactions... Seule leur charge électrique, positive pour le proton et nulle pour le neutron, semble les distinguer. Cette ressemblance est d'ailleurs aujourd'hui la pierre angulaire des modèles qui permettent de calculer et d'expliquer les propriétés des noyaux. Pour étudier jusqu'à quel point proton et neutron sont interchangeables, une équipe rassemblant des physiciens de trois universités américaines a comparé les propriétés de noyaux atomiques « miroirs », dont les nombres de protons et de neutrons sont symétriques. Ils ont d'abord fabriqué de l'argon 32, avec 18 protons et 14 neutrons, et du silicium 32, avec 14 protons et 18 neutrons, deux types de noyaux qui n'existent pas naturellement car ils sont instables (l'argon ne contient habituellement pas moins de 18 neutrons, et le silicium pas plus de 16). Puis ils ont communiqué de l'énergie interne à ces noyaux par des collisions avec les atomes d'une feuille d'or. Les mesures réalisées sur ces noyaux miroirs ainsi « excités » révèlent qu'ils acquièrent les mêmes quantités d'énergie, avec les mêmes probabilités : ils ont donc des structures parfaitement symétriques. La Recherche : http://www.larecherche.fr

Un prototype de transistor à base de nanotubes de carbone en forme d'anneau
Samedi, 13/07/2002 - 00:00

Fuji Xerox a développé un prototype de transistor a base de nanotubes de carbone ayant la forme d'un anneau. Un nanotube de carbone a été place au centre d'un substrat en silicium créant ainsi un dispositif qui possède les propriétés intrinsèques du transistor. Certains nanotubes de carbone possèdent en effet des propriétés identiques a celles des matériaux semiconducteurs. Malgré les difficultés de conception, Fuji Xerox a découvert que les nanotubes de carbone " semiconducteurs " pouvaient etre fabriques en les exposant a des ultrasons, les déformant ainsi en anneaux de diamètres inférieurs a 100nm. Un groupe de chercheurs de l'Université de Nagoya a conduit des recherches sur les nanotubes de carbone et a démontré la possibilité de contrôler le courant dans les nanotubes en les remplissant de fullerènes (C60). Le nouveau matériau promet d'etre beaucoup plus petit et rapide que les semiconducteurs a silicium. Cependant, de nombreux obstacles subsistent quant a une généralisation de la mise en oeuvre. Par exemple, les transistors a base de nanotubes de carbone nécessitent l'utilisation d'un microscope spécial pour travailler sur le nanotube et manipuler les électrodes. La R&D sur une technologie permettant la production de masse n'a pas encore commence, car une technologie capable de produire des nanotubes de carbone de grande pureté, en grande quantité et a bas coût doit d'abord etre développée. Les experts ont prévu que les applications pratiques des nanotubes de carbone seront développées vers 2010.

Fuji Xerox : http://www.fujixerox.co.jp/eng/ )

^ Haut
Espace
Espace et Cosmologie
Essais réussis pour futur vaisseau européen de ravitaillement ATV
Samedi, 13/07/2002 - 00:00

Les tests de déploiement des panneaux solaires du Véhicule de transfert automatique (ATV/Automated Transfer Vehicle) viennent d'être réalisés avec succès, a annoncé, jeudi, le maître d'oeuvre du projet, EADS Lanceurs. Il souligne qu'une étape importante a ainsi été franchie dans le cadre de la campagne d'essais de ce futur vaisseau européen destiné au ravitaillement de la Station spatiale internationale (ISS). Réalisé sous la maîtrise d'oeuvre de cette filiale du groupe EADS (European Aeronautic Defence and Space Company) pour le compte de l'Agence spatiale européenne (ESA), l'ATV est le premier véhicule mis au point en Europe qui procédera à un amarrage avec une station orbitale. Neuf véhicules de ce type, qui serviront également à la remontée périodique de l'orbite de la station, doivent être lancés vers l'ISS par des fusées Ariane-5 à partir de l'année prochaine. Différents essais mécaniques et thermiques ont été menés depuis décembre au Centre d'essais techniques de l'ESA (ESTEC), à Noordwijk (Pays-Bas). La prochaine et dernière étape aura lieu dans les semaines à venir avec la conduite d'un essai thermique important pour vérifier la tenue de l'ATV dans un environnement spatial sévère, avec des températures externes pouvant varier de - 130 °C à + 150 °C selon l'exposition au soleil. Par ailleurs, la réalisation du premier modèle de vol de l'ATV "Jules Verne", qui doit rejoindre l'ISS en septembre 2004, a débuté parallèlement chez les principaux industriels européens. L'ATV est constitué de deux modules principaux, un module de service qui abrite tous les systèmes vitaux (propulsion, puissance électrique, calculateurs...) et un module de fret doté d'une partie pressurisée afin de permettre à l'équipage d'y pénétrer pour prendre livraison du matériel, transférer dans la station l'eau, l'air, l'azote et l'oxygène et d'y charger enfin les déchets. C'est chez Alenia Spazio à Turin (Italie) que doivent démarrer dans les jours qui viennent les travaux d'assemblage. Tous les éléments de l'ATV rejoindront ensuite Astrium Space Infrastructure à Brême (Allemagne) où sera réalisé le premier véhicule de vol. Les ATV de série seront produits également à Brême.

AFP : http://fr.news.yahoo.com/020704/202/2nwaj.html

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les deux tiers des cancers pourraient être évités ou guéris, selon l'OMS
Samedi, 13/07/2002 - 00:00

Un tiers des 10 millions de cas de cancer diagnostiqués chaque année pourrait être évités et un autre tiers pourrait être guéris grâce à une prévention plus active et à une détection plus précoce, révèle un nouveau rapport publié lundi par l'Organisation mondiale de la santé (OMS). "Il est possible, au moyen de dépistages et de traitements précoces, de prévenir un tiers et de traiter efficacement un autre tiers des 10 millions de cas de cancer diagnostiqués chaque année dans le monde", affirme le rapport "Programmes nationaux de lutte contre le cancer: politiques et principes gestionnaires", lancé à Oslo. Pour ce qui est du dernier tiers, des soins palliatifs efficaces peuvent contribuer à soulager sensiblement les souffrances, précise l'étude, "qui fera date" selon ses auteurs. Mettre pleinement en oeuvre les connaissances déjà existantes permettrait d'endiguer considérablement la mortalité liée au cancer, soulignent-ils. "Quelles que soient les contraintes budgétaires d'un pays, un programme bien conçu et bien géré peut améliorer la situation nationale et les vies de ceux qui sont atteints", a estimé la directrice générale de l'OMS, la Norvégienne Gro Harlem Brundtland. "Nous ne pouvons pas nous permettre de compter exagérément sur les possibilités thérapeutiques aux dépens des efforts de prévention et des soins palliatifs", a-t-elle déclaré. Selon l'OMS, le cancer tue plus de 6 millions de personnes par an, soit 12% du nombre total des décès, et ce chiffre devrait approcher le cap de 10 millions dans une vingtaine d'années. Sur les 10 millions de nouveaux cas actuellement diagnostiqués chaque année (20 millions attendus vers 2020), plus de la moitié affectent des personnes habitant dans des pays en développement. Cette maladie est aussi la deuxième cause de mortalité dans les pays industrialisés, après les maladies cardiovasculaires. Lors d'une conférence de presse, Mme Brundtland a recensé les principaux facteurs cancérigènes contre lesquels il faut lutter: "le tabac, une mauvaise alimentation, l'obésité et le manque d'exercice". Outre une mauvaise hygiène de vie, la directrice générale de l'OMS a également pointé du doigt la pollution.

OMS : http://www.who.int/inf/fr/cp-2002-52.html

Un essai de vaccination contre les maladies à prion
Samedi, 13/07/2002 - 00:00

Des chercheurs de l'Université de New York sont parvenus à retarder l'apparition d'une maladie à prion chez des souris grâce à une immunisation par une protéine prion modifiée. Les anticorps générés jouent un rôle critique dans la durée du retard observé. Selon ces chercheurs, leurs résultats qui seront publiés dans l'édition de juillet de la revue American Journal of Pathology sont les premiers à montrer que ce mode de vaccination peut retarder les symptômes dans un modèle naturel de maladie à prion chez des souris. Cette équipe tient à insister sur le caractère préliminaire de cette approche qui pourrait être éventuellement appliquée au bétail à long terme. Le Dr Einar Sigurdsson (professeur assistant de psychiatrie et pathologie à l'Université de New York) explique que le vaccin utilisé dans l'étude est basé sur la séquence normale des acides aminés de la protéine prion. « Nous créons des altérations dans la protéine prion pour réduire le risque toxique tout en maintenant un effet thérapeutique », commente Sigurdsson à ce sujet. Leurs résultats montrent que cette vaccination n'empêche pas l'apparition de la maladie. Cependant, elle permet de retarder l'apparition des symptômes dans le modèle animal utilisé. En d'autres termes, cette approche permet de rompre la tolérance naturelle au prion en induisant une réponse en anticorps chez la souris. En effet, ces chercheurs ont pu démontrer que les animaux qui résistaient le mieux à la maladie étaient ceux qui présentaient le titre en anticorps le plus élevé. Le Dr Thomas Wisniewski, un des auteurs de cette étude explique qu'il y a bien une réponse thérapeutique chez les animaux traités : « Ils mettent plus de temps à être malades ». Un point important de leur conclusion est le rôle apparemment critique des anticorps dans la réponse thérapeutique. « Cette étude montre qu'il est possible de bloquer l'infection par le prion grâce à une immunisation active ou passive », ajoute le Dr Blas Frangione qui a aussi participé à ces travaux. Ces scientifiques cherchent désormais à savoir si la protection est réellement due aux anticorps générés et analysent la région du prion modifié qui induit la réponse. New York University Medical Center and School of Medicine. :

http://www.med.nyu.edu/

Le lien entre cholestérol et maladie d'Alzheimer se précise
Samedi, 13/07/2002 - 00:00

Un lien entre la maladie d'Alzheimer et un taux élevé dans le sang de mauvais cholestérol ? Le Pr Vassilios Papadopoulos, biologiste à l'université de Georgetown aux Etats-Unis, mène actuellement des recherches dans ce sens. Il a notamment démontré qu'un taux élevé de LDL cholestérol dans le sang, accentue la présence de la protéine APP, dont la fonction dans le corps humain est toujours obscure pour le moment. En revanche parmi les patients victimes de la maladie d'Alzheimer, il paraît acquis qu'elle se transforme en protéine béta-amyloïde, dont l'accumulation en plaques autour des neurones est la caractéristique principale de la maladie d'Alzheimer. Papadopoulos a également montré qu'un taux élevé de mauvais cholestérol augmenterait la production d'une autre protéine, l'apolipoprotéine E. Laquelle est normalement affectée au transport du cholestérol dans le cerveau. Pourtant quand elle s'accumule, cette même apoliprotéine devient toxique pour les cellules nerveuses. CQFD...

The Journal of the Federation of American Societies for Experimental Biology :http://www.fasebj.org/

Les statines : une arme majeure contre les maladies cardio-vasculaires
Samedi, 13/07/2002 - 00:00

La prise quotidienne d'une nouvelle classe d'anti-cholestérol, les statines, pourrait réduire d'"au moins un tiers" le taux d'accidents vasculaires majeurs (infarctus et accidents vasculaires cérébraux), estime la revue médicale britannique The Lancet en publiant les résultats de ce qu'elle qualifie d'"étude-phare". Les maladies cardio-vasculaires sont la première cause de décès dans les pays développés, où elles surviennent dans 80 % des cas. Jusqu'à présent, les statines étaient seulement prescrites aux personnes souffrant de problèmes cardiaques et présentant un taux excessif de cholestérol. Mais l'étude HPS (Heart Protection Study) menée à l'Université d'Oxford (Grande-Bretagne), sous la direction du Pr Rory Collins, montre que ces médicaments réduisent aussi le risque d'infarctus et d'accident vasculaire cérébral chez les personnes atteintes de diabète, d'artérite ou celles qui ont déjà subi une attaque. "Plus étonnant encore, souligne la revue, l'étude met en évidence des bénéfices substantiels à la prise de statine chez les patients considérés à hauts risques cardio-vasculaires mais ayant un cholestérol +normal+ ou +bas+". "L'étude HPS fournit des preuves définitives que les recommandations de traitement en vigueur devraient être déchirées et remplacées, afin que ce médicament puisse être fourni à toute personne à risque, quel que soit son taux de cholestérol", estime le rédacteur-en-chef du Lancet, Richard Horton. Selon lui, "les résultats de cette étude sont à la fois les plus importants et ceux qui ont le plus d'implication dans la prévention et le traitement des maladies du coeur qu'il lui ait été donné de voir depuis une génération". L'étude HPS, la plus importante jamais réalisée, a porté sur plus de 20.000 personnes, dont 6.000 diabétiques et 10.000 femmes de plus de 65 ans. Elle a consisté à donner à la moitié des patients 40 mg par jour de statines pendant cinq ans tandis que les autres recevaient un placebo. L'étude a été menée avec la simvastatine, la statine commercialisée sous le nom de Zocor par les laboratoires Merck Sharp and Dohme (MSD). Avec 170.000 décès chaque année, les maladies cardio-vasculaires représentent la première cause de mortalité en France (32 % du total), devant le cancer ou les accidents de la circulation.

Lancet :

http://www.thelancet.com/journal/vol360/iss9326/full/llan.360.9326.talking_point...

Sida: 29 millions d'infections peuvent être évitées grâce à la prévention
Samedi, 13/07/2002 - 00:00

Environ 45 millions de personnes contracteront le virus du sida ces huit prochaines années mais 29 millions de ces infections peuvent encore être évitées si certaines des stratégies de prévention sont élargies, selon une étude publiée le 6 juillet 2002 dans la revue médicale "The Lancet". Ses auteurs, réunis par le Programme commun des Nations unies sur le VIH/SIDA (Onusida) et l'Organisation mondiale de la santé (OMS), estiment que l'expansion des efforts de prévention jusqu'en 2010 coûtera 27 milliards de dollars (environ autant d'euros), soit 1.000 dollars par infection évitée. Quelques jours avant la Conférence internationale sur le sida, qui se tiendra du 7 au 12 juillet à Barcelone en Espagne, les scientifiques préconisent de quadrupler les investissements préventifs, qui s'élèvent actuellement à 1,2 milliard de dollars par an dans le monde. "Cela coûte cher", a noté John Stover, l'un des chercheurs. "Mais ne pas appliquer ou retarder la mise en oeuvre de ces actions de prévention reviendrait encore plus cher". Selon lui, un retard de trois ans réduirait de moitié les infections évitées d'ici 2010. Les scientifiques préconisent d'élargir 12 interventions visant à réduire la transmission du VIH: des campagnes dans les médias; la promotion et la distribution des préservatifs par le secteur public; la commercialisation à but social du préservatif; des programmes de conseil et de test volontaires; la prévention de la transmission mère-enfant; des programmes dans le milieu scolaire; des programmes à l'intention des jeunes non scolarisés; des programmes sur les lieux de travail; le traitement des infections sexuellement transmissibles; le conseil par les pairs à l'intention des professionnel(le)s du sexe; des projets extra-institutionnels à l'intention des hommes ayant des rapports sexuels avec des hommes; et des programmes de réduction des risques à l'intention des consommateurs de drogues injectables. "La mise en oeuvre immédiate de ces interventions pourrait prévenir de nombreuses infections et modifier considérablement le cours de l'épidémie", considère Neff Walker, conseiller principal Modélisation et estimations statistiques auprès de l'Onusida.

Lancet :

http://www.thelancet.com/journal/vol360/iss9326/full/llan.360.9326.editorial_and...

Lancet :

http://www.thelancet.com/journal/vol360/iss9326/full/llan.360.9326.editorial_and...

Sida : le fossé se creuse entre le Nord et le Sud
Samedi, 13/07/2002 - 00:00

La XIVe conférence internationale sur le sida se tient alors que, jamais depuis le début de l'épidémie mondiale, le fossé n'a été aussi grand entre les pays développés, qui se soignent à grands frais, et les pays pauvres, qui ne ramassent que les miettes. La tenue de cette conférence - quelques jours après la publication par l'ONUSIDA, le programme commun des Nations unies contre le sida, de nouveaux chiffres-record sur la progression du virus - risque fort d'avoir un air de déjà vu. Certes, jamais la recherche n'est allée très vite. Mais depuis la précédente conférence, il y a deux ans à Durban (Afrique du Sud), rien n'a beaucoup changé sur le front de la maladie, ni dans ce pays africain, ni ailleurs. Dans les pays riches, le souci principal n'est pas tellement d'être soigné mais de faire le bon choix: le traitement qui n'entraînera pas de résistances ou d'effets secondaires indésirables. Par contraste, en Afrique du Sud, les médicaments anti-sida de base comme la névirapine - qui permettrait à une grande partie des femmes enceintes séropositives de ne pas contaminer leurs bébés - ne sont toujours pas distribués. Ils font même l'objet d'une âpre bataille juridique: l'Etat conteste un arrêt rendu par la Haute Cour de Prétoria en invoquant des recherches à poursuivre sur l'innocuité du médicament. Les copies bon marché des médicaments anti-sida, les génériques, qui avaient été au coeur du débat à Durban, commencent à arriver en Afrique, mais au compte-gouttes. Et, sur 10 millions d'Africains qui auraient besoin d'une trithérapie, seulement 30.000 en bénéficient, selon l'ONUSIDA. A ce jour, le sida est déjà responsable de la mort de plus de 20 millions de personnes et il pourrait en tuer prématurément 68 millions de plus d'ici 2020. Avec près de 30 millions de personnes touchées par le virus de l'immuno-déficience humaine (VIH) sur un total de plus de 40 millions, le continent noir demeure la principale victime de l'épidémie. Du moins tant que les chiffres exacts de la progression du virus dans les pays les plus peuplés du monde - Chine et Inde - restent "indisponibles". En Afrique australe, - où l'infection par le virus affecte maintenant une personne sur cinq en Zambie, un adulte sur quatre au Zimbabwe, un sur trois au Swaziland - la famine qui se profile et menace 13 millions de personnes risque d'avoir un effet dévastateur sur les populations, la malnutrition s'ajoutant aux déficits immunitaires liés au sida. En Inde, où vivent plus d'un milliard d'habitants, de 3,5 millions à 5 millions de personnes sont déjà affectées par le virus. En Chine, où la population est encore plus nombreuse, c'est, selon l'ONUSIDA, "une catastrophe de proportion inimaginable qui est sur le point de se produire". Officiellement, ce pays ne compterait "que" 30.000 porteurs du virus - dont au moins 100.000 contaminés dans des banques de sang - mais des experts chinois parlent déjà de 850.000. Sur le front de l'information, la situation n'est pas plus réjouissante: une récente étude des Nations unies montre que, dans certains pays du Tiers-Monde, un quart des personnes interrogées pensent encore que le sida est rarement mortel et un tiers des femmes ne savent toujours pas comment se protéger du virus. L'ignorance est encore plus importante dans les zones rurales. Mais l'épidémie n'a pas que des répercussions immédiates: elle menace aussi l'avenir des pays les plus affectés. En tuant leurs élites, leurs cadres et leurs enseignants, elle obère leur avenir. En frappant armées et forces de police - séropositives parfois dans 60% des cas - elle menace la sécurité des biens et des frontières. En anéantissant des villages entiers, elle mine l'agriculture et laisse des millions d'orphelins, désormais quasiment livrés à eux-mêmes. En Afrique seulement, ils sont déjà plus de 14 millions.

AFP : http://fr.news.yahoo.com/020707/202/2o0mc.html

Une longue fibre développée pour les os
Samedi, 13/07/2002 - 00:00

Une longue fibre utilisée pour les os artificiels a été développée lors d'un projet mené par le "Biomaterials Center" du "National Institute for Materials Science" et la "Tokyo Medical and Dental University". La fibre est créée en mélangeant une solution d'hydroxyde de calcium a une solution d'acide phosphorique de collagène extraite de porcs. A partir de ce mélange, l'équipe de chercheurs a réussi a élaborer un cordon de fibre de 3cm de long, soit beaucoup plus que les 1mm produits actuellement par les méthodes conventionnelles. Des tests ont été effectues sur un os de chien pendant trois mois et ont montre l'efficacité du matériau comme "pansement osseux": a l'issue des 3 mois, l'implant synthétique introduit a l'intérieur de l'os canin avait été complètement remplace par de l'os naturel. Asahi Optical Co. va essayer de commercialiser le matériau d'ici trois ans. En collaboration avec l'université de Keio, le Biomaterials Center a également développé un matériau a base de polyéthylène glycol qui pourrait contribuer a la régénération des cartilages.

BE Japon : http://www.adit.fr

L'asymétrie des organes dans le corps serait déterminée par de minuscules cils
Samedi, 13/07/2002 - 00:00

Une équipe de chercheurs de l'université de l'Utah et une équipe japonaise de l'université d'Osaka sont parvenues à confirmer et généraliser à l'ensemble des vertébrés une hypothèse établie en 1995 pour expliquer comment un embryon reconnaît sa droite de sa gauche. Plus exactement comment les organes internes asymétriques, comme le coeur, le foie, le pancréas, les reins l'intestin, se construisent. Ces chercheurs ont montré que le battement de cils microscopiques, découverts chez la plupart des groupes de vertébrés, détermine la position des futurs organes à droite ou à gauche du corps, selon une étude japonaise menée sur l'embryon de souris, publiée dans Nature. Alors que l'aspect extérieur du corps des vertébrés est symétrique, certains organes comme le coeur ou l'intestin se développent dans l'asymétrie. Ce mystère est donc en passe d'être résolu, selon ces travaux menés par l'équipe du Pr Shigenori Nonaka (université d'Osaka). Chez l'embryon de souris âgé de sept jours, on détecte la présence de filaments mobiles au niveau de cellules situées dans la partie supérieure de l'embryon. Les cils, d'abord découverts chez la souris, existent vraisemblablement chez la plupart des vertébrés, comme le montrent les travaux de Joseph Yost (Salt Lake City) publiés dans le même numéro de la revue scientifique britannique.Au cours d'un développement normal, le battement de ces minuscules cils génère un courant vers la partie ventrale de l'embryon. L'équipe du professeur Nonaka l'a décrit comme étant dirigé de la droite vers la gauche de l'embryon. Le sens de ce courant conditionne la position des futurs organes. Les chercheurs considèrent en effet que ce courant agit sur la concentration d'une molécule (ou un message chimique), encore non identifiée, responsable de la répartition des organes. Si cette molécule est déplacée vers le côté gauche de l'embryon, le développement est normal. Pour le prouver, les chercheurs ont d'abord modifié mécaniquement le courant généré par les cellules ciliées en l'inversant. Résultat : les organes normalement placés à droite se sont développés... à gauche. Chez des souris génétiquement modifiées pour être dépourvues de cils, ils ont par ailleurs constaté un développement aléatoire de l'asymétrie. Le développement de l'asymétrie a lieu au 8e jour d'une gestation qui en dure 21. Il reste à comprendre quelles sont les molécules dont la distribution autour de l'embryon provoque l'asymétrie, et comment est déterminée la direction du flux. La compréhension de cet l'enchaînement complexe devrait permettre, à terme, de prévenir la survenue des malformations congénitales.

Nature du 4-07-2002 :

http://www.nature.com/nature/links/020704/020704-1.html

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'OCDE prône un interventionnisme public éclairé en matière d'innovation
Samedi, 13/07/2002 - 00:00

Dans son dernier rapport, intitulé Dynamiser les systèmes nationaux d'innovation, l'OCDE (Organisation de coopération et de développement économiques) examine l'implication des pouvoirs publics en matière d'incitation des entreprises à innover. « Les gouvernements exercent de façon plus ou moins délibérée une grande influence sur les processus d'innovation lorsqu'ils financent et orientent les organismes publics directement impliqués dans la génération et la diffusion du savoir (universités, laboratoires publics de recherche...) et lorsqu'ils influent sur la motivation des acteurs du système d'innovation par les incitations financières ou des mesures réglementaires », explique Svend Remoe, un des coauteurs du rapport, qui collabore au secrétariat de l'OCDE. Dans son rapport, l'OCDE insiste sur le besoin de renforcer les compétences transversales des PME, la recherche de partenariats stratégiques et les transferts de technologies. Cette pratique de partage de l'information gagnerait à être encouragée, à l'instar de ce qui est fait par l'Union européenne (UE), puisque le budget communautaire de la recherche pour la période 1998-2002 s'élève à 15 milliards d'euros. En juin 2001, l'UE a soutenu 187 nouveaux projets en matière de R & D pour un montant de 500 millions d'euros. Une approche volontariste, admise même par les membres de la pourtant très libérale OCDE. « Un nouveau rôle s'impose aux pouvoirs publics : ils doivent être à même d'encourager l'innovation en intégrant la politique de création et de la technologie dans le cadre général de la politique économique », reconnaît Svend Remoe.

Rapport de l'OCDE :

http://www1.oecd.org/publications/e-book/9202072E.PDF

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top