|
|
|
|
|
NUMERO 415 |
|
|
|
|
|
|
|
Edition du 25 Janvier 2007
|
|
|
|
|
Edito
Où en sera la science en 2055 ?
A quelles percées scientifiques et techniques doit-on s'attendre dans les 50 ans à venir ? Pour répondre à cette question, l'Institut pour le futur et la revue IEEE Spectrum ont interrogé 700 membres de l'IEEE (Institute of Electrical and Electronics Engineers), dans le cadre d'une grande “Enquête sur l'avenir de la science et de la technolgie”. Parmi les prévisions les plus consensuelles, on trouve des objets et capteurs intelligents, des nanomachines et nanorobots pour réparer et soigner le corps humain, des réseaux optiques "térabits" et des accès internet à un gigabit, des systèmes de traduction automatique universelle, des microprocesseurs de taille nanométrique ou encore le remplacement de nos lampes à incandescence par des diodes. Autres prévisions considérées comme probables à 15 ans, la possibilité de disposer de notre profil génétique personnel et la faculté de prévoir les catastrophes naturelles. Dans le domaine spatial les spécialistes interrogés pensent également qu'on aura découvert, d'ici 20 ans, des planètes semblables à notre terre et peut-être des traces de vie extraterrestre. En revanche, les experts de l'IEEE (majoritairement américains) ne croient guère au développement massif de robots humanoïdes chargés d'assister les futures personnes très âgées. L'ordinateur quantique n'est pas non plus considéré comme probable, même d'ici 2050. On mesure ici tout le poids du facteur culturel (les mêmes prévisions sont considérées comme tout à fait probables dans des pays comme le Japon ou la Corée) mais aussi des champs disciplinaires auxquels appartiennent les experts interrogés car la perspective de l'ordinateur quantique est admise sans problème par les scientifiques du New Scientist, plus ouverts et moins frileux dans leurs prévisions que leurs collègues de l'IEEE. En matière énergétique, l'IEEE croit aux piles à combustibles dans les voitures d'ici 20 ans mais pas au basculement dans l'économie de l'hydrogène ni au développement massif de l'énergie solaire. Là encore, on constate un conservatisme nettement plus marqué chez les experts de l'IEEE. En conclusion, les experts de l'IEEE articulent leurs prévisions autour de cinq grands axes thématiques : Des capacités illimitées de traitement et de transmission, gérées par une économie de l'abondance ; Les réseaux de capteurs et les objets "intelligents" Des infrastructures légères, standards, rapides à déployer, à mettre à niveau et à démanteler ; L'intégration des nanotechnologies, des systèmes micro-électromécaniques (MEMs) et des biosystèmes ; La “biologie étendue”, ou la convergence des biotechnologies et de l'électronique pour intervenir sur la vie elle-même. Il est intéressant de comparer ces prévisions de l'IEEE avec celles, nettement plus audacieuses, publiées par le New Scientist qui a demandé pour son 50e anniversaire à 70 des “plus brillants scientifiques” du monde (principalement anglo-saxons) de prévoir l'évolution des sciences et des techniques à l'horizon 2055. En matière de cosmologie et de physique théorique, le Prix Nobel Steven Weinberg pense que, d'ici 2055, les physiciens auront élucidé la nature et l'origine de la matière noire et de l'énergie répulsive "sombre" (qui s'oppose à la "gravitation") et auront construit un nouveau cadre théorique qui intègre de manière cohérente la relativité générale et la mécanique quantique. Plusieurs prévisions ressortent fortement des contributions : tout d'abord, la conviction (c'est notamment l'avis de Paul Davis et de Freeman Dyson) qu'on aura détecté un grand nombre de planètes semblables à la terre dans l'univers, et des traces de vie extraterrestre qui montrent que l'apparition de la vie n'est pas un phénomène unique et limité à la Terre. Steeve Squyres est du même avis et pense « qu'en tenant simplement compte du nombre de planètes similaires à notre terre qui doivent exister dans notre galaxie on peut raisonnablement penser que la vie est apparue et s'est développée ailleurs » Ensuite, et contrairement à ce que pensent les experts de l'IEEE, les scientifiques interrogés par le New Scientist (Anton Zeilinger notamment) pensent que, d'ici 20 ans, nous saurons produire et faire communiquer des ordinateurs quantiques, ce qui ouvrira des possibilités de calcul sans précédent, utiles notamment pour comprendre les mécanismes physiques et biologiques complexes, pour réaliser des simulations à grande échelle, pour manipuler d'énormes volumes de données ou encore, pour sécuriser les communications. Ces experts pensent qu'il sera également possible de modéliser de façon fine le fonctionnement du cerveau et de reproduire ou manipuler les comportements, perceptions et souvenirs. Ray Kurzweil et Igor Aleksander imaginent même, dès 2029, des ordinateurs capables de reproduire le fonctionnement du cerveau humain et disposant d'une conscience d'eux-mêmes. D'une manière générale, les scientifiques interrogés pensent que les processus informatiques devraient devenir moins étroitement mécaniques et déterministes pour se rapprocher de la manière dont notre cerveau traite les perceptions, par approximations, évaluations et inférences, ce qui permettrait par exemple aux robots de reconnaître un objet sans l'avoir jamais rencontré auparavant, une condition indispensable pour qu'ils puissent jouer un grand rôle dans nos vies quotidiennes. En matière de réseaux, Bruno Latour imagine que l'on saura visualiser les connexions entre les organisations humaines et les objets techniques, et comprendre la dimension humaine des systèmes techniques. La communication émotionnelle directe grâce aux interfaces neuroniques est également envisagée et Daniel Pauly imagine même un appareil capable de détecter et de nous communiquer les émotions et les “pensées” des animaux. Comme les experts de l'IEEE, les scientifiques interrogés par l'American Scientist sont persuadés que, d'ici 20 ans, on pourra faire séquencer son propre génome pour moins de 1000 dollars, ce qui permettra de détecter nos prédispositions à certaines maladies et d'appliquer des traitements personnalisés et préventifs. Devant la perspective de devenir tous centenaires, nous ne nous demanderons plus “combien de temps pouvons-nous vivre ?” mais, comme le pense Francis Collins, "combien de temps voulons-nous vivre" ? Edward Wilson, pour sa part, pense que la combinaison de la systémique, de la biologie et de l'informatique permettra d'établir une carte globale de la biodiversité et des espèces, dont beaucoup sont encore inconnues. En s'appuyant sur la possibilité pour chacun d'entre nous de visualiser sur le Net l'ensemble de notre planète, Jane Goodal prévoit pour sa part l'émergence d'une véritable conscience écologique planétaire qui deviendra un puissant contre-pouvoir économique et politique oeuvrant en faveur du développement durable. La prospective est un art redoutable et il est frappant de constater à quel point, à l'exception de quelques génies visionnaires, comme Jules Verne, Von Neumann ou Feynman, les scientifiques ont pu se tromper sur l'avènement ou le destin des grandes inventions. De grands esprits ont affirmé très sérieusement en leur temps que le train tuerait tous ses passagers au delà de 40 Km/heure ou qu'un engin plus lourd que l'air ne pourrait jamais voler. Au moment de leur invention, le téléphone, l'automobile et la radio ont été considérés par beaucoup d'esprits brillants de l'époque comme des gadgets inutiles et sans avenir ! Plus près de nous, il y a trente ans, on imaginait volontiers des voitures volantes propulsées par des piles nucléaires, des vacances sur la Lune ou des repas concentrés sous forme de pilules mais personne ou presque n'a prévu l'extraordinaire révolution numérique de l'informatique personnelle, de l'Internet et du mobile. On peut cependant se risquer à prévoir que, d'ici 2055, la convergence conceptuelle mais aussi opérationnelle entre les sciences de la matière (physique et chimie notamment), les technologies de l'information et les sciences du vivant va s'accélérer et redéfinir de manière radicale les frontières séculaires entre l'esprit et la matière, le vivant et l'inanimé, le naturel et l'artificiel. Pour la première fois depuis l'aube des temps, l'homme va sortir de son enveloppe corporelle et s'affranchir de ses limites spatio-temporelles pour explorer de nouvelles dimensions et expérimenter de nouveaux modes de communication avec tous les autres systèmes, vivants ou non, qui composent son environnement. Doté de ces nouveaux pouvoirs immenses, l'homme va pouvoir développer une intelligence et une conscience collective au niveau planétaire qui ouvrent de grands espoirs mais il aura également un pouvoir de nuisance et de destruction qui doit nous interroger et nous conduire à replacer la sagesse et l'éthique au coeur de notre réflexion, de nos projets scientifiques et de notre redéfinition du progrès. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
L'administration électronique vient de faire un grand bond en avant avec le lancement, le 24 janvier, du site « Administration 24h/24, un nouveau guichet administratif unifié virtuel qui permet l'accès à plus de 600 démarches administratives jusqu'alors éparpillées, soit les deux tiers des formalités existantes pour les particuliers et les entreprises. Grâce à ce portail polyvalent et fédérateur il devient possible, sur un site unique, de consulter son compte fiscal ou ses remboursements d'assurance maladie, de commander un extrait d'acte de naissance, demander une aide au logement, ou changer d'adresse. A ces télédémarches et téléprocédures s'ajoutent 65 « téléservices » destinés à faciliter la vie des usagers, avec notamment des calculettes pour la retraite, les impôts ou le boucler fiscal. Une soixantaine d'autres démarches, comme la demande d'aide juridictionnelle, la commande d'un certificat de propriétaire ou la déclaration d'accidents du travail, viendront s'ajouter dans le courant du premier semestre. Et 300 dans le courant de l'année. En pratique, pour sa première connexion, l'internaute est invité à emprunter au choix trois portes d'entrée différentes. L'une est thématique (famille, santé, voyage, logement, études, papiers, impôts...), l'autre propose d'accéder directement à une administration ou à un organisme public. La dernière prend la forme d'un moteur de recherche où chacun peut indiquer une requête. Les démarches sont partagées en neuf thèmes : famille, santé, travail, études, papiers, vie de citoyen, logement, voyages et impôts. Une aide en ligne intitulée la Maison d'Adèle est aussi proposée. Reste que certaines démarches (carte d'identité, passeport, visas) nécessiteront toutefois toujours un passage en bonne et due forme dans les administrations compétentes. Autre limitation de taille : le projet de loi «de simplification», qui doit permettre aux employeurs d'envoyer les bulletins de paie par Internet, est toujours en attente. Il ne sera probablement pas discuté au Parlement d'ici la fin de la session. A l'horizon 2008, toutes les démarches administratives se retrouveront en ligne. « Nous avons désormais rattrapé notre retard par rapport à nos voisins européens », relève Jean-François Copé, ministre délégué au Budget et à la réforme de l'Etat. « Nous y sommes arrivés parce que la France est l'un des pays qui propose une offre de services administratifs en ligne très vaste et de mieux en mieux structurée. » Symbole de cette réussite, selon le ministre : l'intérêt des Français pour la déclaration des revenus en ligne. Mais la mise en ligne des formulaires ne vise pas seulement à s'attribuer de bonnes notes à l'échelon européen. Elle permet également de réaliser des économies, en simplifiant les formulaires et en rognant surtout sur les effectifs. « L'objectif que nous nous sommes fixé, c'est de réduire de 20 % dès 2007 le coût des 110 formalités les plus courantes. Cela représente une économie totale de 200 millions d'euros », a expliqué Dominique de Villepin. Néanmoins, il n'y a pas encore de chiffrage précis des gains dégagés par le passage en ligne. Une évaluation précise sera opérée à la fin de l'année, a annoncé Jean-François Copé. La « révolution complète » n'est en tout cas pas attendue avant 2008, lorsque sortira mon-service-public.fr. Sur ce nouveau site, les usagers pourront stocker dans un « véritable coffre-fort électronique » leurs documents administratifs, par exemple l'avis d'imposition sur le revenu ou l'extrait d'acte de naissance. Contrairement au portail lancé mercredi 24 janvier, les usagers disposeront d'un identifiant pour personnaliser leur espace en choisissant les rubriques qui les intéressent. Administration 24h/24 PM
|
|
|
|
|
|
|
|
Pour la première fois, un avion en plein vol et un satellite géostationnaire sont parvenus à communiquer par faisceau laser. Les premières liaisons aéroportées se sont déroulées au mois de décembre entre un Mystère 20 du Centre d'essais en vol d'Istres (13), équipé d'un terminal optique, et le satellite géostationnaire Artemis. Le relais a été établi par six fois au cours de deux vols à 6 000 et 10 000 mètres d'altitude. Une prouesse que d'établir un signal lumineux entre deux corps dans l'atmosphère qui évoluent à des vitesses différentes et éloignées à près de 40 000 kilomètres. Développé par EADS Astrium pour le compte de la Direction générale de l'armement (DGA), le système de Liaison optique laser aéroportée (Lola) permet de transmettre très rapidement et à des débits très élevés des informations provenant de drones survolant le théâtre d'opérations militaires à des centres d'exploitation éloignés de plusieurs milliers de kilomètres. Pour l'heure, les opérations envisagées sont strictement militaires. « Mais Lola peut également répondre à des applications civiles », précise Vincent Cazaubiel, responsable du projet Lola chez Astrium, à Toulouse. Deux types d'applications peuvent être envisagées : la gestion de crise comme des tremblements de terre ou autres catastrophes naturelles mais aussi des opérations de surveillance, notamment le contrôle de la pêche illégale, la surveillance de détroits ou encore l'identification d'un bateau pollueur. Tous types d'opérations qui nécessitent une information rapide et des données précises. Après avoir validé la technologie, EADS Astrium s'emploiera, en février, à réaliser les applications en transmettant, cette fois, les premières images. « Le débit de la liaison laser entre l'avion et le satellite est actuellement de 50 Mbit/s et pourra aller jusqu'à 500 Mbit/s, ce qui est largement supérieur aux radio-fréquences en usage actuellement, observe Vincent Cazaubiel. La technologie optique combine la capacité de fournir un grand débit de données sur des fréquences libres, avec des terminaux plus compacts, et pour des communications plus sécurisées et sans interférence ». OINet
|
|
|
|
|
|
|
|
Le millésime 2006 aura été excellent pour l'ensemble du secteur informatique et le développement d'Internet dans l'Hexagone. Le taux d'équipement des foyers français en ordinateurs a en effet connu une progression spectaculaire l'année dernière et dépasse désormais la barre symbolique des 50 % à 55,1 %, soit plus de 14 millions de foyers, c'est ce qu'enseigne l'enquête annuelle GfK/SVM sur "les Français, la micro et Internet". Avec 4,5 millions d'unités vendues dans les circuits grand public en 2006, le marché des micro-ordinateurs a connu une année faste. "En conséquence, le taux d'équipement des foyers français a augmenté de 5,5 points", précise l'étude qui dans le même temps révèle que "le nombre de foyers connectés à Internet est passé de 9,8 à 11,7 millions, soit 46 % de la population". Des internautes qui optent massivement pour le haut débit, qui peut se vanter d'un bond de 11 points en 2006, puisque 86% des foyers connectés le sont via ADSL ou câble. Les sites marchands profitent en effet pleinement de la diffusion d'Internet. L'étude montre que le nombre de foyers cyber-acheteurs a augmenté de 1,3 million, soit 3 millions de nouveaux clients potentiels. En revanche, le budget moyen par foyer consacré aux achats sur la Toile a baissé à 611 euros en 2006, contre 666 euros en 2005. Quant à l'année 2007, elle devrait se poursuivre sur la même tendance avec un taux d'équipement des foyers qui selon les estimations de GfK pourrait dépasser la barre des 60 %, avec 5,2 millions d'ordinateurs vendus, dont environ 3 millions de portables. Concernant Internet, le taux d'accès devrait s'élever à 54 % des foyers et, parmi eux, 94 % d'abonnés au haut-débit. GfK note toutefois une baisse des téléchargements, dont le nombre est estimé à environ 620 millions de fichiers téléchargés en 2006. C'est moitié moins qu'en 2005. Le nombre de fichiers musicaux téléchargés s'est effondré notamment de 1 milliard à 420 millions en un an. Pourtant dans le même temps, le nombre d'internautes déclarant pratiquer le téléchargement est passé à 5 millions, contre 4,4 millions en 2005. Ce changement de comportement s'explique en partie par le fait que le téléchargement de pair à pair est devenu explicitement illégal, puni par un régime de sanctions définies par la loi DADVSI. Tribune
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Le robot peut-il devenir un ordinateur social ? En créant un langage universel multiplateforme et conférant aux néo-humains une solution de synthèse vocale basée sur Acapela, le Français Gostai attire à lui les projecteurs des passionnés et de l'industrie. Gostai est une petite société française dédiée à l'intelligence artificielle. Sa mission : développer une plate-forme robotique universelle, URBI, interfaçable avec la plupart des langages de programmation mais aussi multiplateforme. Pour offrir une solution de synthèse vocale la plus fluide et proche possible de la voix humaine, Gostai s'est adressé à Acapela. Cette collaboration industrielle doit permettre d'animer vocalement, en français et en anglais, les interfaces des robots avec des voix très naturelles, agréables et intelligibles. L'objectif est ambitieux : réunir les conditions pour la création d'un ordinateur "social". A vrai dire, URBI est une "petite révolution" dans le domaine : il offre en effet des solutions destinées à animer un robot, jusqu'au jeu vidéo, via un langage de script qui peut être interfacé avec des langages de programmation très courants (C++, Java, Matlab...) et les trois principaux systèmes d'exploitation (Windows, Mac OS X, Linux). URBI est basé sur une architecture client/serveur, intégrant des fonctionnalités d'exécution parallèle de commandes, de programmation d'événements, de tags de commande et de variables dynamiques. Actuellement disponible en version RC1, URBI vient d'être présenté au CES de Las Vegas. Selon son éditeur, il est "actuellement utilisé aussi bien par des laboratoires de recherche, que par l'industrie ou même des passionnés." TL
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les chercheurs de Hewlett-Packard ont réussi à concevoir un modèle de circuit logique programmable qui pourrait être 8 fois plus dense que les puces actuelles, tout en consommant moins d'énergie pour la même puissance de calcul. Le FPNI, -Field Programmable Nanowire Interconnect- est le projet expérimental de deux chercheurs de Hewlett-Packard, Greg Snider et Stan Williams, pour accélérer la vitesse des composants en adoptant la nanotechnologie. Leurs travaux, publiés dans la revue Nanotechnology, pourraient marquer une rupture dans les processus technologiques liés à l'évolution de la puissance des semi-conducteurs. Les méthodes traditionnelles de l'industrie ont fait leurs preuves, mais dans le même temps ont atteint des limites physiques en terme de vitesse. Ce qui a contraint les fondeurs, comme Intel ou AMD, à adopter de nouvelles stratégies pour augmenter les performances, en particulier en multipliant les coeurs sur un même processeur (multi-core). L'innovation d'HP repose sur l'empilement de la matrice de routage (Crossbar switch) au-dessus des blocs logiques. Il faut savoir que dans les FPGA actuels, la matrice de routage occupe une place très importante sur la puce. La placer sur une couche supérieure permet donc d'augmenter radicalement le nombre de circuits logiques, sans augmenter la surface de la puce. Le procédé simulé par les chercheurs de HP serait capable de réaliser une matrice de 15 nm de large seulement, connectée au reste du circuit par des “nanocâbles”. Ce genre de réalisation, baptisé FPNI (Field Programmable Nanowire Interconnect), serait accessible dès 2010. Pour 2020, la taille de la matrice pourrait être amenée à 4,5 nm. Un tel FPNI occuperait seulement 4 % de la surface du FPGA équivalent. HP pourrait relancer l'industrie dans une nouvelle course dont l'enjeu, comme il y a deux ans jusqu'à l'arrivée des processeurs double coeur, pourrait revenir à la vitesse. Tous les grands de l'électronique se livrent à une compétition technologique acharnée pour poursuivre la miniaturisation des circuits et composants électroniques et prolonger la durée de vie de la fameuse loi de Moore qui, depuis 1965, prévoit que le nombre de composants implantables sur une même surface double tous les 18 mois. Actuellement, Intel grave déjà ses plus petites puces en 65 nm et prépare pour 2008 le passage au 45 nm et pour 2010 le passage à 32 nm. Les autres industriels ne sont pas en reste et IBM a déjà réalisé en 2006 un circuit de seulement 30 nm, en utilisant une nouvelle technologie de lithographie reposant sur le gravage par ultraviolet profond. En janvier 2006, IBM, Toshiba et Sony ont annoncé qu'ils allaient unir leurs efforts pour réaliser d'ici 5 ans une nouvelle génération de semi-conducteurs et maîtriser la gravure à 35 nm. Infineon Technologies a mis au point en laboratoire un transistor dans le quel la source et le drain sont reliés par un nanotube en carbone de seulement 18 nanomètres de long. Chez Intel, le leader mondial, on pense que l'on pourra graver des puces de 5 nanomètres en 2018, une taille équivalente à celle prévue par HP à la même échéance. Grâce à ces progrès, l'électronique classique sur silicium et la loi de Moore ont donc encore une bonne dizaine d'années devant elles. Après 2020, pour descendre en dessous des 5 nm -seulement 50 atomes d'hydrogène- et accroître encore le rapport taille-puissance des puces, il faudra des ruptures technologiques radicales, comme l'ordinateur optique, l'électronique quantique et l'électronique moléculaire. HP Nanotechnologoy du 24-01-2007 RH EM
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
L'Inde a réussi pour la première fois de son histoire, à récupérer sur Terre une capsule spatiale qu'elle avait envoyée le 10 janvier, une mission en vue d'un futur vol habité dans l'espace. La capsule est tombée dans le Golfe du Bengale et est en cours de récupération par les garde-côtes, a indiqué un porte-parole de l'agence indienne de recherche spatiale (ISRO). L'ISRO avait lancé le 10 janvier une fusée transportant trois satellites d'observation géographique et météorologique et une capsule qui devait être ensuite récupérée sur Terre. Il s'agit pour l'Inde de se préparer à un vol habité dans l'espace. L'agence spatiale veut d'abord envoyer d'ici à 2009 une sonde inhabitée vers la Lune puis d'ici à 2013 une mission similaire vers Mars, avant de tenter d'envoyer un être humain dans l'espace. Le début du programme spatial indien a été marqué par le lancement, le 21 novembre 1963, de la fusée américaine Nike-Apache. Le premier satellite indien - le satellite météorologique Aryabhatt conçu en collaboration avec des chercheurs soviétiques - a été placé sur une orbite circumterrestre le 19 avril 1975. Aujourd'hui, le potentiel scientifique et technique de l'Inde lui permet de réaliser des commandes étrangères pour concevoir et lancer des satellites de différente vocation, mais aussi exporter des composantes de satellites et de fusées. Selon des experts indiens, les satellites actifs Insat-2 peuvent satisfaire la demande des services de télécommunication dans la plupart des pays d'Asie du Sud-Est. Pour le patron de l'ISRO, U.R. Rao, l'Inde offre toutes les conditions requises pour réaliser des vols habités et participer à des programmes spatiaux internationaux dans l'espace proche et lointain. Alors que l'Inde savourait son succès spatial, la Chine réalisait le premier essai réussi d'une arme antisatellite et confirmait ainsi la détermination de Pékin à se hisser parmi les plus grandes puissances, au risque d'affecter durablement ses relations avec les États-Unis et le reste de l'Asie, selon les experts. L'essai, annoncé par Washington, mais que Pékin n'a pas confirmé (ni démenti), serait le premier du genre depuis 1985, quand les États-Unis et l'Union soviétique avaient décidé de mettre un terme à la « guerre des étoiles ». Selon les services de renseignements américains, l'arme testée a neutralisé le 11 janvier un ancien satellite météo. Cet essai relance les craintes d'une militarisation de l'espace et montre que les satellites espions sont dorénavant « potentiellement vulnérables à une destruction par la Chine », souligne Lance Gatling, ex-officier américain, expert des questions aérospatiales, basé à Tokyo. L'essai a aussitôt déclenché des cris d'orfraie aux États-Unis, en Europe, en Inde et au Japon, mais les Chinois estiment ces réactions excessives, sinon hypocrites. « La Chine est en plein essor et il est naturel qu'elle tente d'appliquer au terrain militaire ses succès économiques », répond Zhu Feng, spécialiste des questions de sécurité internationale à l'Université de Pékin. « Nous aussi, nous sommes une grande puissance. Nous aussi, nous avons des inquiétudes légitimes et cruciales en matière de sécurité. Qui peut oser nous dire : “Bien sûr, la Chine est une puissance en devenir mais elle n'a pas le droit de se doter d'une politique de sécurité” ? » interroge le professeur Zhu. La Chine communiste a toujours considéré comme une menace les satellites américains qui l'espionnent en permanence. C'est la raison pour laquelle, depuis son lancement en 1956, le programme spatial chinois est aligné sur des objectifs militaires. La Chine a lancé sa première mission habitée dans l'espace en 2003, entrant dans ce club exclusif avec les États-Unis et la Russie, au grand désespoir du Japon. Elle a conduit en 2005 un second vol orbital avec deux astronautes et espère pouvoir lancer une sonde non habitée sur la Lune d'ici à 2010 et construire sa propre station spatiale. Pékin ne consacre cependant que 500 millions de dollars par an à ses programmes spatiaux, selon des chiffres officiels, comparativement à un budget de près de 17 milliards de dollars débloqué pour la NASA en 2007. L'entrée de la Chine dans le club des détenteurs de l'arme spatiale « fait grimper les enchères dans ce que certains perçoivent comme un mouvement inexorable vers la militarisation de l'espace », regrette l'analyste américain Lance Gatling. Le succès spatial chinois survient « en pleine crise nucléaire nord-coréenne » et « pourrait renforcer l'argument selon lequel le Japon devrait développer sa technologie spatiale de défense », plaide Yasunori Matogawa, professeur à l'Institut spatial et astronautique du Japon. Article @RTFlash RVIA LOLJ
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Pour déterminer le réchauffement à venir de notre planète, les scientifiques recréent dans des ordinateurs surpuissants les grandes forces à l'oeuvre dans la genèse du climat. Leur ambition : mesurer comment leurs interactions sont perturbées par l'action de l'homme. La rotation de la Terre, la gravité, la friction de l'air, les échanges d'énergie entre sol et atmosphère, le cycle de l'eau... sont mis en équations pour alimenter les programmes informatiques des climatologues. Ces modèles ne sont pas si différents de ceux utilisés au quotidien par les météorologues. Avec une différence : les échelles de temps. "Des processus lents, comme les échanges de carbone, sont importants pour le climat et pas du tout pour la météo", souligne David Salas y Melia, chercheur à Météo France. Les études sur le climat couvrant des centaines, voire des milliers d'années, on ne peut guère recourir à un maillage de la planète aussi fin que pour la météo, qui fonctionne à des échéances de quelques jours. "Dans cet exercice, on est obligé de mettre en oeuvre certaines simplifications, voire d'hypersimplifier, comme pour l'action des nuages", reconnaît Pascale Braconnot, responsable de la modélisation au Laboratoire des sciences du climat et de l'environnement (LSCE). Depuis 2001 et le dernier rapport du Groupe international d'experts sur l'évolution du climat (Giec), les modélisations ont progressé, notamment sur le "couplage" : on sait désormais faire fonctionner ensemble des programmes informatiques distincts, conçus à des échelles géographiques différentes. Les modèles couplés océan-atmosphère, rares il y a 5 ans, se sont généralisés et commencent à apparaître ceux intégrant le cycle du carbone (l'absorption du dioxyde de carbone par les végétaux). Reste à améliorer la représentation des nuages, qui peuvent avoir un effet refroidissant (en réfléchissant le rayonnement solaire) ou réchauffant (en empêchant le rayonnement infrarouge de la Terre de se dissiper). Les modèles prennent aussi mal en compte les poussières en suspension qui bloquent la lumière solaire, mais servent de "germe" pour la formation des gouttes de pluie. Les divergences entre modèles expliquent pour moitié l'incertitude régnant sur les projections du Giec, qui avait estimé il y a cinq ans entre 1,4° et 5,8° le réchauffement de la planète à la fin du siècle. Les autres incertitudes tiennent aux hypothèses retenues pour décrire la situation future de la planète. Va-t-on continuer à faire l'autruche devant les menaces du réchauffement ? Engager une lutte déterminée ? Ou adopter une position médiane ? A chacun de ces scénarios correspond une concentration déterminée de dioxyde de carbone dans l'atmosphère. Autre problème : si on sait depuis longtemps traduire en formules mathématiques les principes de la dynamique des fluides qui régissent les mouvements des mers et de l'atmosphère, la vie, elle, ne se laisse pas facilement réduire en équations. Le déboisement, la pollution des océans, le développement de la riziculture ont tous des effets sur le climat : un sol nu réfléchira davantage le rayonnement solaire qu'une forêt, le plancton croît moins bien dans des mers acides et stockera donc moins de carbone, les rizières dégageront du méthane, un gaz au puissant pouvoir réchauffant. Pour le directeur adjoint de la recherche de Météo France, Mme Pascale Delecluse, "la plupart des scénarios travaillent avec l'état de la Terre telle qu'on le connaît. L'outil ne permet pas encore de mesurer les effets d'amplifications" possibles dès que certains seuils auront été franchis : ralentissement des courants marins, dégazages massifs de méthane jusqu'ici piégé dans les sols gelés de Sibérie ou déstabilisation brutale d'une calotte polaire. RF
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des scientifiques canadiens ont fait une découverte qui pourrait révolutionner le traitement du cancer. Une équipe de l'université de l'Alberta a en effet démontré qu'une petite molécule peu toxique et peu coûteuse entraîne la mort des cellules cancéreuses. Contrairement aux cellules saines, les cellules cancéreuses se reproduisent sans fin, ce qui les rend dangereuses. Le Docteur Evangelos Michelakis, de l'université de l'Alberta pense avoir découvert une façon de reprogrammer leur mort avec une molécule appelée dichloroacétate ou DCA. Les cellules cancéreuses suppriment leurs mitochondries, ce qui donne à ces dernières un avantage sur les cellules non-cancéreuses. Comme les mitochondries contrôlent la mort des cellules, ce phénomène empêche les cellules cancéreuses de mourir. Mais, selon le Dr Michelakis, le DCA permet de renverser ce phénomène et de reprogrammer les cellules cancéreuses pour qu'elles redeviennent mortelles. "Le DCA va restaurer la fonction mitochondriale induisant la mort de la cellule cancéreuse", a expliqué le Docteur Sébastien Bonnet, qui fait partie de l'équipe de chercheurs. En outre, le "DCA n'a aucun effet sur les cellules saines alors qu'actuellement les médicaments ne sont pas capables de faire la différence entre une cellule cancéreuse et une cellule saine", a-t-il ajouté. Lors d'essais effectués sur des cellules cancéreuses humaines implantées sur des rats, le DCA a réduit la taille des tumeurs dans des cas de cancer du cerveau, du poumon et du sein. Comme le DCA est déjà utilisé pour le traitement d'autres maladies, les chercheurs comptent procéder aux essais cliniques chez des patients dès qu'ils auront rassemblé le financement nécessaire. Cancer Cell
|
|
|
|
|
Des chercheurs américains confirment les vertus protectrices de la tomate et du brocoli, particulièrement contre les cancers de la prostate. Et ce cocktail serait encore plus efficace lorsque ces deux légumes sont associés. Le Professeur John Erdman et son équipe (Université de l'Illinois) ont travaillé sur des rats dont la prostate était porteuse de cellules malignes. Après 22 semaines, ils ont observé une prolifération moins rapide de la maladie chez les animaux qui avaient bénéficié au quotidien, d'un régime à base de tomates et de brocoli. « Consommés ensemble, ils ont un effet positif » explique le Professeur Erdman. C'est au point qu'il les recommande « aux hommes âgés souffrant d'un cancer de la prostate, un cancer à la progression plutôt lente ». A condition de préférer les vraies tomates (non pelées) et les vrais brocolis à leurs dérivés. Cancer Research
|
|
|
|
|
|
|
|
Dans la population générale, les fonctions cognitives déclinent avec l'âge. Elles regroupent la mémoire, l'attention, le langage, les fonctions exécutives, la maîtrise de l'espace et l'imagerie mentale et réfèrent donc à la manière dont l'être humain perçoit les informations de l'environnement et s'en fait des représentations mentales. Elles sont le support de la pensée, de l'action et de la communication. Des taux bas de folates et des taux élevés d'homocystéine dans le sang sont, parmi d'autres facteurs de risque, corrélés avec de faibles performances cognitives, encore que la causalité de leurs effets ne soit pas établie. Les auteurs de cette étude se sont donné pour but d'étudier les effets de la supplémentation en acide folique sur les performances cognitives. Les participants de l'étude FACIT (Folic Acid and Carotid Intima-media Thickness, non encore publiée) dont l'objectif principal porte sur l'effet de l'acide folique sur les marqueurs de l'athérosclérose chez des hommes et femmes de 50 à 70 ans ont été évalués quant aux conséquences d'une supplémentation en acide folique sur les fonctions cognitives. A l'entrée, les sujets présentaient un taux élevé d'homocystéine totale dans le plasma et un taux normal de vitamine B12. FACIT est une étude randomisée en double aveugle contre placebo qui s'est déroulée entre novembre 1999 et décembre 2004 aux Pays-Bas : 818 participants ont été randomisés pour recevoir soit 800 μg par jour d'acide folique soit un placébo pendant 3 ans. Les effets sur les fonctions cognitives ont été mesurés par la différence de performance entre les 2 groupes après 3 ans de suivi. Au total, la supplémentation de 800 µg d'acide folique par jour pendant 3 ans chez des personnes âgées a significativement ralenti le déclin des résultats sur 3 tests de la fonction cognitive mais n'a pas eu d'effet sur la démence (test MMSE). Cependant il faut noter de bons résultats sur la mémoire, sur la vitesse d'intégration centrale de l'information et sur l'évaluation globale moyenne de la fonction cognitive. Lancet
|
|
|
|
|
|
|
|
Un homme de 27 ans souffrant d'une maladie incurable déformant son visage a bénéficié de la deuxième greffe partielle du visage réalisée en France et de la troisième dans le monde, alors qu'une équipe britannique projette une première greffe complète du visage. "Le patient va bien d'un point de vue chirurgical", a déclaré lors d'une conférence de presse le Professeur Laurent Lantiéri, chef de service de chirurgie plastique et reconstructrice au CHU Henri-Mondor de Créteil (Val-de-Marne), après cette transplantation de la "partie basse de la face, ou triangle bouche-nez". "Mais il va falloir attendre de nombreux mois pour voir le résultat" a-t-il ajouté, évoquant le "risque de rejet aigu" du greffon malgré le lourd traitement immunosuppresseur, la nécessité de voir si le patient retrouve la motricité de son visage et si les nerfs repoussent. Suivi depuis 1995 à l'hôpital Henri-Mondor, le patient souffrait d'une "forme extrêmement particulière, avec envahissement de la totalité de la face" de tumeurs cutanées bénignes et inesthétiques causées par la maladie de Von Recklinghausen aussi appelée neurofibromatose de type 1. Il s'agit de la deuxième maladie génétique en France après la mucoviscidose, mais guère plus d'une dizaine de patients dans le monde souffrent "d'une tumeur aussi étendue sur le visage" qui pourrait justifier une greffe de la face, a précisé le Professeur Pierre Wolkenstein. Déjà opéré une trentaine ou une quarantaine de fois avec un "résultat acceptable sur les paupières", le patient dont la maladie s'était fortement aggravée à l'adolescence avait "des lésions terribles", "n'arrivait plus à s'alimenter correctement à cause d'une lèvre trop lourde" et souffrait aussi de "difficultés d'élocution", selon le Professeur Lantiéri. En liste d'attente depuis août, le patient dont l'anonymat a été préservé a été opéré après qu'un donneur compatible eut été trouvé, a indiqué le Professeur Lantiéri, remerciant fortement la famille du donneur. L'intervention, particulièrement difficile parce qu'il a d'abord fallu retirer le tissu pathologique, ce qui est "extrêmement hémorragique", avant de greffer le tissu sain, a duré quinze heures. Le "greffon sain ne sera pas regagné par la maladie", a assuré le Professeur Wolkenstein. Le médecin a prévenu qu'il faudrait "attendre de nombreux mois avant de connaitre le résultat", même si, "actuellement, le patient va bien du point de vue chirurgical". Le chirurgien plasticien a notamment souligné qu'il faudrait surveiller "la repousse ou non-repousse des nerfs faciaux", puis la "motricité" du visage, enfin la possibilité de "retrouver une vie sociale correcte et l'anonymat de la vie de tous les jours". L'équipe du Professeur Lantieri avait reçu l'an dernier l'autorisation de l'Agence française de sécurité sanitaire et des produits de santé (Afssaps) de pratiquer cinq greffes partielles du visage en trois ans, dans le cadre d'un protocole de recherche. L'équipe du Professeur Bernard Devauchelle, qui a réalisé le 27 novembre 2005 à Amiens la première greffe mondiale du triangle nez-lèvres-menton sur Isabelle Dinoire, âgée de 38 ans, défigurée par son chien, vient également d'être autorisée à pratiquer cinq greffes similaires d'ici 2010, selon l'Afssaps. Canada.com
|
|
|
|
|
|
|
|
Des chercheurs de la faculté de médecine de Duke University (Caroline du Nord) ont découvert qu'une région du cerveau était plus active chez les altruistes que chez les égoïstes. Dans cette étude, qui paraît dans l'édition de Nature Neuroscience de février, les chercheurs ont scanné par résonance magnétique le cerveau de 45 personnes regardant ou jouant à un jeu vidéo. Certaines personnes ont montré une forte activation du sillon temporal supérieur, une région habituellement associée à la perception d'une action intentionnée. "Nous avons vu une activation de cette région du cerveau et cela nous a surpris. Elle est liée au fait de percevoir un but derrière une action", a indiqué à l'AFP Scott Huettel, professeur de psychiatrie à Duke University, qui a supervisé l'étude. Parallèlement, les personnes étudiées ont répondu à un questionnaire leur demandant si elles aidaient souvent des amis, faisaient volontiers une bonne action ou des dons à des organisations de charité, ce qui a permis de leur attribuer une note d'altruisme. Ceux qui avaient les meilleures notes d'altruisme étaient aussi ceux dont la région du sillon temporal supérieur était la plus active en regardant le jeu vidéo, c'est-à-dire ceux qui reconnaissaient le mieux l'intention derrière l'action, a expliqué le professeur Huettel. Cette partie du cerveau était en général plus active lorsque la personne étudiée regardait seulement le jeu plutôt que lorsqu'elle y jouait elle-même. "Ce que nous avons découvert, c'est une corrélation. Donc nous ne savons pas tout, notamment sur les causes de ce lien", a précisé le professeur Huettel. "Comprendre la fonction de cette partie du cerveau ne va pas forcément nous informer sur les motivations d'une Mère Teresa mais cela pourra nous donner des indices sur l'origine de cet important comportement social qu'est l'altruisme", affirme ce chercheur. DU
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|