|
|
|
|
|
NUMERO 452 |
|
|
|
|
|
|
|
Edition du 15 Novembre 2007
|
|
|
|
|
Edito
De l'homme reconstruit à l'homme augmenté : attention à ne pas franchir la limite éthique
Il y a quelques semaines, nous vous parlions des extraordinaires avancées de la médecine régénératrice, qui permettra dans quelques années de faire "repousser", tissus et membres. Mais avant de réaliser ces miracles de la biologie de demain, la science est déjà capable de réparer le corps humain, et parfois même d'en augmenter les capacités, grâce à la bionique, qui combine informatique, électronique, biologie et nouveaux matériaux. Dans un futur qui semble de plus en plus proche, l'homme pourra se doter (entre autres) d'une rétine artificielle, un exosquelette, un bras bionique ou un faux utérus. En mai 2001, l'électricien Jesse Sullivan a été victime d'un accident. Alors qu'il travaillait sur une ligne à très haute tension, il a subi une décharge tellement forte qu'on a dû lui amputer les deux bras jusqu'aux épaules. Des docteurs de la Rehabilitation Institute of Chicago (RIC) ont alors prélevé les quatre nerfs principaux de son bras et les ont implantés dans son thorax. Au bout de six mois, ces nerfs se sont développés dans le muscle. Ils ont ainsi pu lui greffer deux bras bioniques que Jesse Sullivan peut contrôler grâce à des signaux électriques envoyés par son cerveau. Il commande ainsi ses bras par la pensée Après l'homme bionique vient la femme. L'américaine Claudia Mitchell, 26 ans, a perdu son bras gauche en 2004, après un accident de moto. Deux ans plus tard, elle est devenue la quatrième personne et la première femme à être équipée d'un bras bionique. La prothèse électronique pèse 5 kg, est équipée de 6 moteurs et coûte 700.000 dollars. Elle est reliée directement au reste des terminaisons nerveuses du bras amputé. Les chercheurs du RIC (qui ont aussi procédé à cette greffe) pensent qu'elle pourrait même retrouver la sensation du toucher grâce à une nouvelle main équipée d'électrodes L'armée américaine s'est associée à des firmes qui ont investi 50 millions de dollars dans le but de produire des bras et mains artificiels "presque identiques aux membres naturels en termes de contrôle moteur et de dextérité, de sensibilité tactile, de poids et de résistance Je veux un bras avec lequel le patient puisse jouer du piano, mais du Brahms !" a-t-il déclaré à US News. Autre voie de recherche très avancée: l'exosquelette. Après 10 ans de travail, l'entreprise japonaise Cyberdyne a réussi à créer combinaisons robotisées baptisées [HAL-5 ">...] directement contrôlés par le système nerveux". L'objectif est d'aider les 450 soldats amputés depuis le début de la guerre en Irak. Le programme est très ambitieux, d'après son responsable Geoffrey Ling : "Je veux un bras avec lequel le patient puisse jouer du piano, mais du Brahms !" a-t-il déclaré à US News. Autre voie de recherche très avancée: l'exosquelette. Après 10 ans de travail, l'entreprise japonaise Cyberdyne a réussi à créer combinaisons robotisées baptisées [HAL-5 pour permettre aux personnes âgées ou handicapées de pouvoir se déplacer. L'exosquelette est équipé de capteurs chargés de détecter l'électricité (très faible) que l'homme produit quand il actionne un muscle. Les moteurs amplifient alors le mouvement. HAL-5 devrait être commercialisé avant la fin de l'année 2008. Les premiers modèles devraient coûter de 14.000 à 19.000 dollars. Juste après cet exosquelette, pourrait sortir le Power Pedal de Matsushita Electric (maison mère de Panasonic). Celui-ci, basé sur le même système, permet à son utilisateur de multiplier par sept la force de ses jambes, une possibilité qui intéresse au plus haut point les militaires qui pourraient disposer de commandos capables de se déplacer de plus de 100 km par jour à pied! Mais les chercheurs ne s'arrêtent pas en si bon chemin et essayent également de redonner la vue aux aveugles. La rétine artificielle est expérimentée depuis 2001, le Dr Alan Show a mis au point et implanté sur six non-voyants une puce électronique (ASR) pour leur permettre de percevoir la lumière et distinguer les formes en stimulant la rétine. D'après Alan Show, ce système" permet de reconnaître un visage ». Récemment, un nouveau pas dans le traitement de la vue a été franchi il y a quelques jours. Les Français José Sahel et Serge Picaud (de l'Institut de la vision) viennent d'être primés par la Fondation Altran.pour avoir inventé un rétine artificielle pouvant redonner la vue à certains aveugles. Le système : une mini-caméra accrochée à des lunettes envoie les images filmées directement au cerveau de l'aveugle grâce à une puce électronique implantée dans son oeil. José Sahel explique que cette prothèse permettra "d'une part, de reconnaître des visages et de lire de gros caractères et, d'autre part, de se déplacer de façon autonome dans un environnement restreint". Le principe est de stimuler les cellules rétiniennes restantes. Seul problème : la rétine artificielle n'aiderait pas les personnes "nées aveugles" car "le cerveau doit être éduqué à traiter les informations visuelles". Les tests sur des rats aveugles ont été concluants. Les premiers prototypes sont prévus pour 2009 et leurs applications pour 2011. Mais la science et la médecine iront peut-être encore plus loin en franchissant une limite que l'on croyait à jamais fixée et en faisant naître un enfant en dehors du ventre de la mère! Le philosophe et biologiste Henri Atlan, dans son ouvrage "L'utérus artificiel", affirme que d'ici 50 ans, il sera possible d'assurer le développement de l'embryon par ectogénèse, c'est à dire hors de l'organisme maternel. Ces utérus artificiels seraient emplis d'un liquide amniotique de synthèse et reliés à des machines qui leur fourniraient des hormones et nutriments. Après une fécondation in vitro, on placerait les embryons prélevés dans ces machines qui les développeraient pendant 9 mois. En 2002, à l'université de Cornell (USA), la biologiste Helen Hung Chung Liu a réussi à implanter des embryons humains dans une paroi d'utérus artificiel. L'expérience réussie a été arrêtée au bout de six jours. Elle pourrait être bientôt reproduite pour une durée de 2 semaines. Mais dans le futur il n'est pas non plus exclu que les femmes puissent faire des enfants toutes seules. En mai 2002, des biologistes japonais de l'Université agricole de Tokyo sont parvenus à créer en laboratoire une souris issue d'un ovule fécondé par un autre ovule, sans aucun apport de sperme. Tous ces travaux sont fait pour aider les mères stériles à avoir des enfants mais pourraient aussi permettre à celles qui ne veulent pas tomber enceintes de procréer aussi. Reste que ces progrès presque inimaginables il y a 20 ans à peine nous posent des questions morales, éthiques et sociales redoutables. Est-il en effet souhaitable, même si cela devient possible, de faire naître les enfants dans des utérus artificiels ou par fécondation sans spermatozoïde? Si nous pouvons demain décupler par des systèmes bioniques, nos capacités physiques ou intellectuelles (neuroprothèses), qui décidera de accès à ces technologies et comment prévenir les dérives criminelles ou élitistes de technologies aussi puissantes? Face à de telles interrogations, notre société et notre démocratie doivent de réapproprier la culture et le progrès scientifique, non pour le freiner mais pour lui donner un sens et l'humaniser. Il est paradoxal de constater que, dans notre pays, où de plus en plus de filières scientifiques ont du mal à recruter suffisamment d'étudiants et où la culture scientifique reste marginalisée par rapport à la culture littéraire, nous sommes de plus en plus confrontés à des choix de société capitaux provoqués par les avancées fulgurantes de la science. Il y a plus de 20 ans, Edgar Morin, penseur visionnaire, écrivait "Science avec conscience" et mettait en garde notre société sur les dangers de cette coupure accrue entre science et société. Aujourd'hui, cet avertissement prend tout son sens et nous devons réconcilier nos concitoyens avec la science et les associer au progrès scientifique, sous peine de provoquer de violentes réactions de rejets et le retour de mouvements obscurantistes et irrationnels très dangereux pour notre démocratie. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat Avec nos excuses de n'avoir pu envoyer cette Lettre la semaine dernière suite à un problème technique. L'Equipe @RT Flash
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Des chercheurs du Fraunhofer Institute ont mis au point un système d'écran avancé combinant des technologies de détection des mouvements et de diffusion d'images stéréoscopique. Capable de restituer les gestes distants de l'utilisateur en actions à l'écran, l'appareil permet une interaction homme-machine ne nécessitant aucun clavier d'ordinateur, souris ou encore écran tactile. Une innovation aux avantages évidents pour des applications en milieux stériles. Deux caméras disposées en surplomb de l'écran se chargent de détecter les mouvements effectués du bout du doigt, cette partie de la main faisant dès lors office de curseur. "Chaque caméra perçoit le doigt pointeur depuis un angle différent. Le logiciel en charge de générer les images peut ainsi identifier sa position exacte dans l'espace", explique Wolfgang Schlaak, directeur du département responsable du projet. Un système qui permet de sélectionner, d'orienter et de déplacer de façon intuitive les images ou modèles 3D visualisés. Une troisième caméra intégrée à l'encadrement de l'écran capte l'inclinaison de la tête de l'utilisateur, ainsi que l'orientation de son regard, oeil par oeil. Une technique qui permet au dispositif de générer des images stéréoscopiques au rendu visuel proche du relief. Les images restituées sont également instantanément adaptées en fonction des mouvements de tête réalisés. "De cette manière, l'utilisateur obtient toujours à l'écran une image 3D de haute qualité, même en mouvement. C'est essentiel lors d'une intervention médicale et cela permet au médecin d'agir plus naturellement dans le cadre de ses tâches habituelles", précise Wolfgang Schlaak. L'appareil, encore au stade du prototype sera présenté lors du prochain forum international pour la médecine Medica 2007. Le groupe de chercheurs à l'origine de cette innovation souhaite commercialiser ce dispositif 3D "sans contact" d'ici un an. FIT
|
|
|
|
|
|
|
|
La nature peut produire des composants informatiques. C'est le défi relevé par des scientifiques de l'Université James Clarck, qui utilisent le phénomène naturel de l'auto-assemblage, qui intervient par exemple lors du processus de cristallisation, pour développer des systèmes informatiques. Mais avec une grande innovation : alors que les scientifiques qui s'étaient déjà intéressé au phénomène dépendaient des structures mises en place par la nature, l'équipe du Maryland a développé un template (un modèle de conception) capable de guider ce processus pour organiser automatiquement des atomes selon un schéma défini. Le dispositif pourra s'intégrer à un grand nombre de composants : des semi-conducteurs pour ordinateurs portables, des puces pour téléphones mobiles ou des capteurs. Selon Ray Phaneuf, professeur associé de sciences matérielles et d'ingénierie, ce procédé naturel, appliqué à la fabrication de nano-composants informatiques, "ordonne les atomes, les rend accessibles, contrôlables et reproductibles - autant de caractéristiques cruciales pour une utilisation dans des appareils high tech". Il permettra également de réaliser d'importantes économies de coût, d'améliorer les performances des appareils, et, surtout, de gagner un temps précieux. "Même en ayant compris comment faire fonctionner des appareils nanométriques, la fabrication d'objets dépassant un certain nombre d'atomes prend toujours beaucoup de temps", souligne ainsi le chercheur. "L'industrie doit être capable de produire en masse ces produits sur une courte échelle de temps", ajoute-t-il. A terme, ce "template naturel" devrait aussi se révéler utile au niveau de l'informatique quantique, en simplifiant des systèmes pour le moment extrêmement compliqués. "Rassembler des unités de qubits pourrait être réalisé de manière optique, ce qui nous permettrait de venir à bout du problème de liaison de ces systèmes", conclut Ray Phaneuf. Les templates peuvent être fabriqués de plusieurs manières : en utilisant la photolithographie (un processus apparenté à la photographie et dans laquelle le template est chimiquement développé après avoir été exposé à la lumière) et la gravure à l'eau forte, ou par "nanoscraping", c'est-à-dire par l'utilisation d'une force atomique microscopique qui grave progressivement le modèle informatique souhaité sur le template. UJC
|
|
|
|
|
|
|
|
Les chercheurs du MIT en sont convaincus: la lumière, associée à des dispositifs nanométriques, sera prochainement au coeur des systèmes de télécommunications du futur. Dans cette optique, ils concoivent des microprocesseurs optiques "intelligents" capable de s'adapter à différentes longueurs d'ondes de lumière. Un concept qui pourrait être à l'origine de nouvelles fonctions dans les domaines des télécommunications et de la spectroscopie. Un processeur de ce type serait constitué de minuscules machines dotées de parties mobiles, elles-mêmes alimentées et contrôlées par la lumière qu'elles seraient amenées à manipuler, explique-t-il. Un procédé optomécanique n'induisant aucun courant électrique, et qui permettrait par exemple d'ajuster la largeur de bande passante allouée à un réseau de fibre optique. "L'idée que des appareils optomécaniques nanométriques puisse être capables de s'adapter à tous types de contrôles optiques en alignant leur résonance sur une fréquence optique, et en permettant des réglages via la lumière, est nouveau et excitant", a déclaré Erich Ippen, ingénieur associé au projet. A l'échelle microscopique, les variations de lumière peuvent sous certaines conditions générer une force appelée pression de radiation, une énergie dont il est possible de tirer parti. Pour se faire, le groupe de recherche propose la conception de minuscules dispositifs comprenant un processeur doté de cavités en forme d'anneaux de moins d'un millionième de mètre. En exerçant une "pression" suffisante sur ces cavités, celles-ci seraient capables de se déplacer et permettraient donc à ces micromachines optiques d'ajuster leur configuration en fonction du rayonnement lumineux, ce, sur un mode pouvant être prédéfini. "Notre objectif est désormais de développer une série de nanomachines alimentées par la lumière et dotées des propriétés uniques de cette technologie", a déclaré Milos Popovic co-inventeur du concept. MIT
|
|
|
|
|
|
|
|
Décidemment Google n'arrête jamais d'innover. Il lance User Generated 3D pour concevoir des univers en trois dimensions. Grâce au succès de son logiciel Google Earth téléchargé à plus de 200 millions d'exemplaires dans le monde, Google entend mettre les internautes à contribution pour concevoir les objets 3D. Après avoir racheté le logiciel SketchUp et l'avoir mis gratuitement à disposition des internautes, le groupe annonce ce matin la disponibilité de son logiciel de conception 3D en Français à l'adresse sketchup «Google SketchUp est un programme convivial de modélisation 3D, qui vous permet de concevoir la maison de vos rêves, de modéliser en 3D la grand-rue du village, ou même de dessiner une maquette de terrasse à ajouter à votre maison. Les outils simples et les assistants intelligents de Google SketchUp vous permettent de facilement donner vie à vos idées de design.» explique le groupe dans un communiqué. Outre SecondLife, qui propose aux internautes de créer des objets en 3D, SketchUp est également en concurrence avec les outils de créations de Dassault Système, champion français de la conception assistée par ordinateur, qui s'est d'ailleurs récemment associé à Microsoft pour peupler sa "Virtual Earth" d'objets 3D conçus avec ses solutions 3Dvia. Google vient également de présenter sa nouvelle stratégie mobile qui se nomme « Open Hands Alliance » et consiste effectivement en une suite applicative nommée « Android » permettant à différents terminaux certifiés de pouvoir accueillir les derniers logiciels mobiles de Google. Car Google ne construira pas lui-même les téléphones mobiles certifiés. Contrairement à Apple, le géant des moteurs de recherche va en effet s'allier à différentes marques qui ont dores et déjà signé pour développer leurs propres terminaux. Motorola, HTC, LG Electronics, ou Samsung vont d'ailleurs proposer prochainement de nouveaux terminaux Google. Ces derniers terminaux ne seront en revanche pas disponibles avant le second semestre 2008 et le mobinaute ne pourra pas transformer son mobile existant, même dernier cri, en un mobile certifié Google. Seuls les nouveaux mobiles actuellement en cours de développement seront en effet prévus pour faire tourner la suite logicielle mobile de Google. Cela fait donc maintenant près de trois ans que les ingénieurs de Google travaillent sur l'élaboration de ce projet en matière de mobilité, notamment depuis le rachat de la société Android basée à la Silicon Valley et acquise en 2005. Android sera d'ailleurs le nom de la plateforme mobile de Google. « Nous sommes en train d'amener l'Internet fixe dans le monde des mobiles d'une manière assez cool », précise non sans entrain Andy Rubin, le co-fondateur de Android devenu le directeur de la plateforme mobile de Google. D'ailleurs, Google précise que cet Android inclut à la fois un système d'exploitation, une interface utilisateur et des applications, le tout de manière entièrement gratuite. De quoi entrer en l'espace de quelques minutes en concurrence frontale avec les géants du secteur, Microsoft et Windows Mobile, RIM avec Blackberry OS ou Nokia. Netéco Neteco
|
|
|
|
|
|
|
|
La Commission européenne est favorable à ce que les régulateurs européens des télécoms puissent imposer aux opérateurs présentant un risque pour la concurrence, la séparation de leurs activés réseaux et services. Cette proposition très controversée devrait être présentée par Bruxelles mardi 13 novembre, dans le cadre du projet de réforme de la régulation européenne sur les télécoms.Défendue par la commissaire européenne aux Télécoms, Viviane Reding, cette proposition aurait obtenue un « large accord » au sein de la Commission. En France, Orange se dit hostile à une telle mesure. « Il y a un réel risque pour les réseaux de prochaine génération », a indiqué Jacques Champeaux, responsable de la règlementation chez l'opérateur, lors d'une conférence à Bruxelles. « Tout cela va dans la mauvaise direction. » Plusieurs autres ex-monopoles publics des télécoms en Europoe ont protesté contre les propositions de Viviane Reding, en arguant du fait que le risque d'une scission forcée de leurs activités les dissuaderait d'investir dans de nouvelles technologies de réseaux. Les nouveaux entrants estiment, en revanche, que cette mesure est nécessaire pour assurer une concurrence loyale et qu'une régulation efficace favorisera l'investissement. Bruxelles va bien tenir compte des investissements des opérateurs dans leurs réseaux, dans le cadre de sa proposition. Elle précisera qu'avant de rendre leur décision, les régulateurs locaux devront évaluer précisément l'impact d'une telle séparation sur les incitations à investir, que ce soit pour l'opérateur dominant mais aussi pour ses concurrents. Cette proposition doit encore obtenir l'aval du Parlement européen puis du Conseil. Son adoption éventuelle n'est pas attendue avant fin 2008. ZDNet
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Valérie Pécresse, ministre de l'Enseignement supérieur et de la Recherche, a signé, mercredi 7 novembre 2007, l'accord de siège ITER (Réacteur Expérimental Thermonucléaire International). Cet accord est la dernière étape d'un long processus qui installe définitivement le projet de recherche ITER à Cadarache (13). Ce projet consacre la position centrale de la France dans le mouvement mondial vers le nucléaire du futur qui délivrera une énergie propre et quasi inépuisable. Il illustre aussi l'excellence scientifique et technique des équipes de recherche et des industriels français dans le domaine nucléaire. Dans l'accord de siège ITER, l'Etat accorde une immunité spécifique et un régime fiscal dérogatoire à l'organisation et au personnel d'ITER, de son côté, l'organisation internationale s'engage à respecter les réglementations nationales applicables en matière de sécurité, d'hygiène, de conditions de travail, de respect de l'environnement et de sûreté nucléaire. Le projet ITER consiste à maîtriser l'énergie de combustion des étoiles, afin de disposer, à terme, d'une source d'énergie quasi inépuisable et non polluante. 34 pays prennent part à ce projet qui devrait coûter plus de 10 milliards d'euros sur 35 ans. Il est implanté au centre du Commissariat à l'Energie Atomique de Cadarache (13). Ce projet international de recherche est destiné à démontrer la possibilité d'une fusion thermonucléaire (comparable à ce qui se passe à l'intérieur du soleil) contrôlée. L'entrée en service du réacteur est prévue pour 2016. L'exploitation de la machine qui va être construite en Provence doit durer 20 ans et ce n'est que dans une quarantaine d'années que les scientifiques espèrent aboutir à une production industrielle de l'énergie produite selon cette nouvelle technologie. Romandie
|
|
|
|
|
|
|
|
Si la consommation énergétique mondiale poursuit la même tendance, elle devrait connaître un bond de 55 % dans le monde d'ici à 2030. C'est ce que révèle mercredi le rapport annuel "World Energy Outlook 2007" de l'Agence internationale de l'énergie (AIE) qui évalue les perspectives énergétiques mondiales. Les pays en développement devraient être responsables à 74% d'une telle hausse de la demande, dont 45% de hausse imputable à la Chine. La Chine, tout comme l'Inde, devrait voir sa consommation énergétique plus que doubler entre 2005 et 2030. La Chine devrait d'ailleurs dépasser la consommation des Etats-Unis autour de 2010 et devenir ainsi le premier consommateur mondial. "Les efforts énormes auxquels sont confrontées la Chine et l'Inde sont des défis mondiaux et attendent une réponse mondiale", prévient le rapport, invitant les dirigeants à influer sur les mutations énergétiques en cours. Par ailleurs, dans 25 ans, le pétrole restera toujours, et largement, la première source d'énergie dans le monde. Sa consommation devrait atteindre les 116 millions de barils par jour (mbj) contre 84 mbj l'année dernière. La production devrait accentuer sa concentration sur quelques pays du Moyen-Orient. Si l'AIE prévoit une hausse relativement modeste du cours du baril grâce à l'augmentation des capacités de production, elle n'exclut pas pour autant la possibiité d'une envolée des prix si les investissements ne suivent pas. "Les dix prochaines années seront cruciales pour tous les pays, y compris la Chine et l'Inde, en raison de l'expansion rapide des infrastructures d'approvisionnement en énergie. Nous devons agir dès maintenant pour parvenir à un changement radical dans l'investissement en faveur des technologies énergétiques les plus propres, les plus efficaces et les plus sûres." enerzine
|
|
|
|
|
|
|
|
IBM annonce avoir développé un procédé de recyclage de ses galettes de silicium destinées à fabriquer des microprocesseurs, qui pourrait soulager l'industrie des panneaux solaires, exposée à un manque en silicium raffiné. Le géant américain de l'informatique a déclaré, en effet, qu'il renonçait à la propriété intellectuelle liée aux déchets de ses galettes de semi-conducteurs, appelées « wafers », et qu'il était prêt à les vendre aux fabricants de produits électriques photovoltaïques. Chaque jour, près de 250 000 wafers sont produits à travers le monde pour fabriquer des puces destinées à toute une gamme de produits, tels que les téléphones portables ou les ordinateurs, ou utilisées dans les chaînes de contrôle de production, selon une association d'industriels du secteur. IBM estime que près de 3,3 % de ces wafers sont envoyés au rebut, soit près de 3 millions de galettes qui finissent en déchets chaque année, ce qui représenterait, selon la société d'Armonk, un potentiel de 13,5 mégawatts d'énergie solaire si le silicium était récupéré. Le chiffre ne représente qu'un petit pourcentage du marché de l'énergie photovoltaïque, la fabrication de panneaux solaires par le leader mondial Sharp correspondant à elle seule à un potentiel de près de 710 mégawatts par an. Mais Eric White, l'ingénieur en semi-conducteurs chez IBM qui a aidé à mettre au point le procédé de recyclage, indique que l'industrie des puces est en croissance et que de plus en plus de déchets de wafers pourraient être retraités pour le secteur du solaire. L'énergie solaire représente largement moins d'un pour cent de l'électricité produite dans le monde mais au cours des dernières années, la progression enregistrée par le secteur avoisinait les 30 à 40 % annuels. Cette année, l'industrie du photovoltaïque a rattrapé l'industrie informatique en matière de consommation de silicium, un matériau fabriqué à haute température et gourmand en énergie. Pour pallier la pénurie en la matière, la première usine de silicium spécifiquement consacrée à l'industrie photovoltaïque devrait bientôt voir le jour à Digne-les-Bains. Baptisé Silpro (Silicium de Provence), ce projet ambitieux est conduit par un consortium constitué par trois entreprises : la société française Photon Power Technologies (PPT), le groupe néerlandais spécialisé dans la fourniture d'énergie Econcern et la start-up norvégienne Norsun. Cette usine sera la première au monde à être dédiée exclusivement à la production de silicium polycristallin pour l'industrie photovoltaïque. IBM
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Des rayons cosmiques de très haute énergie, on ignorait presque tout. "Pour le dire simplement, on ne sait pas ce qu'ils sont, ni d'où ils viennent, et on se demande comment ils vont d'un point à un autre", écrivent les quelque 500 co-signataires d'un article publié vendredi 9 novembre dans la revue Science, où ils soulèvent pourtant un coin du voile sur ce mystère persistant. Ils y présentent les premiers résultats de l'observatoire Pierre-Auger (OPA), en phase d'achèvement dans la pampa argentine. Cette installation porte le nom du physicien français (1899-1993) qui fut le premier à observer, en 1938, les gerbes atmosphériques produites par l'interaction des rayons cosmiques avec l'atmosphère terrestre. Les dimensions de ce grand équipement, qui étend ses 1 600 détecteurs et ses 24 télescopes sur 3 000 km2, sont à la mesure de la rareté des phénomènes qu'il doit permettre d'élucider. Pour avoir une chance de pointer la source dont ces rayons cosmiques émanent, il faut en effet se concentrer sur ceux qui subissent le moins de déviation au cours de leur voyage dans le cosmos, les plus énergétiques, qui concentrent, sur une simple particule, l'équivalent d'un smash au tennis. Ceux-là ne croisent la Terre qu'au rythme d'un par kilomètre carré et par siècle... Depuis ses débuts en janvier 2004, l'OPA a vu passer plus d'un million de rayons cosmiques, pour l'essentiel de basse énergie. Seuls vingt-sept d'entre eux étaient dotés d'une énergie suffisamment élevée pour que l'on tente de superposer leur origine supposée avec les cartes dressées par l'astronomie classique. Cette comparaison semble donner pour source de ces rayons des noyaux actifs de galaxies se trouvant à environ 240 millions d'années-lumière, indique Antoine Letessier-Selvon, du laboratoire de physique nucléaire de hautes énergies (IN2P3/CNRS, Paris 6 et 7), qui a coordonné ces analyses : "Nous avons donc la preuve qu'ils sont d'origine extragalactique" - autrement dit, qu'ils viennent d'au-delà de la Voie lactée. Ces noyaux actifs ont pour origine l'effondrement du centre d'une galaxie vers un trou noir super-massif. Ce phénomène cataclysmique s'accompagne de jets de matière monstrueux (ils couvrent des milliers de milliards de kilomètres) et d'émissions lumineuses les plus puissantes de l'Univers. Les rayons cosmiques pourraient être émis à cette occasion. Reste à expliquer le mécanisme qui permet de leur conférer une énergie dix millions de fois plus élevée que celle atteinte dans les accélérateurs construits sur Terre. "Il faut pour cela à la fois un milieu très actif, pour engendrer les rayons cosmiques, et très peu dense, pour leur permettre de s'en échapper", indique Antoine Letessier-Selvon, qui admet volontiers que tout cela "reste énigmatique". LM
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Les émissions de gaz à effet de serre (GES) des 40 pays les plus industrialisés ont atteint 18,2 milliards de tonnes en 2005 contre 18,1 milliards en 2004. Selon le secrétariat de la convention-cadre des Nations unies sur le changement climatique (CCNUCC), basé à Bonn (Allemagne), le niveau le plus élevé a été atteint en 1990, avec 18,7 milliards de tonnes. L'augmentation de 2005 confirme la tendance à la hausse malgré les efforts de nombreux gouvernements pour réduire ces émissions. «Depuis 2000, les émissions de GES (...) ont augmenté de 2,6%», estime le secrétariat dans son premier relevé de données depuis 2005. Principaux responsables, les Etats-Unis, dont les émissions sont passées de 7,19 à 7,24 milliards de tonnes entre 2004 et 2005. Cependant, la hausse globale doit aussi à la reprise économique des pays de l'ex-URSS: les émissions de l'ancien bloc soviétique sont passées de 3,4 milliards en 2000 à 3,6 milliards en 2005, alors qu'elles se situaient à 5,6 milliards en 1990. De nombreux secteurs d'activités ont diminué leurs émissions au niveau mondial pendant cette période, comme l'agriculture, le traitement des déchets et les processus industriels. Le secteur de l'énergie a augmenté ses émissions de 0,5% durant cette période, les transports y contribuant le plus fortement. Autre mauvaise nouvelle : La croissance économique mondiale a provoqué un accroissement de la teneur en dioxyde de carbone (CO2) dans l'atmosphère beaucoup plus rapidement que prévu, selon une étude publiée dans les comptes rendus de l'Académie des Sciences des Etats Unis. Cette étude souligne que la concentration des émissions de gaz carbonique dans l'atmosphère a augmenté de 35 % en 2006, entre le début des années 1990 et les années 2000-2006, passant de 7 à 10 milliards de tonnes par an, alors que le protocole de Kyoto prévoyait qu'en 2012, ces émissions responsables du réchauffement climatique devaient avoir baissé de 5 % par rapport à 1990. "Les améliorations dans l'intensité carbonique de l'économie mondiale stagnent depuis 2000, après trente ans de progrès, ce qui a provoqué cette croissance inattendue de la concentration de CO2 dans l'atmosphère", indique dans un communiqué le British Antartic Survey, qui a participé à cette étude. Selon les chercheurs, les carburants polluants sont responsables de 17 % de cette augmentation, tandis que les 18 % restant sont dus à un déclin de la capacité des "puits" naturels comme les forêts ou les océans à absorber le gaz carbonique."Il y a cinquante ans, pour chaque tonne de CO2 émise, 600 kg étaient absorbés par les puits naturels. En 2006, seulement 550 kg par tonne ont été absorbés, et cette quantité continue à baisser", explique l'auteur principal de l'étude, Pep Canadell, du Global Carbon Project. "La baisse de l'efficacité des puits mondiaux laisse penser que la stabilisation de cette concentration sera encore plus difficile à obtenir que ce que l'on pensait jusqu'à présent", indique pour sa part le British Antarctic Survey. Ces résultats obligent à une révision à la hausse des prévisions du GIEC qui, dans son rapport de février, tablait sur une augmentation de la température moyenne de la terre de 1,8 °C à 4 °C à l'horizon 2100. UNFCC PNAS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Pour la première fois au monde suite à une rupture prématurée des membranes lors de la vingtième semaine de grossesse, des médecins de la Clinique universitaire de Bonn ont réussi une intervention intra-utérine consistant à forcer la croissance des poumons du futur nouveau-né, Miriam. Cette rupture prématurée de la poche des eaux génère pour l'enfant un risque important d'infections ainsi qu'une oppression de ses poumons par les autres organes. A la naissance, un enfant sur deux meurt asphyxié, ses poumons étant trop atrophiés ou son sang ne pouvant pas s'enrichir de façon satisfaisante en oxygène. Devant tous ces risques et notamment le risque d'infection, une interruption de grossesse est la plupart du temps pratiquée dans le cadre d'une rupture prématurée des membranes aussi précoce. Malgré les incertitudes sur la réussite de l'opération, les parents de Miriam se sont adressés à Thomas Kohl du Centre allemand de chirurgie foetale et de thérapies invasives minimales de la Clinique universitaire de Bonn (DZFT). L'intervention consiste à introduire un appareil nommé foetoscope, pas plus gros qu'une mine de crayon, via une petite incision dans l'abdomen de la mère. Ce dernier, guidé à l'aide d'une caméra et d'ultrasons, est alors introduit par la bouche de l'enfant. Lorsque la trachée est atteinte, un mini ballon est gonflé afin d'empêcher l'écoulement du liquide produit continuellement par les poumons prénataux. La pression ainsi engendrée force la croissance des poumons. Pour la première fois, Kohl a également utilisé de l'albumine : celle-ci a permis de majorer l'accumulation d'eau dans les poumons et de renforcer l'effet du ballon en latex. Ce dernier est resté en place 5 jours et le volume des poumons a ainsi pu être doublé. Après 33 semaines de grossesse, la petite Miriam a vu le jour. Des spécialistes du service de soins intensifs de néonatologie (NIPS) l'ont alors pris en charge. "L'intervention prénatale dure deux heures. Les soins apportés après la naissance sont au moins aussi importants" ajoute Kohl. Pour ses parents, Miriam est une "enfant miracle". Elle a désormais un an et grandit dans sa famille. Pour l'équipe de médecins, il s'agit maintenant d'étudier le potentiel de cette nouvelle méthode de traitement. BE
|
|
|
|
|
|
|
|
Après l'arabette, le riz et le peuplier, la vigne est la quatrième plante dont le génome est désormais entièrement décrypté. Fruit d'une collaboration entre le Genoscope et l'Inra en France, et plusieurs universités ainsi que l'Istituto di Genomica Applicata (IGA) en Italie, ce travail, dont les résultats ont été publiés à la fin du mois d'août dans Nature, va permettre désormais d'entamer la caractérisation détaillée de la fonction des gènes de cette plante. Une étape cruciale qui devrait permettre une meilleure compréhension de la variabilité génétique naturelle et de ses liens avec la variation des phénotypes mais également la réalisation de projets appliqués concernant par exemple la sélection ou la création de variétés de vigne résistantes aux maladies. D'où, à terme, une réduction de l'utilisation des pesticides permettant l'émergence d'une viticulture durable. Réalisé sur une lignée de vigne obtenue à l'Inra de Colmar, il y a une dizaine d'années, via une série d'autofécondations successives à partir du Pinot Noir, le séquençage a été lancé en décembre 2005. Un des principaux résultats de cette étude est l'existence chez la vigne de grandes familles de gènes intervenant dans les caractéristiques aromatiques du vin. C'est le cas, par exemple, des gènes codant pour Stilbène Synthase, une enzyme qui permet la synthèse du resveratrol, un composé qui a été associé à des bienfaits pour la santé en cas de consommation modérée de vin, ou encore des gènes intervenant dans la synthèse de terpènes ou de tanins, constituants majeurs des arômes, des résines et des huiles essentielles. BE
|
|
|
|
|
|
|
|
Un vaccin expérimental contre le tabac destiné à "immuniser" contre l'envie de fumer a donné des résultats prometteurs et pourrait un jour offrir une nouvelle solution pour aider les fumeurs qui n'arrivent pas à arrêté, selon une étude américaine dévoilée jeudi 8 novembre. Au cours des recherches sur le traitement, baptisé NicVAX, environ 15% des personnes ayant reçu cinq injections avaient arrêté de fumer au bout d'un an contre seulement 6% chez ceux qui en avaient reçu moins ou à qui on avait administré un placebo. Le principal intérêt du vaccin, dont l'efficacité est comparable à d'autres méthodes actuellement disponibles, serait d'offrir un nouvel outil important pour aider ceux qui n'ont pas réussi à "décrocher" avec d'autres moyens. Les résultats de l'étude, présentés mercredi à l'Association américain du coeur (AHA), ne prouvent pas que la nouvelle approche fonctionne mais sont jugés encourageants par certains. Le traitement "est clairement prometteur" et mérite une étude définitive, a souligné le Dr Frank Vocci, directeur du développement des médications à l'Institut national sur la toxicomanie, qui a donné huit millions de dollars (5,4 millions d'euros) pour les recherches sur le NicVAX. La commercialisation du vaccin n'est toutefois pas pour demain, tempère le Dr Stephen Rennard, de l'université du Nebraska, principal auteur de l'étude. Le vaccin, fabriqué par la société Nabi Biopharmaceuticals, basée à Boca Raton (Floride), empêche la nicotine d'atteindre le cerveau et du coup la sensation agréable que le fumeur peut ressentir lorsqu'il s'adonne à son addiction favorite. Cette stratégie -s'attaquer à la dépendance dans le cerveau- est différente de celles consistant à remplacer simplement la nicotine par des substituts comme les gommes, pastilles, patches et autres inhaleurs actuellement en vente. Trois cent un fumeurs de longue date ont participé à l'étude, recevant quatre ou cinq injections du traitement ou d'un placebo sur une période de six mois. Aucun ne savait s'il recevait le vaccin ou le placebo. Les premières injections "amorcent" le système immunitaire tandis que les doses suivantes l'amènent à produire des anticorps qui empêchent la nicotine d'accéder au cerveau et ainsi d'entretenir l'addiction. Au bout d'un an, six mois après que les participants eurent reçu la dernière injection, 14% de ceux qui avaient reçu une faible dose et 16% de ceux à qui on avait administré une dose plus forte avaient renoncé à la cigarette. En revanche, seulement 6% parmi ceux qui avaient reçu quatre injections ou le placebo avaient arrêté de fumer. "Ces taux d'efficacité sont comparables à ce qui est observé dans d'autres études sur des méthodes réputées fonctionner", souligne le Dr. Rennard. Deux participants ayant reçu le vaccin ont présenté des effets secondaires mineurs, précise-t-il. NO
|
|
|
|
|
|
|
|
Un casque, une télécommande, un écran : cet équipement sommaire suffira-t-il, demain, pour se muscler le cerveau ? Le culturisme des neurones servira-t-il à améliorer les facultés de concentration, à se mettre dans le meilleur état mental avant un examen ou un entretien d'embauche, à se préparer à un long voyage en voiture, à chasser les idées noires avant de s'endormir ? Certes, un certain nombre d'années s'écouleront avant que l'on puisse songer à offrir pour Noël une panoplie de "brainbuilding". Mais les progrès des neurosciences laissent entrevoir, pour la première fois, la possibilité d'interagir avec cet organe qui, de plus en plus, cesse d'être considéré comme une boite noire. Un casque, une télécommande, un écran : Jean-Philippe Lachaux, chercheur dans l'unité dynamique cérébrale et cognition de l'Institut national de la santé et de la recherche médicale (Inserm), à Lyon, n'hésite pas à parler de télévision du cerveau, ou de "Brain TV". Il sera bientôt possible, pense-t-il, de choisir, confortablement installé dans son fauteuil, une "chaîne" d'un type nouveau, correspondant à la visualisation en temps réel de diverses activités cérébrales. Certains patients, traités pour des formes graves d'épilepsie par le neurologue Philippe Kahane (CHU de Grenoble), se sont d'ores et déjà prêtés à l'expérience. C'est sur cette collaboration que reposent les travaux du neurobiologiste, dont les étonnants résultats viennent d'être publiés par la revue en ligne Plos One. "Ces malades sont les seuls sur lesquels on pose des électrodes à l'intérieur même du cerveau et dans des zones très différentes", indique-t-il. L'objectif : préparer l'intervention chirurgicale, qui vise à sectionner le réseau de neurones responsable des crises d'épilepsie sans endommager des régions cérébrales voisines importantes. Une quinzaine de tiges de 0,8 mm de diamètre, comportant chacune de 5 à 18 contacts, traversent ainsi la boîte crânienne et enregistrent, deux semaines durant, l'activité de zones très précises du cortex. Mais, contrairement à d'autres méthodes d'exploration cérébrale, les fonctions étudiées ne sont pas ici présupposées. Une patiente a ainsi découvert que, lorsqu'elle concentrait son attention visuelle sur un point, une courbe montait : la première chaîne de la Brain TV était réglée. Chaque réseau d'électrodes implantées pouvant fournir autant de chaînes que de contacts (100 à 200), la Brain TV devrait ainsi, progressivement, s'enrichir. Parallèlement à cet étalonnage, les chercheurs doivent mener une autre tâche, tout aussi essentielle. A qui donc, hormis ces malades, peut en effet servir la Brain TV si elle ne fonctionne qu'avec des électrodes implantées ? Pour augmenter son usage, il sera indispensable de mettre au point un système de casque fonctionnant avec quatre ou cinq électrodes posées à l'extérieur du crâne. C'est l'objet du programme "Open Vibe", financé sur trois ans par l'Agence nationale de la recherche (ANR) à hauteur de 400 000 euros. En partenariat avec l'Institut national de recherche en informatique et en automatique (Inria) de Rennes et France Télécom, l'unité Inserm de Lyon s'est fixé pour objectif, d'ici à fin 2008, la mise au point d'un logiciel d'analyse en temps réel de l'électroencéphalogramme (EEG). "Avec la technique externe qu'est l'EEG, on voit l'activité du cerveau comme si on observait une ampoule à travers un abat-jour", indique M. Lachaux. D'où, jusqu'alors, une forte imprécision sur la localisation des activités cérébrales sollicitées. Grâce aux informations obtenues avec les électrodes internes, cette incertitude est désormais réduite. Le diamètre des zones "corrélables" à une fonction précise passe ainsi de 5 cm à 1 cm. Du moins pour les activités du cortex situées à sa périphérie, tels le calcul mental, l'attention visuelle, la mémoire "de travail" (celle qui permet, par exemple, de retenir des numéros de téléphone), ou encore l'imagerie motrice (capacité à imaginer un mouvement). Sous réserve d'une meilleure présentation que les austères courbes actuelles, le "casque EEG" pourra ainsi servir à développer un véritable dialogue avec son propre cerveau. En ce sens, cette approche se distingue radicalement des autres techniques d'exploration cérébrale, telle que l'imagerie par résonance magnétique fonctionnelle (IRMf). Contrairement à ces instruments lourds et coûteux, réservés aux laboratoires ou aux hôpitaux et inadaptés au temps réel, la vocation de la Brain TV est de devenir un outil individuel à la portée du grand public. L'auto-examen cérébral deviendra-t-il une pratique courante dans les prochaines décennies ? Chacun d'entre nous utilisant sans doute son cerveau à sa façon, les variations entre individus imposeront alors un apprentissage personnel. Il deviendra possible, par entrainement, de développer ses facultés d'attention et de concentration. L'utilisation des signaux émis par le cerveau pourra également servir au contrôle des jeux vidéo. Plus de joystick ni de souris : une simple pensée suffira pour déclencher le déplacement d'un curseur à l'écran, la conduite d'un bolide ou le tir avec une arme. Certains équipements pour handicapés pourront, de même, être dirigés par la pensée. LM
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|