RTFlash

RTFLASH Recherche & Technologie
NUMERO 458
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Janvier 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le laser sera au coeur de la miniaturisation informatique
De nouvelles villes en 3D avec les PagesJaunes
Un nombre d'adresses IP presque illimité avec le déploiement de l'IPv6
Avenir
Le nouveau robot humanoïde ASIMO de Honda est de plus en plus intelligent
Matière
Géothermie profonde : les premiers kilowatts en 2008
Fabriquer des biocarburants avec du gaz carbonique
Espace
Corot a bien commencé sa moisson de planètes
Terre
Les niveaux des mers et des océans pourraient augmenter plus vite que prévu
Vivant
Quand les cellules cancéreuses donnent l'alerte aux lymphocytes NK
Médecine : l'ordonnance médicale s'automatise
Un rein artificiel portable pour changer la vie
Observation de l'ADN : une avancée majeure
ADN: une nouvelle méthode de séquençage bien plus rapide
Création de vaisseaux sanguins artificiels par croissance contrôlée
Thé vert : il réduit bien le risque de cancer de la prostate
Le chocolat noir a-t-il des propriétés anti-athérogènes ?
Comment le cerveau se spécialise-t-il pour produire la parole ?
Des singes aussi doués que des étudiants pour le calcul mental
Edito
vaccin contre l'hépatite B : il faut rétablir la vérité !



En France, la vaccination contre l'hépatite B n'à jamais atteint un niveau comparable à celui d'autres pays européens, freinant considérablement la lutte contre cette maladie. Dans notre pays, seuls 40 % des enfants sont vaccinés alors que l'OMS recommande 90 % de couverture vaccinale et souligne que le virus de l'hépatite B est à l'origine de 60 à 80 % des cancers primitifs du foie enregistrés dans le monde. L'hépatite B est une maladie grave, provoquée par un virus, mais il est possible de s'en protéger depuis 1982 grâce à la vaccination.

Aujourd'hui, 300 000 Français sont contaminés par le virus de l'hépatite B et ce chiffre a doublé en dix ans. En mai 2007, une étude de l'INSERM a révélé que le nombre annuel de morts liés au virus de l'hépatite B ou C était d'au moins 4 000 : près de cinq fois plus que le nombre de décès dus au VIH ! Or, si le vaccin contre l'hépatite B ne guérit pas les porteurs chroniques, il est efficace à 95 % pour prévenir l'apparition d'un état de porteur chronique.

Face à cette situation, le Professeur Jean-Pierre Zarski, président de la Fédération des pôles et réseaux hépatites vient de lancer un appel pour que les pédiatres et les généralistes appliquent systématiquement les recommandations vaccinales officielles qui préconisent une immunisation des nourrissons à l'âge de deux mois. Pour Jean-Pierre Zarski, non seulement cette vaccination précoce est indispensable, mais des programmes de rattrapage pour les enfants et les adolescents non vaccinés devraient également être mis en place par les professionnels de santé.

L'urgence qui caractérise l'appel du professeur Zarski vient d'être confortée par une étude publiée le 25 décembre dans le Bulletin épidémiologique hebdomadaire. Les auteurs, membres de l'Institut national de veille sanitaire (InVS) rappelent que « depuis mars 2003, la surveillance des infections aiguës par le virus de l'hépatite B repose sur la déclaration obligatoire des cas ». Leurs travaux étaient destinés à « évaluer l'exhaustivité de la déclaration obligatoire et à estimer l'incidence » de l'hépatite B. Leurs résultats mettent en évidence qu'en 2006 « 469 cas correspondant aux critères de notification ont été retenus comme des hépatites B aiguës ». Les comportements sexuels à risque (35,5 % des cas) et les voyages en pays à risque (22,6 %) représentent les principaux motifs de contamination. Au-delà de ces chiffres, le commentaire des auteurs est sans ambiguïté : « La moitié des cas auraient pu être évités si les recommandations de vaccination en vigueur avaient été respectées ».

Parmi les raisons qui peuvent expliquer cette dramatique insuffisance de notre couverture vaccinale en matière d'hépatite B, on trouve évidemment la rumeur tenace, mais sans aucun fondement scientifique, d'un possible rapport entre la vaccination contre l'hépatite B et le déclenchement de la sclérose en plaques. Pourtant, récemment, l'équipe du Docteur Yann Mikaeloff a suivi 143 enfants qui, avant l'âge de 16 ans et entre 1994 et 2003, avaient développé une sclérose en plaques. Tous ont vu leurs carnets de vaccination et leurs antécédents familiaux de maladies auto-immunes, dont la sclérose en plaques, passés au crible. Les résultats ont ensuite été comparés à ceux d'un groupe contrôle. La conclusion de cette étude est sans appel et montre, comme les douze études précédentes réalisées sur ce sujet, que la vaccination contre le VHB n'augmente pas le risque de sclérose en plaques chez l'enfant. Chez aucun des jeunes malades suivis, un quelconque lien entre le vaccin contre l'hépatite B et la SEP n'a été établi. Un constat qui vaut « pour toutes les marques de vaccin anti VHB disponibles » concluent les auteurs. Ces résultats tirent leur force de la pertinence de la méthodologie utilisée et de la précision des données recueillies.

Face à ces récentes et incontestables confirmations scientifiques portant à la fois sur l'ampleur et la gravité de l'hépatite B dans notre pays et sur l'efficacité et l'innocuité du vaccin existant contre cette maladie, on ne peut que souhaiter que la France engage enfin une politique volontariste de lutte contre ce fléau et mette en oeuvre, comme cela est le cas chez tous nos voisins européens, une vraie politique de prévention vaccinale contre l'hépatite B. Ce combat ne doit pas seulement être celui des spécialistes et professionnels de santé mais mérite également être soutenu par une large majorité de Français afin que, demain, des milliers de vies puissent être sauvées.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le laser sera au coeur de la miniaturisation informatique
Vendredi, 04/01/2008 - 00:00

Une technologie nanolaser pourrait bien donner un souffle nouveau à l'industrie de la miniaturisation informatique. Un domaine dans lequel les technologies actuelles semblent avoir atteint leurs limites. Une équipe de recherche de l'Université Riverside (UCR) a en effet mis au point un système laser permettant de concentrer la lumière sur 30 nanomètres de largeur. Lumière qui pourrait à terme être le vecteur de l'information en remplacement des technologies basées sur l'électromagnétisme, qui composent les systèmes de stockage de données actuels.

Et d'après Sakhrat Khizroev, le directeur de ces recherches, le nanolaser serait capable de générer une énergie équivalente à près de 250 nanowatts, soit la puissance suffisante pour assurer un stockage de l'information efficace. Il ajoute par ailleurs que l'application concrète de cette technologie permettrait de développer des unités de mémoire (disques durs) pouvant renfermer dix terabits de données, ce sur une surface pas plus étendue que 2,5 centimètres carrés. Une hypothèse qui pourrait devenir réalité dans les deux ans, précise le chercheur.

Par comparaison, un tel niveau de miniaturisation multiplierait par cinquante les performances de stockage que l'électromagnétisme offre à l'heure actuelle. Mais l'ambition des chercheurs de l'UCR ne s'arrête pas là. Ces derniers travaillent à une technologie laser produisant des faisceaux couvrant une surface de dix à cinq nanomètres. Pour ce faire, les scientifiques cherchent à améliorer le processus de production de leur nanoprototype en affinant le faisceau d'ions gallium nécessaire à sa fabrication. Une méthode issue de l'industrie des semi-conducteurs.

Atelier

De nouvelles villes en 3D avec les PagesJaunes
Vendredi, 04/01/2008 - 00:00

Le services « Pages jaunes » propose depuis quelques temps une nouvelle façon de situer avec un module baptisé « Ville en 3D ». Ainsi, Pagesjaunes.fr propose une modélisation 3D de certaines villes dans lesquelles on peut naviguer librement. Le service offre une numérisation 3D de la ville d'Issy-les-Moulineaux. La ville des Hauts-De-Seine profite à ce sujet d'une résolution de 25 cm par pixel et de la modélisation de 400 types de façade de bâtiments et de 42 monuments « modélisés à la main ». 9 028 arbres de la ville ont aussi été redessinés manuellement.

Issy-Les-Moulineaux rejoint ainsi les villes d'Aix-en-Provence, Lyon, Marseille, Paris, Rennes et Toulouse qui sont déjà proposées en 3D. L'application permettant cette navigation virtuelle est basée sur Adobe ShockWaves et peut fonctionner sous Firefox (avec le plugin ShockWaves installé). A noter que la fenêtre de navigation est composée de deux parties : une vue 3D et une vue 2D qui prend la forme d'un plan classique de la ville. Outre la navigation 3D, le module permet d'afficher des photos de la ville dans trois directions différentes et de naviguer dans les rues en question en changeant de cliché.

Neteco

Un nombre d'adresses IP presque illimité avec le déploiement de l'IPv6
Vendredi, 04/01/2008 - 00:00

Bientôt douze ans que le successeur du protocole IPv4, qui permet d'adresser et de reconnaître tous les ordinateurs connectés à Internet depuis sa création, a été défini. IPv6, qui offre la possibilité d'utiliser un nombre d'adresses IP presque illimité - et non plus seulement 4,3 milliards comme pour l'IPv4 -, n'est toujours pas déployé à grande échelle.

Au Japon, en Chine, en Corée du Sud ou aux Etat-Unis, les autorités ont clairement pris des décisions en faveur de son déploiement, afin d'anticiper la pénurie d'adresses que provoque l'inflation des appareils connectés au Réseau. Ainsi, au Japon, le gouvernement accorde depuis 2001 des avantages fiscaux (prêts à taux zéro notamment) aux entreprises qui investissent dans des matériels compatibles avec IPv6. Bilan : en quelques années, les principaux fournisseurs d'accès japonais sont devenus "IPv6 compatibles". En Chine, c'est d'un réseau IPv6 natif, nommé Cernet, dont bénéficient plusieurs millions d'étudiants, qui a été ouvert dès 2004.

Rien de tel en France. Mis à part l'hébergeur privé OVH ou le fournisseur d'accès privé Nerim (destiné aux professionnels) qui l'a lancé en 2003, seul le réseau Renater (Réseau national de télécommunications pour la technologie, l'enseignement et la recherche) a oeuvré concrètement dans ce sens, comme le soulignait lors d'un colloque en 2006 Jacques Prévost de Renater :"IPv6 en France est essentiellement académique. Pour faire venir les acteurs ou futurs acteurs commerciaux du marché, c'est assez compliqué." Des fournisseurs d'accès à Internet comme Wanadoo ont quant à eux expérimenté le protocole, sans toutefois se lancer.

Free, un des trois principaux fournisseurs d'accès à Internet en France, déploie aujourd'hui sur tout son réseau le protocole tant attendu. De quoi lui donner un fameux coup d'accélérateur. Il ne sera donc peut-être pas nécessaire d'attendre l'arrivée massive dans les foyers de systèmes d'exploitation grand public, tels Windows Vista de Microsoft ou Mac OS X d'Apple (dans lesquels IPv6 est inclus et prépondérant), ou encore Linux pour qu'enfin cette technologie se propage.

Chaque utilisateur de Free va bénéficier d'un très grand nombre d'adresses IP (2 puissance 64) pour l'ensemble de son réseau interne, dont la configuration sera par ailleurs simplifiée (autoconfiguration). Chaque appareil connecté à Internet aura une adresse IP unique sur le Réseau, accessible et programmable depuis l'extérieur pour peu que l'on en ait autorisé l'accès. C'est, comme le prévoyait Patrick Cocquet, président de l'IPv6 Task Force France en 2006, "une modification mineure pour l'utilisateur, puisqu'il ne s'agirait a priori que d'une mise à jour logicielle à distance, qui aura de grandes implications pour le grand public, chacun pouvant ensuite se constituer son propre réseau personnel et 'adresser' tous les appareils susceptibles de communiquer sur le Réseau. Ce serait l'avènement du réseau personnel, un lien facilité avec les mobiles et l'ouverture vers de nouveaux usages".

LM

^ Haut
Avenir
Nanotechnologies et Robotique
Le nouveau robot humanoïde ASIMO de Honda est de plus en plus intelligent
Vendredi, 04/01/2008 - 00:00

Depuis la sortie de son dernier ASIMO en 2005, Honda s'est focalisé sur l'amélioration de l'intelligence de ce robot humanoïde. Globalement, ses facultés de communication ont augmenté et il est maintenant capable d'éviter des personnes ou d'autres ASIMO en mouvement vers lui. Son autonomie a elle aussi augmenté, aussi bien au niveau décisionnel du choix des tâches à effectuer, qu'en terme d'énergie électrique grâce à sa batterie qu'il peut maintenant aller recharger tout seul. Lorsque sa batterie est faible, ASIMO prend seul la décision d'aller la recharger sur une prise spéciale prévue à cet effet. D'un point de vue pratique, il tourne le dos à un socle de charge et recule jusqu'à ce que la prise se connecte à la batterie.

Pendant les périodes de charge, grâce à ses nouvelles facultés de communication, il peut demander à des ASIMO alentour de le remplacer pour les tâches qu'il était en train d'accomplir, afin d'assurer si possible la continuité du service. La coopération entre plusieurs ASIMO ne s'arrête pas à un "simple" remplacement quand l'un d'entre eux est sur le banc de touche puisqu'à chaque instant, les ASIMO partagent des informations sur ce qu'ils sont en train de faire et ce qu'ils devront faire ensuite. Ils calculent les distances les séparant des lieux où doivent s'effectuer les prochains travaux, évaluent le niveau des batteries de chacun d'entre eux puis, à partir de toutes ces informations, se répartissent les tâches de la manière la plus efficace possible. Chaque robot agit ensuite de manière autonome pour réaliser ce qui a été décidé.

Si un humain ou un autre ASIMO se dresse en travers du chemin d'un des robots, ce dernier le détecte, l'observe par les caméras situées à la place de ses yeux et calcule la direction et la vitesse avec laquelle se déplace son obstacle. Puis, le cas échéant, l'évite ou, si l'espace alentour est trop exigu, se recule avec un pas de côté en faisant un geste de son bras pour indiquer qu'il laisse le passage. Un comportement civilisé, mais qui n'est pas le dernier tour dans son sac-à-dos-batterie.

En effet, ASIMO est maintenant doté de deux nouvelles facultés : il est capable de porter un plateau et de pousser un chariot. Dans une démonstration que l'on peut visionner sur le site de Honda, on voit un ASIMO pousser un chariot sur lequel sont posés deux plateaux avec des rafraîchissements. Alors que le robot s'est arrêté pour prendre le premier plateau et le servir à une première table de restaurant, un deuxième ASIMO qui passe par là, remarque le deuxième plateau et va s'en saisir pour l'emmener à la deuxième table. C'est un exemple de coopération entre ASIMO et de leurs nouvelles capacités. Cette démonstration sera effectuée tous les jours de semaine entre 15h00 et 17h00, du 8 au 31 janvier 2008, au QG de Honda à Aoyama.

Le célèbre humanoïde de HONDA a donc bien progressé. Ses développeurs ne veulent pas pour autant en rester là puisque leur but avoué est d'avancer vers une version de ASIMO où le robot évoluerait et servirait effectivement en situation réelle, tout en tenant compte de son environnement et des gens qui l'entourent.

BE

^ Haut
Matière
Matière et Energie
Géothermie profonde : les premiers kilowatts en 2008
Vendredi, 04/01/2008 - 00:00

C'est une première mondiale : les premiers kilowatteurs d'énergie renouvelable, issus de la chaleur de roches souterraines, devraient être produits au printemps 2008, sur le site expérimental de géothermie profonde à Soultz-sous-Forêts (Bas-Rhin) ! Une première turbine pilote de production d'électricité de 1,5MWe destinée à être connectée au réseau d'Électricité de Strasbourg (ES), vient, en effet, d'y être installée.

Plus de vingt ans d'études géologiques et de travaux scientifiques auront été nécessaires pour franchir cette phase d'industrialisation. Lancé en 1987, ce projet pharaonique est géré par le « Groupement européen d'intérêt économique (GEIE), Exploitation minière de la chaleur », et fait l'objet, depuis 2000, d'un programme pilote avec le soutien financier de l'ADEME, du gouvernement allemand et de l'Union européenne. Il bénéficie d'une enveloppe budgétaire de plus de 80 millions d'euros. Il faut dire que l'objectif est de taille : il s'agit de développer une nouvelle forme de géothermie de haute énergie, sur un site profitant d'un sous-sol particulièrement riche en roches fracturées, en récupérant la chaleur de ces granites d'une température de 200°C, situées à 5 000 mètres de profondeur.

Mais comment acheminer cette chaleur à la surface de la Terre ? Il n'existe en France qu'un seul type de réseau géothermique dit de haute énergie (dont les températures récupérées sont supérieures à 150°C) : situé à Bouillante en Guadeloupe, il bénéficie d'une « anomalie géothermique » puisqu'il profite d'eaux souterraines naturellement chaudes. Les techniciens n'ont donc qu'à acheminer cette eau chaude à la surface de la Terre, pour la transformer en électricité. Les autres types de réseaux géothermiques exploitent, eux, des aquifères moins profonds et moins chauds (l'Ile de France, par exemple, en regorge).

Le projet expérimental de Soultz-sous-Forêts consiste, lui, à « ré-ouvrir » les fractures naturelles des roches sous-terraines (colmatées depuis des millénaires) afin d'y injecter de l'eau. Réchauffée à 200°C sous-terre, l'eau est alors ré-acheminée vers la surface à une température de 175°C pour un débit de 35 litres par seconde et transformée, ensuite, en électricité par la turbine de production.

L'installation de cette turbine de production, qualifiée par Electricité de Strasbourg d' « étape décisive dans le projet pilote », pourrait, « en cas de succès industriel et économique, être suivie à l'horizon 2015, d'une part par la réalisation d'un prototype industriel d'une dizaine de MWe et d'autre part par la mise en oeuvre d'autres centrales de production de chaleur » annonce le fournisseur et distributeur d'électricité. Alors, ce projet de centrale géothermique fournirait de l'électricité à une ville de 20 000 habitants.

JDD

Fabriquer des biocarburants avec du gaz carbonique
Vendredi, 04/01/2008 - 00:00

Plutôt que de dévaster les forêts en plantant des champs de blé ou des palmiers à huile destinés à la production de biocarburants, fabriquons bioéthanol ou biodiesel en recyclant le gaz carbonique de l'air. Voilà une excellente idée, qu'a eue Rich Diver, un scientifique américain des laboratoires Sandia, alors qu'il travaillait sur un engin produisant de l'hydrogène à l'aide de l'énergie solaire. Avec Jim E. Miller et Nathan Siegel, Rich Diver a mis au point une machine baptisée Counter Rotating Ring Receiver Reactor Recuperator (à peu près intraduisible), et que l'équipe préfère appeler CR5. Elle fonctionne couplée à un four solaire, vaste structure de miroirs concentrant les rayons du Soleil pour transformer directement leur énergie en chaleur, comme dans le projet français Themis. Le CR5 peut alors servir à effectuer la thermolyse de l'eau, c'est-à-dire sa décomposition en oxygène et en hydrogène, lequel est utilisable ensuite dans un moteur.

Il explique avoir réalisé pendant sa conception que son appareil pouvait aussi réduire (au sens chimique du terme) le dioxyde de carbone (CO2) en monoxyde de carbone (CO). Chimiquement très actif, celui-ci peut ensuite être facilement recombiné en de multiples molécules, comme le méthanol ou des chaînes carbonées, pouvant faire office de biocarburants. Brûlés dans les moteurs classiques, ces composés redonneront du dioxyde de carbone, et le cycle recommencera.

Pour l'instant, le CR5 n'est pas encore fonctionnel, mais Rich Diver promet un prototype pour le début de l'année prochaine. Il utilisera le four solaire de Sandia, le National Solar Thermal Test Facility (NSTTF) et sera d'abord testé sur la thermolyse de l'eau. Les expériences sur le dioxyde de carbone seront lancées ensuite, pour synthétiser du méthanol. Mais il faudra, explique le chercheur, patienter au moins entre 15 et 20 ans pour disposer d'un équipement commercialisable. On disposerait alors d'un principe assez élégant pour recycler le dioxyde de carbone atmosphérique produit par l'industrie humaine.

FS

^ Haut
Espace
Espace et Cosmologie
Corot a bien commencé sa moisson de planètes
Vendredi, 04/01/2008 - 00:00

Près d'un an jour pour jour après son lancement, le 27 décembre 2006, par une fusée russe Soyouz, Corot suscite «l'admiration» des astronomes. «Nous sommes dans un état de contemplation», confiait, devant la presse, Annie Baglin, responsable scientifique du programme, en commentant les premières «courbes de lumière», d'une précision exceptionnelle, fournies par ce satellite conçu et financé à 75 % par le Centre national d'études spatiales (Cnes) pour observer les étoiles et trouver de nouvelles planètes extrasolaires.

Du haut de son orbite polaire, à 896 kilomètres d'altitude, donc loin des perturbations terrestres, Corot est idéalement placé pour mesurer, au millionième près et en continu pendant 150 jours, les variations de luminosité de 12 000 étoiles de notre Voie lactée. Laquelle en contient 200 milliards ! Ces infimes variations d'éclat ont deux origines possibles. Elles peuvent provenir, en premier lieu, des ondes sonores générées au coeur des étoiles. La compréhension de cette sismologie stellaire, découverte dans les années 1960 sur notre Soleil, fournit une foule de renseignements sur la structure des étoiles, leur densité, leur température, leur vitesse de rotation, etc.

Mais elles peuvent aussi trahir l'ombre générée par une planète chaque fois que celle-ci passe devant son étoile. Cette méthode dite des transits planétaires a déjà permis de détecter, avec des observatoires au sol, 34 des 270 planètes extrasolaires connues à ce jour.

Des chiffres que Corot devrait faire exploser d'ici à la fin de sa mission, dans deux ans ! «Au bout de 300 jours d'observation, nous avons déjà repéré une quarantaine de “candidats” dont deux ont été confirmés», se réjouit Pierre Barge de l'observatoire de Marseille-Provence. Corot-exo-1b et, plus récemment, Corot-exo-2b (c'est leur nom !) sont deux «géantes gazeuses», autrement dit des planètes semblables à Jupiter mais très proches de leur étoile puisqu'elles tournent autour en moins de deux jours.

Autant dire qu'elles sont impropres à accueillir toute forme de vie extraterrestre. Deux autres planètes sont en cours d'examen par les observatoires au sol associés au projet Corot : l'une d'elles serait deux fois plus petite que Saturne, la seconde, de taille jovienne, aurait néanmoins une densité inhabituelle... Aucune chance, là non plus, d'être en présence d'une jumelle de la Terre.

«La mission de Corot n'est pas de chercher des planètes habitables mais de défricher le terrain et de servir de guide aux futurs instruments, comme le satellite américain Kepler qui observera la même portion de ciel pendant cinq ans», souligne Annie Baglin. Il s'agit en effet de la durée minimale requise pour avoir une chance de repérer une planète à forte périodicité, donc assez éloignée de son étoile pour abriter la vie. Corot a néanmoins la capacité de détecter des planètes rocheuses d'un diamètre égal au double de celui de la Terre. Ce qui serait un record, la plus petite exoplanète identifiée à ce jour étant 5,5 fois plus massive que notre belle bleue.

Figaro

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les niveaux des mers et des océans pourraient augmenter plus vite que prévu
Vendredi, 04/01/2008 - 00:00

Selon une étude récente réalisée par une équipe internationale de scientifiques financée par l'UE, les augmentations à venir des niveaux de l'eau des mers et des océans pourraient être deux fois plus élevées que les dernières estimations exposées par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC).

Ces scientifiques britanniques, allemands et américains révèlent qu'autrefois, les niveaux des mers augmentaient à raison d'1,6 mètre par siècle. Le financement de l'UE provient du projet STOPFEN («Sea level, temperature and ocean circulation, past and future. A European network», pour «Niveaux des mers, températures et circulation océanique, passé et futur : un réseau européen»), lequel était financé au titre du programme intitulé «Improving human research potential and the socio-economic knowledge base» («Améliorer le potentiel de recherche humaine et la base de connaissances socio-économiques») du cinquième programme-cadre (5e PC).

Le débat concernant l'ampleur des futurs niveaux de l'eau est loin d'être clos, les estimations du GIEC étant, d'après les scientifiques, incorrectes. À l'heure actuelle, le GIEC prévoit une augmentation de 18 à 59 centimètres des niveaux de la mer d'ici la fin du siècle. Néanmoins, le GIEC fait remarquer que les valeurs supérieures des variations ne devraient pas être considérées comme des limites maximales pour les niveaux de l'eau ; en effet, les modèles utilisés ne tiennent pas compte des incertitudes liées aux réactions climatiques ou du cycle de carbone, ou même les effets des variations de la fonte de la calotte glaciaire.

«Les estimations du GIEC concernent principalement l'expansion thermale et la fonte de la glace de surface ; elles omettent de quantifier l'impact de la dynamique des processus de la calotte glaciaire», explique le professeur Eelco Rohling. «Jusqu'à présent, les données ne permettent pas de limiter suffisamment la vitesse totale de l'augmentation des anciens niveaux de l'eau au-dessus des niveaux actuels.»

Afin d'approfondir nos connaissances concernant les futures variations des niveaux des mers, le professeur Rohling et ses collègues sont retournés en arrière, à une période connue sous le nom de stade isotopique marin 5e, il y a 124 à 119 000 ans. À cette époque, le climat sur Terre était plus chaud de 2 degrés Celsius par rapport aux températures actuelles et la refusion des calottes glaciaires du Groenland et de l'Antarctique étaient responsables des niveaux élevés des mers (6 mètres de plus qu'à l'heure actuelle). Les chercheurs ont utilisé une nouvelle méthode pour reconstituer les niveaux des mers afin d'étudier la vitesse de l'augmentation des niveaux des mers au cours de cette période.

«À cette époque, le Groenland était de 3 à 5 degrés plus chaud qu'actuellement, ce qui correspond au réchauffement prévu dans 50 à 100 ans», explique le professeur Rohling. «Nos analyses montrent que la vitesse à laquelle les niveaux des mers augmentent en raison de la fonte des glaces que subissent le Groenland et l'Antarctique est effectivement très rapide. La vitesse moyenne d'élévation du niveau de la mer de 1,6 mètre par siècle est à peu près deux fois plus élevée que les estimations maximales du quatrième rapport d'évaluation du GIEC. Ainsi, elle constitue la première contrainte potentielle de la dynamique de la calotte glaciaire qui n'était pas comprise dans les valeurs principales du GIEC.»

NP

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Quand les cellules cancéreuses donnent l'alerte aux lymphocytes NK
Vendredi, 04/01/2008 - 00:00

Des chercheurs de la Clinique universitaire de Cologne ont découvert par quels mécanismes moléculaires les lymphocytes NK (Natural Killer ou cellules tueuses naturelles) reconnaissent les cellules cancéreuses. Ces derniers ont mis en évidence le processus selon lequel des cellules stressées font migrer la protéine BAT3, du noyau jusqu'a leur surface. Cette protéine est alors reconnue par un récepteur particulier du lymphocyte NK nomme NKp30.

Assimilant ce signal à un danger, il ne reste plus à cette cellule tueuse de notre système immunitaire qu'à remplir sa fonction : provoquer la lyse de la cellule. Cette migration de la protéine BAT3 du noyau à la surface de la cellule, n'apparaît cependant qu'en cas de stress. Les chercheurs de l'Universite de Cologne pensent que cette protéine est une piste intéressante pour que les lymphocytes NK puissent réduire la croissance des tumeurs. En effet, les premiers tests sur des animaux sont encourageants : la croissance des cellules tumorales humaines chez des souris a pu être freinée grâce à un apport de globules blancs humains, dont des lymphocytes NK. Cet effet disparaît dans le cas d'injection d'anticorps dans le sang des rongeurs, ceux-ci se combinant avec la protéine BAT3. Les scientifiques souhaitent actuellement orienter leurs recherches sur les potentielles applications thérapeutiques de cette protéine ainsi que d'autres protéines apparentées, dans le cadre de cancer ou de transplantation de moelle osseuse.

BE

Médecine : l'ordonnance médicale s'automatise
Vendredi, 04/01/2008 - 00:00

Le Royaume-Uni teste le transfert électronique d'ordonnances entre les médecins généralistes et les pharmacies pour les patients sous traitement long. Lors de l'arrivée à terme de la prescription, le praticien pourra renouveler automatiquement la médication en envoyant directement son renouvellement à la pharmacie habituelle du patient via une plate-forme informatisée. L'ordonnance, cryptée sous la forme de code-barres, sera lue via un lecteur électronique. Principal intérêt : permettre de diminuer les déplacements inutiles et surtout les erreurs de prescriptions, fréquentes lors du recopiage d'une ordonnance.

Le dispositif devrait également permettre d'accélérer le paiement des médecins généralistes, qui pourront transférer électroniquement leurs demandes à la Caisse d'Assurance Maladie de Newcastle. Lancé officiellement au début du mois d'octobre, il sera étudié par une équipe de l'université de Nottingham. "Dans de nombreux cas, les patients qui suivent un long traitement n'ont pas besoin d'être vus régulièrement par leur médecin", souligne Tony Avery, professeur à la Medical School de l'université de Nottingham.

Et d'ajouter : "Ces patients, dont la majorité est âgée, profiteront de ce système qui leur permettra d'obtenir plus rapidement leurs médicaments". L'initiative répond en tout cas à un réel besoin : près de 70 % de l'ensemble des prescriptions réalisées chaque année en Angleterre concernent des traitements longs contre notamment l'asthme, l'arthrite, le diabète ou les problèmes musculaires. En plus de simplifier le quotidien des personnes sous traitement, souvent âgées, le système permettra de réaliser de conséquentes économies, notamment au niveau de la consommation de papier. Selon le NHS, le coût total de ces ordonnances représente près de 8 milliards de livres par an.

Atelier

Un rein artificiel portable pour changer la vie
Vendredi, 04/01/2008 - 00:00

Une firme californienne a présenté une machine de 5 kg qui tient dans une ceinture. Ne nous fâchons pas avec les néphrologues : la machine présentée ici par la firme californienne XCorporeal ne va certainement pas révolutionner la vie des 60 000 Français qui, trois fois par semaine, se branchent sur un rein artificiel pour épurer leur corps de leurs toxines, une tâche que leurs organes rénaux sont devenus incapables d'accomplir. En 1976, Wilhem Kolff, l'inventeur néerlandais du rein artificiel, avait déjà présenté un prototype de machine de dialyse portable.

Depuis cinq essais sur l'homme de deux machines françaises, une italienne, une allemande et une américaine ont été réalisés, sans qu'aucun de ces prototypes n'aille plus loin. Mais l'étude pilote que vient de publier The Lancet est intéressante, car elle résume les progrès faits en trente ans dans la miniaturisation et la fiabilisation des composants. Huit patients atteints d'insuffisance rénale terminale (les reins n'épurent plus), déjà dialysés chroniques depuis près de dix-huit ans, ont donc été connectés entre 4 et 8 heures par jour, quotidiennement sur l'appareil de dialyse portable (WAK). Le sang du malade est ponctionné dans sa fistule artérioveineuse habituelle (généralement au pli du coude), par une aiguille classique, il est aspiré dans une tubulure par une pompe pulsatile minuscule alimentée par une batterie miniature de 9 volts. Le sang passe au travers des fibres semi-perméables d'un réacteur de dialyse de moins de 100 g, où il échange ses déchets (urée, ions, créatinine) qui se déversent dans le dialysat au travers des micropores des fibres. Le circuit étanche du dialysat a son système de pompe, une poche ballast pour l'urine produite, et un système de régénération du liquide de dialyse mis au point par la Nasa pour les astronautes. Le système est également muni de 4 micropompes : les unes alimentent le sang en héparine (pour éviter la coagulation du sang) et les autres rafraîchissent le dialysat en bicarbonate, magnésium et calcium.

L'ensemble de l'appareil tient dans une large ceinture de 5 kg. Deux servomécanismes munis de capteurs détectent l'un les bulles de gaz dans la tubulure sanguine, l'autre les variations de débit de sang. Toute anomalie détectée bloque aussitôt la pompe d'ultrafiltration. Il y a aussi sur le circuit artériel et veineux des détecteurs d'humidité qui alertent en cas de fuite des connexions.

Figaro

Observation de l'ADN : une avancée majeure
Vendredi, 04/01/2008 - 00:00

Celle-ci vient d'être réalisée par les équipes de Eric Le Cam du Laboratoire "Interactions Moléculaires et Cancer" (Institut Gustave Roussy/CNRS/Universite Paris Sud) et de David Pastre, du Laboratoire "Structure et Activité des Biomolécules Normales et Pathologiques" (Inserm/Génopole). La première étape de ces travaux, dont les résultats ont été publiés dans le numéro de novembre de la revue Biomacromoleculees, aura consisté à trouver une méthode d'absorption de l'ADN sur une surface de mica (matériau classiquement utilisé en imagerie biomoléculaire), en présence d'une solution de sels monovalents. Représentant en eux-mêmes une évolution importante des techniques employées actuellement, ces résultats permettent ainsi d'observer les molécules d'ADN par microscopie de force atomique (AFM) dans des conditions très proches de celles du vivant. Précisons que jusqu'à présent, il était impossible d'obtenir une imagerie 3D nanométrique en haute résolution des molécules d'ADN par AFM dans ces conditions.

Pour valider cette méthode et démontrer la pertinence de ces nouvelles conditions d'imagerie, les chercheurs ont choisi d'étudier l'effet de l'encombrement macromoléculaire sur la compaction des molécules d'ADN. Rappelons qu'il s'agit là d'un phénomène bien connu des biologistes mais peu étudié. Or, la présence de molécules de très grande taille dans les milieux intracellulaires a une influence directe sur le niveau de compaction des molécules d'ADN et, par conséquent, sur leur activité. Cela concerne notamment sa réplication et la transcription, donc l'expression des gènes. Grâce à cette méthode, il est donc désormais possible pour les chercheurs d'observer les molécules d'ADN dans différentes situations, notamment en interaction avec les protéines. Par ailleurs, cette méthode peut être utilisée dans le domaine des puces à ADN ou les nano biotechnologies.

BE

ADN: une nouvelle méthode de séquençage bien plus rapide
Vendredi, 04/01/2008 - 00:00

Des chercheurs de l'Université de l'Illinois ont découvert une nouvelle stratégie de séquençage de l'ADN qui pourrait à la fois réduire considérablement les coûts de la technique mais aussi la rendre beaucoup plus rapide. Cette technique consiste en l'utilisation de puces semi-conductrices sur lesquelles sont déposés des condensateurs nanoporiques. Ces condensateurs se composent de deux couches de silicium conductrices, séparées par une couche isolante de dioxyde de silicium. De nombreuses autres techniques utilisaient jusqu'alors ce système mais aucune n'avait encore réussi à expliquer en détail comment les nanopores pouvaient lire une séquence d'ADN.

C'est grâce a la modélisation informatique et à l'étude de la dynamique moléculaire que l'équipe a démontré que le mouvement de va et vient d'une molécule d'ADN au travers d'un condensateur nanoporique produit une empreinte électrostatique spécifique (potentiel propre) qui permet de déterminer la séquence d'enchaînement des bases azotées du brin d'ADN étudié. La prochaine étape de cette découverte consistera à minimiser le bruit et à réduire la vitesse de passage des molécules d'ADN au travers du condensateur. Etre capable de séquencer le génome de chaque individu pourrait alors ouvrir de nouvelles possibilités dans le domaine de la médecine personnalisée. En effet, il serait possible d'obtenir des traitements "sur-mesure" pour chaque patient.

BE

Création de vaisseaux sanguins artificiels par croissance contrôlée
Vendredi, 04/01/2008 - 00:00

La fabrication de vaisseaux sanguins artificiels en grande quantité est une étape importante dans la mise au point d'organes fortement vascularisés, métaboliques et complexes comme les reins, le foie et le coeur. De nombreuses techniques sont employées pour contrôler la croissance de structures vasculaires organisées aussi bien in vivo qu'in vitro mais peu d'entres elles permettent de définir précisément leur direction de propagation. Une équipe de scientifiques du Charles Stark Draper Laboratory (Cambridge, MA), du MIT (Cambridge, MA) et de John Hopkins University (Baltimore, MD) a découvert la possibilité de forcer des cellules à former des structures tubulaires qui possèdent les mêmes propriétés physiques que les vaisseaux sanguins. Leur technique consiste à faciliter l'organisation de cellules PEC (Progéniteurs Endothéliaux Circulants) en ligne en les déposant sur un substrat de silicium sur lequel on a formé par gravure plasma des rainures parallèles ; le dépôt d'un gel (BD Matrigel Matrix) sur les cellules disposées en ligne permet ensuite la formation de tubes capillaires.

BE

Thé vert : il réduit bien le risque de cancer de la prostate
Vendredi, 04/01/2008 - 00:00

Boire cinq ou six tasses de thé vert chaque jour peut réduire de moitié les risques d'un cancer de la prostate, indique une étude japonaise. Une équipe de chercheurs du ministère de la Santé a observé les habitudes alimentaires de 49.920 hommes âgés de 40 à 69 ans, entre 1990 et 1993, et a ensuite suivi l'évolution de leur état de santé jusqu'en 2004, a précisé le Centre national du cancer. Pendant cette période, 404 hommes ont été diagnostiqués avec un cancer de la prostate, dont 114 à un état avancé, 271 avec un cancer localisé et 19 à un état indéterminé.

Une analyse a démontré que les risques de développer un cancer de la prostate à un état avancé était 50 % inférieurs pour les hommes qui consomment au moins 5 tasses de thé vert, par rapport à ceux buvant moins d'une tasse par jour. "Le thé vert n'a pas eu d'effet sur les cancers de la prostate localisés", a relevé l'étude, mais "le thé vert peut avoir un effet réducteur des risques d'un cancer de la prostate à un état avancé". L'équipe de chercheurs a mis en évidence une substance appelée catéchine dans le thé vert qui peut contribuer à réduire les risques en abaissant le niveau de testostérone, une hormone masculine considérée comme un facteur de risque dans le cancer de la prostate.

Constatant que ce type de cancer était beaucoup plus rare en Asie comparé aux populations occidentales, les chercheurs ont supposé que la grande consommation de thé vert pouvait avoir un lien. Les résultats de l'étude ont été publiés sur la version internet du Journal américain d'épidémiologie.

AFP

Le chocolat noir a-t-il des propriétés anti-athérogènes ?
Vendredi, 04/01/2008 - 00:00

Le chocolat noir est riche en flavonoïdes doués de vertus anti-oxydantes. Il semble que les boissons et les aliments où ces substances, y compris le cacao, abondent, soient potentiellement bénéfiques dans la prévention des évènements cardiovasculaires (ECV), si l'on en croit certaines études récentes. Les flavonoïdes seraient ainsi à même d'améliorer la fonction vasculaire périphérique chez les sujets sains et les patients exposés à un risque cardiovasculaire élevé. Les effets propres au chocolat noir sont cependant mal documentés. Les ECV liés à l'athérosclérose se caractérisent par la survenue d'une occlusion vasculaire, d'un spasme artériel et in fine d'une thrombose.

Une forme particulière d'athérothrombose coronaire accélérée s'observe dans les suites d'une transplantation cardiaque et, dans ce cas, la durée de vie du greffon cardiaque se trouve réduite, au point que le pronostic vital à long terme peut être mis en jeu. Aux facteurs de risque, s'ajoutent une majoration du stress oxydant et une diminution des mécanismes de défense anti-oxydants, avec en corollaire une vasoconstriction coronaire paradoxale, induite par le dysfonctionnement endothélial. La diminution de la production de NO joue aussi un rôle délétère.

Un essai randomisé, mené à double insu contre placebo, a inclus 22 malades qui ont bénéficié d'une transplantation cardiaque. Dans le groupe traité, les sujets ont ingéré 40 g de chocolat noir (70 % de cacao). La vasoconstriction coronaire a été mesurée au moyen d'une angiographie coronaire quantitative et d'un test au froid, à l'état basal et deux heures après la prise de chocolat ou de placebo.

Dans ces conditions, le diamètre coronaire est passé de 2,36+/-0,51 à 2,51+/-0,59 mm sous l'effet du chocolat, alors qu'il est resté stable dans le groupe témoin. Il en a été de même pour la vasomotricité coronaire endothélium-dépendante qui s'est améliorée dans le groupe traité (p=0,01 versus groupe placebo). L'adhérence plaquettaire a, pour sa part, diminué, uniquement après la prise de chocolat (p=0,04 vs placebo). Le chocolat noir semble donc avoir des effets immédiats favorables sur la fonction vasculaire du réseau coronaire tout autant que sur l'adhérence plaquettaire. Le stress oxydant s'en trouve significativement diminué.

JIM

Comment le cerveau se spécialise-t-il pour produire la parole ?
Vendredi, 04/01/2008 - 00:00

Dans le cerveau humain, le décodage et la production de la parole se font dans l'hémisphère gauche alors que la reconnaissance de la voix de l'interlocuteur est réalisée par l'hémisphère droit. Chez l'humain, comme dans beaucoup d'autres espèces animales, le cortex auditif gauche est plus développé que le droit et son contenu cellulaire est légèrement différent. Cette asymétrie structurelle, dont on sait encore peu de choses, pourrait être à l'origine de la spécialisation gauche pour le décodage de la parole. Cette spécialisation aurait été renforcée au cours de l'évolution par l'utilisation conjointe des vocalisations et des gestes manuels de la main droite, commandés par des régions cérébrales proches du cortex auditif gauche.

Grâce à une collaboration européenne avec des équipes danoises et allemandes, Anne-Lise Giraud et ses collègues de l'Unité Inserm 742 « Action, Neuroimagerie, Modélisation » au sein du département d'études cognitives à l'Ecole Normale Supérieure de Paris sont parvenus à enregistrer simultanément des données issues d'électroencéphalogrammes EEG) et d'IRM fonctionnelle. L'activité cérébrale électrique et fonctionnelle de 20 sujets au repos sans stimulation extérieure a été enregistrée puis analysée.

Les chercheurs ont ainsi montré que les cortex auditifs gauche et droit présentaient une activité électrique neuronale de base différente. Le cortex gauche présente une activité électrique oscillatoire spontanée autour de la fréquence de 40Hz, plus marquée que le cortex auditif droit qui présente une activité lente autour de 4Hz. Ces oscillations spontanées, en modulant de façon globale et régulière la réponse individuelle des neurones du cortex auditif, pourraient agir comme un mécanisme de découpage des signaux auditifs.

Ainsi, le cortex auditif gauche découperait l'information auditive plus rapidement que le cortex droit, ce qui le rendrait plus sensible aux variations rapides de la parole, lui permettant de distinguer les différents sons du langage (les phonèmes). Le cortex droit serait moins sensible aux phonèmes, mais plus sensible aux régularités acoustiques de la voix et aux variations lentes de la parole, importantes pour reconnaître l'interlocuteur et la prosodie (intonation).

Dans le cortex moteur les chercheurs ont également observé des oscillations rapides (40 Hz) au niveau des régions qui commandent les mouvements de la langue, et des oscillations lentes (4Hz) au niveau de celles qui commandent les mouvements de la mâchoire. Les mouvements de la langue contribuent à la production de la plupart des phonèmes, alors que les mouvements de la mâchoire déterminent les rythmes lents de la parole et de la voix. Cette deuxième dissociation révèle donc un alignement entre les propriétés oscillatoires des cortex sensoriels et celles des cortex moteurs impliqués dans la fonction du langage.

Ces données pourraient suggérer que les cortex auditifs et moteurs ont interagi au cours de l'évolution pour optimiser la synergie entre les mécanismes d'écoute et de production de la parole humaine. Ces travaux permettent donc de proposer une base physiologique pour la spécialisation de l'hémisphère gauche dans le décodage et la production de la parole, notion connue depuis le 19ième siècle. Ils permettent aussi d'envisager l'étude des perturbations des propriétés oscillatoires des territoires cérébraux du langage dans les grandes pathologies de la communication humaine, telles que l'autisme infantile et la dyslexie.

Inserm

Des singes aussi doués que des étudiants pour le calcul mental
Vendredi, 04/01/2008 - 00:00

Des singes peuvent faire aussi bien que des étudiants lorsqu'il s'agit d'effectuer des additions, selon une étude publiée aux Etats-Unis. Des recherches précédentes avaient déjà démontré que les humains et les animaux partagent la capacité de représenter et comparer mentalement des nombres. Ainsi, des animaux, jeunes et adultes, peuvent faire la différence entre quatre et huit objets. Mais il n'était pas prouvé que des animaux puissent effectuer du calcul mental, ont affirmé des chercheurs de la Duke University responsables de cette étude.

"Nous savions que des animaux pouvaient reconnaître des quantités mais il était moins évident de savoir s'ils étaient capables d'effectuer des opérations arithmétiques comme des additions. Notre étude montre qu'ils en sont capables", a affirmé Jessica Cantlon, une des auteurs de l'étude qui paraît dans le numéro de décembre de la revue mensuelle américaine PLoS Biology.

Elizabeth Brannon, co-auteur de la recherche et Mme Cantlon ont conduit leur étude avec des singes macaques placés devant un ordinateur à écran tactile présentant un différent nombre de points. A un moment donné, ces points disparaissaient de l'écran pour laisser place à un nouveau nombre de points.

Ce deuxième écran s'effaçait à son tour et un nouvel écran, divisé en deux parties, présentait d'un côté la somme exacte des points apparus sur les deux premiers écrans et, de l'autre un nombre de points n'ayant pas de rapport avec les deux premiers écrans. Les singes étaient récompensés s'ils touchaient la partie de l'écran donnant le résultat de l'addition des points apparus sur les deux premiers écrans. 76 % des singes ont réussi le test.

Le même test a été effectué auprès d'étudiants qui devaient trouver la somme exacte des points par calcul mental. 94 % des étudiants ont passé ce test avec succès. En moyenne, étudiants et singes ont répondu après environ une seconde de réflexion. Etudiants et singes se trompaient le plus souvent quand les résultats affichés dans les deux moitiés du troisième écran étaient proches."Si la somme exacte était 11 et que la partie de l'écran avec la mauvaise réponse affichait 12 points, singes et étudiants prenaient plus de temps pour répondre et se trompaient plus souvent", a constaté Mme Cantlon.

Que des singes et des êtres humains puissent faire des additions simples pourrait être un signe de l'évolution commune des deux espèces. La différence entre humains et animaux tient à l'acquisition du langage et de l'écriture pour les premiers. "Les performances mathématiques des adultes humains tiennent surtout à leur capacité de représenter des concepts numériques en utilisant des signes. Un singe est incapable de faire la différence entre 2000 et 2001 objets. Cependant, nos travaux ont montré que humains et singes peuvent manipuler mentalement des représentations de nombres pour générer des sommes approximatives de simples objets", a estimé Mme Brannon.

AFP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top