RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 417
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 08 Février 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Très haut débit : inexorable déclin de l'ADSL face à la fibre optique
Le Conseil d'Etat précise les modalités de cession de fréquences WiMax par les collectivités
Un journal télévisé à la carte
Le projet de loi sur la TV du futur adopté à l'Assemblée
SMS : un système d'alerte efficace et bon marché qui étend ses applications
Le mobile qui vous identifie
Avenir
Un deuxième robot humanoïde arrive en France
Les premiers gestes de bio-woman
Matière
Energie solaire : des cellules photovoltaïques à rendement doublé bientôt disponibles
Créer de l'hydrogène par le même mécanisme que les plantes : une nouvelle étape franchie
La France est le troisième marché européen de l'éolien en 2006
Le marché mondial de l'énergie éolienne explose
Espace
En quoi l'eau peut-elle expliquer la présence de la vie ?
Terre
Livre blanc des scientifiques français sur les modèles climatiques
Vivant
Les nanomédicaments sortent des laboratoires
Rapport prospectif sur la nanomédecine en Europe
Greffes contre le cancer : les donneurs dangereux seront identifiés
Plus de 4 millions de médicaments testés en... 10 semaines
Edito
Réchauffement climatique : notre civilisation entre dans une nouvelle ère



Le Groupe d'experts intergouvernemental sur l'évolution du climat a publié le 2 février la version intermédiaire de son très attendu rapport sur l'évolution du climat (Voir aussi la présentation audio ) et le moins que l'on puisse dire est que ses conclusions sont catastrophiques. Il prévoit que les émissions de CO² contribueront au réchauffement climatique "pendant plus d'un millénaire". "L'essentiel de l'accroissement observé sur la température moyenne depuis le milieu du 20e siècle est très vraisemblablement dû à l'augmentation observée des gaz à effet de serre anthropiques (d'origine humaine)", lit-on dans le résumé établi à l'intention des décideurs par les experts du Giec à l'issue d'une semaine de réunion à Paris. "Le réchauffement du système climatique est sans équivoque, affirme le texte, car il est maintenant évident dans l'accroissement des températures moyennes mondiales, la fonte généralisée de la neige et de la glace et l'élévation du niveau moyen mondial de la mer."

"Les concentrations atmosphériques actuelles de dioxyde de Carbone et de méthane excèdent de loin les valeurs préindustrielles déterminées par carottage glacier couvrant une période de 650.000 ans. Les augmentations de gaz à effet de serre depuis 1750 sont principalement dues aux émissions provenant de l'usage des carburants fossiles, l'agriculture et les changements d'usage des terres (...). Le dioxyde de carbone est le plus important gaz à effet de serre anthropique. Sa concentration dans l'atmosphère a augmenté d'une valeur préindustrielle de 280 ppm (parties par million) à 379 ppm en 2005. (...).

Les émissions «passées et futures de CO2 continueront à contribuer au réchauffement pendant plus d'un millénaire» : tels sont les termes exacts utilisés par le Giec dans son rapport. Les températures devraient augmenter de 1,8 à 4 degrés d'ici 2100, précise-t-il. Les experts mondiaux ont renforcé leur conviction que l'homme est responsable de «l'essentiel de l'accroissement observé sur la température moyenne globale depuis le milieu du 20e siècle». Les experts du Giec affectent à cet impact humain sur le climat une certitude de 90 %, contre 66 % dans leur dernier rapport en 2001.

Ils donnent pour la première fois une «meilleure estimation» du réchauffement attendu d'ici la fin du siècle : la température grimperait de +1,8 à +4°C par rapport à la période 1980-1999. Ces valeurs sont des moyennes, et le réchauffement pourrait être plus élevé, allant jusqu'à 6,4° dans le scénario le plus «polluant». La température a augmenté de 0,76°C de 1850-1899 à 2001-2005, indique le rapport.

Les experts jugent «très probable que les chaleurs extrêmes, les vagues de chaleur et les évènements de fortes précipitations continueront de devenir plus fréquents». Il est «vraisemblable» que les cyclones tropicaux futurs, ainsi que les typhons et ouragans, deviendront plus intenses, avec des vents plus forts et des précipitations plus fortes. Onze des 12 dernières années figurent au palmarès des 12 années les plus chaudes depuis que l'on a commencé à établir des statistiques en 1850.

Quant au niveau des mers, il devrait s'élever entre 18 et 59 centimètres d'ici la fin du siècle, une estimation qui ne prend pas en compte une éventuelle fonte accélérée de la glace au Groenland et dans l'Antarctique, prévient le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC). "La contraction de la couverture glaciaire du Groenland continuera à contribuer à la montée du niveau de la mer après 2100. Les modèles actuels suggèrent qu'un réchauffement moyen mondial (par rapport aux valeurs préindustrielles) de 1,9 à 4,6°C conduirait à une disparition pratiquement complète du revêtement glaciaire du Groenland et à une montée subséquente du niveau de la mer d'environ 7 m, s'il dure le millénaire. Ces températures sont comparables à celles intervenues lors de la dernière période interglaciaire il y a 125.000 ans, ainsi qu'en témoignent les informations paléo climatiques qui montrent pour cette période une diminution de la glace polaire et une hausse du niveau de la mer de 4 à 6 m.

Selon l'hypothèse moyenne des experts du Giec, la température pourrait s'être élevée de 1,8 à 4 degrés entre la dernière décennie du 20e siècle et la dernière décennie du 21e siècle. Compte tenu des erreurs autour de chaque scénario, la fourchette totale s'étend de 1,1 à 6,4 degrés. "Tout ça donne une image d'un monde extrêmement différent, d'un véritable bouleversement climatique, estime Jean Jouzel, Climatologue et Directeur de recherche au CEA. Même un changement de trois degrés, si nous le subissions en un siècle, c'est la moitié d'un changement climatique majeur, celui qui nous a fait passer de la dernière période glaciaire à la période actuelle, mais ce passage a pris 5.000 ans", dit-il.

Pour Jean Jouzel, le caractère du réchauffement est irréversible. "Même si nous arrêtions toutes nos émissions, nous avons déjà engrangé un réchauffement de près d'un degré de façon inéluctable (...)", affirme-t-il en soulignant qu'il est "trop tard" pour revenir au climat d'il y a 200 ans". Il souhaite que l'objectif que s'est fixé l'Union Européenne de limiter le réchauffement du climat à deux degrés soit atteint, même s'il l'estime "très ambitieux". "Il ne faut pas se dire on ne peut rien faire", a souligné pour sa part Achim Steiner, directeur exécutif du Programme des Nations Unies pour l'environnement. "Quiconque continuerait de risquer l'inaction devant les preuves présentées aujourd'hui sera un jour considéré comme irresponsable dans les livres d'histoire."

Et en effet il faut bien avoir à l'esprit les conséquences apocalyptiques, le mot n'est pas trop fort, de cette évolution climatique si nous ne réagissons pas d'une manière radicale : la partie du rapport du GIEC intitulé "Impacts, adaptation et vulnérabilité", indique que 200 à 700 millions de Terriens pourraient souffrir de pénuries alimentaires d'ici 2080 du fait du changement climatique. Les pénuries d'eau pourraient frapper, elles, entre 1,1 et 3,2 milliards d'êtres humains. On imagine sans peine les conséquence humaines, économiques et géopolitiques désastreuses d'un tel scénario.

On serait tenté de dire que la réduction louable des émissions de gaz à effet de serre d'ici 2012 de 5 % par rapport aux niveaux de rejet de 1990, prévue dans le cadre du Protocole de Kyoto, apparaît désormais comme presque dérisoire face à la gravité des enjeux qui nous attendent.

Les changements climatiques "courent comme un lièvre", tandis que les dirigeants du monde entier "avancent à la vitesse de l'escargot", a déploré le ministre italien de l'Environnement Alfonso Pecoraro Scanio. L'enjeu est clair : "ou nous accélérons, ou nous risquons un désastre". Scanio est l'un de rares responsables politiques à ne pas se contenter de discours mais à proposer des mesures concrètes ; il préconise notamment une taxe globale sur les émissions de dioxyde de carbone et la création d'une ONU pour l'environnement "forte".

Le temps des discours et des conférences est en effet révolu et c'est à présent des décisions drastiques au niveau mondial, européen et national qu'il nous faut prendre. Mais nous devons comprendre que nous ne parviendrons pas à réduire massivement nos émissions de gaz à effet de serre sans changer de civilisation. Il ne suffira pas de substituer en une génération les énergies nouvelles et renouvelables aux énergies fossiles (ce qui sera déjà très difficile). Il va également falloir changer complètement l'organisation de nos économies et de nos sociétés de façon à réduire "à la source" l'ensemble de nos consommations d'énergie. Concrètement, cela signifie modifier tout notre système de production industriel en intégrant l'objectif de basse consommation d'énergie dès la conception des produits et services.

En matière d'habitation et de logements, nous allons devoir apprendre à construire des bâtiments tendant vers l'autosuffisance énergétique grâce à l'utilisation combinée des nouveaux matériaux "intelligents" et des sources d'énergies propres qui seront intégrées dans la structure même de nos bâtiments. En matière de transports, le secteur d'activités le plus "énergivore", nous devons non seulement passer d'ici 25 ans au "zéro pétrole" mais nous devons également réduire "à la source" nos besoins en déplacements (notamment domicile-travail) en généralisant les téléactivités et le télétravail. Nos sociétés développées vont devoir apprendre à consommer globalement de moins en moins d'énergie tout en continuant à améliorer le niveau de vie et de confort de leurs habitants, ce qui constitue un défi de civilisation unique.

"A toute chose malheur est bon" dit un vieil adage populaire et ce défi climatique titanesque auquel nous sommes confrontés va peut-être avoir le mérite de faire prendre conscience aux hommes que ce qui les rassemble est plus fort que ce qui les sépare et que l'humanité toute entière doit s'unir et tendre vers un but commun pour assurer sa survie. Mais, n'en doutons pas, cet impératif de lutte contre le réchauffement climatique va également profondément modifier nos concepts et organisations politiques et démocratiques et faire émerger de nouvelles formes d'expression et d'action politiques et, sans doute, plus rapidement que nous ne le pensons, de nouvelles et puissantes instances de gouvernance au niveau planétaire.

C'est donc bien un nouveau monde, radicalement différent de la civilisation industrielle que nous connaissons depuis deux siècles, que nous devons construire pour permettre à l'espèce humaine de poursuivre sa longue aventure en se réconciliant avec la nature et en construisant le nouveau concept politique et éthique d'intérêt supérieur de l'humanité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Très haut débit : inexorable déclin de l'ADSL face à la fibre optique
Vendredi, 09/02/2007 - 00:00

Selon une étude du cabinet Sia Conseil, "le marché de l'ADSL en France va connaître son déclin dès 2010". Cet affaiblissement sera directement provoqué par le déploiement de réseaux en fibre optique. Dès cette année, la part des accès internet liés à cette technologie atteindra 3 % du marché, 10 % en 2009 et 37 % en 2012, soit 5 millions de foyers, à comparer aux 4 millions de « foyers FTTH » que vise le ministère de l'Industrie.

Plusieurs raisons expliquent cette accélération du très haut débit optique selon Sia Conseil. D'abord la volonté des pouvoirs publics de faciliter son intégration par une politique d'aménagement du territoire, qui prévoit notamment une forte implication des collectivités locales.

Ensuite, le passage au THDO est un moyen pour les opérateurs de se différencier sur le marché et d'attirer les abonnés des concurrents. "Proposer le très haut débit sera un avantage concurrentiel important pour recruter de nombreux clients d'opérateurs qui n'auront pas l'infrastructure nécessaire pour proposer des services équivalents" souligne l'étude.

Autre «facteur structurant» : les tarifs ne seront pas régulés au contraire de l'ADSL. Du coup, la fibre optique doit permettre aux opérateurs d'accroître le revenu moyen par utilisateur (Arpu). Le cabinet estime que l'Arpu d'un abonné au THD sera compris entre 45 et 65 euros suivant l'opérateur, soit de 10 à 15 euros de plus qu'aujourd'hui.

Conséquence du développement du très haut débit, le cabinet prévoit une restructuration du secteur accompagnée par une baisse sensible des offres ADSL et par un inévitable regroupement des acteurs. Dans ce scénario, l'ADSL commencera dès 2010 son déclin au profit du THD. Selon cette étude il ressort clairement de cette analyse que «Le marché sera donc tiré par l'offre et la capacité des opérateurs à créer les services de demain.»

Parmi ceux-ci, de nombreuses pistes sont à explorer : la télévision haute définition, la vidéo à la demande, les mondes virtuels 3D, la visioconférence et le peer-to-peer, sont autant d'applications qui exploiteront pleinement les potentialités du THDO atteignant les 100 mégabits symétriques par seconde. La France pourrait donc se placer dans le trio de tête mondial avec le Japon et la Corée, et rattraper ainsi son retard sur certains pays européens comme la Suède et l'Italie, conclut l'étude.

Tribune

ZDNet

OINet

Le Conseil d'Etat précise les modalités de cession de fréquences WiMax par les collectivités
Vendredi, 09/02/2007 - 00:00

L'Arcep (autorité de régulation des télécoms), qui vient d'approuver la première demande de cession partielle de fréquences Wimax d'une collectivité territoriale à une autre (mise en oeuvre en Alsace), a publié une expertise juridique de Christine Maugüe, Conseiller d'Etat, sur les mécanismes de mise en oeuvre du marché secondaire des fréquences et leur articulation avec les compétences des collectivités territoriales.

Il ressort de cette étude sur la mise à disposition des AUF (autorisations d'utilisations de fréquences) de la boucle locale radio que pour le Conseil d'Etat, « le fait que les collectivités territoriales se soient vues reconnaître diverses compétences en matière de communications électroniques ne signifie pas nécessairement que dans l'exercice de celles-ci, elles accomplissent une mission de service public ». Pour qu'une telle mission existe, il faut que « la collectivité cherche à suppléer une défaillance de l'initiative privée ou à apporter une aide économique à un projet structurellement déficitaire et pourtant nécessaire à la population locale ».

A propos des cessions des AUF à un tiers par les collectivités, le document précise que celles-ci peuvent se faire sans publicité et même gratuitement « s'il s'agit d'une cession qui impose des sujétions d'intérêt général importantes (obligations de déploiement et de catalogue de services, contraintes imposées sur les tarifs aux usagers, etc.) ». Chaque cession doit toutefois être approuvée par l'Arcep, même lorsqu'il s'agit d'un acte antérieur à juillet 2006 (date d'attribution des fréquences BLR-Wimax). « Toute occupation privative du domaine public est en effet subordonnée à une autorisation de l'autorité propriétaire ou gestionnaire », rappelle la Conseillère d'Etat.

Plus étonnant, la collectivité territoriale recourant à un marché public ou à une délégation de service public intégrant des services Wimax n'a pas nécessairement à être titulaire de l'autorisation d'émettre. « Elle peut choisir un délégataire en laissant ce dernier faire son affaire de l'obtention des autorisations nécessaires », est-il indiqué dans le rapport.

R&T

ARCEP

Un journal télévisé à la carte
Vendredi, 09/02/2007 - 00:00

Une petite équipe de l'université de Northwestern près de Chicago pense être en passe de révolutionner le monde du journal télévisé. Tous les jours, Kristian Hammond, professeur en informatique au sein de cette université, et deux de ses étudiants mettent en ligne News at Seven, un journal entièrement composé de textes, images et vidéos récupérés automatiquement sur le Net et présenté par un avatar.

« Nous donnons un thème quotidien. Par exemple, actualité internationale, actualité américaine ou cinéma. Ensuite tout est automatisé jusqu'au moment où nous intervenons de nouveau pour télécharger le produit fini sur YouTube », explique Kristian Hammond.

Dans un premier temps le système part à la recherche d'articles sur des sites tels que Google, Yahoo! et MSN. Il sélectionne les plus populaires avant de les analyser pour identifier les personnes et les lieux mentionnés. Dans un deuxième temps, sont récupérées des images et des vidéos pour illustrer le sujet.

Après cette collecte d'informations, vient une phase d'écriture afin mettre le reportage en forme, c'est-à-dire effectuer les coupes et structurer les citations. Le tout de manière automatique. Ceci fait, le système retourne sur Internet à la recherche d'un blog approprié pour y piocher un commentaire sur l'information traitée. Celui-ci sera lu à la fin du sujet. Kristian Hammond précise que le processus est très rapide, environ 35 secondes jusqu'à ce stade.

Si Alyx, la présentatrice de News at Seven, semble familière, c'est que le personnage est tout droit sorti du moteur du jeu Half Life 2. « Grâce à un générateur vocal, Alyx lit le texte avec le ton juste. Nous venons aussi d'ajouter une gestuelle plus vivante pour accompagner la lecture », ajoute Kristian Hammond. Même chose pour le blogueur du jour dont le texte est lu à la fin du reportage par un avatar masculin.

News at Seven est un projet d'InfoLabs, un laboratoire de recherche de l'université, dont l'objectif est « de trouver, d'organiser et de présenter des informations au moment où l'utilisateur en a besoin et de façon efficace ». « Nous avons aussi fait une expérience avec une critique de cinéma où deux avatars défendent des positions différentes. Ils ont en fait une conversation. C'est presque effrayant », raconte Kristian Hammond. Pour l'instant, News at Seven attire entre 700 et 1000 internautes par jour.

Parmi les améliorations en développement, l'équipe compte donner aux internautes la possibilité de déclarer leurs préférences pour que le système leur fabrique un journal sur mesure. Les chercheurs sont en train de créer de nouveaux avatars et espèrent également dans le futur que chacun pourra façonner un présentateur ou une présentatrice à son goût.

News at Seven pourrait bientôt sortir du labo. « Nous sommes en discussion avec une chaîne câblée. Nous songeons aussi à créer une version pour l'iPod ou d'autres appareils », élabore le professeur d'informatique. Pour lui, News at Seven est « un ours sur un vélo. Il est maladroit, mais c'est étonnant qu'il y arrive. »

OINet

Le projet de loi sur la TV du futur adopté à l'Assemblée
Vendredi, 09/02/2007 - 00:00

Le projet de loi sur la modernisation de la diffusion audiovisuelle et sur la télévision du futur, voté en première lecture au Sénat en novembre 2006, a été adopté le 31 janvier à l'Assemblée nationale et modifie en profondeur le paysage audiovisuel français.

Principal bouleversement : le projet de loi annonce l'extinction de la télévision analogique à partir du 31 mars 2008 pour une migration vers la TV numérique effective au 30 novembre 2011. A cette date, la TNT (Télévision Numérique Terrestre) et ses dix-huit chaînes gratuites devra être accessible à 95 % de la population. Les 5 % restants devront recevoir ces chaînes par satellite. Les chaînes locales devraient, après accord avec le CSA, être transférées sur la TNT.

Un fonds d'aide au financement sera instauré par l'Etat pour permettre aux foyers modestes de s'équiper en décodeurs et adaptateurs. Les parlementaires ont également décidé l'intégration automatique de tuners TNT dans les téléviseurs pour simplifier la généralisation de la TNT. Cette initiative entrera en vigueur 12 mois après le vote définitif de la loi, pour permettre un écoulement des stocks de téléviseurs sans TNT.

L'attribution d'un canal numérique supplémentaire gratuit aux chaînes commerciales TF1, M6 et Canal Plus, pour les aider à compenser le manque à gagner lié à cette transition a également été confirmée. Les trois chaînes bénéficieront aussi d'une prorogation de cinq ans de leur autorisation de diffusion. Ce point a suscité une vive polémique entre les députés. Pour Christian Paul (PS), cette question est contraire "aux principes d'égalité et de pluralisme qui font partie de nos principes constitutionnels". Il a également annoncé la possibilité de saisir le Conseil constitutionnel pour protester contre l'application de cette mesure.

Autre décision entérinée par le projet de loi : la mise en place de la télévision sur mobile. Elle sera diffusée par le canal hertzien numérique et pourra être reçue sur les téléphones portables mais aussi sur les baladeurs numériques.

Enfin, l'épineuse question de la contribution des FAI au financement de la création audiovisuelle, a elle aussi été votée. Les fournisseurs d'accès devront s'acquitter d'une taxe à hauteur de 5,5 % de leur chiffre d'affaires qui sera reversée au Compte de soutien de l'industrie des programmes télévisuels (Cosip).

AN

SMS : un système d'alerte efficace et bon marché qui étend ses applications
Vendredi, 09/02/2007 - 00:00

Que ce soit pour prévenir les clients, les partenaires, les salariés ou les usagers, le SMS est un outil d'alerte inégalé. En particulier, parce que plus d'un Français sur deux, tous âges confondus, possède un téléphone mobile. Un taux d'équipement qui a poussé la société Aéroports de Paris, à travers sa filiale ADP Télécom, à lancer en juillet dernier AéroSMS, un système d'alarme SMS pour renseigner les voyageurs sur les horaires d'avions. L'utilisateur envoie un premier SMS indiquant le numéro du vol, puis un second en réponse à l'application d'ADP Télécom lui demandant la direction (départ et arrivée). ADP Télécom interroge alors ses bases de données centrales puis émet un nouveau message récapitulant les horaires, les numéros de porte et de tapis.

Si ces informations sont modifiées, ADP Télécom envoie un SMS réactualisé à l'utilisateur. « Nous délivrons une information condensée : numéro du vol, heure et porte d'arrivée. Mais surtout nous alertons sur les retards ou les déroutements », explique Marc-Antoine Peigné, chef des produits applicatifs chez ADP Télécom, qui estime à quelques centaines le nombre de SMS envoyés chaque mois. Chez Marnier-Lapostolle, une entreprise de spiritueux, le SMS permet de rester en contact permanent avec les personnels nomades : « Nous pouvons prévenir nos commerciaux si le bon de commande est incomplet ou les alerter d'un problème d'encours ou de règlement », expose Arnaud Mabire, directeur informatique. Ces envois s'inscrivent dans un dialogue personnel avec chacun de nos vingt commerciaux. »

Cette logique vaut pour Dyneff, une entreprise spécialisée dans le transport et la commercialisation de produits pétroliers. « Nous pouvons avertir nos 240 transporteurs des changements de dernière minute », précise son directeur informatique, Gilbert Folcher. L'envoi de SMS est automatique dès que notre système détecte une évolution dans le processus de commande-livraison. »

Autres grands utilisateurs de SMS : les collectivités locales ou les services publics. Ainsi, la Société des transports de l'agglomération paloise, la STAP, a-t-elle mis en place le service Textobus. « Nous prévenons nos usagers lorsqu'une ligne d'autobus subit un retard. Pouvoir délivrer cette information rend un vrai service aux usagers », indique Hervé Dubilly, directeur marketing de la STAP. « Nous avons créé des listes de diffusion par ligne de bus, dans lesquelles nous inscrivons les numéros de mobile que nous ont indiqués les abonnés sur le bulletin qu'ils renvoient par la poste. »

Au-delà de ces exemples, les applications SMS sont très diverses dans leurs usages, autre avantage, le développement de nouvelles applications n'est pas dépendant d'une solution technologique particulière. ADP Télécom, par exemple, travaille à la mise en place d'un système de micropaiement par SMS qui permettra d'accéder aux réseaux Wi-Fi déployés dans les aérogares.

OINet

Le mobile qui vous identifie
Vendredi, 09/02/2007 - 00:00

Hitachi, NTT DoCoMo, KDDI et NEC ont mis au point un système d'identification utilisant les clefs publiques (PKI) permettant de vérifier des certificats électroniques contenus dans des téléphones mobiles et permettant ainsi l'identification via les mobiles. Ces quatre compagnies ont travaillé ensemble à l'élaboration de cette technologie à la demande du NICT (National Institute of Information and Communications Technology).

Cette annonce montre bien la volonté des constructeurs de mobiles japonais de standardiser l'authentification via les téléphones portables. En plus des problèmes de technologie invasive de ce type de système qui ne sont toujours pas résolus, d'autres problèmes comme la perte du portable ou la vérification du propriétaire du portable se posent également. Il est probable que le système d'identification tel qu'il a été proposé actuellement à travers les mobiles devra s'accompagner d'un système de vérification d'empreinte pour pouvoir être véritablement utilisable.

BE Japon 431

^ Haut
Avenir
Nanotechnologies et Robotique
Un deuxième robot humanoïde arrive en France
Vendredi, 09/02/2007 - 00:00

Les activités de recherche dans le domaine de la robotique humanoïde sont en plein essor. La création du laboratoire commun franco-japonais JRL (Joint Japanese-French Robotics Laboratory) basé à la fois au Japon (Tsukuba) et en France (Toulouse-LAAS et Montpellier-LIRMM) a fortement contribué à concrétiser, renforcer et dynamiser la communauté de la recherche robotique autour de cette thématique. Les deux robots humanoïdes sont au coeur des recherches du JRL. L'acquisition de HOAP3 par le LIRMM, cofinancé à hauteur de 50 % par le CNRS, se situe dans cette dynamique. Dans le cadre du JRL-France, le LIRMM va ainsi proposer à la communauté nationale une plate-forme expérimentale ouverte pour la validation de modèles ou de méthodes de commande contribuant à la déambulation et la manipulation d'objets sous contrainte d'équilibre.

Ce robot de 8,8 kg et de 60 cm de haut, dispose de 28 articulations motorisées. Il possède aussi un nombre important de capteurs tels que des accéléromètres, des gyromètres, un télémètre infra-rouge, des capteurs de pression et deux caméras. Cet ensemble est conçu autour d'une plate-forme logicielle entièrement ouverte (RTLinux) donnant ainsi la possibilité à l'ensemble des chercheurs intéressés d'évaluer et valider en toute liberté leurs nouveaux développements théoriques concernant la modélisation, la commande, la vision ou l'apprentissage de ces robots.

Cette plate-forme complète celle qui est déjà installée au LAAS à Toulouse, le robot HRP2, plus réaliste car de « taille humaine », mais aussi plus complexe. HOAP3 va permettre de faire avancer des travaux très rapidement, car sa mise en oeuvre est simple et ne nécessite pas de validations préalables sur simulateur. D'autre part, la plate-forme logicielle utilisée pour piloter le robot facilitera l'intégration et la valorisation de travaux déjà développés sous Linux. En revanche, la petite taille de HOAP3 ne lui permet pas de réaliser toutes les tâches dévolues à un robot humanoïde dans un environnement de taille réelle. Pour ces essais, la plate-forme installée au LAAS sera donc complémentaire. Enfin, HOAP3 dispose d'un lien de communication sans fil permettant d'effectuer des travaux de type téléopération ou collaboration de robots mobiles. Un des espoirs du LIRMM est de pouvoir bientôt disposer de plusieurs humanoïdes pour étudier la coopération de robots.

CNRS

Les premiers gestes de bio-woman
Vendredi, 09/02/2007 - 00:00

Les prothèses utilisées après amputation du membre supérieur ont fait d'importants progrès ces dernières années. La plupart de ces dispositifs sont motorisés et peuvent être contrôlés par l'amputé par l'intermédiaire des signaux myo-électriques émis lors de la contraction de la portion restante d'une paire de muscles agonistes-antagonistes du membre amputé. Cependant, ces techniques qui ne permettent de contrôler qu'un seul mouvement à la fois (coude, poignet ou main) ne peuvent aboutir qu'à des mouvements lents et relativement maladroits, d'autant qu'elles ne comportent pas pour le patient de feed-back sensoriel (en dehors de la vision).

Pour améliorer la fonction de ces prothèses, de nombreuses équipes dans le monde travaillent à la mise au point de bras artificiels plus performants et mieux contrôlés par les patients. Une équipe spécialisée de Chicago dirigée par Todd Kuiken, présente les résultats préliminaires obtenus avec une nouvelle méthode basée sur la ré-innervation ciblée.

A la suite d'un accident de la circulation, en mai 2004, la patiente, âgée de 24 ans, avait été amputée du membre supérieur gauche à 3 cm au-dessous de l'extrémité de l'humérus. Une prothèse myo-électrique conventionnelle récupérant les signaux émis lors de la contraction du pectoral et de la portion restante du triceps n'avait pas donné des résultats fonctionnels très satisfaisants. La patiente se sert actuellement de sa prothèse 4 à 5 heures par jour en moyenne contre une à deux fois par mois pour la prothèse conventionnelle. Des perfectionnements techniques de cette prothèse expérimentale devraient en diminuer le poids (6 kg actuellement) et améliorer la complexité des mouvements réalisables grâce à l'utilisation de nouveaux algorithmes de transcription des signaux myo-électriques des muscles ré-innervés. A terme, un rétro-contrôle sensitif des mouvements de la prothèse devrait être possible grâce à l'utilisation de capteurs situés sur la main artificielle. Mais d'ores et déjà, cette patiente peut accomplir tous les gestes de la vie quotidienne grâce à cette remarquable prothèse et notamment saisir délicatement un objet, couper un citron ou ouvrir un flacon.

JIM

^ Haut
Matière
Matière et Energie
Energie solaire : des cellules photovoltaïques à rendement doublé bientôt disponibles
Vendredi, 09/02/2007 - 00:00

Aujourd'hui, un quart seulement de l'énergie solaire reçue peut être transformée en électricité par les cellules photovoltaïques. Pour y arriver, la lumière captée doit disposer d'un minimum d'énergie. La lumière incidente dotée d'une énergie moindre ne sera pas absorbée et le potentiel énergétique de cette lumière est purement et simplement perdu.

Dans le numéro de novembre 2003 du Scientific American, Wladyslaw Walukiewicz et Kin Man Yu du Lawrence Berkeley National Laboratory annonçaient avoir mis au point un semi-conducteur à base de zinc, de magnésium et de tellure capable d'atteindre un rendement proche de 50 % grâce à l'injection d'atome d'oxygène. On ne parlait à l'époque que d'expérimentation. Fin 2005, un accord intervenait avec Rose Street Labs pour commercialiser la technologie du Lawrence Berkeley National Laboratory appelée Multi-Band Semiconductors and High Efficiency Solar Cells et dont on attend un rendement supérieur à 48 %. Fin octobre 2006, RoseStreet Labs annonçait la création d'une Joint Venture avec Sumitomo Chemical pour passer au stade de la production de cellules photovoltaïques dénommées Full Spectrum.

AB

Créer de l'hydrogène par le même mécanisme que les plantes : une nouvelle étape franchie
Vendredi, 09/02/2007 - 00:00

Dans le mécanisme de photosynthèse, les plantes parviennent à casser les molécules d'eau pour créer de l'hydrogène, de l'oxygène, des protons et des électrons en utilisant simplement la lumière du soleil. Si on connaissait la molécule à l'oeuvre dans cette photolyse - en l'occurrence Mn4Ca (4 atomes de manganèse pour un atome de Calcium) -, il avait été impossible jusqu'ici d'en déterminer la structure parce que les outils de mesure n'étaient pas assez précis. Une récente tentative menée avec la technologie de la diffractométrie de rayons X à une résolution de 3.0-Ångstrom avait échoué à identifier précisément la position exacte des atomes de manganèse et de calcium.

Une équipe internationale de chercheurs pilotée par Junko Yano et Vittal Yachandra du Lawrence Berkeley National Laboratory est parvenue à détailler cette molécule. L'espoir est évidemment de pouvoir la synthétiser, ce qui permettrait une maîtrise de la photolyse de l'eau et par conséquent la mise en place d'un moyen de production d'hydrogène sans doute moins coûteux que l'électrolyse actuelle.

Physorg

LS

La France est le troisième marché européen de l'éolien en 2006
Vendredi, 09/02/2007 - 00:00

Avec 810 MW installées en énergie éolienne l'an dernier, la France se hisse à la troisième place des pays produisant le plus d'énergie éolienne en Europe. L'Hexagone n'occupait encore que le 6e rang en 2005, indique dans son rapport l'Association Européenne de l'énergie éolienne (European Wind Energy Association, EWEA). En tout, les pays européens ont installé 2.233 MW en 2006, soit une hausse de 23 % par rapport à 2005. La production cumulative d'énergie éolienne dans l'Union Européenne a augmenté de 19 % et dépasse 48.000 MW. Annuellement, cela permet de générer en moyenne 100 TWh, soit 3,3 % de la production total d'électricité en Europe.

L'Allemagne et l'Espagne restent les deux pays produisant le plus d'énergie éolienne. A eux deux, ils ont représenté, en 2006, 50 % du marché total de l'Union Européenne dans ce secteur. Avec ses nouvelles installations, l'Allemagne a dépassé la barre des 20.000 MW installés à travers le pays. L'Espagne a, pour sa part, installé 1.587 MW l'an dernier. L'EWEA indique que les deux marchés émergents sont le Portugal et le Royaume-Uni. Le premier a installé l'an dernier 694 MW en nouvelles capacités de production. Des installations pouvant générer 1.063 MW sont en cours d'installation. A ce rythme, le pays pourrait atteindre les objectifs fixés par le gouvernement portugais pour 2010, soit une capacité totale de 3.750 MW. La production d'énergie éolienne du Royaume-Uni a augmenté de 634 MW en 2006.

RC

Le marché mondial de l'énergie éolienne explose
Vendredi, 09/02/2007 - 00:00

Le marché mondial de l'énergie éolienne a augmenté l'an dernier à un rythme record, une croissance imputable principalement à une hausse des capacités de production aux États-Unis, en Allemagne, en Espagne, en Chine et en Inde, a déclaré la Fédération allemande de la construction mécanique (VDMA). Au total, 15 200 mégawatts de capacité supplémentaire ont été créés en 2006, avec des investissements de l'ordre de 15 milliards d'euros, soit une hausse de 32 % par rapport à 2005. «Nous prévoyons des rythmes de croissance similaires au moins jusqu'en 2010», a déclaré Norbert Giese, qui représente les fabricants d'éoliennes au sein de la VDMA, une fédération regroupant 3000 sociétés spécialisées dans la construction mécanique, des PME essentiellement.

Les États-Unis ont augmenté de 2.454 MW leur capacité de production d'énergie éolienne. Parallèlement, l'association européenne d'énergie éolienne (EWEA) a déclaré que la capacité de production en Europe avait augmenté de 7600 mégawatts l'an dernier pour un coût d'environ neuf milliards d'euros. L'EWEA représente quelque 300 entreprises dans 40 pays. La capacité globale de production d'énergie éolienne en Europe a augmenté de 19 % pour atteindre 48 000 MW en 2006.

Canoe

^ Haut
Espace
Espace et Cosmologie
En quoi l'eau peut-elle expliquer la présence de la vie ?
Vendredi, 09/02/2007 - 00:00

En décembre 2006, la NASA a affirmé avoir trouvé des preuves que l'eau liquide coule parfois à la surface de Mars. Mais pourquoi la présence de cette molécule est-elle aussi importante dans la recherche d'une vie éventuelle ?

Tout d'abord, l'eau est une molécule composée de trois atomes : deux atomes d'hydrogène et un atome d'oxygène. Cette molécule est le composé le plus simple des deux éléments parmi les plus réactifs de l'Univers. La forte tendance qu'a l'atome d'oxygène à conserver les électrons près de son noyau, appelée électronégativité, fait en sorte de déformer le nuage d'électrons. Les électrons sont ainsi plus attirés par l'oxygène que l'hydrogène, ce qui a pour conséquence de créer un pôle négatif (du côté de l'oxygène) et deux pôles positifs (du côté de l'hydrogène) autour de cette molécule. Ceci permet à l'hydrogène d'établir des liens avec les atomes d'oxygène des autres molécules d'eau environnantes. On nomme ces liens des ponts hydrogènes. Il est à noter que ces ponts hydrogènes se forment dès qu'il y a une liaison d'un hydrogène avec une molécule fortement électronégative telle que l'oxygène, l'azote, le soufre ou autre.

Dans le cas qui nous intéresse, ces composantes donnent à l'eau une plus grande cohésion qu'un autre liquide qui ne serait composé que de molécules indépendantes. D'ailleurs, on peut constater la force de cette cohésion lorsque l'on fait bouillir de l'eau : la quantité d'énergie nécessaire pour briser les liens entre les molécules est très élevée. Cette propriété est appelée la capacité calorifique de l'eau.

En fait, tous les autres composés chimiques, à l'exception de l'ammoniac, ont une capacité calorifique plus basse que l'eau, c'est-à-dire que leur capacité à emmagasiner de la chaleur sans augmenter de température est moindre, donc ils se chauffent plus rapidement. Cette propriété qu'a l'eau d'emmagasiner beaucoup de chaleur avant que sa température s'élève, son inertie thermique, a une très grande importance pour la régulation de la température de notre planète. En effet, elle fait en sorte que la température à la surface de la Terre demeure suffisamment constante pour permettre à des organismes vivants de s'y adapter. En comparaison, la température à la surface de la Lune varie de plus de 250° C entre le jour et la nuit.

Un autre effet de cette forte cohésion est la capillarité, cette capacité qu'a l'eau de contrer l'effet de la gravité et de remonter des tubes lorsque ceux-ci sont assez étroits. Elle peut s'expliquer par le fait que les molécules d'eau situées à la surface du tube capillaire adhèrent suffisamment à cette surface pour vaincre la force de la gravité. Cette propriété agit lorsque l'eau remonte des racines aux feuilles des arbres ou bien lorsque l'eau arrive à se distribuer jusqu'aux extrémités de notre corps. On peut s'expliquer ce mouvement par le fait que les molécules à la surface d'un tube capillaire possèdent une force de cohésion suffisamment grande pour entraîner les molécules situées au-dessous d'elles et ainsi de suite. Il serait difficile de concevoir la vie telle que nous la connaissons sans cette propriété qui permet à l'eau de s'affranchir des lois de la gravité pour ainsi se propager au sein des organismes vivants.

Autre particularité tout aussi intéressante, à l'inverse de tous les composés connus jusqu'à présent, l'eau est moins dense à l'état solide qu'à l'état liquide. La conformation cristalline qu'elle adopte lorsqu'elle est gelée fait en sorte que l'espace occupé par un certain volume d'eau augmente, ce qui diminue par de fait même sa densité (la densité est la mesure de la masse par le volume). Ceci a pour effet de rendre la glace plus légère que l'eau liquide. Vous n'avez qu'à penser à la dernière fois où vous avez ajouté un cube de glace dans un verre d'eau : il flotte. Pour la protection de la vie, cette propriété est aussi très importante.

En effet, lorsque la température de l'eau s'abaisse en-dessous de 0° C, une couche de glace se forme à la surface des lacs et des océans et agit ainsi à titre d'isolant. Cette particularité permet donc à l'écosystème aquatique de résister aux changements de température. Dans le cas contraire, si la glace était plus lourde que l'eau liquide, elle coulerait au fond. Ainsi, la surface de l'eau serait exposée au froid et gèlerait à son tour jusqu'à ce que la masse d'eau entière soit transformée en glace.

C'est également grâce à cette propriété que l'eau des lacs et des océans est agitée naturellement. Ce mouvement est appelé convection et s'explique par le fait qu'à 4 degrés, l'eau atteint sa densité maximale. Donc, lorsque l'eau de surface est réchauffée par les rayons de Soleil et atteint cette température, elle a tendance à couler vers le fond. En descendant vers le fond, l'eau se refroidit, ce qui diminue sa densité et la fait remonter à la surface.

Une fois à la surface, si elle continue à se refroidir à cause de l'absence de soleil ou de la température ambiante plus froide, l'eau gèle et devient glace, sinon, son mouvement perpétuel continue. C'est d'ailleurs pour cette raison que l'eau liquide des lacs et des océans ne peut atteindre une température inférieure à 4 °C. Bien que cette température soit beaucoup trop basse pour qu'il soit agréable de s'y baigner en plein hiver, elle est suffisante à la survie de plusieurs espèces aquatiques qui s'y sont adaptées.

Mentionnons une dernière propriété : l'eau est un excellent solvant. Un solvant est une substance capable de dissoudre un corps (un soluté). Étant donné la petite taille de cette molécule et le fait qu'elle soit dipolaire (c'est-à-dire qu'elle possède un pôle partiellement positif du côté des atomes d'hydrogènes et un pôle partiellement négatif du côté de l'atome d'oxygène), elle arrive à s'insérer entre les molécules du soluté pour la faire éclater en ions positifs et négatifs.

La définition de la vie réfère à tout organisme étant capable de transformer une source d'énergie (nourriture, oxygène, énergie solaire, chaleur, etc.) afin de se préserver et de se reproduire, entraînant nécessairement un grand nombre de réactions chimiques. En effet, le métabolisme de tout être vivant doit être en mesure d'assimiler un nombre restreint d'aliments à partir desquels il doit produire tous les composés pour assurer sa survie. Il est donc tout à fait logique que cette transformation se produise dans un environnement liquide puisque cela facilite grandement la dispersion des composés chimiques. Si, par exemple, le corps humain était entièrement solide, on pourrait imaginer que le temps nécessaire à un globule rouge transportant de l'oxygène pour se rendre des poumons jusqu'au cerveau soit extrêmement long.

Ainsi, par sa propriété d'être un très bon solvant et par le fait qu'elle permet une meilleure dispersion, l'eau constitue le milieu par excellence pour soutenir la vie.

L'eau possède de nombreuses propriétés qui expliquent l'existence de la vie sur Terre. C'est grâce aux propriétés que nous venons de mentionner que la NASA, en constatant que de l'eau liquide a récemment coulé à la surface de Mars, peut espérer y détecter la présence de vie. Même si cette molécule a rendu possible l'éclosion et la subsistance de la vie sur Terre, une multitude d'autres facteurs ont un rôle tout aussi important à jouer.

Il serait donc plus sage d'éviter de faire une association trop facile entre la présence d'eau et la présence de vie. Il faudra sans doute encore plusieurs années et plusieurs études afin de savoir avec certitude s'il y a eu, à un moment ou à un autre, présence de vie sur Mars.

APEM

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Livre blanc des scientifiques français sur les modèles climatiques
Vendredi, 09/02/2007 - 00:00

Les scientifiques français spécialistes du climat ont rédigé un "livre blanc" sur les modèles qui permettent de prévoir l'évolution du climat, ont annoncé dans un communiqué commun plusieurs organismes dont Météo France, le Commissariat à l'énergie atomique (Cea) et le Centre national de la recherche scientifique (Cnrs). Ce document présente "de nouvelles analyses des simulations climatiques françaises" dont une partie a contribué à la préparation du rapport présenté le 2 février par le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) réuni à Paris.

C'est la première fois que la communauté climatique française participe à "la réalisation d'un ensemble important de simulations recommandées par le Giec pour servir de base à l'évaluation des changements climatiques futurs", selon le communiqué. Ce livre blanc traite trois grands thèmes : "modélisation globale et évolution du climat, rétroactions et variabilité climatique, régionalisation et détection-attribution du changement climatique".

Il montre que les deux modèles climatiques français, l'un développé par Météo France et le Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs), l'autre par l'Institut Pierre Simon Laplace (Ipsl), ont été affinés. Le document explique également comment l'évolution future du climat pourrait diminuer de façon drastique l'efficacité des puits de carbone naturels, forêts et océans, ce qui provoquerait en retour une augmentation des émissions de CO² et donc une accélération du réchauffement climatique.

CEA

CEA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les nanomédicaments sortent des laboratoires
Vendredi, 09/02/2007 - 00:00

Le nanomonde n'est plus une utopie : ses promesses commencent à se concrétiser, particulièrement dans le domaine de la santé. Ainsi en va-t-il des médicaments du futur - les nanomédicaments - que permettent d'ores et déjà d'élaborer les nanotechnologies, en usinant la matière à l'échelle du milliardième de mètre, soit la taille d'une molécule.

Avec les chimiothérapies actuelles, il est souvent difficile d'"adresser" une molécule thérapeutique vers l'organe, le tissu ou la cellule malade. Les principes actifs du médicament peuvent être libérés loin du site d'action visé, perdant ainsi de leur efficacité et risquant, de surcroît, d'entraîner des effets secondaires toxiques pour des zones saines de l'organisme.

La mise au point de vecteurs de médicaments de taille nanométrique est en passe de contourner cet obstacle, explique Patrick Couvreur, directeur de l'unité physico-chimie, pharmacotechnie et biopharmacie (université de Paris-XI-CNRS). Le principe consiste à insérer la molécule active dans de minuscules capsules ou vésicules creuses, ou encore à l'introduire dans des nanotubes de carbone, qui la protègent et permettent, une fois cette nanosonde introduite dans l'organisme par voie intraveineuse ou orale, de contrôler sa libération dans le temps et dans l'espace.

Des tests sur des souris ont montré que le même médicament, administré sous forme de nanoparticules, s'avère non seulement actif à dose beaucoup plus faible, mais, en outre n'entraîne pas d'insuffisance cardiaque, sa diffusion restant cantonnée à la zone hépatique. Des essais cliniques sur l'homme sont en cours et une start-up, Bioalliance, employant 70 personnes et cotée en Bourse, a été créée pour exploiter ce procédé.

Que faire toutefois quand la tumeur ou la pathologie n'est pas localisée dans un organe ? Les chercheurs développent aujourd'hui des nanovecteurs de deuxième génération, dits "furtifs" parce qu'ils sont recouverts d'une sorte de leurre : des polymères qui leur permettent d'échapper à la traque des macrophages du foie. Ces clandestins parviennent ainsi à franchir la barrière hématoencéphalique, ce qui ouvre des espoirs nouveaux pour le traitement des tumeurs ou des maladies dégénératives cérébrales.

Déjà, annonce Patrick Couvreur, des nanovecteurs de troisième génération sont à l'étude. Dotés d'une "tête chercheuse" - des ligands (anticorps, peptides, sucres, acides) reconnaissant les antigènes ou les récepteurs spécifiques des cellules cancéreuses ou infectées -, ils seront capables d'atteindre précisément leur cible. Autre avantage de ces missiles intelligents miniaturisés : il est possible d'y intégrer des nanoparticules métalliques qui, excitées par un laser ou des ultrasons, s'échauffent et détruisent, sélectivement, les cellules tumorales.

Les nanotechnologies ouvrent encore d'autres voies à la médecine de demain. Ainsi, les chercheurs évoquent des laboratoires sur puces, ou biopuces, pour les diagnostics et les tests génétiques précoces, ou bien des prothèses et implants rendus, grâce aux nanomatériaux, plus résistants et davantage biocompatibles

LM

Cyberpresse

Rapport prospectif sur la nanomédecine en Europe
Vendredi, 09/02/2007 - 00:00

Alors que l'humanité reste confrontée à des maladies graves telles que le cancer, le diabète, le sida et les maladies cardiovasculaires, l'application des nanotechnologies à la santé présente d'énormes potentialités en termes de développement de nouvelles méthodes diagnostiques, curatives et préventives. Consciente de ce potentiel ainsi que du rôle de premier plan joué par l'Europe dans ce domaine technologique innovant, la Commission Européenne a mis sur pied une plate-forme technologique européenne pour la nanomédecine chargée de définir un agenda stratégique européen pour la recherche en nanomédecine.

Intitulé «Nanomedicine - Nanotechnology for Health», le document prospectif a pour objectif premier d'établir, à l'attention des responsables politiques et des agences de financement, une base solide pour la prise de décisions qui leur fournira une vue d'ensemble des besoins et des défis, des technologies existantes et des opportunités d'avenir en nanomédecine.

Divers domaines des soins médicaux bénéficient déjà des avantages liés aux nanotechnologies, lesquels vont des systèmes nanotechnologiques de délivrance ciblée de médicaments aux diagnostics en passant par la médecine régénératrice. Mais bien des questions doivent encore être abordées et résolues. L'agenda stratégique de recherche prend en considération l'enseignement et la formation, les exigences éthiques, l'évaluation risque/bénéfice, l'acceptation par le public, le cadre réglementaire et les questions de propriété intellectuelle pour le compte des organes réglementaires des États membres de l'UE, des pays candidats et des États associés.

L'agenda stratégique de recherche fixe des priorités axées sur les maladies en s'appuyant sur des paramètres tels que le taux de mortalité, le niveau de souffrance imposé au patient par la maladie, le poids pour la société, la prévalence de la maladie et l'impact éventuel des nanotechnologies sur le diagnostic et l'éradication de certaines maladies.

Ces critères ont permis d'élaborer la liste de priorités suivantes : maladies cardiovasculaires, cancer, troubles musculo-squelettiques, maladies neurodégénératives et psychiatriques, diabète et infections bactériennes et virales. En place depuis plus de 10 ans déjà, le financement communautaire de projets dans le domaine de la nanomédecine a été fortement revu à la hausse au titre du programme NMP (nanotechnologies, matériaux, processus) du sixième programme-cadre pour atteindre 250 millions d'euros. Avec l'entrée en vigueur du septième programme-cadre (2007-2013), la Commission va affecter 100 millions d'euros sur une base annuelle au financement de projets de nanomédecine.

Cordis

Greffes contre le cancer : les donneurs dangereux seront identifiés
Vendredi, 09/02/2007 - 00:00

Une équipe de chercheurs de l'Université de Montréal annonce que la génomique lui permet de prétendre à une avancée qui aura un impact fondamental sur le traitement de certains cancers du sang par voie de greffe de cellules sanguines. La découverte, publiée dans la revue américaine Public Library of Science Medicine, aide à reconnaître de façon sûre si les cellules du donneur de moelle osseuse causeront une réaction chez le receveur, après la greffe.

Ce test prédictif pourrait susciter un impact considérable pour l'avenir des malades. La greffe de cellules-souches provenant de la moelle osseuse demeure la meilleure voie pour traiter ou guérir certains des patients atteints de leucémie et de lymphomes. Cependant, cette greffe demeure risquée en raison de la complication majeure qu'est la réaction du greffon.

Comme le souligne l'initiateur de ce projet, le Dr Claude Perreault de l'Institut de recherche en immunologie et cancérologie de l'Université de Montréal, ce test permettra de choisir le meilleur donneur et d'offrir une médecine personnalisée. Pour réussir une telle avancée, les chercheurs ont utilisé deux techniques de biologie moléculaire qui permettent d'étudier le niveau d'expression des gènes dans les cellules du donneur. Génome Québec affirme qu'il s'agit d'une avancée extraordinaire qui non seulement permettra d'améliorer et de sauver des vies, mais qui confirme l'importance de soutenir le savoir en génomique. Seulement au Canada, 10 000 personnes ont pu être sauvées grâce à la greffe de cellules-souches.

Cyberpresse

Plus de 4 millions de médicaments testés en... 10 semaines
Vendredi, 09/02/2007 - 00:00

Quand l'informatique vient au secours de la recherche médicale, les perspectives de développement prennent une toute autre dimension. Illustration avec l'expérience Wisdom qui permet aux chercheurs de se concentrer sur les molécules les plus prometteuses. Grâce à l'association de plusieurs grilles de calcul, Wisdom (sagesse n.d.t.) est une étude internationale à laquelle participe le CNRS français. Elle a permis d'analyser chaque heure, pendant 10 semaines, près de 80 000 candidats médicaments pour le traitement du paludisme. Dans un communiqué, le CNRS souligne que ce système « ouvre la voie à de nouvelles perspectives thérapeutiques dans le traitement de cette maladie mais également pour combattre d'autres affections tropicales ».

Reposant sur le criblage virtuel de molécules, il permet aux chercheurs « de calculer la probabilité qu'une d'entre elles se fixe sur une protéine cible, altérant son activité biologique ». Et les chiffres donnent le vertige : 4,3 millions de molécules actives ont été testées en 10 semaines. Ce qui représente 413 années de calcul pour un ordinateur classique... Par ce processus, un grand nombre de molécules peuvent être rejetées en un temps record. Une stratégie qui permet « de réduire de façon conséquente le coût de développement de nouveaux médicaments ».

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top