RTFlash

RTFLASH Recherche & Technologie
NUMERO 659
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Juillet 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'éducation digitale doit combiner usage formel et informel des technologies
Google dévoile sa tablette numérique
Le sans-fil de la Nasa va 8300 fois plus vite que le Wi-Fi !
Google crée un cerveau informatique capable de reconnaître un chat
Shaman, un projet européen pour préserver la mémoire informatique
Avenir
Bientôt des robots DJ à la maison
Matière
Une avancée majeure dans les batteries lithium-ion
La firme française «Alizeo» construit des éoliennes rabattables
Une nouvelle caméra très haute définition
Terre
Des chutes de neige accrues amortiraient le réchauffement climatique en Antarctique
Le bilan de 10 ans d’essai de systèmes de culture utilisant des techniques alternatives aux herbicides
Découverte d'un gène pourrait redonner du goût aux tomates industrielles
La hausse du niveau de la mer devrait être bien plus importante que prévue
Une usine de traitement des déchets en plein cœur de Londres !
Vivant
Une technologie prometteuse : le séquençage de l'exome
Du sélénium contre les staphylocoques dorés
Le suivi des maladies chroniques se réalise sur le vêtement
Un monde sans musique ?
90 minutes d'exercice par jour diminue le risque de cancer du sein
Cancer : vers des traitements personnalisés grâce à la bioinformatique
Opération d'une tumeur réussie chez un fœtus "in utero"
Fibrosarcomes : un nouveau traitement expérimenté à Lyon
Vitamine D : vers un doublement de la dose quotidienne…
Un pacemaker miniaturisé en 2017
Un test sur les ovocytes améliorerait la PMA
Cellules souches : réussite d’une greffe de veine « personnalisée »
Une bonne hygiène de vie réduit-elle l'âge biologique ?
L'étonnante carte cérébrale de l'odorat
Une première mondiale française dans la lutte contre les infections nosocomiales
Sanofi Pasteur : opinion positive de l’EMA pour Hexaxim, son vaccin pédiatrique 6-en-1
Recherche
L'Astute Car : la voiture de demain grâce à la technologie aéronautique
Edito
Réacteurs de 4ème génération : produire de l’hydrogène avec le nucléaire



L'événement est malheureusement passé inaperçu dans la presse et les medias mais il constitue pourtant une nouvelle avancée majeure en matière de recherche énergétique : le CEA et Bouygues Construction ont conclu le 26 juin un accord de collaboration qui met définitivement sur les rails le projet de prototype de réacteur nucléaire de 4ème génération ASTRID.

D'une puissance de 600 MW, ASTRID est un prototype de réacteur à neutrons rapides de quatrième génération refroidi au sodium. Ce prototype réalisé sous l'égide du CEA doit déboucher sur une mise en service industrielle vers 2020. ASTRID réunit un ensemble unique et remarquable de compétences technologiques et industrielles. Il regroupe dans un consortium EDF, Areva, Alstom Power Systems, Comex Nucléaire, Jacobs France, Toshiba et Rolls Royce.

Astrid représente un défi scientifique de premier ordre qui vise simultanément trois objectifs : disposer à l'horizon 2040 d'un nouveau type de réacteur nucléaire capable de produire à moindre coût plus d'énergie avec un impact sensiblement réduit sur l'environnement et une production de déchets radioactifs beaucoup plus faible.

Pour accomplir cette rupture décisive, 12 pays (Afrique du Sud, Argentine, Brésil, Canada, Chine, Corée du Sud, France, Japon, Royaume-Uni, Russie Suisse et USA) se sont unis dans le Forum international Generation IV. Pour l'instant, six voies technologiques sont conjointement explorées : les réacteurs à très haute température refroidis à l'hélium, les réacteurs rapides à caloporteur hélium, les réacteurs rapides à caloporteur sodium, les réacteurs rapides à caloporteur alliage de plomb, les réacteurs à eau supercritique et enfin les réacteurs à sels fondus.

La France, pour sa part, concentre ses efforts de recherche sur deux nouveaux types de réacteurs : le réacteur à neutrons rapides à caloporteur sodium et à caloporteur hélium. La mise au point de ce nouveau type de réacteurs suppose des avancées considérables dans l'élaboration de nouveau matériaux composites, combinant la céramique et l'acier, capables de résister aux conditions physico-chimiques extrêmes qui règnent dans le cœur de ces réacteurs. Ces matériaux sont testés dans le réacteur expérimental Osiris à Saclay qui sera complété dans deux ans par le réacteur Jules Horowitz à Cadarache.

Un intense effort de recherche concerne également le choix et la forme du combustible le plus efficient pour chacune des filières en cours d'évaluation. Il est probable que les oxydes d‘uranium actuellement utilisés soient remplacés par des nitrures ou carbures d'uranium.

Ce réacteur de 4ème génération à neutrons rapides au sodium va radicalement bouleverser la production d'énergie nucléaire pour deux raisons : premièrement, ce type de réacteur, contrairement aux réacteurs actuels, pourra transformer tout l’uranium 238 en plutonium 239. Les réserves mondiales d'uranium, actuellement estimées à 60 ans de consommation pourront alors assurer plusieurs milliers d'années de production d'électricité nucléaire.

Deuxièmement, ces réacteurs pourront régler la question jusqu'alors insoluble du traitement des actinides mineurs qui représentent la plus grande partie des éléments radioactifs à très longue vie. Après retraitement de ces actinides dans les futurs réacteurs à neutrons rapides, les déchets ultimes seront des produits de fission faiblement radioactifs pendant 300 ans, ce qui n'a plus rien à voir avec la situation actuelle caractérisée par la production de déchets ultimes qui restent très radioactifs pendant plusieurs dizaines de milliers d'années.

L'industrie nucléaire va donc d'ici 25 ans disposer de deux outils nouveaux, la séparation des actinides et à plus long terme la transmutation, qui vont permettre de lever le principal obstacle à l'acceptation sociale de l'énergie nucléaire : celui de la question du traitement et du stockage des déchets radioactifs.

Mais ces réacteurs de quatrième génération ne seront pas seulement beaucoup plus efficaces et moins dangereux que les technologies de fission actuelles, ils seront également les moteurs d'un nouvel essor industriel assurant la production massive de trois substances indispensables à nos économies développées : le Xénon, un gaz rare indispensable qui a de multiples applications dans de nombreux domaines industriels, des radio-isotopes thérapeutiques pour traiter le cancer (ces substance sont de plus en plus difficiles à obtenir en quantité suffisante compte tenu de l'augmentation mondiale du nombre de malades) et enfin l'hydrogène pour préparer la transition énergétique planétaire vers une économie totalement décarbonée et non émettrice de gaz à effet de serre.

S'agissant de la production d'hydrogène à partir des centrales nucléaires, une étude suisse a montré qu'un réacteur à très haute température de quatrième génération pourrait parfaitement, grâce à la co-génération, produire en un an la quantité d’hydrogène nécessaire pour permettre à un million de véhicules à pile à combustible de parcourir environ 15 000 kilomètres chacune ! Or, la production d’hydrogène massive et non émettrice de CO2 est un enjeu fondamental pour les prochaines décennies car les transports représentent plus du quart des 31 milliards de tonnes de CO2 que l'humanité émet chaque année et seul le binôme hydrogène-électricité pourra permettre de réduire massivement les émissions de CO2 liés aux déplacements, surtout quand on sait que la croissance économique va entraîner un doublement du nombre de véhicules dans le monde (un milliard en 2010) d'ici 20 ans.

En outre, il faut souligner à quel point le développement du vecteur énergétique "hydrogène" est crucial pour accélérer l'essor de l'ensemble des énergies renouvelables, qu'il s'agisse du solaire, de l'éolien, de l'hydraulique ou des énergies marines. Les énergies renouvelables sont par nature intermittentes et leur utilisation massive suppose que l'on sache stocker de manière souple, efficace et économique l'électricité produite par ce type d'énergie pour pouvoir l'utiliser plus tard en fonction de la demande des utilisateurs finaux (entreprises, ménages) tant dans le secteur des transports que dans celui du logement ou de l'industrie. L'hydrogène, en raison de ses propriétés (sa fusion avec l’oxygène de l’air ne produit pas de CO2 mais de l’eau !) et de sa haute densité énergétique, serait le vecteur idéal pour permettre ce stockage. On peut, certes, produire de l'hydrogène directement à partir de ces énergies renouvelables mais les quantités produites, compte tenu des lois de la physique, resteront très insuffisantes pour répondre aux besoins de la planète, notamment dans le secteur en plein essor des transports.

Mais si la prochaine génération de réacteurs nucléaires est conçue de manière à permettre la production massive d'hydrogène, nous pourrions diminuer beaucoup plus rapidement la quantité et la part d'énergies fossiles dans le bilan énergétique mondial (toujours plus de 75 % aujourd'hui) et nous aurions alors une chance de réduire suffisamment nos émissions de CO2 (au moins d'un facteur trois d'ici 40 à 50 ans) pour limiter les effets désastreux du changement climatique de grande ampleur qui se prépare si nous restions sur la tendance énergétique actuelle (près de deux tonnes équivalent-pétrole consommées chaque année par terrien, dont les trois quarts sous forme d'énergies fossiles !).

C'est pourquoi, même si ce discours peut sembler provocateur ou iconoclaste, je persiste à penser que nous ne pourrons pas nous passer de l'énergie nucléaire au cours de ce siècle, qu'il s'agisse des futurs réacteurs à neutrons rapides et à plus long terme (2050) de la fusion thermonucléaire contrôlée qui a progressé de manière remarquable, pour répondre à la soif légitime d'énergie du monde et des pays en plein développement, notamment en Asie. Je vais même plus loin en affirmant que l'avènement des réacteurs nucléaires de prochaine génération peut permettre, sous réserve d'une volonté politique forte orientant les choix technologiques, de développer et de généraliser l'utilisation des énergies renouvelables grâce à la production nucléaire d'hydrogène par co-génération.

Je rappelle enfin et inlassablement que l'énergie nucléaire est la seule source d'énergie qui permette la production massive et concentrée d'électricité avec très peu d'émissions de CO2. C'est d'ailleurs pour cette raison qu'un Français émet moins de 6 tonnes par an (moins qu'un Chinois si l'on prend en compte la dernière réévaluation des émissions réelles de CO2 de la Chine qui seraient en fait comprises entre 8,5 et 9 milliards de tonnes par an), contre 10,5 tonnes pour un Allemand, 8 tonnes pour un Européen et 20 tonnes pour un Américain.

Face aux défis énergétique et climatique qui sont intimement liés, nous avons besoin de développer à la fois l'ensemble des sources d'énergies renouvelables, l'hydrogène comme vecteur et une production d'énergie nucléaire plus sûre et plus respectueuse de l'environnement. Sortons enfin des visions et oppositions idéologiques simplistes et réductrices pour aborder cette question essentielle mais complexe du défi énergétique dans toutes ses dimensions !

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'éducation digitale doit combiner usage formel et informel des technologies
Jeudi, 05/07/2012 - 01:00

Pour que l'usage des nouvelles technologies soit véritablement efficace dans le secteur de l'éducation, le projet TEL (« Technology Enhanced Learning » soit l'apprentissage amélioré par les technologies) part du principe qu'il est nécessaire de lier l'usage formel (dans le cadre scolaire) et informel (de chez soi) de celles-ci. Fort de cette constatation, le projet, qui a vu le jour en Grande-Bretagne en 2007, a permis de mettre en place plusieurs projets. Parmi eux, on retrouve notamment la ESSA Academy de Bolton qui, dans le but de remonter les notes de ses élèves, leur a fourni des Ipod Touch utilisables à la fois chez eux et à l'école. Ils pouvaient ainsi communiquer avec leurs professeurs en dehors des heures habituelles, effectuer des recherches sur Internet ou encore accéder à des dictionnaires et autres applications en ligne.

En 2 ans et grâce à cet outil, le pourcentage d'élèves possédant des notes entre A+ et C à leur examen final serait passé de 55 % à 99,5 %. Autre détournement de la technologie utilisée par la génération Y au profit de l'éducation : une plate-forme nommée NQuire. Celle-ci permet à un groupe d'étudiants de se regrouper en ligne via ordinateur ou mobile pour effectuer un projet en commun dont le but est de résoudre un problème de société. Chacun regroupe des données de son côté, soit chez soi, soit dans le cadre scolaire, puis les met en commun. La plate-forme les traite ensuite sous forme de graphiques et de visualisations. Du contenu, tels que des vidéos, des interviews d'experts et des commentaires des étudiants peuvent être ajoutés.

  • Intelligence artificielle et jeux pour l'apprentissage de la vie

Et cela ne constitue que des outils d'apprentissage. Le programme de recherche se targue également d'aider les élèves en difficulté dans la vie de tous les jours. En les mettant, par exemple, en situation, comme c'est le cas pour le logiciel d'intelligence artificiel Alelo. Celui-ci apprend aux élèves à argumenter en public lors de conversations houleuses. Entre en jeu alors un phénomène de ludification puisque l'élève est évalué et a la possibilité d'améliorer ses performances. Enfin, les chercheurs ont développé un monde virtuel s'adressant directement aux jeunes souffrant d'exclusion. Celui-ci leur permet en effet de partager et d'apprendre par le biais d'avatar sans avoir à être jugés ou reconnus. Un moyen encore une fois de donner un coup de pouce à leur estime de soi.

L'Atelier

Google dévoile sa tablette numérique
Mardi, 03/07/2012 - 01:10

Google a présenté le 27 juin dernier sa propre tablette tactile, baptisée Nexus 7, lors de sa conférence I/O, durant laquelle l'entreprise présente généralement ses principales innovations. La tablette sera construite par le taïwanais Asus, et non Samsung, le partenaire habituel de Google dans la téléphonie mobile. L'écran de la tablette utilisera une résolution de 1 280 × 800 pixels, avec une autonomie revendiquée de neuf heures. La tablette sera lancée avec la future version 4.1 d'Android, le système d'exploitation de Google, également présentée lors de la conférence. La tablette proposera une intégration particulièrement poussée avec Google Play, le système de vente de films, de musique et d'applications de Google.

Vendue 199 dollars, la tablette sera initialement lancée mi-juillet dans les pays anglo-saxons – Etats-Unis, Canada, Royaume-Uni et Australie. Le prix et les fonctionnalités du Nexus 7 en font un concurrent direct pour le Kindle d'Amazon, plus que pour l'iPad d'Apple.

Ce n'est pas la première fois que Google développe ses propres terminaux. Le téléphone Nexus One, construit par HTC et commercialisé directement par Google, avait marqué la première expérience du moteur de recherche dans la vente de matériel. L'expérience s'était cependant avérée complexe pour Google, de nombreux clients se plaignant d'un service client trop limité.

Google a également présenté un nouveau produit, le Nexus Q. Ce "juke-box connecté" se présente sous la forme d'une boule noire, que l'on peut brancher à un téléviseur, à une chaîne hi-fi, et qui pourra être contrôlée par un PC, un téléphone ou une tablette Android. Le Nexus Q sera vendu 299 dollars, à partir de mi-juillet.

Comme le Nexus 7, le Nexus Q sera intimement lié à Google Play, que Google veut imposer comme concurrent direct d'iTunes – les acheteurs du Nexus 7 se verront par exemple offrir un bon d'achat de 25 dollars sur Google Play. Proposant initialement des applications, le magasin en ligne de Google propose désormais des films et de la musique dans certains pays. Les utilisateurs pourront désormais y acheter également des magazines.

Google a également annoncé que des prototypes de ses lunettes connectées, annoncées il y a quelques mois, seraient bientôt disponibles pour une poignée d'utilisateurs privilégiés – les participants à la conférence I/O. Sergueï Brin, le cofondateur de Google, a précisé que ces prototypes ne seraient pas disponibles pour le grand public, mais seront expédiés "début 2013" à un premier cercle d'initiés, qui devront tout de même débourser 1 500 dollars.

Le Monde

Le sans-fil de la Nasa va 8300 fois plus vite que le Wi-Fi !
Lundi, 02/07/2012 - 01:00

Alors que la nouvelle norme Wi-Fi 802.11ac commence tout juste à pointer le bout de son nez dans des routeurs avec des débits de l'ordre de 1 300 Mbit/s, une équipe du Jet Propulsion Laboratory de la Nasa associée à des universités américaine, israélienne et chinoise a publié dans la revue scientifique Nature Photonics un article où elle explique avoir transféré sans fil des données à 2,56 terabit/s, soit 2 560 000 Mbit/s, c'est-à-dire près de 2 000 fois plus rapide que le Wi-Fi 802.11ac, et plus de 8 300 fois plus rapide que le Wi-Fi 802.11n à 300 Mbit/s. Ce record a été obtenu sur une distance de un mètre, l'équipe cherche à atteindre des distances plus élevées.

L'équipe a agrégé huit flux de données dans le même signal en utilisant le moment cinétique orbital propre à la mécanique quantique. Le plus intéressant est que cette technique pourrait permettre de transmettre un nombre infini de flux de données par signal, ce qui permettrait d'augmenter la bande passante sans avoir besoin d'une nouvelle fréquence. Les applications concrètes ne seront pas prêtes avant de nombreuses années. Il faudra donc se contenter du 802.11ac pour le moment. Et ce n'est déjà pas si mal...

01net

Google crée un cerveau informatique capable de reconnaître un chat
Dimanche, 01/07/2012 - 09:42

Comme un signe. Quelques jours après le centième anniversaire de la naissance d’Alan Turing, considéré comme le père de l’informatique, les ingénieurs du Laboratoire X de Google, d’où sont déjà sortis la voiture sans conducteur et les lunettes à réalité augmentée, vont dévoiler un nouveau projet. Rien de moins qu’un cerveau. Enfin, ce qui s’en approche le plus en tout cas, un réseau neural de machines « intelligentes », capables d’apprendre seules, constitué de 16 000 processeurs et connecté à Internet où il étanche sa soif de connaissances à partir d’images extraites de dix millions de vidéos YouTube.

Ainsi, à en croire le New York Times, ce « cerveau » aurait déjà appris tout seul à reconnaître un chat. Pourquoi un chat ? Parce qu’il y a des milliers de vidéos de chats en ligne sans doute, même si le système était également capable de reconnaître un corps humain. Comme expliqué dans ce document (PDF), cet « ordinateur », grâce à son logiciel de simulation d’apprentissage et à l’énorme quantité de données disponibles en ligne, a reconnu ce chat parmi près de 20 000 objets distincts, avec une précision d’environ 15,8 %, soit une amélioration de 70 % par rapport aux expériences précédentes. Pour y arriver, les chercheurs de Google et Stanford ont choisi une autre voie.

« L’idée est qu’au lieu de faire en sorte que les chercheurs essaient de définir les limites, vous fournissez des tonnes de données à l’algorithme, vous laissez les données parler d’elles-mêmes et vous laissez le logiciel apprendre de lui-même, automatiquement », indiquait le Dr Andrew Y. Ng, de l’université de Stanford et chargé du projet au sein du Labs X. Ces logiciels permettent donc à un ordinateur d’apprendre seul à reconnaître un félin, en « inventant le concept de chat » à partir de données, à la manière de notre « cortex visuel ».

Aussi impressionnant que soient ces résultats et le nombre de processeurs utilisés, tout cela reste pour l’instant bien faible par rapport aux capacités du cerveau humain. Pour autant, David A. Bader, un des responsables du Georgia Tech College of Computing déclarait, après la publication du rapport de Google et de l’université de Stanford : « La modélisation de la totalité du cortex visuel humain pourrait être à notre portée avant la fin de la décennie.

01net

Arxiv

Shaman, un projet européen pour préserver la mémoire informatique
Vendredi, 29/06/2012 - 04:20

Fruit d'un projet collaboratif entre plusieurs sociétés et universités européennes, le projet Shaman avait pour but de trouver une solution pour la préservation des données numériques sur le long terme. Objectif atteint.

Initié en 2007 et partiellement financé par l’Union européenne, à hauteur de 8,4 millions d’euros sur 12,3 millions au total, le projet Shaman vient de publier son rapport final, après avoir atteint son objectif à la fin de l’année 2011. Son but était de résoudre le problème de la perte de mémoire informatique grâce à une « structure qui fait de la conservation numérique une réalité pour quasiment n’importe quel format de données ». Non seulement les données seront donc préservées mais elles seront « lisibles, accessibles et utilisables par les générations futures », précise Ruben Riestra, le coordinateur du projet.

Le projet Shaman adopte une approche holistique, globale, du problème de conservation des données, ce qui permettra entre autres l’intégration de l’architecture de référence Shaman (SRA en anglais) dans celle de n’importe quelle organisation. Pour y arriver, le framework Shaman propose des outils d’analyse, de gestion, de contrôle d’accès et de réutilisation des informations et données au travers de différentes archives et librairies documentaires. Ainsi, pour conserver une vidéo, il n’est pas possible de ne stocker que le fichier. Il est nécessaire de pouvoir « appliquer ou réappliquer les processus de post-production pour chaque image de la vidéo », explique le coordinateur du projet.

Et pour le stockage à proprement parler, Ruben Riestra indique qu’il n’est pas encore possible de compter sur le cloud, qui propose trop de technologies immatures, car dans la préservation des données électroniques, l’ennemi est le temps. Avec toutes les « migrations (que cela implique) au fil du temps, l’obsolescence du matériel et du logiciel ». La solution retenue touche au GRID computing plus éprouvé. « Pour le futur, nous avons besoin de solutions robustes, sur le long terme, qui peuvent sécuriser des données et métadonnées dans de nombreux formats », précisait-il.

Trois prototypes de ce projet ont déjà été déployés. Un en association avec la bibliothèque nationale allemande, un deuxième dans un contexte industriel, qui a permis d’améliorer l’efficacité des processus ainsi que les temps de sauvegarde et de s’assurer du bon respect du droit. Car dans le domaine industriel, la question de l’authenticité du document est souvent essentielle, tout comme le contrôle des droits d’accès. Le troisième essai s’est déroulé dans le secteur des sciences, qui génère beaucoup de données qu’il faut pouvoir classer et consulter pendant longtemps.

01Net

^ Haut
Avenir
Nanotechnologies et Robotique
Bientôt des robots DJ à la maison
Lundi, 02/07/2012 - 01:40

Shimi est un compagnon musical capable de choisir de la musique, de danser sur un rythme et d’affiner ses listes de lecture en fonction du goût de son utilisateur.

Les robots Shimi seront présentés lors de la conférence annuelle Google I/O pour les développeurs qui vient de se tenir à San Francisco aux Etats-Unis. « Shimi est conçu pour changer la façon dont les gens apprécient et réfléchissent à leur musique » explique le professeur Gil Weinberg, directeur du Centre pour la technologie musicale de l’Institut de technologie de Georgie et créateur du robot.

Shimi est en premier lieu une station d’accueil, un dock, sur lequel il faut connecter un Smartphone (fonctionnant sous Androïd pour le moment). Une fois branché, le robot peut utiliser les différentes applications présentes dans le téléphone pour optimiser l’expérience musicale de son utilisateur. Par exemple, en utilisant l'appareil photo du téléphone et un logiciel de détection des visages, il peut suivre un auditeur dans une salle et orienter la position des hauts parleurs pour que ce dernier puisse bénéficier d’un son optimal.

Une autre caractéristique de reconnaissance est basée sur le rythme et le tempo. Si l’utilisateur bat des mains ou claque des doigts selon un certain rythme, Shimi va scanner la bibliothèque musicale pour trouver un morceau qui corresponde au même rythme, plus fort : il peut même danser ! Encore à l’état de prototype (une commercialisation est envisagée à l’été 2013), le robot devrait acquérir de nombreuses compétences  en fonction des applications qui seront créées par les développeurs qui vont le découvrir aujourd’hui. Sur les rails : commande du lecteur par gestes, analyse des choix de morceaux, rétroactions sur les listes de lecture…

Pour la présentation de Shimi les chercheurs de Georgia Tech ont réuni trois robots qui dansent de façon synchronisée sur de la musique créée en laboratoire : voir la vidéo sur le site Sciences et Avenir.

Sciences et Avenir

^ Haut
Matière
Matière et Energie
Une avancée majeure dans les batteries lithium-ion
Mercredi, 04/07/2012 - 01:20

Le fabricant de batteries lithium-ion A123 Systems vient d’annoncer une nouvelle technologie capable d’opérer à des températures extrêmes sans recourir à un système de contrôle thermique. Baptisée Nanophosphate EXT, elle permettrait de réduire le coût de chauffage ou de refroidissement des packs de batteries, offrant des perspectives nouvelles dans les applications de transports ou des télécoms.

D’après les tests effectués au centre de recherches sur l’automobile (CAR) de lUniversité d’Ohio, les cellules Nanophosphate EXT conserveraient 90 % de leur capacité initiale après 2 000 cycles de charge et décharge complets à 45°C. le centre s’attelle maintenant à caractériser leur tenue au froid. Selon les prévisions d’A123 Systems, les batteries délivreraient jusqu’à 20 % de puissance supplémentaire à une température de -30°C, par rapport aux technologies lithium-ion classiques.

« Si nos tests confirment également les capacités à basse température que laissent supposer les données d’A123, nous pensons que le Nanophosphate EXT pourrait représenter une avancée majeure pour l’électrification des transports », explique Yann Guezennec, chercheur au CAR et professeur en génie mécanique à l’Université d’Ohio.

Des batteries lithium-ion  plus puissantes à basse température pourraient notamment s’arroger le pré carré des robustes batteries au plomb. Ces dernières sont largement utilisées en tant que batteries de démarrage et comme constituant des systèmes Stop and Start ou ceux permettant de récupérer l’énergie des véhicules au freinage des véhicules. Le Nanophosphate EXT pourrait de même conquérir d’autres applications comme l’alimentation de secours pour les antennes télécoms.

En éliminant le recours à un système de contrôle thermique, la technologie devrait en outre contribuer à réduire la complexité des packs de batteries. Avec à la clé une réduction du poids des véhicules et du coût total de possession des batteries. A123 Systems annonce le début de la production industrielle pour la première moitié de l'année 2013.

Industrie & Technologies

La firme française «Alizeo» construit des éoliennes rabattables
Dimanche, 01/07/2012 - 01:40

«Alizeo», un nom à retenir. Cette firme française, établie notamment à Lons le Saunier, fabrique des éoliennes rabattables par hydraulique et contrepoids. Une première mondiale.

En cas de vents violents, de tempêtes et de cyclones, les éoliennes peuvent se rabattre au sol. Autre avantage, le fait de pouvoir effectuer le montage de l’éolienne au sol et réaliser la maintenance en position horizontale, à hauteur d’homme. L’éolienne se couche et se relève en moins d’une heure.

Les sociétés du groupe «Alizeo» sont présidées par Richard Lavaur, qui a travaillé à la direction de la robotique et de l’automatisation des lignes de production chez Renault.

En Europe, la filière de l’éolien offshore a le vent en poupe grâce aux Royaume-Uni, à l’Allemagne et au Danemark. En 2020, la moitié de l’électricité sera générée par l’énergie éolienne au Danemark, a récemment déclaré à Copenhague Martin Lidegaard, ministre du climat, de l’énergie et de la construction. Les Danois ont déjà réduit les émissions de CO2 de 34 % par rapport à 1990.

Le laboratoire des énergies de demain est situé sur l’île de Bornholm.

Tribune de Genève

Alizeo

Une nouvelle caméra très haute définition
Vendredi, 29/06/2012 - 04:30

Avec une résolution de plusieurs Gigapixels ce dispositif peut capturer des détails d’une précision sans équivalent.

  • 1000 fois mieux qu’un appareil standard

Mise au point par les chercheurs de l’université d’Arizona et de l’université Duke (Etats-unis), cette caméra gigapixels AWARE-2 utilise 98 micro-caméras et une unité de traitement électronique spécialement conçue pour gérer les 50 000 millions de pixels (50 Gigapixels) capturés pour chaque cliché ! Ce qui rend cet appareil cinq fois plus performant que les yeux de l’homme sur un champ de 120 degrés horizontal. A titre de comparaison, la plupart des appareils numériques en vente ont une résolution de 8 à 40 Megapixels, soit de 8 millions à 40 millions de pixels.

Avec AWARE-2, il sera possible de photographier des détails jusqu’alors indiscernables. Développée avec le soutien de l’armée, le dispositif aura très certainement des applications militaires comme la surveillance des aéroports et des sites sensibles mais son utilisation peut être étendue à bien d’autres domaines, y compris scientifique. Ainsi dans la revue Nature, qui publie le détail de cette invention, les auteurs font la preuve qu’il est possible de prendre un groupe de cygnes en photo et ensuite en zoomant de les dénombrer un par un alors qu’on ne distingue qu’une masse sur le cliché normal.

  • La puissance est dans le software

Le dispositif est logé dans une boîte de 50 cm X 50 cm X 75 cm. Le système optique est constitué d’une lentille de six centimètres à l’intérieur de laquelle on trouve une matrice de 98 micro-caméras d’une résolution de 14 mégapixels. « Chacun des micro appareils photo capture des informations d'une zone spécifique du champ de vision», a expliqué David Brady, l’un des concepteurs. «Un processeur informatique relie ensuite toutes ces informations dans une seule image hautement détaillée».

AWARE-2 peut prendre jusqu’à trois clichés par minute (avec une résolution d’un Giga). Pour l’heure la taille de l’appareil et le coût des équipements ne permettent pas d’envisager une diffusion grand public de cette technologie. Mais les scientifiques estiment que d’ici cinq ans avec les progrès de la miniaturisation cela sera sans doute possible.

Sciences et Avenir

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Des chutes de neige accrues amortiraient le réchauffement climatique en Antarctique
Jeudi, 05/07/2012 - 01:30

L'énergie solaire absorbée par la surface du continent antarctique dépend de l'albédo de la neige, c'est-à-dire de sa « blancheur ». L'albédo dépend quant à lui, de la taille des grains de neige. Phénomène bien connu des physiciens, les fines particules qui composent la neige, une fois déposées en surface, tendent à grossir d'autant plus vite que la température est élevée. Ce grossissement induit une diminution de l'albédo, ce qui a pour conséquence d'augmenter les températures. Les climatologues ont toujours eu conscience de l'importance de cette rétroaction positive.

Mais d'après les nouveaux travaux de chercheurs du Laboratoire de glaciologie et géophysique de l'environnement (CNRS / Université Joseph Fourier Grenoble - 1) et de l'unité mixte internationale Takuvik (CNRS / Université de Laval), cet effet est partiellement compensé par une rétroaction négative sous-estimée jusqu'à maintenant. En effet, grâce à des satellites observant la surface de l'Antarctique dans les longueurs d'onde micro-ondes, les scientifiques ont montré que, lors des étés marqués par des chutes de neige estivales fortes, l'albédo n'avait pas changé significativement : la surface était recouverte de grains de neige fins se renouvelant constamment. Or, dans le futur, on peut s'attendre à une augmentation de la précipitation neigeuse en Antarctique. Il est bien connu que, lorsque les températures sont très basses, l'air est sec et les précipitations neigeuses peu importantes. En Antarctique, un réchauffement climatique augmentera donc aussi les précipitations.

D'après les chercheurs, dans un scénario climatique où la température du continent Antarctique s'élèverait de 3°C, l'accroissement des précipitations augmenterait l'albédo de 0,4 %. Ceci compenserait les 0,3 % de diminution de l'albédo dus à la montée des températures (boucle de rétroaction positive). Ainsi, malgré un réchauffement important de l'Antarctique, l'albédo ne variera que très peu sur une grande partie de ce continent. La boucle de rétroaction positive température-albédo ne s'établissant pas, le réchauffement climatique sur le continent Antarctique sera moins marqué que prévu. Les prévisions de réchauffement devraient être revues à la baisse de 0,5°C pour le centre du continent Austral. Ces recherches soulignent qu'il est encore nécessaire d'améliorer les modèles de neige utilisés aujourd'hui pour prédire l'évolution climatique future.

CNRS

Le bilan de 10 ans d’essai de systèmes de culture utilisant des techniques alternatives aux herbicides
Mardi, 03/07/2012 - 01:40

Les enjeux actuels de sécurité alimentaire et de la protection de l’environnement imposent de conserver des niveaux de production agricole élevés mais avec le plus faible niveau d’intrants possible. L’objectif affiché de réduction de 50 % d’utilisation de pesticides affiché par le plan Ecophyto 2018 est ambitieux, il ne pourra être atteint que par des modifications substantielles des systèmes de cultures actuels. Dans les systèmes testés en protection intégrée par l’Inra Dijon sur le Domaine expérimental d’Epoisses, les résultats montrent qu’il est possible de maîtriser la flore adventice en ayant peu recours aux herbicides.

  • 10 ans d’essai de systèmes de culture en protection intégrée

L’expérimentation systémique de longue durée de Dijon Epoisses a été initiée en 2000. Le dispositif comporte cinq systèmes de culture en plus du système traditionnel : système de protection intégrée (PI) sans labour, système de PI sans désherbage mécanique, système de PI typique, système sans herbicide. La PI repose sur une combinaison de leviers de gestion de la flore adventice, parmi lesquels la diversification des successions culturales, avec introduction de cultures de printemps (orge, tournesol, soja, maïs, sorgho, lupin) et de cultures étouffantes (triticale) en plus du colza, du blé et de l’orge d’hiver qui composent la rotation du système de référence. Le raisonnement du travail du sol pour la gestion du stock de semences du sol, l’esquive des levées d’adventices par des adaptations des dates de semis des cultures, le choix de variétés compétitives et le désherbage mécanique sont d’autres leviers mobilisés dans les stratégies de PI.

  • Une maîtrise satisfaisante des infestations de flore adventice

Les résultats obtenus au cours des 10 années d’essais indiquent que les leviers testés permettent de maîtriser de façon satisfaisante les infestations tout en réduisant de façon importante la dépendance aux herbicides et les impacts environnementaux associés. Les résultats concernant la production de gaz à effet de serre ou la consommation d’énergie restent satisfaisants,  plutôt moindre que dans le système de référence, grâce à la diversification des cultures par des légumineuses ne nécessitant pas de fertilisation azotée. Les stratégies de PI correspondent toutefois à une complexification des systèmes, et certains leviers de gestion des adventices sont délicats à mettre en œuvre en pratique, pour des raisons d’organisation du travail à l’échelle de l’exploitation, notamment.  On note aussi, pour les systèmes de PI testés, une légère baisse de rentabilité économique (de l’ordre de -100 €/ha pour un contexte de prix moyen), liée essentiellement à la faible productivité des cultures de « diversification » incorporées dans le système. Ces résultats soulignent donc l’importance de la problématique de diversification des productions dans une dynamique collective de réduction de l’usage de pesticides. Ces systèmes de culture innovants suscitent l’intérêt des agriculteurs et des acteurs du développement agricole. De nombreux groupes d’agriculteurs et de conseillers ont visité le dispositif et ont pu constater sur le terrain la bonne maîtrise de la flore adventice dans des systèmes très peu consommateurs d’herbicides.

  • Quelles suites pour le  dispositif expérimental ?

L’expérimentation se poursuit avec pour objectif de vérifier que les tendances observées de modification des communautés d’adventices par sélection d’espèces plus adaptées à la protection intégrée ne constituent pas sur le plus long terme un risque de perte de maîtrise des infestations.  Par ailleurs, il est prévu d’élargir la gamme des critères d’évaluation des systèmes, en mesurant notamment les effets sur la biodiversité (vers de terre, carabes, microflore du sol…) et sur les transferts de pesticides vers les eaux souterraines. Les scientifiques cherchent enfin depuis quelques années à évaluer le potentiel de stratégies de semis direct sous couvert pour concilier réduction d’usage d’herbicide, maîtrise des infestations et amélioration du bilan énergétique.

Inra

Découverte d'un gène pourrait redonner du goût aux tomates industrielles
Mardi, 03/07/2012 - 01:30

La découverte d'un gène pourrait redonner du goût aux tomates industrielles dont les producteurs favorisent, lors de la sélection des variétés, une mutation génétique qui les fait mûrir uniformément mais au détriment de la saveur, selon des travaux publiés jeudi 28 juin aux Etats-Unis. Depuis longtemps, les cultivateurs de tomates sélectionnent des variétés génétiquement modifiées produisant des fruits de couleur vert pâle avant de mûrir simultanément et devenir rouges afin d'être récoltées en même temps. Mais ce choix dans les croisements a neutralisé une protéine donnant de la saveur aux tomates, expliquent les chercheurs dont l'étude paraît dans la revue américaine Science datée du 29 juin.

"Cette découverte du gène responsable de la saveur dans des variétés de tomates sauvages et traditionnelles offre la possibilité de retrouver des caractéristiques qui ont été perdues sans le savoir", estime Ann Powell, biochimiste à l'université de Californie, à Davis, parmi les principaux auteurs de ces travaux.

En partenariat avec des scientifiques de l'université Cornell (Etat de New York, nord-est) et d'autres d'Espagne qui travaillaient sur le séquençage de certaines régions du génome de la tomate, les auteurs de l'étude ont découvert deux protéines (GLK1 et GLK2) contrôlant le développement des chloroplastes. Il s'agit de structures dans les cellules de la plante qui permettent la photosynthèse chez les végétaux, un processus convertissant l'énergie de la lumière du soleil en sucres et autres composants influençant la saveur et la couleur des tomates. Cette avancée pourrait avoir d'importantes retombées pour l'industrie américaine de la tomate avec une récolte annuelle de plus de 15 millions de tonnes et un marché pesant 2 milliards de dollars par an, selon l'étude.

Le Monde - Sciences

La hausse du niveau de la mer devrait être bien plus importante que prévue
Dimanche, 01/07/2012 - 01:00

Selon une étude publiée par le Conseil national des Sciences américaines, l'élévation du niveau de la mer due au réchauffement climatique pourrait se révéler deux à trois fois plus importante que prévu d'ici la fin de ce siècle. Cette étude s'appuie sur de nouvelles données relatives à l'état de la calotte glaciaire, dont la fonte serait responsable de l'accélération de la montée du niveau des océans.

Dans leur étude, les chercheurs prévoient une montée des eaux tout autour du globe allant de 8 à 23 cm d'ici 2030, par rapport au niveau de 2000, de 18 à 48 cm d'ici 2050, et de 50 cm à 1,40 m d'ici 2100. Cette dernière estimation est beaucoup plus alarmiste que celle du Groupe d'experts des Nations unies sur l'évolution du climat (Giec) dans leur rapport de 2007. A l'époque, le Giec avait tablé sur une hausse de 18 à 59 cm d'ici la fin du XXIe siècle. "Avec la montée du niveau des océans, on s'attend à une multiplication des tempêtes de puissance extrême et de plus longue durée, ainsi qu'à des vagues plus grandes, ce qui accroît le risque d'inondation, d'érosion côtière et de perte de zones marécageuses", soulignent Robert Dalrymple, président du comité d'experts, et Willard Hackerman, professeur d'ingénierie civile à l'Université Johns Hopkins (Maryland, est), co-auteurs de cette étude.

La Californie devrait être particulièrement affectée par la montée du niveau de l'océan Pacifique en raison notamment d'une forte érosion. Sur la côte, au sud de Cap Mendocino (nord de l'Etat), l'océan devrait ainsi gagner de 42 cm à 1,67 m d'ici 2100. En revanche, le reste de la côte Ouest devrait voir une augmentation moindre, avec un gain prévu entre 10 cm et 1,43 m, indiquent les experts.

Dans cette région, qui englobe l'extrême-nord de la Californie et les Etats de l'Oregon et de Washington, le sol s'élève sous l'effet de la tectonique des plaques. Mais un séisme de magnitude 8 ou davantage pourrait provoquer une montée soudaine d'un mètre voire plus dans cette région, sujette à de fréquents tremblements de terre.

National Academy of Sciences

Une usine de traitement des déchets en plein cœur de Londres !
Vendredi, 29/06/2012 - 04:00

Veolia Environnement exploite depuis mars une usine de traitement des déchets en plein cœur de Londres. Truffé de technos, elle améliore le recyclage alors que le pays a beaucoup misé sur les décharges.

Il y a encore peu, ils trônaient flambant neufs sur les rayonnages des supermarchés. Ils circulent désormais sur de grands tapis roulants qui se croisent à la manière d’échangeurs d’autoroutes. Papiers, cartons, verre, canettes usagées passent entre les mains expertes des opérateurs avant d’être happés dans des disques à crible pour finir en balles, bien compactés, afin de redémarrer une nouvelle vie.

Nous sommes sur le site de traitement des déchets de Veolia Environnemental Services dans le quartier londonien de Southwark. C’est ici, à quelques encablures de la City, qu’a été construite sur une ancienne friche industrielle, cette usine dernier cri constituée d’un centre de tri et de recyclage des matériaux, d’une unité de traitement mécano-biologique des déchets organiques et d’un incinérateur. Neuf ans après le démarrage du projet, elle tourne depuis mars dernier.  "L’usine reçoit un tiers des déchets de Londres", avance Jean-Dominique Mallet, le PDG de Veolia Services au Royaume-Uni, entité qui a construit et exploite l’usine. Soit une capacité de traitement de 180 000 tonnes de déchets par an.

Les autorités locales n’ont pas mégoté dans le choix des technologies. Pour améliorer le recyclage des matériaux, des dispositifs de tri optique fournis par le fabricant Titech ont notamment été installés. Ils permettent d’identifier les plastiques en fonction de leur couleur, leur forme ou leur taille et de les séparer plus finement.

Mais la grande première vient surtout de la mise en place d’une unité de traitement mécano-biologique - la première du Royaume-Uni – pour traiter les déchets ménagers. Le principe ? A leur arrivée, les déchets qui sont constitués d’une partie organique (papier, carton, bois…) mais aussi de nombreux plastiques mélangés sont broyés puis séchés. Après un tri, qui permet de récupérer une petite fraction de matériaux recyclables jetés par erreur dans la poubelle, ils sont soumis à un traitement biologique. Des micro-organismes détruisent les déchets et les transforment en un combustible solide de récupération (CSR) qui peut être valorisé énergétiquement. 70 % de cette matière rejoignent l’incinérateur tandis que le reste est utilisé comme combustible pour des cimenteries par exemple. Une technologie qui reste contestée en France car, selon ses détracteurs, elle n’incite pas à réduire les déchets et à valoriser la matière.

Si les autorités locales ont opté pour cette solution, c’est que le Royaume-Uni a du chemin à faire en matière de déchets. Grand amateur de décharges, de par son passé d’exploitation de mines qui offrait un lieu idéal pour stocker les déchets, le pays a amorcé sa mue. Les dispositions réglementaires européennes inscrivent en effet l’obligation de réduire de 50 % le volume de déchets ménagers mis en décharge d’ici 2013. Le Royaume-Uni atteint actuellement  les 25 %.

Pour atteindre cette cible, le gouvernement a donc besoin d’usines de gestion des déchets à substituer progressivement aux décharges. 28 installations financées par des initiatives de financement privé sont déjà opérationnelles.

L'Usine Nouvelle

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une technologie prometteuse : le séquençage de l'exome
Jeudi, 05/07/2012 - 01:40

Des chercheurs néerlandais ont découvert que le séquençage de l'exome est une méthode de diagnostic efficace, rapide et économique de nombreuses maladies hétérogènes. Les chercheurs ont présenté leurs résultats lors de la récente conférence de l'European Society of Human Genetics (ESHG). Cette méthode a diagnostiqué environ 20 cas pour 100 patients handicapés mentaux et la moitié de 25 cas de patients aveugles.

Les chercheurs du centre médical de la Radboud Universiteit Nijmegen aux Pays-Bas ont constaté que le test sur l'exome surpasse la méthode habituelle de séquençage Sanger, qui se base sur l'ADN pour générer un ensemble de fragments dont la longueur ne diffère que d'une seule base. Ces fragments sont alors séparés par taille, et on identifie chaque base terminale afin de reconstituer la séquence de l'ADN de départ. Le séquençage de l'exome a pour principaux avantages d'être rapide et économique.

Le Docteur Marcel Nelen, directeur laboratoire central d'analyses génomiques du département de génétique de l'université Radboud, a évalué avec ses collègues des séquences d'exome de 262 patients atteints de 6 maladies hétérogènes : le handicap mental, la cécité, la surdité, les troubles moteurs, le cancer et la phosphorylation oxydative (OXPHOS).

Les travaux ont porté sur 500 séquences d'exomes. Les chercheurs ont évalué des exomes du père, de la mère et de l'enfant handicapé mental. Pour les autres maladies, seul l'exome des patients a été étudié.

«La probabilité de trouver une mutation causale sur un seul gène est faible», explique le Docteur Nelen. «Mais elle est élevée pour un ensemble qui contient plus de 100 gènes, comme nous l'avons montré sur les patients atteints de cécité. Avec cette nouvelle stratégie, nous pouvons analyser 20 000 gènes en un seul test générique peu coûteux, ce qui signifie que nous pouvons conduire davantage de tests à moindre coût. Mais avant de mettre plus largement en oeuvre ce test dans notre laboratoire, il fallait s'assurer de la fiabilité de ses résultats pour le diagnostic.»

Les exons sont de courtes séquences extraites de l'ADN et limitées à la partie des gènes qui est traduite en protéines. Le génome humain contient environ 180 000 exons, qui représentent environ 1 % de la totalité du génome. Selon les experts, les exons contiennent environ 85 % des mutations causant des maladies, bien que le séquençage de l'exome ne puisse détecter que les problèmes affectant la fonction protéique.

Par rapport à la méthode Sanger qui se limite à quelque 500 paires de bases par analyse, les techniques plus modernes examinent des millions de réactions de séquençage par analyse.

Le Docteur Nelen ajoute : «Il n'existait ni méthode ni directive pour le séquençage du génome, aussi nous avons créé les processus, les critères et les procédures de diagnostic. Quel critère fallait-il définir pour valider le résultat ? Quel type de consentement informé fallait-il ? Comment organiser la confirmation de nos résultats ? Il fallait répondre à toutes ces questions, et nous avons tenu de nombreuses discussions avec des généticiens cliniques, des chercheurs et des experts en éthique avant de pouvoir commencer.»

L'équipe a validé ses résultats par la méthode de Sanger. Elle a également confirmé les mutations responsables de la surdité dans environ 20 % des cas, celles de troubles moteurs de 15 à 20 %, et pour environ 25 % des cas de phosphorylation oxydative.

«Il n'est pas toujours possible de soigner ces maladies, mais il faut tenir compte du fait que la plupart de ces patients ont subi un périple long et pénible d'un docteur et d'un hôpital à un autre, avant d'arriver à un diagnostic», souligne le Docteur Nelen. «Le séquençage de l'exome peut raccourcir cette phase mais aussi faciliter la tâche des cliniciens qui ne sont plus obligés de choisir le gène à tester, une décision très difficile lorsque l'on compte 100 gènes ou plus par maladie.»

«Le séquençage de l'exome teste en une fois toutes les mutations causales, ce qui autorise un diagnostic rapide et exact. Et même s'il n'y a pas de traitement, ce diagnostic rapide peut aider les parents, les patients et les soignants à prendre en connaissance de cause des décisions sur les soins, mais aussi à planifier pour l'avenir. Le diagnostic génétique prend de plus en plus d'importance clinique, et nous pensons que le séquençage de l'exome sera l'un des premiers tests envisagés lorsque l'on suspectera une maladie d'origine génétique.»

Cordis

Du sélénium contre les staphylocoques dorés
Jeudi, 05/07/2012 - 01:20

De nombreuses fournitures chirurgicales, comme les cathéters ou les sondes endotrachéales, sont composées de polycarbonate (PC). Leur temps de maintien sur un patient doit prendre en compte le risque d’infections nosocomiales lié à la colonisation de ces instruments par des bactéries. L’un des pires cas envisagés est l’infection par le staphylocoque doré, souche bactérienne célèbre pour ses nombreuses résistances aux antibiotiques.

Une équipe de l’université Brown, à Providence (États-Unis), vient de publier une étude soulignant l’intérêt des nanoparticules de sélénium dans ces situations. Thomas Webster et son équipe ont analysé l’influence de nanoparticules de sélénium sur la colonisation par des staphylocoques dorés. Pour cela, ils ont créé, sur une surface de PC, des manteaux de nanoparticules de sélénium aux dimensions variables, les plus grandes d’un côté, les plus petites d’un autre. Puis ils ont dégradé certains de ces manteaux en utilisant un ruban adhésif, vérifiant en même temps la solidité du dépôt.

Les chercheurs américains ont ainsi obtenu quatre types de surface à tester : petites ou grandes nanoparticules, dégradées ou non. Dans chacun des cas, la concentration et la répartition des nanoparticules sur la surface de PC ont été mesurées par spectrométrie d’absorption atomique. Il a ensuite suffi d’utiliser ces surfaces pour mettre en culture des staphylocoques dorés.

Comparés à une surface de PC contrôle sans sélénium, tous les types de manteaux de nanoparticules ont permis une baisse significative de la colonisation des bactéries sur le plastique, après 24 et 72 heures d’incubation. Une réduction supérieure à 90 % après 24 heures de culture et supérieure à 85 % après 72 heures a été observée pour les manteaux non dégradés, quelle que soit la taille des nanoparticules. Les auteurs notent néanmoins que les particules de petite taille semblent avoir un effet supérieur à celles de grande taille.

Ces résultats sont très encourageants. En effet, le sélénium est un élément naturellement présent dans l’organisme, ce qui réduit les risques de toxicité. De plus, comparé à l’argent, principal agent antibactérien des fournitures chirurgicales actuelles, le sélénium est bien plus biocompatible et moins cher. Des études chez l’animal devront être menées pour poursuivre l’évaluation, mais la compagnie spin-off Axena Technologies a d’ores et déjà pris une licence sur ce procédé.

Biofutur

Le suivi des maladies chroniques se réalise sur le vêtement
Jeudi, 05/07/2012 - 01:10

Grâce à des capteurs fixés sur un t-shirt, la gestion des maladies chroniques, pour les patients comme pour les professionnels de santé, est plus accessible. Surtout s'ils s'intègrent dans un système plus large permettant de comprendre l'environnement dudit malade.

L'un des avantages apportés par la technologie mise au service de la santé est la capacité à diminuer la taille ou la quantité des appareils nécessaires à la gestion du patient. Le projet Chronious, en partie financé par l'Union Européenne, propose ainsi aux professionnels de la santé de gérer ou de diagnostiquer des maladies chroniques grâce à un t-shirt, ou un vêtement semblable. Et pour cause, ce vêtement est équipé de capteurs qui envoient au médecin un certain nombre de données récoltées directement sur le patient, comme des mesures cardiaques, respiratoires, ou de son activité en général. Une fois ces informations récoltées, elles sont automatiquement transmises à un système central via un système IP/GPRS. Le système central, quant à lui, utilise une interface web permettant de surveiller le patient à distance, y compris ses changements d'état, et d'adapter le traitement ou les recommandations.

  • Une mesure précise et automatique

Ce système étant développé pour les maladies chroniques - testé sur les maladies pulmonaires obstructives chroniques et les insuffisances rénales chroniques, il permet au patient d'alléger le poids de sa maladie. D'une part, en diminuant les contraintes relatives à la surveillance de son état de santé (mesures, etc.). D'autre part, en lui permettant de réduire ses déplacements. Mais ce système permet également au professionnel d'avoir des données plus précises et complètes sur son patient, favorisant un meilleur suivi et un meilleur soin. Car l'interface web lui permet en effet d'accéder à ces informations, et ce, y compris en situation de mobilité. En effet, le médecin peut ainsi avoir avec soi l'état de la personne souffrant d'une maladie chronique, mis à jour en temps réel et automatiquement, via un appareil mobile, comme une tablette.

  • Un système plus large

Par ailleurs, ce système se propose d'apporter une compréhension plus complète du patient souffrant d'une maladie chronique grâce à des appareils externes, tels qu'une balance, un glucomètre ou un appareil mesurant la tension artérielle, en fonction des besoins, mais qui permettraient également d'apporter automatiquement et sur la même interface ces compléments d'information au professionnel. Sur le même principe, ce système intègre également un écran tactile au sein du domicile du malade. Cet écran a lui même deux fonctions. La première est de récolter des informations supplémentaires sur le cadre de vie du patient, comme ses habitudes alimentaires en entrant ses repas. Le seconde est de l'aider lui-même à gérer mieux sa maladie en lui fournissant des conseils, comme des rappels sur ses médicaments à prendre.

L'Atelier

Un monde sans musique ?
Mercredi, 04/07/2012 - 01:40

L’amusie congénitale est l’incapacité héréditaire à percevoir les sons musicaux. Les personnes amusiques ne savent pas, de deux sons, lequel est le plus aigu ou le plus grave. Elles ne peuvent pas distinguer des morceaux, des airs, des chansons, et sont incapables de chanter juste.

Des enfants âgés de 10 à 13 ans ont été testés de façon que l’on puisse observer la réaction de leur cerveau pendant qu’on leur faisait entendre des successions de sons. Isabelle Peretz et ses collègues de l’Université de Montréal ont placé des électrodes à la surface de leur crâne, et enregistré une onde électrique nommée P300 qui accompagne la prise de conscience de la hauteur du son. Ils ont constaté que l’amplitude de cette onde est notablement plus faible chez les enfants amusiques que chez les autres.

Comment expliquer ce manque de réactivité cérébrale ? L’onde P300 est enregistrée au niveau des zones frontales, qui assurent la prise de conscience du son. Une onde plus précoce, dénommée N100, semble normale chez ces enfants et correspond à l’activité du cortex auditif, qui perçoit le son de façon brute, sans le détailler ni le situer dans un contexte. En un sens, les enfants savent qu’il y a un son, mais ne peuvent en avoir une conscience globale, en rapport avec d’autres sons. Entre le cortex auditif primaire, qui perçoit le son, et les zones frontales qui l’analysent, l’information passe mal, voire pas du tout.

Selon les psychologues, ce défaut initial résiste aux tentatives de rééducation. Pendant un mois, ces enfants amusiques ont suivi un programme spécial d’exercices d’écoute et de sensibilisation à la musique. L’équipe canadienne n’a constaté aucune évolution de l’onde P300 ni aucune amélioration des capacités de discrimination des sons chez ces enfants amusiques. Sans doute des facteurs génétiques sont-ils en cause, aboutissant à des connexions cérébrales insuffisantes entre le cortex auditif primaire et les zones frontales du cerveau, mais les psychologues pensent que la plasticité cérébrale stimulée par l’apprentissage d’un instrument pourrait renforcer les connexions défaillantes. Une façon de donner à ces enfants un aperçu de ce qu’est la musique.

Pour La Science

90 minutes d'exercice par jour diminue le risque de cancer du sein
Mercredi, 04/07/2012 - 01:30

Marcher, courir ou faire le ménage 1 h 30 par jour prévient le risque de cancer du sein, prône un scientifique de l'University of North Carolina. Peu importe l'exercice, un effort modéré d'1h30 soit 10 heures par semaine suffirait à réduire l'éventualité de développer ce cancer chez toutes les classes d'âge. Les chercheurs américains croient savoir que l’activité physique est utile pour empêcher la formation du tissu graisseux et des cellules adipeuses, connus pour être à l’origine des tumeurs cancéreuses. Selon les scientifiques, bouger contribuerait à inhiber la formation d’une tumeur en réduisant le nombre de cellules graisseuses. Celles-ci libèrent en effet des hormones, l’œstrogène et la testostérone, qui imprègnent la glande mammaire et encouragent la croissance tumorale.

Des précédentes études ont établi que les femmes présentant un taux élevé de ces hormones multipliaient par deux ou trois leur risque de cancer du sein. L’obésité est un des facteurs de risque fréquemment associés à des cancers du sein plus agressifs. L’activité physique, en luttant contre le surpoids et l’obésité, constituerait donc un bon réflexe anti-cancer du sein.

Pour l’expérience, les universitaires ont comparé les modes de vie de 3 059 femmes âgées de 20 à 98 ans. Parmi ces participantes on comptait 1 504 patientes chez qui avait été diagnostiqué un cancer du sein. Parmi les questions posées à ces volontaires : le rythme d’activité physique hebdomadaire, comprenant la marche, les tâches ménagères, le vélo et le jogging.

Résultat, les femmes qui avaient l’habitude de faire 10 à 19 heures d’exercice physique par semaine, équivalent à 1h30 à 3 heures d’activité quotidienne, abaissaient leur risque de 30 % de souffrir plus tard d’un cancer du sein. Pas besoin d’être une marathonienne ou de dépenser son énergie dans un cours de gym tous les jours pour prévenir le risque de cancer du sein, assure Lauren McCullough, principale auteure de l’étude. Une activité à effort modéré est tout aussi efficace, suggère l’étude.

Top Santé

Cancer : vers des traitements personnalisés grâce à la bioinformatique
Mercredi, 04/07/2012 - 01:00

L'Institut Gustave Roussy (IGR) a annoncé le 28 juin le lancement d'un essai clinique international pour proposer des traitements personnalisés à des patients qui, jusqu'à présent, ne pouvaient bénéficier que de traitements standards. "L'objectif de cet essai est de proposer un traitement personnalisé à la très grande majorité des patients" alors qu'actuellement seulement 30 % des patients peuvent en bénéficier, indique dans un communiqué l'IGR, établissement privé situé en région parisienne qui se présente comme "premier centre de lutte contre le cancer en Europe".

L'essai sera mené avec trois autres centres - MD Anderson Cancer Center (USA), Vall d'Hebron (Espagne) et The Chaim Sheba Medical Center (Israël) - avec l'appui financier de l'Union européenne. "A l'heure actuelle, la plupart des cancers sont diagnostiqués tardivement, et pour l'immense majorité des patients le choix thérapeutique n'est pas encore guidé par les analyses génétiques mais repose sur des protocoles standards ayant peu évolués depuis des décennies", explique l'IGR.

L'essai qui va commencer en 2013 et sera conduit sur une durée maximale de deux ans, vise à recruter 200 patients atteints de différents types de tumeurs métastatiques et pour lesquelles le dernier traitement n'a pas fonctionné. Des biopsies de la tumeur et du tissu sain seront réalisées pour mener des analyses des ADN et ARN et, à partir de ces résultats, une liste de traitements sera proposée avec un "score prédictif d'efficacité pour les différentes thérapies".

Dans l’essai WINTHER, pour les 70 % de patients ne présentant pas d’anomalie connue de l’ADN tumoral, le choix thérapeutique sera orienté par les analyses de l’ARN tumoral et du tissu sain. Les résultats des analyses ADN et ARN de la tumeur et du tissu sain seront soumis à un programme bioinformatique capable de déterminer un score prédictif d’efficacité pour les différentes thérapies. La seule limite à l’approche est le succès du geste biopsique sur la tumeur et le tissu sain.

Ce système de score permet de prédire la réponse aux traitements existants sur le marché (standards ou ciblés, coûteux ou non) pour un patient donné. Cet outil bioinformatique complexe intègre toutes les données connues sur les biomarqueurs, les anomalies moléculaires, les thérapies ciblées ou non, et des algorithmes prédictifs d’efficacité.

C'est grâce à un programme "bioinformatique" complexe qui intègre toutes les données connues sur les biomarqueurs, anomalies moléculaires, thérapies ciblées (...) que la liste des traitements sera élaborée. L'essai va comparer "la survie sans progression de la maladie" avec les traitements guidés par l'analyse bioinformatique à la survie avec les traitements standards.

Institut Gustave Roussy

Opération d'une tumeur réussie chez un fœtus "in utero"
Mardi, 03/07/2012 - 01:20

D’après un article paru dans la dernière édition de la Revue américaine d'obstétrique et de gynécologie, des médecins de l’hôpital Jackson Memorial de Miami, en Floride, auraient réussi l’exploit de retirer "in utero" un tératome oral, rare chez un fœtus. Agée aujourd’hui de 20 mois, la fillette se porte à merveille.

Lors d’une échographie de contrôle à 19 semaines d’aménorrhée, le gynécologue obstétricien qui suit la grossesse de Tammy Gonzalez découvre que le fœtus est atteint d’une tumeur extrêmement rare : un tératome de la taille d’une pêche, situé à proximité de la bouche du futur nouveau-né. Confrontés à ce cas qui touche en moyenne une grossesse sur 100 000, les médecins ont demandé de l’aide à Ruben Quintero, professeur de gynécologie et d'obstétrique à l'hôpital Jackson Memorial de Miami, en Floride. Ce dernier est spécialiste de thérapie fœtale.

A ce stade, deux solutions étaient envisagées par les médecins, soit attendre la naissance de l’enfant, soit opérer "in utero". En raison de la vitesse de croissance de la tumeur et des risques d'insuffisance cardiaque pour le fœtus, il a été très vite décidé de tenter d’opérer le bébé directement dans le ventre de sa mère. C’était la première fois qu’une opération de ce type était réalisée.

À l'aide d'une aiguille insérée dans la poche du liquide amniotique enveloppant le fœtus, Ruben Quintero et ses collègues ont réussi à séparer la tumeur de la lèvre grâce à des ultrasons. A sa naissance, la fillette était en parfaite santé. Maintenant âgée de 20 mois, elle ne garde de l’opération qu’une légère cicatrice au niveau de la bouche.

Information Hospitalière

Fibrosarcomes : un nouveau traitement expérimenté à Lyon
Mardi, 03/07/2012 - 01:00

Des chats domestiques atteints de fibrosarcomes ont été opérés avec succès à l'Ecole vétérinaire de Lyon en utilisant pour la première fois une nouvelle solution d'imagerie de fluorescence pour l'aide à la chirurgie des cancers mise au point par la société grenobloise Fluoptics. L'étude a été réalisée sur treize chats souffrant de fibrosarcomes et envoyés par des praticiens vétérinaires pour être opérés, avec le consentement de leur propriétaire.

Les félins ont reçu une injection d'un traceur fluorescent développé par Fluoptics (AngioStampTM), qui s'est fixé sur les cellules tumorales. L'utilisation combinée pendant l'opération d'un système d'imagerie optique en temps réel a permis d'"illuminer" les cellules tumorales, les rendant ainsi visibles à l'écran. « Les résultats montrent que notre traceur fluorescent AngioStamp™ cible parfaitement les cellules tumorales et permet de les 'illuminer'. Pour le chirurgien vétérinaire qui voit ainsi sur l'écran les zones précises à enlever, notre technologie d'imagerie de fluorescence représente un bénéfice considérable car elle permet d'augmenter la précision de son geste », se félicite Odile Allard, PDG de Fluoptics.

Les résultats détaillés de cette étude feront l'objet de deux publications et seront présentés lors du Word Molecular Imaging Congress (WMIC), qui se tiendra à Dublin du 5 au 8 septembre 2012. Cette étude a été réalisée dans le cadre d'un projet « preuve de concept » baptisé CLARAFT du Cancéropôle Lyon-Rhône-Alpes-Auvergne (CLARA), en collaboration avec le Centre Léon Bérard de Lyon (avec Aurélie Dutour, coordinateur principal du projet), l'Institut Albert Bonniot-Inserm/Université Joseph-Fourier unité 823 de Grenoble dirigée par Jean-Luc Coll, et VetAgro Sup Ecole Vétérinaire de Lyon, sous la direction de Frédérique Ponce et Claude Carosso. Elle a été financée par le CLARA et Fluoptics.

« Cette étude visait à établir une preuve du concept en chirurgie carcinologique sur un animal développant les mêmes types de cancers que chez l'homme afin de se placer dans les conditions les plus proches de la chirurgie oncologique humaine : l'objectif était donc de démontrer que l'imagerie de fluorescence permettait de visualiser avec une grande précision des tumeurs cancéreuses, d'en faciliter ainsi l'exérèse et d'améliorer le geste chirurgical en termes d'efficacité et de rapidité », explique Frédérique Ponce, responsable de l'unité d'oncologie, à VetAgro Sup, Ecole Vétérinaire de Lyon.

Les chats opérés étaient atteints de tumeurs spontanées en stade très avancé. « Sans une intervention, la plupart étaient condamnés. L'étude a permis de prendre en charge une opération très coûteuse et très lourde, que les propriétaires n'auraient pu assumer seuls », précise Frédérique Ponce. « Nous avons pu ainsi vérifier, d'une part, la très bonne innocuité du traceur fluorescent injecté à l'animal et, d'autre part, l'obtention avec une dose minime d'un très bon signal fluorescent ».

Sur les treize chats opérés, onze étaient toujours en vie et en bonne santé, plusieurs mois après leur opération, sans cas de récidive constaté. L'un est décédé ultérieurement d'un autre cancer (hépatique) ; un autre, très âgé, est mort pendant l'opération de complications post-opératoires liées à des problèmes de santé antérieurs à l'intervention.

Les fibrosarcomes félins sont des cancers du tissu conjonctif sous-cutané. Ils représentent 20 % des cancers du chat. Ces tumeurs sont très agressives localement et détruisent rapidement tous les tissus voisins. Le traitement consiste en une ablation généralement très large de la tumeur et un retrait des ganglions adjacents. Les cas de récidive sont fréquents et représentent un problème majeur.

Une étude précédente réalisée sur des biopsies humaines par le Centre Léon Bérard dans le cadre du projet CLARAFT avait déjà permis d'établir l'efficacité du ciblage spécifique des sarcomes par le traceur fluorescent AngioStamp™.Chez l'humain, la chirurgie du cancer reste l'un des traitements les plus efficaces contre la maladie. Cinq millions de personnes souffrant d'un cancer sont opérées chaque année dans le monde, dont près de 370.000 en France, soit une toutes les 90 secondes.

« A l'heure où Fluoptics s'apprête à lancer ses premiers essais cliniques, les résultats extrêmement positifs de cette preuve de concept démontrent le rôle décisif de l'accompagnement du Cancéropôle CLARA », estime Peter Pauwels, délégué général du CLARA. « Favoriser les collaborations entre l'univers de la recherche et le monde économique tout en allégeant le risque des industriels dans les phases critiques de développement permet, à l'instar de Fluoptics, à de nouvelles stratégies thérapeutiques contre le cancer d'arriver jusqu'au patient ».

EDP

Vitamine D : vers un doublement de la dose quotidienne…
Lundi, 02/07/2012 - 01:30

Liposoluble, la vitamine D est, en fait, une hormone synthétisée par la peau à partir d’un dérivé du cholestérol, sous l’action des rayonnements UVB du Soleil. Elle joue un rôle essentiel dans la minéralisation et la solidité des os en stimulant notamment l'absorption intestinale du calcium et sa fixation dans le squelette. Des déficits de cette vitamine peuvent entraîner de graves troubles de l’organisme tels que des pathologies osseuses (rachitisme ou ostéoporose).

Si la principale source de vitamine D est l’organisme lui-même, il est possible de compléter son alimentation en favorisant la consommation de poissons marins gras. D’après les sages de l’Académie de médecine, « il faudrait manger 400 g de saumon par jour pour avoir un apport journalier optimal en vitamine D. » Des études ont aussi montré que la vitamine D pourrait jouer un rôle préventif contre certaines maladies infectieuses ou certaines maladies auto-immunes.

En mars dernier, une étude épidémiologique menée par l’Unité de surveillance et d’épidémiologie nutritionnelle de l’Institut de veille sanitaire (InVS), publiée dans le Bulletin épidémiologique hebdomadaire (BEH), avait montré que plus de 80 % des Français avaient un déficit chronique en vitamine D. Face à ce constat, les membres de l’Académie de médecine recommandent d’augmenter l’apport journalier en vitamine D. Si, actuellement, il est conseillé aux personnes à risques (personnes âgées, femmes enceintes, adolescents et bébés prématurés) de prendre en 200 et 400 unités internationales (UI) de vitamine D par jour, demain il devrait être préconisé de prendre en complément alimentaire une dose quotidienne allant de 800 à 1 000 UI...

Information Hospitalière

Un pacemaker miniaturisé en 2017
Lundi, 02/07/2012 - 01:20

Le fabricant de dispositifs médicaux italien Sorin est à mi-chemin d’un projet avec le CEA-Leti qui vise à réduire la taille des stimulateurs cardiaques d’un facteur huit. Le projet était présenté jeudi 21 juin à une journée vitrine technologique du pôle de compétitivité Minalogic.

Sorin a été il y a quelques années à l’origine du plus petit stimulateur cardiaque du marché. Le groupe italien continue sur sa lancée, comme en témoigne le projet Heart Beat Scavenger (HBS), qu’il mène depuis fin 2010 en partenariat avec le CEA-Leti. « L’idée est de miniaturiser le dispositif au point où l'on pourra l’implanter directement au niveau de la zone cardiaque à stimuler », explique Martin Deterre, ingénieur chez Sorin. Une conception qui permettrait d’éliminer les sondes, qui rendent l’opération délicate.

La miniaturisation, qui doit faire passer le stimulateur de huit à un centimètre cube, nécessite de travailler à la fois sur la partie électronique, et sur la source d’énergie, puisque les piles actuelles occupent les deux-tiers du volume. Le projet HBS vise à remplacer la pile par un moyen de recharge naturel, basé sur les battements du cœur. Pour construire le système, Sorin s’est rapproché du CEA-Leti, actif depuis 2005 dans la récupération d’énergie mécanique. L’industriel espère avec ce dispositif prolonger la durée de vie des implants.

Le projet doit se terminer fin 2013 avec la livraison d’un prototype. « Il y aura vraisemblablement encore un à deux ans d’ingénierie, avant d’envisager les premiers essais cliniques », projette Martin Deterre. La mise sur le marché ne devrait donc pas survenir avant 2017 ou 2018.

Industrie & Technologies

Un test sur les ovocytes améliorerait la PMA
Lundi, 02/07/2012 - 01:10

Des chercheurs français et italiens ont identifié un marqueur biologique permettant de prévoir quel embryon possède le plus de chances de s'implanter dans l'utérus au cours d'une assistance médicale à la procréation (AMP) et d'arriver à terme. Ces travaux ont été présentés, vendredi 11 avril, à Tours, lors d'une réunion de la Société européenne de reproduction humaine et d'embryologie. Un test simple, rapide et non invasif pourrait être utilisé pour examiner individuellement les ovocytes (cellules reproductrices femelles) avant même qu'ils soient fécondés.

Le docteur Nathalie Lédée (Centre hospitalier intercommunal de Poissy-Saint-Germain-en-Laye et université de Versailles-Saint-Quentin-en-Yvelines), Gérard Chaouat (Inserm U782, Clamart) et leurs collègues travaillent depuis plusieurs années sur un moyen d'améliorer le faible taux actuel de succès de l'AMP. "5 % des ovocytes mis en fécondation débouchent sur la naissance d'un enfant", rappelle la chercheuse. L'équipe s'est intéressée au liquide folliculaire dans lequel baigne l'ovocyte, au sein d'un follicule, avant l'ovulation.

L'étude a inclus 71 femmes inscrites dans un programme d'AMP. L'équipe a recueilli individuellement chaque follicule et identifié la correspondance entre le liquide folliculaire et son ovocyte. Les ovocytes ont ensuite été fécondés. Au total, 132 ovocytes ont été transférés dans l'utérus des participantes. Ces dernières ont été suivies, le cas échéant, jusqu'à l'accouchement. Il a ainsi été possible de connaître le taux d'implantation et de réussite de la grossesse pour chaque ovocyte et chaque liquide folliculaire.

Marie-Pierre Piccinni (université de Florence, Italie) a analysé vingt-huit substances différentes dans les liquides folliculaires. Un facteur de croissance (substance nécessaire à la croissance des cellules) des globules blancs, le G-CSF, s'est révélé un excellent biomarqueur immunologique de la capacité d'obtenir un embryon qui s'implante bien dans l'utérus et aboutisse à une naissance.

"Le taux d'accouchement a été de 6 % pour les embryons issus d'un ovocyte où le liquide folliculaire contenait le taux le plus faible de G-CSF (20 picogrammes par millilitre, pg/ml). Il était de 15,8 % pour ceux ayant un taux intermédiaire et de 44 % pour ceux ayant le taux le plus élevé (supérieur à 24 pg/ml)", explique Nathalie Lédée. Cette corrélation serait liée au fait que le G-CSF induit la tolérance immunitaire. Il permettrait donc à l'embryon d'être mieux accepté dans l'organisme maternel. "Nos travaux sont en accord avec des hypothèses nouvelles selon lesquelles le potentiel de vie d'un ovocyte est lié à son aptitude à un dialogue de tolérance immunitaire", explique le docteur Lédée. Cela a été confirmé par l'injection expérimentale de G-CSF chez des souris.

La tolérance immunitaire serait donc au centre du phénomène de la reproduction. Au niveau local, dans l'utérus où s'implante l'embryon, on ne retrouve d'ailleurs pas de cellules impliquées dans l'immunité acquise, en réponse à un corps étranger. L'utérus "autoriserait" en quelque sorte l'embryon à s'implanter. "Cela s'expliquerait par le fait qu'à ce moment, l'embryon n'exprime pas des facteurs immunitaires individuels, mais des facteurs spécifiques de l'espèce humaine", commente Nathalie Lédée. La chercheuse avoue qu'elle et ses collègues "n'imaginaient pas que le dialogue entre l'embryon et l'utérus était si précoce et si intense, avant même le contact avec la muqueuse utérine".

Ces travaux feront prochainement l'objet d'une publication dans la revue Human Reproduction. Un brevet couvrant un test immunologique de type Elisa pour l'analyse individuelle de la concentration du liquide folliculaire en G-CSF a été déposé. Ce test constituerait un outil précieux pour ne transférer qu'un seul embryon lors d'une AMP et limiter ainsi les grossesses multiples. Il pourrait être un moyen d'apprécier individuellement le potentiel de chaque ovocyte, en particulier chez les femmes de plus de 35 ans, chez lesquelles la réserve d'ovocytes diminue.

Le Monde

Cellules souches : réussite d’une greffe de veine « personnalisée »
Dimanche, 01/07/2012 - 01:20

Une équipe de chirurgiens suédois, en collaboration avec des chercheurs de l'Université de Göteborg, a réalisé avec succès la greffe d’une veine préalablement « personnalisée » à partir des propres cellules souches de la patiente greffée, une jeune fille de 10 ans. C’est ce que révèle une étude publiée dans le dernier numéro de la revue The Lancet.

L’histoire commence avec une fillette de 10 ans souffrant d’obstruction de la veine porte, celle qui conduit le sang des organes digestifs vers le foie. En raison de cette pathologie, l’état de santé de la jeune patiente est particulièrement affecté. Afin de lui offrir une meilleure qualité de vie, des chirurgiens suédois décident de tenter une expérience inédite : remplacer le vaisseau sanguin défectueux par un autre vaisseau fonctionnel, réalisé par ingénierie tissulaire.

Dans un premier temps, les chercheurs ont prélevé, sur une personne décédée, un morceau de veine de 9 cm qu’ils ont ensuite préparé afin d’éliminer toutes traces cellulaires du donneur. Ils ont ainsi obtenu une structure tubulaire constituée d'un canevas de protéines.

Ils ont ensuite collecté des cellules souches provenant de la moelle osseuse de la patiente, afin que ces dernières se réapproprient ce canevas pour constituer une veine cave, propre à la jeune fille. Cette opération a pour but d’éviter que cette dernière subisse un traitement à vie à base d’immunodépresseur, processus classique pour éviter un rejet de la greffe.

Deux semaines après cette manipulation, les chirurgiens ont implanté le greffon sur la patiente. S'il a fallu réitérer l’opération en raison d’un rétrécissement du premier greffon, l’intervention chirurgicale est, au final, un véritable succès. En peu de temps, la qualité de vie de la jeune fille a été améliorée. Elle peut marcher et faire quelques exercices de gymnastique sans ressentir une fatigue extrême et sans avoir le souffle coupé. Par ailleurs, différentes analyses sanguines ont permis d’établir que l’organisme n’avait, pour l’instant, pas attaqué la greffe, et qu’aucun anticorps "anti-greffon" n’avait été découvert, alors que la patiente ne prenait aucun traitement anti-rejet. Devant ce premier succès, les chercheurs souhaiteraient mettre en place un essai clinique afin de valider leur technique.

Information Hospitalière

Une bonne hygiène de vie réduit-elle l'âge biologique ?
Dimanche, 01/07/2012 - 01:10

Au-delà de l'âge chronologique facile à calculer pour chacun, il existe un âge biologique qui peut être évalué par la longueur des télomères, ces morceaux de matériel génétique qui se trouvent à l'extrémité des chromosomes. La perte d'ADN télomérique survenant  lors des divisions cellulaires est associée au développement des pathologies chroniques telles que les maladies cardiovasculaires, les cancers ou certaines démences. Selon des travaux récents, il semble que la perte de télomère soit un facteur modifiable, en particulier par l'hygiène de vie. Peu d'études ont toutefois examiné précisément l'association entre la taille des télomères et l'adoption d'une bonne hygiène de vie.

C'est dans ce contexte que Sun et al. ont analysé de façon transversale, dans la cohorte des infirmières américaines (NHS Study), la relation entre la longueur des télomères et cinq comportements considérés comme protecteurs vis à vis des principales maladies chroniques : pratique régulière d'activité physique, consommation modérée d'alcool, alimentation saine, absence de tabagisme et maintien d'un IMC normal. Les femmes ayant une maladie chronique à l'inclusion étaient exclues de l'analyse. Au total, les données de 5 862 sujets, comprenant notamment les réponses à un questionnaire de fréquence de consommation des aliments, de pratique d'activité physique, de consommation d'alcool et de tabac ont été analysées et confrontées à la longueur des télomères mesurée dans les leucocytes de ces volontaires. Aucun des "comportements sains" n'était, de façon individuelle, significativement associé à la taille de l'ADN télomérique. En revanche, celle-ci était positivement corrélée au nombre de facteurs environnementaux protecteurs. Ainsi, chez les femmes ayant une excellente hygiène de vie (cinq comportements protecteurs), le score évaluant la longueur des télomères était supérieur de 31,2 %.

Pour expliquer l'effet possible de l'hygiène de vie sur les télomères, les auteurs rappellent que la sédentarité, l'"alimentation malsaine" et le tabagisme favorisent l'inflammation, le stress oxydant et l'insulinorésistance qui pourraient tous les trois accélérer le raccourcissement de l'ADN télomérique, notamment via une augmentation du renouvellement des cellules (davantage de divisions cellulaires). La principale limite de cette étude est son modèle transversal, empêchant d'effectuer une analyse temporelle entre des modifications d'hygiène de vie et, d'une part l'évolution des télomères et d'autre part l'incidence des pathologies chroniques.

JIM

L'étonnante carte cérébrale de l'odorat
Samedi, 30/06/2012 - 04:10

Dans le cerveau, les structures qui décryptent les odeurs ont une organisation inattendue.

Nos sens sondent l’environnement : nos yeux détectent la longueur d’onde de la lumière et nos oreilles la fréquence des vibrations de l’air. Le tout est traduit en couleurs et en sons par notre cerveau.

Comment cela se passe-t-il pour la perception des odeurs ? Une équipe américaine porte un nouvel éclairage sur la façon dont elles sont décryptées par le cerveau. La perception d’une odeur débute au niveau de la cavité nasale. Celle-ci est tapissée de millions de neurones qui présentent chacun un seul type de récepteur (il y a 1000 types chez la souris et 300 chez l’homme).

  • Glomérules

Lorsqu’une molécule se fixe sur les récepteurs qui lui correspondent, un neurone transmet un message vers les bulbes olfactifs, situés à l’avant du cerveau. L’information y est traitée dans de petites structures sphériques appelées « glomérules » puis convoyée vers d’autres aires cérébrales, déclenchant la sensation d’une odeur. Bien que répartis aléatoirement, les neurones olfactifs qui expriment le même récepteur convergent tous vers un même glomérule qui, lui, est toujours au même endroit quelque soit l’individu.

Depuis dix ans, on pensait que la répartition des glomérules formait une carte des familles chimiques des molécules odorantes. Pour le vérifier à très fine échelle, des biologistes de l’institut Stower, au Kansas, ont filmé les glomérules activés à la surface des bulbes olfactifs de souris pour 59 molécules odorantes différentes. Résultats : les glomérules activés par des molécules de la même famille ne sont pas regroupés au même endroit, contrairement à ce qu’on supposait. En outre, des molécules aux structures voisines activent des glomérules éparpillés de manière très différente.

  • Approche inverse

Si la carte formée par les glomérules activés n’est pas un code pour décrypter la structure chimique d’une molécule, à quoi correspond-elle ? Pour répondre à cette question, les neuroscientifiques ont pris le problème à l’envers : au lieu de regarder les glomérules activés par chaque molécule, ils ont cherché à déterminer les différentes molécules détectées par chaque glomérule.

Avec cette approche novatrice, ils ont révélé que plus des glomérules sont près les uns des autres, plus ils sont sensibles à des éventails similaires d’odeurs. Autrement dit, si un glomérule s’active pour 3 molécules, comme l’hexanal (odeur d’herbe coupée), le linalol (muguet) et l’acétone (solvant), alors un glomérule voisin aura un spectre proche : par exemple hexanal, linalol et limonène (citron).

« Déterminer la logique de l’organisation spatiale des neurones est une première étape importante pour comprendre ce qu’ils codent et comment ils le font, commente Pierre-Marie Lledo, directeur de l’équipe Perception et Mémoire à l’Institut Pasteur. Reste à confirmer cette étude sans l’anesthésie, qui limite l’activation des glomérules ».

La Recherche

Une première mondiale française dans la lutte contre les infections nosocomiales
Samedi, 30/06/2012 - 01:00

La clinique des Cèdres d’Echirolles, à Grenoble, a fait de la lutte contre le risque infectieux sa priorité. Et le défi a été largement relevé : aujourd’hui la clinique compte parmi les établissements les mieux classés en matière de lutte contre les infections nosocomiales selon l’évaluation réalisée chaque année par le ministère de la Santé. Parmi les dispositifs innovants ayant permis à cet établissement, qui réalise 20 000 interventions chirurgicales par an, de se hisser à pareille place, on retiendra notamment la mise en œuvre depuis 2008 d’un dépistage systématique lors de l’admission des patients porteurs de staphylocoques dorés en distinguant souches sensibles et multi- résistantes. Ce protocole a permis de révéler que 30 % des patients admis au sein de la clinique étaient porteurs d'un staphylocoque doré sensible et 1,7 % porteurs d'un staphylocoque doré multi résistant.

Aussi louable et efficace soit-elle, une telle initiative a cependant ses limites. Aujourd’hui, pour obtenir les résultats du test moléculaire pratiqué pour détecter la présence du staphylocoque doré, il faut attendre en moyenne entre 48 heures et 72 heures. Un délai pas toujours compatible avec l'urgence ou la durée d’hospitalisation.

Mais cet obstacle devrait bientôt être largement dépassé grâce à l’installation au sein de la Clinique des Cèdres, d’un tout nouveau robot, qui vient de recevoir son autorisation par la Food and Drug Administration : le GeneXpert Infinity 80, élaboré par la société américaine Cepheid. La supériorité de GeneXpert Infinity 80 sur les méthodes de dépistage actuelles est incontestable : ce robot, disponible 24 heures sur 24 et 7 jours sur sept peut en effet réaliser simultanément 80 tests et rechercher la présence de bactéries aussi diverses que le staphylocoque doré, le streptocoque B ou encore Mycobacterium tuberculosis. Surtout, le résultat des tests moléculaires réalisés par GeneXpert Infinity 80 est disponible en une heure ! L’installation de ce robot révolutionnaire est non seulement une première en France… mais également dans le monde ! Selon la clinique des Cèdres et la société Cepheid, il pourrait permettre de prendre une « avance d’environ cinq ans sur ce qui se pratique actuellement dans le monde médical ».

JIM

Cepheid

Sanofi Pasteur : opinion positive de l’EMA pour Hexaxim, son vaccin pédiatrique 6-en-1
Vendredi, 29/06/2012 - 01:10

Sanofi Pasteur, la division vaccins de Sanofi, annonce que son vaccin Hexaxim™ (DTCa-IPV-Hib-HepB) a reçu une opinion positive de l’Agence européenne des médicaments (EMA) dans le cadre de la procédure spéciale pour l’évaluation des produits de santé destinés à être commercialisés hors de l’UE. Hexaxim™ est le seul vaccin sous forme liquide 6-en-1 prêt à l’emploi pour la protection des nourrissons contre la diphtérie, le tétanos, la coqueluche, l’hépatite B, la poliomyélite et les infections invasives à Haemophilus influenzae de type b.

L’opinion scientifique de l’EMA repose sur l’analyse du dossier soumis par Sanofi Pasteur selon la procédure prévue dans l’Article 58. « L’EMA a conduit cette évaluation avec la participation d’experts de l’Organisation mondiale de la santé (OMS), selon les mêmes critères de qualité, de sécurité et d’efficacité que pour les vaccins autorisés dans l’Union européenne. Beaucoup de pays d’Amérique latine, d’Afrique, du Moyen-Orient et d’Asie se fondent sur l’avis scientifique de l’EMA pour accorder leurs autorisations de mise sur le marché », souligne le laboratoire dans un communiqué.

Une fois approuvé, Hexaxim™ devrait être indiqué suivant les recommandations officielles, pour la primo-vaccination et la vaccination de rappel des enfants à partir de l’âge de six semaines.

L’opinion positive de l’EMA s’appuie sur les résultats d’études cliniques multicentriques impliquant près de 4 000 enfants en Argentine, au Pérou, au Mexique, en Afrique du Sud et en Thaïlande. Les études cliniques de phase III comparant Hexaxim™ aux vaccins combinés déjà homologués ont montré qu’Hexaxim™ est bien toléré et qu’il induit une réponse immunitaire robuste contre les six maladies ciblées.

Hexaxim™ vient compléter la famille Acxim des vaccins combinés Ca-IPV (vaccin coqueluche acellulaire, vaccin polio inactivé) de Sanofi Pasteur. A ce jour, plus de 180 millions de doses de vaccins contenant le Ca-IPV de Sanofi Pasteur ont été distribuées dans plus d’une centaine de pays et incorporées dans les programmes nationaux de vaccination de plus de 30 pays. Hexaxim combine les mêmes antigènes que ceux des vaccins déjà bien établis Tetraxim ® /Tetravac® (vaccin DTCa-IPV) et Pentaxim®/ Pentavac® (vaccin DTCa-IPV-Hib), avec le nouvel antigène de l’hépatite B de Sanofi Pasteur.

MyPharma

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
L'Astute Car : la voiture de demain grâce à la technologie aéronautique
Mercredi, 04/07/2012 - 01:10

Urbaine et électrique, l'Astute Car se profile comme la voiture de demain grâce à la technologie aéronautique. Un prototype a été présenté à Blagnac. Le look futuriste et l'allure spatiale, l'Astute Car est une voiture électrique qui permet d'atteindre une autonomie record de 300 km. Parmi ses autres performances, elle supprime la liaison mécanique entre le volant et les roues. La conséquence est une meilleure habitabilité et plus de résistance en cas de crash frontal. La sécurité est abordée de manière révolutionnaire en utilisant également une structure d'absorption des chocs totalement innovante, dérivée des technologies utilisées dans l'aéronautique.

« Nous avons fait appel à des ingénieurs d'Airbus et à du personnel qui travaille dans l'aéronautique à Toulouse pour réaliser ce prototype qui va être présenté à nos clients », explique un cadre de la société AKKA Technologie, porteur du projet. « Ils manifestent un intérêt pour la technologie développée par cette voiture innovante pour laquelle dix brevets ont été déposés. Les systèmes empruntés à l'aéronautique agissent sur la sécurité et la légèreté du véhicule (650 kg) grâce à des matériaux composites ».

L'automobile est le secteur historique du groupe AKKA Technologies depuis plus de 25 ans. Les équipes, qui interviennent sur tout le cycle de vie du projet, font preuve d'une expertise reconnue par les plus grands constructeurs.

« En 2009, le contexte économique nous a amenés à faire travailler nos consultants sur des projets innovants ; c'est à cette occasion que nous avons développé notre propre centre de recherche », explique Maurice Ricci, président du comité scientifique du CRDTA (Centre de Recherche et Développement des Technologies Alternatives). « Ces projets nous ont également permis de mettre en avant la créativité et la qualité de nos ingénieurs. Notre centre de recherche est aujourd'hui le reflet d'un modèle social résolument différent développant l'appartenance à notre Groupe et les projets collaboratifs ». Ce projet a été récompensé parmi 41 dossiers par le Conseil général des Yvelines pour la réalisation du véhicule urbain de demain.

LA DEPECHE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top