RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 662
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Juillet 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Orange, SFR et Bouygues Telecom font cause commune autour de la 4G
Cent watts par l’USB !
Des objets communicants pour rompre l'isolement et renforcer le lien social
Revivre l'histoire du château de Versailles en animation 3D
Commander son ordinateur en clignant des yeux !
La France se dote d'un des plus puissants supercalculateurs du monde
Avenir
Des nano-antennes capables d'amplifier un signal lumineux
Le robot Neuroglide permet de placer des vis lors d'opérations des cervicales avec une précision inégalée de moins de 0,5 mm
Des puces quantiques pour rendre les robots intelligents
Matière
Première image de l'ombre d'un atome
Des vitres vont pouvoir produire du courant
Le Japon s'essaye au stockage de l'électricité solaire
Le noyau atomique : liquide fissile ou molécule vitale ?
Produire des LED en 3D : un défi technologique européen !
Des biocarburants de 3ème génération issus de la mer
Air Liquide va expérimenter la capture et la valorisation du CO2
Une LEd polychrome utilisant la spintronique
Terre
Les doigts de sel stratifient l'océan
Réduire les déchets ménagers grâce à l'électronique
Mieux prendre en compte l’écologie dans les problématiques de recherche agronomiques : lancement de l’Université virtuelle d’agroécologie
Vivant
Tuberculose et VIH : de nouvelles combinaisons de médicaments compatibles et universelles
Le sel, responsable d'un cancer de l'estomac sur 7 !
Cancer du pancréas : une avancée en matière de recherche fondamentale
Sclérose en plaques : la preuve par le sodium
Une grenade moléculaire à l’assaut des cancers
Détruire les cellules cancéreuses avec des peptides fabriqués sur mesure
Vers une "chimioprévention" des crises cardiaques et des AVC ?
Maladie d'Alzheimer : une nouvelle thérapie immunitaire encourageante
Cancer : l'exercice physique intense peut diminuer de manière significative les risques de récidive !
Sclérose en plaques : une accumulation anormale de sodium dans le cerveau mesurée par IRM du sodium témoigne de l'évolution de la maladie
Stopper la transmission du paludisme grâce à une bactérie !
Produire du muscle à la demande !
Des scientifiques découvrent une protéine clé dans le développement cardiaque embryonnaire
La chirurgie robotisée s'impose en cardiologie
Détecter précocement la maladie de Parkinson grâce à l'IRM
Une nouvelle approche thérapeutique en vue pour le cancer du poumon au stade précoce
Découverte d'un nouveau mécanisme de codage de l'information génétique
Une rétine artificielle sans fil
Edito
Google plus que jamais décidé à contrôler le marché mondial du numérique



Mesdames, Messieurs, Chers abonnés, chers lecteurs,

Comme chaque année, depuis 1998, RT Flash prend quelques semaines de repos.

Vous pourrez lire notre prochain numéro le premier Vendredi de Septembre.

Nous souhaitons de belles vacances à tous ceux qui peuvent en prendre et un beau temps sur leur lieu de résidence à tous les autres.

Bien Cordialement

René  TREGOUET

Une étude GFK publiée il y a quelques semaines nous apprend que la vente de biens culturels a représenté 8,3 milliards d'euros en France en 2011. Le livre classique représente encore plus de la moitié de ce marché et les produits et services numériques environ 10 %. Quant au livre numérique, il ne représente encore qu'à peine 0,5 % de ce marché culturel national ! Notre pays est donc très loin de connaître l'engouement pour le livre numérique que l'on observe aux USA (2 milliards d'euros de chiffre d'affaires en 2011) ou encore en Grande-Bretagne ou en Allemagne.

A quoi tient ce retard français ? A plusieurs raisons dont le prix du livre numérique (15 € en moyenne) mais les livres numériques sont, en moyenne, pratiquement aussi chers en Grande-Bretagne et en Allemagne alors qu'ils se vendent beaucoup mieux dans ces pays européens. En France, plus d'un million de téléchargements payants de livres numériques ont toutefois été effectués en 2011 (pour un chiffre d'affaires de 12 millions) et ce chiffre devrait tripler en 2012 et être multiplié par dix d'ici 2020.

Au niveau des terminaux et lecteurs numériques, 440 000 tablettes ont été vendues en France en 2010, 1 million en 2011 et le cap des 3 millions devrait être franchi en 2012. Aujourd'hui, 7 % des foyers possèdent une tablette numérique mais à peine plus d'un pour cent ont un livre électronique.

Tous les grands acteurs du numérique sont néanmoins convaincus que le marché des contenus numériques et du livre numérique va exploser mais, face au foisonnement d'innovations technologiques, personne ne peut dire aujourd'hui selon quel modèle économique.

C'est dans ce contexte que Google vient de lancer, après ses principaux concurrents, sa librairie numérique sur sa boutique en ligne Google Play. Grâce aux différents et parfois laborieux accords conclus avec les éditeurs français, Google est à présent en mesure de proposer à ses clients plusieurs centaines de milliers de titres sous forme numérique, ce qui constitue pour l'avenir un atout au potentiel économique et commercial inestimable.

Comme le souligne, non sans fierté, Philippe Colombet, directeur de Google Livres en France, les principaux éditeurs de l'Hexagone (Hachette, Flammarion, Gallimard) ont finalement signé des accords de diffusion et d'exploitation numériques.

En outre, Google ne se contente pas de proposer une offre payante très conséquente. Il s'est constitué, depuis plus de 10 ans, un phénoménal catalogue mondial d'ouvrages libres de droits qui ont été numérisés dans les plus grandes bibliothèques de la planète et sont désormais accessibles gratuitement pour le public français. Dernier atout et non des moindres, comme le prévoit l'accord signé il y a quelques semaines avec le SNE (Syndicat National de l'Edition), Google pourra, avec l'accord des éditeurs concernés, commercialiser les livres non libres de droits mais épuisés en version imprimée.

Autre spécificité de l'offre de Google, les livres numériques ne seront pas téléchargés. Ils resteront dans le réseau en "nuage" et, pour les consulter, les clients devront les acheter par l'Internet ou à l'aide de leur mobile qui devra évidemment tourner sous le système d'exploitation Android de Google. Google Play Livres souhaite donc, sans surprise, développer la lecture électronique sur mobile ou tablette à partir de son système d'exploitation "maison". Mais Google reste pragmatique et propose également le téléchargement de livres au format ePub ou PDF, verrouillés par le système de protection d’Adobe et consultables uniquement sur des terminaux techniquement équipés pour gérer cette protection.

Pour l'instant, le modèle économique choisi par Google n'est pas révolutionnaire : il repose sur une commission sur les ventes dans le cadre de la Loi française sur le prix unique du livre. Autre handicap, Google est fortement pénalisé par rapport à ses concurrents car, étant domicilié en Irlande, il est astreint à un taux de TVA de 23 % alors qu'Amazon ou Apple, basés au Luxembourg, n'ont que 3 % de TVA à payer et les éditeurs français 7 %.

Mais pour bien comprendre la stratégie globale de Google, il faut sortir du cadre national et européen et ne pas oublier que Google vise une position hégémonique sur l'ensemble des contenus numériques produits, véhiculés et consommés, qu'il s'agisse du livre, de la musique, des jeux ou de la vidéo. C'est ainsi qu'aux Etats-Unis, Google Play vise clairement à devenir la grande plate-forme incontournable de loisirs numériques proposant indifféremment livres, films, vidéos, logiciels ou magazines.

Pour Google, ce contrôle des contenus numériques doit également lui permettre d'assurer le succès, loin d'être gagné d'avance, de sa tablette, la Nexus, qui vient de sortir aux USA et en Grande-Bretagne où elle connaît un succès remarquable et devrait déferler en Europe à la rentrée. Il est vital pour Google de supplanter le plus rapidement possible Apple qui devrait rester leader du marché mondial jusqu’en 2016.

Selon UBM TechInsights, chaque Nexus coûterait 184 dollars à Google, soit à peine 15 dollars de revenus par tablette, contre 46 dollars pour la Kindle Fire d'Amazon. Google sait pertinemment qu'il ne gagnera pas ou très peu d'argent avec sa tablette pendant plusieurs années mais l'enjeu est ailleurs : il s'agit de proposer aux consommateurs du monde entier une offre numérique irrésistible et bien plus riche et diversifiée que celle de tous ses concurrents réunis.

Dans le cadre de cette stratégie redoutable, Google continue à pousser partout ses pions. Il vient par exemple de lancer aux Etats-Unis sa plate-forme TV " Nexus Q". Il s'agit d'un boîtier multimédia qui sert de passerelle intelligente et sociale et permet par exemple de voir des photos et des vidéos stockées à distance dans le réseau. Tournant sous Android, Nexus Q peut se commander à distance, via son smartphone et permet de diffuser les contenus numériques provenant de Google Play et YouTube.

Google vient par ailleurs de racheter Sparrow, une start-up française qui a connu un succès foudroyant en concevant et proposant de nouvelles applications liées au courrier électronique. Les applications de Sparrow permettent notamment de regrouper les courriels en conversations qui affichent les photos de contacts récupérées par exemple sur Facebook.

Face à cette volonté impériale, il est plus que jamais nécessaire que les états et l'Europe réagissent et imposent à Google les conditions réglementaires d'une concurrence saine et loyale. La Commission européenne a ainsi exigé que Google propose, comme l'avait fait avant lui Microsoft, de nouvelles mesures concernant l'ensemble des terminaux numériques et destinées à répondre à la situation d'abus de position dominante constatée par les autorités européennes. Il semble que les dernières propositions faites par Google le 24 juillet aient reçu un avis favorable de la Commission qui souhaite toutefois les examiner plus en détail avant de proposer à Google un accord global.

Google était accusé d'avoir favorisé ses propres services au détriment de ceux des autres prestataires numériques, d'avoir copié des contenus d'autres sites sans leur autorisation, d'avoir conclu des contrats publicitaires qui empêchent ses concurrents de signer des accords similaires et, enfin, d'avoir prévu des mesures spécifiques dans ses contrats avec les fabricants de logiciels qui bloquent l'accès des publicitaires à d'autres moteurs de recherche.

On le voit, face au triomphe de l'économie dématérialisée dont Google est devenu le plus éclatant symbole, il nous faut repenser au niveau national, international et mondial les règles qui régissent le cadre concurrentiel et qui assurent et protègent le libre accès pour tous aux contenus numériques, concernant l'éducation et la culture, qui constituent un bien collectif inestimable et appartiennent au patrimoine commun de l'humanité.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat 


TIC
Information et Communication
Orange, SFR et Bouygues Telecom font cause commune autour de la 4G
Jeudi, 26/07/2012 - 15:09

Les trois opérateurs français vont tenter une première expérimentation commune du réseau de téléphonie mobile de quatrième génération dans la ville de Saint-Etienne.

Les opérateurs Orange, SFR et Bouygues Telecom vont lancer début 2013 à Saint-Etienne (Loire) une première expérimentation commune pour déployer la téléphonie mobile de quatrième génération (4G), a annoncé récemment à l'AFP la ministre de l'Economie numérique Fleur Pellerin. "Le chantier était bloqué depuis six mois, il n'y avait pas d'accord sur les expérimentations. Lors des discussions à Bercy avec les opérateurs, ce blocage a été levé et les opérateurs sont d'accord pour lancer une expérimentation commune à Saint-Etienne", a déclaré la ministre.

Les premiers tests devraient débuter à la rentrée, a-t-on précisé au ministère. Il s'agit avant tout de voir dans quelle mesure certains lots de fréquences de la bande de 800 MHz, qui seront utilisés pour la 4G, interfèrent avec ceux de la Télévision numérique terrestre (TNT) et provoquent des brouillages pour les téléspectateurs.

Ces derniers mois, ces trois opérateurs ont lancé à Lyon, Marseille ou encore Montpellier chacun de leur côté des tests de téléphonie 4G sur une autre bande de fréquence, celle des 2,6 GHz qui n'a pas d'incidence sur la télévision, dans plusieurs villes pilotes. Ils espèrent lancer leurs premières offres commerciales en 2013.

Reste alors la houleuse question des utilisateurs de Free, qui bénéficient d'un contrat d'itinérance avec Orange : "Au début, notre offre 4G sera réservée à nos clients. Que ceux de Free puissent utiliser la 4G sur Marseille, par un avenant à notre accord d'itinérance, n'est pas encore à l'ordre du jour", avait précisé Stéphane Richard, PDG d'Orange, en mars dernier.

L'Usine Nouvelle

Cent watts par l’USB !
Jeudi, 26/07/2012 - 10:47

Le groupe des promoteurs de l’USB 3.0 vient de dévoiler les spécifications définitives de l’USB Power Delivery. Alors que l’USB 2.0 fournit une puissance de 2,5 watts et que l’USB 3.0 délivre au maximum 4,5 watts, l’USB Power Delivery est capable de véhiculer une puissance de 100 watts, tout en continuant à assurer la transmission des données. De quoi alimenter directement par un unique câble des périphériques réclamant une certaine puissance, comme, par exemple, un boîtier pour deux disques durs montés en Raid ou de grosses enceintes.

Tout en restant rétrocompatible avec les normes USB 2.0, USB 3.0 et USB Batterry Charging (qui délivre 9 watts sans transmission de données), l’USB Power Delivery avance un argument de taille : l’alimentation électrique est bidirectionnelle. Autrement dit, un ordinateur est capable de fournir de l'énergie à un périphérique compatible. Mais l’on peut très bien imaginer un périphérique USB Power Delivery alimenté par le courant alternatif d’une prise électrique venir recharger un PC portable, par l'intermédiaire d'un câble USB.

Cette nouvelle norme pourrait devenir universelle, comme le souligne Brad Saunders, président de l’USB Promoter Group (PDF) : « [cette technologie contribue à] réduire de manière drastique le gâchis en composants électroniques en supprimant tous les chargeurs basés sur un connecteur propriétaire ».

Bien entendu, pour fournir une telle puissance, il faudra vous procurer des câbles certifiés. Désormais, en plus des 5 volts/2 ampères, les câbles, périphériques et cartes mère accepteront une tension de 12 et 20 volts et 1,5, 3 et 5 ampères. Seuls les connecteurs « classiques » (côté périphérique) seraient en mesure de supporter la puissance maximale de 100 watts. Les fabricants disposent de toutes les spécifications finales depuis le 5 juillet dernier et l’on devrait découvrir les premiers appareils compatibles d’ici à l’automne.

01net

Des objets communicants pour rompre l'isolement et renforcer le lien social
Mardi, 24/07/2012 - 01:30

Comment l’informatique et la technologie peuvent-elles aider les personnes âgées ou avec déficits cognitifs ? En les aidant à rester autonomes le plus longtemps possible, selon l'équipe de recherche Phoenix du Centre Inria Bordeaux - Sud-Ouest et ses partenaires qui travaillent sur des applications sûres pour l’orchestration d’objets dits "communicants".

Une fois orchestrés, les objets technologiques de tous les jours, tels que téléviseurs et smartphones, peuvent former une plate-forme aux fonctionnalités avancées pour aider les personnes âgées ou avec déficits cognitifs. Les membres de l’équipe Phoenix sont en train de concevoir une approche, « DiaSuite » et une technologie « DiaSuiteBOX » dans ce but.

  • Un projet agrégeant l'expertise d'informaticiens et de cogniticiens

Le projet va largement au-delà de la simple domotique, explique le responsable du projet Charles Consel, professeur en sciences informatiques à l’Institut Polytechnique de Bordeaux (IPB) et chez Inria. «On l’appelle ‘la compensation numérique’, » dit-il. « L’application ne veut pas simplement améliorer le confort d’une personne âgée ou déficiente mais va compenser ses manques cognitifs, choses qui n’étaient pas traitées jusque là. »

Membre de l’équipe, Hélène Sauzéon, enseignante-chercheur à l’Université Bordeaux Segalen, psychologue de formation et spécialisée dans le vieillissement et le handicap cognitif, confirme cette stratégie : « Les services actuellement disponibles dans la grande distribution se concentrent davantage sur les aspects ‘protection/sécurité’ du domicile voire au mieux sur des services de contournements du handicap moteur, » dit elle, « mais peu de choses sont faites pour répondre au handicap cognitif et à l'autonomie domiciliaire ou encore à l'isolement social comme dans le cas de la personne âgée. »

L’enjeu sociétal est de taille : le vieillissement démographique, couplé avec une plus grande incidence des maladies neurodégénératives, telles la démence du type Alzheimer, posent le problème du maintien ou de l’accès à l’autonomie de ces personnes souffrantes, poursuit-elle.

Développer des solutions simples et peu onéreuses facilitant la vie de tous les jours et en particulier les activités domestiques, est une réelle alternative pour ces personnes souhaitant vieillir dans la dignité et une relative l’indépendance. C'est ce que propose la technologie DiaSuiteBOX.

« Les technologies développées par Phoenix permettent des vrais déploiements en milieu naturel, » explique-t-elle. « Pour cela, l'équipe possède une certaine expérience dans le domaine de la sûreté et sécurité des données ce qui est primordial pour les futurs utilisateurs, qui exigent légitimement une confidentialité mais autorisent une utilisation bienveillante (par exemple, d’être mis en réseau avec d’autres personnes âgées ayant les mêmes centres d’intérêt, comme la visite de sites culturels pour n’en citer qu’un).

  • La recherche de solutions simples et personnalisables

La solution d’assistance développée par Phoenix est simple à utiliser, personnalisable et adaptée à chaque utilisateur. Le modèle d’innovation est similaire à celui qu’on trouve sur nos smartphones avec un « application store » où on peut choisir l’app qui nous intéresse particulièrement. Actuellement, la technologie reste au stade de développement, certes mature, mais les chercheurs souhaitent l’industrialiser à terme, notamment avec le transfert (par Inria) d'une box pour seniors développée par la PME parisienne Ubiquiet.

Un exemple d’application, lié à la mémoire long terme, est une alerte sonore ou visuelle (après un temps prédéterminé) qui informe la personne que la porte d’entrée est restée ouverte ou que ses clés sont restées dans la serrure à l’extérieur.

« C’est la machine qui doit s’adapter à la personne âgée ou handicapée et non l’inverse, » assure Hélène Sauzéon. « Nos connaissances en sciences cognitives permettent aujourd’hui une certaine rationalisation de ces contraintes utilisateurs, qui prises en considération en amont de la conception des technologies les transforment en de vrais services numériques à la personne. »

Le projet va à contre-courant en quelque sorte de l‘approche classique dite technocentrée dans laquelle des technologies sont développées d’abord et les applications possibles trouvées a posteriori.

« Notre collaboration avec les chercheurs en sciences cognitives est très importante, » ajoute Charles Consel. « Ils savent communiquer avec des personnes âgées et leurs aides à domicile, s’il y en a, pour comprendre et analyser les besoins du client. Nous développons ensuite les applications adaptées ensemble après avoir établi un cahier des charges en termes de fonctionnalités et de modalités d’interface dans un processus itératif avec nos développeurs de logiciels. Les applications finales ‘cousues main’ sont délivrées, via l’ « application store », et validées par l’utilisateur lui-même à domicile. »

Les chercheurs en sciences cognitives sont également au courant des questions éthiques et juridiques dans le domaine, et connaissent parfaitement les démarches à suivre pour que l’étude reste dans les règles définies par le Comité de Protection des Personnes (CPP).

L‘équipe a ainsi trois études en cours. Deux sont dans le domaine de l’aide à la vie au domicile (des personnes âgées et celles porteurs de Trisomie 21) en partenariat avec UDCCAS de la gironde et l’association Trisomie 21 France. La troisième est dans le domaine de l’inclusion scolaire de jeunes collégiens porteurs d’autisme en partenariat avec le ministère de l’Education Nationale, le rectorat de Bordeaux et plusieurs structures scolaires de la CUB.

INRIA

Revivre l'histoire du château de Versailles en animation 3D
Mardi, 24/07/2012 - 01:10

Quand le château de Versailles s’associe à Google et ses spécialistes de la reconstitution 3D, cela donne ces vidéos qui permettent de mieux comprendre l'évolution du site grâce aux images de synthèse.

Quand l’histoire du château de Versailles commence-t-elle ? En 1623, très exactement : Louis XIII fait alors construire un pavillon de chasse dans un enclos de 2,5 hectares à l’emplacement de l’actuel château, autrefois au sein d’une petite garenne. Il choisit ce lieu en souvenir des parties de chasse avec son père Henri IV, à Versailles.

La bâtisse est rasée dès 1631 : le roi demande la construction d’un nouveau château, fait de briques et de pierres.

Un lieu qui plaît beaucoup à Louis XIV quelques années plus tard. La cour y organise de nombreuses fêtes, aussi, le roi commande des travaux d’embellissement. Puis, souhaitant y résider plus souvent, des travaux d’agrandissement. C’est à ce moment qu’est construite l’« Enveloppe » en pierre de taille, avec des façades s’inspirant de celles de villas italiennes, qui enveloppe le château de briques et de pierres. La terrasse en belvédère sépare les appartements du roi de ceux de la reine et permet d’admirer les jardins d’André Le Notre.

  • Le château est préservé par la Révolution Française

En 1682, le roi installe la cour à Versailles : il faut agrandir encore, notamment deux grandes ailes destinées à abriter les princes ainsi que des dépendances pour les services du gouvernement et de la cour. A la mort du roi Soleil, le château ressemble beaucoup à celui que nous visitons aujourd’hui. Notamment avec la chapelle royale, construite en 1710.

Sous Louis XV, ce sont surtout des aménagements intérieurs qui sont réalisés, avec la réalisation de petits appartements dans le château pour multiplier les lieux intimes, et surtout, une salle d’opéra.

Malgré la Révolution, le château est préservé. En 1832, Louis-Philippe fait d’une partie du château un musée.

Aujourd’hui, le château de Versailles est devenu le troisième site culturel le plus visité en France. Pour faire connaître cette histoire architecturale peu connue du grand public, Versailles s’est ainsi adjoint l’aide de Google. On peut désormais explorer les lieux au travers de ces reconstitutions 3D et comprendre son évolution grâce aux images de synthèse.

Sur place, c’est toute une aile du château qui est dédiée à l’histoire des bâtiments. Une dizaine de salles mélangent vidéos, maquettes, tableaux, objets dans une scénographie aussi lisible qu’accessible. Seul regret, ce parcours est le préambule de la visite du reste du château, devenant un passage obligé trop bondé, alors qu’il mériterait le déplacement à lui seul. Mais pour ceux qui ne pourraient le faire, ces vidéos, réalisées par les équipes de Versailles et celles de l’Institut culturel Google, sont complétées par de nombreuses autres illustrations, œuvres numérisées et maquettes visibles sur le site www.versailles3D.com

Sciences et Avenir

Commander son ordinateur en clignant des yeux !
Dimanche, 22/07/2012 - 01:10

Un nouvel appareil développé par des chercheurs européens permettrait d'aider des millions de personnes souffrant de maladies comme la sclérose en plaques, la maladie de Parkinson et de dystrophie musculaire à interagir avec un ordinateur et à leur environnement grâce à leurs yeux. Le dispositif pourrait également bénéficier aux personnes victimes d'amputation et de blessures de la moelle épinière.

Ce dispositif technologique, conçu par des chercheurs de l'Imperial College de Londres, au Royaume-Uni, peut déterminer le point exact où se pose le regard d'un sujet en détectant le mouvement oculaire, permettant ainsi à l'utilisateur de contrôler un pointeur sur écran de la même manière qu'une souris informatique. Jusqu'à présent, l'équipe a montré que la technologie, présentée dans la revue Journal of Neural Engineering, permet aux utilisateurs de jouer à un jeu sans combiné, surfer sur la Toile et rédiger des courriels.

Le dispositif est composé de deux caméras vidéo rapides attachées à une paire de lunettes externes à la ligne de vision. Les caméras prennent continuellement des photos de l'oeil pour déterminer où se concentre le regard, ce qui permet aux chercheurs d'utiliser un ensemble de calibrations pour déterminer précisément où l'utilisateur regarde l'écran. De plus, les chercheurs peuvent également utiliser des calibrations plus détaillées pour déterminer la portée du regard. Ce résultat permettrait un jour d'aider une personne invalide à commander une chaise roulante simplement en fixant le point d'arrivée souhaité ou même de commander une prothèse de bras, par exemple.

Le dispositif commercialement viable fonctionne à la puissance d'un watt et peut transmettre des données grâce au wifi ou via support USB dans tout ordinateur fonctionnant sous Windows ou Linux. Le système permet également à l'utilisateur de cliquer sur un élément de l'écran grâce à ses yeux, plutôt qu'au bouton d'une souris. Lors des tentatives antérieures, les utilisateurs devaient fixer une image pendant un petit temps ou cligner des yeux, mais le clignement n'était pas une solution idéale car il s'agit d'une action involontaire incontrôlable. Cette fois-ci, les chercheurs ont programmé le dispositif pour qu'il identifie un clignement d'oeil volontaire simple comme s'il s'agissait d'un clic de souris.

Le Docteur Aldo Faisal, de l'institution britannique, explique : «Nous avons pu obtenir deux choses : nous avons élaboré un système de détection oculaire en 3D cent fois moins cher que les systèmes commerciaux et nous l'avons utilisé dans une interface cerveau/machine en temps réel qui permet à l'utilisateur d'interagir plus rapidement et plus aisément qu'avec les technologies invasives qui sont des dizaines de milliers de fois plus chères. C'est une pure innovation ; développer des logiciels plus intelligents et de matériel existant par accès à califourchon pour créer des dispositifs pouvant aider des personnes du monde entier indépendamment de leurs conditions de soins de santé.»

Cordis

La France se dote d'un des plus puissants supercalculateurs du monde
Vendredi, 20/07/2012 - 05:10

Geneviève Fioraso, ministre de l'Enseignement supérieur et de la Recherche, a inauguré jeudi 12 juillet le supercalculateur CURIE, qui sera mis à la disposition de la communauté scientifique française et européenne. Conçu par BULL et exploité par les équipes du Très Grand Centre de Calcul (TGCC) du CEA, à Bruyères-le-Châtel (Essonne), le supercalculateur CURIE constitue un atout majeur pour relever les défis scientifiques dans différents domaines comme la climatologie, les sciences de la vie ou l'astrophysique. Dans ces disciplines, la complexité des problèmes abordés (la structuration de l'Univers, par exemple) et les échelles de temps ou de taille (la structure d’une protéine) nécessitent non seulement une grande puissance de calcul mais également un traitement performant des données qui sont générées.

Le supercalculateur CURIE qui réclame une puissance électrique de 3,5 MW se compose de 120 racks répartis sur 200 m2 et de 50 kilomètres de câbles. Il est doté de plus de 92.000 coeurs (unités) de calcul, pour une puissance de 2 petaflops (soit 2 millions de milliards d'opérations à la seconde). C'est l'une des dix machines les plus puissantes au monde. CURIE se caractérise par une architecture équilibrée, unique en Europe : "le calculateur a été conçu pour combiner une puissance de calcul élevée et une capacité très grande de traitement des données."

Le refroidissement du système est assuré par un système mixte eau et air froids, mis au point par les équipes de Bull et du CEA-DAM. Chaque armoire informatique est équipée d'une porte intégrant un échangeur et des ventilateurs et dans laquelle circule de l'eau glacée. Ce système, qui vient compléter un refroidissement par air, permet de dissiper 40 kW par armoire. Le réseau de distribution d’eau glacée (1 km de tuyauteries) est installé dans les faux planchers. L'ensemble est accompagné de dispositifs de sécurité, indispensables pour prendre en compte l'éventualité de fuites, les arrêts intempestifs ainsi que la cohabitation de réseaux d'eau glacée et de réseaux électriques.

CURIE a été conçu par Bull pour le compte de GENCI (Grand Equipement National de Calcul Intensif), la société qui porte la politique nationale pour la recherche académique dans le domaine du calcul intensif. Le supercalculateur est exploité par les équipes opérationnelles du Très Grand Centre de calcul du CEA (TGCC) à Bruyères-le-Châtel (Essonne), où il bénéficie d’un environnement scientifique et technique de pointe. Avec l'investissement réalisé par GENCI, CURIE permet à la France de tenir ses engagements auprès de l'infrastructure européenne de calcul intensif PRACE (Partnership for Advanced Computing in Europe), dont elle est un des membres fondateurs.

En sciences et dans l’industrie, le développement de la simulation numérique, qui permet de reproduire virtuellement des phénomènes complexes, a conduit à concevoir un cerain type de « machine à calculer » : Le supercalculateur. Le premier d'entre eux, conçu en Allemagne dès la fin des années trente, était capable d'effectuer une opération par seconde... Aujourd'hui, les machines les plus performantes peuvent en réaliser des millions de milliards dans le même laps de temps.

Enerzine

^ Haut
Avenir
Nanotechnologies et Robotique
Des nano-antennes capables d'amplifier un signal lumineux
Mardi, 24/07/2012 - 01:00

Puisque la lumière est une onde, il devrait être possible de mettre au point des antennes optiques capables d'amplifier le signal lumineux de la même façon que les antennes de nos télévisions ou de nos portables captent les ondes radios. Or, la lumière oscillant un million de fois plus rapidement que les ondes radio, il faut des objets extrêmement petits de l'ordre du nanomètre (nm) pour capter ces ondes lumineuses très rapides. C'est pourquoi, l'équivalent optique d'une antenne élémentaire (de type dipolaire) est un émetteur quantique entouré de deux particules mille fois plus petites qu'un cheveu humain.

Pour la première fois, les chercheurs des Instituts Langevin et Fresnel ont mis au point une telle nano-antenne bio-inspirée pour la lumière, simple et facile à manipuler. Sur de courts brins d'ADN synthétiques (10 à 15 nm de long), ils ont greffé des particules d'or (de 36 nm de diamètre) et un colorant organique fluorescent. La molécule fluorescente agit comme une source quantique qui alimente l'antenne en photons tandis que les nanoparticules d'or amplifient l'interaction entre l'émetteur et la lumière.

Les scientifiques ont produit en parallèle plusieurs milliards de copies de ces paires de particules (en solution) en contrôlant la position de la molécule fluorescente au nanomètre près, grâce à l'ossature d'ADN. Ces caractéristiques dépassent largement les possibilités offertes par les techniques classiques de lithographies utilisées actuellement dans la conception des microprocesseurs. A plus long terme, une telle miniaturisation pourrait permettre le développement de diodes luminescentes plus efficaces, de détecteurs plus rapides et de cellules solaires plus compactes. Ces nano-sources de lumière pourraient également être utilisées en cryptographie quantique.

CNRS

Le robot Neuroglide permet de placer des vis lors d'opérations des cervicales avec une précision inégalée de moins de 0,5 mm
Lundi, 23/07/2012 - 01:20

Suite à un accident, une hernie discale ou de l'ostéoporose, placer une vis pour souder les vertèbres cervicales peut devenir nécessaire pour soulager le patient de douleurs irradiantes et incommodantes. Environ 400.000 poses de vis dans la colonne vertébrale sont pratiquées chaque année en Europe. D'après un article publié dans l'International Journal on Medical Robotics and Computer Assisted Surgery, près de 4 % des opérations manuelles de la seconde vertèbre cervicale présentent des complications neurologiques. L'incidence des blessures artérielles est de 4 à 8 % et le placement optimal des vis ne serait que d'un peu plus de 68 %. Ainsi, placer une vis de 4 mm de diamètre dans un os qui mesure en moyenne 6 mm de large avec d'un côté des artères cérébrales, de l'autre la moelle épinière, reste une opération à risque même pour les meilleurs chirurgiens.

Les chercheurs, dont Szymon Kostrzewki et Philippe Bérard, du groupe "Virtual Reality and Active Interfaces" (VRAI) - de Charles Baur au Laboratoire de Systèmes Robotiques (LSRO2) de l'Ecole polytechnique fédérale de Lausanne (EPFL), viennent de mettre au point un robot, Neuroglide, qui réalise cette opération avec une précision de 0,5 mm. Le robot compact, sous la forme d'un petit boîtier, est maintenu par une structure passive au dessus du champ opératoire. Sa précision repose sur une conception mécanique de haute précision combinée à un contrôle automatique. Sa fiabilité dépend d'une caméra de tracking optique, développée par Atracsys, une spin-off de l'EPFL, qui lui permet de suivre la trajectoire de cette perceuse médicale en temps réel. Les informations sont transmises à un logiciel qui permet au robot de se repositionner en permanence selon la trajectoire préétablie par le chirurgien.

Szymon Kostrzewski et Philippe Bérard créent actuellement la start-up KB Medical pour commercialiser le système. Ils espèrent finaliser un second prototype d'ici un an et commencer des essais cliniques à l'automne 2013. D'autres applications sont d'ores et déjà prévues pour ce système robotique : par exemple, l'utilisation d'appareils avec un retour de force pour l'ablation de tumeurs qui présentent une résistance différente des cartilages et autres tissus avoisinant dans le cas de la chirurgie en oto-rhino-laryngologie.

Bulletins electroniques

Des puces quantiques pour rendre les robots intelligents
Vendredi, 20/07/2012 - 05:00

Bien que les premiers robots exécuteront d'abord des ordres préprogrammés, l'enjeu sera par la suite de les rendre vraiment intelligents, afin de pouvoir interagir avec eux comme avec des humains. Pas question de considérer nos puces actuelles et même nos supercalculateurs pour y arriver, ils sont à peine plus intelligents que des insectes ! Il faudra plutôt passer à des puces révolutionnaires faisant appel à la physique quantique ou fonctionnant à l'ADN.

La première évolution qui arrivera sera la puce quantique, aux alentours de 2020. Son prix prohibitif de plusieurs millions de dollars fait en sorte qu'elle ne sera intégrée en premier lieu qu'aux super calculateurs, tout aussi dispendieux. Néanmoins, le prix de ces puces baissera éventuellement pour être davantage à la portée du grand public. Qu'est-ce qui distingue les puces quantiques de nos processeurs ? Un programme est traité par un ordinateur sous forme de suites de chiffres - des codes binaires composés de 0 et 1 - qui sont lues et interprétées par le processeur. Plus ce dernier est puissant, plus il traite ces calculs rapidement.

Le problème des puces actuelles vient du fait que les calculs sont effectués en série, c'est-à-dire les uns après les autres. Dans le domaine quantique, ces opérations se déroulent en parallèle, soit en même temps. Cette façon de procéder permettra d'atteindre une puissance de calcul telle, qu'un ordinateur quantique parviendrait à casser les méthodes de cryptage informatique (servant à sécuriser un fichier, par exemple) les plus performantes d'aujourd'hui en seulement quelques minutes, voire quelques secondes. Les ordinateurs actuels auraient plutôt besoin de quelques milliers d'années. L'une des premières applications grand public que nous verrons apparaître sera la traduction instantanée. Tout document écrit ou parlé sera traduit en n'importe quelle langue, en temps réel, d'une façon beaucoup plus poussée et intelligente que Google translate par exemple.

Les processeurs biologiques utilisent l'ADN, qui est composé de deux brins formant une double hélice. Pour créer des processeurs biologiques, des milliards de brins d'ADN sont introduits et déposés sur une feuille d'or. Le recours à l'ADN s'explique par sa particularité de pouvoir effectuer des centaines d'opérations en même temps. Ainsi, imaginez la puissance de milliards de brins calculant des milliers de trillions d'opérations à la seconde !

Même le plus récent supercalculateur, qui contient plus de 88 000 processeurs, passerait pour une simple calculatrice face à un seul processeur biologique. Tout comme les processeurs quantiques, cette technologie est à un stade avancé de développement. Aujourd'hui, un robot comme Asimo de Honda peut effectuer des tâches complexes, mais dans un environnement contrôlé. Il peut comprendre une phrase du type «pourrais-tu aller me chercher de l'eau ?» et s'exécutera alors en allant chercher de l'eau à un endroit prédéterminé, et la versera même dans un verre.

Mais l'apport d'un ordinateur quantique permettrait de passer un niveau supérieur, comme : «apporte-moi l'eau qui est dans le garage, je ne sais plus où je l'ai rangée, alors cherche.» Ainsi, l'intégration de puces quantiques et à ADN, agissant de façon complémentaire dans un robot, nous mènera directement aux fantasmes des auteurs de science-fiction : un robot capable de comprendre réellement tout ce qu'on lui dit, et qui n'obéirait pas seulement à des ordres préprogrammés.

Canoe

^ Haut
Matière
Matière et Energie
Première image de l'ombre d'un atome
Jeudi, 26/07/2012 - 15:31

Combien d'atomes faut-il pour bloquer suffisamment la lumière au point de voir apparaître une « ombre » ? Un seul suffit.

L'imagerie par absorption permet, entre autres, de mesurer la densité des gaz, avec des applications en astrophysique ou dans l’étude des condensats de Bose-Einstein. Les propriétés du milieu sont déduites de l'analyse de la lumière absorbée pendant la traversée. Mais combien d’atomes au minimum sont nécessaires pour utiliser cette technique ? Une équipe de physiciens australiens de l’Université Griffith, dirigée par David Kielpinski, a montré qu’un seul atome suffit.

L’imagerie par absorption repose sur un principe simple : l’objet d’étude est placé entre une source de lumière et un capteur. Celui-ci enregistre l’ensemble des photons qui ne sont pas absorbés et diffusés par l’objet. Le paramètre clé est le contraste entre le point le plus sombre de l’image et le plus brillant. Si le nombre d’atomes de l'objet est faible, peu de photons sont absorbés, et le contraste est faible. Ceci est d’autant plus important que la probabilité d’absorption d’un photon par un atome est en général très faible. Un grand nombre d’atomes permet de compenser cette contrainte : un objet dense donne un bon contraste.

De nombreuses équipes ont étudié les limites de cette technique avec un nombre réduit d'atomes, voire un seul. En 1987, David Wineland, de l’Institut américain des normes et de la technologie (NIST) à Boulder, réalise la première mesure par absorption d’un ion unique. En 2008, une équipe du Centre pour les techniques quantiques de Singapour atteint un contraste de l’ordre de 20 pour cent. Dans les deux cas, l’ion ou l’atome étaient éclairés par un laser, et une photodiode mesurait la quantité de lumière totale en présence ou en l'absence de la particule.

D. Kielpinski et son équipe ont modifié le dispositif de ces expériences précédentes pour produire une véritable image, ce que ne permettait pas la photodiode. Ils ont placé un ion d’ytterbium dans un « piège de Paul », formé par un champ électrique quadripolaire à haute fréquence. Un refroidissement par laser permet d’abaisser la température du système à quelques millikelvins et ainsi de limiter les mouvements de l’ion. La source lumineuse, focalisée en une tache de 4,8 micromètres de diamètre, a été choisie avec une longueur d’onde de 369,5 nanomètres, fréquence absorbée par l’ytterbium 174. Une variation infime de la longueur d’onde rend l’ion transparent à la lumière. Après le passage de l’ion, la lumière est focalisée par une lentille de Fresnel sur un capteur CCD refroidi à -40 °C. En fonction de l’intensité lumineuse, le temps d’exposition est compris entre 0,05 et 1 seconde.

Chaque pixel du capteur CCD agit comme une petite photodiode et l'ensemble permet de créer une image, « l’ombre de l’ion ». Il s'agit d'une tache centrale entourée de cercles engendrés par la diffraction, que l’on peut assimiler à l’ombre de l’atome. Le contraste est de l’ordre de trois pour cent. La taille de la tache et la valeur du contraste sont en parfait accord avec un modèle dit semi-classique de la diffusion de la lumière par un atome isolé.

Cette bonne compréhension du phénomène permet d’envisager d’utiliser ce dispositif pour de l’imagerie en rayons X ou ultraviolets dans des conditions optimales. Dans le cadre de l’étude de protéines par exemple, les photons de haute énergie peuvent endommager la structure de la molécule. Le dispositif de l’équipe de D. Kielpinski permettrait de réduire la quantité de lumière au minimum pour avoir le meilleur contraste possible tout en limitant les dégâts occasionnés sur la protéine.

 Pour La Science

Des vitres vont pouvoir produire du courant
Jeudi, 26/07/2012 - 15:23

De nouvelles cellules photovoltaïques efficaces et faciles à fabriquer promettent de produire l’électricité solaire autrement.

Sous la houlette du professeur Yang Yang, des chercheurs de l’UCLA (University of California Los Angeles, Etats-Unis), annoncent la mise au point de cellules photovoltaïques transparentes. Les résultats de leurs travaux sont publiés par la revue à comité de lecture « ACS Nano ».

Délaissant le silicium au profit de polymères conducteurs, ces cellules photovoltaïques présentent de nombreuses caractéristiques séduisantes. Légères souples et transparentes, elles pourraient prendre place sur les vitres ou les façades des bâtiments voire se coller directement sur un produit électronique portable pour en assurer la charge. Offrant une transparence de 66 %, ces cellules exploitent le rayonnement infra-rouge pour produire du courant avec une efficacité de 4 %.

D’après les concepteurs, il ne faut pas négliger la facilité à produire en nombre et donc à coût réduit de telles cellules. En effet, le polymère s’avère économique par rapport à la filière silicium et la mise en œuvre d'une électrode transparente composée de nanoparticules d’argent et dioxyde de titane fait appel à des procédés de déposition maîtrisés.

Industrie & Technologies

Le Japon s'essaye au stockage de l'électricité solaire
Jeudi, 26/07/2012 - 15:16

Le conglomérat japonais, Sumitomo Electric Industries a annoncé récemment avoir terminé la réalisation d'un système de génération et de stockage d'électricité (1 MW) sur les lieux de Yokohama Works, situés à 30 km au sud de Tokyo, au Japon. Le système qui est entré en fonctionnement comprend un accumulateur 'redox-flow' et des unités photovoltaïques à concentration (CPV), les plus puissantes du Japon. Pour la mise au point de ce système, la société a coopéré avec Nissin Electric, Sumitomo Densetsu et Meidensha Corporation dans leurs domaines techniques respectifs.

La mise sur le marché d'une énergie renouvelable intermittente, telle que le solaire ou l'éolien, nécessite l'utilisation d'accumulateur et le type 'redox-flow' aiderait à stabiliser l'offre d'électricité, contribuant ainsi à diminuer les coupures de courant sur l'archipel. Le système se compose de 28 unités CPV, (puissance totale : 200 kW) et d'un accumulateur redox-flow (capacité : 1 MW x 5 heures), qui fonctionnent respectivement comme sources d'énergie renouvelable et installation de stockage de l'électricité produite par les unités CPV.

L'accumulateur redox-flow est une batterie de stockage qui se compose d'un compartiment cellule de charge / décharge et d'un réservoir rempli d'électrolyte d'ions de métal. Il se charge / décharge grâce à la réaction d'oxydoréduction du vanadium et d'autres ions. L'accumulateur posséderait une grande longévité, les électrodes et l'électrolyte n'étant pas sujets à détérioration même après des opérations répétées de charge / décharge. Par ailleurs, son entretien serait aussi facilité car l'accumulateur utiliserait le même électrolyte dans la cathode que dans l'anode. Il offrirait également une plus grande sécurité car il ne nécessiterait aucune substance combustible et fonctionnerait à des températures ambiantes. Selon ses concepteurs, cet accumulateur conviendrait à des opérations de charge / décharge irrégulières en raison de ses capacités de surveillance et de contrôle précis. Ces caractéristiques feraient donc de cet accumulateur redox-flow une batterie de stockage optimale pour l'utilisation efficace d'énergie renouvelable et du surplus d'électricité produit.

L'Unité photovoltaïque à concentration (CPV) est un système photovoltaïque qui convertit les rayons solaires concentrés par une lentille en électricité à l'aide de petites cellules photovoltaïques. Grâce à ces dernières qui sont fabriquées à partir d'un matériau composite semi-conducteur spécial, un panneau CPV possède une efficacité de génération d'électricité deux fois supérieure à celle d'un panneau solaire au silicium actuellement sur le marché. Les panneaux concentrateurs peuvent être installés en position surélevée, permettant d'utiliser l'espace qui se trouve en dessous.

Relié aux réseaux électriques commerciaux externes, le système peut également stocker de l'électricité fournie par les entreprises productrices d'électricité durant la nuit. Ce système utilise un système de gestion de l'électricité qui surveille la quantité d'électricité générée par les unités CPV, le stockage par l'accumulateur et la consommation, et qui entrepose les données des mesures dans le serveur central.

Le système de gestion d'énergie surveille et gère l'intégralité du flux d'énergie, y compris l'électricité fournie par 28 unités CPV et les réseaux électriques commerciaux, l'accumulateur redox-flow et la consommation d'électricité d'un bureau ou d'une usine. Les données obtenues sont envoyées au serveur central de contrôle via des réseaux de communication optiques et contrôlées collectivement. La société prévoit d'utiliser ce système dans le cadre du test de démonstration du système de gestion de centrale d'énergie, dans lequel les générateurs d'électricité à moteur à gaz existants sont connectés à l'accumulateur redox-flow et aux unités CPV afin d'obtenir un équilibre optimal entre l'offre et la demande d'électricité et un contrôle de la demande en électricité au sein de la Works.

  • Les fonctionnalités et objectifs du système

- Le système devra équilibrer la consommation d'électricité (contrôle de la demande maximum de 1 MW), contribuant ainsi à atténuer la forte pénurie d'électricité au Japon.

- Le système doit permettre de délivrer une offre stable d'électricité selon les prévisions établies en associant un accumulateur 'redox-flow' à des générateurs d'électricité solaire. Cette amélioration donnera plus de valeur à la production d'électricité solaire, qui dépend de la météo, et accélèrera la mise sur le marché de cette source naturelle d'électricité.

- Le système contrôlera la quantité d'électricité déchargée de l'accumulateur selon les charges électriques de façon à stabiliser la consommation, ce qui minimisera la dépendance vis-à-vis des centrales électriques.

- Le système équilibrera les fluctuations dans la production d'énergie solaire en chargeant/déchargeant l'accumulateur, diminuant ainsi la dépendance vis-à-vis de la génération d'électricité thermique et augmentant la taille des générateurs d'électricité solaire connectés.

Par ailleurs, Sumitomo Electric envisage également de débuter le test de démonstration d'un système de gestion de centrale d'énergie, qui associe les générateurs d'électricité à moteur à gaz existants à l'accumulateur redox-flow et aux unités CPV afin de former un système de gestion optimal pouvant contrôler l'ensemble du flux d'énergie dans la Yokohama Works. La société va coopérer avec Meidensha Corporation pour la démonstration, qui constituera la première tentative dans le cadre du Projet Yokohama, ville intelligente (Yokohama Smart City Project), l'un des projets 2012 d'énergie prochaine génération et de démonstration de système social à l'initiative du Ministère de l'économie, du commerce et de l'industrie (MECI).

Sumitomo Electric prévoit de mettre ces systèmes en pratique, particulièrement pour les gros consommateurs d'électricité comme les usines et les installations commerciales, dans le but de promouvoir l'utilisation de sources d'énergie renouvelable et une consommation d'énergie plus efficace. La société, qui prévoit une commercialisation durant l'exercice 2013 continue d'œuvrer à la réduction du coût et à d'autres améliorations du système.

Enerzine

Le noyau atomique : liquide fissile ou molécule vitale ?
Jeudi, 26/07/2012 - 14:35

Le noyau atomique est généralement décrit comme une goutte de liquide quantique de l’ordre du millionième de milliardième de mètre de diamètre. Ce comportement de type liquide explique notamment la fission nucléaire, et s’applique préférentiellement aux noyaux lourds, c’est-à-dire ceux contenant beaucoup de nucléons (les neutrons et les protons). En revanche, les noyaux légers peuvent se comporter comme de minuscules « molécules » - ou agrégats - composés de neutrons et de protons à l’échelle du noyau. Cet aspect moléculaire permet de comprendre la synthèse stellaire du carbone-12 ou d’éléments plus lourds, nécessaires à l’apparition de la vie.

Jusqu’à présent, les deux visions « noyau-molécule » et « noyau-liquide » co-existaient. Aujourd’hui, une équipe de l’Institut de physique nucléaire d’Orsay (Université Paris-Sud/CNRS) et du CEA, en collaboration avec des chercheurs de l’Université de Zagreb, livre une vision unifiée de ces deux aspects. En résolvant des équations de physique quantique à l’échelle du noyau (et notamment l’équation de Schrödinger), les chercheurs ont démontré que, si un noyau léger peut présenter un comportement de type moléculaire (qui tend vers l’état cristallin), il adopte, lorsqu’il s’alourdit, un comportement de type liquide.

Pour établir cette nouvelle théorie, les physiciens se sont inspirés des étoiles à neutrons. Plus on s’enfonce à l’intérieur de ces étoiles, plus on passe d’un milieu cristallin à un milieu liquide. Grâce à cette analogie, les physiciens ont identifié un mécanisme de transition de l’état liquide vers l’état cristallin du noyau. Lorsque les interactions entre neutrons et protons ne sont pas assez fortes pour les fixer au sein du noyau, celui-ci est alors dans un état de type liquide quantique où neutrons et protons sont délocalisés. À l’inverse, dans un état cristallin, neutrons et protons seraient fixés à intervalles réguliers dans le noyau. La molécule nucléaire est interprétée comme un état intermédiaire entre le liquide quantique et le cristal. À long terme, il s’agit de comprendre de manière unifiée les différents états du noyau.

CEA

Produire des LED en 3D : un défi technologique européen !
Jeudi, 26/07/2012 - 11:35

L'Institut de technologie des semiconducteurs à l'Université technique de Brunswick (Basse-Saxe) coordonne un projet de recherche européen intitulé "GECCO : développer une nouvelle génération de diodes électroluminescentes blanches". Une technique innovante de production et d'assemblage des diodes en trois dimensions devrait permettre de décupler la quantité de lumière produite par rapport aux LED planes actuellement en usage. L'équipe internationale du projet est complétée par des partenaires universitaires de Madrid, Bristol, et Lodz, ainsi que l'entreprise allemande OSRAM AG, récente filiale de Siemens spécialisée dans les technologies d'éclairage, via son centre de Munich et sa nouvelle usine de production d'OLED basée à Ratisbonne (Bavière). Le projet GECCO est financé à hauteur de 3,8 millions d'euros par la Commission européenne, la part allouée à l'Université technique de Brunswick se montant à 1,2 million d'euros.

Si, à l'heure actuelle, les LED les plus modernes fournissent une lumière à haut rendement et sont déjà appliquées dans l'industrie, notamment pour les phares automobiles, leur processus de production n'est pas encore assez rentable pour les étendre à d'autres marchés : les processus, comme l'efficacité des LED, doivent être améliorés pour pouvoir démocratiser ces solutions peu gourmandes en énergie.

En effet, les LED sont jusqu'à présent produites de manière plane sur une couche semi-conductrice, ce qui signifie que, pour augmenter le rendement, il faudrait agrandir la plaquette de production ("wafer"), ce qui constitue une approche complexe et très coûteuse. L'idée de ce projet est de concentrer des LED de manière tridimensionnelle de telle sorte que chaque LED se compose d'une sorte de "tour émettrice de lumière", à partir de laquelle toute la surface verticale serait active.

Ainsi, la fabrication d'une LED deviendrait beaucoup plus rentable et par conséquent remplacer d'anciennes ampoules électriques ou lampes halogènes par des LED (encore moins gourmandes et polluantes que les ampoules à économie d'énergie) deviendrait plus rationnel. Si on estime qu'à l'heure actuelle environ 20 % de l'énergie électrique dans le monde est utilisée seulement pour l'éclairage, cette innovation offre un fort potentiel concernant le rapport coût-efficacité de la solution technologique. En outre, l'éclairage par LED est particulièrement important pour l'avenir de la mobilité électrique, domaine dans lequel l'économie d'énergie est d'une importance capitale pour l'autonomie.

Les dimensions de ces LED en 3D se situent dans la plage micrométrique, ce qui correspond environ à un million de LED par millimètre carré. Ce processus exige une extrême précision, qui ne peut être obtenue qu'en appliquant les techniques de fabrication issues de la nanoélectronique.

Bulletins Electroniques

Des biocarburants de 3ème génération issus de la mer
Jeudi, 26/07/2012 - 11:26

La filière industrielle des algues, qui pourrait enregistrer des percées dans des secteurs allant des biocarburants à la chimie, en passant par l'agroalimentaire, est en train d'émerger dans le monde, tirée par de gros investissements aux Etats-Unis. On parle ici de micro-algues invisibles à l'oeil nu, pas des grandes algues marines. Nourries avec du dioxyde de carbone (CO2), qu'elles ont l'avantage d'assimiler, elles se reproduisent par photosynthèse grâce à la lumière. Les plus productives sont isolées en laboratoire, puis cultivées.

Elles produisent des huiles qu'on peut transformer en carburant, ainsi qu'une grande variété de molécules riches en substances biochimiques qui ont de nombreuses applications dans la production alimentaire, la cosmétique ou la pharmacie. Les Etats-Unis, qui se sont historiquement montrés très optimistes à l'égard de cette source d'énergie, sont ceux qui ont les sociétés les plus musclées financièrement.

La compagnie de biocarburants Solazyme, qui a levé 227 millions de dollars (environ 186 millions d'euros) en s'introduisant en Bourse, a annoncé à la fin juin la validation d'un projet de bioraffinerie de carburants à base d'algues dans l'Etat de l'Illinois. Sapphire Energy, qui compte Bill Gates parmi ses actionnaires, a annoncé en avril avoir atteint les 300 millions de dollars de financement pour une ferme algale au Nouveau-Mexique.

Sa compatriote Parabel (ex-PetroAlgae) vise une importante introduction en Bourse, avec un modèle allant des protéines pour l'alimentation aux biocarburants. On peut également citer Origin Oil (récolte d'algues), associée à la start-up française Ennesys et qui investit en Australie.

Selon un rapport du ministère de l'Energie américain, qui finance actuellement une trentaine de projets, les micro-algues pourraient à terme remplacer jusqu'à 17 % des importations pétrolières américaines. Des projets avancés sont également évoqués en Australie, avec par exemple la société MBD.

Côté français, outre l'importante recherche parapublique, la société de biotechnologie Fermentalg est considérée comme l'une des entreprises les plus prometteuses. Après avoir récemment bouclé un tour de table, elle a créé une coentreprise avec le géant français des huiles Sofiprotéol pour produire des Oméga 3, très en vogue.

Le Pays

Air Liquide va expérimenter la capture et la valorisation du CO2
Dimanche, 22/07/2012 - 01:00

La nouvelle n’est pas encore officielle côté Air Liquide mais les collectivités qui soutiennent ce dossier n’en font plus mystère : ce spécialiste des gaz industriels va investir 29 millions d’euros pour construire une installation de captage de gaz carbonique (CO2) d’une capacité de 100.000 tonnes l’an à Port-Jérôme. Elle prendra place d’ici 2014 à côté d’une unité d’hydrogène (H2) ouverte en 2005 pour alimenter le pétrolier ExxonMobil, installé à proximité, à raison de 50.000 m3 par heure, selon les termes d’un contrat signé pour quinze ans entre les deux partenaires. Cet hydrogène obtenu selon un procédé de réformage au gaz naturel et à la vapeur d’eau sert à faciliter la désulfuration des carburants mais sa fabrication génère du CO2 qui aujourd’hui se perd dans l’atmosphère. Grâce au projet, celui-ci sera capté, purifié, liquéfié et vendu à des industriels de la chimie, de l’agro-alimentaire ou encore du traitement de l’eau.

Ce CO2 connaîtra ainsi une seconde vie mais son bilan ne sera pas complètement neutre car une partie retournera finalement à l’atmosphère comme par exemple dans le cas des boissons gazeuses. « Aujourd’hui, on estime que 25 % seulement du CO2 utilisé dans des applications industrielles marchandes ne retourne pas à l’atmosphère« , dit un spécialiste. Ce constat est toutefois à relativiser d’une part parce que cette proportion est appelée à augmenter et d’autre part car les applications industrielles du CO2 restent insignifiantes (moins de 1 %) au regard de la production humaine totale de ce gaz à effet de serre.

La mise en oeuvre de ce projet sera une première pour Air Liquide qui testera à grande échelle à Port-Jérôme une technologie de captage cryogénique innovante qui doit être ensuite dupliquée dans ses autres installations comparables dans le monde. Elle permet en particulier de réduire de moitié les coûts de captage par rapport aux technologies actuelles. En aval de ces installations, Air liquide développera par ailleurs un parc de conditionnement d’hydrogène permettant d’alimenter les piles à combustibles de flottes captives de véhicules. « Ces piles présentent l’avantage de fournir de l’électricité et de ne rejeter que de l’eau« , souligne-t-on chez Air Liquide.

En raison de son caractère innovant, ce projet renforcera de manière significative le pôle industriel de Port-Jérôme organisé autour d’ExxonMobil. D’où le choix des collectivités publiques de l’appuyer même s’il ne générera que cinq emplois directs et 42 indirects. Selon le président de la région Haute-Normandie, Alain Le Vern (PS), il s’inscrit en effet « parfaitement » dans les objectifs de son appel à projets « Energies » lancé en 2011 et qui vise à favoriser la conversion écologique de l’économie. La Région et la Communauté de communes Caux Vallée de Seine (CVS) vont ainsi apporter, à parts égales, un total de six millions d’euros d’aides. Une moitié sera versée sous forme de subventions et l’autre de prêts à taux zéro.

Filfax

Une LEd polychrome utilisant la spintronique
Samedi, 21/07/2012 - 01:20

En s'appuyant sur le principe quantique de la spintronique, des chercheurs de l'université de l'Utah viennent de mettre au point un nouveau type de LED (Diode à Emission Lumineuse en français) plus lumineuse que les modèles actuels et capable d'émettre plusieurs couleurs différentes, contrairement aux LED traditionnelles. Pour l'instant, cette LED ne fonctionne qu'en dessous de -2 degrés Celsius mais d'ici cinq ans de travail, cette spin OLED devrait être opérationnelle à température ambiante et utilisée dans les écrans de téléviseurs et d'ordinateurs.

Pour émettre de la lumière, cette spin OLED utilise les spins des électrons (périodes de rotation des électrons sur eux mêmes). Cette spin est propre à chaque particule et détermine ses propriétés magnétiques. Concrètement, cette LED se compose d'une « spin valve » ou "soupape à spins" qui se présente comme un sandwich composé de trois couches : un polymère semi-conducteur placé entre deux électrodes soumises à un champ magnétique.

Les électrons chargés négativement sont injectés d’un côté, ceux chargés positivement partent de  l’autre côté, ce qui produit l’émission de lumière dans la couche de polymère. Celle-ci de compose de  deutérium, l'isotope de l’hydrogène, ce qui explique la luminosité nettement plus intense obtenue. Les électrodes ferromagnétiques sont faites d'un alliage cobalt-lithium pour l’une et d'un alliage strontium-oxyde de manganèse pour l’autre.

Selon son concepteur, le professeur Z. Valy Vardeny, cette technologie pourrait révolutionner le marché des LED car, contrairement aux LED actuelles, monochromes, elle permet l’émission de couleurs différentes en modulant le champ magnétique utilisé.

Brève rédigée par Mark Furness pour RTFlash

UTAH

Science

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les doigts de sel stratifient l'océan
Lundi, 23/07/2012 - 01:00

Des simulations numériques expliquent pourquoi des couches de température et salinité assez uniformes peuvent se former dans les océans.

Dans certaines régions des océans, la colonne d’eau est structurée en couches où la température et la salinité sont assez uniformes, ces grandeurs décroissant par palier d'une couche à l'autre à mesure que la profondeur augmente. L’épaisseur typique d’une couche est de 10 à 30 mètres, et la transition se fait sur un à trois mètres de profondeur. Pourquoi observe-t-on un tel profil en escalier de la température et de la salinité, ou « escalier thermohalin », au lieu d'une variation régulière ? Des simulations numériques effectuées par deux chercheurs, en Italie, confortent et précisent l’une des hypothèses émises par les océanographes, celle incriminant les « doigts de sel ».

Selon cette hypothèse, l’origine de la stratification thermohaline est à chercher dans d’étroits volumes d’eau plus chaude et plus salée que l’eau environnante et qui s’enfoncent dans cette dernière, nommés doigts de sel. Or Francesco Paparella, de l’Université du Salento à Lecce, et Jost von Hardenberg, de l’Institut des sciences atmosphériques et du climat à Turin, ont constaté dans leurs simulations que les doigts de sel se regroupent pour former de plus grandes structures convectives. Ce regroupement permettrait de brasser des volumes d’eau suffisamment importants pour que la température et la salinité deviennent homogènes au sein d’une couche, et expliquerait ainsi la stratification.

Mais qu’est-ce qu’un doigt de sel et comment se forme-t-il ? Partons d’une couche où la température et la salinité décroissant régulièrement avec la profondeur. Supposons que, par suite d’une fluctuation, un petit volume d’eau chaude et salée de la partie supérieure s’enfonce un peu vers le bas. Ce petit volume d’eau va se refroidir et acquérir la même température que son nouveau voisinage, mais, dans un premier temps, garder la même salinité : en effet, et c’est là le point important, la salinité diffuse environ 100 fois moins vite que la chaleur. Étant plus salé que son voisinage, ce volume d’eau est plus dense, donc continue à s’enfoncer. De ce fait, sa température diminue, et ainsi de suite. Et en s’enfonçant, le volume d’eau entraîne derrière lui du liquide qui subit le même sort. Globalement, il se constitue un mouvement descendant d’eau vertical : un doigt de sel. Le même phénomène se produit dans le sens inverse, avec une remontée d’eau plus froide et moins salée que l’eau environnante.

Lorsque les doigts de sel s’agrègent en structures plus grosses, le brassage des eaux est augmenté, et l’on comprend alors pourquoi la température et la salinité deviennent à peu près uniformes. En revanche, là où le gradient (taux de variation) vertical de température et de salinité est élevé, ces structures plus grosses sont ralenties et perdent de leur cohérence. En effet, les échanges avec le fluide environnant, nécessaires à la poursuite du mouvement descendant, ne se font plus assez vite. En conséquence, l’efficacité du brassage diminue là où le gradient est élevé, ce gradient tendant même à augmenter. La conjonction des deux phénomènes, le brassage par les masses de doigts de sel et la diminution de son efficacité aux endroits où le gradient de température et de salinité est élevé, serait ainsi responsable de la formation des escaliers thermohalins.

Pour La Science

Réduire les déchets ménagers grâce à l'électronique
Samedi, 21/07/2012 - 01:00

Depuis le début de l’année, un certain nombre de communes ont mis en place un système de redevance incitative : « plus on trie, moins on paye ». La démarche consiste à relever pour chaque foyer le nombre de levées de leur bac à ordures ménagères, et d’y appliquer un tarif variable. Malgré quelques réticences, cette redevance connaît un franc succès.

La loi Grenelle II prévoit la mise en place d’une tarification incitative à partir de 2015 sur les déchets ménagers. Encouragé par l’Ademe (Agence De l’Environnement et de la Maîtrise de l’Energie), le principe est de faire économiser de l’argent à ceux qui trient le plus, avec pour objectif de réduire la quantité de déchets ménagers résiduels (qui ne se recyclent pas) de 7 % au niveau national, et de favoriser le tri. Résultat : la quantité de déchets non recyclés a fortement diminué dans ces communes qui ont décidé d’anticiper l’obligation.

Le Smirtom du Saint-Amandois (Syndicat Mixte Intercommunal de Ramassage et de Traitement des Ordures Ménagères du Cher) a mis en place le système en 2009, pour un lancement dès 2010, afin de tester le potentiel de cette redevance, et le pari est réussi ! Le dépôt d’ordures ménagères résiduelles des 59000 habitants est passé de 245 kg/habitant/an en 2009 à 145 kg/habitant/an en 2010.

Chaque foyer s’est vu remettre un nouveau bac à ordures ménagères disposant d’une puce électronique, ce qui permet de comptabiliser le nombre de levées. Ainsi, le ramassage des ordures est facturé en partie en fonction du nombre d’enlèvements des déchets par les camion-bennes. Pour les conteneurs des points d’apports volontaires, ceux-ci s’ouvriront à l’aide d’une clé électronique.

Un des inconvénients : la nouvelle collecte des déchets se fait « porte à porte ». Cela revient donc plus cher, mais ce système est rapidement amorti par les économies faites sur les prestations de service. Comme le souligne Jean-Baptiste Merchier, directeur de la Smirtom, moins de camions sont nécessaires, et les déchets sont valorisés à plus grande échelle.

Les effets positifs se font rapidement ressentir. Au-delà de la réduction drastique des déchets ménagers résiduels, les usagers trient et compostent plus. « Tout a mécaniquement diminué : le poids des ordures, le tonnage enfoui, le nombre de bennes nécessaires au ramassage » peut-on lire sur la page Internet du Grenelle de l’Environnement.

Mis à part les réticences au lancement de la redevance, accompagnées de quelques dépôts sauvages, la démarche a finalement bien été acceptée. Grâce à ce système « un couple avec un enfant qui opte pour un nombre minimum de levées de son bac peut économiser 45 euros par an ». Par ailleurs, il y a une réelle « prise de conscience collective » de l’importance du tri pour la sauvegarde de notre environnement.

Le département du Cher n’est pas le seul à avoir intégré une démarche de tarification incitative. En Bretagne, la commune de Questembert a également mis en place depuis le début de l’année un système de facturation au nombre de levées. Le journal Le Télégramme rapporte que la quantité de déchets a été réduite de 38 %. Le Pays de Fouesnant, très en pointe sur les questions liées à la protection de l’environnement, a également mis en place un tel système dans le Finistère. Preuve du succès du système : de nombreuses autres régions ont opté pour la démarche.

Sequovia

Mieux prendre en compte l’écologie dans les problématiques de recherche agronomiques : lancement de l’Université virtuelle d’agroécologie
Vendredi, 20/07/2012 - 05:30

Les nécessaires évolutions des agricultures pour s’adapter aux changements globaux et pour répondre au défi de la sécurité alimentaire mondiale impliquent des changements dans la manière de pratiquer la recherche agronomique, avec notamment le rapprochement entre agronomie et écologie. Ainsi, l’agroécologie est mise en avant dans les orientations de l’Inra et du Cirad et dans les enseignements des écoles supérieures d’agronomie, et ce terme et les différentes notions qu’il recouvre suscitent grand intérêt auprès des politiques, agriculteurs et scientifiques, aux plans national et international. Pour répondre au besoin de compétences engendré par l’essor de cette discipline émergente, Agreenium et l’Université de Lorraine s’associent pour monter une université virtuelle d’agroécologie.

L’Université virtuelle d’agroécologie (UVAE) s’adresse à l’ensemble des personnels des organismes de recherche et d’enseignement supérieur agrononomiques, avec une priorité donnée aux scientifiques (y compris doctorants et post-doctorants). Elle apparaît comme un complément intéressant aux outils existants pour atteindre plus rapidement, de manière plus homogène et plus souple à la fois, des objectifs de formation au rapprochement de l’écologie et de l’agronomie. En effet, la formation des scientifiques est pour l’instant principalement assurée par de l’autoformation (articles, congrès, séminaires) et des écoles-chercheurs, mais ces moyens présentent certaines limites d’ordre pédagogique et logistique. Les éléments de formation ne sont pas toujours remis dans un cadre général et ne sont pas construits selon une progression pédagogique ; les écoles-chercheurs comportent un nombre de places limité et intègrent peu le personnel technique.

L’UVAE œuvrera à la valorisation, la production et la diffusion de ressources pédagogiques numériques pour l’ensemble de la communauté scientifique nationale et internationale. Les ressources seront structurées en modules regroupés selon trois types : appropriation de concepts, méthodes et théories ; acquisition de connaissances ; et ingénierie agroécologique. Initiée par Guy Richard, chef du département Environnement et Agronomie de l’Inra, l’université virtuelle d’agroécologie s’appuie sur un conseil scientifique et pédagogique réunissant les représentants de l’ensemble des établissements partenaires et animé par Thierry Doré (AgroParisTech) et Sylvain Plantureux (Université de Lorraine).

Le premier module en production concerne les principes et concepts de l'agroécologie. Il est porté par Thierry Doré d'AgroParisTech. L’objectif est d’appréhender la diversité de significations du terme agroécologie, son origine et les différents points  de vue s’y rapportant. Si les significations peuvent diverger (discipline, pratique agricole, mouvement social…), l’agroécologie est toujours une manière d’interroger les rapports entre science, agriculture, politique et environnement.

L’Université virtuelle d’agroécologie est un projet Agreenium auquel est associée l'Université de Lorraine. Le premier module bénéficie d'un financement de la fondation « Université virtuelle environnement et développement durable » (UVED).

INRA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Tuberculose et VIH : de nouvelles combinaisons de médicaments compatibles et universelles
Jeudi, 26/07/2012 - 15:02

Les résultats d’essai clinique de phase II publiés dans l’édition du 23 juillet du Lancet montrent qu’une nouvelle combinaison de médicaments contre la tuberculose (TB) pourrait, en 2 semaines seulement, venir à bout de 99 % des souches bactériennes et pourrait ainsi être bien plus efficace que les traitements existants. Ces données, présentées à à la Conférence internationale sur le sida 2012, ajoutent à un nombre croissant de preuves que de nouveaux schémas thérapeutiques pourraient réduire considérablement le fardeau de la TB, également première cause de décès des personnes atteintes du sida.

Les conclusions de cette recherche soutenue par l'Alliance contre la tuberculose (TB Alliance) soulèvent l'espoir d'un traitement révolutionnaire dans le contexte d’une épidémie croissante et de l’émergence de formes résistantes de la tuberculose qui, dans certains cas, sont pratiquement incurables. Ces résultats attestent aussi des progrès accomplis dans la poursuite d'un traitement antirétroviral TB-compatible, ce qui est essentiel pour traiter les millions de personnes atteintes d’une co-infection TB-VIH. Très souvent, les traitements contre la TB et le VIH ne peuvent pas être administrés simultanément en raison des interactions médicamenteuses et des effets secondaires.

TB et VIH : La tuberculose est l’une des plus anciennes maladies infectieuses au monde, elle a même été identifiée sur des vestiges de momies égyptiennes. Lorsque le VIH / SIDA a explosé dans les années 80, notamment en Afrique sub-saharienne, l’épidémie a entraîné un pic historique dans le nombre de décès par TB. On estime que chaque année, 1,4 million de personnes meurent de la TB, et qu’environ 9 millions de personnes développent la maladie. Une personne sur 3 « sur terre », soit près de 2,5 milliards de personnes « hébergent » une forme latente de tuberculose.

Cet essai clinique a testé la combinaison d’un candidat-médicament entièrement nouveau, un nouveau médicament candidat anti-TB mais déjà approuvé pour d'autres maladies infectieuses avec un médicament contre la tuberculose existant. Les résultats suggèrent que cette nouvelle combinaison pourrait traiter à la fois les formes de TB sensibles et résistantes en seulement quatre mois. Actuellement, les personnes atteintes de tuberculose multi-résistante (MDR-TB) ont besoin de 18 à 24 mois de traitement. Une tuberculose « ordinaire » nécessite également 6 mois de prise quotidienne de médicaments.

L'étude NC-001 a testé, avec succès, sur 2 sites en Afrique du Sud et sur une durée de 2 semaines, une nouvelle combinaison thérapeutique appelée PaMZ, composée du candidat-médicament « PA-824 », de la moxifloxacine, un antibiotique non encore approuvé pour une utilisation dans le traitement antituberculeux de première ligne et de la pyrazinamide, un médicament antituberculeux existant.

Un second essai, NC-002 a testé la combinaison PaMZ plus de deux mois chez les patients et l’étude recrute toujours des patients pour être élargie à 8 sites en Afrique du Sud, en Tanzanie et au Brésil.

Un véritable élan vers de nouveaux traitements qui sauveront des millions de vies : « Ces résultats confirment l’espoir lié à ces nouveaux schémas thérapeutiques antituberculeux plus courts, plus simples, plus sûrs, et, par rapport aux traitements anti- MDR-TB, beaucoup moins chers», conclut le Docteur Mel Spigelman, président de TB Alliance. « Le prochain essai pour faire avancer encore ce schéma thérapeutique est déjà en cours.

Le principe de la combinaison a été adopté dans l’objectif d’un traitement plus rapide et plus facile pour les patients, mais aussi de l'arrêt de la propagation des résistances et de la réduction des coûts de traitement. Ce schéma prometteur élimine l'utilisation de produits injectables et permettrait de réduire le coût de la TB-MR de 90 %. Le traitement de la tuberculose sensible et résistante avec le même schéma peut simplifier le traitement de la TB dans le monde entier, conclut le Docteur Andreas Diacon, auteur principal de l'étude du Lancet.

Santé Log

Le sel, responsable d'un cancer de l'estomac sur 7 !
Jeudi, 26/07/2012 - 14:50

Les Français consomment trop de sel au quotidien : d’après une enquête réalisée en 2010, les apports moyens en sel ont été évalués à 8,4 g par jour, plus élevés chez les hommes (9,2 g/j) que chez les femmes (7,6 g/j). On sait pourtant que la surconsommation de sel présente un risque pour la santé, induisant un risque cardiovasculaire potentiellement fatal et ce, dès l'adolescence. En France, les recommandations officielles estiment à 6 g/jour la quantité de sel à ne pas dépasser pour éviter les risques cardiovasculaires.

Mais d’après le WCRF, réduire ses apports en sel serait également bénéfique pour réduire les risques de cancer de l’estomac, 4ème cancer le plus commun au monde. Et ce, même si l’infection par la bactérie Helicobacter pylori représente le facteur de risque majeur pour le développement de ce cancer. En 2008, 1 million de cas ont été enregistrés dans le monde et ce chiffre devrait atteindre 1,7 million d’ici 2030. En 2008, 4335 cas (Globocan 2008) ont été enregistrés en France.

Pour réduire le risque, le WCRF recommande donc fortement de limiter ses apports quotidiens en sel à 5 g. Mais près de 75 % du sel consommé provient directement des aliments et un quart est ajouté par le consommateur pendant la cuisson ou pendant le repas. Les groupes d'aliments qui contribuent le plus à l'apport en sel dans l'alimentation sont le pain et les biscottes (24,1 %), la charcuterie (12,5 %) et les fromages (8,1 %).

Réduire la part d’aliments tout-préparés suffit à simplement réduire ses apports quotidiens. Par ailleurs, les pouvoirs publics, tant en France qu’ailleurs, enjoignent les industriels à diminuer les quantités de sel utilisées. Si certains groupes ont pris ces recommandations au sérieux, d’autres peinent à faire des efforts en ce sens.

Doctissimo

Cancer du pancréas : une avancée en matière de recherche fondamentale
Jeudi, 26/07/2012 - 14:42

Le cancer du pancréas ou adénocarcinome pancréatique est un des cancers les plus virulents et les plus mortels. Il touche particulièrement les hommes avec une incidence proportionnelle à l’âge. Diagnostiqué tardivement, il est très difficile à soigner. En effet, ce type de tumeur présente le plus faible taux de survie de tous les cancers, avec une espérance de vie à cinq ans, de 3 à 4 %. D’après les dernières données fournies par l’Institut national de la santé et de la recherche médicale, en 2010, 10 140 nouveaux cas de cancer du pancréas ont été recensés sur le territoire français et autant de patients ont succombé de ses suites.

Afin de mieux comprendre le mécanisme impliqué dans le développement de ce cancer, Juan Iovanna et ses collègues du CRCM ont examiné la structure des cellules cancéreuses de 36 patients atteints d'un cancer du pancréas. Ils ont ainsi découvert que certaines cellules de carcinomes pancréatiques avaient la propriété très particulière de se "manger" entre elles. D’après leurs travaux, c’est une protéine spécifique qui activerait ce processus.

Si, d’un côté, ce phénomène permet de nourrir les cellules cancéreuses qui ont besoin d’énergie pour alimenter leur virulence, de l’autre, il permet de réduire les risques de prolifération des tumeurs. Ainsi, ce processus d’un nouveau genre (ingestion et élimination des cellules cancéreuses) aurait la capacité d’inhiber la formation de métastases. Cette découverte est particulièrement importante car, lorsque le cancer du pancréas est opérable, c’est-à-dire dans 15 à 20 % des cas, le principal risque pour les patients est de voir apparaître des métastases quelques mois après l’intervention, réduisant l'espérance de vie à une période de 15 à 18 mois.

La mise en évidence de ce « cannibalisme cellulaire » devrait ouvrir la voie à de nouvelles pistes de recherche afin de limiter les risques de propagation de la tumeur, notamment en utilisant à bon escient la protéine impliquée...

Information Hospitalière

Sclérose en plaques : la preuve par le sodium
Jeudi, 26/07/2012 - 14:26

Des chercheurs français du Centre de résonance magnétique biologique et médicale (CRMBM, CNRS/Aix Marseille Université/Assistance Publique-Hôpitaux de Marseille) ont mis en évidence, en collaboration avec le CHU de La Timone à Marseille, le CEMEREM et une équipe allemande (Mannheim), une accumulation anormale de sodium dans le cerveau de patients atteints de sclérose en plaques pouvant refléter la dégénérescence des cellules nerveuses. Cette étude a été réalisée in vivo grâce à une méthode originale d'imagerie par résonance magnétique (IRM) permettant de cartographier la distribution en sodium dans le cerveau humain. Elle a été publiée en ligne le 18 juillet 2012 dans le journal Radiology.

« Un défi majeur dans la sclérose en plaques est d'obtenir des marqueurs pronostiques de la progression de la maladie », souligne Patrick Cozzone, professeur de biophysique à la Faculté de Médecine de Marseille (Aix Marseille Université), et directeur émérite du Centre de résonance magnétique biologique et médicale (CRMBM, CNRS/AMU/AP-HM). « Nous avons collaboré pendant deux ans avec des chimistes, des physiciens et des cliniciens pour développer des techniques d'IRM du sodium (23Na) et pouvoir les appliquer à l'exploration de patients atteints de SEP », a déclaré l'auteur principal Wafaa Zaaraoui, chargée de recherche au CNRS. Cette technique d'imagerie permet aujourd'hui d'accéder aux concentrations cérébrales de sodium, un agent majeur du fonctionnement cellulaire. Le sodium joue en effet un rôle primordial dans les processus de dégénérescence de l'axone, qui constitue la fibre nerveuse du neurone. D'où l'idée pour les scientifiques de s'intéresser à cet atome.

L'équipe de Jean-Philippe Ranjeva, professeur de neurosciences au CRMBM, en collaboration avec les équipes du professeur Lothar Schad, physicien à Mannheim (Heidelberg University, Allemagne) et du professeur Jean Pelletier, neurologue (APHM, CHU Timone, Marseille), a réalisé des explorations par IRM du sodium pour étudier la forme la plus commune de sclérose en plaques (poussée-rémission) dans laquelle des déficits cliniques clairement définis sont suivis par des périodes de récupération. Ce travail a été effectué sur un imageur équipant le CEMEREM (CNRS/AMU/AP-HM, CHU Timone, Marseille).

Chez les patients atteint d'une SEP à un stade précoce, l'IRM du sodium a révélé des concentrations anormalement élevées de sodium dans quelques régions cérébrales spécifiques, comprenant le tronc cérébral, le cervelet et le pôle temporal. Chez les patients à un stade plus avancé, l'accumulation anormalement élevée de sodium était présente de manière diffuse sur l'ensemble du cerveau, y compris dans les régions cérébrales non démyélinisées. « Les concentrations de sodium dans la substance grise des zones fonctionnelles motrices sont ainsi corrélées à l'ampleur de l'invalidité du patient », souligne Wafaa Zaaraoui.

« L'IRM du sodium nous ouvre une voie pour mieux comprendre l'évolution de la maladie et détecter l'apparition de l'atteinte neuro-axonale responsable du handicap chez les patients. Des études à plus large échelle nous permettront de confirmer que ce paramètre est un biomarqueur non invasif de la dégénérescence des neurones. Il pourrait alors être utilisé dans l'évaluation de nouvelles thérapeutiques pour traiter la sclérose en plaques », conclut Jean-Philippe Ranjeva.

CNRS

Une grenade moléculaire à l’assaut des cancers
Jeudi, 26/07/2012 - 14:18

Conçue à partir de Thapsia garganica, la G202 est un poison activé en présence d’un antigène des cellules cancéreuses. Une grenade antitumorale dégoupillée par le cancer lui-même. Les bonnes vieilles recettes sont souvent les meilleures. C’est ce qu’ont dû se dire les biologistes de l’université américaine Johns Hopkins en utilisant contre les tumeurs un poison, connu depuis l’Antiquité, produit par une plante méditerranéenne : Thapsia garganica. La molécule létale est aussi bien connue de nos jours : il s’agit de la thapsigargine, qui inhibe les pompes calciques membranaires.

Les chercheurs américains ont ainsi créé une prodrogue, version chimiquement modifiée de la thapsigargine, afin qu’elle circule dans le sang et les tissus sains sans provoquer de dommages. Mais, à l’approche d’une tumeur, métastase ou cellule cancéreuse unique, leur médicament se comporte comme une grenade et libère son poison. « C’est très excitant, le cancer active sa propre exécution », s’enthousiasme John Isaac, professeur d’oncologie et l’un des auteurs de l’article paru dans Science Translational Medecine. En effet, la thapsigargine modifiée (appelée G202) n’est sous forme active qu’en présence de la carboxypeptidase, antigène membranaire spécifique de la prostate exprimé par les cellules cancéreuses. Cet article relate que cette protéine spécifique a été identifiée dans 66 % des cancers gastriques, 85 % des carcinomes colorectaux, et 100 % des cancers de la vessie. Suite à l’hydrolyse par la carboxypeptidase, la G202 est convertie sous une forme active qui inhibe la pompe calcium-ATPase du réticulum sarcoplasmique/endoplasmique (SERCA), protéine indispensable à la survie cellulaire. La G202 induit ainsi la mort de la cellule cancéreuse.

Selon les auteurs de l’article, le risque de développer des résistances à cette thérapie ciblée est faible compte tenu de l’importance en terme de survie de la pompe SERCA. Dans cette étude, la G202 a permis de faire régresser 8 tumeurs sur 9 chez la souris après 3 jours de traitement quand, sur la même période, le docetaxel n’en réduisait qu’1 sur 9.

Biofutur

Détruire les cellules cancéreuses avec des peptides fabriqués sur mesure
Jeudi, 26/07/2012 - 12:19

Les scientifiques du Aichi Cancer Center et de l'Université des Ryukyus située à Okinawa ont récemment mis au point un peptide absorbé exclusivement par les cellules cancéreuses. Cette technologie de Drug Delivery System limitant sensiblement les effets secondaires pourrait bientôt être employée dans le cadre de thérapies anti-cancer.

Les peptides sont des condensats plus ou moins longs d'acides aminés unis par des liaisons peptidiques entre les groupements carboxyle et amine. L'utilisation de ces composés a déjà été envisagée dans le cadre de traitements anti-cancer mais leur manque de spécificité vis-à-vis des cellules malades entraînait de nombreux effets secondaires.

Les travaux réalisés par les chercheurs ont consisté dans un premier temps à cribler une banque peptidique irrégulière contenant plus d'un trillion de molécules, dans le but d'identifier des composants présentant des affinités d'absorption avec dix types de cellules cancéreuses différentes. L'étude des peptides sélectionnés a par la suite abouti à la création d'un composé nommé CP44. L'étude des molécules sélectionnées a permis la création d'un composé nommé CP44, peptide sans effet sur les cellules saines mais absorbé en très grandes quantités par les cellules des cancers du foie et du sang.

Après fusion du CP44 avec un composé anti-cancer empêchant la croissance des cellules, l'efficacité de cette molécule a été évaluée sur des souris souffrant de cancer du foie. Contrairement aux cellules saines qui n'ont quasiment pas absorbé ce peptide, les cellules cancéreuses l'ont assimilé massivement, entraînant une diminution de la taille des hépatocarcinomes d'environ 30 à 50 %.

D'après les spécialistes, c'est la première fois au monde qu'un tel peptide est créé. Le développement de nouveaux peptides spécifiques aux autres types de cancers est d'ores et déjà annoncé comme l'une des priorités des équipes du Aichi Cancer Center et de l'Université des Ryukyus.

Bulletins Electroniques

Vers une "chimioprévention" des crises cardiaques et des AVC ?
Jeudi, 26/07/2012 - 11:47

Selon une information de la BBC, il serait possible de prévenir efficacement de nombreuses crises cardiaques et des AVC grâce à une pilule contenant plusieurs principes actifs complémentaires. Ce médicament a été mis au point par des chercheurs de l'université de Londres et il agit sur plusieurs fronts : réduction de la tension artérielle et baisse du taux de mauvais cholestérol notamment.

Les chercheurs anglais ont en fait repris et poursuivi des travaux d'un groupe de scientifiques indiens qui avait mis au point en 2011 une polypilule qui pouvait réduire de 60 % les risques cardiovasculaires et de 50 % les accidents cérébraux. Mais cette première pilule présentait de nombreux effets secondaires indésirables. Comme le souligne Nicholas Wald, un des scientifiques qui a dirigé cette étude, "Contrairement à la polypilule indienne, la nôtre ne comprend pas d'aspirine car il peut impliquer des risques de saignement de l'estomac et des risques d'hémorragies. Notre médicament est très sûr et ne comprend que des molécules très bien connues et administrées depuis au moins 20 ans".

Des essais préliminaires montrent qu'au bout de trois mois de traitement, ce médicament entraîne une baisse de la tension artérielle de 12 % et une baisse du mauvais cholestérol de 39 %. S'appuyant sur ces résultats, les chercheurs anglais estiment que si la moitié des habitants du Royaume-Uni de plus de 50 ans prenait cette polypilule tous les jours, près de 100 000 crises cardiaques et accidents cardiovasculaires par an pourraient être évités !

La Fondation britannique pour la santé cardiaque se dit "très intéressée" par ces recherches mais demande néanmoins que des études plus approfondies soient réalisées avant d'autoriser la mise sur la marché de cette "polypilule". Elle rappelle également que rien ne pourra remplacer, en matière de prévention des risques cardo-vasculaires, l'adoption d'un mode de vie sain reposant sur trois composantes essentielles : une alimentation saine, la suppression du tabac et la pratique régulière de l'exercice physique.

Rédigé par Mark Furness pour RTFlash

BBC

Maladie d'Alzheimer : une nouvelle thérapie immunitaire encourageante
Jeudi, 26/07/2012 - 10:30

Aujourd'hui en France, 850 000 personnes souffrent de la maladie d'Alzheimer. Ce chiffre pourrait croître du fait de l'allongement de l'espérance de vie, puisque le risque augmente avec l'âge. Après 80 ans, 10 à 15 % de la population pourrait être atteinte. Face à cette situation préoccupante, l'urgence est la mise au point de traitements, la pharmacopée actuelle étant impuissante à bloquer l'évolution de la maladie.

Dernièrement, lors de la conférence de l'Association internationale contre la maladie d'Alzheimer qui s'est tenue à Vancouver, au Canada, des chercheurs ont montré, certes sur un petit nombre de cas, qu'un traitement basé sur l'immunothérapie pourrait freiner la progression de la maladie. Cette thérapeutique à base d'anticorps a en effet permis de ralentir le déclin mental des participants pendant trois ans, alors qu'une dégradation est observée en général dès six mois après la déclaration de la maladie. Il faut rester prudent : l'efficacité ne peut être évaluée qu'à long terme, s'agissant d'une affection d'évolution relativement lente et sur un large groupe de patients.

C'est à New York que l'équipe du Docteur Norman Relkin du Weill Cornell Medical College a mené cette étude auprès de 16 malades. Onze d'entre eux ont reçu toutes les deux à quatre semaines (selon leur poids) des perfusions de Gammagard, un médicament à base d'immunoglobulines déjà utilisé pour combler des déficits immunitaires. Cinq autres patients constituaient le groupe placebo. Ces anticorps auraient un effet anti-inflammatoire et stimulant sur l'immunité. Au bout de trente-six mois, la mémoire, les capacités cognitives et l'humeur de onze patients traités ne s'étaient dégradées que légèrement. Les quatre patients ayant reçu la plus forte dose du traitement ont même vu leur état complètement inchangé. Ces résultats étaient si positifs que le groupe placebo a lui aussi débuté le traitement six mois après le début de l'essai, les scientifiques ont alors constaté que leur mémoire déclinait moins vite.

Les chercheurs suggèrent que les anticorps du Gammagard ont contrarié la progression naturelle de la maladie en neutralisant les protéines béta-amyloïdes caractéristiques de la maladie d'Alzheimer, qui s'agrègent en plaques toxiques pour les neurones et entraînent la perte de facultés intellectuelles. Le traitement, fort coûteux, diminuerait aussi l'inflammation provoquée par ces mêmes protéines. L'essai se poursuit auprès de 390 patients pour confirmer ou non ces résultats, avec des conclusions attendues au premier semestre 2013. Pour le Professeur Françoise Forette, présidente de la Fondation nationale de gérontologie, les attentes vis-à-vis de l'immunothérapie sont à tempérer. Non seulement le nombre de patients était faible dans cet essai «mais il faudrait aussi attendre au moins quatre ou cinq ans avant de constater un effet éclatant», alerte-t-elle.

Même dans ce cas, aucune amélioration des fonctions cognitives n'est attendue dans ces essais : il s'agit avant tout d'empêcher la maladie de progresser. En effet, les patients en sont à un stade où beaucoup de neurones ont déjà disparu, qui ne peuvent être régénérés par les anticorps, explique la gériatre.

Si leur efficacité pour bloquer la progression de la maladie est prouvée, les thérapies immunitaires devraient être réservées aux patients en étant aux stades précoces, quand les premiers signes ne sont pas encore apparents. Mais avant même de déterminer leur efficacité, c'est la sécurité de ces traitements qui doit être vérifiée, met en garde le Professeur Forette. De précédents essais avec d'autres thérapies immunologiques ont été décevants en raison d'effets secondaires sérieux, notamment des œdèmes du cerveau, confirme le Docteur Sylvie Pariel, gériatre à l'Hôpital Charles-Foix. Un premier test de vaccin avait également été interrompu en raison d'une mauvaise tolérance.

Le Figaro

Cancer : l'exercice physique intense peut diminuer de manière significative les risques de récidive !
Jeudi, 26/07/2012 - 10:17

Des activités physiques adaptées permettent de diminuer de 50 % le risque de rechute chez des patients atteints de cancer du sein, du côlon ou de la prostate, selon le cancérologue Thierry Bouillet. Co-fondateur de la CAMI (cancer, arts martiaux et informations), le seul réseau national sport et cancer qui propose aujourd'hui des séances de karaté, yoga, gymnastique... à quelque 3.000 patients dans plus d'une vingtaine de centres en France, le Docteur Bouillet n'a de cesse de relayer le message.

"Les études montrent qu'il y a un bénéfice quel que soit le facteur pronostic", précise-t-il dans un entretien à l'AFP, en citant les trois cancers les plus réceptifs à l'activité physique, celui du sein (comme l'attestent 8 études), du côlon (3 études) et de la prostate (2 études). Mais les données scientifiques montrent également que la pratique d'une activité physique ne sert à rien si elle n'est pas assez intense.

"L'insuline, les oestrogènes et la leptine, qui sont des facteurs de croissance des cancers, ne baissent qu'à partir d'un certain niveau d'intensité" qui n'est pas le même pour les trois cancers, précise le Docteur Bouillet. Pour le cancer du sein, le seuil a été fixé à l'équivalent d'environ trois heures de marche rapide par semaine, mais pour les deux autres cancers, c'est le double.

Difficulté supplémentaire, l'effort doit être pratiqué sur une période de 6 à 12 mois avant d'obtenir un effet quelconque. Proposer un tel programme à des malades épuisés par leur cancer n'a bien entendu pas été une chose facile. "Il a fallu trouver des motivations, des structures pour donner aux patients l'envie de pratiquer une activité sportive", relève le cancérologue, auteur de "Sport et cancer".

Il a lancé la CAMI en 2000 avec Jean-Marc Descotes, un ancien sportif de haut niveau, pour tenter avant tout de traiter la fatigue des malades.

"L'activité physique est la seule chose qui corrige la fatigue", relève le cancérologue qui souligne également l'aspect plaisir du sport, car "si les gens s'embêtent, ils abandonnent". En préconisant des activités de plus en plus variées (danse, patinage artistique, école de cirque) encadrées par des animateurs spécialement formés, la CAMI a dépassé toutes ses espérances. "On demande aux patients de rester un an, mais la plupart restent au-delà", reconnaît le médecin. Ils paient entre 20 et 120 euros pour l'année, le reste du financement étant assuré par des dons ou des subventions (certaines caisses de sécurité sociale, Ligue contre le cancer, mutuelles, fondations d'entreprises...).

La CAMI a milité pour la création du premier diplôme Universitaire "Sport et cancer" au sein de l'Université Paris 13, mais il faut également sensibiliser les médecins, encore très réticents à prescrire du sport, selon Thierry Bouillet, en l'absence de structures clairement identifiées. "Si 30 % des cancéreux faisaient du sport, la sécurité sociale pourrait économiser 600 millions d'euros, sur les médicaments uniquement, sans compter les arrêts de travail", estime-t-il.

France 24

Sclérose en plaques : une accumulation anormale de sodium dans le cerveau mesurée par IRM du sodium témoigne de l'évolution de la maladie
Mardi, 24/07/2012 - 01:20

Des chercheurs français du Centre de résonance magnétique biologique et médicale (CRMBM, CNRS/Aix Marseille Université/Assistance Publique-Hôpitaux de Marseille) ont mis en évidence, en collaboration avec le CHU de La Timone à Marseille, le CEMEREM et une équipe allemande (Mannheim), une accumulation anormale de sodium dans le cerveau de patients atteints de sclérose en plaques pouvant refléter la dégénérescence des cellules nerveuses. Cette étude a été réalisée in vivo grâce à une méthode originale d'imagerie par résonance magnétique (IRM) permettant de cartographier la distribution en sodium dans le cerveau humain. Elle a été publiée en ligne le 18 juillet 2012 dans le journal Radiology.

Chez les patients atteints de sclérose en plaques (SEP), le système immunitaire du corps s'attaque à la gaine protectrice (appelée myéline) qui entoure les axones des neurones dans le cerveau et la moelle épinière. L'atteinte de l'intégrité de cette gaine affecte la capacité de ces neurones à transmettre l'information nerveuse, ce qui provoque des troubles neurologiques et physiques pouvant être réversibles en fonction de la réparation partielle ou totale survenant après la période d'inflammation. Cependant l'atteinte neuro-axonale est difficile à évaluer alors même qu'elle est associée au déficit clinique irréversible observé lors des stades plus avancés de la maladie. Le type et la gravité des symptômes observés dans la SEP, ainsi que la progression de la maladie, varient également d'un patient à l'autre.

« Un défi majeur dans la sclérose en plaques est d'obtenir des marqueurs pronostiques de la progression de la maladie », souligne Patrick Cozzone, professeur de biophysique à la Faculté de Médecine de Marseille (Aix Marseille Université), et directeur émérite du Centre de résonance magnétique biologique et médicale (CRMBM, CNRS/AMU/AP-HM). « Nous avons collaboré pendant deux ans avec des chimistes, des physiciens et des cliniciens pour développer des techniques d'IRM du sodium (23Na) et pouvoir les appliquer à l'exploration de patients atteints de SEP », a déclaré l'auteur principal Wafaa Zaaraoui, chargée de recherche au CNRS. Cette technique d'imagerie permet aujourd'hui d'accéder aux concentrations cérébrales de sodium, un agent majeur du fonctionnement cellulaire.  Le sodium joue en effet un rôle primordial dans les processus de dégénérescence de l'axone, qui constitue la fibre nerveuse du neurone. D'où l'idée pour les scientifiques de s'intéresser à cet atome.

L'équipe de Jean-Philippe Ranjeva, professeur de neurosciences au CRMBM, en collaboration avec les équipes du professeur Lothar Schad, physicien à Mannheim (Heidelberg University, Allemagne) et du professeur Jean Pelletier, neurologue (APHM, CHU Timone, Marseille), a réalisé des explorations par IRM du sodium pour étudier la forme la plus commune de sclérose en plaques (poussée-rémission) dans laquelle des déficits cliniques clairement définis sont suivis par des périodes de récupération. Ce travail a été effectué sur un imageur équipant le CEMEREM (CNRS/AMU/AP-HM, CHU Timone, Marseille).

Chez les patients atteint d'une SEP à un stade précoce, l'IRM du sodium a révélé des concentrations anormalement élevées de sodium dans quelques régions cérébrales spécifiques, comprenant le tronc cérébral, le cervelet et le pôle temporal. Chez les patients à un stade plus avancé, l'accumulation anormalement élevée de sodium était présente de manière diffuse sur l'ensemble du cerveau, y compris dans les régions cérébrales non démyélinisées. « Les concentrations de sodium dans la substance grise des zones fonctionnelles motrices sont ainsi corrélées à l'ampleur de l'invalidité du patient », souligne Wafaa Zaaraoui.

CNRS

Stopper la transmission du paludisme grâce à une bactérie !
Lundi, 23/07/2012 - 17:44

Le paludisme reste un fléau à l'échelle mondiale avec plus de 200 millions de personnes infectées chaque année et encore plus d'un million de morts par an, en dépit des progrès réels intervenus dans la lutte (Nouveaux médicaments comme l'ASAQ) et la prévention (utilisation de moustiquaires imprégnées d'insecticides) contre cette maladie, dont 80 % d’enfants de moins de 5 ans.

Le parasite Plasmodium falciparum, responsable du paludisme, est transmis par certains moustiques du genre Anopheles. Ce parasite est à présent bien connu mais sa capacité de variabilité génétique du parasite est remarquable, ce qui lui permet malheureusement de s'adapter puis de résister aux traitements mis au point pour le détruire.

En attendant la commercialisation prochaine (d'ici 3 ans) de plusieurs vaccins (dont un vaccin français), en phase finale d'essais chez l'homme, une autre voie très intéressante est explorée : celle de la libération d’insectes rendus génétiquement stériles.

Des chercheurs de l'Ecole de santé publique Johns Hopkins Bloomberg de Baltimore (USA), dirigés par Sibao Wang, sont parvenus à empêcher le moustique d’être infecté par le parasite en utilisant une bactérie commensale trouvée dans la vacuole digestive (l’équivalent de l’estomac) du moustique.

Les chercheurs ont génétiquement modifié la bactérie Pantoea agglomerans en lui ajoutant le système de sécrétion de l’hémolysine A d’Escherichia coli afin  lui faire produire de nombreuses protéines antiplasmodiques. Ces bactéries symbiotiques ainsi modifiées ont alors détruit à 98 % le parasite P. falciparum dans l’intestin d’Anopheles gambiae et d’A. stephensi, respectivement responsables de la transmission du parasite à l’homme et aux rongeurs. Grâce à ces deux molécules,  la proportion de moustiques infectés a pour sa part diminué de 84 %. Cette remarquable avancée pourrait permettre, combinée à l'arrivée prochaine des vaccins antipaludéens, d'éradiquer ou du moins de réduire considérablement les conséquences humaines, sanitaires et économiques désastreuses du paludisme dans les pays tropicaux.

Article rédigé par Mark FURNESS pour RTFlash

PNAS

Produire du muscle à la demande !
Lundi, 23/07/2012 - 17:34

Sera-t-il bientôt possible de créer des muscles fonctionnels dans des bioréacteurs et de les réimplanter chez des sujets atteints de perte musculaire suite à une blessure ou une maladie ? Il semblerait que oui, au vu des récentes recherches menées par Benjamin Corona et ses collaborateurs du Wake Forest University Baptist Medical Center, en Caroline du Nord. Partant d’un modèle murin de perte musculaire (lésion du muscle grand dorsal ou latissimu dorsi), l’équipe a élaboré un implant compatible dans un bioréacteur avant de le greffer à l’emplacement du muscle abîmé, restaurant les fonctions de ce dernier.

Pour parvenir à un tel résultat, les biologistes ont commencé par prélever de petits échantillons murins de muscles squelettiques pour en extraire des cellules qu’ils ont multipliées en laboratoire. Une fois obtenue une densité d’un million de cellules par centimètre carré, ces cellules dérivées de muscle (CDM) ont été déposées sur une matrice biologique (vessie de cochon) décellularisée. L’ensemble a ensuite été placé dans un bioréacteur capable de reproduire les extensions et contractions cycliques du muscle et ainsi d’« éduquer » l’implant en élaboration.

L’équipe a suivi trois protocoles : dans le premier, les cellules en prolifération n’ont pas été mécaniquement préconditionnées dans un bioréacteur mais ont simplement été cultivées pour donner des myoblastes réimplantables ; dans le deuxième, les cellules ont subi une phase de prolifération et de maturation supplémentaire incluant un préconditionnement mécanique ; enfin, le troisième protocole a consisté à reproduire le deuxième tout en incluant un second dépôt de CDM dans le bioréacteur. L’équipe a ensuite greffé les différents implants ainsi élaborés dans le muscle grand dorsal lésé des rongeurs.

Les résultats, mesurés sur quatre groupes de souris (l’un non greffé, les trois autres greffés avec les implants issus des trois protocoles), sont spectaculaires et montrent clairement que le préconditionnement mécanique améliore la restauration fonctionnelle du muscle greffé. Testant la force musculaire des souris deux mois après l’implantation, l’équipe montre que les individus qui récupèrent le maximum de force sont ceux dont l’implant a été élaboré selon le troisième protocole (ajout de nouvelles CDM pendant la phase de conditionnement mécanique).

La force générée par le muscle ainsi « réparé » atteint 70 % de celle du muscle natif. Les analyses histologiques et moléculaires montrent en outre une régénération fonctionnelles des fibres musculaires dans l’implant lui-même mais aussi à l’interface de l’implant et du tissu natif. Ce qui suggère un double effet de la greffe : elle favorise la croissance du nouveau tissu musculaire implanté tout en accélérant la réparation naturelle de la lésion.

L’équipe entrevoit déjà les multiples applications possibles de ses recherches, parmi lesquelles une meilleure réparation des fentes labio-palatines (becs de lièvre) et, cette technologie ayant été initialement développée par l’Institut des forces armées de la médecine régénérative (AFIRM), le traitement de graves blessures faciales des soldats.

Biofutur

Des scientifiques découvrent une protéine clé dans le développement cardiaque embryonnaire
Lundi, 23/07/2012 - 01:10

Le développement cardiaque de l'embryon est parfois entravé par deux problèmes importants: il s'agit d'un processus complexe sujet aux erreurs. Des scientifiques allemands ont probablement réussi à comprendre pourquoi certains bébés naissent avec des défauts cardiaques congénitaux. Les chercheurs de l'Institut Max Planck de recherche sur le coeur et les poumons ont découvert une molécule qui régulerait la fonction des cellules souches du coeur. Leurs résultats pourraient aider les chercheurs à réduire le nombre de défauts cardiaques à l'avenir et pourraient également donner naissance à de nouvelles méthodes de stimulation pour la régénération de tissus cardiaques endommagés chez l'adulte.

Le processus de développement cardiaque est très long. Les cellules se divisent et se transforment en plusieurs différentes cellules souches, pour ensuite se transformer en une grande structure de laquelle les différents éléments du coeur, d'où les oreillettes, les ventricules, les valves et les vaisseaux coronariens se développent. En fait, les cellules souches et précurseurs subissent un processus complexe qui comprend la division cellulaire régulée, la migration cellulaire, la différenciation et la spécialisation. Les cellules souches sont inhibées une fois le développement cardiaque achevé.

Dans leur étude, les chercheurs de l'institution allemande ont identifié comment sont régulées certaines étapes importantes de ce développement. Ils ont d'abord tenté de trouver des partenaires de liaison pour le facteur de transcription Isl1, caractéristique d'un groupe spécifique de cellules souches cardiaques appelées cellules Isl1+. Dans leur étude, l'équipe a découvert Ajuba, un facteur de transcription du groupe de protéines LIM.

«Nous avons examiné l'interaction entre ces deux molécules et avons conclu que Ajuba doit être un interrupteur important», explique Gergana Dobreva, responsable du groupe de recherche «Origin of Cardiac Cell Lineages» de l'institution allemande.

L'équipe a évalué les effets d'un interrupteur défectueux sur le développement cardiaque du poisson zèbre et a généré un poisson génétiquement modifié dépourvu d'une protéine Ajuba fonctionnelle. Selon les chercheurs, le développement cardiaque du poisson zèbre a été interrompu.

Ils ont observé une différence au niveau de la taille du coeur. «Dans pratiquement tous les poissons étudiés, nous avons observé un agrandissement important du coeur», commente le Docteur Dobreva. «En l'absence d'Ajuba, il est clair qu'aucun interrupteur n'inhibe le processus contrôlé par Isl1 dans le développement cardiaque.» De plus, ils ont découvert que le coeur est plus gros car davantage de cellules de muscle cardiaque se sont développées.

L'équipe suggère donc qu'Ajuba joue un rôle clé dans la régulation de l'activité de cellules souches ; elle lie les molécules Isl1 et bloque leur effet stimulant.

«Une fois que nous aurons compris la régulation du développement cardiaque, nous comprendrons les causes de défauts cardiaques congénitaux et pourrons considérer de meilleures approches thérapeutiques», conclut le Docteur Dobreva. «Nous pourrions optimiser la production de cellules de remplacement de cellules souches embryonnaires ou artificielles créées en laboratoire. L'inhibition d'Ajuba dans ces cellules renforcerait leur développement en cellules de muscles cardiaques fonctionnelles. Ainsi, des cellules de remplacement pour le traitement de maladies pourraient être cultivées de la sorte.»

Cordis

La chirurgie robotisée s'impose en cardiologie
Dimanche, 22/07/2012 - 01:30

la réparation chirurgicale complète d’une insuffisance mitrale par la robotique a été réalisée pour la 1ère fois aux Etats-Unis en mai 2000. Cette technique qui évite la sternotomie classique peut être associée, en cas de fibrillation auriculaire (FA), présente chez de 30 % de ces patients, à la cure de l’arythmie par cryoablation selon la procédure classique de Cox-Maze également réalisée par robotique.

Nifong et coll. rapportent les résultats d’une série de 540 patients consécutifs qui ont bénéficié, entre mai 2000 et avril 2010, de la réparation d’une insuffisance mitrale de grade 3+ ou 4+, symptomatique, non ischémique, moyenne à sévère, accompagnée ou non d’une FA. La cryo-ablation a porté sur les oreillettes droite et gauche. Les procédures ont été réalisées au moyen du système da Vinci de télé-chirurgie en 3 dimensions.

Parmi ces 540 patients, 454 (84,1 %) ont eu une réparation mitrale par robotique (RMR) et 86 (15,9 %) une RMR associée à une cryo-ablation (CA). L’âge moyen des patients de ces 2 groupes était respectivement de 56,1+/- 12,9 et 65,6+/- 10,8 ans (p < 0,001).

Dans les 2 groupes, la durée de la circulation extra-corporelle a été respectivement de 153,2 +/-37,7 minutes et de 188,5 +/-53,8 minutes et celle du temps de clampage vasculaire de 116,6 +/- 31,5 minutes et 130,6 +/- 28,4 minutes (p < 0,001).

L’échocardiographie transœsophagienne réalisée après la réparation mitrale a objectivé l’absence de fuite mitrale chez 447 patients (82,8 %) tandis que l’insuffisance mitrale résiduelle était qualifiée de minime chez 80 patients (14,8 %), légère chez 12 patients (2,2 %) et moyenne chez 3 patients (0,6 %).

Une ré-intervention pour échec de la réparation a été nécessaire chez 16 patients (2,9 %), en moyenne 303+/- 281 jours (15 à 946) après l’opération initiale ; chez 9 de ces 16 patients une évolution des lésions était responsable de la ré-intervention.

Dans le groupe RMR+ CA, 42 patients (48,8 %) avaient une FA paroxystique et 44 (51,2 %) une FA persistante.

Avec un suivi de 351+/- 281 jours après l’intervention, 83 patients (96,5 %) étaient indemnes de toute arythmie et ne prenaient aucun traitement anti-arythmique ou anticoagulant. Ultérieurement, 8 patients (9,3 %) ont dû avoir recours à une cardioversion électrique et 4 (4,6 %) à une ablation de la FA par cathéter. Enfin, 6 patients (7,0 %) ont dû être appareillés par un pacemaker.

En conclusion, le RMR et le RMR+CA ont eu dans cette série un taux de succès comparable à celui des résultats standard publiés, tant en ce qui concerne la qualité de la réparation de la valve mitrale que de la proportion de retour au rythme sinusal.

Dans la mesure, d’une part, où ces interventions mini-invasives assurent un confort supérieur à celui obtenu après sternotomie et compte tenu, d’autre part, des progrès de la robotique, ces technique pourraient bien représenter dans un avenir proche, le traitement standard de la réparation d’une insuffisance mitrale et de l’ablation de la FA qui pourrait lui être associée.

JIM

Détecter précocement la maladie de Parkinson grâce à l'IRM
Dimanche, 22/07/2012 - 01:20

Au cours des démences de type Alzheimer, la dilatation des ventricules cérébraux liée à l’âge s’accélère de façon tout à fait significative. Qu’en est-il quand la maladie de Parkinson idiopathique (MPI) s’associe à un déclin cognitif, sachant que celle-ci évolue assez fréquemment vers une démence dite parkinsonienne (DP) ? C’est à cette question pertinente que tente de répondre une étude prospective du type cas-témoins dans laquelle ont été inclus 33 sujets âgés atteints d’une MPI sans démence et 39 témoins appariés selon l’âge et le sexe. Les fonctions cognitives ont été évaluées à intervalles réguliers pendant 36 mois, cependant qu’une IRM cérébrale a été pratiquée tous les 18 mois pour mesurer le volume des ventricules cérébraux et le volume total de la substance grise et de la substance blanche à partir des coupes volumétriques pondérées en T1, selon une segmentation par ailleurs validée.

Chez 10 des 33 patients atteints d’une MPI, un déficit cognitif significatif ou une démence débutante sont apparus au cours du suivi, versus 3 chez les témoins. Une relation a été établie entre ces troubles cognitifs et les anomalies morphologiques révélées par l’IRM. Ainsi, les modifications ventriculaires étaient corrélées aux résultats fournis par le MMSE (Mini-Mental Status Examination)  (r = 0,87, p = 0,001) pour le groupe des patients avec MPI. L’atrophie de la substance grise était plus importante pour les parkinsoniens atteints de démence. Il n’y avait pas de différence intergroupe significative au niveau des volumes de la substance blanche, qu’il y ait démence ou non, cependant, l’atrophie a pu paraître progresser davantage en cas de MPI associée à une démence.

En bref, il semble qu’une dilatation des ventricules cérébraux survienne précocement dans l’évolution du déclin cognitif au cours de la maladie de Parkinson, reflétant possiblement la perte de substance blanche et grise. Résultats intéressants à confirmer sur une plus grande échelle.

JIM

Une nouvelle approche thérapeutique en vue pour le cancer du poumon au stade précoce
Samedi, 21/07/2012 - 01:30

S'appuyant sur les mécanismes de progression du cancer du poumon, Stallings-Mann et coll. montrent sur un modèle murin qu’une métalloprotéinase matricielle (MMP-3) induit l’expression, dans les cellules pulmonaires environnantes, de la protéine Rac1b qui agit comme un médiateur crucial de la progression du cancer du poumon.

On sait que le tabagisme induit l’expression des métalloproteinases matricielles (MMPs) dans l’épithélium pulmonaire, des peptidases qui dégradent les composants de la matrice extracellulaire entourant les cellules épithéliales et entraînent la transition épithélio-mésenchymale (TEM).

Les chercheurs montrent maintenant chez la souris transgénique, que l’expression de Rac1b, induite par la surexpression de la MMP-3, stimule la TEM et la progression du stade pré-malin dans les cellules épithéliales pulmonaires vers le stade malin d’adénocarcinome du poumon, ceci sans passer par le stade de sénescence induit par les oncogènes.

Leurs données recueillies chez une cohorte de patients atteints du cancer du poumon plaident fortement pour explorer la protéine Rac1b comme une cible thérapeutique dans le cancer du poumon.

En effet, l’expression du Rac1b (ARNm) est augmentée dans l’adénocarcinome pulmonaire comparé au tissu normal environnant, et elle est significativement plus élevée dans les tumeurs de stade 2 par rapport aux stades 1, ainsi que dans le tissu pulmonaire normal des fumeurs comparés aux sujets qui n’ont jamais fumé.

Ceci suggère que des médicaments qui bloqueraient la synthèse ou la fonction du Rac1b - qui n’a pas de rôle connu dans les cellules normales - pourraient prévenir la progression vers les formes invasives, tardives, du cancer du poumon.

Le Quotidien du Médecin

Découverte d'un nouveau mécanisme de codage de l'information génétique
Samedi, 21/07/2012 - 01:10

Un projet rassemblant des chercheurs du Centro Nacional de Investigaciones Oncológicas (CNIO) de Madrid et du Centro de Regulación Genómica (CRG) de Barcelone a mis en évidence que la production d''ARN chimérique n'était pas un processus seulement observé dans les cellules tumorales. Ce processus, dans lequel l'ARN est transcrit à partir de morceaux de différents gènes, pourrait être répandu et constituer une clé importante du codage de l'information génétique. Une découverte qui ouvre un champ d'exploration très large dans le domaine de la génétique.

Il y a une quinzaine d'années, tous les efforts de la communauté scientifique dans le domaine de la génétique s'étaient tournés vers le séquençage du génome humain. L'objectif était de "lire" la totalité de la molécule d'ADN humaine répartie en 23 paires de chromosomes pour révéler les plans de construction d'un être humain. Aujourd'hui, cette partie du travail est terminée et les méthodes actuelles de séquençage permettent d'obtenir le génome d'un être humain en quelques jours à un prix abordable.

Seulement, il ne s'agissait là que d'une première étape. Maintenant que les chercheurs ont les plans, encore faut-il apprendre à les lire et, surtout, savoir comment les lire. L'ADN est un code qu'il faut apprendre à déchiffrer. Les chercheurs pensaient avoir compris l'ensemble du mécanisme. L'information est codée dans l'ADN sous forme de gènes, des morceaux d'ADN de longueur variable. Pour utiliser cette information, la machinerie cellulaire commence par faire une copie du gène dans le noyau de la cellule en produisant une molécule d'ARN. Celle-ci est ensuite sortie du noyau et "lue" afin de produire une protéine. Un gène, une copie d'ARN, une protéine : le système semblait simple.

Trop simple. En commençant à décoder le génome, les chercheurs ont fait les comptes. L'ADN humain comprend environ 20.000 gènes qui permettent de produire beaucoup plus que 20.000 protéines. Il existe donc d'autres manières de coder l'information que la seule relation linéaire gène-ARN-protéine. Les chercheurs ont alors découvert qu'un même gène pouvait permettre de coder plusieurs protéines même si en définitive, cette possibilité semblerait assez rare.

Les chercheurs du CNIO et du CRG ont mis en évidence un autre degré de codage. Un brin d'ARN peut-être transcrit à partir de plusieurs morceaux de gènes différents. De même qu'un mot est composé de syllabes que l'on peut réunir pour former d'autres mots, les gènes sont formés de sous parties qui peuvent être combinées les unes aux autres pour donner naissance à des brins d'ARN nouveaux. Cet ARN est alors qualifié de chimérique : provenant de morceaux de différents gènes.

L'existence d'ARN chimérique avait déjà été démontrée. Cependant, les chercheurs croyaient le phénomène uniquement présent dans des cellules tumorales et voyaient ce processus de codage comme un dysfonctionnement lié à la maladie de la cellule. Or, les chercheurs espagnols ont observé ce phénomène dans des cellules saines, démontrant qu'il fait partie intégrante des processus de codage de l'ADN. Ils ont identifié 175 brins différents d'ARN chimérique dans 16 types de cellules, de quoi mettre en avant l'importance de ce processus.

Cette découverte ouvre une nouvelle brèche dans la compréhension du codage de l'information génétique au travers de la molécule d'ADN. En démontrant qu'il existe plusieurs niveaux de lecture de la molécule d'ADN, elle met surtout en évidence l'ampleur du travail à réaliser pour comprendre de manière profonde comment l'information génétique est traduite dans cette molécule.

Bulletins Electroniques

Une rétine artificielle sans fil
Vendredi, 20/07/2012 - 05:30

Un implant rétinien conçu aux États-Unis pourrait offrir aux patients plus de confort et une meilleure qualité de vision.

Restaurer une perception visuelle chez des personnes aveugles : c’est possible, depuis la mise au point au cours des années 1990 des premiers implants rétiniens. Actuellement, une cinquantaine de personnes dans le monde en sont équipées. Mais ces dispositifs, invasifs et insuffisamment efficaces, doivent encore être perfectionnés. Un nouveau modèle d’implant, récemment mis au point par une équipe de l’université Stanford, présente plusieurs améliorations significatives. Cette rétine artificielle alimentée par rayons infrarouges ne nécessite pas de câblage et pourrait offrir une meilleure résolution que les implants traditionnels.

Dans la rétine, la lumière est captée par des cellules appelées photorécepteurs, qui transforment le signal lumineux en un signal électrique. Elles stimulent des neurones, qui acheminent ensuite le message jusqu’au cerveau où il est interprété comme une image. Certaines maladies oculaires, par exemple la dégénérescence maculaire liée à l’âge, entraînent une destruction de ces photorécepteurs, ce qui mène peu à peu à la cécité. Le principe de l’implant rétinien consiste à stimuler, à l’aide d’électrodes placées au contact de la rétine, les neurones chargés du transport de l’information, qui continuent à fonctionner. Il est ainsi possible de déclencher artificiellement un signal visuel.

  • Impulsions de lumière

Les modèles d’implants existants souffrent toutefois de plusieurs limites. Celui de la société américaine Second Sight, commercialisé en Europe depuis l’an dernier, possède une résolution de seulement 60 pixels. Ainsi, il permet aux personnes équipées de s’orienter dans une pièce, mais pas de reconnaître des formes complexes. Un autre modèle, conçu par l’allemand Retina Implant AG, devrait théoriquement avoir une résolution de 1 500 pixels, mais des phénomènes de chevauchement entre les pixels brouillent la vision.

Avec l’implant imaginé à l’université Stanford, les personnes portent des lunettes équipées d’une caméra, et les images perçues par cette dernière sont transformées en impulsions de lumière infrarouge, qui sont projetées vers la rétine. Là, elles sont détectées par un réseau d’électrodes photosensibles, qui s’activent et déclenchent un signal visuel. Une caméra montée sur des lunettes enregistre une image, qui est transformée par un processeur en impulsions infrarouges. Celles-ci sont projetées sur la rétine, où elles activent des électrodes photosensibles, qui déclenchent alors un signal nerveux aboutissant à la reconstitution de l'image.

Contrairement aux implants actuels, alimentés en énergie par l’intermédiaire de câbles installés dans l’oeil du patient, ce nouveau type de rétine artificielle peut donc fonctionner sans fils. « Cet avantage n’est pas négligeable, car la pose de câbles dans l’oeil est complexe et augmente les risques », explique Serge Picaud, directeur de recherche à l’Institut de la vision à Paris.

Pour l’instant, les chercheurs américains n’ont testé leur approche que sur des rétines de rat in vitro et in vivo. Ils y ont implanté de petites plaques en silicium de 1 millimètre carré de surface, couvertes d’électrodes photosensibles. En les exposant à des flashs en infrarouge, ils ont montré que ces électrodes s’activaient, et qu’elles stimulaient les neurones visuels.

La plaque la plus dense en électrodes qu’ils ont conçue fournit une résolution de 178 pixels par millimètre carré. Contrairement aux implants classiques, ces plaques sont souples, et respectent donc la courbure naturelle de la rétine. « Chez l’être humain, on peut espérer en insérer plusieurs, afin d’augmenter le nombre de pixels », suggère Serge Picaud. En effet, leur petite taille fait qu’il est possible d’en introduire plusieurs sous la rétine tout en respectant la courbure de l’oeil. Les ophtalmologues évaluent qu’il en faut environ 1 000 pour permettre aux patients de lire et de reconnaître des visages. Prometteur, ce nouvel implant doit cependant encore être testé chez d’autres animaux, puis chez l’être humain. La caméra et le logiciel de traitement de l’information en infrarouge restent également à mettre au point.

La Recherche

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top