RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 603
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Juin 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet : En 2012 des mots complets comme noms de domaine
Un ordinateur quantique qui refroidit !
Avenir
Des interrupteurs nanoélectroniques variables qui feraient plus que 0 ou 1
La robotique s’invite à l’entretien des lignes et pylônes THT, avec l’Université Pierre et Marie Curie
Matière
Un premier pas vers la production d'énergie renouvelable grâce au Gulf Stream
Produire de l’hydrogène grâce à l’éthanol
Des bâtiments à énergie positive qui carburent aux microalgues
Performance énergétique : Publication de la norme internationale ISO 50001
L'électricité solaire sera bientôt moins chère que les autres énergies
Des scientifiques découvrent la forme sphérique des électrons
Espace
À la poursuite de l'antimatière
10 nouvelles planètes extrasolaires CoRoT
Terre
Une grande partie de la vie marine pourrait disparaître
Vivant
La biologie cellulaire à l’honneur
Régime et sport prescrits sur ordonnance
Cancer colorectal métastatique : des progrès
Cancer du sein : une révolution en matière de prévention
Cancer du pancréas : un diagnostic précoce grâce à l' imagerie à fluorescence
Des avancées contre le cancer de la prostate
Marcher vite pour prévenir le cancer de la prostate
Cancer de la prostate : les bienfaits du paracétamol
Un ver régénéré à partir d'une cellule
ADN-ARN : une copie infidèle
Du tissu conjonctif pour produire de nouveaux neurones
Un seul gène responsable d’une panoplie de maladies
Recherche
Quand l'ordiphone devient un élément clé de la voiture
Le covoiturage en temps réel arrive en France
Les entreprises plébiscitent le crédit d’impôt recherche
Edito
Le Cerveau : un océan de complexité qui commence à livrer ses secrets



Comment naît la conscience dans notre cerveau et par quels mécanismes ? C'est à cette question fascinante qui passionne depuis des siècles scientifiques et philosophes que Stanislas Dehaene, Professeur au Collège de France et Jean-Pierre Changeux, Professeur émérite à l’Institut Pasteur, tentent d'apporter des éléments de réponse en publiant, dans la prestigieuse revue Neuron, une synthèse regroupant les avancées de plus de 10 ans de recherche sur structures biologiques qui permettent l'émergence de la conscience humaine (Experimental and Theoretical Approaches to Conscious Processing, Neuron, 28 avril 2011).

Au fil de leurs recherches, Stanislas Dehaene et Jean-Pierre Changeux ont construit un cadre théorique et expérimental qui permet de mieux comprendre les processus biologiques impliqués dans le phénomène de la conscience chez l’homme. Pour mesurer l’activité neuronale lors de la prise de conscience, ces deux scientifiques ont mis au point un modèle expérimental qui repose sur la comparaison de l’activité cérébrale dans des conditions mimant le traitement conscient ou non conscient de l’information. Des mots écrits sont ainsi présentés brièvement à un sujet parmi une succession d’images.

En modifiant les conditions de présentation de ces images, le sujet parvient ou non à rapporter le mot écrit. Si la personne est capable de restituer le mot, il y a eu traitement conscient. Si elle en est incapable, le mot n’a pas été perçu de manière consciente mais a néanmoins été traité par le cerveau de manière dite subliminale, ou non consciente. Dans chaque expérience, l’activité neuronale est mesurée dans plusieurs régions du cerveau du sujet par diverses techniques d’imagerie cérébrale. Il est ainsi possible de comparer de manière objective les activités neuronales engagées dans le traitement conscient et dans le traitement non conscient d’un même stimulus.

Ces recherches ont également utilisé de nouvelles techniques d’enregistrement de l’activité électrique cérébrale, qui permettent d’établir la succession des événements se déroulant dans le cerveau lors de la prise de conscience. Ces expériences ont pu montrer de manière formelle que dans tous les cas de figure - traitement conscient ou non-conscient de l'information - les premières aires cérébrales à s’activer sont celles du cortex visuel et particulièrement celles engagées dans la reconnaissance des mots écrits. Au cours du traitement conscient, dans un laps de temps de 200 à 400 millisecondes après la présentation du mot, un vaste réseau cérébral comprenant le cortex préfrontal est traversé par une onde électrique de grande amplitude. Il semble qu'ensuite, ce réseau se synchronise au cours de la prise de conscience grâce à des neurones richement interconnectés par le biais d’axones longs.

C’est cette dernière étape qui, selon Stanislas Dehaene et Jean-Pierre Changeux, marque l’accès à la conscience. Ils émettent l'hypothèse selon laquelle cet embrasement du réseau préfrontal et la synchronisation de l’activité des neurones dans les aires cérébrales concernées ne se déclenchent qu’une fois un seuil minimal d’activité atteint lors des étapes précédentes. L'émergence de la conscience exprimerait alors la mise à disposition d’une information au sein d’un « espace de travail neuronal », qui permettrait au signal de gagner la mémoire à long terme.

Ce cadre théorique qui s'appuie sur de nombreuses et solides vérifications expérimentales est très novateur et permet d’interpréter diverses situations cliniques où l’accès à la conscience est altéré ou empêché, par exemple dans le cas de l’anesthésie générale, du coma ou de maladies psychiatriques comme la schizophrénie. Mais les auteurs demeurent modestes et soulignent que leur cadre théorique et leurs hypothèses sont loin d'épuiser le phénomène de la conscience, dont la connaissance objective et scientifique constitue l'un des défis majeurs de ce siècle des neuro-sciences et des sciences cognitives.

Avec le projet CESAME » (CErveau et SAnté MEntale) présenté à Lyon en janvier et l'ouverture du Centre du Cerveau et de la moelle à Paris, notre pays vient de se doter de deux outils de recherche de premier plan au niveau européen et mondial, pour rester à la pointe dans ce domaine capital de la connaissance de notre cerveau et des processus cognitifs, mais aussi dans une meilleure compréhension des nombreuses pathologies mentales et maladies neuro-dégénératives qui peuvent, malheureusement, venir perturber et détruire ce merveilleux organe aux extraordinaires capacités.

Grâce à ces nouvelles structures interdisciplinaires qui fédèrent acteurs privés et publics et utilisent pleinement tous les nouveaux outils technologiques permettant de "voir" la pensée en train de naître et se développer, nous allons vivre au cours de ces prochaines décennies une révolution scientifique sans précédent dans la connaissance de cette conscience, consciente d'elle-même, qui constitue sans doute le trait le plus singulier de l'espèce humaine.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Internet : En 2012 des mots complets comme noms de domaine
Jeudi, 23/06/2011 - 01:10

L'autorité régulant les noms de domaines des sites Internet a annoncé le 20 juin qu'elle autoriserait l'utilisation de mots complets à la place des habituels ".com" ou ".fr" à partir de 2012.

Après les ".com", ".gouv" ou ".fr", des mots entiers comme ".apple"; ".microsoft" ou encore ".paris" pourront être utilisés dès le 12 janvier 2012. L'autorité supervisant les noms de domaine sur internet, l'Icann ("Internet Corporation for Assigned Names and Numbers") vient de décider d'autoriser l'utilisation de mots entiers comme suffixe pour les adresses de site internet.

L'Icann a "ouvert le système de noms pour libérer l'imagination humaine dans le monde" a déclaré Rod Beckstrom, le président de l'organisation lors d'une réunion à Singapour. "Nous espérons que cela permettra de faire en sorte que le système de noms de domaine serve mieux l'humanité", a ajouté le numéro un de cette association privée sous contrat avec le gouvernement fédéral américain.

Actuellement, il existe 22 noms de domaines génériques du type ".com" ou  ".edu" ainsi que 250 extensions correspondant à des pays ou régions comme ".fr", ".eu" etc.

L'autorisation de choisir des mots complets comme nom de domaine pourrait profiter en particulier aux entreprises et aux localités qui pourront être encore plus faciles à trouver lors des recherches sur le web. Les candidatures pour ces nouvelles adresses seront ouvertes dans un premier temps jusqu'au 12 avril 2012.

La Tribune

Un ordinateur quantique qui refroidit !
Dimanche, 19/06/2011 - 12:43

Des scientifiques suisses travaillent actuellement à la mise au point d'un ordinateur qui, contrairement aux PC actuels, cesserait de dégager de la chaleur mais serait aussi capable de produire du froid. Dans la course à la miniaturisation, un problème d'ordre technique viendra bientôt se poser. En effet, plus les processeurs des ordinateurs se font petits et compacts, plus ils produisent de chaleur. Cette température empêchera, à terme, de poursuivre dans ce sens, comme l'explique le professeur de théorie physique à l'Ecole polytechnique fédérale de Zurich (EPFZ), Renato Renner.

C'est en partant de ce constat que les chercheurs d'une équipe suisse ont cherché à mettre au point un ordinateur quantique, capable de produire du froid plutôt que de la chaleur. Un membre de l'équipe à indiqué à l'AFP que, pour l'heure, "il ne s'agit que d'un travail purement théorique" mais il a également précisé que d'ici 30 ans, de nouveaux ordinateurs plus puissants et "à refroidissement" pourraient être commercialisés. La phase expérimentale qui doit prochainement avoir lieu se déroulera à l'université de Singapour.

Comme l'expliquent les chercheurs, l'effacement de données tel qu'il et possible sur nos ordinateurs actuels est un procédé qui dégage de l'énergie. Aussi, les physiciens de l'EPFZ cherchent à mettre au point un PC qui pourrait rendre l'effacement réversible et, par là même, de dégager du froid et non plus du chaud. Seul un ordinateur quantique, bien plus rapide que ceux qui nous équipent actuellement serait capable de cela. Ils seraient en effet en mesure d'archiver une donnée par atome, soit plus de 100 fois plus que les ordinateurs classiques qui ont besoin de plusieurs centaines d'atomes pour stocker un bit d'information.

Maxisciences

^ Haut
Avenir
Nanotechnologies et Robotique
Des interrupteurs nanoélectroniques variables qui feraient plus que 0 ou 1
Mardi, 21/06/2011 - 01:20

Dans un domaine de recherche jugé prioritaire par l'Allemagne, à la croisée des neurosciences et de l'électronique, des chercheurs de l'université d'Aix-la-Chapelle ont mis au point des nano-commutateurs qui fonctionneraient à l'image des cellules nerveuses. En effet, si l'évolution rapide de la micro-nanoélectronique et des applications qu'elle permet (smartphones, capteurs, etc.) influence fortement nos vies, la miniaturisation continue des semi-conducteurs classiques est en voie d'atteindre ses limites physiques. Les anomalies structurelles engendrées affectent surtout la qualité et la fiabilité des composants. L'objectif serait donc de les utiliser plutôt que de tenter de les contrôler.

D'autre part, la recherche actuelle montre ainsi que de tels défauts inhérents à l'échelle des nanostructures pourraient être transformés via certains chalcogénures en unités fonctionnelles. Les chalcogénures sont des composés chimiques comprenant un élément chalcogène (oxygène, soufre, sélénium, ou tellure), éléments dont la couche externe présente un déficit de deux électrons, et qui permettent de modifier une tension en appliquant une résistance naturelle. Ce phénomène est appelé "mémorésistant" ("memristive" en anglais). Les chalcogénures mémorésistants sont devenus ces dernières années un haut sujet de recherche internationale, afin d'appliquer leurs caractéristiques de modulation électronique dans les appareils électroniques.

Cette approche scientifique sera encouragée pendant les quatre prochaines années par l'Agence allemande de la recherche (DFG) grâce à l'octroi d'un financement pour le programme "chalcogénures mémorésistants comme interrupteurs modulaires de l'électronique du futur". Ce programme consiste en un réseau interdisciplinaire de scientifiques et d'ingénieurs de l'Université d'Aix-la-Chapelle (RWTH - Rhénanie du Nord-Westphalie) et du Centre de recherche voisin de Jülich, qui étudient ces chalcogènes afin de produire des nano-interrupteurs artificiels dotés d'au moins trois mécanismes de commutation variables, sortant du paradigme binaire 0 et 1. Cela pourrait non seulement révolutionner le stockage numérique, mais également être utilisé dans la conception de nouveaux processeurs pour le calcul. A long terme, ces cellules mémorésistantes permettront d'imiter voire de soigner les circuits neuronaux issus des cellules nerveuses du corps humain. Cela est dû à leur caractéristique unique d'être en mesure de stocker non seulement les valeurs de résistance des états ON et OFF (1 / 0), mais aussi d'être programmées pour toutes les valeurs intermédiaires.

Ces recherches ouvrent la voie à une approche totalement nouvelle dans la mise en oeuvre de réseaux de neurones artificiels, où les caractéristiques géométriques et l'efficacité énergétique pourraient approcher au plus près le modèle biologique, voire le dépasser.

"Les résultats de la recherche dans les nouveaux interrupteurs variables opèrent un changement de paradigme dans l'électronique des semi-conducteurs et ouvrent une voie de recherche à partir des "défauts" des matériaux", a déclaré Wuttig Matthias, directeur de ce programme de recherche.

Bulletins Electroniques

La robotique s’invite à l’entretien des lignes et pylônes THT, avec l’Université Pierre et Marie Curie
Mardi, 21/06/2011 - 01:00

Quels sont les “robots de demain” dédiés aux travaux publics, à la production ou au transport d’énergie ? Comment pourront-ils assister les techniciens qui interviennent sur des infrastructures industrielles dans des conditions difficiles ?

Il fait le point pour nous : Vincent Padois, maître de conférences à l’Université Pierre et Marie Curie, et titulaire de la chaire d’excellence dédiée aux « Systèmes robotiques d’intervention en milieux contraints ». Ce programme de recherche est mené grâce au soutien de RTE.

Question : Au-delà des lignes : Jusqu’à maintenant, quelle est la place de la robotique dans l’industrie ?

Réponse de Vincent Padois : Depuis les années 70, dans le milieu industriel, la  robotique permet d’automatiser une partie des chaînes de production en série. Les robots effectuent des tâches répétitives, qui doivent être exécutées à des cadences rapides et de manière précise. Exemple avec la peinture et la soudure, ou la palettisation et le conditionnement dans diverses industries. Les robots servent aussi à supporter de lourdes charges. Pour exemple dans l’industrie automobile : des robots portent le bloc moteur, tandis qu’un opérateur humain effectue les manipulations techniques plus complexes, pour le diriger et l’insérer dans l’automobile.

Aujourd’hui, le champ d’application de la robotique s’élargit aux domaines non manufacturiers, comme la construction de bâtiments publics, la production et le transport d’énergie.

  • Les opérations y sont plus complexes et moins stéréotypées que dans une chaîne de production en série.
  • Elles présentent souvent  un niveau de risque important, que ce soit pour les biens ou les personnes.

C’est pour cela qu’on parle de « robotique d’intervention en milieux contraints ». Dans ces cadres, l’outil robotique contribuerait à faciliter l’intervention humaine, notamment en la sécurisant.

Question : Spécifiquement dans le transport d’électricité, quel pourrait être le rôle de la robotique pour RTE ?

VP : Les robots pourraient assister les lignards, qui effectuent des opérations de maintenance sur les  pylônes et lignes HT et THT. Dans ce « milieu contraint », 3 risques sont identifiés :

  • les risques de chute, liés à l’activité en hauteur,
  • les risques électriques liés à la proximité des lignes haute tension,
  • les risques mécaniques. On entend par là, les éventuels risques de déstabilisation de la structure, quant il faut changer certaines pièces ou les réparer.

Ces risques sont d’autant plus importants que les interventions du lignard sont techniquement complexes.

Le « robot de demain », dédié à la maintenance industrielle, serait pensé comme un outil d’assistance. Grâce à une interface très intuitive, le lignard pourrait choisir le mode de fonctionnement du robot : automatique, guidage, apprentissage… Ce qui rendrait le robot adaptable à de nombreuses situations. « Couteau-suisse » du lignard sur le terrain, le robot faciliterait son travail et sécuriserait son action.

Question : Au-delà des lignes : Pouvez-vous nous donner un exemple concret ?

VP : Imaginons, par exemple, un « bras robotisé » transportable, amovible, « clipsable » par le lignard  à divers endroits d’un pylône :

  • ce robot pourrait aider au déplacement, en hauteur,  d’équipements lourds ou encombrants,
  • il assisterait le lignard à la réalisation de taches complexes, que d’ordinaire ce dernier effectue seul et à bout de bras (notion de « troisième bras »),
  • il effectuerait aussi un certain nombre de gestes simples d’assemblage, tandis que le lignard consacrerait son énergie et son expertise aux manipulations plus complexes, en prenant moins de risques.

Dans d’autres situations, le robot contribuerait à prévenir les risques électriques. Une précaution de sécurité, complémentaire de l’expérience du lignard.

Question : Aujourd’hui, vous commencez votre étude sur les systèmes robotisés en milieux contraints. Celle-ci va durer 5 ans. Comment s’organise cette recherche pour que de tels robots voient le jour ?

VP : Précisons que notre étude ne vise pas à construire des produits finis mais à identifier les méthodes et concepts robotiques de demain, pour faciliter l’intervention des opérateurs en milieux contraints.

Notre projet d’étude fait appel à trois expertises :

  • conception et optimisation de la structure mécanique des systèmes robotiques,
  • contrôle et commande de systèmes robotiques qui interagissent avec des opérateurs humains,
  • validation des solutions retenues au travers d’outils de simulation 3D réalistes, qui permettent la mise en contexte virtuelle des solutions robotiques envisagées.

A propos : L’Université Pierre et Marie Curie, au travers de sa fondation partenariale, et grâce au soutien de la société RTE, lance en 2011, une chaire d’excellence dans le domaine des « Systèmes robotiques d’intervention en milieux contraints ».

La durée de la recherche est initialement de 5 ans. Elle portera sur la conception et le développement de méthodes et d’outils associés, pour développer des systèmes robotiques dédiés à des applications industrielles en milieux contraints.

Vincent Padois a pour objectif de proposer des méthodes de développement et de validation de robots d’intervention non dédiés à une seule tâche (autrement dit capables de réaliser une palette large de tâches assez génériques), et amenés à travailler en interaction avec les opérateurs (non pas téléguidés).

AU-DELA DES LIGNES

^ Haut
Matière
Matière et Energie
Un premier pas vers la production d'énergie renouvelable grâce au Gulf Stream
Mardi, 21/06/2011 - 01:10

C'est officiel : la première demande d'autorisation pour une installation de production d'énergie hydrocinétique vient d'être déposée auprès du Département de l'Intérieur. L'université de Floride Atlantique entend installer un dispositif expérimental au large des côtes de Floride. "C'est la première demande d'autorisation pour des essais sur des installations hydrocinétiques [...] que le Bureau de Gestion et de Réglementation des Energies Océaniques (BOEMRE) ait reçu" déclare Michael Bromwich, directeur du BOEMRE.

L'énergie hydrocinétique est obtenue par la transformation de l'énergie cinétique des courants marins en courant électrique. Plusieurs technologies existent, la plus courante étant l'utilisation des turbines sous-marines, à la façon des éoliennes (on parle alors d' "hydroliennes"). A l'instar d'autres énergies marines - comme l'Energie Thermique des Mers, son principal intérêt est de pouvoir fournir de l'énergie renouvelable de manière continue, à la différence de l'éolien ou du solaire, qui fonctionnent par intermittence. Les courants marins sont très prévisibles, ce qui contribue aussi à faire de l'énergie hydrocinétique une énergie fiable. On estime que d'ici 2025, 13.000 MW d'énergie hydrocinétique pourraient être produits aux Etats-Unis, soit l'équivalent de la production de 22 centrales à charbon - ce qui éviterait l'émission de près de 86 millions de tonnes de dioxyde de carbone.

Le projet est à l'initiative du Southeast National Marine Renewable Energy Center, un centre de recherche affilié à l'université de Floride Atlantique et l'un des trois centres du Département de l'Energie dédiés à la recherche sur les énergies marines. Il s'agit d'installer un dispositif expérimental permettant d'étudier le potentiel en terme de production d'énergie du Gulf Stream. Ce puissant courant océanique remonte vers le nord le long des côtes de Floride avant de bifurquer vers l'Europe au niveau de la Caroline du Nord. "Le rôle de ces centres est de mettre en place des installations de tests pour les industriels" déclare Howard Hanson, directeur scientifique au Southeast National Marine Renewable Energy Center. Avant de les mettre à disposition, "nous devons d'abord les essayer nous-mêmes".

L'hydrolienne devrait être montée sur une bouée ancrée à 27 kilomètres au large de la ville de Fort Lauderdale. A l'heure actuelle, le dispositif est testé en étant tiré depuis un bateau. A terme, l'idée est de faire de cette installation permanente un "centre" de test de l'énergie hydrocinétique ainsi qu'une station d'observation scientifique en temps réel des conditions océaniques. La demande d'autorisation limite le dispositif à une puissance de 100 kilowatts et un rotor de 7 mètres de diamètre. Si celle-ci est acceptée, l'université pourra opérer pour 5 ans mais n'aura pas le droit de vendre l'énergie produite.

Bulletins Electroniques

Produire de l’hydrogène grâce à l’éthanol
Lundi, 20/06/2011 - 01:10

Une équipe de scientifiques a développé un procédé qui produit de l’hydrogène grâce à de l’éthanol et du soleil. Une solution efficace et peu onéreuse pour l’alimentation en gaz des piles à combustibles. Nécessaire pour le fonctionnement d’une pile à combustible, l’hydrogène, utilisé sous forme de dihydrogène (H2), peut être produit à partir d’énergies renouvelables. Jusqu’ici, sa synthèse à partir d’énergie solaire employait de l’eau comme matière première. Mais ce type de technologie coûteuse présente des rendements très bas.

Des chercheurs de l’ Université Polytechnique de Catalogne (Espagne) ont donc conçu un nouveau procédé capable de produire de l’H2 à partir d’éthanol et de lumière solaire. Mis au point par l’équipe catalane, ce nouveau photocatalyseur est constitué d’un semi-conducteur en dioxyde de titane, sous une forme minérale différente de celle utilisée pour l’eau et présentant surtout un taux de conversion deux fois supérieur. Ce substrat est ensuite recouvert de nanoparticules d'or, bien meilleur marché que les métaux nobles nécessaire à l’hydrolyse de l'eau (platine, ruthénium, rhodium). Cette réduction des coûts permet d’améliorer la compétitivité de l’électricité produite par une pile à combustible. De plus, contrairement aux autres procédés, cette poudre minérale catalytique peut fonctionner à température et pression ambiantes, ce qui diminue également le coût énergétique.

Au niveau du rendement, les chercheurs ont obtenu jusqu'à cinq litres de dihydrogène par kilogramme de catalyseur et par minute. Leur prochain objectif est de concevoir des réacteurs optimisés pour un usage domestique et à plus grande échelle, afin de promouvoir l'hydrogène en tant qu'alternative aux combustibles fossiles et surtout comme vecteur d'énergie stockable.

Industrie & Technologies

Des bâtiments à énergie positive qui carburent aux microalgues
Lundi, 20/06/2011 - 01:00

La route vers l’habitat positif passe aussi par la production d’énergie au sein même des bâtiments. Un sujet qui ne se limite désormais plus seulement au photovoltaïque. Depuis janvier, la start-up parisienne Ennesys propose ainsi d’équiper immeubles et écoquartiers d’un système énergétique peu commun. Sa particularité ? La production d’énergie est assurée par la culture de phytoplancton. Des microalgues dont la croissance est dopée par les eaux usées du bâtiment. « Tous les procédés de culture d’algues reposent sur le même principe. On prend une masse d’eau dans laquelle on injecte des engrais et du CO2. Exposées à la lumière, les algues se développent par photosynthèse, explique Jean-Louis Kindler, Directeur Général d’Ennesys. Elles atteignent ainsi leur maturité en 48 heures. On peut alors les récolter ». Fruits de cette récolte : de la biomasse, de l’huile végétale (algolipide) et même de l’hydrogène capté lors la photosynthèse. Soit trois sources énergétiques qui pourront être associées pour couvrir directement les besoins du bâtiment et/ou vendues comme biocarburants ou engrais.

Pour les fondateurs d’Ennesys, l’affaire est entendue. Leur innovation va bouleverser le paysage de la construction verte et, par la même secousse, celui des énergies renouvelables. « A investissement et superficie occupée égaux, nous proposons un rendement énergétique trois fois supérieur au solaire. Cette performance repose sur la diversité des éléments valorisés », se félicite Pierre Tauzinat, Président d’Ennesys. Voilà pour la théorie.

Dans la pratique, le calcul pourrait s’avérer plus complexe. Le dispositif devra en effet être adapté au cas par cas. Les modes d’acquisition du CO2 et la nature des eaux usées seront, par exemple, très variables en fonction des sites équipés. Autre impératif de flexibilité : les structures de photosynthèse. Pour exposer leur mélange eau-algues à la lumière, les têtes pensantes d’Ennesys devront se jouer des contraintes architecturales de chaque édifice. Des photobioréacteurs intégrés aux façades des bâtiments sont notamment envisagés. La dernière incertitude porte enfin sur le traitement des algues arrivées à maturité.

Cleantech Republic

Performance énergétique : Publication de la norme internationale ISO 50001
Dimanche, 19/06/2011 - 12:08

Cette nouvelle norme internationale ISO 50001 « Systèmes de management de l'énergie : exigences et recommandations de mise en œuvre», vise l'amélioration de la performance énergétique de toute organisation. Deux ans après la sortie de la norme européenne EN 16001 (NF EN 16001 "Systèmes de management de l'énergie - Exigences et recommandations de mise en œuvre", norme européenne publiée en juillet 2009), l'ISO 50001 s'en inspire et reprend au niveau mondial les grandes lignes directrices. Cette norme est le fruit d'un consensus entre 61 pays.

Intitulée « Systèmes de management de l'énergie : exigences et recommandations de mise en œuvre», la nouvelle norme ISO 50001 publiée mercredi 15 juin, donne les lignes directrices pour développer une gestion méthodique de l'énergie afin de privilégier la performance énergétique. A partir d'un diagnostic énergétique initial, l'organisme conforme à la norme définit ses cibles énergétiques et établit un plan de comptage de l'énergie. Un système de management respectant les exigences de cette norme permet de réaliser à court terme des économies d'énergie et de réduire les coûts.

Une entreprise, une collectivité ou toute autre organisation a ainsi la possibilité de faire reconnaître sa démarche par un organisme tierce partie et indépendant. Celui-ci vérifie sur place la conformité à la norme et délivre, le cas échéant, un certificat ISO 50001. Selon l'Agence Internationale de l'Energie (IAE), la norme ISO 50001 pourrait avoir un impact sur 60 % de la demande d'énergie mondiale.

Le Moniteur

L'électricité solaire sera bientôt moins chère que les autres énergies
Samedi, 18/06/2011 - 08:33

L'électricité solaire est-elle en passe de gagner la bataille du coût ? C'est ce dont sont convaincus les responsables de la société multinationale américaine General Electric (GE). L'énergie solaire devrait devenir, dans les 3 à 5 ans à venir, moins coûteuse que celle issue de ressources fossiles voire des centrales nucléaires, a déclaré il y a quelques jours Mark M. Little, le directeur général de la recherche de GE. Ce dernier appuie sa prédiction sur le fait que son entreprise a développé récemment des panneaux solaires à couche mince dont le rendement atteint 12,8 %, soit une performance comptant parmi les meilleures dans l'offre des panneaux photovoltaïques couramment fabriqués dans le monde. Afin de produire industriellement ces panneaux, GE est en train de construire une usine qui emploiera 400 personnes. Son ouverture est prévue pour 2013. Elle sera apte à produire un nombre suffisant de panneaux pour équiper 80.000 foyers par an.

Avec sa technologie, GE estime qu'il pourra abaisser le coût du kilowattheure (kWh) « à moins de 15 cents » quand le prix de 1 kWh, selon les chiffres officiels, s'étage aux États-Unis entre 6.1 cents dans l'État du Wyoming à 18,1 cents dans le Connecticut.

GE n'est pas seul à prévoir que l'électricité solaire atteindra bientôt la parité réseau. Dans une étude récente, Gaetan Masson, économiste à l'European Photovoltaic Industry Association ( EPIA ), prédit que dès 2017 l'électricité solaire sera compétitive en Allemagne dont le parc est le plus développé d'Europe. Et dès 2020 en France comme dans la majorité des pays européens. Ceci autant pour les installations chez les particuliers que pour les grandes centrales au sol. Le tout sans aides ni subventions.

La principale explication à ce regain de compétitivité tient dans les progrès techniques réalisés par les fabricants sur le rendement des cellules de silicium qui ont fait chuter les prix des panneaux. Parallèlement, le fort développement du marché soutenu dans tous les pays par des aides et des subventions d'États, a également poussé les prix à la baisse. Du coup, dans les régions fortement ensoleillées comme la Californie, le Maghreb, certaines régions turques ou encore le sud de l'Italie et de l'Espagne, l'électricité solaire est déjà devenue compétitive.

Il faut toutefois remarquer que dans ces régions, le coût du kilowattheure délivré par le réseau traditionnel est très élevé, ce qui accélère l'atteinte à la parité des prix. Reste que toutes ces prévisions vont interpeller beaucoup de monde à l'heure ou, après la catastrophe de Fukushima au Japon, États, fournisseurs d'électricité privés comme publics s'interrogent sérieusement sur leur modèle énergétique.

La Tribune

Des scientifiques découvrent la forme sphérique des électrons
Vendredi, 17/06/2011 - 07:39

Des mesures les plus précises d'un électron ont été prises par une équipe de chercheurs européens, et les résultats indiquent que sa forme est sphérique. Publiés dans la revue Nature, les résultats présentés par les chercheurs de l'Imperial College London de Londres au Royaume-Uni découlent d'une expérience qui a duré un peu plus d'une dizaine d'années.

Les résultats ont démontré comment l'électron vient de manquer d'être catégorisé comme étant parfaitement sphérique de moins de 0,000000000000000000000000001 cm. L'équipe commente que si l'on devait agrandir un électron à la taille du système solaire, il serait parfaitement en forme de sphère à l'oeil humain avec la largeur d'un cheveu. L'équipe de physiciens a mené l'étude en examinant des électrons dans des molécules appelées fluorides d'ytterbium. Ils ont utilisé un laser extrêmement précis pour mesurer le mouvement de ces électrons.

Les scientifiques ont pu déterminer que les électrons avaient une forme ronde, car si ce n'est pas le cas, lorsque l'électron est en mouvement, il présenterait une oscillation qui déforme le reste de la molécule, comme une toupie déséquilibrée. L'équipe n'ayant observé aucune oscillation, elle en a conclu que les électrons avaient bien une forme sphérique.

Le Dr Jony Hudson, l'un des auteurs de l'étude, du département de physique de l'Imperial College London, commente : «Nous sommes vraiment heureux d'avoir pu élargir nos connaissances sur l'un des fondements de la matière. Il s'agit de mesures complexes, mais ces connaissances nous permettront d'améliorer nos théories de physique fondamentale. Le public est souvent surpris de découvrir que nos théories sont 'inachevées', mais en réalité, elles sont simplement mieux définies et améliorées en prenant des mesures plus précises comme celle-ci.»

L'étude a fait progresser l'un des plus grands mystères en physique : comprendre les raisons et les modalités à l'origine de la prédominance de la matière sur l'antimatière. L'école de pensée actuellement admise parmi les physiciens est qu'au cours du Big Bang, l'antimatière a été créée comme de la matière ordinaire. Mais depuis que l'existence de l'antimatière, une substance insaisissable qui se comporte tout comme la matière à l'exception d'avoir la charge électrique contraire, a été décrite pour la première fois par Paul Dirac, en 1928, on ne l'a retrouvée que dans de petites sources telles que les rayons cosmiques et quelques substances radioactives.

Comprendre l'emplacement et éventuellement la possibilité de l'existence de l'antimatière est toujours demeuré un mystère jusqu'à l'apparition de ce nouveau domaine de recherche. Les scientifiques essaient d'expliquer ce manque d'antimatière en recherchant les différences entre le comportement de la matière et de l'antimatière que personne n'a encore observé.

Étant donné que la version de l'antimatière de l'électron négatif est l'anti-électron positif, que l'on appelle également positron, en comprenant mieux la forme de l'électron, les scientifiques de l'Imperial College London espèrent que ces connaissances les conduiront à mieux comprendre comment les positrons se comportent et quelles sont les différences entre la matière et l'antimatière, le centre d'intérêt de la prochaine étape de recherches.

Le professeur Edward Hinds, co-auteur de l'étude et responsable du centre de matière froide à l'institution britannique, commente les implications de leurs travaux: «Le monde entier est composé de matière normale avec seulement quelques traces d'antimatière. Les astronomes ont examiné jusque dans les extrémités de l'univers visible et n'y ont trouvé que de la matière, et de l'antimatière en très petites quantités. Les physiciens ne comprennent pas où se trouve toute l'antimatière, mais cette étude permet de confirmer ou d'infirmer certaines explications possibles.»

L'équipe développe actuellement de nouvelles méthodes pour refroidir les molécules à des températures basses pour améliorer les relevés de mesures de la forme de l'électron ainsi que pour mieux contrôler le mouvement exact des molécules. Ainsi, les chercheurs pourront étudier le comportement des électrons embarqués avec une précision sans précédent. S'ils n'avaient pas découvert que les électrons avaient une forme sphérique, ils auraient eu la preuve que le comportement de l'antimatière et de la matière diffère davantage par rapport aux hypothèses des physiciens.

Cordis

^ Haut
Espace
Espace et Cosmologie
À la poursuite de l'antimatière
Dimanche, 19/06/2011 - 12:33

Embarqué avec Endeavour, un détecteur à particules spatiales pourrait percer l'un des plus grands mystères scientifiques

C'est son dernier voyage. Le 18 mai dernier, la navette spatiale américaine Endeavour s'envolait vers les étoiles. Dans la cabine, six astronautes, et dans la soute, un instrument extraordinaire : un détecteur de particules spatiales, le premier du genre. L'AMS, c'est son nom, restera accroché "jusqu'à la fin de sa vie", comme l'a souligné la Nasa, à la station spatiale internationale. De là, il mesurera sans relâche tous les rayons cosmiques qui traversent l'espace, afin, entre autres, de traquer l'antimatière primordiale, soit l'un des mystères qui déchaîne le plus les passions au sein de la communauté scientifique. Serait-il possible que la matière se dédouble ? Existerait-il une face cachée du monde ? Voire un autre univers que le nôtre ?

Il y a quatre-vingts ans, les physiciens ont établi qu'à toute particule est associée une antiparticule, de même masse et de charge électrique opposée. Très vite, l'existence des antiparticules s'est imposée aux yeux de ceux qui tentaient d'unifier les deux grandes théories inconciliables : la relativité restreinte, élaborée par Einstein, et la physique quantique. Des antiparticules, les physiciens se sont mis à en produire de toutes sortes en laboratoire en provoquant des collisions de particules de haute énergie.

  • L'enfance de l'Univers

Mais dans le monde réel, l'antimatière se fait rare. La matière que l'on trouve dans les galaxies est constituée presque exclusivement de particules. L'antimatière ne serait-elle donc qu'une fabrication de physiciens ? Pourtant, dans son enfance, l'Univers contenait autant d'antiparticules que de particules. Comment dès lors expliquer que notre Univers soit constitué des premières plutôt que des secondes ? Quel processus a pu éliminer l'antimatière ?

En 1967, le futur Prix Nobel de la paix Andreï Sakharov livre une explication. Selon lui, le nombre de protons et de neutrons produits au début de l'Univers - et qui constituent notre matière actuelle - a pu être très légèrement supérieur à celui des antiprotons et des antineutrons. Après l'annihilation de l'antimatière par la matière, toute l'antimatière aurait disparu, ainsi que la plus grande partie de la matière. Mais l'excédent de matière qui était extrêmement faible, de l'ordre d'un pour un milliard environ, aurait subsisté : il constituerait la matière que nous observons aujourd'hui ainsi que celle dont nous sommes faits.

Le sort de l'antimatière n'est pas réglé pour autant. Il est possible qu'une petite part ait aussi survécu à la grande annihilation. Le fameux détecteur de particules chargé dans le ventre de la navette Endeavour a donc pour mission de retrouver la trace de cette improbable rescapée. La chasse à l'antimatière est ouverte.

Par Etienne Klein (physicien au CEA, directeur du laboratoire des recherches sur les sciences de la matière (Larsim) à Saclay et auteur de Discours sur l'origine de l'univers (Flammarion, 2010).

Le Point

10 nouvelles planètes extrasolaires CoRoT
Samedi, 18/06/2011 - 09:02

La mission spatiale internationale CoRoT de détection d’exoplanètes, pilotée par le CNES, a identifié 10 nouvelles planètes extrasolaires. Confirmées par des observations complémentaires au sol, ces planètes arborent une grande variété de propriétés. 

  • La famille d'exoplanètes CoRoT s'agrandit

La nouvelle est tombée le mardi 14 juin, pendant le 2e symposium CoRoT à Marseille : le télescope spatial CoRoT a identifié 10 nouvelles exoplanètes.

Lancée en 2006 sous la maîtrise d’œuvre du CNES, cette mission spatiale internationale a pour objectif la détection de planètes extrasolaires, c’est-à-dire orbitant autour d’une autre étoile que le Soleil. Baptisées CoRoT-16b à CoRoT-24b et c, les 10 nouvelles exoplanètes identifiées affichent des propriétés très diverses. Période de révolution, taille, densité, masse, orbite…, aucune n’est identique. 7 de ces exoplanètes correspondent à des planètes géantes et chaudes, d’une taille égale ou supérieure à celle de Jupiter. Les 3 autres possèdent des dimensions plus réduites, voisines de celles de Saturne et de Neptune.

  • Des observations terrestres et d'éventuelles nouvelles confirmations

CoRoT n’en est pourtant pas à son coup d’essai. Depuis 5 ans, cette mission d’astronomie a déjà identifié et confirmé15 autres exoplanètes, dont la super-Terre CoRoT-7b.

C’est par l'observation de micro-éclipses périodiques provoquées par le passage des planètes devant leur étoile mère que le télescope spatial de 27 cm révèle leur existence. Les données de CoRoT sont ensuite complétées et corroborées par les observations au sol des différents télescopes de soutien répartis sur toute la surface du globe. A ce jour, plus de 400 candidates au titre d’exoplanètes ont été détectées par CoRoT. Ceci laisse présager de futures nouvelles caractérisations qui viendront un jour grossir les rangs des quelque 565 planètes extrasolaires déjà connues.

CNES

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une grande partie de la vie marine pourrait disparaître
Jeudi, 23/06/2011 - 01:20

Réchauffement global des eaux, acidification, appauvrissement des milieux marins en oxygène, ces trois symptômes caractéristiques des grandes phases d'extinction massive sur Terre sont à nouveau réunis.

Les océans vont mal. Très mal. Réunis mi-mai en congrès à l'université d'Oxford, 27 des plus grands spécialistes de la biodiversité marine de six pays ont même été choqués par l'accumulation de signaux alarmants. En mettant bout à bout leurs observations et leurs analyses, une vérité effrayante a émergé : la vie marine est en péril. Leurs conclusions et recommandations font l'objet d'un rapport de synthèse publié récemment.

L'examen des couches sédimentaires montre tout d'abord que les cinq dernières grandes phases d'extinction sur Terre ont toutes coïncidé avec une acidification des océans, un réchauffement de la température des eaux et un appauvrissement des milieux marins en oxygène (hypoxie). Autant de symptômes d'une perturbation du cycle du carbone que l'on observe une nouvelle fois aujourd'hui avec le réchauffement climatique. Les niveaux de carbone absorbé par les océans «sont déjà bien plus élevés aujourd'hui qu'à l'époque de la dernière extinction de masse d'espèces marines, il y a environ 55 millions d'années, lorsque près de 50 % de certains groupes d'animaux d'eau profonde furent exterminés», écrivent ainsi les rapporteurs.

  • Des résultats «choquants»

A cet inquiétant constat, les chercheurs ont mis en regard leurs observations. «Les résultats sont choquants», résume Alex Rogers, directeur scientifique du Programme international sur l'Etat des Océans (Ipso) qui organisait le congrès. «En considérant l'effet cumulatif de ce que l'humanité fait subir aux océans, nous nous sommes aperçus que les conséquences sont bien plus graves que ce dont chacun de nous s'était rendu compte de son côté», poursuit-il.

Tous les indicateurs se dégradent en effet suivant les pires des scénarios envisagés. La fonte des glaces polaires s'accélère, le niveau des mers continue de monter, les dégagements de méthane piégés dans les sols s'accentuent. Ces facteurs ont une influence complexe et néfaste sur la répartition des espèces marines et leurs abondances respectives. Les algues nocives se multiplient, les disparitions massives de poissons à longue durée de vie (comme le thon) bouleversent l'équilibre des chaînes alimentaires, les espèces invasives (comme certaines méduses) détruisent des écosystèmes entiers.

  • Une prise de conscience mondiale est nécessaire

Certaines activités humaines viennent encore noircir le tableau : la surpêche, la destruction d'habitats entiers ou encore la pollution durable des eaux par des substances chimiques toxiques et des milliards de micro-déchets en plastique. Pris dans leurs ensembles, ces facteurs de stress s'amplifient les uns les autres au lieu de se compenser.

Peut-on encore changer les choses ? Les experts ne veulent pas baisser les bras. La réduction des émissions de gaz à effet de serre, la lutte contre la surpêche et la protection des habitats menacés peuvent encore limiter les dégâts. Les scientifiques appellent également à «l'adoption en urgence d'un meilleur système de gouvernance des eaux internationales, encore très peu protégées mais qui représentent la majeure partie des océans du monde entier». Et de rappeler que toute action politique coordonnée nécessite une prise de conscience mondiale. Il semblerait que nous en soyons encore là.

Le Figaro

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La biologie cellulaire à l’honneur
Jeudi, 23/06/2011 - 01:30

Une nouvelle fois, l’excellence des travaux en biologie cellulaire des chercheurs de l’Institut Curie est saluée avec deux publications parues en ligne le 12 juin dans Nature Cell Biology. Evelyne Coudrier dans l’équipe du Professeur Daniel Louvard met en évidence le rôle important et nouveau d’un moteur moléculaire, la myosine 1, alors que l’équipe de Mathieu Piel, grâce à des approches de biophysique, montre le rôle des forces exercées par le milieu extérieur lors de la division cellulaire.

Ces travaux illustrent parfaitement la philosophie qui a conduit le Professeur Daniel Louvard à créer en 1995 un pôle de biologie cellulaire à l’Institut Curie. « Ce pôle a permis d’impulser un nouvel élan à la recherche en biologie cellulaire en France. Il a favorisé le développement d’interfaces pluridisciplinaires avec les physiciens, les chimistes et les cliniciens de l’Institut Curie » explique Daniel Louvard.

  • Un moteur moléculaire à fonctions variables

Quels sont les mécanismes cellulaires susceptibles d'être altérés au cours du développement du cancer et ainsi conduire au fonctionnement anormal de la cellule ? Les réponses à cette question sont cruciales pour identifier de nouvelles approches thérapeutiques. Le groupe d'Evelyne Coudrier dans l’équipe du Professeur Daniel Louvard (unité Compartimentation et dynamique cellulaires - Institut Curie/CNRS UMR 144) s'intéresse tout particulièrement au réseau trans-Golgien, structure intracellulaire qui assure le tri et le transport des protéines membranaires nouvellement synthétisées vers les différents compartiments cellulaires. Ses fonctions sont étroitement liées aux rapides changements de forme de sa membrane. Dans sa dernière étude, l'équipe met en évidence le rôle important et nouveau que joue un moteur moléculaire, la myosine 1, dans ce phénomène : en association avec le cytosquelette, elle contrôle le changement de forme des membranes du réseau trans-Golgien. Une autre équipe de l’institut a montré précédemment qu’une autre myosine participait au transport des protéines émanant de ce compartiment. Cela rend ce type de moteur moléculaire de plus en plus intéressant aux yeux des chercheurs.

  • Lorsque les cellules filles s'alignent dans le champ

Dans un tissu, un organe, chaque cellule est sensible aux informations mécaniques venant de son environnement : elle les convertit en signaux biologiques par un phénomène de mécanotransduction, de sorte que ces contraintes extérieures ont des répercussions sur la polarisation, la forme, les mouvements ou encore la migration des cellules.

Quel est l'impact de ces forces extérieures lorsque la cellule est en division ? L'équipe de Mathieu Piel (unité Compartimentation et dynamique cellulaires - Institut Curie/CNRS UMR 144) éclaire la question par une jolie démonstration sur des cellules in vitro. Elle montre que, lors de la division, ces forces extérieures sont impliquées dans l'orientation du fuseau mitotique, et ce par la polarisation des structures d'actine sous-corticales : les cellules-filles seront ainsi alignées en fonction de ce champ de force extérieur. L'originalité de ce travail - peu d'études de ce type ont été faites sur des cellules en division – vient aussi de l'utilisation de micro-outils de laboratoire innovants qui permettent de reproduire et de contrôler les principaux paramètres physiques et chimiques de l'environnement cellulaire.

Institut Curie

Régime et sport prescrits sur ordonnance
Jeudi, 23/06/2011 - 01:00

Bouger plus, manger mieux, consulter un psychologue… Peut-être trouverez-vous demain ces indications sur votre ordonnance... C’est ce que souhaite un rapport de la Haute autorité de santé Rapport de la Haute Autorité de Santé qui encourage les "prescriptions non médicamenteuses".

Les Français sont les premiers consommateurs de médicaments en Europe et réclament volontiers la pilule qui les soulage de leurs maux, au détriment d’autres approches : faire de l’exercice physique, consulter un psychologue, changer son alimentation, par exemple.

Le rapport de la Haute autorité de santé (HAS), publié le 6 juin et rédigé à la demande de la Direction de la sécurité sociale, estime qu’il est temps de sortir de cette pensée unique et de favoriser les traitements non médicamenteux, seuls ou en complément des médicaments.

Insomnie, diabète, maladies cardiovasculaires, asthme, excès de cholestérol… Dans nombre de maladies chroniques, le médicament n’est ou ne devrait être qu’une partie du traitement. "Tout le monde sait que les médicaments ne suffisent pas, que les traitements non médicamenteux sont aussi efficaces dans certains cas, voire même permettent d’en éviter les inconvénients", estime le Docteur Claude Attali, un des médecins généralistes ayant participé à la rédaction du rapport.

Pour ce qui est du diabète, par exemple, perdre du poids, pratiquer un exercice physique, permet de retarder et de réduire la consommation de médicaments, voire les deux à la fois. Cela a été prouvé.

Ces mesures d'hygiène physique semblent élémentaires, mais il existe des freins culturels. La prescription du médicament a en effet une forte valeur symbolique, souligne la HAS. En rédigeant une ordonnance à un patient, le médecin "confirme son statut de "malade" et témoigne du bien-fondé de la plainte". Il lui délivre aussi un sésame vers la guérison sans exiger de lui beaucoup d’efforts.

Aussi, pour donner du poids aux autres traitements, "il est nécessaire d’inscrire sur l’ordonnance les prescriptions en matière de thérapeutiques non médicamenteuses au même titre que les autres interventions de santé", préconise la HAS.

"Cela ne se prescrit pas comme un médicament", nuance le Docteur Attali. Cela suppose une autre relation médecin-malade, centrée sur le malade, à l’exemple de ce qui se fait au Canada. "Il s’agit de prendre le temps de demander au malade ce qu’il pense de son état, ce qui serait mieux pour lui, ce qu’il pourrait faire pour lui-même." C'est en apparence simple, mais les médecins ne sont pas formés à cette approche. Le paiement à l’acte incite plutôt le médecin à "consacrer le moins de temps possible par patient", note la HAS. Il faut donc trouver d’autres modes de rémunération, dit le rapport. C'est également l’avis du syndicat MG-France.

Du côté du malade, ces traitements non médicamenteux sont plus "coûteux", non seulement parce qu’ils ne sont pas toujours remboursés (changer d’alimentation, consulter un psychologue), mais parce qu’ils demandent une motivation, un investissement en temps.

Il est donc nécessaire de changer les comportements de part et d’autre, de redéfinir la notion même de traitement. Ce serait une révolution culturelle, estime le Docteur Claude Leicher, président du syndicat MG-France : "Pour le malade, cela suppose de se dire 'Je ne me sens pas tout nu quand je n’ai pas de médicament' et, pour le médecin : 'Je ne suis pas inefficace si je n’en prescris pas' ". Une évolution des mentalités que la récente affaire du Médiator et la crise de confiance par rapport au médicament rend peut-être possible…

Notre Temps

Cancer colorectal métastatique : des progrès
Mercredi, 22/06/2011 - 01:20

Des données qui montrent que l'agent expérimental Zaltrap (aflibercept), également connu sous le nom de VEGF Trap, améliore significativement la survie des patients atteints d'un cancer colorectal métastatique ayant été traités antérieurement.

"Des patients atteints d'un cancer colorectal métastatique ayant été traités antérieurement par oxaliplatine ont été randomisés pour recevoir un traitement par ZALTRAP ou par placebo en association avec une chimiothérapie FOLFIRI (irinotécan-5-fluorouracile-leucovorine). L'ajout de ZALTRAP à la chimiothérapie FOLFIRI a significativement amélioré leur survie globale (HR=0,817 ; p=0,0032) et leur survie sans progression (HR=0,758 ; p=0,00007). Un effet semblable a été constaté avec le traitement par ZALTRAP, que les patients aient ou non été traités antérieurement par bévacizumab", explique Sanofi.

Parmi les effets indésirables de grade 3 ou 4 dont l'incidence a été supérieure à 2 % parmi les patients traités par ZALTRAP par rapport au placebo figurait ce qui suit : diarrhée, asthénie/fatigue, stomatite et ulcérations, infections, hypertension artérielle, douleurs gastro-intestinales et abdominales, neutropénie, complications neutropéniques et protéinurie. Les décès attribués aux événements indésirables survenus pendant le traitement ont concerné 2,6 % des patients du groupe ZALTRAP, contre 1 % des patients du groupe placebo.

Sanofi

Cancer du sein : une révolution en matière de prévention
Mercredi, 22/06/2011 - 01:00

A l'occasion de la 47e conférence annuelle de l'American Society of Clinical Oncology (ASCO), l'un des plus importants colloques mondiaux dédiés à la cancérologie, des résultats cliniques sur le cancer du sein ont été révélés : publiée par le New England Journal of Medicine, une étude américaine vient de révéler que l'Aromasine, un anti-oestrogène, réduit de 65 % le risque de cancer de sein ou de récurrence chez les femmes ménopausées.

D'après les analyses menées par le docteur Paul Goss, professeur à la faculté de médecine de Harvard et principal auteur de cette étude, l'Aromasine, qui permet de mettre fin à la production d'eostrogènes, entraînerait une réduction de 65 % du risque de cancer de sein chez les femmes ménopausées. Des résultats qui pourraient avoir de profondes retombées lorsqu'on sait que "1,3 million de femmes dans le monde sont diagnostiquées annuellement comme souffrant d'un cancer du sein et que près de 500.000 en meurent", a souligné le professeur. Selon les résultats de l'essai clinique, "l'Aromasine (exémestane) est une nouvelle approche prometteuse pour empêcher le cancer du sein de survenir chez les femmes ménopausées présentant le plus gros risque d'être affectées par cette maladie", a ajouté le docteur Paul Goss.

L'essai clinique a été mené entre 2004 et 2010, à travers le monde (Etats-Unis, Canada et France), auprès de 4.560 femmes ménopausées présentant au moins un des principaux risques de cancer du sein. Au cours de cette étude, une moitié des femmes a pris oralement de l'Aromasine commercialisée par le laboratoire américain Pfizer et une autre moitié un placebo. Après un temps d'observation, on constate que les femmes ayant pris de l'Aromasine ont réduit de 65 % le risque d'un cancer du sein. Et parmi les femmes de l'étude qui avaient eu un cancer du sein ou une récurrence de la maladie lors de l'essai clinique, il semblerait qu'"un grand nombre de tumeurs sont de petites taille et il semble également y avoir moins de cancers les plus agressifs", a précisé le médecin. Et d'ajouter : "Non seulement notre étude sur l'Aromasine montre une réduction impressionnante du risque de cancer du sein mais aussi d'excellents résultats concernant les effets secondaires".

Aussi, le professeur Paul Goss a précisé que l'Aromasine semblait à la fois plus efficace et plus sûre que l'anti-oestrogène Tamoxifène, à savoir le traitement hormonal prescrit par les médecins depuis maintenant 30 ans pour lutter contre les cancers du sein.

NEJM

Cancer du pancréas : un diagnostic précoce grâce à l' imagerie à fluorescence
Mercredi, 22/06/2011 - 01:00

L'adénocarcinome du pancréas est un des principaux cancers de cet organe, et un des plus virulents. Trop souvent diagnostiqué tardivement, il est très difficile à soigner. On estime à 5 % la survie à 5 ans. Jusqu'à présent, aucune méthode ne s'est avérée efficace pour permettre un diagnostic précoce. Ce dernier améliore considérablement l'espérance de vie des patients. En effet, si la tumeur est inférieure à 2 cm, on obtient un taux de survie à 4 ans de 78 %.

Dans un premiers temps, Dieter Sauer et ses collègues de l'Université technique de Munich (Allemagne) ont constaté chez la souris (bon modèle expérimental pour étudier les cancers humains) des niveaux d'expression élevés de quatre cathepsines (protéases jouant un rôle dans la dégradation des protéines par le lysosome) qui seraient liés aux lésions induites par le développement d'un cancer du pancréas. Ils ont ensuite montré que l'injection d'un produit de contraste, sonde NIRF (fluorescence dans le proche infra rouge ), permettait d'allumer ces lésions spécifiques. Grâce à une technique de microscopie confocale, les chercheurs ont pu au final mettre en évidence des lésions pré-cancéreuses et même différencier les différents grades de dysplasie de ces lésions. En effet, l'intensité du signal de la sonde NIRF dépend du stade auquel est le cancer.

Afin de vérifier que leur méthode d'imagerie est fonctionnelle et permet véritablement de détecter précocement les adénocarcinomes du pancréas, Dieter Sauer et ses collègues ont testé leur méthode en double aveugle sur un échantillon de 24 souris. Ils ont ensuite demandé à des observateurs extérieurs, qui n'étaient pas au courant de l'état de santé des rongeurs, de faire un diagnostic. La méthode s'est révélée efficace dans 95 % des cas. De plus, il a été possible d'obtenir assez souvent un état très précis de la tumeur ... (stade, degré d'atteinte du tissu pancréatique, etc.). Ces travaux, qui font suite à la publication en 2009 d'un article des mêmes chercheurs dans la revue Gut, montrent la précision de cette méthode d'imagerie et son efficacité. Cette dernière pourrait être développée chez l'homme afin de permettre un meilleur dépistage de ce type de cancer.

PNAS

Des avancées contre le cancer de la prostate
Lundi, 20/06/2011 - 01:20

Un traitement expérimental contre le cancer de la prostate a enregistré des résultats très prometteurs à l'issue de la phase 3 d'essais cliniques à grande échelle, a annoncé récemment le groupe pharmaceutique norvégien Algeta, associé à l'allemand Bayer Schering Pharma. Les résultats ont été si probants qu'un comité d'évaluation indépendant a décidé d'écourter la phase d'essai du médicament Alpharadine d'un an pour offrir le traitement à tous les patients étudiés, y compris ceux qui prenaient un placebo, a indiqué Algeta dans un communiqué.

L'Alpharadine, ou chlorure de radium-233, est destiné aux hommes souffrant d'un cancer de la prostate avancé avec métastase osseuse. "Environ 90 % des hommes souffrant d'un cancer de la prostate avancé ont des métastases osseuses, lesquelles sont la principale raison des incapacités et des décès liés à cette maladie", a déclaré un responsable du comité d'évaluation, Chris Parker, de l'établissement britannique Royal Marsden Hospital. "Le cancer de la prostate avancé a de sombres pronostics et les options de traitement sont limitées (...) L'Alpharadine pourrait devenir un traitement important" pour ces malades, a-t-il dit. L'étude a mis en évidence le fait que la prise d'Alpharadine se traduisait par une durée de survie médiane de 14 mois contre seulement 11,2 mois pour ceux à qui un placebo était administré. Une demande d'autorisation de mise sur le marché devrait être envoyée en 2012.

L'Expansion

Marcher vite pour prévenir le cancer de la prostate
Dimanche, 19/06/2011 - 18:55

Ce n'est plus à démontrer, la pratique régulière d'une activité physique est bonne pour la santé. La marche rapide apparaîtrait même comme un excellent indicateur d'espérance de vie. Une équipe américaine va plus loin, affirmant qu'elle pourrait retarder voire enrayer la progression d'un cancer prostatique.

Sur deux ans, de 2004 à 2005, le Professeur Erin Richman et son équipe de l'Université de Californie à San Francisco, ont suivi 1 455 patients atteints d'un cancer de la prostate. Les résultats de leur observation ont montré qu'à partir de 3 heures par semaine, la pratique de la marche rapide permettait de réduire de 57 % les perspectives d'évolution de la maladie. « Marcher, c'est un acte qui est à la portée de chacun d'entre nous et qui permet d' améliorer sa santé » explique l'auteur. Marcher oui, mais pas n'importe comment. Car les résultats les plus significatifs ont été observés parmi les patients dont le pas était le plus alerte. Pour le Professeur Richman en effet, « marcher à un rythme ‘normal' ne semble pas apporter les mêmes bénéfices ».

Rappelons qu'avec 71 600 nouveaux cas par an en France, le cancer de la prostate reste de loin le cancer le plus fréquent chez l'homme. Il est loin devant les cancers pulmonaire (26 900 cas) et colorectal (21 100 cas). En termes de mortalité, le cancer de la prostate avec 8 800 décès annuels, se situe après le cancer du poumon (21 100 décès) et le cancer colorectal (9 200 décès). Alors, trois heures de marche par semaine, une épreuve de force ? Pas vraiment. A bien y réfléchir, cela correspond à trente minutes par jour, cinq fois par semaine… Soit très exactement le contenu des recommandations de l'OMS.

Destination Santé

Cancer de la prostate : les bienfaits du paracétamol
Samedi, 18/06/2011 - 08:48

En augmentation constante en Europe, le cancer de la prostate touche chaque année plus de 40 000 Français. Selon les dernières données épidémiologiques, un homme sur 9 présentera une forme clinique de cette maladie au cours de sa vie. Si cette tumeur spécifiquement masculine n'apparaît que rarement avant 50 ans, il est conseillé de se faire dépister régulièrement dès 60 ans, âge à partir duquel les cas deviennent plus fréquents.

Eric J. Jacobs, épidémiologiste de la société américaine de cancer basée à Atlanta (États-Unis), et ses collègues ont suivi, de 1992 à 2007, 78 485 hommes, participant à l'étude Cancer Prevention Study II Nutrition Cohort. Chacun d'entre eux devait régulièrement répondre à un questionnaire indiquant son mode de vie, son habitude alimentaire, etc. Au cours des 15 ans d'étude, 8 092 patients ont été diagnostiqués pour un cancer de la prostate.

Après un réajustement prenant en compte différentes données relatives à chaque patient (ethnie, niveau d'étude, IMC, etc.), les chercheurs ont constaté que la prise d'une trentaine de comprimés de paracétamol par mois pendant une durée supérieure à 5 ans réduisait d'au moins 38 % les risques d'obtention d'un cancer. Toutefois, ils restent très prudents sur leur conclusion et estiment que d'autres études devront être menées pour confirmer l'effet bénéfique du paracétamol.

Information Hospitalière

Un ver régénéré à partir d'une cellule
Samedi, 18/06/2011 - 08:42

Dès le XIXe siècle, on savait que la planaire – un ver marin plat – a la capacité de se régénérer à partir d'une petite portion de son corps. Pourtant, personne n'avait encore expliqué le mécanisme de cette régénération... jusqu'à aujourd'hui. Des biologistes de l'Institut de technologie du Massachusetts (MIT), aux États-Unis, ont montré que la régénération est orchestrée par des cellules souches adultes pluripotentes, c'est-à-dire capables de se différencier en plusieurs types cellulaires selon leur environnement.

On savait déjà que la régénération était l'œuvre d'une population particulière de cellules, les néoblastes. Disséminées dans l'organisme, ces cellules souches adultes se mettent à proliférer lorsque l'animal est blessé et migrent vers les blessures ; en se différenciant, elles produisent tous les types cellulaires nécessaires à la reconstruction de l'organisme. Toutefois, une question importante subsistait : chaque néoblaste est-il programmé pour se différencier en un type cellulaire donné ou est-il pluripotent, à l'instar des cellules souches embryonnaires ? En d'autres termes, un unique néoblaste peut-il régénérer à lui seul tous les types cellulaires constituant les différents organes et tissus de la planaire ?

Pour le déterminer, Daniel Wagner et ses collègues ont injecté un néoblaste issu d'une planaire Schmidtea mediterranea dans une autre planaire de la même espèce dont ils avaient endommagé, par irradiation ionique, toutes les cellules capables de se diviser, notamment les néoblastes. Sans l'injection du néoblaste sain, l'organisme hôte, qui n'est plus capable de se régénérer, s'atrophie et meurt au bout de quelques semaines. Mais si l'on ajoute le néoblaste, celui-ci colonise son hôte et, en sept semaines, le régénère entièrement : toutes les cellules de l'hôte sont peu à peu remplacées par des cellules différenciées issues du néoblaste injecté.

Dès la huitième semaine, l'animal recommence à se nourrir. En analysant le génotype de l'animal obtenu, les biologistes ont montré qu'il constitue un clone de la planaire donneuse. Selon les chercheurs, ce comportement inattendu de cellules souches adultes pourrait ouvrir de nouvelles perspectives en médecine régénérative en fournissant un nouveau modèle pour l'étude in vivo du comportement des cellules souches pluripotentes, aux côtés des deux modèles actuellement utilisés : les cellules souches embryonnaires et les cellules souches pluripotentes induites.

Pour La Science

ADN-ARN : une copie infidèle
Vendredi, 17/06/2011 - 08:00

Le phénomène est décrit dans tous les manuels de sciences de la vie et de la Terre, dès le lycée : l'ADN est transcrit en un ARN lui-même traduit en une protéine. La clef de voûte de cette chaîne est la fidélité. D'abord, à une séquence d'ADN (constituée des quatre nucléotides désignés par les lettres A, T, C et G) correspond une unique séquence d'ARN grâce aux règles de complémentarité (G  et C, A et U, le U remplaçant le T). Par exemple, la séquence d'ADN aatcga est transcrite en UUAGCU. Ensuite, chaque triplet de l'ARN (trois lettres consécutives, tels UUA, GCU...) détermine un acide aminé de la protéine. Le schéma s'est enrichi à mesure des découvertes, mais le principe est resté le même... pourtant, Vivian Cheung, de l'Université de Pennsylvanie, à Philadelphie, aux États-Unis, et ses collègues viennent de le remettre en cause. Ils ont montré que pour de nombreux gènes, la transcription de l'ADN en ARN n'est pas aussi fidèle qu'on le pensait.

Les biologistes ont comparé les séquences d'ADN et d'ARN correspondants dans des lymphocytes B (des globules blancs) de 27 individus, le matériau ayant été fourni par divers projets de séquençage en cours. Ils ont identifié plus de 10 000 sites où les deux molécules diffèrent, 40 pour cent environ des gènes ayant au moins une erreur de transcription. La composition des protéines fabriquées ne peut donc pas être déduite de la séquence des gènes !

Les analyses ont été répétées avec des cellules de types différents (peau, cerveau...), aussi bien d'enfants que d'adultes. Les résultats ont été les mêmes ! Le phénomène n'est donc pas propre aux lymphocytes B. Autre particularité étonnante, une différence de transcription en un site se traduit toujours par le même remplacement : ainsi, un C dans l'ARN à la place d'un A attendu sera un C quel que soit l'individu étudié. Selon V. Cheung, une telle constance trahit une sorte de code où le hasard n'a pas sa place, mais il reste à le déchiffrer. Enfin, pour la plupart des différences mises au jour, le phénomène d'édition, qui correspond à une transformation chimique d'une lettre de l'ARN transcrit en une autre (A en G et C en U) ne peut être invoqué.

Ces résultats mettent en évidence un nouveau niveau de diversité génétique. Ils obligent à s'éloigner du « tout ADN », notamment pour les projets de séquençage, et attirent l'attention sur les ARN transcrits (on parle de transcriptome). Ils dissimulent peut-être des pistes pour des découvertes importantes.

Pour La Science

Du tissu conjonctif pour produire de nouveaux neurones
Vendredi, 17/06/2011 - 07:45

Tissu de soutien relativement solide dont le rôle consiste à protéger les organes qu’il entoure, le tissu conjonctif constitue les 2/3 du volume total de l'être humain. C'est à partir de cellules spécifiques de ce dernier, les fibroblastes, que Zhiping P. Pang et ses collègues de l'Université américaine de Stanford, ont tenté de produire des neurones.

Pour cela, ils ont utilisé des fibroblastes provenant de fœtus ou de nouveaux-nés, qu'ils ont soumis in vitro à 4 facteurs de transcription différents. Ces protéines permettent de réguler l'expression de gènes spécifiques. À la fin du processus, les chercheurs ont obtenu des neurones tout à fait fonctionnels. Ces résultats encourageants démontrent la possibilité de convertir des cellules humaines non nerveuses en neurones en influant uniquement sur certains facteurs de transcription propres à déterminer la lignée cellulaire.

Information Hospitalière

Un seul gène responsable d’une panoplie de maladies
Vendredi, 17/06/2011 - 07:27

Les maladies métaboliques comme l’obésité, le diabète et le cholestérol pourraient toutes être reliées au dysfonctionnement d’un seul et même gène, le KLF14, rapporte le site internet Futura-Santé. Une étude menée par des chercheurs britanniques révèle que ce gène régule le fonctionnement de toute une famille de gènes responsables de plusieurs troubles métaboliques. Ceux-ci sont la cause de maladies dites non transmissibles, entraînant des millions de décès à travers le monde chaque année. Le gène incriminé est le KLF14, c’est-à-dire le Kruppel-like factor 14. Les scientifiques avaient déjà repéré ce gène dans les cas de diabète de type 2 et de taux élevé de cholestérol.

Pour parvenir à ces résultats, près de 20 000 gènes ont été étudiés, issus de prélèvements de graisse sous-cutanée chez plus de 800 couples de jumelles, dans le cadre d’une vaste étude génomique. Celle-ci, lancée en 2007, avait pour objectif de mieux comprendre l’influence qu’ont les gènes sur les maladies métaboliques liées à l’âge.

Les gènes peuvent en effet agir sur des éléments aussi variés que l’indice de masse corporelle d’un individu, le taux de cholestérol, le niveau d’insuline et la glycémie. Cette découverte laisse espérer que dans le futur, un seul et même traitement pourra traiter toute une panoplie de maladies reliées au système métabolique. Cette recherche a été publiée dans la revue scientifique Nature Genetics.

Canoe

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Quand l'ordiphone devient un élément clé de la voiture
Mercredi, 22/06/2011 - 01:10

Les automobilistes américains sont de plus en plus sensibles aux technologies embarquées qu'ils peuvent connecter directement à leur téléphone : une étude menée par le cabinet américain J.D. Power and Associates révèle que près de 90 % des utilisateurs de smartphones veulent pouvoir le connecter directement à leur véhicule, notamment pour passer ou recevoir des appels. Un défi pour les constructeurs qui doivent s'adapter à la législation qui interdit de plus en plus son utilisation pour téléphoner au volant, même avec un kit main libre.

Lors d'un sondage, le cabinet a donné la possibilité aux automobilistes de choisir entre 21 technologies pour leur prochain véhicule. La connexion sans fil pour accéder directement à Internet fait partie des technologies plébiscitées, tout comme la possibilité d'accéder directement à des applications installées sur le téléphone afin de démarrer la voiture ou encore de fermer les vitres ou d'ouvrir le coffre à distance. D'après l'étude, ils sont environ 50 % à être intéressés par ce type de technologie et sont prêts en moyenne à dépenser 300 dollars dans ces applications.

Il semble que les constructeurs qui donneront la possibilité à l'automobiliste de rester informé et connecté tout en étant en sécurité gagneront le pari d'aller chercher de nouveaux clients. En effet, si les instances locales et nationales de sécurité routière sont de plus en plus sévères, les automobilistes américains ont également pris conscience du danger de la route. C'est pour cette raison qu'ils placent en tête des technologies celles qui leur permettront de vérifier l'état de leur véhicule et les différents niveaux d'huile, de liquide de refroidissement...

L'Atelier

Le covoiturage en temps réel arrive en France
Mardi, 21/06/2011 - 01:30

Directeur commercial d’Avego, Jonathan Guard fait défiler les fenêtres à toute vitesse sur son iPhone. Devant ses yeux : Avego Driver. Une application qui risque de donner un sérieux coup de vieux aux actuels services de covoiturage en ligne. Sa particularité ? Les échanges entre conducteurs et passagers s’effectuent en temps réel, via smartphone. « C’est notre principal atout par rapport à la concurrence. Nous sommes, par exemple, capables d’alerter un conducteur sur les passagers qui sont à la recherche d’une voiture sur son trajet. » Mieux, les utilisateurs se retrouvent à des « arrêts » prédéfinis par l’application. Ou comment le covoiturage prend des airs de ligne de bus. « Si vous prenez une personne, vous n’avez pas envie de faire un long détour pour aller la chercher. Nous informons donc les passagers et les conducteurs des lieux où ils peuvent se retrouver. Selon nous, la facilité d’accès est cruciale ».

Communication directe entre utilisateurs via SMS, notation des conducteurs, parrainages, les différentes fonctionnalités proposées par l’application Avego Driver témoignent de cette volonté de faciliter l’usage du covoiturage. Ultime démonstration : la mise en place d’un système de micro-paiement évitant les échanges de la « main à la main » entre conducteurs et passagers. En fonction des trajets effectués, Avego Driver se charge ainsi de débiter et créditer automatiquement les comptes utilisateurs. Comptez 20 centimes d’euro par kilomètre, assurance comprise. Avego ponctionnant une royaltie sur chaque « course » réalisée.

Pour démontrer la pertinence de son application, la start-up irlandaise a lancé différents projets pilotes à travers le monde. Des expérimentations qui ciblent des territoires ou des trajets précis. En Europe, la ville norvégienne de Bergen a également lancé ce printemps une expérimentation basée sur l’application irlandaise. L’initiative associe neuf sociétés locales, soit plus de 7 000 salariés. La cité nordique précède ainsi Nice, qui hébergera prochainement le premier projet pilote d’Avego en France, via un partenariat avec le site covoiturage.com.

Cleantech Republic

Les entreprises plébiscitent le crédit d’impôt recherche
Dimanche, 19/06/2011 - 12:24

Un bilan du ministère de la Recherche, rapporté par Les Echos, note une hausse de 19 % des entreprises qui ont demandé une réduction d’impôt pour la réalisation en 2009 d’investissements en recherche et développement. Près de 16.000 entreprises ont recours à ce dispositif

Les entreprises françaises plébiscitent le crédit d’impôt recherche (CIR), selon un bilan du ministère de la Recherche publié récemment par le quotidien Les Echos. Le dispositif créé en 1983, et profondément réformé en 2008, permet aux entreprises qui investissent dans la recherche et le développement (R&D) de déduire 30 % des dépenses engagées jusqu’à 100 millions d’euros (et 5 % au-delà de ce seuil) de leur impôt sur les sociétés (IS). Le 15 avril dernier -date limite de dépôt des déclarations fiscales- 15.749 entreprises ont ainsi fait état d’investissements en R&D au titre de l’année 2009. Un chiffre en augmentation de 19 % sur un an, affirme le ministère qui se félicite que le dispositif soit désormais utilisé par la quasi-totalité des entreprises qui investissent.

D’après le rapport, 65,7 % du crédit d’impôt recherche est à destination du secteur de l’industrie manufacturière, contre seulement 1,4 % pour les entreprises de la banque et de l’assurance. Ce résultat va à l’encontre de l’idée reçue selon laquelle le CIR bénéficie en priorité aux holdings financiers, se réjouit encore le ministère de la Recherche. Autre sujet de satisfaction, 80 % des nouveaux déclarants sont des petites ou moyennes entreprises (PME). Le nombre de PME qui profitent du dispositif a ainsi doublé en deux ans, soit 9982 entreprises (71% des bénéficiaires).

Ce bilan encourageant doit néanmoins être relativisé. Si le montant des dépenses déclarées le 15 avril dernier grimpe de 9,3 % par rapport à l’année dernière, l’ensemble des investissements de R&D effectués par les entreprises françaises n’est en hausse que de 1,1 %, soit environ 1 milliard d’euros supplémentaires. Ce qui tend à démontrer que l’augmentation des dépenses déclarées tient surtout à une utilisation plus large du dispositif. La ministre de la Recherche, Valérie Pécresse, interrogée par Les Echos, se veut quant à elle encourageante et estime que l’augmentation de 1,1 % est satisfaisante, compte tenu de la crise et de la chute de 2,6 % du PIB en 2009.

La question de l’efficacité du dispositif reste cependant latente. D’autant plus que le CIR est l’une des niches fiscales les plus coûteuses pour l’Etat. D’après les rapports annuels de performance publiés à la fin du mois de mai par Bercy, le coût du crédit d’impôt recherche aurait sérieusement dérapé, à 4,5 milliards au lieu de 4 milliards d’euros prévus. Un surcoût que l’on peut interpréter soit comme le signe de la vigueur retrouvée de la recherche en entreprises, soit comme le révélateur de la trop grande générosité de la réduction d’impôt.

Objet de critiques récurrentes, le CIR a d’ailleurs été retouché lors de l’examen du budget pour 2011 à l’automne dernier. Décidé à raboter les niches fiscales, le gouvernement souhaitait cependant préserver celle-ci. Au final, les parlementaires ont réduit la majoration accordée aux entreprises qui déclarent pour la première fois : elles ne peuvent plus déduire que 40 % des dépenses de leur IS au lieu de 50 % auparavant. La liste des dépenses déductibles a aussi été modifiée. L’Assemblée nationale a depuis déposé d’autres propositions d’amendement. Valérie Pécresse met cependant en garde contre la remise en cause trop importante d’un dispositif qui, selon elle, a joué un rôle d’amortisseur de crise.

JDF

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top