RTFlash

RTFLASH Recherche & Technologie
NUMERO 745
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Avril 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Des soldats américains transformés en -Iron Man-
Matière
La Catalogne se dote de la plus grande centrale combinée solaire-biomasse au monde
Stem : du sable pour stocker de l'énergie solaire !
Terre
La concentration de CO2 dans l'atmosphère atteint son plus haut niveau depuis 800 000 ans !
Vivant
Vers un contrôle fin du génome
Un simple test sanguin pour détecter rapidement tous les cancers !
Cancer de la prostate : Un nouvel outil pour éviter le surdiagnostic
L'aspirine pourrait prévenir certains cancers du côlon…
Notre cerveau aurait-il la mémoire de notre mois de naissance ?
Des chercheurs réalisent un chromosome artificiel en laboratoire !
Pour votre cœur, mieux vaut rester zen…
Le cerveau aussi possède son thermostat !
Adapter sa consommation de protéines pour vivre plus longtemps
Un nouveau médicament contre le cancer du poumon non à petites cellules
Recherche
Lancement imminent pour la voiture électrique lyonnaise
Edito
La France de 2020 pourra-t-elle basculer dans l’économie numérique ?



Il y a quelques jours, le 25 mars dernier, le groupe du G9 a publié un livre blanc, intitulé "2020 : où vont les industries du numérique ?" Dans l’étude, de ce club de réflexion sur le numérique, qui rassemble des anciens élèves de neuf grandes écoles françaises dans les domaines de l’informatique, des télécoms et du multimédia, expose sa vision prospective concernant l’impact des technologies numériques sur notre économie et notre industrie à l’horizon 2020 (voir Livre blanc).

Selon cette étude, l'économie numérique dans son ensemble représenterait alors environ 5 % de notre PIB, soit un peu plus de 100 milliards d'euros et 800.000 emplois. Il est intéressant de souligner que ce travail confirme l’analyse d’un autre rapport très complet réalisé par le cabinet McKinsey en mars 2011. Intitulée « l’impact de l’Internet sur l’économie française » (voir Rapport), cette étude montrait que l’Internet était bien devenu l’un des moteurs de notre économie avec une contribution au PIB qui avait été estimée alors à 60 milliards d’euros, soit 3,2 % du PIB français de 2009. À l’époque, cette étude prévoyait, de manière un peu optimiste, que la contribution du numérique et de l’Internet à notre économie pourrait atteindre 160 milliards d’euros d’ici 2015. Il reste qu’en moins de trois ans la part du numérique dans notre économie a augmenté de 40 % en valeur absolue…

Notre Pays, après avoir été longtemps à la traîne en matière d’accès au téléphone puis à l’Internet semble enfin rattraper son retard sur ses principaux voisins, si l’on en croit les derniers chiffres publiés par l’Insee qui montrent que, fin 2013, 76 % des foyers français étaient connectés à l’Internet, contre seulement 52 % en 2008, soit un rythme de progression des abonnés de l’ordre de 5 % par an…

S’agissant des équipements informatiques et numériques, les Français continuent également à s’équiper puisqu’on estime qu’un ménage sur six a fait l’acquisition d’un ordinateur ou d’une tablette depuis un an. Fin 2013, près de 80 % des foyers (21,4 millions), possédaient un ordinateur, un tiers des foyers possédait même deux ordinateurs et un cinquième utilisait en plus une tablette ! Cette dernière connaît d’ailleurs un succès fulgurant et devrait être présente d’ici trois ans dans 80 % des foyers français.

Mais en dépit de cette déferlante numérique, ce rapport se montre plutôt réservé sur l’avenir et pointe du doigt certains blocages majeurs propres à notre Pays qui pourraient bien ralentir de manière très dommageable cette révolution numérique annoncée.

L'étude du G9 met notamment en avant les risques liés à la concurrence mondiale qui s’organise autour de quelques géants, comme Google, Microsoft, Amazon, Apple, IBM ou Sony. Face à ce paysage numérique mondial constitué de « poids-lourds », la France occupe une place tout à fait moyenne, pour ne pas dire médiocre, dans le classement international des économies numériques. Selon le World Economic forum, notre Pays est en effet passé de la 18e à la 28e place depuis 2009 et le classement du Boston Consulting Group, publié en début d’année, n’est guère plus flatteur puisque la France n’arrive qu’en 19e position au niveau mondial et en 10e position au niveau européen…

Enfin l’analyse du G9 souligne l’insuffisance criante des grands groupes français dans le domaine numérique informatique, à l’exception notable de Dassault Systèmes, Atos et Cap Gemini. Quant aux opérateurs de télécommunications, l’étude du G9 rappelle que, compte tenu de l’évolution technologique et des solutions d’accès multimédia aux contenus numériques que proposent à présent les géants du numérique, ils risquent de devenir de simples fournisseurs de tuyaux s’ils ne sont pas capables de produire et de proposer très rapidement de nouveaux services et de nouveaux contenus à leurs clients.

Dernier exemple en date de cette révolution de l’accès multimédia universel, Google a lancé il y a quelques semaines « Chromcast », une passerelle physique qui ressemble à une grosse clé USB et qui permet à n’importe quel utilisateur disposant d’un téléviseur récent, de récupérer, via le port HDMI, l’ensemble de ses contenus numériques, photos et vidéos, qu’ils proviennent de son ordinateur, de sa tablette ou de son Smartphone !

Immédiatement Amazon a réagi et a présenté mercredi dernier son boîtier, baptisé Amazon Fire TV. Ce dernier se branche, via une connexion Wifi, sur le téléviseur et permet à la fois de regarder des films et d’avoir accès à une multitude de contenus et jeux vidéo. Pour simplifier la vie de l’utilisateur, une télécommande intégrant la reconnaissance vocale est même prévue …

Ce rapport du G9 souligne de manière fort pertinente l’importance de trois secteurs clés tout à fait stratégiques, les données massives (un secteur que j’ai récemment évoqué dans un éditorial), l’Internet des objets et les logiciels de services.

Cette étude propose également  onze recommandations parmi lesquelles on trouve quelques propositions très intéressantes comme « mettre fin à l’incohérence des politiques publiques », « renforcer le cadre de protection des données », « renforcer la neutralité du Net »,  « développer les usages liés aux objets intelligents connectés », « favoriser l’émergence d’acteurs puissants du logiciel » et enfin développer la mutualisation des réseaux haut débit fixe et mobile ».

Comme le montrent ces différentes études et analyses, il est clair que notre Pays, après avoir rattrapé son retard en termes d’infrastructures physiques et d’équipements, n’a pas encore mesuré l’effort considérable qu’il doit accomplir pour concevoir et commercialiser la multitude de nouveaux services innovants qui constitueront la clé de l’économie numérique de demain et qui seront au cœur de la création de valeur ajoutée et d’emplois nouveaux.

Il faut en effet bien comprendre que dans une économie dématérialisée cognitive où les principaux acteurs et pays disposent sensiblement du même niveau technologique et des mêmes infrastructures et équipements, la différence de compétitivité se fait essentiellement sur l’aptitude à proposer de nouveaux services pratiquement en temps réel et parfaitement adaptés aux besoins des clients, qu’il s’agisse d’entreprises ou de particuliers.

À cet égard, le commerce électronique et la banque constituent un exemple très intéressant. Le marché français du commerce électronique a certes augmenté de 37 % depuis 2008 mais avec 53 milliards d’euros en 2012, selon l’Insee (45 milliards selon la FEVAD), il ne représente encore qu’1,5 % du chiffre d’affaires total de la vente de biens et services réalisés en France.

Mais cette forte progression en pourcentage - de l’ordre de 13 % par an  - ne doit pas cacher les effets très importants de la crise mondiale et de la stagnation du pouvoir d’achat puisqu’on estime que la dépense moyenne annuelle de l'acheteur en ligne français a stagné en 2013 autour de 1 340 €, ce qui n’est pas étonnant quand on sait que la consommation globale des Français a régressé de 2,9 % en 2012 selon la Banque de France.

Ces chiffres montrent que le potentiel de développement du commerce électronique reste absolument considérable en France, à condition toutefois de faire les bons choix technologiques et de proposer des services plus attractifs aux consommateurs et aux clients.

A cet égard, il est intéressant de souligner que le chiffre d’affaires réalisé sur l’Internet mobile au dernier trimestre 2012 a été 2,6 fois supérieur à celui du dernier trimestre 2011. Globalement, les ventes via l’Internet mobile ont dépassé le milliard d’euros en 2012, contre seulement 400 millions en 2011 et représentent à présent plus de 2 % du chiffre d’affaires des ventes en ligne.

Il est donc clair que le basculement de notre Pays dans l’économie numérique doit passer par une dématérialisation beaucoup plus rapide du commerce et des services  mais également des transactions financières et de la monnaie. Les établissements bancaires ont certes commencé leur mutation dans ce sens mais la révolution de l’argent électronique reste à venir.

À présent, les consommateurs souhaitent pouvoir réaliser achats et règlements par voie électronique en toute circonstance et de manière parfaitement sécurisée et même si les banques virtuelles, uniquement présentes sur le net, restent marginales, on voit déjà que dans certains pays d’Europe du Nord, la plupart des consommateurs gèrent de manière totalement dématérialisée leur compte en banque et leurs relations avec leur banquier, utilisant notamment de manière courante leur smartphone ou tablette pour communiquer avec leur banque ou réaliser leurs achats.

Cette évolution n’a pas échappé aux grandes banques françaises et BNP Paribas a lancé il y a un an une banque digitale, baptisé Hello bank et spécialement conçue pour être utilisée à partir de terminaux numériques. Les agences bancaires ne sont pas pour autant condamnées à disparaître mais devront fondamentalement changer de fonctions et proposer de nouveaux services innovants susceptibles d’attirer de nouveaux clients et de répondre à leurs attentes par des conseils personnalisés.

On comprend mieux la révolution qui se prépare en matière de dématérialisation du commerce et de la monnaie quand on sait que, selon l'organisme Visa, plus de 50 % des paiements réalisés en Europe s'effectueront à partir de terminaux mobiles à l’horizon 2020 contre moins de 3 % aujourd’hui. Il est vrai que les banques jouent leur avenir dans cette mutation car elles doivent non seulement répondre aux demandes innovantes de leurs clients mais également faire face à de nouveaux concurrents proposant aux consommateurs des bouquets de services financiers et bancaires attractifs.

Les acteurs qui sortiront vainqueurs de cette mutation historique dans l’économie numérique seront ceux qui sauront proposer au meilleur coût les meilleurs bouquets de services numériques. Signe des temps, face à ce grand bouleversement numérique, une autre grande banque, la Société générale, vient de créer, en association avec l'Ecole centrale Paris, l'Institut de l'« open innovation », un laboratoire de recherches technologiques destinées à préparer ces services bancaires du futur.

Il faut également souligner que depuis un an la dématérialisation de la monnaie et des moyens de règlement électronique s’accélère : après Paylib lancé par la BNP, la Société générale et la Banque postale, Visa a présenté récemment son système baptisé V.me by qui a déjà été adopté par plusieurs grandes banques françaises. Cette solution, qui  devrait faciliter les achats par carte bancaire sur les sites de vente en ligne, peut être utilisée depuis un PC connecté, un Smartphone ou tablette.

Avec ce système, il suffit à l’utilisateur de créer son identifiant et son mot de passe et de choisir la carte bancaire qu’il souhaite utiliser pour régler ses achats en ligne. Le client n’a plus alors qu’à entrer ses identifiants et n’est pas obligé de saisir les coordonnées de sa carte bancaire, ce qui représente une grande avancée en matière de simplicité et de sécurité. Pour ne pas être en reste, Mastercard a également annoncé  le déploiement de son portefeuille électronique MasterPass, une solution qui permet également au client de régler de manière sécurisée, à partir de son ordinateur ou de son Smartphone, l’ensemble de ses achats en ligne.

BNP Paribas, acteur majeur de l’innovation sur les usages de paiement, vient de lancer pour sa part la nouvelle version de son application mobile KIX. Il s’agit de la première application de paiement mobile sans contact commercialisée dans toute la France et disponible sur les mobiles Android et Windows Phone 8 pour les clients de cette banque.

L’application KIX, qui offre le même niveau de sécurisation que celui proposé par les cartes bancaires, permet de régler ses achats avec son téléphone mobile chez les commerçants acceptant les paiements sans contact. Cette application est déjà compatible avec la plupart des nouveaux modèles de smartphone tournant sous Android mais également sous Windows Phone 8.

Cette mutation des banques à marche forcée vers la dématérialisation est d’autant plus vitale que ces établissements pourraient perdre jusqu’à 10 % de leurs revenus directs du fait de l’arrivée de nouveaux concurrents comme PayPal ou Google (Wallet) sur le marché du paiement mobile qui devrait atteindre plus de 500 milliards d’euros à l’horizon 2020.

Mais les innovations en matière d’achat et de paiement devront d’abord simplifier la vie quotidienne des clients et consommateurs pour être adoptées massivement. Exemple de ce nouveau type de service, VINCI Park et la Ville de Clichy proposent un nouveau service de paiement du stationnement par mobile qui permet aux automobilistes de régler à distance le montant de leur stationnement et de ne payer que la durée de stationnement réellement consommée. En outre, ce système informe directement sur leur mobile les automobilistes du nombre et de la localisation des places disponibles.

Ce nouvel outil, qui équipe déjà 50 000 places de stationnement en région parisienne, est non seulement plus souple et plus fiable mais, de plus, il simplifie vraiment la vie des résidents qui ne sont plus obligés de renouveler chaque mois leur titre auprès du bureau de stationnement municipal. Cette solution de règlement électronique pourrait être étendue à l’ensemble de la Ville de Paris et permettrait une gestion bien plus efficace des 155 000 places de stationnement disponibles sur la voirie parisienne.

Autre exemple paradoxal du retard français : la publication, le 7 mars dernier, au Journal officiel du décret dématérialisant les titres-repas. La France est en effet l’un des derniers grands pays du monde à passer au paiement électronique pour ces chèques-déjeuner alors qu'elle avait été pionnière en 1967, avec le lancement du Ticket Restaurant, créé par Jacques Borel. S’il a fallu deux ans pour pouvoir publier ce décret définitif, c’est à cause des divergences de fond qui opposaient les différents acteurs économiques et financiers présents sur ce marché très lucratif de près de 6 milliards d’euros.

Dans le domaine des transports, il est heureusement possible depuis un an d’acheter de manière totalement dématérialisée son billet au pied du train. Il suffit alors de présenter le code QR de ce titre de transport à l'agent de la SNCF pour que celui-ci valide votre billet électronique.

Au niveau mondial, les revenus générés par le « M-commerce » devraient atteindre les 33 milliards d’euros d’ici à 2016, contre 6 milliards d’euros en 2011, selon une étude réalisée par ABI Research, et il serait dommage que la France qui a inventé, grâce à Roland Moreno, la carte à puce en 1974 passe à côté de cette révolution économique et technologique que représente le commerce mobile.

Il reste que la plupart des petits achats de la vie quotidienne continuent à être réglés en argent liquide et que, depuis l’échec de l’expérience du porte-monnaie électronique MONEO, aucun autre système n’a pris le relais pour permettre aux consommateurs de régler de manière électronique l’ensemble des petites transactions n’entrant pas dans le champ des règlements par chèque ou carte bancaire.

Il est pour le moins dommage et paradoxal, à l’heure où les technologies numériques s’imposent partout, que commerçants et consommateurs soient encore obligés d’utiliser l’argent liquide, facteur de risques et de lourdeur de gestion, dans de nombreuses transactions commerciales.

Si notre Pays parvenait à devenir le premier au monde à dématérialiser complètement la monnaie et à permettre n’importe quel achat de n’importe quel produit ou service à partir d’un simple terminal numérique, nous prendrions la première place dans cette nouvelle économie dématérialisée et personnalisée qui est en train de naître. Pourquoi ne pas nous fixer cet objectif ambitieux et relever ensemble ce défi de société ?

 René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Des soldats américains transformés en -Iron Man-
Mardi, 01/04/2014 - 11:00

Le commandant des forces spéciales américaines, l'amiral William McRaven, vient d'annoncer que les premiers prototypes de la nouvelle armure de combat high-tech Talos, surnommée "Iron Man", seront présentés au public cet été.

Ce projet, qui vise à utiliser les technologies modernes pour réduire au minimum les pertes sur  le champ de bataille, s'appuie sur une armure futuriste Talos (Tactical Assault Light Operator Suit), dont le nom est inspiré d'un personnage de la mythologie grecque, mais que l'armée américaine surnomme "Iron Man" en référence au héros de bande dessinée de Marvel Comics.

Ce projet unique au monde rassemble 56 entreprises, 16 agences gouvernementales, 13 universités et 10 laboratoires nationaux, dont  le MIT (Massachusetts Institute of Technology). La protection pare-balles sera basée sur des fluides magnéto-rhéologiques qui sont capables de passer de l'état liquide à l'état solide en quelques millisecondes. Cette armure, qui pourrait intègrer un exosquelette capable de démultiplier la force des combattants, sera également connectée et permettra aux soldats de rester en contact avec le commandement en permanence.

Article rédigé par Georges Simmonds pour RT Flash

Stripes

USDD

^ Haut
Matière
Matière et Energie
La Catalogne se dote de la plus grande centrale combinée solaire-biomasse au monde
Mercredi, 02/04/2014 - 14:17

La première centrale du monde associant l'énergie thermosolaire à la biomasse a été mise en service à Les Borges Blanques, dans la province catalane de Lleida. Cette installation s'étale sur 96 hectares et fournit de l'énergie à 27.000 foyers, grâce à 2688 miroirs paraboliques de 12 mètres de diamètre, qui suivent automatiquement la course solaire.

Lorsqu'elle atteint 393°C, l'huile synthétique logée sous les capteurs produit de la vapeur à haute pression qui produit de l'électricité via une turbine. La nuit, ou par temps couvert, cette installation unique en son genre utilise également de la biomasse (bois) pour assurer la continuité de la production électrique.

Cette centrale, d'une puissance de 25 MW, peut satisfaire la consommation électrique de 27 000 foyers et évite l'émission de 24.500 tonnes de dioxyde de carbone, équivalant à la pollution produite par 100.000 véhicules.

Cette centrale dispose d'une équipe de 40 techniciens à laquelle s'ajoutent 50 autres personnes chargées du prélèvement et du transport des ressources de biomasse, disponibles dans les forêts, à 80 km du site.

Article rédigé par Georges Simmonds pour RT Flash

MAN Diesel & Turbo

Stem : du sable pour stocker de l'énergie solaire !
Mardi, 01/04/2014 - 11:05

Dans le cadre de son projet de cogénération d'électricité et d'énergie thermique à partir d'une source solaire thermique à concentration, le groupe Magaldi a testé avec succès pendant 2000 heures les propriétés du sable pour accumuler la chaleur dans son usine de Salerne.

La technologie retenue est celle dite "à tour" ; elle repose sur un champ de miroirs héliostats qui suivent la trajectoire du soleil pendant la journée. Cette technique permet d'atteindre des températures élevées grâce à la concentration du rayonnement solaire.

Ce prototype utilise des lits fluidisés composés de sable maintenu en suspension avec de l'air. Ce système permet de stocker de manière très efficace l'énergie solaire, y compris en l'absence de soleil pendant 5 à 6 heures. L'énergie captée est transférée à un générateur de vapeur qui la transforme en courant électrique.

Avantage de cette solution de stockage : le sable est partout, il ne se dégrade pas et ne perd jamais ses caractéristiques car il ne fond qu' à 1600 degrés. Autre point fort : le sable est inerte, non polluant et recyclable en fin de vie. Le premier modèle industriel en phase de réalisation dans l'usine de Buccino est capable de produire 500 kilowatts.

Article rédigé par Georges Simmonds pour RT Flash

Wired

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La concentration de CO2 dans l'atmosphère atteint son plus haut niveau depuis 800 000 ans !
Jeudi, 03/04/2014 - 13:51

Pour la première fois, le cap symbolique des 400 ppm (part par million) de gaz carbonique dans l'atmosphère a été franchi il y a quelques semaines. Il s'agit du plus haut niveau de CO2 depuis 800 000 ans.

Comme le souligne Jean-Pascal van Ypersele, professeur en climatologie à l'UCL et membre du GIEC, "Nous avons pu remonter à 800 000 ans grâce à l'analyse de bulles d'air dans la glace de l'Antarctique et nous devons nous rappeler que la dernière fois que le taux de gaz carbonique dans l’atmosphère a dépassé les 400 ppm, c'était il y a 2 à 3 millions d'années. A l'époque, la température de la Terre était d'un à deux degrés plus chaude qu'aujourd'hui. Si ce scénario se répète, la glace au Groenland devrait fondre en 500 à 1000 ans, ce qui ferait monter le niveau des eaux d'environ six mètres".

Selon Jean-Pascal Van Ypersele, ce niveau de concentration de CO2 dans l'atmosphère est équivalent à une canette de gaz carbonique par m³ d'air.

Article rédigé par Georges Simmonds pour RT Flash

UCL

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vers un contrôle fin du génome
Jeudi, 03/04/2014 - 14:00

Une étude réalisée chez le macaque a permis la naissance de singes génétiquement modifiés grâce à l'utilisation d'une nouvelle méthode qui permet de modifier très précisément des gènes.

Mise au point par des chercheurs chinois, cette technique a permis d'inactiver précisément deux gènes chez le macaque et de produire une vingtaine de singes ayant ces deux modifications. Comme le souligne Guillaume Pavlovic, responsable à l'Institut clinique de la souris, "Avec cette nouvelle technique, le génome d'un primate a pour la première fois pu être modifié de manière contrôlée".

Jusqu'à présent, pour modifier de manière précise l'ADN d'une cellule, les scientifiques devaient recourir à des outils lourds et complexes. Mais cette nouvelle technique, appelée Crispr/Cas9, permet de corriger dans le génome les cellules directement responsables d'une maladie. Cette technique ne nécessiterait aucun vecteur viral et le risque d'effet incontrôlé sur le génome serait très faible.

Cette avancée a été possible grâce à la découverte en 2007 d'une nouvelle enzyme bactérienne, appelée Cas9. En 2012, une équipe internationale a montré que cette enzyme pouvait être utilisée de manière à couper de manière très précise une séquence d'ADN.

En outre, cette nouvelle méthode rend également possible des modifications simultanées de l'ADN à partir de l'utilisation simultanée de plusieurs ARN guides. Concrètement, cela signifie qu'il devient envisageable d'étudier et de corriger in vitro plusieurs anomalies génétiques dans des cellules souches. A terme, cette technique devrait permettra de produire des animaux ou des végétaux génétiquement modifiés de manière plus sûre et plus rapide.

Article rédigé par Georges Simmonds pour RT Flash

Science Direct

Un simple test sanguin pour détecter rapidement tous les cancers !
Jeudi, 03/04/2014 - 13:46

Des chercheurs de l'Institut de Recherche en Cancérologie de Montpellier (INSERM), dirigés par Alain Thierry, ont mis au point un test sanguin, baptisé Intplex, qui identifie des mutations sur les cellules tumorales grâce à l'analyse de l'ADN circulant dans le sang.

Ce nouveau test, qui a fait l'objet d'une publication dans la prestigieuse revue Nature Medicine du 23 mars, qualifié "d'avancée révolutionnaire", pourrait permettre de détecter un cancer chez un patient à l'aide d'une simple prise de sang.

Ce test est non seulement bien plus rapide et moins onéreux que les méthodes actuelles mais il pourrait permettre en outre de remplacer la biopsie du tissu métastatique et de détecter les mutations qui émergent au cours des traitements ciblés et qui sont responsables de la résistance aux traitements.

La méthode a été validée par une étude des mutations des gènes KRAS et BRAF sur 106 personnes atteintes de cancers colorectaux métastatiques, mais cette technique peut être étendue à tous les cancers.

Comme le souligne Alain Thierry : "Auparavant, on testait les mutations en intervenant directement sur le tissu de la tumeur mais ce processus était long, entre 10 et 20 jours, et très coûteux. Pour la mise en place de notre nouvelle méthode, nous nous sommes basés sur le fait que les cellules de la tumeur libèrent de l'ADN dans la circulation sanguine. Ainsi, une prise de sang suffit, et le résultat est connu en deux jours".

Article rédigé par Georges Simmonds pour RT Flash

IRCM

Nature

NCBI

Cancer de la prostate : Un nouvel outil pour éviter le surdiagnostic
Mercredi, 02/04/2014 - 14:25

Des chercheurs américains du Centre Fred Hutchinson de Seattle, dirigés par Roman Gulati, ont mis au point un nomogramme qui intègre des facteurs tels que l'âge, le dosage du PSA et le score de Gleason (qui mesure l'agressivité des cellules cancéreuses) et devrait permettre de limiter considérablement les risques de surdiagnostic résultant d'un dépistage systématique du cancer de la prostate.

Le surdiagnostic consiste à dépister un cancer qui n'aurait pas ou peu évolué avant le décès du patient. Le problème est que la probabilité de surdiagnostic varie de 2,9 % à 88,1 % selon les différents paramètres considérés.

Ce surdiagnostic conduit à traiter des hommes en bonne santé et à les soumettre à des examens diagnostiques invasifs (biopsies de la prostate) et à des traitements lourds - chirurgie, radiothérapie - et parfois invalidants.

Depuis plusieurs années, il existe un vif débat au sein de la communauté scientifique sur la pertinence du dépistage précoce du cancer de la prostate. Dans ses recommandations de mai 2013, la Haute autorité de santé (HAS) s’était prononcée contre la mise en place du dépistage organisé en raison notamment de la performance "médiocre" du toucher rectal et du dosage du PSA.

Mais ce nouvel outil pourrait changer la donne en permettant de prendre en compte les caractéristiques individuelles du patient au moment du diagnostic et de mieux évaluer, pour chaque patient, la probabilité qu’une tumeur évolue de façon agressive ou non, ce qui permettrait de choisir la meilleure option thérapeutique.

Article rédigé par Georges Simmonds pour RT Flash

JNCI

L'aspirine pourrait prévenir certains cancers du côlon…
Mercredi, 02/04/2014 - 14:09

Une étude néerlandaise dirigée par Gerrit Jan Liefers, du Centre médical universitaire de Leiden, aux Pays-Bas, a montré que la prise régulière d'aspirine pouvait permettre de prévenir certains types de cancers du côlon.

Les chercheurs ont examiné 999 patients souffrant d’un cancer du côlon pendant 4 à 10 ans. Ils ont constaté que 37,9 % de ceux qui ont pris régulièrement de l'aspirine sont morts pendant la période d'analyse, contre 48,5 % de ceux qui n'en prenaient pas. Les patients prenant de l'aspirine après le diagnostic de cancer du côlon ont un gain de survie globale, par rapport aux non utilisateurs, de l'ordre de 53 % !

Cet effet protecteur de l'aspirine n'est pas encore complétement compris mais il est sans doute lié à la capacité de ce médicament de bloquer les enzymes COX, des protéines qui contribuent à l'inflammation. Toutefois, l'effet protecteur de l'aspirine n'a été observé que chez les patients dont les tumeurs étaient associées à la fabrication d'une certaine protéine dite "HLA de classe 1 antigène".

"Si nos résultats sont confirmés par d'autres études, nous pourrions avoir un nouveau traitement anti cancer valide, à la fois sûr et pas cher" souligne Gerrit Jan Liefers, auteur de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Daily Mail

Eurekalert

Notre cerveau aurait-il la mémoire de notre mois de naissance ?
Mardi, 01/04/2014 - 11:10

Selon une surprenante étude réalisée par Spiro Pantazatos (université Columbia à New York), réalisée sur 536 adultes britanniques, il existerait des corrélations entre la saison pendant laquelle les humains viennent au monde et la prévalence de certains troubles neuro-comportementaux comme la schizophrénie, le trouble bipolaire ou les tendances suicidaires.

Il y a par exemple un léger excès de schizophrènes chez les personnes nées au printemps. Pour expliquer ces associations, plusieurs hypothèses ont été avancées qui impliquent notamment la température ambiante, les infections saisonnières, l'alimentation différente suivant l'époque de l'année et, bien entendu, la durée plus ou moins longue du jour et de l'exposition à la lumière naturelle. Ces différents facteurs seraient capables de laisser une "empreinte" de la période de naissance dans le cerveau.

Dans ces recherches, le cerveau de chacun des 536 sujets a été virtuellement découpé en une multitude de pixels en trois dimensions et les chercheurs ont ainsi pu comparer la répartition de la matière grise dans les grandes régions du cerveau, en tenant compte de l'âge des personnes et de leur volume intracrânien.

Les résultats montrent que, chez les hommes, le gyrus temporal supérieur gauche est en moyenne plus volumineux chez les individus nés en automne et au début de l'hiver que chez ceux nés au printemps ou au début de l'été.

Cette étude montre que la saison de naissance peut donc bien laisser une empreinte sur le cerveau. Pour expliquer ce phénomène, les chercheurs font l'hypothèse que l'environnement extérieur interagit avec les gènes du développement, peut-être via l'influence de la lumière sur les gènes de l'horloge circadienne avant et après la naissance. C'est cette interaction qui provoquerait des modifications repérables de la structure du cerveau.

Article rédigé par Georges Simmonds pour RT Flash

Science Direct

Des chercheurs réalisent un chromosome artificiel en laboratoire !
Lundi, 31/03/2014 - 10:20

A l'issue de sept années de recherche, une équipe internationale a réussi à produire, dans le cadre du projet SC2.O, un chromosome artificiel fonctionnel de la levure. Il s'agit d'une avancée majeure en biologie synthétique car, jusqu'à présent, les scientifiques ne savaient reproduire que des chromosomes de bactéries, bien plus simples. le patrimoine génétique de la levure de boulanger est autrement plus complexe et regroupe 12 156 677 paires de bases réparties sur  6 275 gènes et 16 chromosomes.

Pour fabriquer ce génome, les chercheurs ont dû attacher 273 871 paires de base d'ADN de levure, un nombre inférieur aux 316 667 paires de base que compte le chromosome naturel. Les scientifiques ont en effet modifié la base génétique de ce chromosome en en retirant certaines séquences redondantes qui ne sont pas nécessaires à sa reproduction. "Notre recherche a fait passer la biologie synthétique de la théorie à la réalité", a déclaré Jef Boeke, chercheur à l'Université de New York, qui a dirigé ce projet de recherche.

Une fois synthétisé, ce chromosome a été ensuite inséré dans des cellules vivantes de levure de bière et celles-ci ont fonctionné normalement mais ont manifesté de nouvelles propriétés qui n'existent pas dans la levure naturelle. Comme le précise le Professeur Boeke, "Nous avons procédé à plus de 50 000 changements dans le code ADN du chromosome et notre levure est toujours vivante, ce qui est remarquable."

Grâce à la maîtrise de cette technique de reconstruction synthétique des chromosomes, ces scientifiques vont pouvoir modifier bien plus efficacement le génome de la levure pour lui donner certaines propriétés et lui permettre, par exemple, de produire certains médicaments ou vaccins mais également de nouveaux types de biocarburants.

Il existe cependant d'autre voies en cours d'exploration qui permettent  également à la levure de produire des molécules présentant un intérêt thérapeutique ou industriel.  Une équipe française (INRA-AgroParisTech-Iterg) a notamment annoncé la semaine dernière qu'elle avait réussi à faire produire des lipides par une levure en ajoutant à cette dernière un gène provenant d'une plante.

Article rédigé par Georges Simmonds pour RT Flash

Science

PLOS One

Pour votre cœur, mieux vaut rester zen…
Lundi, 31/03/2014 - 10:10

Des chercheurs de Harvard, sous la direction du Professeur Elizabeth Mostofsky, ont réalisé une vaste méta analyse portant sur les liens entre les accès de colère et la survenue d'événements cardiovasculaires depuis 1966.

Conclusions de ce travail : toutes les études prouvent que par comparaison à d'autres moments, il y a un plus haut risque d'accident cardiovasculaire dans les deux heures qui suivent une explosion de colère. Selon cette étude, le risque d'infarctus du myocarde serait multiplié par cinq et celui d'AVC par trois…

Ce travail montre par ailleurs que l'augmentation du risque cardio-vasculaire dépend également de l'association des différents facteurs de risque connus. Par exemple, un sujet en bonne santé qui ne fume pas et n'a ni hypertension, ni cholestérol, n'augmente presque pas son risque de faire un accident cardiovasculaire en cas de colère.

En revanche, lorsque le sujet est "à risque" cardiovasculaire, l'étude a montré que les accès de colère fréquents, au moins cinq par jour, conduisaient à 657 accidents cardiaques supplémentaires par an pour un groupe de 10.000 patients considérés à risque cardiovasculaire élevé.

Comme il est difficile de changer son caractère et de ne jamais se mettre en colère, les chercheurs préconisent d'agir sur les autres facteurs de risque : surpoids, hypertension artérielle, hypercholestérolémie, diabète et bien entendu tabac.

Article rédigé par Georges Simmonds pour RT Flash

European Heart Journal

Le cerveau aussi possède son thermostat !
Lundi, 31/03/2014 - 10:00

Une équipe de neuroscientifiques de la Faculté de médecine de l'Université de Genève (UNIGE), dirigée par le professeur Denis Jabaudon, vient de démontrer que c'est l'activité cérébrale, elle-même, qui contrôle la composition des circuits cérébraux.

En observant le système visuel de souris nouveau-nées, les chercheurs du Département de neurosciences fondamentales de la faculté de médecine de l'UNIGE ont étudié comment l'activité rétinienne influence la construction des circuits neuronaux pour permettre au cerveau de conserver une excitabilité équilibrée. Ces chercheurs ont pu montrer qu'au cours de la première semaine de vie, l'activité visuelle des souris contrôle la migration des neurones inhibiteurs et oriente également la composition cellulaire des circuits cérébraux. Il semblerait donc que le cerveau possède un mécanisme de régulation évolutionnaire, qui permet à l'activité neuronale de s'autoréguler lors de la création de nouveaux circuits neuronaux.

Ces recherches montrent que la composition cellulaire des circuits cérébraux est plus plastique qu'on ne le pensait et que cette composition est déterminée par l'activité neuronale puisque c'est bien cette dernière qui déclenche la mobilisation des neurones inhibiteurs, sans lesquels le système tend vers l'instabilité. Reste à savoir s'il est possible de prolonger cette période de plasticité au-delà des premières semaines de vie.

Article rédigé par Georges Simmonds pour RT Flash

Neuron

Adapter sa consommation de protéines pour vivre plus longtemps
Vendredi, 28/03/2014 - 15:15

Selon une étude réalise par des chercheurs américains de l'Université de Californie du Sud, dirigés par Valter Longo et Eileen Crimmins, une alimentation trop riche en protéines et notamment en protéines animales avant 65 ans augmenterait sensiblement le risque de cancer et de décès précoce.

Ces travaux ont permis d'analyser les données concernant 6 381 personnes de plus de 50 ans suivies pendant près de 20 ans. Les participants consommaient en moyenne 1823 calories par jour, dont 51 % provenaient de glucides, 33 % de matières grasses et 16 % de protéines, dont les deux tiers étaient des protéines animales. Trois groupes ont été constitués : le groupe "riche" en protéines (20 % ou plus de leurs calories provenant des protéines), le groupe "modéré" (de 10 à 19 % de leurs calories provenant des protéines), et enfin, le groupe "faible" en protéines, avec moins de 10 % de calories provenant des protéines.

Résultats : les participants ayant une consommation élevée de protéines (20 % ou plus de l'apport total en calories) avaient un risque de cancer 4 fois plus élevé que ceux qui en consommaient faiblement (moins de 10 % de l'apport en calories). Ceux qui avaient une consommation modérée (10 % à 19 %), avaient un risque 3 fois plus élevé.

Les personnes du premier groupe présentaient également un risque global de décès accru de 74 % par rapport à celle du groupe "faible" en protéines. L'étude montre que le simple passage du groupe "modéré" au groupe "faible" permet de réduire le risque de décès précoce de 21 %.

Pour expliquer ces résultats, les chercheurs soulignent que les protéines contrôlent le facteur de croissance analogue à l'insuline (IGF-I) qui est une hormone de croissance aidant le corps à grandir mais étant aussi liée à la susceptibilité au cancer, expliquent les chercheurs.

Selon cette étude, les protéines contrôlent le facteur de croissance analogue à l'insuline (IGF-I) qui est une hormone de croissance impliquée dans le risque de cancer. Néanmoins, ces scientifiques précisent que les niveaux d'IGF-I diminuent de manière importante après 65 ans, ce qui entraîne une fonte musculaire et que, si un apport élevé de protéines à l'âge moyen n'est pas recommandé, il devient souhaitable pour les personnes âgées. Ces résultats confirment les recommandations des autorités de santé américaines qui préconisent de consommer 0.8g de protéine par Kg de poids corporel, soit 45 à 50 grammes par jour de protéines, pour une personne pesant 60 Kg.

Article rédigé par Georges Simmonds pour RT Flash

Cell Metabolism

Un nouveau médicament contre le cancer du poumon non à petites cellules
Vendredi, 28/03/2014 - 14:57

Novartis vient d'indiquer qu'il avait obtenu de nouveaux résultats positifs à l'issue des essais cliniques pour sa molécule LDK378 contre le cancer du poumon non à petite cellules (NSCLC). L'étude, menée auprès de 114 patients, a montré que 58 % d'entre eux réagissaient au médicament, avec une durée de survie de sept mois sans progression de la maladie.

Les résultats de cette étude de phase I ont été publiés le 27 mars 2014 dans le "New England Journal of Medicine". La FDA a attribué l'an dernier à cette molécule le statut de thérapie innovante. Actuellement, des tests cliniques sont menés dans plus de 30 pays pour évaluer la molécule LKD378. Deux études de phase II sont en cours et des patients sont actuellement recrutés pour deux études de phase III, précise Novartis.

Cette molécule aurait un effet thérapeutique supérieur au seul autre inhibiteur disponible sur le marché de la mutation ALK, le Xalkori de Pfizer. En raison du statut de thérapie innovante, Novartis n'a pas besoin d'attendre les résultats des études cliniques en cours de phase II et III pour soumettre une demande d'autorisation de mise sur le marché qui devrait intervenir d'ici la fin de l'année.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Pipeline Review

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Lancement imminent pour la voiture électrique lyonnaise
Vendredi, 28/03/2014 - 15:04

A l'issue de 7 ans de développement et de coopération technologique avec le CEA Liten, l’Ifsttar et l’École Centrale de Lyon, la société lyonnaise Courb, installée à Saint-Priest et dirigée par Hervé Arnaud, va commencer à commercialiser sa voiture électrique C-Zen destinée aux professionnels.

Animée par un moteur électrique asynchrone de 15 kW et alimentée par une batterie lithium-ion de 12,4 kWh, la C-Zen revendique une vitesse de pointe de 110 km/h et une autonomie de l’ordre de 120 km.  « C’est la voiture la plus légère du marché avec un poids de 700 kg batteries comprises » souligne Stephane Dugas.

La C-Zen est équipée de batteries chinoises  intégrées sous le plancher et fournies par la société américaine Valence Technology mais Hervé Arnaud assure que 80 % des pièces de la C-Zen, représentant les deux tiers de son prix de revient, sont d’origine française. D’ici fin 2014, ce sont près de 100 véhicules qui seront fabriqués chaque mois et Courb, s'appuyant sur un réseau de 25 distributeurs et 50 points de vente en France, vise un objectif de 750 C-Zen vendues en 2014.

Courb ne se contente pas de vendre son véhicule électrique mais propose également à ses clients un bouquet de services innovants qui va de l’assurance, avec Groupama à la maintenance, avec Feu Vert, en passant par l’assistance et le financement. Une fois le bonus écologique déduit, la C-Zen est proposée à partir de 18.780 € TTC (14.600 € HT) avec des offres de financement en LOA débutant à partir de 216 € HT/mois.

Article rédigé par Georges Simmonds pour RT Flash

CNET

YouTube

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top