RTFlash

RTFLASH Recherche & Technologie
NUMERO 944
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 13 Avril 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Quand les vaches sont nourries par des robots…
Le Blue-Dot, un petit robot aux grandes vertus pédagogiques
Bob, le robot qui change la vie des patients en réanimation !
Matière
Une source d'électricité inspirée de l'anguille
Un transistor supraconducteur à haute température
Rendre le bois aussi solide que l'acier !
Pourra-t-on se nourrir à partir du CO2 de l'air ?
Les rayons infrarouges : une nouvelle source d'énergie propre ?
La thermoélectricité, future source d'énergie renouvelable ?
Terre
Une acidification plus rapide que prévu en Atlantique nord
Vivant
Vers un test sanguin pour lire le génome d’un fœtus
L'ablation focale par des nanoparticules magnétiques contre le cancer de la prostate
Cancer du rein : Une nouvelle avancée thérapeutique
Des chercheurs taïwanais trouvent la substance clé pour la régénération des cellules cérébrales
Arthrose : une molécule permettrait de régénérer le cartilage
Autisme : les filles seraient plus difficiles à diagnostiquer que les garçons
Les virus confirment leur potentiel thérapeutique contre le cancer
Mise sur la marché d'un médicament intelligent aux Etats-Unis
Découvertes de neurones impliqués dans l'anxiété
Recherche
Airbus fait fonctionner un drone de livraison et son point relais de façon autonome
Edito
Le bois : une source inépuisable d’énergie et un matériau d’avenir



Il y a sans doute près de 800 000 ans que nos lointains ancêtres ont appris à maîtriser et à utiliser le feu de manière continue, au Proche Orient. Dès ce moment, capital dans l’histoire de l’évolution humaine, le bois est devenu jusqu’à la révolution industrielle la source principale, irremplaçable et vitale d’énergie pour l’homme, et si celui-ci a pu survivre dans des environnements très rudes et affronter plusieurs périodes glaciaires, c’est parce qu’il a pu se chauffer et cuire ses aliments avec le bois qu’il trouvait sur ses lieux de vie.

On aurait pu croire qu’après plus de deux siècles de révolution industrielle et énergétique, et l’arrivée successive du charbon, du pétrole, du gaz, de l’électricité et de l’énergie nucléaire, le bois, comme source d’énergie, serait définitivement renvoyé aux oubliettes de l’histoire : il n’en est rien ! La part du bois dans le mix énergétique primaire mondial est de l’ordre de 10 %, devant l’hydraulique et le nucléaire. En France, le bois représente plus de 45 % des énergies renouvelables, loin devant l’hydraulique, l’éolien et le solaire.

Dans notre pays, le bois-énergie est déjà la première des énergies renouvelables en France (4 % de la consommation totale d’énergie), avec plus de 10 millions de tonnes équivalent pétrole (MTep), tonnes de bois utilisées pour l’énergie chaque année et 8 millions de foyers qui possèdent un système de chauffage au bois. Pourtant, la consommation de bois reste nettement inférieure à l’accroissement naturel de la forêt. Avec une surface forestière qui a doublé en deux siècles et atteint aujourd’hui 31 % du territoire (169 000 km2), la récolte forestière est évaluée à près de 42 millions de m3/an alors que la ressource en bois représente un potentiel estimé de plus de 86 millions de m3. La ressource en bois est donc en France largement sous- exploitée, notamment comme gisement d’énergie renouvelable et neutre en émissions carbone et on estime que d’ici 2020, 20 millions de m3 de bois supplémentaires pourraient être mobilisables.

Selon plusieurs études prospectives convergentes, il serait tout à fait possible de produire 25 Mteps d’énergie à partir du bois, d’ici 2050, soit plus de 10 % de la consommation totale d’énergie de notre pays, sans porter atteinte à la capacité de renouvellement naturel de la forêt et en généralisant les installations individuelles et collectives informatisées, à haut rendement et équipées de filtres anti-particules très performants. Cette source renouvelable d’énergie présente en outre l’avantage d’être peu émettrice de CO2 : en chauffage domestique, en France, avec l’hypothèse que le carbone émis à la combustion est compensé par du CO2 capté lors de la croissance des plantes, il émet 11 fois moins de CO2 que le fioul, 4 fois moins que l’électricité et 5 fois moins que le gaz.

Après avoir conquis plus du tiers des ménages, le bois s’impose peu à peu, au niveau des collectivités locales, comme solution écologique et économique de chauffage collectif. Partout en France les projets se multiplient : à Colmar, l’équivalent de 18.000 foyers sont raccordés au réseau de chauffage urbain de la ville, alimenté par du bois de provenance local. Le coût pour un MWh produit est de 54,30 € TTC pour le chauffage urbain colmarien contre 57 € pour le gaz.

A Briançon, le système de chauffage urbain mis en service en 2015 pour les bâtiments municipaux s'apparente à un chauffage central au bois à l'échelle du territoire communal. Ce réseau de chaleur comprend une chaufferie bois qui réchauffe un fluide caloporteur circulant dans les conduites jusqu'aux différents points de livraison. Via un échangeur thermique, cette chaleur est ensuite transmise à deux circuits secondaires : un pour le chauffage et un pour l'eau chaude sanitaire.

A Nantes, la Métropole a réalisé l'extension des deux réseaux de chauffage urbain entre 2012 et 2017. Ces réseaux sont alimentés à hauteur de 84 % par des énergies renouvelables, dont 43 % par du bois de chauffage. Nantes peut ainsi produire 390.000 MWh par an et assure le chauffage de 41.000 logements, soit la moitié de la population nantaise, tout en réduisant de 60.000 tonnes ses émissions annuelles de CO2.

A Aurillac, un nouveau système de chauffage urbain, plus propre et moins coûteux, à base de bois et d’eau chauffée, sera distribué dans la ville, d’ici novembre 2019. Grâce à une énergie propre, locale et renouvelable, 3.500 logements aurillacois bénéficieront de ce nouveau mode de chauffage, et une quinzaine de bâtiments de la ville seront également approvisionnés.

Depuis la fin 2017, la Ville de Bayonne a réalisé un réseau de chaleur alimenté par une chaufferie biomasse dans le quartier des Hauts de Bayonne. Cette nouvelle installation permet de couvrir les besoins en chauffage et en eau chaude sanitaire de près de 10 % de la population bayonnaise. Le bois est issu de forêts locales gérées durablement et remplace à présent le gaz naturel. Le réseau de chaleur permet aux usagers de bénéficier d’un prix compétitif et stable à long terme. Cette nouvelle installation, optimisée par un système innovant d’hydro accumulation, permet de couvrir les besoins en chauffage et en eau chaude sanitaire de 4 000 équivalents logements.

La ville de Nevers s’est également dotée en juin 2017 d’une chaufferie biomasse, couplée avec la récupération de chaleur, qui permettra, grâce à un réseau de 30 km de long, de chauffer, à terme, l’équivalent de 8 000 logements.

Dijon a également inauguré fin 2014 son réseau de chaleur. Celui-ci intègre trois chaudières biomasse de 9,5 MW, qui sont alimentées par environ 50 000 tonnes de bois énergie provenant des forêts privées et publiques de Bourgogne ; ce réseau permet de fournir de l’énergie à l’équivalent de 20 000 logements.

Mais c’est peut-être la nouvelle centrale de trigénération de Montpellier, inaugurée en avril 2015, qui montre la voie du futur pour le bois, en tant que source d’énergies combinées. Cette installation remarquable est la première du genre à être capable, uniquement à partir de bois, de produire en même temps de la chaleur, du froid et de l’électricité. Alimentant 5.200 logements et plus de 600.000 mètres carrés de bureaux, commerces et bâtiments publics, cette centrale high tech permet de valoriser chaque année plus de 11.700 tonnes de bois régional.

Concrètement, ce dispositif de tri-génération produit, grâce à une chaufferie au bois de 8,5 MW, de l’électricité et de l’eau chaude de manière centralisée, ainsi que du froid de manière décentralisée (grâce à des machines à absorption à eau préalablement installées dans les immeubles raccordés). L’énergie thermique permet de couvrir les besoins en chauffage et en rafraichissement des quartiers environnants via un réseau de canalisation enterré sous la voie publique. La grande innovation de cette centrale réside dans l’utilisation d’un Cycle Organique de Rankine, un procédé thermodynamique qui permet de produire de l’électricité à partir de sources de chaleur à basse température (inférieur à 300°C).

Grâce aux progrès technologiques en matière de cogénération, il est réaliste d’imaginer que, d’ici quelques années, la plupart de villes moyennes, mais également des grandes métropoles, se dotent de centrales de nouvelle génération, à haut rendement, capables, à partir du bois et des déchets végétaux, de fournir à un coût plus compétitif que les énergies fossiles, chaleur, froid et électricité et connectées à de vastes réseaux locaux desservant bâtiments publics et logements individuels.

Mais si le bois est, avec la force animale, la plus ancienne source d’énergie utilisée par l’homme, il est également un matériau renouvelable aux propriétés extraordinaires et à la polyvalence irremplaçable. S’agissant de la production mondiale de bois, elle a retrouvé, selon les chiffres de la FAO, son niveau de la fin du siècle dernier, avec environ 1 818 millions de m3 en 2015, soit une hausse de 4,4 % sur les cinq dernières années. Quant au marché mondial du bois, il est passé de 267 milliards de dollars en 2014 à 236 milliards en 2015, en raison de la baisse mondiale des prix. L’ensemble Europe-Russie, avec 572 millions de m3, reste de loin le premier producteur de bois de la planète avec 31,5 % de la production mondiale.

Rappelons que, selon les derniers rapports de la FAO, les forêts qui couvraient environ 4 milliards 128 millions d'hectares en 1990 (31,6 % de la superficie mondiale des terres), n’en couvraient plus que 3, 99 milliards d'hectares en 2015 (30,6 % des terres). La FAO constate cependant avec satisfaction que le taux annuel net de pertes de forêts s'est sensiblement ralenti, passant de 0,18 pour cent dans les années 1990 à 0,08 pour cent au cours de la période 2010-2015. Sur les 25 dernières années, la FAO estime même que le taux de déforestation net mondial a ralenti de plus de 50 %. Néanmoins, cette agence mondiale de l’ONU rappelle que cet effort reste insuffisant et qu’il est vital pour la planète de parvenir à inverser la tendance et à faire en sorte que le reboisement soit plus rapide que la déforestation, si nous voulons lutter efficacement contre le changement climatique.

Heureusement, une prise de conscience mondiale semble enfin émerger et plusieurs vastes programmes de reboisement sont à l’œuvre. Parmi ceux-ci, il faut citer celui de la Chine qui vient d’annoncer il y a quelques jours qu’elle allait accélérer son reboisement, de façon à faire passer sa surface forestière de 21,7 à 23 % d’ici 2023. Sur la seule année 2018, le gouvernement de Pékin a d’ailleurs décidé de reboiser 6,6 millions d’hectares. Le Brésil s’est engagé pour sa part à reboiser 12 millions d’hectares en Amazonie d’ici 2030. Mais c’est l’Inde qui a annoncé l’effort le plus ambitieux en la matière puisque ce pays s’est formellement engagé à reboiser 95 millions d’hectares d’ici 2030.

En septembre 2015, une vaste étude internationale, menée par Thomas Crowther de l’Université de Yale, a permis pour la première fois de calculer avec une précision inégalée le nombre total d’arbres sur Terre, en combinant plusieurs sources d’informations (images satellitaires, photos aériennes et mesures réalisées sur le terrain sur plus de 400.000 sites). Les résultats de ce travail pharaonique sont plutôt encourageants : il y aurait sur Terre environ 3.040 milliards d'arbres, soit 422 par habitant, environ 7 fois plus que les estimations précédentes.

En mai 2017, une autre étude tout à fait intéressante, réalisée sous la direction de Jean-François Bastin, chercheur à l’université libre de Belgique, a montré pour sa part que la surface forestière mondiale était plus étendue que celle évaluée jusqu’à présent. Une forte sous-estimation de la couverture forestière des régions sèches est à l’origine de cet oubli (Voir Science). Selon ces travaux, la couverture forestière des régions sèches aurait ainsi été sous-estimée d’au moins 40 %. De ce fait, la couverture forestière mondiale serait de 4 357 millions d’hectares, soit 11 % de plus qu’on ne le pensait. Ressource renouvelable par nature, le bois n’est donc pas menacé à court terme, ni en tant que source d’énergie, ni en tant que matériau, à la condition toutefois que l’effort réel de reboisement entrepris au cours de ces dernières années par la communauté internationale et l’effort de meilleure gestion des forêts se poursuivent au niveau planétaire.

En outre, un nouveau matériau prometteur est venu s’ajouter au bois naturel et ne cesse de trouver de nouvelles applications, tant dans la construction que l’ameublement : le bois composite. Apparu il y a une trentaine d’années, les bois composites sont des produits fabriqués à partir de particules de bois recyclées, mélangées avec des résines polymères. Ces bois composites, qui ont fait des progrès remarquables au cours de ces dernières années, présentent maintenant des qualités exceptionnelles de longévité, de flexibilité et de multirésistance (aux chocs, aux intempéries, aux insectes). L'effort d'innovation a notamment permis de concevoir des mélanges parfaitement maîtrisés, combinant poudre de polymères et poudre de bois.

Récemment, de nouvelles innovations techniques sont venues rendre le bois encore plus attractif dans de nombreux secteurs d’activités. Parmi celles-ci, il faut citer Wood Protect, mise au point par le Laboratoire de Chimie Agroindustrielle (LCA) de Toulouse en association avec Lapeyre. Cette méthode totalement écologique consiste à imprégner le bois à cœur par une substance dérivée d'huiles végétales. Ce traitement confère au bois ordinaire une durée de vie d’au moins trente ans, équivalente de celle des bois exotiques. "Notre traitement naturel du bois permet donc de réduire la déforestation en Asie ou en Afrique", précise Elizabeth Borredon, directrice du LCA.

Des chercheurs de l’Université du Maryland aux États-Unis viennent pour leur part de créer un « super bois », 12 fois plus résistant et 10 fois plus dur que le bois naturel. Ce nouveau bois est le résultat d’un nouveau procédé (voir Nature) qui consiste à faire bouillir le bois  dans un mélange de sulfite de sodium et d’hydroxyde de sodium, puis à presser ce bois à une température de 100° Celsius. Ainsi transformé, le « super-bois » obtenu présente une structure très dense, constituée de nanofibres de cellulose bien ordonnés. Ce matériau devient alors aussi résistant que le métal, tout en restant bien plus léger, et surtout bien moins coûteux à produire que les matériaux présentant des propriétés équivalentes, comme la fibre de carbone.

Cette nouvelle technique de transformation du bois est d’autant plus prometteuse qu’elle permet d’ouvrir à l’exploitation forestière de nouvelles espèces d’arbres et qu’elle ouvre à ce « super-bois » de multiples domaines d’application : industrie, automobile, médecine, robotique, construction…

Dans cette course scientifique et technologique, la France est également très bien placée. La jeune entreprise française Woodoo a ainsi mis au point un bois composite imputrescible, à base de polymères, trois fois plus rigide que le bois classique, bien plus résistant au feu et de surcroît translucide, ce qui a valu à Timothée Boitouzet, son fondateur, d’être récompensé par le prix MIT des Innovateurs de moins de 35 ans. Ce bois-composite à longue durée de vie est déjà employé pour créer des meubles contemporains mais, d’ici trois ans, il devrait permettre la commercialisation d’éléments structurels porteurs destinés au bâtiment…

Il faut également évoquer le procédé baptisé Wblock, mis au point par Stephan Vogel, lauréat du prix ESTP (École supérieure des travaux publics et du bâtiment) du concours Lépine. Cette innovation consiste en un bloc à maçonner composé de 10 % de ciment et de 90 % de déchets de bois non traités. Le bloc ainsi obtenu est aussi résistant qu’un bloc béton traditionnel mais plus léger et plus isolant.

Mais en attendant que ces bois-composites à très hautes performances arrivent en masse sur le marché, il est déjà possible, en utilisant les techniques et bois actuels, de réaliser en toute sécurité des immeubles de grande hauteur en bois. Actuellement, la résidence étudiante de Brock Commons à Vancouver, qui culmine à 53 mètres, est la tour en bois la plus haute du monde. Mais cet immeuble sera détrôné dès l’an prochain par la tour Mjosa (80 m – 18 étages de bureaux d’appartements et un hôtel), en cours de construction en Norvège.

Charpente Concept, un bureau d’études genevois spécialisé dans l’ingénierie bois, compte pour sa part réaliser deux immeubles de logements en bois de neuf niveaux à Strasbourg, et veut également construire en plein Paris un immeuble en bois mixant bureaux, hôtels et commerces de neuf étages.

Mais ce n’est rien face au projet particulièrement ambitieux annoncé il y a quelques jours par le promoteur immobilier japonais Sumitomo Forestry. Celui-ci veut en effet construire une tour en bois de 350 m et de 70 étages. Du nom de W350 project, l’immeuble hébergera des logements, des bureaux mais aussi des commerces ainsi qu’un hôtel. L’édifice qui sera composé de 90 % de bois pour 10 % d’acier devra être capable de résister au vent et aux séismes, des phénomènes naturels récurrents au Japon. Au total, 185 000 m3 de bois seront nécessaires pour assembler cette tour « kapla » géante. L’immeuble sera édifié à Marunouchi, un quartier populaire de Tokyo dans lequel se situe le palais impérial.

Après le XIXème siècle, qui fut celui de l’acier, et le XXème, qui vit l’essor du béton et des matières plastiques, le XXIème siècle pourrait bien, grâce aux avancées des biotechnologies et des sciences de la matière, voir le retour triomphal du bois, tant comme source propre et renouvelable d’énergie que comme matériau polyvalent, écologique et recyclable, utilisable sous une multitude de formes nouvelles dans l’ensemble des domaines d’activités humaines, des nanotechnologies à l’industrie en passant par les transports et la construction. La France qui a la chance de posséder une surface forestière très vaste et diversifiée, mais encore très largement sous-exploitée, ne doit pas rater cette nouvelle révolution technologique qui ne fait que commencer.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Quand les vaches sont nourries par des robots…
Mardi, 10/04/2018 - 16:12

À Boissy-lès-Perche, dans le nord de l'Eure-et-Loir, le Gaec du Bois-Spert est le premier du secteur à utiliser un robot de distribution d’aliments pour ses bovins. La tâche quotidienne du nourrissage est désormais automatisée.

Philippe et Dominique Chapon, agriculteurs installés en Gaec (Groupement agricole d'exploitation en commun), à Boissy-lès-Perche, près de la Ferté-Vidame, ont révolutionné leur façon de nourrir leurs animaux. Les deux associés ont investi dans un outil de modernisation du nourrissage. Ils utilisent depuis six mois un robot qui se charge de distribuer la nourriture à leurs soixante-dix vaches laitières et quatre-vingts taurillons.

C'est au moment de renouveler leur précédent matériel (un tracteur et une mélangeuse distributrice) qu'ils ont fait ce choix. Ils étaient déjà utilisateurs d'un robot de traite de la même marque spécialisée dans la construction des robots destinés au monde de l'élevage.

« Le robot distribue tout seul l'ensemble des aliments qui composent les rations et ce pour tous les animaux du troupeau. Nous n'avons rien à faire de plus, si ce n'est recharger tous les deux jours environ les différentes cases contenant le fourrage et dans lesquelles se sert le robot pour confectionner ses rations ». Un travail qui nécessite 30 minutes contre 1 h 30 quotidienne auparavant.

"Le robot nous permet un gain de temps pour se consacrer à d'autres activités sur l'exploitation ou profiter de plus de temps libre le week-end", indique Philippe Chapon. "L'autre avantage est de pouvoir mieux optimiser l'alimentation.

Avant, avec la mélangeuse, je réalisais une ration moyenne pour tous les animaux sans distinction. Désormais, il y a une ration pour chaque catégorie de bovins selon que les vaches sont laitières, des taurillons, des génisses et des vaches taries dont les besoins sont différents. En ciblant mieux, nous économisons en fourrage et en granulés. Cette gestion automatisée permet une meilleure maîtrise des coûts".

Le robot, qui représente un investissement de 150.000 €, tourne 24 heures sur 24 et distribue de la nourriture dès qu'il détecte un niveau trop bas lors de son passage devant les auges. L'objectif n'étant pas d'en mettre beaucoup en une fois, mais plutôt de petites quantités régulières et ainsi de toujours avoir du fourrage frais et à disposition pour les vaches.

Grâce à leur smartphone et à l'application du constructeur du matériel, les deux éleveurs peuvent commander l'appareil à distance. Ce système autonome réclame néanmoins toujours une présence sur l'exploitation afin de pouvoir intervenir si une alarme se déclenche.

Article rédigé par Georges Simmonds pour RT Flash

L'Echo Républicain

Le Blue-Dot, un petit robot aux grandes vertus pédagogiques
Mardi, 10/04/2018 - 16:02

Trois Blue-Dot, nom de code donné à une nouvelle génération de petits robots aux desseins pédagogiques, ont fait leur apparition dans les quarante-trois écoles et RPI (regroupement pédagogique intercommunal) de la circonscription d'Arras, dans le Pas-de-Calais.

Ce sont les DDEN (délégués départementaux de l’Éducation nationale) qui en ont fait don à l’asssociation Lire et Connaître, basée à la médiathèque d’Avesnes-le-Comte, laquelle (moyennant une cotisation annuelle de 8 €) met déjà à disposition des enseignants du cru des ouvrages et outils pédagogiques (valisette théâtre, malle éducation morale et civique...). L’école primaire Camille-Corot de Duisans est la première à héberger un Blue-Dot.

Mais qu’est-ce qu’un Blue-Dot ? Il s’agit d’un petit robot en forme de (grosse) souris, qui avance, recule, tourne à droite ou à gauche. On peut programmer son cheminement directement sur les touches qui habillent sa carcasse en plastique, via une tablette de programmation dans laquelle on glisse des fiches, ou carrément sur son portable ou une tablette via une connexion bluetooth. Pour les élèves de cycle 1 (sur lesquels veille Florence Pruvost à Duisans), il permet ainsi d’aborder les principes de base de la programmation informatique (savoir coder ou décoder pour prévoir ou représenter des déplacements, connaître les principes de base des algorithmes simples, construire des figures géométriques..).

Blue-Dot est aussi et surtout un outil pédagogique transdisciplinaire, en ce qu’il a par exemple permis à Hervé Henoc, directeur de l’école et enseignant des CM1 et CM2 (cycle 2), de plonger ses élèves dans l’histoire de la robotique (des premiers automates esquissés par Léonard de Vinci au XVe siècle, à l’atterrisseur Philae qui s’est transporté à quelque 510 millions de kilomètres de la terre pour se poser sur une comète, en passant par le robot aspirateur).

Comme le souligne Étienne Lefèvre, qui accompagne les enseignants dans l’exploration de la discipline informatique, "C’est un outil collaboratif : les élèves travaillent en groupe, apprennent à se parler, à argumenter, à se respecter...". L’outil a par ailleurs été testé ailleurs sur des élèves de maternelle, et comme le rapporte Marie-Ange Rosa, conseillère d’éducation et coordinatrice de l’association Lire et Connaître, "les profs ont constaté que cela avait accéléré l’apprentissage de la latéralité (reconnaître sa droite de sa gauche) chez les petits".

Article rédigé par Georges Simmonds pour RT Flash

La Voix du Nord

Bob, le robot qui change la vie des patients en réanimation !
Mardi, 10/04/2018 - 15:54

Comment humaniser un service de réanimation ? C'est à cette question que tente de répondre l'équipe dirigée par le Professeur Nicolas Bruder, à l'hôpital de la Timone. "Dans les années 80, les patients restaient sous sédation artificielle pendant plusieurs jours. Or, depuis une dizaine d'années, on s'est aperçu qu'en les réveillant rapidement, les malades avaient une meilleure récupération", souligne le Professeur Bruder. "En s'ouvrant de nouveau sur la vie extérieure, le traumatisme est moins grand. On note aussi que le nombre de troubles psychiatriques, développés lors du passage en réanimation, était en nette diminution."

Dans le souci d'améliorer cette prise en charge, les plages horaires des visites ont également été élargies. Pour le chef de service, l'implication et la présence des proches augmentent de manière significative le processus de guérison.

Si tout est mis en oeuvre pour le bien-être des patients, la communication demeure cependant un réel problème. "Les malades sont conscients mais sans possibilité de communiquer parce qu'ils sont soumis en particulier à la ventilation artificielle", convient le Professeur Lionel Velly, anesthésiste-réanimateur du service. "Cette incapacité à communiquer est souvent source de frustration et de stress aussi bien pour les patients, les familles que les soignants".

Alors, pour améliorer la communication, le service de réanimation polyvalente de la Timone a créé de toutes pièces "Bob", un robot très particulier. "Bob", c'est un ordinateur sur pied équipé d'une commande oculaire, l'eye tracker, qui permet le pilotage d'un logiciel par le seul mouvement du regard. "C'est extrêmement simple à utiliser et il permet d'avoir une communication assez riche", poursuit le Professeur Velly.

"Bob", on le doit surtout à la pugnacité de Yann Gogan, le psychologue clinicien du service : "Son utilisation est relativement simple. Mais il faut quand même avoir un minimum de concentration. On retrouve des pictogrammes qui permettent au patient d'exprimer son état. S'il souffre, s'il souhaite voir un médecin..."

Depuis sa mise en place, "Bob" a permis de recréer du lien. C'est l'histoire de Blandine et de son mari Yann. Il y a un an, la vie du couple a basculé. Pendant quatre semaines, Yann est plongé dans un coma artificiel. Blandine apprend à vivre au milieu des machines, des tubes et des alarmes. "Un monde terriblement angoissant", dit-elle.

Au réveil de son époux, elle apprend à communiquer différemment avec lui. "Je voyais dans ses yeux qu'il était frustré de ne pas parler, de ne pas se faire comprendre", poursuit la jeune femme. "Cela avait le don de l'énerver." On leur propose alors de tester le robot. "On n'a pas hésité une seule seconde. Et devinez la première chose que mon mari a demandée ? Voir un médecin !"

Désormais, à la Timone, l'objectif est de développer cette technologie pour en faire profiter éventuellement les autres structures hospitalières. "Bob" est un ordinateur relié à un eye tracker, une technologie issue du monde du marketing et du gaming qui permet de savoir où est posé le regard. Grâce à ce système, toute personne capable de voir un écran peut alors utiliser un ordinateur.

Après un calibrage très précis, le programme permet de naviguer uniquement grâce au regard, le tout dans une interface simplifiée par des pictogrammes. Grâce à une nouvelle mise à jour de la licence Windows, les patients peuvent désormais utiliser des outils tel le programme de traitement de texte Word. 

Article rédigé par Georges Simmonds pour RT Flash

La Provence

^ Haut
Matière
Matière et Energie
Une source d'électricité inspirée de l'anguille
Jeudi, 12/04/2018 - 01:10

Avec une tension de 600 volts et un courant de 1 ampère, les décharges électriques envoyées par l’anguille Eletrophorus Electricus peuvent tuer un homme ou paralyser un cheval. Thomas Schroeder, de l’Université du Michigan, aux États-Unis, et ses collaborateurs ont réussi à reproduire le mécanisme à l'origine de ces courants en mettant au point un assemblage d’hydrogels générateur d’électricité inspiré par les cellules de l'organe électrique de l’anguille.

Dans ces cellules nommées électrocytes, l’électricité est produite par la circulation asymétrique d’ions entre l'intérieur et l'extérieur de la cellule. Lorsque l’animal provoque une décharge, un stimulus nerveux commande l’ouverture de canaux membranaires : des ions Na+ pénètrent d’un côté de la cellule pendant que des ions K+ sont relargués dans le milieu extracellulaire.

La distribution hétérogène de charges qui en résulte se traduit par une différence de potentiel électrique de l'ordre de 150 mV entre les deux bords de la cellule. Mis en réseaux par milliers, ces électrocytes engendrent un voltage capable d’étourdir les proies et les prédateurs de l’animal.

Afin de mimer ce mécanisme, Thomas Schroeder et ses collègues ont utilisé quatre types d’hydrogels : un premier très concentré en ions Na+ et Cl–, un deuxième très faiblement, un troisième qui ne laisse circuler que les cations (ions positifs), et un quatrième qui, à l’inverse, ne laisse passer que les anions (ions négatifs).

Pour produire de l’électricité, ces matériaux sont mis en contact. Le gel faiblement salin est pris en sandwich par chacun des gels sélectifs qui agissent comme des membranes, à l'extérieur desquelles se trouve le gel fortement concentré. Spontanément, pour égaliser la salinité de part et d’autre des membranes, les ions migrent de l’extérieur vers l’intérieur. Mais d’un côté ne circulent que les ions Na+, de l’autre, que les Cl–. Il en résulte l’apparition d’une différence de charge entre les bords de cette « cellule » électrique, conduisant à une tension équivalente à celle produite par les cellules de l’anguille.

En usinant des dépôts d'hydrogel, les chercheurs ont créé des dispositifs générateurs d’électricité aux designs variés : tube, lentille transparente souple, ou même, en imprimant des milliers de gouttelettes de gels sur des feuilles plastiques transparentes, une batterie où les cellules électriques disposées en séries engendrent une tension globale de 110 volts. Les chercheurs imaginent déjà utiliser une telle source d’énergie souple et biocompatible pour des implants médicaux.

Article rédigé par Georges Simmonds pour RT Flash

Pour La Science

Un transistor supraconducteur à haute température
Jeudi, 12/04/2018 - 01:00

On sait depuis plus de 60 ans que dans un matériau supraconducteur, la conductivité électrique se fait sans perte. Dans un matériau normal, la supraconductivité peut être induite par la « fuite » de paires d’électrons supraconducteurs (paires de Cooper) venant d’un supraconducteur adjacent. C’est l’effet de proximité.

En utilisant cet effet, les chercheurs savent aujourd’hui rendre le graphène supraconducteur. Le graphène possède une structure électronique très particulière qui influence fortement les propriétés de transport des électrons en son sein. Ainsi, en mesurant les propriétés de transport de jonctions en graphène, des chercheurs ont observé que les électrons peuvent traverser une barrière comme si elle n’existait pas. C’est l’effet tunnel de Klein.

Des chercheurs de l’Unité mixte de physique CNRS/Thales, en collaboration avec l’Université de Cambridge, sont parvenus à fabriquer une jonction entre un supraconducteur à haute température et du graphène et à rendre le graphène supraconducteur par effet de proximité.

Pour la première fois, ils ont observé l’effet tunnel de Klein pour des paires de Cooper. Ils ont également montré qu’en modifiant le dopage du graphène par application d’une différence de potentiel, on peut créer une modulation de la barrière au niveau de la jonction, permettant ainsi de contrôler son état « passant » ou « bloquant ».

Ils réalisent ainsi pour la première fois une sorte de transistor supraconducteur. Pour fabriquer cette jonction tout en conservant les propriétés de transport dans les différents matériaux, les chercheurs ont utilisé une combinaison de lithographie ultraviolette, d’irradiation ionique et de transfert de graphène par une méthode de dépôt de couches minces par vaporisation chimique sur un substrat de supraconducteur à haute température, le YBCO.

Ces résultats ouvrent la voie à une nouvelle famille de dispositifs Josephson modulables par l’application d’une différence de potentiel qui repose sur l’utilisation du graphène à grande échelle.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Rendre le bois aussi solide que l'acier !
Mercredi, 11/04/2018 - 15:33

Des chercheurs américains de l'Université du Maryland ont développé un nouveau type de « super bois », 10 fois plus résistant et plus solide que le bois standard. Cette innovation pourrait devenir un substitut naturel et peu coûteux pour l’acier, ainsi que d’autres matériaux.

La clé pour développer ce bois modifié aux propriétés hors normes réside dans un traitement chimique particulier, suivi d’un processus de compression à chaud. Les liaisons chimiques qui en résultent rendent le bois assez résistant pour qu’il puisse être utilisé un jour dans les bâtiments et les véhicules.

Il pourrait même servir à la création de plaques de blindages : les chercheurs ont tiré des projectiles en forme de balles et ont constaté qu’ils se logeaient dans le matériau, plutôt que de se frayer un chemin à travers ce dernier (comme ils l’ont fait avec du bois standard). « Cette nouvelle manière de traiter le bois le rend 12 fois plus résistant que le bois naturel et 10 fois plus dur. Cela pourrait donc en faire un concurrent de l’acier ou même des alliages de titane, car il est si solide et durable. Il est aussi comparable à la fibre de carbone, mais beaucoup moins cher », explique le chercheur principal Liangbing Hu, de l’Université du Maryland (USA).

« Il est à la fois résistant et solide, ce qui est une combinaison qui ne se trouve généralement pas dans la nature. Il est aussi résistant que l’acier, mais six fois plus léger. Il faut dix fois plus d’énergie pour qu’il se fracture, que le bois naturel. Il peut même être courbé et moulé au début du processus », ajoute un autre membre de l’équipe, Teng Li de l’Université du Maryland.

Le nouveau processus utilisé ici comporte deux étapes : Tout d’abord, le bois naturel est bouilli dans un mélange d’hydroxyde de sodium et de sulfite de sodium, ce qui est en réalité similaire au procédé utilisé pour créer de la pâte de bois, pour la fabrication de papier. Ensuite, le bois traverse une phase de compression pour écraser les parois entre les cellules individuelles. Ensuite, le matériau est chauffé pour encourager de nouvelles liaisons chimiques pendant que le bois continue à être comprimé.

Ces procédés sont capables de retirer certains polymères pour permettre au nouveau bois de se reformer tout en conservant d’autres polymères, essentiels à la solidité du bois. Finalement, le renforcement provient d’un grand nombre d’atomes d’hydrogène se liant à des nanofibres de cellulose, déjà naturellement présentes dans la structure du bois.

Les réactions chimiques sont assez complexes, mais la procédure elle-même est assez simple et peu coûteuse. Une option prometteuse pour remplacer l’acier, les alliages de titane ainsi que d’autres matériaux pour des utilisations spécifiques.

Il a également été démontré que le procédé fonctionne sur plusieurs variétés de bois différentes. Le super bois fini est solide, dur et léger, comme nous l’avons déjà mentionné, mais il est également très dense, résiste bien à la compression et aux rayures, et est même intrinsèquement protégé contre l’humidité.

En plus de pouvoir l’adapter à l’aéronautique et à l’automobile, ce super-bois pourrait également être utilisé dans la création de meubles à base de bois à croissance rapide comme le balsa ou le pin, en substitution d'essences comme le teck.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Pourra-t-on se nourrir à partir du CO2 de l'air ?
Mercredi, 11/04/2018 - 15:06

Des chercheurs finnois de l'Université de technologie de Lappeenranta (LUT) et du centre de recherche technique de Finlande (VTT) ont réussi à produire des protéines comestibles à l'aide essentiellement d'électricité renouvelable et de dioxyde de carbone.

Imaginez un bioréacteur de la taille d'une tasse à café. A l'intérieur, dans un bain, des micro-organismes se multiplient et produisent des protéines nourricières. Pour ce faire, de l'électricité a été acheminée vers le dispositif. Par un processus d'électrolyse, elle y brise les molécules d'eau en atomes d'hydrogène et d'oxygène. Du dioxyde de carbone extrait de l'air y est introduit simultanément. Il est la source des atomes de carbone indispensables au développement des micro-organismes. Lorsqu'ils reçoivent en sus azote, phosphore, potassium et autres nutriments, ils se multiplient et voient croître leur masse cellulaire. Cette dernière est alors filtrée, traitée à très haute température puis séchée.

Le résultat se présente sous la forme d'un mélange poudreux, sans saveur ni odeur. Peu appétissant, mais très nutritif. "Il est composé de plus de 50 % de protéines et de 25 % de glucides. Le reste est constitué de graisses et d'acides nucléiques", explique Juha-Pekka Pitkänen, du VTT. Des tests doivent cependant être encore réalisés avant que ce produit puisse être envisagé comme aliment.

L'idée poursuivie est que ces protéines cultivées nourrissent un jour des humains. Surtout là où règne la malnutrition. "Toutes les matières premières nécessaires étant disponibles dans l'air (NDLR : conjuguées à de l'électricité renouvelable), la technologie - sous forme d'un réacteur domestique - pourrait être transportée dans des zones confrontées à la famine", poursuit le chercheur. L'étude précise que, par rapport à l'agriculture conventionnelle, cette technique n'est pas liée aux conditions environnementales de température de l'air, de taux d'humidité ou d'un certain type de sol.

Ces protéines synthétiques pourraient aussi servir de fourrage aux animaux avec l'avantage de libérer des terres agricoles pour y faire croître des végétaux nourriciers pour les humains. A noter : "Aucun pesticide n'est nécessaire", précise Jero Ahola. Quant aux fertilisants, seule la quantité requise est utilisée, et ce en circuit fermé. De quoi éviter les impacts environnementaux, tels que les ruissellements d'engrais dans les rivières ou la formation de gaz à effet de serre. Mais le chemin sera encore long. Actuellement, deux semaines sont nécessaires pour produire... un gramme de protéines dans le bioréacteur.

Article rédigé par Georges Simmonds pour RT Flash

Le Vif

Les rayons infrarouges : une nouvelle source d'énergie propre ?
Mardi, 10/04/2018 - 15:36

En utilisant l'une des étranges propriétés de la physique quantique, des chercheurs saoudiens ont développé une technique qui pourrait permettre, d'ici quelques années, de récupérer la chaleur du rayonnement infrarouge et de la transformer en énergie propre et renouvelable.

Pour bien comprendre l'importance de leur découverte, il faut d'abord rappeler quelques faits. La majorité de la lumière du Soleil qui atteint la surface de la Terre est absorbée par les sols, les océans et l'atmosphère, ce qui réchauffe la Terre. Ce réchauffement provoque des émissions permanentes de radiations infrarouges. Selon les estimations des spécialistes, ces radiations produiraient des millions de gigawatts. À titre de comparaison, la centrale nucléaire de Gravelines, la plus puissante de France, produit 5460 mégawatts.

Le but des scientifiques de l'Université des sciences et technologies du roi Abdallah (KAUST), en Arabie saoudite, était de détecter ces radiations et les "capturer" pour les convertir en électricité. L'intérêt ? "Contrairement à l'énergie des panneaux solaires, qui sont limités par la lumière du jour et les conditions climatiques, l'énergie de la chaleur infrarouge peut être récoltée 24h sur 24", souligne Atif Shamin, principal auteur de l'étude, sur le site de l'université saoudienne. "Être capable de récolter cette énergie pourrait totalement bouleverser le secteur des énergies renouvelables", ajoutent les chercheurs dans leur étude.

"L'un des moyens d'y parvenir est de traiter la chaleur infrarouge comme des ondes électromagnétiques à haute fréquence. En utilisant des antennes appropriées, les ondes captées sont envoyées vers une diode semi-conductrice, qui transforme le signal alternatif [de l'onde] en courant permettant de recharger une batterie ou n'importe quel équipement électrique", détaille Atif Shamin.

Encore faut-il parvenir à concevoir ces nanoantennes qui vont convertir l'énergie radiofréquence en courant continu, ce qui n'est pas une mince affaire, compte tenu des très petites longueurs d'ondes du rayonnement infrarouge.

Pour relever ce défi, ces chercheurs ont eu l'idée d'utiliser l'effet tunnel, un phénomène très fréquent en mécanique quantique. L'exemple le plus simple permettant de le comprendre est celui d'une balle devant monter une colline. En physique classique, si la balle n'a pas été propulsée avec suffisamment d'énergie, elle ne monte pas. Mais en physique quantique, la balle peut passer sous la colline, même avec une énergie limitée, et ce, grâce au principe d'incertitude, qui s'applique au monde de l'infiniment petit.

En exploitant ce phénomène, les chercheurs ont construit, dans leur laboratoire dédié, une nano-diode capable de transformer les ondes infrarouges en énergie faisant passer les électrons à travers une petite barrière. Ils ont ensuite conçu des antennes capables de créer un champ magnétique suffisamment puissant pour permettre aux électrons de traverser cette barrière quantique.

Au final, ces chercheurs ont pu transformer les radiations infrarouges en énergie. Pour l'instant le rendement de leur dispositif reste modeste mais ils ont pu apporter la preuve que leur concept fonctionne et pourrait permettre, à terme, en juxtaposant des millions de ces nanoantennes, d'extraire de grandes quantités d'électricité à partir du rayonnement infrarouge.

Article rédigé par Georges Simmonds pour RT Flash

KAUST Discovery

La thermoélectricité, future source d'énergie renouvelable ?
Lundi, 09/04/2018 - 01:10

Certains matériaux dits thermoélectriques ont la faculté de transformer directement la chaleur en électricité. Mais ce processus entraîne des coûts importants, pour des rendements assez faibles. C’est pourquoi la thermoélectricité reste pour le moment cantonnée aux applications qui n’exigent pas une source d’énergie puissante : par exemple, de petits capteurs ou des batteries de sauvegarde sur des sondes spatiales.

Mais des scientifiques du MIT -Massachusetts Institute of Technology- pensent qu'il est possible de récupérer cette électricité. Leur solution repose sur des « matériaux topologiques » aux propriétés électroniques particulières. Ils se sont tout particulièrement intéressés à la manière dont les électrons qu’ils renferment « voyagent » lors des changements de température à l’origine de la thermoélectricité. Au cours de leurs recherches, les chercheurs ont identifié pourquoi certains matériaux topologiques étaient plus efficaces pour générer de l’électricité que les dispositifs déjà existants.

« Nous avons découvert que nous pouvions repousser les limites de ce matériau nanostructuré, de manière à faire des matériaux topologiques des matériaux thermoélectriques plus performants que les semi-conducteurs conventionnels comme le silicium », explique Te-Huan Liu, chercheur associé au département d’ingénierie mécanique du MIT.

Lorsqu’un matériau thermoélectrique est exposé à une variation de température (par exemple, un côté est chauffé pendant que l’autre est refroidi), les électrons qu’il renferme se déplacent de l’extrémité la plus chaude vers la plus froide : cela génère un courant électrique. Or, plus la différence de température est importante, plus le courant électrique produit est puissant.

Ainsi, la quantité d’énergie produite dépend de la manière dont les électrons se déplacent dans un matériau. En modélisant les caractéristiques d’un matériau à l’échelle du nanomètre, les scientifiques ont considéré qu’ils pouvaient transformer ces fameux matériaux topologiques de manière à ce qu’ils produisent du courant plus efficacement.

Article rédigé par Georges Simmonds pour RT Flash

MIT

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une acidification plus rapide que prévu en Atlantique nord
Jeudi, 12/04/2018 - 01:20

Avec l’accumulation des rejets d’origine humaine, le CO2 dissous augmente dans les eaux océaniques de surface. Une étude internationale montre une pénétration de ces teneurs en CO2 plus rapide que prévue en profondeur, au niveau de l’océan Atlantique nord. Les récifs coralliens d’eau froide pourraient en être victimes. Ces résultats confirment l’intérêt des longues séries temporelles, comme celles du projet Ovide mené par des chercheurs de l’Institut de recherche marine de Vigo (Espagne) et du Laboratoire d’océanographie physique et spatiale (LOPS – CNRS/Ifremer/IRD/UBO), pour suivre l’impact du changement climatique dans l’océan.

Entre le Groenland et le Portugal, les campagnes océanographiques appelées Ovide permettent d’étudier la région Atlantique nord, un secteur crucial pour l’étude des courants marins : le courant Nord Atlantique, issu du Gulf Stream, y apporte une eau de surface chaude. En se refroidissant dans cette zone subpolaire, l’eau devient plus dense. Elle finit par pénétrer en profondeur.

Cette convection est l’un des piliers du « tapis roulant » océanique qui redistribue la chaleur entre les zones polaires et équatoriales, avec une forte influence sur le climat mondial. Lors des campagnes Ovide, qui ont lieu tous les 2 ans depuis 2002, les scientifiques étudient son évolution dans le temps et sa composition chimique avec des relevés de pression, de température, de salinité ou encore de pH.

Les relevés montrent qu’en mer d’Irminger, entre le Groenland et l’Islande, la convection profonde a tendance à augmenter. « Avec le réchauffement des températures dans cette zone, elle devrait diminuer dans les prochaines décennies selon les modèles climatiques. Mais depuis 2014, à cause de régimes de temps particuliers, on observe plutôt une augmentation de la profondeur de pénétration des eaux de surface, et donc du CO2 dissous », soulignent Herlé Mercier (CNRS) et Pascale Lherminier (Ifremer), membres du LOPS et co-auteurs de l’article sur le volet océanographie physique.

Cette anomalie entre les observations récentes et les modèles à plus long terme interpelle la communauté scientifique et motive la réalisation de la prochaine campagne Ovide en juin-juillet 2018. L’eau de surface est plus chargée en CO2 à cause de l’accumulation dans l’atmosphère des rejets d’origine anthropique. A l’échelle du globe, l’océan stocke environ 25 % du carbone émis par les activités humaines, jouant ainsi un rôle d’atténuateur du changement climatique avec une conséquence néfaste : l’acidification de l’océan.

La nouvelle série de mesures montre que le CO2 dissous est à des concentrations et des profondeurs de plus en plus élevées. Cette eau acidifiée peut mettre en péril les organismes calcificateurs, comme les coraux. En effet, l’acidification réduit la présence de carbonates qui est nécessaire à ces derniers, par exemple pour la formation de leur coquille.

Les coraux ne peuvent se développer dans les eaux océaniques profondes et froides trop pauvres en ions carbonates. La profondeur critique pour les coraux est ainsi évaluée actuellement à 2500 m de profondeur en Atlantique Nord. « Nous avons montré par nos calculs que l’acidification liée au changement climatique pourrait causer une remontée de 1000 m de cette profondeur critique », souligne Fiz Fernandez Perez de l’IIM, premier auteur de l’article et spécialisé en biogéochimie marine.

Autrement dit, les organismes calcifiants ne pourraient donc plus se développer en-dessous de 1500 m de profondeur. Ces résultats prennent en compte un doublement de la teneur atmosphérique en dioxyde de carbone, ce qui pourrait arriver dans les trois prochaines décennies selon les estimations du GIEC.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vers un test sanguin pour lire le génome d’un fœtus
Jeudi, 12/04/2018 - 01:30

En utilisant les génomes des parents, les chercheurs sont aujourd’hui capables d’établir le portrait génétique complet d’un fœtus en développement. Mais ce processus reste invasif, compliqué et coûteux. Pour y remédier, une équipe de l’Institut de génomique de Pékin en Chine propose une solution beaucoup plus simple que les méthodes existantes.

Il s’agit d’un nouveau test génétique fœtal, qui présente également l’avantage de pouvoir être effectué dès le premier trimestre de la grossesse. L’idée serait ici de prélever un échantillon de sang de la femme enceinte pour rechercher les cellules fœtales les plus intactes, pour ensuite séquencer l’ADN.

S’appuyant sur cette nouvelle technique, les chercheurs expliquent avoir séquencé avec succès les génomes de deux fœtus in utero. L’un d’entre eux présentait des variantes génétiques liées au cancer de l’intestin, aux troubles intestinaux et aux maladies du foie. L’autre avait une variante de gêne liée à un déséquilibre de sel. Si la technique se présente comme une version améliorée de la précédente, certains craignent en revanche que la technologie ne progresse plus rapidement que la compréhension du risque génétique par le grand public.

L’impact d’une variante de gène sur le risque de développer une maladie au cours de sa vie varie en effet en fonction de plusieurs facteurs – comme l’environnement et le mode de vie. Découvrir la présence de certaines variantes génétiques chez un fœtus qui n’a pas encore été exposé au monde pourrait en fin de compte ne comporter à terme qu’un très faible risque pour la santé.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

L'ablation focale par des nanoparticules magnétiques contre le cancer de la prostate
Mercredi, 11/04/2018 - 15:26

MagForce, une entreprise allemande spécialisée en nanomédecine, travaille à la mise au point d'une thérapie visant à détruire les tumeurs solides de l'intérieur, via des nanoparticules vectorisées à l'aide de champs magnétiques. Cette thérapie, baptisée Nanotherm, a reçu le feu vert de la FDA pour un essai clinique visant à l'évaluer comme traitement d'ablation focale dans des cas de cancer de la prostate à risque intermédiaire.

En dépit de leur faible taille de 15 nanomètres et grâce à leur capsule d'oxyde de fer, les nanoparticules constituant la solution Nanotherm sont extrêmement sensibles aux champs magnétiques. Introduites au cœur de la tumeur via un cathéter, ces particules sont ensuite soumises à une oscillation très rapide (100 000 fois par seconde) de champs magnétiques via un dispositif appelé NanoActivator. Cette variation des champs magnétiques permet de générer de façon très précise de la chaleur à même de détruire les cellules cancéreuses de l'intérieur, voire de les affaiblir en vue d'une chimiothérapie ou d'une radiothérapie classique. Un logiciel permet au praticien de générer une carte 3d de la tumeur et de simuler l'impact de différents scénarios de température sur son évolution.

La FDA a délivré une autorisation exceptionnelle (IDE) pour démarrer une étude pivot sur une centaine de patients atteints de cancer de la prostate sans passer par des études expérimentales.

L'objectif est de démontrer que la thérapie NanoTherm peut réaliser des ablations focale de lésions cancéreuses pour les patients passés au stade de risque intermédiaire du cancer de la prostate. L'intérêt est d'éviter les thérapies définitives, comme la chirurgie ou l'ablation de la prostate avec les risques bien connus de perte de qualité de vie pour les patients.

Article rédigé par Georges Simmonds pour RT Flash

Caducée

Cancer du rein : Une nouvelle avancée thérapeutique
Mercredi, 11/04/2018 - 15:18

Une étude réalisée par les centres américains contre le cancer de Washington et Philadelphie, et dirigée par les Professeurs Michael Atkins et Elisabeth Plimack, vient de montrer que l’utilisation combinée des deux médicaments, l’axitinib et le pembrolizumab, présenterait une réelle efficacité contre le cancer du rein lorsque la maladie a atteint un stade avancé.

Le pembrolizumab est un anticancéreux utilisé en immunothérapie sur des patients souffrant d’un cancer du poumon, de la vessie ou encore d’un mélanome. Quant à l’axitinib, il a pour effet de l’imiter la formation des vaisseaux sanguins autour des tumeurs et ainsi d’empêcher leur développement, faute d’irrigation.

Ces chercheurs ont administré pendant 20 mois les deux médicaments à 52 personnes atteintes d’un carcinome rénal. Les résultats de l’association des substances ont été sans appel sur l’évolution de la taille des tumeurs présentées par les sujets. Elles ont diminué chez 90 % des participants qui avaient reçu l’intégralité de la dose habituellement prescrite. 73 % des malades à qui trois quarts de la dose recommandée avaient été administrés ont constaté le même phénomène.

Les membres du premier groupe ont cependant dû faire face à des effets secondaires néfastes, « acceptables mais importants », indique Top Santé​. De précédents travaux scientifiques consacrés aux effets de ce cocktail avaient en effet montré que ce dernier présentait une lourde toxicité.

Les auteurs de l’étude travaillent désormais à déterminer quelle quantité des deux médicaments permettrait une efficacité optimale tout en garantissant la meilleure tolérance possible au traitement.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Des chercheurs taïwanais trouvent la substance clé pour la régénération des cellules cérébrales
Mardi, 10/04/2018 - 16:42

Des chercheurs des Instituts Nationaux de Recherche en Santé de Taïwan (Taiwan’s National Health Research Institutes - INDH) ont identifié, à partir de cellules souches, une substance à l’'échelle nanométrique qui peut réparer les nerfs cérébraux endommagés et ouvrir ainsi la voie au développement d’'un remède contre les maladies neurologiques et dégénératives.

Après cinq ans de travail, une équipe de chercheurs dirigée par Li Hua-Jung, chercheur assistant à l’institut de médecine cellulaire et systémique de l'’INDH, a réussi à extraire des exosomes provenant de cellules souches présentes dans les graisses corporelles et la moelle osseuse, et aux capacités réparatrices pour les nerfs endommagés.

Les exosomes sont de petites vésicules (organe dont la forme est similaire à un petit sac et contenant des sécrétions liquides) de 30 à 150 nm qui contiennent ARN (acide ribonucléique) et protéines, présents dans de nombreux fluides eucaryotes, dont le sang, l’'urine et les milieux cellulaires. Elles permettent la communication entre les cellules, au même titre que la membrane cytoplasmique.

Contrairement aux thérapies traditionnelles à base de cellules souches, les exosomes ne sont pas des cellules vivantes et ne peuvent donc pas se développer en cellules cancéreuses après avoir été injectées dans les parties endommagées du corps qu'’ils sont censés réparer. Grâce à leur taille nanométrique et à leur couche externe de lipide, les exosomes peuvent facilement circuler dans le sang et passer à travers les barrières cérébrales vers les nerfs endommagés d’'un patient souffrant.

L'’équipe de recherche a constaté qu’'une semaine après l’'injection des exosomes chez des souris dont l'’hippocampe (structure du cerveau qui joue un rôle central dans la mémoire, et dont le rétrécissement est associé à la maladie d’Alzheimer) avait été endommagé, les nerfs ont commencé à développer des synapses - structures qui permettent à un neurone ou à une cellule nerveuse de transmettre un signal électrique ou chimique à un autre neurone. Dans notre cerveau, les synapses sont innombrables : 100 milliards de neurones établissent chacun plusieurs milliers de contacts, réalisant ainsi un véritable réseau de communication !

Taïwan est le premier pays à avoir réussi à extraire des exosomes qui travaillent à la réparation des cellules cérébrales. Cette technique a d’ailleurs été brevetée à Taïwan, et des demandes de brevets sont actuellement déposées aux États-Unis, au Royaume-Uni et au Japon.

Bien que la recherche des exosomes de l’'équipe soit actuellement limitée au traitement des maladies neurologiques, elle pourrait être appliquée à l’'avenir aux thérapies contre les maladies dégénératives, les organes endommagés, les lésions cérébrales et la moelle épinière, les AVC ou encore les troubles de l’'apprentissage.

Article rédigé par Georges Simmonds pour RT Flash

Focus Taiwan

Arthrose : une molécule permettrait de régénérer le cartilage
Mardi, 10/04/2018 - 15:26

Des chercheurs de l’Université de Californie du Sud ont identifié une molécule qui pourrait augmenter la régénération du cartilage et diminuer l’inflammation.

L’arthrose est une destruction du cartilage qui concerne l’ensemble d’une articulation. Certains éléments sont des facteurs de risque comme l’âge, le surpoids, le port de charges lourdes de manière répétée mais il arrive dans certains cas que la maladie soit héréditaire. A certains moments, le cartilage se dégrade rapidement, provoquant ce que l’on appelle des crises d’arthrose, des poussées inflammatoires très douloureuses.

La molécule identifiée par les chercheurs américains est baptisée "Regulator of Cartilage Growth and Differentiation" pour "régulateur de la croissance du cartilage et de sa différenciation", ou plus simplement RCGD 423. Les chercheurs l’ont appliquée sur des cellules de cartilage articulaire. Celles-ci se sont multipliées et étaient moins nombreuses à mourir. En réalisant l’expérience sur des rats dont le cartilage était abîmé, les cellules ont amélioré sa guérison.

En fait, cette molécule interagit avec une autre molécule, la glycoprotéine 130. Cette dernière sert à la réception de deux signaux : celui du développement du cartilage dans l’embryon et celui qui déclenche l’inflammation du cartilage chez l’adulte. En l’associant à la RCGD 423, les chercheurs parviennent à bloquer le signal de l’inflammation et donc à diminuer la dégradation du cartilage à long terme. Cela permet de stimuler la régénération du cartilage. 

"L’objectif est de fabriquer une thérapie par injection pour l’arthrose à différents niveaux : du stade précoce au modéré", explique Denis Evseeko, professeur et auteur de cette étude. Il précise que ça ne guérira pas l’arthrose mais pourra permettre d’enrayer son développement, et potentiellement d’éviter les chirurgies de remplacement articulaire. Aux Etats-Unis, un million d’opérations réalisées chaque année sont des arthroplasties.

Article rédigé par Georges Simmonds pour RT Flash 

Eurekalert

Autisme : les filles seraient plus difficiles à diagnostiquer que les garçons
Lundi, 09/04/2018 - 01:20

Une étude américaine conduite par Allison Ratto, psychologue clinicienne au Centre pour les troubles du spectre autistique du Children's National Health System de Rockville (Etats-Unis), menée auprès de 228 enfants, a montré qu'il serait plus difficile de détecter des troubles autistiques chez les filles car elles parviendraient à mieux camoufler leurs difficultés relationnelles et sociales que les garçons. « Selon nos critères de recherche, les parents rapportent que les filles présentes dans notre étude sur l’autisme semblent avoir plus de difficultés avec les gestes du quotidien que les garçons », explique Allison Ratto.

Selon l’étude, les fillettes autistes auraient en effet tendance à camoufler leurs difficultés d’interactions sociales et apprendraient à se fondre dans la masse, notamment en abrégeant les interactions sociales qu’elles ont avec les autres, et en observant longuement la façon dont il faut se comporter avant d’agir. Mais cet apprentissage permanent peut être source de stress intériorisé pour les fillettes, puisqu’elles doivent en permanence faire des efforts et tenter de paraître "normales".

Pour les chercheurs, cette étude souligne la diversité du spectre autistique, et l’importance d’améliorer les tests de diagnostic de l’autisme, visiblement inadaptés pour les filles qui en sont atteintes. L’enjeu est de taille, car plus l’autisme est diagnostiqué tôt, plus sa prise en charge sera efficace et donnera de bons résultats, permettant par exemple à l’enfant de suivre une scolarité classique.

Article rédigé par Georges Simmonds pour RT Flash

Children's National Health System

Les virus confirment leur potentiel thérapeutique contre le cancer
Lundi, 09/04/2018 - 01:00

Des chercheurs de l’Université de Zurich, en Suisse, ont réussi à reconstruire un adénovirus qui est capable de reconnaître et d’infecter efficacement et très sélectivement une tumeur. Ces travaux font coup double en proposant non seulement un virus furtif qui s'attaque aux cellules cancéreuses, mais également une nouvelle arme qui permet d’éviter le développement de résistances aux médicaments.

Les chercheurs sont partis de l'adénovirus humain 5, qui entraîne normalement les symptômes d'un rhume typique mais présente aussi de grands avantages : son génome peut être remplacé complètement par un génome artificiel qui ne contient que des gènes « utiles », de manière à ce que le virus ne puisse plus se répliquer et déclencher des maladies. De plus, son génome ne s'intègre pas dans les chromosomes humains.

Normalement, les adénovirus n’ont pas la capacité d'infecter les cellules cancéreuses et ne peuvent donc pas leur injecter les molécules thérapeutiques nécessaires pour lutter contre la maladie. De plus, les adénovirus sont efficacement neutralisés par le système immunitaire et éliminés très rapidement par le foie.

Pour lever ces deux obstacles, l'équipe du Professeur Andreas Plueckthun, professeur au Département de biochimie de l'Université de Zurich, est parvenue à reconstruire le virus afin qu'il reconnaisse et infecte efficacement les cellules tumorales. « Nous avons créé des molécules qui agissent comme un adaptateur entre le virus et la cellule tumorale ».

Avec son adaptateur et son camouflage, le virus devient une navette génique virale capable d’infecter efficacement les cellules tumorales. La démonstration est faite ici chez l’animal. « Avec cette navette génétique, nous ouvrons de multiples voies pour traiter les cancers agressifs, puisque nous pouvons faire produire à l'organisme lui-même un cocktail de molécules thérapeutiques directement dans la tumeur », souligne le Professeur Plueckthun.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Mise sur la marché d'un médicament intelligent aux Etats-Unis
Samedi, 07/04/2018 - 18:57

Les autorités de santé américaines ont approuvé un médicament intégrant un capteur, qui indique si le comprimé a bien été avalé. Baptisée Ability MyCite, cette pilule, dont la substance active est l’aripiprazole, est un antipsychotique administré en cas de schizophrénie, de troubles bipolaires (épisodes maniaques) et de dépression (traitement complémentaire). Lorsque le médicament est ingéré, le capteur envoie un message à un patch collé sur la peau, qui à son tour transmet l’information à une application mobile. En consultant son smartphone, le patient, un aidant ou un médecin peuvent accéder à ces données.

Chez un patient qui risque de se trouver en situation de confusion, il est important de s’assurer que le médicament est administré en temps et en heure, afin que le traitement donne son plein effet. La Food and Drug Administration (FDA), l’autorité sanitaire américaine, indique que ce procédé n’est pas destiné, pour le moment, aux patients souffrant de démence ou pour un usage pédiatrique. La question consiste à savoir si ce médicament améliore effectivement l’observance, et le cas échéant si le procédé pourrait être étendu à d’autres indications.

Article rédigé par Georges Simmonds pour RT Flash

FDA

Découvertes de neurones impliqués dans l'anxiété
Samedi, 07/04/2018 - 18:41

Des chercheurs de l'Université de Californie à San Francisco (UCSF), aux États-Unis, ont identifié chez la souris une nouvelle catégorie de neurones qui semblent fortement impliqués dans le déclenchement de l'état d'anxiété. Ces cellules ont été découvertes dans l'hippocampe, une région-clé du cerveau dans la formation de la mémoire et des émotions.

Dans cette étude, les chercheurs ont observé l'activation de certaines cellules de l'hippocampe lorsque les souris se trouvaient dans des situations anxiogènes. Ces « neurones de l'anxiété » étaient connectés à des régions de l'hypothalamus, une zone qui stimule le comportement d'évitement chez les animaux. Pour comprendre la fonction de ces projections nerveuses entre hippocampe et hypothalamus, les scientifiques ont utilisé l'optogénétique, une méthode qui consiste à contrôler des messages nerveux grâce à des rayons de lumière.

Les chercheurs ont trouvé que, s'ils supprimaient cette voie nerveuse de l'anxiété, les souris semblaient plus à l'aise dans des environnements qui, habituellement, génèrent du stress. À l'inverse, si ces connexions nerveuses étaient stimulées par optogénétique, les souris devenaient anxieuses. Cela signifie que cette voie neuronale entre hippocampe et hypothalamus, qui ne passe pas par le cerveau supérieur, permet aux animaux de répondre à une situation anxiogène. Cette découverte pourrait permettre de mieux comprendre les troubles de l'anxiété chez l'homme et de développer de nouvelles thérapies.

Article rédigé par Georges Simmonds pour RT Flash

Neuron

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Airbus fait fonctionner un drone de livraison et son point relais de façon autonome
Mercredi, 11/04/2018 - 15:12

Les drones de livraison vont-ils s'imposer comme nouveau mode de transport ? On peut le croire avec la première démonstration réussie, il y a quelques semaines, du drone livreur de colis d’Airbus. Nommé Skyways, l’engin fonctionne de façon autonome grâce à des points relais automatisés.

Le drone d’Airbus est capable de charger et décharger sa livraison automatiquement. Après s’être posé sur le toit du centre de maintenance, l’engin est aligné mécaniquement sur une trappe. Un bras robotisé s’occupe ensuite de saisir le colis pour le charger dans le drone, après quoi celui-ci peut reprendre son envol vers un point relais en passant par un couloir aérien dédié. L’utilisateur est ensuite informé de l’arrivée de son colis par une alerte SMS et peut venir le récupérer dans un casier verrouillé.

La démonstration a eu lieu à l’Université nationale de Singapour. En février 2016, Airbus Helicopters a entamé un partenariat avec l’Autorité de l’aviation civile de Singapour pour développer un système autonome permettant des livraisons commerciales. En avril 2017, Singapore Post a rejoint le projet pour devenir le partenaire logistique local.

Le drone Skyways est destiné à servir dans des zones urbaines denses. Dans les prochains mois, ce service devrait être proposé à l’essai à Singapour. Les étudiants et le personnel du campus de l’Université nationale de Singapour pourront, quant à eux, continuer à utiliser ces premières plates-formes. Ils pourront faire livrer des colis entre 2 et 4 kilos sur des points relais répartis sur l’immense campus de l’université.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Digitale

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top