RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 898
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 05 Mai 2017
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L’intelligence artificielle pour aider à déchiffrer l’écriture de la civilisation de l’Indus
Avenir
Volkswagen veut concevoir ses prochaines voitures avec HoloLens
Un nano-implant wifi pour restaurer la vue
Matière
L’éponge qui va nettoyer nos océans en absorbant les hydrocarbures
Une peau synthétique à énergie solaire
Terre
Décryptage de la première plante à fleurs
Le réchauffement des sols libérerait plus de CO2 que prévu
Vivant
Une molécule pour lutter contre le staphylocoque doré
Des chercheurs français obtiennent des images 3D inédites de l'embryon et du fœtus
La signature génomique qui prédit la durée de vie
Une nouvelle molécule contre les effets de l'âge...
Des chercheurs dévoilent la structure complète d'une protéine essentielle du virus Zika
Parkinson : une augmentation du risque associé aux activités agricoles
Des nanostructures en 3D pour des biopsies en phase liquide
Recherche
Eraole : l'avion hybride de demain
Edito
La maison du futur sera communicante, réactive et autonome



Il y a encore quelques années, le concept de maison du futur se résumait essentiellement à la « domotique », c’est-à-dire à des outils et systèmes informatiques censés faciliter la gestion domestique mais en réalité peu fiables, souvent peu évolutifs et surtout complexes à utiliser pour le grand public.

Tandis que le marché des smartphones stagne et que celui des tablettes se maintient à peine, la Consumer Technology Association (CTA) prévoit une très forte progression du marché de la domotique en 2017, de l’ordre de 60 % par an, au cours des 5 prochaines années. Fait révélateur, le secteur de la maison intelligente a tenu la vedette à l’occasion du dernier Consumer Electronic Show de Las Vegas (CES 2017), avec une surface consacrée au smart home sur le salon en hausse de 33 % par rapport à 2016.

Il est vrai que les Etats-Unis sont en avance dans ce domaine, puisque 6 % des foyers américains sont déjà gérés de manière intelligente, contre 4 % en Europe. D’ici 2020, le cabinet d’études suédois Berg Insight estime que 28 % des logements américains seront « smart », contre seulement 13 % pour les habitations européennes. Quant au marché mondial de la « Smart Home », il est promis à un avenir florissant et devrait passer, en chiffre d'affaires annuel, selon le cabinet Transparency Market Research, de 5 milliards de dollars en 2015 à 21 milliards en 2020, pour dépasser les 100 milliards de dollars en 2030.

Reste que la plupart des systèmes domotiques actuels sont passifs : ils sont certes composés d’objets et de modules connectés mais c’est à l’utilisateur de les déclencher et de s'assurer de leur bon état de fonctionnement... Comme le souligne Lionel Paillet, Directeur en Europe de la plate-forme d’objets connectés Nest, "connecté ne signifie pas intelligent. L'objectif est bien que les appareils et différents objets présents dans votre maison agissent d'eux-mêmes, sans avoir besoin que quelqu'un appuie sur un bouton. Le consommateur n'est pas un ingénieur ou un geek, il ne veut pas d'une télécommande universelle compliquée à utiliser".

Pour en arriver à ce scenario de maison « réactive », les systèmes de gestion domestique intelligente de prochaine génération vont intégrer une multitude de capteurs qui pourront détecter de manière très fiable toute présence humaine et activer automatiquement les objets et systèmes du foyer, qui auront par ailleurs la capacité de « dialoguer » entre eux et d’échanger des informations.

Exemple de ces nouveaux objets connectés : June Intelligent Oven, le nouveau four intelligent de l’entreprise June. Avec ce four, plus besoin d’avoir des notions de cuisine. Vous achetez un poulet vous le placez dans le four et ce dernier vous indique tout seul, en fonction de son poids, combien temps le cuire et vous propose même plusieurs recettes possibles. Bien entendu, quand le poulet est cuit, ce four vous envoie un sms pour vous prévenir. 

Et si après avoir dégusté cette volaille, vous souhaitez vous détendre avec quelques amis, vous pourrez compter sur Prizm. Cette pyramide sonore, de conception française, a fait le buzz au dernier CES de Las Vegas. Elle détecte le nombre de personnes présentes, reconnaît leurs goûts musicaux et s’adapte au contexte pour proposer un programme musical adapté à l’ambiance. Prizm fonctionne de manière autonome mais peut également être piloté à partir d’un smartphone.

Autre star du CES 2017, Amazon Alexa qui s’est imposé comme la nouvelle référence en matière d’assistant vocal et hub domotique. Ce système permet d’interconnecter les différents appareils du foyer et de les contrôler à distance. Il devrait prochainement être intégré directement dans les smartphones. 

Conscient de l’importance stratégique de ce marché, Google compte bien également en devenir un acteur essentiel. En mai 2016, le géant numérique a présenté « Google Home », conçu pour devenir un véritable assistant vocal pour votre maison. Grâce à une exploitation massive des ressources d’intelligence artificielle, Google Home, qui se présente sous forme d’une enceinte audio connectée, intégrant un haut-parleur et plusieurs micros, pourra répondre très rapidement à des demandes et questions complexes et permettra de commander à la voix et très simplement tous les appareils et systèmes domotiques de la maison.

Fin 2016, Microsoft a également présenté sa solution de maison intelligente, baptisée « Home Hub ». Plutôt que confiner son HomeHub à un appareil spécifique, il sera disponible au sein de chaque PC sous Windows 10. HomeHub espère évidemment devenir la passerelle de référence vers la gestion domestique familiale. Point fort du système, on pourra y accéder depuis l'écran d'accueil de l'ordinateur, sans être connecté à un compte spécifique.

Soulignons également qu’Apple a présenté il y a peu une nouvelle version beaucoup plus étendue de sa solution domotique « Home Kit » qui permet de prendre en charge et de contrôler à distance une multitude d’objets et systèmes hétérogènes et de les piloter depuis son I Phone.

La France n’échappe pas à cette effervescence générale en matière d’habitat intelligent. EDF a ainsi présenté, en octobre dernier, sa plate-forme de contrôle domotique Sowee. Ce système se présente sous la forme d’une grande télécommande, offrant un écran tactile et se connecte au réseau Wi-Fi de la maison d'une part, mais aussi aux compteurs gaz et électricité grâce à des capteurs. Sowee est compatible avec le nouveau compteur EDF connecté Linky, ainsi qu'avec les fournisseurs d'énergie alternatifs. 

Actuellement expérimentée auprès de 200 foyers, Sowee se veut résolument multifonctions et vise à améliorer le confort global de l’habitat. Cette plate-forme permettra notamment de piloter sa consommation de chauffage selon son budget et de programmer la température intérieure des différentes pièces en fonction de la présence des occupants de la maison. Mais Sowee va plus loin et, à l’aide de ses capteurs pour déterminer le taux de CO² et d'humidité, elle pourra informer en temps réel sur la qualité de l’air intérieur qui constitue une préoccupation croissante pour beaucoup de ménages.

Leroy Merlin, enseigne de bricolage préférée des Français, se lance également dans la maison intelligente et devrait lancer, d’ici la fin de l’année, sa box dédiée à la maison connectée. Celle-ci pourra assurer le pilotage à distance des objets connectés sans avoir à passer par les applications et sera conçue pour continuer à fonctionner en cas de coupure de connexion Internet et même de coupure de courant.

Mais la smart home ne se limite pas à la gestion des appareils électroménagers et systèmes audiovidéos et informatiques, elle bouleverse également deux autres domaines essentiels, celui de la sécurité et du contrôle d’accès et celui de la gestion énergétique de l’habitat. Depuis près d’un siècle et demi (invention de la serrure cylindrique équipée d'une clef plate crantée en 1861), il n’y a pas eu de révolution technologique majeure en matière de contrôle d’accès aux habitations privées. L’immense majorité des gens ont besoin, pour pouvoir entrer chez eux, d’avoir sur eux la clé de leur domicile et il faut autant de clés que de résidents d’un logement.

Mais l’internet des objets, combiné à l’intelligence artificielle et aux réseaux haut débit, va permettre, d’ici quelques années, la généralisation des serrures intelligentes. L’idée est de pouvoir contrôler à distance, en toute sécurité, la fermeture ou l’ouverture de la serrure de son domicile. En pointe dans ce domaine, la plate-forme August Access s’apprête à commercialiser plusieurs produits permettant un véritable contrôle d’accès à distance et à la carte du domicile.

L’un de ces modules s’utilise sur iPhone via Siri, et se contrôle donc par la voix : c’est un verrou intelligent qui peut être actionné à distance. Un autre module, complémentaires du premier, se présente sous la forme d’un digicode amélioré, qui permet de générer un nouveau code automatiquement pour chaque utilisation. Enfin, le troisième module est un interphone sophistiqué, équipé d’une caméra qui permet de voir qui sonne à votre porte et de la déverrouiller de n’importe où. Bien entendu, ces systèmes, très simples d’utilisation, ont fait l’objet de protections informatiques très élaborées pour rendre très difficile toute tentative de piratage.

En France, Somfy propose également un système de clés intelligentes qui permet de rentrer et sortir de chez soi en utilisant simplement son mobile ou un badge RFID. La serrure se contrôle à distance grâce à l’application « Ma serrure connectée », disponible sur iOS ou Android. Un lecteur de Badge permet également de déverrouiller la porte. Il est même possible, si vous n’avez pas votre portable avec vous, de déverrouiller à distance votre serrure depuis un autre téléphone portable, via un appel sur un serveur vocal sécurisé.   

Mais un autre secteur devrait également être profondément impacté par l’avènement de la maison intelligente, celui de l’énergie. Les expérimentations menées dans le cadre du programme Comepos, associant l'Ademe et le CEA, ont montré qu’une habitation à énergie positive, parfaitement isolée, et qui produit son électricité grâce à des panneaux photovoltaïques, ne consomme pas plus de 19 kWep/m2/an, c’est-à-dire trois fois moins que le seuil énergétique fixé par la RT2012. Mais si ces habitations atteignent de telles performances énergétiques, ce n’est pas seulement à cause de leur excellente isolation, c’est également parce que ces maison ont recours à une gestion informatique intelligente qui permet par exemple, grâce à des capteurs d’ensoleillement, d’activer automatiquement les volets roulants dès que la luminosité et la chaleur extérieures dépassent un certain seuil.

En France, logements et bureaux consomment environ 69 millions de tonnes équivalent pétrole, soit 44 % de la consommation finale d’énergie en France. Sachant qu’il serait possible de réduire d’au moins 25 % la consommation énergétique résidentielle grâce à une généralisation de la gestion intelligente de l’énergie des habitations, c’est donc 17 millions de tonnes équivalent pétrole par an qui pourraient être économisées, soit plus de 10 % de la consommation totale d’énergie finale de la France… En matière de gestion de l’eau, la généralisation de la domotique intelligente et connectée aurait également un impact considérable et pourrait permettre, à confort égal, de réduire de plus d’un milliard de m3 par an, la consommation domestique d’eau en France

Mais pour rendre la maison véritablement intelligente, réactive et autonome, les systèmes domotiques intégrés, même interactifs et intuitifs d’utilisation, ne suffiront pas et un autre acteur essentiel va venir très vite s’imposer : le robot domestique connecté. Présent sur le marché depuis 2016, le mini-robot Riley, bon marché, fiable et très mobile, grâce à ses chenilles, peut, en complément de la gestion domotique du foyer, surveiller votre habitation et vous prévenir en cas de problèmes, qu’il s’agisse d’une intrusion, d’une fuite d’eau ou encore de vérifier si le dossier que vous avez oublié est bien resté sur la table du salon.

Beaucoup plus sophistiqué, mais nettement plus onéreux, Lynx, le robot de l’entreprise chinoise Ubtech Robotics, se veut, par sa polyvalence, un maître majordome de la maison. Doté de la reconnaissance faciale et vocale, Lynx peut gérer votre agenda et vous rappeler les choses importantes à faire ; il peut également écrire ou lire vos mails, sans avoir besoin d’ouvrir votre ordinateur, vous rappeler que vous devez prendre votre médicament et donner l’alerte si vous restez immobile sur le sol ou si vous l’appelez à l’aide…

Mais pourquoi vouloir ajouter des robots domestiques à ces systèmes domotiques déjà très performants et interactifs ? Pour une raison simple mais tout à fait essentielle dans notre société vieillissante : le maintien à domicile dans les meilleurs conditions des personnes âgées. En utilisant de manière conjointe et complémentaire domotique et robotique domestique, il devient en effet possible, par l’intégration des services de télémédecine et de télésanté, de maintenir la très grande majorité des seniors à domicile, même quand ceux-ci ont malheureusement perdu une grande partie de leur autonomie ou sont atteints de pathologies lourdes et chroniques.

Le maintien et l’hospitalisation à domicile (HAD) des personnes âgées exprime non seulement une demande très forte des seniors et de leurs familles mais représente également un enjeu médical et économique majeur sur le plan national. Comme le souligne la Cour des Comptes dans l’un de ses derniers rapports, avec 3 700 000 journées d’hospitalisation correspondant à la prise en charge de près de 98 000 patients et 145 000 séjours, l’HAD ne représente encore que 0,6 % de l’ensemble des hospitalisations à temps complet et reste à un niveau très faible et sensiblement inférieur à celui de nos principaux voisins européens.

Or, selon le bulletin d’information de l’économie de la santé de février 2017, le coût d’une journée pour les financeurs publics est, en moyenne, de 263 € en service de soin et de réadaptation (SSR) contre 169 € en HAD (Voir IRDES) et ce coût moyen journalier en SSR demeure supérieur, quels que soient l’âge, le niveau de dépendance et le profil médical du patient. Cette revue souligne qu’en créant 10 000 places d’HAD, il serait possible de réaliser à terme une économie de près de 350 millions d’€ par an pour les financeurs publics.

La généralisation de la domotique intelligente intégrant la robotique domestique constitue, dans cette optique du maintien à domicile, un objectif humain, économique, social et médical tout à fait majeur et doit devenir une priorité politique dans notre pays, si nous voulons que demain les personnes âgées dépendantes, dont le nombre va sans doute doubler d’ici 2040, puissent continuer à vivre chez elles dans les meilleures conditions, à un coût global supportable pour la collectivité.

Il est frappant de constater, alors que ces 20 dernières années ont été marquées par une révolution numérique sans précédent avec la généralisation de l’Internet, du mobile et des réseaux optiques et sans fil à très haut débit, que nos habitations sont restées largement à l’écart de cette mutation numérique majeure. Si nous voulons pouvoir relever les défis redoutables que constituent le vieillissement et la dépendance, mais également favoriser de nouvelles formes d’activités, comme le télétravail ou la téléformation, il est grand temps de tout mettre en œuvre pour que la domotique intelligente sorte enfin des laboratoires et puisse bénéficier à tous nos concitoyens, à commencer par les plus fragiles d’entre eux.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L’intelligence artificielle pour aider à déchiffrer l’écriture de la civilisation de l’Indus
Mercredi, 03/05/2017 - 13:41

La civilisation de la vallée de l’Indus, aussi appelée civilisation harappéenne (-2600 à -1900 av. J.-C.), est une civilisation de l’Inde antique dont les vestiges s’étendent sur les régions actuelles du Baloutchistan, du Sindh, du Penjab et du Gujarat. Elle se caractérise par un fort degré d’urbanisation avec des cités remarquablement développées, organisées selon une planification complexe, qui intégraient notamment la gestion des eaux usées.

Malheureusement, depuis sa découverte au XIXème siècle, les textes et les symboles de cette brillante civilisation restent indéchiffrables. Environ 400 symboles différents ont été recensés, mais sans « pierre de Rosette », ou texte bilingue avec une autre écriture connue, linguistes et épigraphes n’ont pas été capables de déchiffrer l’écriture de la civilisation de l’Indus.

Adoptant une approche nouvelle, deux scientifiques de Chennai, Ronojoy Adhikari, de l’Institute of Mathematical Sciences et Satish Palaniappan, du Sri Sivasubramaniya Nadar College of Engineering, ont développé un algorithme permettant de lire l’écriture de la civilisation de l’Indus à partir des sceaux ou poteries qui en sont recouverts. Cet algorithme d’apprentissage profond (« deep-learning algorithm ») peut « reconnaître » à partir de l’image d’un objet, la partie qui contient des caractères écrits, de les séparer en graphèmes (en linguistique, la plus petite unité d’un système d’écriture) individuels, puis de les identifier à partir d’un corpus de texte standard.

L’algorithme se base sur plusieurs niveaux de réseaux de neurones artificiels, une technologie d’intelligence artificielle appelée « deep neural network » déjà utilisée notamment dans les voitures autonomes ou la simulation du jeu de Go. Ces différents niveaux imitent le fonctionnement des différentes régions du cerveau humain au cours du processus de lecture qui se déroule en trois phases. Lors de la première étape, les parties de l’image contenant des caractères sont découpées puis sélectionnées ; ces images sont ensuite elles-mêmes découpées en morceaux ne contenant qu’un seul graphème. Enfin, chaque graphème est classifié pour correspondre à l’un des 417 caractères de l’écriture de la civilisation de la vallée de l’Indus.

Cette opération permettra de créer de façon automatisée un corpus standardisé de textes de la civilisation de l’Indus à partir de l’ensemble des objets trouvés lors de fouilles archéologiques, une tâche qui autrement aurait requis un effort humain considérable. Un tel corpus représenterait une avancée significative pour la recherche épigraphique et pourrait conduire à déchiffrer cette écriture mystérieuse.

Article rédigé par Georges Simmonds pour RT Flash

The Indu

^ Haut
Avenir
Nanotechnologies et Robotique
Volkswagen veut concevoir ses prochaines voitures avec HoloLens
Jeudi, 04/05/2017 - 15:39

L'industrie s'intéresse à la réalité augmentée et Volkswagen ne fait pas exception. Dans un communiqué publié le 16 mars 2017, le constructeur allemand explique travailler sur un projet autour de Microsoft HoloLens au sein de son laboratoire d'ingénierie virtuelle (Virtual Engineering Lab) de Wolfsburg. Frank Ostermann, le directeur du laboratoire, a développé avec ses équipes une application à destination des ingénieurs du constructeur.

"Chez Volkswagen, nous utilisons la réalité virtuelle et augmentée depuis un bon moment, principalement pour visualiser des éléments en 3D", déclare-t-il dans le communiqué. "Mais nous faisons aujourd'hui un grand pas en avant. Nous transposons cette technologie en un outil pour le développement technique. Elle va permettre à nos ingénieurs de travailler sur un véhicule virtuel, de changer ses équipements comme ils l'entendent et même d'en créer de nouveaux. Et ils verront le résultat de leur travail immédiatement."

Dans la démonstration décrite par Volkswagen, l'application permet entre autres de visualiser un modèle réduit d'une Golf à l'échelle 1:4 sur lequel l'utilisateur peut changer tout un tas d'élements : roues, feux arrières, peinture, rétroviseurs, pare-chocs... Pour l'interaction, le programme tire parti des fonctionnalités de commandes vocales et gestuelles d'HoloLens. "Nous avons une collaboration étroite avec nos collègues du développement technique et nous sommes déjà proches des premiers concepts de véhicules créés de cette manière", reprend Frank Ostermann. "Nous leur transférons notre savoir-faire afin qu'il bénéficie à toutes les marques du groupe."

La raison invoquée par Volkswagen est le gain de temps et la baisse des coûts de développement. D'après l'industriel, chaque étape peut être effectuée plus rapidement et de façon plus efficiente en virtuel. Un autre avantage pour Volkswagen est qu'HoloLens permet, en plus de représenter un modèle complet intégralement en 3D, de projeter des modifications sur une maquette réelle.

Il offre aussi la possibilité à plusieurs équipes situées dans différents centres (par exemple ceux de Wolfsburg, Chattanooga et Shanghai) de travailler en même temps sur le même modèle. Le gain de temps par rapport à une visualisation sur un modèle en argile est inestimable. "Chaque équipe peut suivre l'évolution du modèle en direct, comparer les changements et prendre une décision sans attendre."

L'application est pour le moment dans une phase pilote. Elle permettra à l'avenir aux ingénieurs d'utiliser l'ensemble du catalogue Volkswagen et de modifier à loisir pour créer toutes les variantes possibles d'un véhicule. Un SUV peut se transformer en berline ou en coupé sans effort. "Il y a encore quelques années, c'était de la science-fiction", commente Frank Ostermann.

"Mais il est désormais évident que nos prochains modèles seront conçus de cette manière". A noter néanmoins que dans sa version actuelle, les possibilités offertes par HoloLens pour la conception assistée par ordinateur sont très limitées. La puissance embarquée du casque le limite à des modèles contenant au maximum 100 000 polygones si on souhaite conserver des performances optimales, soit un niveau de complexité et de réalisme de loin inférieur à celui des modèles 3D utilisés pour la conception réelle de véhicules.

Le rendu des couleurs est aussi limité dans sa fidélité par la technologie d'affichage d'HoloLens (sur un verre transparent teinté). Enfin, le champ de vision du casque est assez étroit (45°) et ne permet par conséquent pas de visualiser un véhicule entier à taille réelle, ni de l'inspecter de trop près.

On peut donc imaginer que les scénarios cités par Volkswagen font référence à des expérimentations simples visant à faciliter les échanges autour des premières ébauches d'un projet et n'ont pas vocation – du moins dans l'immédiat – à complètement remplacer les outils traditionnels. Une chose est sûre cependant : Volkswagen se prépare à l'avenir avec ce projet. Et quand les prochaines versions d'HoloLens (ou d'autres équipements du même type) aux capacités supérieures arriveront sur le marché, le constructeur sera prêt à en tirer parti au plus vite.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Digitale

Un nano-implant wifi pour restaurer la vue
Mercredi, 03/05/2017 - 14:05

Une équipe d'ingénieurs de l'Université de Californie San Diego et de la Jolla a développé un nouveau type de prothèse de la rétine, une technologie qui pourrait aider des dizaines de millions de personnes dans le monde souffrant de maladies neurodégénératives avec des effets sur la vue, de dégénérescence maculaire, de rétinite pigmentaire et de troubles de la vision liés au diabète.

Cette prothèse rétinienne à haute résolution, composée de nanofils et d’électronique sans fil, représente un pas incontestable pour restaurer la capacité des neurones à répondre à la lumière. Cette innovation a été testée in vitro sur une rétine de rat.

Cet implant utilise des réseaux de nanofils de silicium qui détectent simultanément la lumière et stimulent électriquement la rétine en fonction. Ces nanofils apportent à la prothèse une capacité de résolution plus élevée que celle obtenue avec toutes les autres prothèses ; autre innovation, cet implant comporte un dispositif sans fil qui peut transmettre la puissance et les données aux nanofils par wifi à une vitesse record et un maximum d’efficacité énergétique.

Un des principaux atouts de ce prototype est de ne pas avoir besoin de capteur de vision externe (à l'œil) pour capter une scène visuelle et la transformer en signaux alternatifs pour stimuler les neurones de la rétine : en effet, les nanofils de silicium imitent les cônes et les tiges de la rétine, sensibles à la lumière, pour stimuler directement les cellules rétiniennes.

Les nanofils sont regroupés dans une grille d'électrodes, activée directement par la lumière et alimentée par un seul signal électrique sans fil. Cette traduction directe et locale de la lumière incidente en stimulation électrique permet une architecture beaucoup plus simple et évolutive pour la prothèse.

L’énergie est fournie sans fil, de l'extérieur du corps à l'implant, grâce à un système de télémétrie inductive. Le dispositif est hyper économe en énergie car il minimise les pertes d'énergie grâce à la transmission sans fil, recycle l'énergie électrostatique circulant.

Jusqu'à 90 % de l'énergie transmise est effectivement livrée et utilisée pour la stimulation, ce qui signifie moins de rayonnements dans la transmission. Lorsque les chercheurs insèrent in vitro la prothèse sous une rétine de rat transgénique modèle de dégénération rétinienne, ils constatent que les neurones s’activent préférentiellement lorsque la prothèse est exposée à une combinaison de lumière et de charge électrique : cela confirme la réactivité activée par la lumière et contrôlée par tension du réseau de nanofils. 

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

^ Haut
Matière
Matière et Energie
L’éponge qui va nettoyer nos océans en absorbant les hydrocarbures
Jeudi, 04/05/2017 - 16:05

Et si l’on pouvait nettoyer les océans comme on fait notre vaisselle : avec une simple éponge ? C’est ce qu’ont inventé des chercheurs américains du Laboratoire national d’Argonne et du bureau des sciences du ministère de l’Énergie des États-Unis. L’Oleo Sponge est capable d’absorber 90 fois son poids en pétrole et en diesel, à la surface mais surtout – grande avancée – en profondeur. Reste alors à l'essorer puis à la réutiliser. Le pétrole, lui, peut être recyclé.

C’est le 20 avril 2010 que les scientifiques se sont posé la question de comment nettoyer nos océans. Ce jour-là, Deepwater Horizon, plate-forme pétrolière située dans le golfe du Mexique, explose. Plus grave que l’incendie : la marée noire sans précédent qui déverse plus de 780 millions de litres de pétrole dans l’océan Atlantique. Ce que les chercheurs découvrent, c’est que même si le pétrole semble être nettoyé en surface, des millions de litres se déplacent en profondeur. Or, les seuls moyens existants pour purifier l’eau (combustion, écrémage, dispersion) ne sont pas adaptés aux fonds marins. D'autant que ces techniques, coûteuses et lentes, ne sont pas efficaces à 100 % et sont souvent à usage unique, sans toujours permettre la réutilisation du pétrole.

Il est alors apparu nécessaire d’inventer de nouveaux matériaux et de nouvelles manières pour absorber ces hydrocarbures. Résultat de ces longues années de recherches : un bloc de mousse capable d’absorber facilement le pétrole, à la surface de l’eau comme en dessous, et pouvant être essoré puis réutilisé. "L'Oleo Sponge offre un ensemble de possibilités qui, à notre connaissance, sont sans précédent", a déclaré le co-inventeur Seth Darling. Le Laboratoire national d’Argonne disposait déjà d’une bibliothèque de molécules permettant de capturer du pétrole. Le problème était de trouver une structure physique pour contenir cette molécule.

Après quelques tâtonnements, c’est finalement la mousse de polyuréthane (que l’on retrouve dans les coussins ou l’isolation des maisons) qui semble être la plus adaptée. Cette matière, comparée à "un muffin anglais" par les scientifiques, fournit une surface suffisante pour saisir l’huile. Deux chimistes, Seth Darling et Jeff Elam, parviennent ainsi à injecter des atomes d’oxyde métallique à l’intérieur des nanostructures de l’éponge, afin de créer une fine couche de produit, qui agit comme une colle-aimant, attirant et retenant le pétrole.

L’éponge grandeur nature ressemble plutôt à une serpillère. Elle a été testée à Ohmsett, un grand réservoir d’eau de mer, dans le New Jersey. À chaque fois, Oleo Sponge a récupéré la totalité du pétrole et du diesel déversée dans le bassin. "Le matériau est extrêmement robuste. Nous avons exécuté des centaines de tests, en l’essorant à chaque fois, et elle ne s’est pas encore détériorée" assure Seth Darling.

En plus d’être utilisé lors de marées noires, l’Oleo Sponge pourrait être employée pour nettoyer les ports où les huiles polluantes s’accumulent. En modifiant le type de molécule injectée dans l’éponge, ses créateurs pourraient même lui permettre d'aspirer d'autres substances. "La technique offre une flexibilité énorme et peut être adaptée à d'autres types de nettoyage. Vous pourriez mettre une molécule différente pour aspirer la substance spécifique dont vous avez besoin", explique Jeff Elam.

Article rédigé par Georges Simmonds pour RT Flash

We Demain

Une peau synthétique à énergie solaire
Jeudi, 04/05/2017 - 15:46

Des chercheurs de l’Université de Glasgow ont réussi à exploiter les propriétés physiques remarquables du graphène pour mettre au point une peau synthétique capable de capter l’énergie du soleil.

La même équipe avait développé auparavant une peau électronique pour les mains prothétiques à base de graphène : cette forme très flexible de graphite, composée d’un atome simple, est plus résistant que l’acier, conducteur électrique et transparent. Cette transparence optique du graphène permet à environ 98 % de la lumière qui frappe sa surface de passer directement à travers elle. Une propriété exploitée pour recueillir l’énergie du soleil et produire de l’énergie pour la conductance de la peau.

Les bio-ingénieurs du groupe Bendable Electronics et Sensing Technologies (BEST) ont intégré pour la première fois des cellules photovoltaïques génératrices d’énergie dans leur peau électronique. Car "la peau humaine est un système incroyablement complexe capable de détecter la pression, la température et la texture grâce à un réseau de capteurs neuronaux qui transmettent des signaux de la peau au cerveau", explique l’auteur principal, le Docteur Dahiya, de l’École de génie de l’Université de Glasgow.

Le groupe, déjà expert en création de prothèses, avait déjà développé une peau synthétique capable de ressentir la pression avec une grande sensibilité. Cela permet à la main prothétique d’effectuer des tâches difficiles comme la préhension de matériaux fins ou légers.

Cette nouvelle peau sensible au toucher ouvre la possibilité de créer des robots capables de prendre de meilleures décisions sur la sécurité humaine. Un robot travaillant sur une ligne de construction, par exemple, est beaucoup moins susceptible de blesser accidentellement un être humain s’il est capable de sentir l‘intrusion d’un humain dans sa zone de travail.

La nouvelle peau ne nécessite que 20 nanowatts de puissance par centimètre carré, une énergie fournie par des cellules photovoltaïques, standards et disponibles sur le marché. Et si l’énergie générée par les cellules photovoltaïques de la peau ne peut être stockée, l’équipe cherche déjà le moyen de détourner l’énergie inutilisée en piles, ce qui apporterait une réserve d’énergie à la prothèse, en cas de besoin : l’idée serait en effet de pouvoir utiliser cette énergie de réserve pour alimenter les moteurs qui entraînent la main prothétique. La prothèse serait alors totalement autonome sur le plan énergétique. L’équipe travaille actuellement à développer des systèmes portables pour des soins de santé abordables.   

Article rédigé par Georges Simmonds pour RT Flash

AFM

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Décryptage de la première plante à fleurs
Jeudi, 04/05/2017 - 15:12

En comparant la séquence d’ADN de plus de 35 génomes de plantes, les chercheurs de l’Inra ont reconstruit le génome ancestral de la première plante à fleurs, constitué de 15 chromosomes porteurs de plus de 20 000 gènes et datant de 214 millions d’années, une origine plus ancienne que celle supposée par les plus vieux fossiles de plantes connus à ce jour.

L’apparition de copies surnuméraires de gènes ancestraux ainsi que la réorganisation des chromosomes ancestraux, au cours de l’évolution, a induit une plasticité génomique à l’origine de nouvelles espèces végétales ainsi qu’à leur adaptation à l’environnement changeant. Publiés dans Nature Genetics, ces travaux visent in fine à améliorer, chez des espèces aux génomes complexes, des caractéristiques agronomiques telles que le rendement, la qualité ou la tolérance au stress.

Les plantes constituent la composante fondamentale de notre environnement et génèrent l’essentiel de la biomasse présente à la surface de la terre. La masse de données génomiques acquises ces 20 dernières années a permis d’améliorer considérablement la compréhension de l’organisation et de la régulation des génomes des plantes à fleurs. Ces dernières, appelées aussi angiospermes, sont constituées de deux grandes familles, les monocotylédones (céréales) et les dicotylédones (légumineuses, crucifères, arbres fruitiers…).

Dans le cadre de cette étude, les chercheurs de l’Inra ont analysé 37 génomes de plantes : riz, maïs, sorgho, brome, vigne, arabette, peuplier, papaye,  soja, pêcher, pommier… Ces différents génomes ont des structures très diverses, de 20 000 à 40 000 gènes, un nombre de chromosomes allant de 5 à plus de 20, des tailles de quelques centaines à plusieurs milliers de mégabases… Toutes ces espèces dérivent d’une espèce ancestrale commune, mais quelle est la structure du génome fondateur et permet-il d’élucider les mécanismes qui ont participé à une telle diversité de génomes modernes ?

Les chercheurs de l’Inra ont modélisé le génome de l’ancêtre disparu (on parle de paléogénomique) des plantes à fleurs et ont montré qu’elles dérivent d’un ancêtre constitué de 15 chromosomes porteurs de plus de 20 000 gènes fondateurs communs à toutes les espèces. Ces gènes fondateurs codent pour des fonctions biologiques de ‘base’ (notamment impliquées dans le développement et l’architecture de la plante). Il existe aussi des gènes spécifiques de chaque espèce qui sont engagés dans des fonctions plus ‘spécialisées’ (c’est-à-dire la régulation de processus biologiques complexes).

Au cours de l’évolution, les chromosomes ancestraux ont été remaniés et ont fusionné entre eux pour donner naissance à de nouvelles espèces aux génomes distincts. Ainsi, les génomes de plantes modernes apparaissent comme une mosaïque de chromosomes ancestraux réarrangés. Toutefois, les espèces, mais aussi les gènes ou même les chromosomes d’une même espèce, n’ont pas évolué à la même vitesse, de telle sorte que des compartiments génomiques de certaines espèces apparaissent plus stables que d’autres au cours du temps.

ces travaux  permettent d’identifier avec précision les régions qui portent des gènes ayant une origine commune au sein par exemple des génomes de riz, maïs, sorgho, blé, brome, vigne, arabette, peuplier, papaye, luzerne, soja, pommier... Les informations connues sur la fonction biologique des gènes chez une de ces espèces permettent d’interpréter plus facilement la fonction de ces mêmes gènes chez les autres espèces apparentées.

On peut donc rechercher de façon plus efficace les gènes impliqués dans les caractères d’intérêt agronomique chez une espèce et d’en étudier la fonction potentielle chez les autres espèces facilitant ainsi l’amélioration variétale.

Article rédigé par Georges Simmonds pour RT Flash

INRA

Le réchauffement des sols libérerait plus de CO2 que prévu
Mercredi, 03/05/2017 - 14:16

La température des sols augmente avec le réchauffement climatique et libère de plus en plus de gaz carbonique dans l’atmosphère. Selon une étude américaine, cette quantité de CO2 produite serait quatre fois supérieure à ce qu’estimaient les biogéochimistes.

Les sols de la Terre contiennent environ trois mille milliards de tonnes de carbone contenu dans des molécules organiques. Les organismes qui colonisent les sols en sont friands, ils les utilisent et les décomposent dans les nombreux mécanismes qui leur sont vitaux, comme la respiration hétérotrophe, au cours de laquelle ils rejettent ledit carbone sous forme gazeuse (le CO2) dans l’atmosphère. Plusieurs estimations ont montré que le réchauffement climatique allait augmenter les émissions de CO2 dues à la respiration des sols.

Au rythme actuel du réchauffement climatique et si les accords de Paris, entrés en vigueur en novembre 2016 et signés par 195 pays, n’atteignent pas leur objectif, les sols pourraient se réchauffer de 4°C d’ici à cent ans. L’équipe de biogéochimistes, dirigée par Margaret Torn du laboratoire national de Berkeley en Californie, a donc voulu tester la réaction des sols lorsqu’une telle hausse de température leur était appliquée.

Jusqu’à aujourd’hui, les expériences de réchauffement du sol in situ ne se concentraient que sur les vingt premiers centimètres du sol et ignoraient donc les effets de tels changement sur les couches plus profondes (entre 20 cm et un mètre). Pourtant, ces couches contiennent plus de 50 % des réserves de carbone organique du sol. L’équipe s’est donc attelée à chauffer de 4°C plusieurs parcelles de terre de 3 mètres de diamètre, dans une forêt tempérée de conifères à sol argileux, en Amérique du Nord. Pour ce faire, ils ont utilisé des tiges et des câbles chauffants, leur permettant de faire varier la température de leurs échantillons jusqu’à un mètre de profondeur, sans altérer le gradient naturel de température du milieu.

Tous les mois, pendant deux ans, Margaret Torn et ses collègues ont mesuré les émissions de gaz carbonique de chaque parcelle à cinq paliers de profondeur différents. Pour Pierre Barré, du laboratoire de géologie de l’Ecole normale supérieure, spécialiste de la dynamique du carbone dans les sols : « c’est un dispositif original et unique qui a dû nécessiter un travail colossal en termes de mesure de données ».

Les biogéochimistes ont découvert qu’un réchauffement des sols de 4°C entraînait une augmentation de la respiration du sol d’environ 37 %, soit près de quatre fois plus que ce que prévoyaient les estimations précédentes. En extrapolant ces données à la surface de la Terre, cela signifierait que les sols perdraient jusqu’à 3,1 milliards de tonnes de carbone par an. Le réchauffement climatique est grandement dû aux émissions de gaz carbonique d’origine anthropique. Or, en chauffant, les sols libèrent naturellement plus de CO2 qui, à son tour, contribue à ce réchauffement dans ce qui constitue un cercle vicieux.

Article rédigé par Georges Simmonds pour RT Flash

La Recherche

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une molécule pour lutter contre le staphylocoque doré
Jeudi, 04/05/2017 - 16:10

L'équipe du Professeur Yves Dufrêne, chercheur à l'Institut des sciences de la vie de l'Université catholique de Louvain (UCL), vient d'identifier, en collaboration avec le Trinity College Dublin, une nouvelle molécule capable d'empêcher le développement des biofilms à staphylocoque.

Certaines bactéries pathogènes comme le staphylocoque doré sont capables de s'attacher à la surface des dispositifs médicaux pour s'y multiplier et former des biofilms. Ces infections sont résistantes aux antibiotiques et particulièrement difficiles à traiter. Une alternative aux antibiotiques est la thérapie antiadhésive, qui vise à lutter contre les infections à biofilms en utilisant de petites molécules qui masquent les protéines d'adhésion qui décorent la surface du pathogène, l'empêchant ainsi de former des biofilms.

Ainsi, le jus de canneberge est, par exemple, utilisé de longue date comme remède traditionnel "antibiofilm" pour lutter contre les infections urinaires. Le but des chercheurs est donc de mettre au point de nouvelles molécules performantes sur une base rationnelle, permettant d'optimiser la prévention ou le traitement des infections à biofilms. Une équipe de chercheurs de l'UCL vient d'identifier une nouvelle molécule capable d'empêcher le développement des biofilms à staphylocoque.

"Il s'agit d'un petit peptide synthétique dérivé d'une molécule neuronale, la ß-neurexine, qui inactive une protéine d'adhésion majeure de la surface des staphylocoques, y compris des souches résistantes aux antibiotiques", selon l'UCL. Actuellement, on estime que les biofilms formés par des bactéries pathogènes comme le staphylocoque doré sont responsables de plus de 65 % des maladies contractées lors d’un séjour en milieu hospitalier.

Article rédigé par Georges Simmonds pour RT Flash

UCL

Des chercheurs français obtiennent des images 3D inédites de l'embryon et du fœtus
Jeudi, 04/05/2017 - 15:29

Une équipe de chercheurs français coordonnée par Alain Chédotal, directeur de recherche au sein de l’Institut de la vision (INSERM/UPMC/CNRS) et Paolo Giacobini au centre de recherche Jean-Pierre Aubert (INSERM/Université de Lille) dévoilent des photos et des images filmées inédites de l'embryon (8 semaines) et du fœtus (6 à 14 semaines) ce qui permet une meilleure compréhension du développement humain.

Les chercheurs espèrent que leurs travaux permettront de constituer un nouvel atlas 3D et ont souhaité mettre leurs images à la disposition du public sur un site internet dédié, subventionné par la Fondation Voir & Entendre. « Nous y proposons nos films libres d’accès et allons l’enrichir au fur et à mesure que nous en produirons de nouveaux. Nous aimerions également que d’autres laboratoires puissent le compléter avec leurs propres travaux. L’objectif est d’en faire une banque internationale d’images pour disposer d’un véritable atlas en 3D de l’embryon humain au cours du premier trimestre de développement, avec une recherche possible organe par organe. Il y a à la fois un but didactique mais aussi une utilité clinique notamment pour les chirurgiens qui opèrent in utero et disposeront ainsi d’images précises des tissus de l’embryon ou encore de leur système nerveux et vasculaire », indiquent-ils.

Jusqu'ici, les représentations de l'embryon étaient soit des moulages en cire soit des reconstitutions d'organes entiers réalisées par des dessinateurs à partir de l’analyse de fines coupes observées au microscope. Pour obtenir les premières images 3D réelles des tissus et organes d’embryons, les chercheurs se sont appuyés sur les avancées de l'imagerie en combinant 3 techniques : l'immunofluorescence, la clarification des tissus et l’observation microscopique. Cette méthode est encore plus précise que les images échographiques ou les images Doppler pour la vascularisation.

Les organes ont d'abord pu être marqués grâce à l'utilisation d'anticorps fluorescents se fixant spécifiquement sur des protéines exprimées par certaines cellules. Pour visualiser le signal fluorescent, les chercheurs ont utilisé la clarification des tissus, une technique mise au point chez la souris en 2011 qui consiste à plonger les tissus dans plusieurs solvants afin de débarrasser les cellules de leurs lipides membranaires et de ne conserver que leur architecture/squelette protéique, ce qui permet le passage de la lumière.

Un microscope spécial à feuillet de lumière a été utilisé qui, à l'aide d'un laser épais de deux micromètres, a permis de scanner les échantillons transparents et de prendre une photo de chaque plan. Une image 3D de l’organe est ensuite restituée par informatique. Ont ainsi été obtenues des images du système nerveux périphérique, du système vasculaire, des poumons, des muscles ou encore du système urogénital. Parmi leurs découvertes, les chercheurs montrent que l'innervation de la peau se développe avant la fin du premier trimestre et qu'il existe une extrême variabilité intra et interindividuelle.

Article rédigé par Georges Simmonds pour RT Flash

Cell

La signature génomique qui prédit la durée de vie
Jeudi, 04/05/2017 - 15:22

Des chercheurs du Centre allemand de recherche sur le cancer (Deutsches Krebsforschungszentrum) préfèrent, à tous les tests de longévité, une signature épigénétique associée selon leur recherche à un profil de risque extrêmement précis de maladie et de longévité. On retiendra que le statut de méthylation de seulement 10 positions de notre génome est très fortement corrélé avec la mortalité toutes causes confondues…

Les modifications épigénétiques sont en fait des modifications chimiques dans le génome qui déterminent si les gènes sont actifs ou désactivés. Les marqueurs méthyliques de l’ADN jouent un rôle clé dans cette régulation "épigénétique" de l’activité génétique. Le style de vie et les facteurs environnementaux influencent la méthylation dans le génome. De nombreuses études ont ainsi documenté le lien entre certaines modifications épigénétiques sur des positions spécifiques dans le génome et certaines maladies, en particulier le cancer mais également la plupart des maladies chroniques.

Les chercheurs du DKFZ à Heidelberg ont tenté de mieux cerner le lien entre le statut de méthylation dans l’ADN et la santé d’une personne, sa sensibilité à la maladie ou son risque de décès. Leur étude a porté sur l’ADN des cellules sanguines de 1.900 participants à 2 études épidémiologiques Esther et Kora, suivis durant 14 ans et plus. Les groupes méthyle sont attachés à certaines combinaisons de blocs d’ADN nmmées CpGs (CpGsite). Les chercheurs ont analysé pour quelque 500.000 de ces régions, si leurs niveaux de méthylation révélaient un lien statistique avec la survie. Après analyse, 58 CpGs semblent être fortement corrélés à la mortalité.

Ces groupes sont tous localisés dans des régions génomiques pour lesquelles une association avec diverses maladies est déjà documentée, dont 22 d’entre eux avec le tabagisme – qui semble le facteur le plus "marquant" dans le génome. Une méthylation réversible cependant, expliquent les auteurs : "la méthylation de l’ADN n’est pas gravée dans la pierre et, contrairement aux mutations génétiques, elle est réversible. Cela signifie, par exemple, qu’un état de méthylation défavorable peut être corrigé après l’arrêt du tabac, par exemple".

Sur les 58 CpGs, les scientifiques sélectionnent les 10 ayant la corrélation la plus forte avec la mortalité. Et cette signature épigénétique permet, à elle-seule, de prédire la mortalité de toutes les causes (cancer, maladies cardiovasculaires et autres) avec une précision remarquable. Ainsi, les participants dont le génome présente une signature défavorable sur 5 positions ou plus, présentent un risque de décès multiplié par 7 sur les 14 années de suivi (vs aucune position).

La méthylation de l’ADN révèle ainsi un lien beaucoup plus fort à la survie que toutes les autres signatures auparavant envisagées. Le profil de risque épigénétique s’avère ainsi un indicateur plus précis de la durée de vie que tous les autres profils de risque génétique établis précédemment.

Il reste donc à exploiter ces données sous forme d’un test clinique puis de bien identifier les facteurs de mode de vie rattachés à chaque "position défavorable". Enfin, ces conclusions pourraient suggérer que, finalement, les facteurs environnementaux priment sur les facteurs génétiques dans notre risque moyen de maladie et de décès.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Une nouvelle molécule contre les effets de l'âge...
Jeudi, 04/05/2017 - 15:04

Selon les chercheurs, les cellules sénescentes contribuent d’une façon générale au vieillissement car elles n’assurent plus leurs fonctions de réparation des tissus. Elles contribuent aussi au développement de certaines maladies, comme les maladies cardio-vasculaires, l’arthrite, le diabète. Le fait de les éliminer serait donc bénéfique pour l’organisme.

L’équipe de chercheurs de Rotterdam (Pays-Bas) dirigée par Peter de Kaiser a développé la molécule d’intérêt FOXO4. Il s’agit d’un peptide qui va en quelque sorte pousser les cellules sénescentes à se suicider. Débarrassées de ces cellules sur le déclin, l’organisme des souris n’en a alors semblé que plus jeune : les rongeurs étaient plus minces, leur fourrure plus dense, les fonctions rénales améliorées. En outre, le peptide agit tout en épargnant les cellules saines.

Plus précisément, les conséquences de l’action du peptide seraient de restaurer l’homéostasie au sein des tissus biologiques (globalement, leur équilibre) ou encore la réponse envers les agents chimiotoxiques. Les chercheurs pointent que la molécule pourrait être utile dans les cas de personnes qui ont subi des traitements médicaux ayant justement altéré leur homéostasie (comme une chimiothérapie) ou tout simplement dans les cas classiques de vieillissement cellulaire.

L’étude n’est pas sans faire écho aux travaux publiés précédemment dans Cell en décembre 2016, également menés sur des souris. Des chercheurs américains ont, en effet, réussi à rajeunir de vieux rongeurs en reprogrammant leurs cellules. Les scientifiques avaient constaté que les signes de vieillesse avaient en effet quasiment disparu et certains organes des souris, comme la peau, le cœur ou les reins, se sont améliorés. Cette technique qualifiée de révolutionnaire était elle aussi encore loin d’être utilisable chez l’Homme.

Article rédigé par Georges Simmonds pour RT Flash

Science Mag

Des chercheurs dévoilent la structure complète d'une protéine essentielle du virus Zika
Mercredi, 03/05/2017 - 14:25

Des chercheurs américains de Riverside (Université de Californie) ont réussi à déterminer la structure cristalline de la totalité de la protéine NS5, une protéine essentielle du virus Zika. Le virus Zika (ZIKV) est un virus à ARN de la famille des flaviviridae, tout comme le virus de la dengue ou de l’encéphalite japonaise.

Le virus Zika a infecté plus d’un million de personnes à travers le monde, dans plus de 30 pays. Il se transmet par la piqûre du moustique Aedes aegypti et Aedes albopictus, par voie sexuelle, ou de la mère infectée au fœtus. Il peut provoquer un syndrome de Guillain-Barré, serait à l’origine de microcéphalies lors de l’infection fœtale, et aucun vaccin ou traitement curatif n'existe actuellement.

La protéine NS5 permet la réplication du virus, en synthétisant de l’ARN grâce à une activité polymérase. Connaître sa structure aidera les chercheurs à comprendre comment le virus se réplique. Pour ce faire, les chercheurs ont développé un protocole qui réduit le temps de purification de la protéine.

L’analyse de la structure de la protéine a permis de trouver un site de liaison potentiel pour un inhibiteur, une base prometteuse pour développer des inhibiteurs contre Zika.

La structure de la protéine a par ailleurs révélé de nombreux points communs avec d’autres virus de la même famille. « Notre travail ouvre la voie à de futures études sur ZNK NS5, et à des opportunités pour le développement de traitement, basés sur la similarité de structure de ZNK NS5 avec les protéines équivalentes chez d’autres flavivirus, comme le virus de la dengue, explique Rong Hai, l'un des chercheurs.

Ces résultats suggèrent que des inhibiteurs de la synthèse de l’ARN utilisés pour d’autres flavivirus pourraient être utilisés pour inhiber la réplication de Zika. Il a d’ores et déjà été montré par d’autres études récentes que des inhibiteurs des polymérases du virus de la dengue, du virus du Nil occidental, ou du virus de la fièvre jaune affectaient la synthèse d’ARN de ZIKV.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Parkinson : une augmentation du risque associé aux activités agricoles
Mercredi, 03/05/2017 - 13:57

De nombreuses études ont décrit la relation entre l'exposition professionnelle aux pesticides et le risque accru de Parkinson chez les agriculteurs et les travailleurs agricoles. En collaboration avec Santé publique France, une équipe de l'Inserm s'est intéressée à l'impact d'une exposition non professionnelle à ces composés. Ils ont étudié le nombre de nouveaux cas diagnostiqués en fonction de l'importance de l'activité agricole dans chaque canton français, utilisée comme indicateur de l’utilisation de pesticides. Selon cette étude, l'incidence de la maladie de Parkinson serait d'autant plus élevée que les activités agricoles sont développées localement. Le risque serait maximal dans les territoires où la viticulture est fortement présente.

La maladie de Parkinson est une maladie neurodégénérative dans laquelle une population spécifique de neurones est progressivement détruite, conduisant à un tableau de symptômes spécifiques (tremblement, lenteur et troubles de la coordination des mouvements…). Des travaux conduits sur des cellules et des modèles animaux ont en partie permis de décrypter les mécanismes par le biais desquels les pesticides favorisent la neurodégénérescence.

Les données toxicologiques et épidémiologiques sont d'ailleurs suffisamment solides pour que la maladie de Parkinson soit inscrite au tableau des maladies professionnelles chez les agriculteurs en France. La place importante des pesticides dans l'agriculture traditionnelle autorise légitimement à poser la question de son impact sur la population générale.

Les auteurs se sont fondés sur le nombre de personnes nouvellement traitées par des médicaments antiparkinsoniens dans chaque canton français, entre 2010 et 2012 (données issues des bases de l’assurance maladie). Ils ont ensuite utilisé le recensement agricole national conduit par le ministère de l'Agriculture, en 1988 puis en 2000, pour caractériser l'activité agricole sur chacun de ces territoires.

Ainsi, les auteurs ont pu décrire l'association existant entre le nombre de cas de maladie de Parkinson et l'importance et la nature de l'activité agricole pour chaque canton. Différentes variables pouvant influencer la survenue de la maladie ou la fréquence du diagnostic (tabagisme, ensoleillement, niveau socio-économique…) ont été prises en compte.

Résultat : le nombre de nouveaux cas annuel dans chaque canton est associé à la proportion de surface des cantons allouée à l’agriculture : "Plus cette dernière est élevée, plus le nombre local de cas est important. Et avec certaines cultures, comme la viticulture, l’association semble plus prononcée" précise Alexis Elbaz.

La corrélation la plus forte est en effet celle liée à la présence la plus élevée de vignobles. Elle augmentait l'incidence locale de la maladie d’environ 10 %. Cette association est retrouvée dans différentes régions viticoles.

"La relation entre l'activité viticole et la maladie de Parkinson est plus marquée chez les plus de 75 ans, en comparaison des sujets plus jeunes, quelle que soit la population analysée", explique le chercheur.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Des nanostructures en 3D pour des biopsies en phase liquide
Mercredi, 03/05/2017 - 13:48

Des chercheurs indiens du Maharashtra Institute of Pharmacy, basé à Pune, ont mis au point un système à microcanaux utilisant une nanostructure en 3D pour capturer des cellules tumorales en circulation dans le sang. Une découverte prometteuse pour le développement des biopsies en phase liquide.

Quand une tumeur se développe, il arrive que des cellules cancéreuses migrent vers d’autres organes en suivant les circuits sanguins ou lymphatiques, où elles s’ancrent et prolifèrent : c’est le phénomène de métastase. Depuis quelques années, la recherche sur le cancer s’emploie à tirer parti de ce phénomène. En effet, les cellules tumorales circulant dans le sang peuvent être prélevées à l’aide d’une simple prise de sang et permettre un diagnostic précoce, ou renseigner sur le type de cancer, plutôt que d’effectuer une biopsie directement sur la tumeur.

Cette équipe, dirigée par Jayant J. Khandare et Shashwat Banerjee, a développé un système permettant de capturer ces cellules tumorales circulantes. Utilisant des nanoparticules magnétiques associées à un polymère, ils ont fabriqué un système de microcanaux en trois dimensions, lequel a réussi avec succès à capter des cellules de cancer du sein et du côlon, et ceci même lorsqu’elles étaient présentes à faible concentration. Cette avancée indienne devrait permettre d'accélérer la mise sur la marché de tests de diagnostic précoce de certains cancers. 

Article rédigé par Georges Simmonds pour RT Flash

Natureasia

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Eraole : l'avion hybride de demain
Jeudi, 04/05/2017 - 15:57

Les véhicules 100 % électriques existent, mais ils souffrent d'un défaut majeur : une autonomie encore très inférieure à celle des véhicules alimentés par des carburants dérivés du pétrole. Et pour cause "1 litre de carburant équivaut aujourd'hui, en termes énergétiques, à 30 kilos de batterie environ", estime Raphaël Dinelli, ancien navigateur et co-concepteur d'un projet d'avion hybride baptisé Eraole.

Or, la masse est un facteur très limitant pour l'autonomie des avions. "C'est pourquoi un avion électrique tel que l'E-Fan est capable de voler environ 30 minutes tout au plus à pleine puissance, et un peu plus du double à vitesse réduite", chiffre Raphaël Dinelli. De tels appareils ne sont donc pas conçus pour effectuer de longs trajets. Ils sont généralement cantonnés à une base où ils font de très bons avions école", explique-t-il.

En effet, ces machines bien plus silencieuses que celles pourvues d'un moteur thermique occasionnent peu de nuisances lorsqu'il s'agit de multiplier les décollages et les atterrissages dans le cadre de formations. "Toutefois, nous, on ne voulait pas faire un avion école mais bien un appareil capable d'effectuer de longs trajets", précise Raphaël Dinelli. Et non des moindres puisque l'objectif visé n'est rien de moins que d'effectuer un vol sans escale au dessus de l'Atlantique...

Un exploit déjà réalisé par un autre appareil 100 % électrique : le Solar Impulse qui a bouclé un tour du monde en une quinzaine d'étapes successives. "Mais le Solar Impulse est un appareil extrêmement fragile qui, avec son envergure de 72 mètres, ne vole que dans des conditions très particulières", analyse Raphaël Dinelli. "Nous souhaitions un avion beaucoup plus polyvalent avec des capacités à même de rivaliser avec celles d'un avion classique", poursuit-il.

Et c'est dans cet esprit qu'a été développé Eraole. Un engin au design de biplan, afin d'augmenter la surface de ses ailes entièrement recouvertes de panneaux solaires. "Des cellules photovoltaïques parmi les plus performantes du marché, semblables à celles qui équipent le Solar Impulse, et dont le rendement atteint 24 %", précise Raphaël Dinelli. À la différence toutefois que celles de l'avion Eraole sont incluses dans un panneau composite un peu plus lourd (1 kilo par mètre carré, contre 700 grammes environ pour le Solar Impulse) mais plus résistant.

Cette énergie issue du photovoltaïque peut couvrir jusqu'à 50 % des besoins énergétiques de l'avion lors d'un vol en plein après-midi, estime Raphaël Dinelli. Le reste de l'énergie électrique est fourni par une petite centrale thermique alimentée par des biocarburants. Cette dernière s'assure en permanence, via un calculateur, que les deux batteries de l'appareil (2 x 12 kilos) sont en permanence chargées.

"L'idée est de faire un avion le plus décarboné possible. Nous nous refusons donc à employer du kérozène", précise le porteur de ce projet. Mais le biocarburant idéal n'a pas encore été identifié. "Nous travaillons pour le moment sur un carburant issu de micro-algues, développé par la société française Fermentalg. Toutefois, nous rencontrons encore quelques problèmes au niveau de l'acidité et de la résistance au froid, car ce biocarburant a tendance à se figer à basse température. D'autres biocarburant issus de déchets végétaux sont donc également à l'étude" précise Raphaël Dinelli.

Mais ces travaux sur les biocarburants ne représentent qu'une partie des innovations technologiques de cet appareil, où tout a été pensé pour minimiser la masse. L'appareil a été entièrement moulé en fibre de carbone. Un matériau résistant et très léger. Et nous avons travaillé à l'origine depuis 7 ans avec l'Onera pour optimiser le design général. Ainsi, l'appareil est conçu pour pouvoir planer pendant plusieurs heures, afin d'économiser ses batteries. "S'il était pourvu d'un moteur classique l'Eraole, grâce à son poids réduit et sa finesse, consommerait 10 fois moins qu'un appareil de même catégorie", affirme son concepteur. Notre consommation n'est que de 3 litres de carburant à l'heure", chiffre-t-il.

Pour le moment, l'avion est encore en phase de "caractérisation". Après avoir effectué son premier vol d'essai sur l'aéroport de Cergy fin 2016, l'objectif est maintenant d'effectuer des vols de quelques heures dans différentes conditions, afin de mesurer plus précisément les limites de l'appareil, tout en poursuivant son amélioration. Initialement prévu en 2016, le premier vol transatlantique sans escale (5.000 km en 60 heures), sur le même parcours que Charles Lindbergh (entre New York et Le Bourget) a été repoussé d'au moins deux ans. L'engin devra également être équipé d'un parachute et d'un radeau de survie, en cas d'amerrissage d'urgence.

Article rédigé par Georges Simmonds pour RT Flash

Sciences et Avenir

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top