RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 802
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Juin 2015
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une puce pour transformer un smartphone en scanner 3D
Avenir
Les lunettes holographiques, avenir de la robotique
La protection des drones contre le piratage : un enjeu majeur
Des nano-transporteurs fluorescents pour un diagnostic simple et non invasif des cellules cancéreuses
Matière
Des transistors organiques à commande optique de haute performance
Une usine mobile à énergie solaire pour dessaler l'eau
Une vitre électrochromatique alimentée par le vent et la pluie
Vivant
Un test tout simple pour dépister l'AVC et la maladie d'Alzheimer
L'augmentation de l'incidence de l'autisme remise en cause...
Pour rester mince: plutôt des noix, du poisson et des yaourts que de la viande et des sucres...
Trop de sel est mauvais pour le cerveau
Le -Cœur sur puce- va-t-il révolutionner la médecine ?
Des extraits de brocoli pour lutter contre le cancer
Un projet américain de cartographie du génome des bébés
Un test sanguin pour prédire le cancer du sein
Edito
Stocker toute la mémoire de l’Humanité sur quelques kilos d’ADN…



Selon une étude du Cabinet IDC, le monde devrait produire en 2015 environ 8 595 exaoctets (un exaoctet est égal à un milliard de milliards d’octets, soit 1018 Octets), contre seulement 130 en 2005, soit une multiplication par 66 de la quantité annuelle de donnés produites au cours de la dernière décennie.

Sur la période 2013-2020, cette masse de données produites chaque année dans le monde devrait, toujours selon IDC, être encore multipliée par douze et passer de 3,5 à 44 zetaocets. Le taux de numérisation de l’information, qui n’était encore que de 25 % il y a 15 ans, est à présent de 99 % et la montée en puissance des communications de machine à machine et l’explosion de l’Internet des objets - avec 200 milliards d’objets connectés en 2020 - représenteront plus du quart des données générées à la fin de la décennie et plus de la moitié à l’horizon 2025. On mesure mieux la croissance phénoménale du stock de données mondial quand on sait que ce dernier a été généré à 90 % au cours de ces deux dernières années…

Face à cette augmentation exponentielle de la quantité de données produites, notre civilisation numérique a de plus en plus de peine à suivre en matière de stockage informatique de masse. Certes, depuis trente ans, la capacité moyenne de stockage de nos disques durs a été multipliée par un million (passant de 5Mo et 5 To) mais cette course à l’augmentation de la taille de nos mémoires va bientôt se heurter à des limites redoutables, liées aux lois de la physique elle-même.

C’est pourquoi chercheurs et ingénieurs explorent de nombreuses pistes dans l’espoir de parvenir à de véritables ruptures technologiques qui permettraient de multiplier par plusieurs ordres de grandeur la capacité de stockage dont nous allons avoir besoin pour emmagasiner ces masses presque inconcevables d’informations. Le défi technologique est d’autant plus ardu qu’il est quadruple : il s’agit en effet de concevoir de nouveaux outils de stockage non seulement plus performants mais également plus sobres en énergie, plus fiables sur la durée et si possible moins coûteux à fabriquer !

Leur source d’inspiration est - comme souvent - ce que la nature a fait de mieux dans le domaine, à savoir l’acide désoxyribonucléique, plus connu sous le nom d’ADN. Une macromolécule biologique composée de deux brins appelés polymères. En clair, de deux longues chaînes de petites molécules différentes accrochées les unes aux autres dans un ordre précis et qui permettent d’encoder ainsi toute l'information génétique nécessaire au développement et au fonctionnement d’un être vivant.

Depuis trois ans, les avancées se multiplient dans ce domaine stratégique : une équipe britannique dirigée par le généticien George Church de l'Université d'Harvard -, avait fait sensation en 2012 en réussissant à encoder sous forme de 55 000 minuscules brins d’ADN, un livre de 300 pages, comportant 53 326 mots et une dizaine d'illustrations. Le tout représentait 5,56 mégabits d’informations, soit 600 fois plus que la plus grande quantité d’informations stockée sur ADN jusqu’à lors ! Grâce à ces travaux, Church montra qu’il était possible de stocker un bit par paire de bases. On comprend mieux l’extraordinaire saut technologique que représente ce mode de stockage sur ADN quand on sait qu’avec seulement un gramme d’ADN, il est théoriquement possible de stocker jusqu’à 700 To de données, soit l’équivalent de 14 336 disques Blu-ray actuels de 50 Go, chacun représentant un poids total de 140 kg…

Début 2013, une autre équipe, de l'Université de Cambridge, dirigée par Nick Goldman et Ewan Birney, a réussi à convertir en ADN une photo haute définition ainsi qu’une version MP3 du célèbre discours "I have a dream" de Martin Luther King mais aussi l'article scientifique où Watson et Crick ont décrit pour la première fois la double hélice de l'ADN et l'ensemble des sonnets de William Shakespeare -soit près de six millions de bits- (Voir The Guardian).

Mais contrairement à l’équipe de Georges Church, qui avait conservé un système binaire et dont les inscriptions sous forme d’ADN comportaient quelques petites erreurs, les chercheurs anglais ont donné la priorité à la fiabilité de l'encodage et ont opté pour un code trinaire composé de 0, de 1 et de 2.  

Une fois la séquence établie, elle a été traduite en « lettres » génétiques, c’est-à-dire en A, T, C ou G, qui correspondent aux éléments de base de l'ADN (adénine, thymine, cytosine et guanine). La dernière étape de cette « écriture » a consisté à réaliser la synthèse chimique de ces « phrases ». C’est là que les chercheurs ont déployé des trésors d’ingéniosité pour parvenir à produire, sans erreur de transcription, de l'ADN en chaîne longue. Ils ont notamment découpé les informations en petites séquences, chacune reprenant à la fois le début de la séquence précédente, la fin de la suivante et intégrant des informations de contrôle chargées de s’assurer de la localisation exacte des « bits » inscrits.

Finalement, les 115 000 brins d'ADN synthétique obtenus (environ le double de l'équipe d'Harvard), ont été lyophilisés, ce qui permet de les lire facilement et de les conserver très longtemps. « L’une des grandes propriétés de l'ADN est que vous n’avez pas besoin d’énergie pour le stocker. Il suffit simplement de l’entreposer dans un endroit froid, sec et sombre pour le conserver pendant des siècles, voire plus longtemps. Nous en avons la preuve grâce à l'ADN de mammouth, qui s’est parfaitement conservé dans ces conditions », souligne Ewan Birney.

Reste la question du coût, aujourd’hui très élevé, du stockage sur ADN. Mais, sur ce point, Birney rappelle que le coût du séquençage de l'ADN a déjà été divisé par cent depuis une dizaine d’années et que ce type de stockage est déjà rentable pour certaines catégories d’informations qui doivent être archivées de manière fiable plus de 50 ans.

Interrogé pour savoir si l'ADN utilisée pourrait présenter un danger pour la santé, si elle était incorporée accidentellement dans l’organisme d’un être humain, Nick Goldman souligne pour sa part que « L'ADN que nous avons créé ne peut pas être intégré accidentellement dans un génome ; il utilise en effet un code complètement différent de celui utilisé par les cellules des organismes vivants. Dans l’hypothèse où vous vous retrouveriez avec cet ADN à l'intérieur de votre organisme, il serait tout simplement dégradé et éliminé ».

De leur côté, des chercheurs de l'Université Harvard, du laboratoire européen d’Heidelberg et de l'EPFZ (Ecole Polytechnique Fédérale de Zurich) ont effectué récemment une nouvelle percée qui montre qu’il est possible de concevoir des « Mémoires à ADN » qui conservent les informations sur une longue durée (Voir Extreme Tech).

Cette équipe a réussi à stocker sur un fragment d’ADN la Charte fédérale suisse de 1921 et la méthode des théorèmes mécaniques d'Archimède. Ces chercheurs ont ensuite placé ce fragment d’ADN dans une microbille de verre mesurant 150 nanomètres de diamètre. Ils ont enfin soumis l’ensemble à des conditions physiques et thermiques extrêmes, afin de simuler un vieillissement accéléré de plusieurs milliers d’années, et ont apporté la preuve que ces données restaient parfaitement lisibles, même après ce test. Selon Nick Goldman, « Le stockage massif de données sur ADN sera suffisamment fiable et bon marché pour être utilisé à grande échelle dans une dizaine d’années ».

L’intérêt de ces recherches n’a évidemment pas échappé aux géants de l’informatique qui sont confrontés au défi du stockage de la quantité croissante d’informations générées par nos sociétés numériques. Microsoft, quant à lui, a déjà développé un langage spécifique baptisé DNA Stand Displacement Toll, qui peut être utilisé pour concevoir des séquences génétiques capables de faire fonctionner des circuits électroniques (Voir Microsoft Research).

Mais ces spectaculaires avancées n’empêchent pas les chercheurs de continuer à explorer d’autres voies car la molécule d’ADN, dont chacun des bruns est un polymère appelé polynucléotide, ne constitue pas forcément la meilleure solution de stockage dans tous les cas de figure. C’est pourquoi il est indispensable d’étudier également les propriétés d’autres polymères, synthétiques ceux-là, en matière de stockage d’informations

Dans ce domaine, l’équipe de l’Institut Charles-Sadron de Strasbourg (CNRS) et de l’Institut de chimie radicalaire de l’Université d’Aix-Marseille, dirigée par Jean-François Lutz, vient de réussir une première mondiale en parvenant à inscrire un court message, en code binaire sur un polymère entièrement synthétique (Voir Nature).

« Nous avons écrit ces données avec des polyamides, mais nous aurions très bien pu le faire avec des polyesters », explique Jean-François Lutz qui poursuit « L’apport principal de nos travaux réside dans la méthode que nous avons mise au point et qui permet d’agencer les monomères de manière précise pour créer un message ». Dans leur polymère, les chercheurs français ont réussi à encoder l’équivalent d’une phrase composée de quelques mots. Comme avec l’ADN, ce message est lisible par séquençage. Mais il peut également être très rapidement effacé car le polymère utilisé est stable à température ambiante mais s’autodétruit au-dessus de 60 degrés Celsius. Concrètement, les chercheurs ont utilisé trois monomères. Deux de ces monomères représentent les chiffres 0 et 1 du langage binaire et peuvent être utilisés de manière interchangeable au cours de la synthèse. Un troisième monomère de type nitroxide est intercalé entre les bits afin de faciliter l'écriture et la lecture de la séquence codée.

Pour l’instant, l’encodage reste artisanal et chaque message doit être synthétisé à la main, monomère par monomère, sur une chaîne en croissance, une opération évidemment fastidieuse qui prend une journée. Mais à terme, il est tout à fait envisageable d’automatiser ces opérations d’encodage en les confiant à des robots. Quant à la lecture, elle s’effectue à l’aide d’un spectromètre de masse, qui ne met que quelques minutes à décrypter les données. Ces travaux de pointe ont également montré qu'à température ambiante, le polymère se conservait plusieurs mois et que, compte tenu de la grande stabilité des molécules employées, il pouvait très probablement avoir une durée de vie de plusieurs années…

Prochaine étape de cette équipe française : parvenir avant 2020 à stocker des messages de plusieurs mégaoctets à l’aide de cette technologie prometteuse. Le CNRS, qui a fait breveter cette méthode, souligne par ailleurs que celle-ci pourrait également trouver des applications dans le domaine de l’authentification et de la traçabilité de certains produits ou substance de grande valeur. Il est en effet possible d’imaginer l’apposition de véritables « codes-barres moléculaires » sur certains objets à protéger. Ainsi « marqués, ces objets deviendraient pratiquement impossibles à contrefaire ».

Mais parallèlement à ces recherches très futuristes, d’autres voies technologiques beaucoup plus classiques sont loin d’avoir dit leur dernier mot. C’est notamment le cas de l’enregistrement magnétique des données qui a effectué récemment des progrès spectaculaires : il y a un an, en mai 2014, Sony a ainsi pulvérisé le record de densité sur cassette magnétique : il atteint désormais 18,5 To par pouce carré (soit un peu moins de 3 To par centimètre carré). Cette capacité de stockage est 74 fois plus grande que les cassettes généralement utilisées pour l'archivage actuel et permet désormais de stocker jusqu'à 185 To sur une seule cassette, soit 18 fois le contenu total de la bibliothèque du Congrès des Etats-Unis !

Pour atteindre de telles performances, Sony est parvenu à concevoir un nouveau procédé de fabrication de bande magnétique. Il est désormais capable de pulvériser de manière uniforme des cristaux magnétiques de 7,7 nanomètres sur un film en polymère mesurant moins de 5 micromètres.

De son côté, Seagate mise sur une technologie encore plus prometteuse, baptisée HAMR (Heat Assisted Magnetic Recording ou Enregistrement magnétique assisté thermiquement). Cette technique repose sur l’utilisation de matrices magnétiques composées de particules en alliage fer et platine et devrait permettre, dès 2020, de fabriquer des disques durs de 20 To.

Grâce à ce saut technologique, les chercheurs pensent pouvoir gagner un facteur 100 et atteindre une densité de stockage phénoménale, de l’ordre de 50 térabits par pouce carré. Avec de telles mémoires, il serait par exemple possible de stocker la totalité du contenu imprimé de la bibliothèque du Congrès américain sur un seul disque dur…

Le principe de l’HAMR consiste à augmenter la capacité de stockage en chauffant la zone où les bits de données sont en cours d’enregistrement avec un faisceau laser, ce qui rend celle-ci plus facile à écrire. Les données inscrites sont ensuite fixées grâce à un refroidissement rapide.

On le voit, plus d’un demi-siècle après la conférence mémorable que donna le grand physicien Richard Feynman en décembre 1959 (« Il y a plein de place en bas »), les idées géniales et visionnaires de ce géant de la science sont en train de devenir réalité : la maîtrise de la matière et de la lumière à l’échelle atomique et des mécanismes moléculaires de stockage de l’information génétique devraient en effet nous permettre de stocker de manière durable et fiable l’ensemble du savoir humain sur seulement quelques centaines de disques de type HAMR et dans quelques kilos d’ADN (Ces deux modes de stockage étant sans doute appelés à coexister en raison de leur complémentarité).

Mais une fois de plus, seule l’alliance des sciences de la matière, de l’information et de la vie, dans le cadre de la mise en œuvre de nouveaux concepts transdisciplinaires et d’une nouvelle articulation entre recherche fondamentale et recherche appliquée, a pu rendre possible ce saut scientifique technologique et culturel majeur qui permettra à chacun d’entre nous d’avoir accès instantanément à toute la mémoire du monde.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Une puce pour transformer un smartphone en scanner 3D
Lundi, 08/06/2015 - 09:40

Dans un des épisodes de "Mission impossible" on pouvait voir l'un des agents secrets utiliser son smartphone pour prendre en photo 3D une statuette à la valeur inestimable. L'agent envoyait alors l'image obtenue à une imprimante 3D distante qui en réalisait une réplique parfaitement ressemblante.

Ce scénario ne relèvera bientôt plus du cinéma, si l'on en croit le Professeur Ali Hajimiri, du California Institute of Technology, le célèbre Caltech. Avec son équipe, il a conçu une puce nanophotonique baptisée NCI (Nanophotonic Coherent Imager). Mesurant moins d’un millimètre carré de surface, elle permet de numériser des objets en 3D avec une grande précision et elle est assez minuscule pour pouvoir être intégrée dans un smartphone.

"Contrairement aux capteurs photo classiques, qui ne délivrent aucune information concernant la distance entre l’objet et l’appareil, dans la puce NCI, chaque pixel devient un interféromètre indépendant, capable de détecter la phase et la fréquence du signal en plus de son intensité", explique le professeur Hajimiri. Pour parvenir à ce résultat, cette puce incorpore plusieurs Lidar qui projettent des rayons laser sur l’objet visé en utilisant le phénomène de cohérence optique qui utilise la polarisation des ondes lumineuses.

Au niveau de la puce, la réflexion lumineuse engendrée par les Lidar est captée par de minuscules détecteurs, appelés coupleurs qui font office de pixels. La lumière réfléchie est ensuite convertie en signal électrique intégrant des informations sur la distance et l’intensité pour chaque pixel, ce qui permet de reconstruire une image en trois dimensions de l'objet ainsi photographié…

Article rédigé par Georges Simmonds pour RT Flash

OIB

^ Haut
Avenir
Nanotechnologies et Robotique
Les lunettes holographiques, avenir de la robotique
Jeudi, 11/06/2015 - 14:23

Microsoft vient de présenter de nouvelles applications pour son dispositif de lunettes connectées. A l'occasion d’une conférence à San Francisco, Alex Kipman, un ingénieur de Microsoft, a dévoilé un concept visant à exploiter les données recueillies par les lunettes connectées (en matière d’obstacles, de relief et d’environnement) pour les transmettre au robot.

Ce dernier n’aurait ainsi plus besoin de capteurs puissants pour se déplacer dans l’espace. À l’inverse, les données du robot sont transmises aux lunettes pour que l’utilisateur les visualise immédiatement sans avoir besoin de mettre en place un écran trop onéreux. Il s'agirait donc d'une extension virtuelle du robot physique.

A terme, Microsoft voit plus loin et est persuadé que d’autres objets connectés pourraient exploiter le potentiel des lunettes de réalité augmentée. L’appareil deviendrait ainsi un centre de commande et un transmetteur/récepteur de données.

En fait, Microsoft veut repenser toute l’interaction entre monde physique et monde virtuel car le géant de l’informatique veut rendre les objets réels entièrement dépendants de son dispositif de réalité augmentée.

Article rédigé par Georges Simmonds pour RT Flash

Daily Mail

La protection des drones contre le piratage : un enjeu majeur
Jeudi, 11/06/2015 - 13:50

le Naval Air Systems Command (NAVAIR), qui gère les aéronefs et missiles au sein de la marine de guerre américaine, a mis en œuvre, avec la collaboration d'entreprises privées, un plan destiné à prévenir les cybermenaces visant les drones militaires américains.

L'un des objectifs clés du projet au-delà de la classique prévention des intrusions est la possibilité de réagir en cas d'attaque réussie pour reprendre le contrôle des éléments compromis. Ce plan s'inscrit dans un programme plus large de renforcement de la sécurité informatique au sein de la Navy.

Cette protection accrue est rendue nécessaire par la fusion de plus en plus prononcée des systèmes électroniques et informatiques en une seule et même plate-forme. Le chasseur F-35, par exemple, comporte plus de 8 millions de lignes de code...

Au-delà d'un renforcement des capacités actuelles, l'objectif est surtout que les prochaines générations d'équipements intègrent la cybersécurité comme composante majeure dès la phase de conception. La Darpa y travaille d'ailleurs depuis plusieurs années au travers du programme HACMS (High Assurance Cyber Military Systems)

Article rédigé par Georges Simmonds pour RT Flash

Engadget

Des nano-transporteurs fluorescents pour un diagnostic simple et non invasif des cellules cancéreuses
Mercredi, 10/06/2015 - 09:10

Une équipe de chercheurs de l'Institut Italien de Technologie de Gênes, Lecce et Milan, coordonnée par Silvia Giordani, a récemment développé des nouveaux nanomatériaux à base de fullerènes multicouches et de marqueurs fluorescents qui sont capables de pénétrer facilement au travers de la membrane cellulaire, sans conséquences toxiques pour les cellules elles-mêmes, et sans générer de processus inflammatoires dans les tissus environnants.

En outre, ces nanovecteurs sont capables, d'une part, de détecter les variations de certaines caractéristiques des cellules tumorales (Le pH acide, par exemple), ouvrant la possibilité de leur utilisation pour le diagnostic de tumeurs et, d'autre part, de pénétrer à l'intérieur des cellules cancéreuses pour y produire une fluorescence, ce qui permet de faciliter leur localisation pendant le diagnostic.

Ces nano-transporteurs ont donc d'excellentes propriétés qui pourraient permettre un diagnostic simple et non invasif des cellules cancéreuses ou souffrant d'autres pathologies. A l'avenir, ils pourraient servir de moyen pour un diagnostic et une thérapie simultanés, en identifiant la cellule malade et en permettant la libération ciblée de médicaments à l'intérieur.

Article rédigé par Georges Simmonds pour RT Flash

Istituto Italiano di Technlogia

 

^ Haut
Matière
Matière et Energie
Des transistors organiques à commande optique de haute performance
Jeudi, 11/06/2015 - 13:57

Des chercheurs du Laboratoire de Nanochimie de l'Institut de Science et d'Ingénierie Supramoléculaires (CNRS / Université de Strasbourg), en collaboration avec l'Université Humboldt de Berlin (Allemagne), l'Université de Stanford (USA) et l'Université libre de Bruxelles (Belgique), ont démontré que des transistors à effet de champ à commande optique de haute performance peuvent être élaborés en mélangeant des molécules photochromiques avec de petites molécules semi-conductrices organiques.

De tels dispositifs multifonctionnels organiques sont considérés comme des éléments clés pour les circuits logiques du futur. Les matériaux optoélectroniques organiques seront en effet présents dans l'informatique de demain. Dans ces dispositifs, la lumière est utilisée pour moduler les propriétés électriques.

A l'issue de ces travaux, les chercheurs ont réussi à fabriquer des transistors à commande optique à base de BTBT. Ils ont démontré que de petites molécules semi-conductrices peuvent surpasser leurs homologues polymères en termes de performances électriques photosensibles lorsqu'elles sont mélangées avec des molécules photochromiques de type DAE dans des transistors à couches minces.

Ces résultats prometteurs ouvrent la voie au développement de dispositifs électroniques à commande optique de haute performance avec des applications potentielles pour les mémoires et les circuits logiques, et plus généralement en optoélectronique et en détection optique

Article rédigé par Georges Simmonds pour RT Flash

Nature

Une usine mobile à énergie solaire pour dessaler l'eau
Mercredi, 10/06/2015 - 09:20

Une équipe d'ingénieurs du MIT et de la compagnie américaine Jain Irrigation Systems a mis au point une usine mobile de dessalement efficace et bon marché, fonctionnant entièrement grâce à des panneaux solaires. Cette invention pourrait être très utile dans les pays en voie de développement, ou dans les régions touchées par le manque d'eau, comme le Chili ou la Californie.

Techniquement, l'usine utilise l'énergie produite grâce aux rayons du soleil pour charger ses batteries qui alimentent un "électro-dyaliseur" chargé de dessaler l'eau, elle-même pompée dans l'océan ou la mer. L'eau produite est alors parfaitement potable.  

"L'électrodialyse consiste à faire passer un flux d'eau entre deux électrodes de charges opposées. L'eau salée est chargée d'ions positifs et négatifs, les électrodes extraient ces ions de l'eau. Résultat, une "bulle" d'eau fraiche est créée au milieu du flux. Des membranes permettent ensuite de séparer l'eau fraiche du flux d'eau salée.

Selon l'un des chercheurs ayant développé le projet, David L. Chandler, "90 % de l'eau salée pompée pourra ressortir de l'usine en étant potable, ce qui est énorme, comparé aux taux habituels de 40 à 60 %".

Article rédigé par Georges Simmonds pour RT Flash

Sciencealert

Une vitre électrochromatique alimentée par le vent et la pluie
Mercredi, 10/06/2015 - 07:11

Les fenêtres de nos immeubles et les pare-brise de nos voitures deviendront-ils des générateurs d'électricité à partir du vent et de la pluie ? Peut-être, grâce à une étonnante technologie très prometteuse mise au point par des chercheurs du Georgia Institute of Technology.

Il s’agit d’un verre électrochromatique alimenté par deux systèmes de récupération d’énergie. Ce procédé repose sur l’électricité statique produite par le frottement entre deux matériaux, un phénomène appelé effet triboélectrique. Le verre utilisé est équipé de nanogénérateurs triboélectriques qui récupèrent l’électricité statique issue du contact du verre avec la pluie et le vent.

Le système se compose de deux couches. La première située à la surface du verre est composée d’une structure nanoscopique en forme de pyramides. Cette couche est chargée négativement. Quand la pluie tombe, le contact de l’air avec l’eau crée une charge positive dans la goutte. Les gouttes venant frapper le verre génèrent un courant électrique. La seconde couche de nanogénérateurs, juste sous la première, récupère l’énergie du vent. Elle se compose de deux feuilles de plastique transparent chargées électriquement entre lesquelles sont intercalés des ressorts nanoscopiques. Lorsque le vent souffle sur le verre, il crée une pression qui compresse les ressorts et rapproche les deux feuilles qui vont alors générer de l’électricité.

En combinant les deux procédés de récupération d’énergie, le système peut non seulement alimenter le verre électrochromatique qui se teinte en bleu mais aussi produire 130 milliwatts d’électricité par mètre carré de surface. Selon les chercheurs, cette puissance serait suffisante pour alimenter un pacemaker ou un smartphone en veille. Pour l'instant, ces nanogénérateurs parviennent à convertir environ 60 % de cette énergie mécanique en électricité mais ce taux devrait pouvoir être amélioré. 

Article rédigé par Georges Simmonds pour RT Flash

ACS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un test tout simple pour dépister l'AVC et la maladie d'Alzheimer
Jeudi, 11/06/2015 - 14:36

Combien de temps êtes-vous capable de tenir en équilibre sur une jambe ? la réponse à cette question simple pourrait permettre de dépister un risque d'accident vasculaire cérébral (AVC), voire de démence, selon des recherches menées par des chercheurs de l'Université de Kyoto au Japon. D'après les scientifiques, dirigés par le Docteur Yasuharu Tabara, les sujets qui ne parviennent pas à se maintenir au moins 20 secondes dans cette position présenteraient un risque accru de micro-AVC dans le cerveau qui pourrai favoriser, à plus long terme, les symptômes de la maladie d'Alzheimer. Pour conforter leur théorie, ces chercheurs ont testé leur méthode sur 841 femmes et 546 hommes âgés en moyenne de 67 ans, en leur demandant de rester en équilibre sur une jambe, en gardant les yeux ouverts, pendant 60 secondes.

En France, 155.000 personnes sont victimes d'un accident vasculaire cérébral (AVC) et 62.000 en décèdent chaque année. Ce test simple pourrait être utile à titre préventif pour le dépistage de la maladie d'Alzheimer, dont 225.000 nouveaux cas sont diagnostiqués chaque année.

On mesure mieux l'intérêt d'un tel test, rapide, simple et fiable, quand on sait qu'en France, un malade d’Alzheimer sur deux ne serait pas diagnostiqué, selon une étude publiée le 5 mai par Cap Retraite. Selon cette étude, il y aurait au total plus d’un million de personnes âgées touchées par la maladie d'Alzheimer et ce nombre pourrait doubler à l’horizon 2040, et atteindre deux millions…

Article rédigé par Georges Simmonds pour RT Flash

Stroke

L'augmentation de l'incidence de l'autisme remise en cause...
Jeudi, 11/06/2015 - 14:05

On assiste depuis une vingtaine d'années à une augmentation spectaculaire du nombre de cas de troubles du spectre autistique (TSA) dans le monde. Ces pathologies, souvent regroupées sous le terme d'autisme et qui se traduisent par des difficultés de communication, d'interaction et par des comportements stéréotypés et répétitifs, toucheraient aujourd'hui en France près de 1 personne sur 150, contre 1 personne sur 370 il y a seulement quatorze ans.

D'après l'équipe de Christopher Gillberg, de l'Université de Göteborg (Suède), la prévalence des troubles autistiques est en réalité stable : l'augmentation du nombre de cas diagnostiqués n'est pas liée à une augmentation du nombre de cas réels dans la population générale. Pour arriver à cette conclusion, les scientifiques ont étudié la répartition des profils autistiques dans une cohorte d'enfants suédois nés entre 1993 et 2002 à l'aide d'entretiens téléphoniques avec leurs parents.

Alors que les données du registre national des patients de Suède montrent une multiplication par deux du nombre de cas diagnostiqués entre 1993 et 2002 (de 0,25 à 0,5 %), l'étude Gillberg montre une prévalence réelle stable autour de 1 %.

Pour expliquer cet écart, les scientifiques évoquent essentiellement des évolutions sociales : les parents sont davantage encouragés à faire diagnostiquer leurs enfants grâce à une meilleure reconnaissance de l'autisme dans les sociétés occidentales. "Aujourd'hui, la situation a changé : les parents, et même les écoles, sont en demande de diagnostic d'autisme", souligne le Professeur Fombonne. Les auteurs de l'étude soulignent néanmoins le danger d'un dépistage trop inclusif de l'autisme qui risque de conduire à une sous-évaluation d'autres troubles psychiques, du langage ou du déficit de l'attention.

Aricle rédigé par Georges Simmonds pour RT Flash

Wired

BMJ

NCBI

Pour rester mince: plutôt des noix, du poisson et des yaourts que de la viande et des sucres...
Mercredi, 10/06/2015 - 07:16

Une étude américaine réalisée par l'Ecole de nutrition de la Tufts University a montré que les régimes affichant une charge glycémique élevée (à base de céréales raffinées, amidon et sucres) entraîne, sur le long terme, une prise de poids, ont expliqué les chercheurs. Il s'agit de la première étude à relier charge glycémique et prise de poids sur le long terme. Pour parvenir à ce constat, les chercheurs ont suivi 120 000 Américains, hommes et femmes, pendant 16 années. Tous les quatre ans, l’équipe de chercheurs a observé les changements de types de protéines consommées par les participants en lien avec leurs changements de poids.

Résultat : une consommation accrue de viande rouge et de viande industrielle semble fortement associée à une prise de poids. En revanche, le fait de manger plus de yaourts, de fruits de mer, de poulet et de noix semble entraîner une perte de poids sur le long terme. Les sujets qui accroissaient leur consommation de poisson, de noix, et qui réduisaient leur charge glycémique en diminuant les glucides simples augmentaient les effets de l'amaigrissement. 

Cependant, une consommation accrue de glucides simples semble réduire les effets de la perte de poids associée à des aliments tels que le poisson et les noix, même s’ils mangeaient plus de ces derniers. Les chercheurs précisent que pour tirer pleinement profit des aliments riches en protéines que sont le poisson, les noix et le yaourt, il est important d’éviter les céréales raffinées, l’amidon et les sucres.

Article rédigé par Georges Simmonds pour RT Flash

AJCN

Trop de sel est mauvais pour le cerveau
Mardi, 09/06/2015 - 16:41

Selon une  étude menée par les chercheurs de l'Université du Delaware (Etats-Unis), l'excès de sel augmente non seulement la tension artérielle, mais entraîne également des dommages au niveau du cerveau…

Selon cette étude, des niveaux élevés de sodium ont une incidence négative sur la partie du cerveau qui contrôle la réponse de notre système nerveux. Même si notre corps a besoin de sodium pour réguler la tension artérielle et aider les muscles et les nerfs à bien fonctionner, nous devons donc veiller à limiter notre consommation de sel en fonction de nos facteurs de risque, âge et hypertension notamment.

 On estime que notre organisme a besoin de 2300 mg de sel par jour pour bien fonctionner, soit l'équivalent d'une cuillère à café. Mais toutes les personnes "à risque", c'est-à-dire souffrant d'hypertension artérielle, de diabète ou d'une maladie rénale, devraient limiter cette consommation à 1500 mg par jour. Or, selon les chercheurs américains, nous en consommons en moyenne 3500 mg par jour. Soit plus de 1000 mg de plus que la dose recommandée. Pour limiter l'apport en sel, il est indispensable de préparer nos repas à partir d'aliments frais. En effet, 77% de la consommation de sel provient de ce type de plats… 

Article rédigé par Georges Simmonds pour RT FLASH

foodnavigator

Le -Cœur sur puce- va-t-il révolutionner la médecine ?
Lundi, 08/06/2015 - 09:30

Des bio-ingénieurs de l’Université de Berkeley en Californie ont développé pour la première fois un système qui permet à des cellules humaines de fonctionner à l’extérieur d’un corps. "Notre technique se rapproche le plus possible de la physiologie humaine" explique Anurag Mathur, chercheur à l’Université de Berkeley.

Les scientifiques californiens appellent ce dispositif "un cœur-sur-une-puce". Il est composé de plusieurs couches de cellules dérivées de cellules souches adultes humaines, qui peuvent être converties pour devenir différents types de tissus. Ces cellules sont insérées sur une petite dalle de silicium. Afin d’assurer le battement, un réseau microfluidique de canaux plus fins qu’un cheveu humain permet de nourrir les cellules, mais aussi de fournir différentes substances nécessaires aux tests.

"Si nous envoyons de la caféine, le cœur-sur-une-puce se met à battre et le rythme cardiaque accélère. Mais si nous envoyons de l’adrénaline, il accélère aussi le rythme cardiaque" souligne Kevin Healy, professeur à l’Université de Berkeley. Ces scientifiques sont persuadés que ce dispositif peut révolutionner la conception et l'expérimentation de nouveaux médicaments. 

Article rédigé par Georges Simmonds pour RT Flash

MNT

Des extraits de brocoli pour lutter contre le cancer
Lundi, 08/06/2015 - 09:20

Selon une étude menée par l'Institut universitaire de Pittsburgh Cancer (UPCI), en partenariat avec l'UPMC Cancer Center, la consommation d'extraits de pousses de brocoli protège contre les cancers oraux chez la souris. Ces résultats ont été présentés au Congrès annuel 2015 de l'American Association for Cancer Research (AACR) à Philadelphie.

Des études antérieures, dont des essais à grande échelle en Chine, avaient montré que les fortes concentrations de sulforaphanes des légumes crucifères (comme le brocoli, le chou et le cresson de jardin) permettaient d'atténuer les effets des carcinogènes environnementaux.

Dans ces recherches, les scientifiques, dirigés par les Docteurs Daniel Johnson et Julie Bauman, ont décidé de tester le sulphoraphane en laboratoire. Ils ont administré du sulforaphane à des souris génétiquement prédisposées au cancer de la bouche. Résultat, l'incidence et le nombre de tumeurs ont été significativement réduits.

Selon d'autres études, le sulforaphane jouerait également un rôle dans la prévention des cancers de l’estomac, du côlon et de la prostate. Par ailleurs, le Docteur Bauman a fait consommer à 10 volontaires en bonne santé du jus de fruits enrichi avec des extraits de pousses de brocoli, riches en sulforaphane. Les chercheurs ont ensuite pu constater que les participants présentaient des modifications cellulaires, décrites comme "protectrices", au niveau de  la muqueuse de la bouche, ce qui montre que le composé a bien été absorbé et dirigé vers les tissus à risque où il a exercé un effet chimioprotecteur.

Article rédigé par Georges Simmonds pour RT Flash

UPMC

Un projet américain de cartographie du génome des bébés
Lundi, 08/06/2015 - 09:10

Aux Etats-Unis, le premier projet de séquençage complet du génome de nouveau-nés vient d'être lancé. Baptisé "BabySeq project", il s'agit d' une étude pionnière en matière de médecine génétique personnalisée. Elle va consister à séquencer intégralement le génome de nouveau-nés pour identifier les gènes de susceptibilité à diverses maladies infantiles.

Concrètement, le BabySeq project inclut 240 bébés en bonne santé nés au Brigham and Women's Hospital et 240 nouveau-nés admis en soins intensifs à l'hôpital pour enfants de Boston. Les chercheurs vont effectuer le séquençage de la moitié des enfants des deux groupes et fournir les génomes ainsi que des informations sur les variants génétiques de chacun d'entre eux à leur pédiatre. Ce dernier pourra alors ajuster son traitement médical en fonction des caractéristiques génétiques de son jeune patient.

Selon Caroline Weipert, une généticienne impliquée dans ce projet-pilote, ces recherches devraient notamment permettre de détecter plus tôt si un enfant va souffrir du syndrome de Usher. Cette maladie génétique est généralement diagnostiquée durant l'enfance et provoque une surdité et le fait de pouvoir la détecter très tôt permettra de mettre en place plus rapidement des implants cochléaires, rendant ceux-ci bien plus efficaces. Selon les deux scientifiques qui pilotent ce projet, Robert C. Green, physicien au département de génétique et de médecine du Brigham and Women’s Hospital de Boston, et Alan H. Beggs, directeur du Centre de recherche sur les maladies orphelines de l'hôpital pour enfant de Boston, il s'agit d'une étape décisive dans le passage à une médecine individualisée.

Reste qu'en dépit des précautions éthiques prises par ces chercheurs, qui ne rechercheront pas certains gènes de prédisposition et ne révéleront pas aux parents toutes les informations obtenues, ce séquençage pose une redoutable question : est-il souhaitable pour les parents de connaître certaines des maladies dont un nouveau-né pourrait peut-être souffrir au cours de sa vie ?

Article rédigé par Georges Simmonds pour RT Flash

Genetic Literacy Project

Un test sanguin pour prédire le cancer du sein
Lundi, 08/06/2015 - 09:00

Ces techniques sont issues d'une nouvelle discipline prometteuse, la métabolomique, qui consiste à analyser les métabolites, des molécules, produits dans une cellule ou un organe. Pour explorer l'intérieur d'une cellule, les chercheurs utilisent notamment la résonance magnétique nucléaire (RMN) à protons, une technique qui, couplée à un traitement informatique spécifique, permet de repérer un grand nombre de molécules différentes et éventuellement de les identifier. Au final, les chercheurs obtiennent un "biocontour" pour chaque cellule ou échantillon sanguin étudié.

Dans ces recherches, ces scientifiques ont travaillé sur les données biologiques et sanguines de 800 femmes sélectionnées dans une population de 57 000 femmes suivies depuis vingt ans : 400 d'entre elles ont développé un cancer du sein dans les deux à sept ans suivant leur premier examen ; l'autre moitié n'en a pas développé. Pour dresser un portrait-robot le plus détaillé possible des échantillons sanguins analysés, les chercheurs ont sélectionné 129 variables (métabolites) visualisés par la RMN, auxquelles ils ont ajouté 47 données issues des questionnaires posés aux femmes sur leur ascendance, leur mode de vie, etc.

Comme le souligne Pierre Millard, chercheur Inra à la plate-forme MetaToul de Toulouse, « Il ne s'agit pas d'identifier tous les métabolites du plasma sanguin, mais d'obtenir des profils caractéristiques et comparables les uns avec les autres ». Les profils biologiques et phénotypiques ainsi obtenus s'avèrent effectivement différents selon les patients, en fonction de leurs risques de cancer du sein. Cette nouvelle approche permettrait de prévoir avec un taux de 80 % de réussite, le risque de survenue d'un cancer du sein de deux à cinq ans après un premier examen. 

Article rédigé par Georges Simmonds pour RT Flash

Nature World News

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top