RTFlash

RTFLASH Recherche & Technologie
NUMERO 764
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Septembre 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Matière
Des batteries au lithium trois fois plus puissantes
De la mémoire RRAM... imprimée sur du papier
Terre
Changement climatique : le pire reste à venir…
France : un réchauffement sans précédent du climat d'ici 2100 !
La fonte des calottes polaires s’accélère !
Vivant
Une vie riche et complexe sous l’Antarctique
Des défauts dans les protéines de transport des acides gras liés à la schizophrénie et l'autisme
L'impression 3D fait une entrée remarquée en en neurochirurgie !
La FDA approuve un traitement expérimental contre le mélanome
Découverte de nouveaux mécanismes de résistance à certaines thérapies anti-cancéreuses
Un vaccin expérimental prometteur contre Ebola
Seniors : quelques minutes d'exercice physique chaque jour sont trés bénéfiques
Une avancée génétique dans la compréhension du cancer du cerveau
Vers l'identification des signatures cérébrales de la conscience au lit du malade
Les effets des pesticides pourraient s'étendre sur plusieurs générations
Edito
L’ordinateur peut-il devenir un cerveau artificiel ?



En octobre 1950, le génial scientifique anglais Alan Turing publiait un article historique intitulé « l’intelligence des machines à calcul », considéré aujourd’hui comme l’acte de naissance de l’intelligence artificielle. C’est dans ce fameux article que Turing évoqua pour la première fois le test qui porte son nom et qui consiste, par l’intermédiaire d’un dispositif électronique, à faire dialoguer un être humain alternativement avec deux interlocuteurs, l’un humain et l’autre informatique. Selon Turing, le jour où l’expérimentateur humain, au terme d’une conversation non préparée, sera incapable de dire s’il a affaire à un interlocuteur humain ou électronique, on pourra alors considérer que les ordinateurs seront devenus véritablement intelligents.

64 ans après cet article visionnaire, les scientifiques et ingénieurs ne sont plus très loin de décrocher ce « Graal » que constitue la première machine intelligente. Il y a trois ans, une étape décisive a été franchie lorsque l’ordinateur Watson d’IBM a gagné aux États-Unis, contre ses compétiteurs humains, la grande finale du jeu Jeopardy, un jeu faisant pourtant appel à des qualités d’associations et de raisonnement et à des connaissances en culture générale considérées comme spécifiquement humaines…

Décidée à ne pas s’arrêter en si bon chemin, IBM a continué à améliorer et à perfectionner son ordinateur Watson et celui-ci est actuellement en train de s’imposer à très grande vitesse dans des domaines complexes qui requièrent des inférences et des comparaisons hautement heuristiques et pour lesquelles la puissance brute de calcul n’est pas suffisante pour générer une « valeur ajoutée cognitive ».

Aux États-Unis, les immenses bases de données médicales sont en train de connaître une véritable révolution avec l’arrivée de Watson qui s’est imposé en quelques mois dans les plus prestigieux centres de recherche et laboratoires en cancérologie. Il y a quelques jours, la célèbre Clinique Mayo a annoncé, au cours de son colloque annuel à Rochester dans le Minnesota, que son super ordinateur Watson allait recruter les patients pour les nouveaux essais cliniques, dès l’année prochaine, des patients atteints de cancers du sein, du colon  et du poumon en fonction de l’analyse de leur dossier médical (Voir Forbes).

«La vitesse et la précision de Watson va nous permettre d’inclure un nombre beaucoup plus grand de patients dans de nouveaux essais cliniques et d’accélérer la disponibilité et l’efficacité des nouveaux traitements en cancérologie » a souligné Nicholas Larusso, responsable informatique à la clinique Mayo.

Mais le super ordinateur  Watson ne constitue lui-même qu’une étape, certes importante, vers la mise au point d’une entité informatique véritablement intelligente et pouvant rivaliser avec l’homme. Pour parvenir à relever ce défi vertigineux, IBM a présenté récemment un nouveau microprocesseur qui imite le fonctionnement du cerveau humain dans certaines de ses tâches. Cette puce comporte déjà un million de neurones artificiels  et 256 millions de synapses  sur une surface de 4,3 cm2 (Voir MIT Technology Review).

Intégrant 5,4 milliards de transistors, la puce TrueNorth dévoilée par IBM est sans doute l’un des composants électroniques les plus complexes jamais réalisés. Chacun de ces neurones artificiels est pourvu d’une mémoire et leur interconnexion est assurée par 256 millions de « synapses ». Cette première ébauche d’un ordinateur "neuromorphique", directement inspiré par la structure et le fonctionnement du cerveau humain a été mis au point dans le cadre du programme de recherche SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics), lancé en 2008.

Ce « neuroprocesseur » qui représente une véritable rupture technologique possède en outre la remarquable propriété de consommer 1000 fois moins d’énergie qu’une puce traditionnelle de puissance équivalente. IBM a également conçu un système informatique qui associe 16 puces « TrueNorth » entre elles par groupe de quatre fois quatre, ce qui représente au total l'équivalent de 16 millions de neurones et de 4 milliards de synapses.

Contrairement à l’architecture séquentielle imaginée par Von Neumann il y a 70 ans qui constitue le cadre de fonctionnement de la plupart de nos ordinateurs, cette nouvelle puce neuromorphique se rapproche du cerveau humain puisque chaque « noyau neurosynaptique » possède sa propre mémoire (« les synapses »), son processeur (« le neurone ») et son réseau de communication (« les axones »), ces trois niveaux d’organisation étant coordonnés entre eux de manière à pouvoir résoudre des problèmes hautement complexes sur lesquels butent encore nos ordinateurs les plus puissants.

C’est peu de dire que cette puce « TrueNorth » va révolutionner l’informatique à un point difficilement imaginable aujourd’hui. Combinés aux multiples capteurs, senseurs et autres lasers miniatures qui vont envahir nos Smartphones et tablettes numériques, ces neuroprocesseurs vont permettre d’analyser en temps réel notre environnement dans toute sa complexité et ses dimensions sensorielles.

Cette nouvelle architecture est déjà capable d’effectuer 46 milliards d’opérations synaptiques par seconde et par watt, selon IBM. Comme le souligne Dharmendra Modha, l’un des responsables de ce projet, « Avec cette puce « TrueNorth, chacun disposera dans quelques années dans sa poche de la puissance d’un superordinateur actuel qui tiendra sur un composant pas plus grand qu’un timbre-poste ».

Dharmendra Modha précise que ce nouveau type de puce peut être produite au niveau industriel sans difficulté particulière mais nécessite néanmoins, pour exprimer son fantastique potentiel, de nouveaux logiciels très sophistiqués qui sont en cours de développement.

Il est vrai que la conception de logiciels et d’interfaces capables d’exploiter toute la puissance de ces « neuroprocesseurs » constitue évidemment un enjeu technologique et économique majeur. Dans ce domaine, les créateurs de SIRI, l'assistant vocal d'Apple, Dag Kittlaus, Adam Cheyer et Chris Brigham se sont lancé un nouveau défi en fondant la société Viv Labs dont l’ambition est de concevoir un programme capable de répondre à toutes les questions que vous lui posez (Voir Wired).

Par exemple, Viv devra pouvoir répondre à une question du genre « je vais manger chez mon ami Paul qui a préparé un repas chinois ; quel vin me conseilles-tu de lui apporter et dans quelle boutique puis-je le trouver sur ma route ? » (Voir entretien avec Doug Lena Business Insider). Pour qu’une machine puisse répondre de manière pertinente à une telle question, il faudra non seulement qu’elle puisse accéder très rapidement à une multitude d’informations mais encore qu'elle puisse combiner de manière intelligente l'immense masse de données à sa disposition.

Pour qu’un tel objectif  puisse être atteint, la puissance de calcul des microprocesseurs ne suffira pas et il faudra également apprendre à réorganiser selon de nouvelles logiques les bases de données et de connaissances. Tel est justement l’objectif que vise depuis 30 ans le projet Cycorp. Doug Lenat, son concepteur a récemment annoncé que son projet de recherche en intelligence artificielle, considéré comme le plus ambitieux au monde, était sur le point d’aboutir (Voir Business Insider). Sans dévoiler les technologies utilisées, Doug Lenat a précisé que son logiciel, baptisé « Cyc » était non seulement capable d’apprendre, comme un être humain, mais pourrait également appréhender une information dans toutes ses dimensions morales et ontologiques…

On le voit, les recherches dans le domaine de l’intelligence artificielle sont sur le point de déboucher sur une véritable rupture technologique et cognitive dont les effets sur nos sociétés seront immenses.

Ray Kurzweil, qui est à présent responsable de la prospective chez Google a récemment réaffirmé qu’à l’horizon 2045 les ordinateurs seront devenus aussi intelligents que les êtres humains dans tous les domaines. Ray Kurzweil se dit également persuadé que dans une trentaine d’années il deviendra possible de transférer le contenu de notre cerveau dans un ordinateur et d’accéder ainsi à une forme d’immortalité…

Ces prévisions dignes d’un roman de science-fiction sont partagées par un autre futurologue, le physicien Louis Del Monte, qui affirme dans son dernier livre intitulé « la révolution de l’intelligence artificielle » qu’à cette échéance de 2045, "l'homme ne sera plus la race dominante, mais bien les machines".

Mais avant d’en arriver à cette symbiose vertigineuse entre l’homme et la machine, nous allons disposer très rapidement dans tous les objets de notre vie quotidienne, qu’il s’agisse de nos terminaux numériques mais également de nos vêtements, de nos lunettes, de nos montres, d’une puissance de calcul et d’une intelligence réticulaire phénoménales.

Ce « saut cognitif » va non seulement radicalement transformer le fonctionnement de nos économies et de nos sociétés mais va également profondément modifier le rapport intellectuel, physique et affectif que nous entretenons avec le monde. Reste à espérer que, confrontés à ces nouveaux horizons virtuels infinis et inépuisables, nous soyons capables non seulement de préserver mais d’enrichir notre humanité et les liens de solidarité que nous entretenons avec nos semblables en utilisant pleinement nos qualités singulières et notre liberté créatrice.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat 


Matière
Matière et Energie
Des batteries au lithium trois fois plus puissantes
Mercredi, 10/09/2014 - 17:21

Des chercheurs de l'Université de Stanford (Californie) ont présenté un nouveau type de batterie beaucoup plus performante. Une batterie traditionnelle se compose de l'électrolyte, de l'anode et de la cathode. Ces scientifiques ont réussi à transporter du lithium dans l'électrolyte (comme actuellement) mais aussi dans l'anode, ce qui ouvre la voie vers des batteries presque exclusivement en lithium et non plus en lithium-ion ou lithium-polymère comme aujourd'hui.

Grâce à cette avancée, l'autonomie de cette nouvelle batterie  pourrait  être triplée. "Nous avons réussi à mettre au point une batterie haute performance que l'on peut produire de manière non nuisible pour l'environnement et qui ne coûte pas cher", souligne Zachary Favors, l'un des étudiants en charge du projet.

Toutes les batteries ont trois composants de base : l'électrolyte, qui permet la circulation des électrons, l'anode, qui baigne dans l'électrolyte et transmet les électrons et enfin la cathode, qui baigne également dans l'électrolyte et reçoit les électrons. Aujourd'hui, seul l'électrolyte peut contenir du lithium, qui offre une plus grande densité énergétique que les autres métaux alcalins (sodium, potassium, etc...), ce qui se traduit par une  puissance accrue pour une même surface.

Jusqu'à présent, les anodes composées de lithium étaient instables à cause de l'apparition de fibres, appelées dendrites, qui se développent au cœur de la batterie lors des cycles de recharge, ce qui réduit sa durée de vie.

Mais les chercheurs de Stanford ont réussi à surmonter cet obstacle majeur en concevant un bouclier de carbone nanoscopique (20 nanomètres, 5000 fois moins épais qu'un cheveu). Il entoure l'anode, agissant comme un filtre chimiquement stable, suffisamment souple pour renforcer la conductivité des électrons et réduire les pertes. L'efficacité de ce nouveau type de batterie atteint déjà 99 % (contre 96 % sans ce dôme de protection). Mais les chercheurs doivent encore progresser de 0,99 % pour parvenir à une batterie sans faille et commercialement viable.

Article rédigé par Georges Simmonds pour RT Flash

Nature

De la mémoire RRAM... imprimée sur du papier
Vendredi, 05/09/2014 - 17:31

Une équipe de chercheurs de l’Université de Taïwan a réussi à fabriquer de la mémoire vive type RRAM en l’imprimant sur du papier avec un procédé à jet d’encre. Cette mémoire a résisté à mille flexions sans que ses performances ne soient altérées. Elle pourrait notamment servir à fabriquer des biocapteurs médicaux, des accessoires connectés collés sur la peau ou encore des étiquettes électroniques.

L’une des difficultés du papier est sa rugosité et sa porosité qui, lorsque l’on travaille à l’échelle microscopique, rendent difficile l’application de couches fines et régulières. C’est pourquoi l’équipe de l’Université de Taïwan a opté pour de la mémoire de type RRAM dont la structure s’adapte mieux aux variations du support.

Dans cette mémoire, l’électrode inférieure est  en carbone, l’isolateur est fait d’une encre à base de nanoparticules de dioxyde de titane (TiO2) et enfin l’électrode supérieure faite de micropoints de nanoparticules d’argent (Ag).

La RRAM est une nouvelle génération de mémoire non volatile basée sur des matériaux diélectriques que l’on présente comme une remplaçante potentielle des mémoires de type DRAM et Flash. Pour concevoir cette mémoire RRAM sur papier, les scientifiques ont eu recours à une combinaison de carbone, de nanoparticules d’argent et de dioxyde de titane. Ils ont commencé par déposer une dizaine de couches de pâte de carbone par sérigraphie afin de créer l’électrode inférieure. Le papier est ensuite chauffé à 100°C pendant 10 minutes dans un four sous vide.

L’encre est fabriquée en mélangeant des nanoparticules de dioxyde de titane dans de l'acétylacétone. L’impression se fait avec une imprimante à jet d’encre qui dépose une couche sur l’électrode en carbone. Actuellement, une feuille de papier format A4 ne peut contenir qu'un Mo de mémoire mais les chercheurs précisent qu’il existe des mécanismes à jet d’encre capables de produire des gouttes de moins d’un micron de diamètre. Ce qui permettrait de faire tenir 1 Go de mémoire sur un papier de la même dimension.

Article rédigé par Georges Simmonds pour RT Flash

ACS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Changement climatique : le pire reste à venir…
Jeudi, 11/09/2014 - 13:59

Initié par l'Organisation météorologique mondiale, une agence des Nations Unies, un congrès a rassemblé un millier de scientifiques du 16 au 21 août. À l'occasion de cette toute première conférence mondiale sur la météorologie, les spécialistes ont débattu autour du thème : "La météo, quel avenir ?"

Près de dix ans après l'entrée en vigueur du protocole de Kyoto, qui visait à réduire les émissions de gaz à effet de serre, la réalité et la rapidité du changement climatique ne font plus de doute : entre les années 2000 et 2010, la température moyenne de la surface de la planète a augmenté de 0,47 degré Celsius.

Or, une hausse de 1 degré génère 7 % de vapeur d'eau supplémentaire dans l'atmosphère. L'évaporation constituant le moteur de la circulation des flux dans l'atmosphère, une accélération des phénomènes météorologiques est à prévoir. "Les nuages vont se former plus facilement, plus rapidement et les pluies vont être plus fortes", engendrant notamment davantage d'inondations soudaines, note Simon Wang, de l'Université Utah State.

Les scénarios retenus par la communauté scientifique privilégient une hausse de 2 degrés de la température moyenne à la surface de la Terre d'ici à 2050. Les conséquences se traduiront notamment par des épisodes de grand froid, tel le vortex polaire qui s'est abattu cet hiver sur une grande partie de l'Amérique du Nord mais également par des vagues plus fréquentes de chaleur et des périodes de sécheresse.

Selon ces chercheurs, les conséquences pour l'homme de ces modifications rapides du climat seront considérables et sensibles dans tous les domaines, agriculture, transports et urbanisme notamment.

Le transport maritime sera par exemple confronté à des vagues gigantesques, d'une ampleur sans précédent. "Les compagnies de transport maritime rencontrent toujours plus de vagues énormes", dont certaines font 40 mètres de hauteur alors qu'auparavant 20 mètres étaient exceptionnels, souligne le chercheur Simon Wang.

Autre prévision très inquiétante : la fonte accélérée de la calotte glaciaire du Groenland, qui pourrait faire croître jusqu'à six mètres le niveau des océans, "Une perspective malheureusement de plus en plus probable", selon Eric Brun, chercheur chez Météo-France et auteur d'une récente étude sur le sujet.

Pour Jennifer Vanos, biométéorologue à l'université Texas Tech, ce sont les concepts globaux d'aménagement urbain et d'urbanisme qu'il va falloir revoir pour tenter d'adapter nos mégapoles à ce changement de climat et de limiter les effets dévastateurs de cette évolution.

Article rédigé par Georges Simmonds pour RT Flash

The Economic Times

France : un réchauffement sans précédent du climat d'ici 2100 !
Mercredi, 10/09/2014 - 17:12

Selon un rapport publié le 6 septembre et élaboré sous la direction de Jean Jouzel, le climat de la France va inexorablement se réchauffer dans les années à venir, avec des étés affichant 5°C supplémentaires d'ici la fin du siècle, et connaîtra plus d'épisodes climatiques extrêmes. Ce rapport sur les scénarios climatiques pour la France au XXIe siècle, demandé par le gouvernement à une large équipe d'experts, prévoit dès 2050 une hausse des températures moyennes en métropole de 0,6°C à 1,3°C par rapport aux années 1976-2005. L'été, cette hausse pourrait aller jusqu'à 2°C dans le Sud-Est.

Durant les années 2071-2100, cette tendance s'aggravera avec une hausse moyenne des températures de 2,6°C à 5,3°C. "Cette hausse devrait être particulièrement marquée en allant vers le Sud-est, et pourrait largement dépasser les 5°C en été", selon les experts. D'ici 2100, ils prévoient aussi des vagues de chaleur plus longues en été, pouvant dépasser 20 jours dans le Sud-Est et davantage d'épisodes de sécheresse dans le Midi.

Autre conséquence, une diminution du nombre de jours extrêmement froids en hiver, surtout dans le Nord-Est qui verrait 6 à 10 jours de grand froid en moins. La France devrait également connaître une légère hausse des précipitations moyennes, en été comme en hiver, comprise entre 0 et 0,42 mm/jour en moyenne.

Le rapport prédit enfin "un renforcement des précipitations extrêmes" sur une large partie du territoire métropolitain, avec une forte variabilité des zones concernées. Outre-mer, les températures pourraient augmenter de 3,5°C, alors que les précipitations devraient diminuer. La fréquence des cyclones tropicaux pourrait, elle, diminuer à la fin du siècle mais leur force devrait augmenter.

Article rédigé par Georges Simmonds pour RT Flash

Rapport Jouzel

La fonte des calottes polaires s’accélère !
Lundi, 08/09/2014 - 09:05

Une étude réalisée par des chercheurs allemands montre qu'en moyenne, entre janvier 2011 et janvier 2014, les deux grandes calottes polaires ont perdu  annuellement environ 500 milliards de tonnes, soit autant de glace déversée dans l'océan. Cette fonte accélérée des deux grands inlandsis est désormais un facteur majeur dans l'élévation du niveau des mers, au côté de la fonte des glaciers d'altitude et de la dilatation des océans.

Cette équipe scientifique dirigée par le glaciologue Veit Helm (Alfred Wegener Institute), estime que, sur ces 500 Gt de glace perdue, environ 375 Gt sont attribuables au Groenland et 125 Gt à l'Antarctique ; leurs résultats frappent par l'ampleur de l'accélération observée. La perte de masse de l'Antarctique de l'Ouest a ainsi triplé par rapport à la moyenne relevée au cours de la période 2003-2009, et a doublé pour le Groenland.

Pour établir leurs estimations, les chercheurs allemands ont utilisé le satellite européen Cryosat-2, lancé en avril 2010, dont l'altimètre est capable de mesurer la hauteur des calottes glaciaires avec une précision jusqu'à présent inégalée. Ils ont ensuite comparé ces données avec celles obtenues au cours de la décennie précédente par la mission américaine ICESat.

En mai, des chercheurs américains avaient étudié les six plus grands glaciers de l'ouest du continent blanc, contribuant à eux seuls à un dixième de l'élévation du niveau de la mer – actuellement d'environ 3,3 mm par an.

Cette accélération de la perte de glace des inlandsis polaires va provoquer une augmentation du niveau des mers qui, sans une réduction drastique des émissions de gaz à effet de serre, pourrait excéder un mètre d'ici à 2100.

Article rédigé par Georges Simmonds pour RT Flash

RCS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une vie riche et complexe sous l’Antarctique
Jeudi, 11/09/2014 - 13:49

Le projet Wissard a permis de prélever des échantillons d’eau et de sédiments dans un lac subglaciaire. Pour assurer l’intégrité des échantillons, l’équipe du projet dédié à l’exploration du lac Whillans a consacré 6 ans à mettre au point leur protocole. Les analyses finales des échantillons prélevés depuis 2013 ont révélé la présence de 3931 microbes, majoritairement des bactéries et archéobactéries. Toutefois, 793 organismes restent de nature inconnue.

Il aura fallu sept jours pour creuser à travers l’épaisse couche de glace. Des rayonnements ultra-violets, la filtration de l’eau et du peroxyde d’hydrogène ont garanti la stérilisation du matériel. Avant que le trou ne se referme, trente litres d’eau ont été prélevés ainsi que plusieurs carottes de sédiments. Les chercheurs indiquent avoir trouvé 130 000 cellules/ml d’eau, soit une densité équivalente à celle des océans terrestres les plus profonds. "J’ai été surpris par la richesse incroyable de cet écosystème" souligne John Priscu, microbiologiste de l’Université du Montana.

Situé 800m en dessous de la surface, le lac Whillans recèle donc des formes de vie capables de survivre dans des conditions extrêmes puisque ces bactéries ont passé près de 120 000 années dans l'obscurité. Ces dernières ont donc dû produire leur énergie par oxydation de fer et de soufre présents dans les minéraux des sédiments. La découverte d’une vie aussi complexe et dense dans un environnement aussi extrême laisse supposer que d’autres bactéries existent dans d’autres lacs subglaciaux…

Article rédigé par Georges Simmonds pour RT Flash

Science

Des défauts dans les protéines de transport des acides gras liés à la schizophrénie et l'autisme
Jeudi, 11/09/2014 - 13:44

Des neuroscientifiques japonais du réputé  RIKEN Brain Science Institute ont montré que certains défauts dans les protéines de liaison des acides gras (FABP) pourraient expliquer l'apparition de certains types de schizophrénie et de troubles du spectre autistique.

Après avoir identifié des mutations concernant les FABPs de plusieurs patients, ces chercheurs, dirigés par Takeo Yoshikawa, ont montré que le comportement des souris affectées par ces perturbations génétiques de FABP était similaire à celui des patients souffrant d'autisme ou de schizophrénie. Selon ces travaux, cette altération des protéines FABP pourrait être à la base d'un mécanisme moléculaire commun à certaines formes très répandues de ces deux troubles mentaux.

Le cerveau est composé de lipides qui fonctionnent comme base structurelle ainsi que comme des unités fonctionnelles de signalement. Des perturbations dans le transport de ces lipides vers ou dans le cerveau peuvent entraîner des symptômes neurologiques anormaux. Des études antérieures ont révélé des niveaux anormalement bas de certains acides gras polyinsaturés (AGPI), dont des acides gras essentiels, chez les patients schizophrènes et autistes mais sans pouvoir identifier les protéines impliquées dans ce mécanisme.

Cette fois, les chercheurs nippons, en se focalisant sur les FABPs qui facilitent le transport des acides gras polyinsaturés et d'autres acides gras, ont pu montrer qu'une altération de Fabp7 chez la souris détériorait la neurogenèse.

L'équipe a identifié des mutations spécifiques dans des gènes FABP présentes exclusivement chez les patients. Ces mutations sont à l'origine d'une structure ou d'une fonction anormale de ces protéines, les empêchant vraisemblablement de délivrer les acides gras appropriés à leurs tissus respectifs et leurs organites cibles dans les cellules.

Pour étudier l'effet de la perte FABP dans le cerveau, les chercheurs ont génétiquement inactivé les gènes chez la souris et ont effectué des tests de comportement. Ils ont constaté que les souris dépourvues de FABPs présentaient des comportements similaires à ceux observés chez les patients humains.

Selon ces travaux, les FABP seraient donc impliqués dans un mécanisme affectant sélectivement les systèmes de transport de lipides et participant, en interaction avec d'autres facteurs génétiques et environnementaux, au déclenchement de certains types de schizophrénie et d'autisme étiologiques. "L'identification des mutations FABP chez les humains peut nous aider à aller vers une approche de traitement personnalisé pour ces lourdes pathologies," souligne le Docteur Yoshikawa.

Article rédigé par Georges Simmonds pour RT Flash

Riken

L'impression 3D fait une entrée remarquée en en neurochirurgie !
Mercredi, 10/09/2014 - 17:28

L'impression 3D est en train de s'imposer comme un outil incontournable dans la préparation des opérations chirurgicales délicates. Elle sert à reproduire à l'identique un modèle de la zone anatomique à opérer, de façon à permettre aux chirurgiens de "s'entraîner". Cette étape leur offre la possibilité d'anticiper et de savoir comment gérer les éventuelles complications qui pourraient apparaître durant l'opération.

En recourant à l'impression 3D, des médecins de l’hôpital pour enfants de Boston, sous la direction de Joseph Madsen, ont réussi une intervention chirurgicale particulièrement complexe - une hémisphérectomie, une intervention qui consiste à séparer les deux hémisphères du cerveau - sur un enfant de cinq mois qui souffrait de graves crises d'épilepsie. Ce type d'intervention consiste à isoler les zones impliquées dans les crises en les déconnectant du reste du cerveau.

Grâce à l'impression 3D, les médecins et chirurgiens ont réalisé une reproduction quasi-parfaite du cerveau de ce jeune enfant, avec une précision de 16 microns par couche imprimée. "Avec cette nouvelle technique, nous pouvons réaliser une opération virtuelle de manière très réaliste et anticiper un large éventail de complications", précise le Docteur Peter Weinstock, directeur du programme de simulation. L'opération réelle s'est bien déroulée au début de l'année 2014. Elle a duré près de 10 heures et a atteint ses objectifs puisque le petit Gabriel, aujourd'hui âgé de 18 mois, n' a plus de crises d'épilepsie.

Article rédigé par Georges Simmonds pour RT Flash

TV

La FDA approuve un traitement expérimental contre le mélanome
Mardi, 09/09/2014 - 20:08

La FDA, l'Agence américaine des produits alimentaires et des médicaments, vient de donner son feu vert, selon une procédure accélérée, au Keytruda pour traiter le mélanome avancé, un cancer agressif de la peau, chez des patients ne répondant plus aux autres traitements.

Le mélanome, une forme très agressive de tumeur des cellules responsables de la pigmentation de la peau, représente environ 5 % de tous les nouveaux cancers diagnostiqués aux États-Unis.

Selon l'Institut National du Cancer (NCI), 76 000 Américains auront un mélanome cette année et 9710 en décéderont. Keytruda, développé par le laboratoire américain Merck, est le premier traitement approuvé par la FDA (Food and Drug Administration) qui cible une fonction cellulaire appelée PD-1 qui freine le système immunitaire et l'empêche d'attaquer les cellules cancéreuses. Les premiers essais cliniques de ce médicament, sur 173 patients, ont montré que ce traitement pourrait apporter une amélioration importante par rapport aux thérapies existantes.

"Keytruda est le sixième nouveau traitement contre le mélanome approuvé par la FDA depuis 2011, ce qui témoigne des avancées prometteuses réalisées contre ce cancer", souligne le Docteur Richard Pazdur, directeur du service d'Hématologie et de cancérologie du centre d'évaluation et de recherche de la FDA. "Tous ces traitements ont différents mécanismes d'action et offrent de nouvelles options aux malades", ajoute-t-il.

Article rédigé par Georges Simmonds pour RT Flash

FDA

Découverte de nouveaux mécanismes de résistance à certaines thérapies anti-cancéreuses
Mardi, 09/09/2014 - 10:25

Décidément la recherche en cancérologie ne cesse de progresser en cette rentrée 2014 : alors que la FDA américaine vient d'approuver un nouveau médicament contre le mélanome métastatique, des chercheurs français ont découvert de nouveaux mécanismes de résistance aux thérapies ciblées utilisées dans le traitement du mélanome. Cette découverte permet non seulement de mieux comprendre pourquoi ces traitements deviennent inefficaces mais aussi d’ouvrir de nouvelles pistes de prise en charge de ces tumeurs agressives.

On sait à présent que la moitié des patients souffrant de cette affection présentent une mutation d’une protéine appelée BRAF. Des médicaments ciblant cette protéine mutée, le vémurafenib et le dabrafenib, permettent de retarder significativement l’évolution de ce type de cancer de la peau. Malheureusement, au cours du temps, ces anti-BRAF perdent leur efficacité.

Des chercheurs du laboratoire Biomarqueurs prédictifs et nouvelles stratégies moléculaires en thérapeutique anticancéreuse (Inserm/Gustave Roussy/Université Paris-Sud) ont montré que les mécanismes utilisés par les tumeurs pour résister à ces traitements impliquent un complexe protéique appelé eIF4F qui régule la synthèse des protéines à partir des ARN.

Ils ont également montré que des composés développés par une équipe de pharmacochimie du CNRS et de l’Université de Strasbourg qui inhibent le complexe eIF4F permettent d’améliorer l’efficacité du vémurafenib. Ces résultats offrent de nouvelles perspectives pour prédire l’efficacité des traitements du mélanome utilisant les médicaments ciblant la protéine BRAF. A terme, cette découverte devrait également déboucher sur de nouveaux traitements plus efficaces contre d'autre cancers, côlon, poumon et cerveau notamment.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Un vaccin expérimental prometteur contre Ebola
Mardi, 09/09/2014 - 10:19

Selon une étude qui vient d'être publiée dans "Nature", une injection d'un vaccin expérimental, renforcée par une piqûre de rappel, permettrait une protection "rapide et durable" contre Ebola chez des singes. Ce vaccin contre la fièvre Ebola qui a déjà tué 2 097 personnes (pour 3.944 cas recensés) s'est avéré efficace pendant au moins cinq semaines chez des singes et un rappel permet d'étendre son efficacité à dix mois.

De plus, les animaux qui ont eu la piqûre de rappel dans le cadre d'un nouveau schéma vaccinal en cours d'étude ont développé une immunité "durable". Quatre singes, avec une seule injection du vaccin expérimental, étaient toujours immunisés cinq semaines plus tard.

L'effet protecteur s'amenuisant au fil du temps, seuls deux d'entre eux restaient protégés dix mois après. Les quatre singes ayant eu la piqûre de rappel, huit semaines après l'injection initiale, restaient complètement protégés contre l'infection dix mois après, selon les chercheurs. Le rappel contient un composant différent (virus de la vaccine atténué).

C'est l'équipe de Nancy Sullivan du centre de recherche du NIAID qui a développé ce vaccin basé sur un adénovirus (virus de rhume) de chimpanzé baptisé "ChAd3", qui sert de transporteur, ou vecteur, pour délivrer des fragments de matériel génétique du virus Ebola dans les cellules du sujet vacciné. Ce nouveau vaccin est similaire à celui de GlaxoSmithKline, dont les essais viennent de commencer avec des volontaires en bonne santé. Il est également identique à celui de Johnson & Johnson, dont l'essai doit débuter début 2015.

Ces fragments de matériel génétique ne sont pas infectieux, mais aident l'organisme à apprendre à reconnaître le virus Ebola pour s'en défendre. Les chercheurs ont opté pour un adénovirus de chimpanzé parce que beaucoup de gens sont immunisés contre la version humaine de ce virus de rhume, ce qui pourrait empêcher le vaccin expérimental d'agir.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Seniors : quelques minutes d'exercice physique chaque jour sont trés bénéfiques
Lundi, 08/09/2014 - 09:10

Une étude écossaise portant sur 12 retraités a montré qu'il est possible de se maintenir en bonne forme physique en pratiquant du "high intensity interval training", un entraînement en fractionné de haute intensité.

A la place de joggings de 30 minutes, les chercheurs ont demandé aux volontaires âgés de plus de 65 ans de se soumettre à des efforts intensifs, en l'occurrence du vélo, sur une courte période (moins d'une minute) suivis d'une phase de récupération cardiaque. Leur entraînement a été poursuivi deux fois par semaine pendant six semaines. Les chercheurs de l'Abertay university ont observé les bénéfices de cet entraînement intensif de courte durée : les hommes ont réduit leur tension artérielle de 9 % et ont augmenté leur capacité à oxygéner leurs muscles.

Selon le Professeur Babraj, responsable de l'étude, ces résultats apportent une preuve supplémentaire qu'il faut encourager l'activité physique chez les personnes âgées, même si celle-ci se fait sur une courte durée. Le chercheur souligne qu' "Il est important d'encourager les seniors de plus en plus nombreux à rester actifs car beaucoup de maladies sont associées à un comportement sédentaire, comme le diabète et les maladies cardiovasculaires".

Article rédigé par Georges Simmonds pour RT Flash

Express

Une avancée génétique dans la compréhension du cancer du cerveau
Lundi, 08/09/2014 - 09:00

Des chercheurs de l’Ecole Médicale Hadassa de l’Université Hébraïque de Jérusalem ont identifié la protéine génique impliquée dans le développement du “glioblastome” qui est la forme la plus courante et la plus agressive des cancers du cerveau chez l’adulte.

Jusqu’ici, les tumeurs dues au glioblastome étaient extrêmement difficiles à traiter chirurgicalement car elles compriment les tissus du cerveau produisant des dommages au fur et à mesure qu’elles grossissent. La chimiothérapie et la radiothérapie se révèlent souvent inefficaces et le temps moyen de survie est d’un peu plus d’un an. Seulement 10% des patients atteints de glioblastome sont toujours en vie cinq ans après le diagnostic.

Ces chercheurs du laboratoire du Docteur Rotem Karni ont montré que l’épissage – processus par lequel les éléments de l’ARN (acide ribonucléique) se séquencent – opère de manière différente lorsqu’une personne est atteinte du cancer sous l’influence du gène hnRNP A2/B1.

L’étude a été menée sur des souris de laboratoire auxquelles ont été injectées des cellules cancéreuses de glioblastomes. Suite à ces injections, les souris ont développé de grosses tumeurs, mais lorsque les chercheurs ont réduit les niveaux du gène de la protéine, hnRNP A2/B1, avant l’injection des cellules cancéreuses, les souris ont alors développé soit des petites tumeurs soit aucune tumeur.

Ces recherchent montrent donc que le gène hnRNP A2/B1 est un oncogène responsable de la mutation de cellules saines en cellules cancéreuses et intervient directement dans le développement du glioblastome. Le Docteur Rotem Karni confirme que “la régulation des niveaux de hnRNP A2/B1 dans les cellules de glioblastome doit être considérée comme une nouvelle stratégie pour le traitement d’un glioblastome”. Les chercheurs tentent maintenant de déterminer quels gènes sont régulés par hnRNP A2/B1.

Article rédigé par Georges Simmonds pour RT Flash

IIn

Vers l'identification des signatures cérébrales de la conscience au lit du malade
Vendredi, 05/09/2014 - 17:38

Les équipes de Lionel Naccache et de Stanislas Dehaene ont pu identifier certaines signatures cérébrales de l'état de conscience chez les patients victimes de lésions cérébrales sévères. Ces informations cliniques seront précieuses pour diagnostiquer l'état de conscience et évaluer le chances de récupération chez ces malades.

Comment savoir si ce malade est conscient du monde qui l'entoure et a fortiori de lui-même s'il ne communique pas ? Les équipes de Lionel Naccache (ICM, CHU Pitié-Salpêtrière, Université Paris 6) et de Stanislas Dehaene (NeuroSpin, Collège de France) travaillent depuis plusieurs années pour tenter de trouver de nouvelles réponses à cette question cruciale.

Ainsi, ils ont publié en 2009 un nouveau test consistant à mesurer les réponses cérébrales à différentes formes de nouveauté auditive en enregistrant au lit du malade l'activité électro-encéphalographique (EEG) à l'aide d'un casque d'électrodes. Au cours des années suivantes, leurs équipes ont pu valider la très grande spécificité de ce test chez de nombreux malades végétatifs, minimalement conscients ou conscients.

Cette fois, ils ont franchi une nouvelle étape grâce à l'analyse extensive de près de 200 enregistrements EEG de malades en état végétatif ou en état de conscience minimale. Pour chaque enregistrement, ils ont calculé une centaine de marqueurs EEG différents afin de déterminer lesquelles d'entre eux étaient les plus à même de prédire à la fois l'état clinique actuel des malades, mais également le pronostic de conscience dans les 6 semaines à venir. A l'issue de ce travail de grande échelle réalisé par Jacobo Sitt et Jean-Rémi King, certaines signatures cérébrales de l'état de conscience ont ainsi pu être identifiées et validées.

En concevant un algorithme capable de distinguer, sur la base de ces mesures EEG, les patients cliniquement en état végétatif de ceux en état de conscience dite minimale, les auteurs ont analysé les performances diagnostiques et pronostiques de leur algorithme. Avec cette nouvelle méthode, la majorité des malades cliniquement végétatifs sont identifiés comme tels mais d'autres malades également végétatifs sont diagnostiqués comme « minimalement conscients » par l'algorithme.

De manière surprenante, le pronostic de récupération d'un état de conscience chez ces malades en état végétatif identifiés comme minimalement conscients doublait par comparaison avec celui des malades végétatifs considérés également comme végétatifs par l'algorithme. Ces recherches confirment donc que les marqueurs EEG sélectionnés apportent des informations complémentaires aux informations cliniques pour diagnostiquer l'état de conscience et pour prédire la récupération de la conscience chez ces malades.

Article rédigé par Georges Simmonds pour RT Flash

Brain

Les effets des pesticides pourraient s'étendre sur plusieurs générations
Vendredi, 05/09/2014 - 17:25

Une étude américaine réalisée par des chercheurs de l’Université de Washington montre que les gènes des personnes exposées aux pesticides pourraient transmettre les effets nuisibles de ces produits aux trois générations suivantes.

Les recherches ont été effectuées sur des rats et s'appuient principalement sur un type de pesticide : le Méthoxychlore (MXC). Plusieurs études scientifiques ont déjà prouvé que ce pesticide pouvait gêner le développement et le fonctionnement de l'appareil génital. Interdit aux Etats-Unis depuis 2003, ce produit reste pourtant utilisé dans beaucoup de pays à travers le monde.

En exposant des rats de laboratoire à ce produit, les chercheurs ont constaté une augmentation des risques de développer des maladies ovariennes, rénales. Les trois générations suivantes sont aussi plus exposées à l'obésité. « Ce pesticide peut affecter le mode d’activation des gènes transmis, sans subir de mutation génétique. Ainsi, si l’arrière-grand-mère est obèse ou atteinte d’une maladie ovarienne, l’arrière-petite-fille pourrait rencontrer les mêmes problèmes », conclut Michael Skinner, l’auteur principal de l’étude.

D’autres études ont déjà mis en garde contre les dangers d’une exposition aux pesticides. L’une d’elles, parue le 23 juin dernier dans Environmental Health Perspectives, révélait que le risque de donner naissance à des enfants autistes était augmenté de 66 % chez les femmes enceintes exposées à des produits chimiques agricoles.

Article rédigé par Georges Simmonds pour RT Flash

Plos One

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top