RTFlash

RTFLASH Recherche & Technologie
NUMERO 687
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Février 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'ADN remplacera-t-elle les disques durs de nos ordinateurs ?
Enfant et écran : une relation complexe
Matière
Une bio-façade à microalgues !
Un plastique performant à base d'algues
Le proton est plus petit que prévu
Vers une production massive d'hydrogène par photosynthèse
Les astéroïdes : nouvel eldorado du XXIème siècle ?
Intel relance la course à la miniaturisation électronique et à l'autonomie
Informatique : une molécule organique remplacera-t-elle les puces mémoires ?
Technologies nucléaires du futur : quelle place pour la France ?
Vers des éoliennes marines de 10 MW
Cellules solaires souples : nouveau record mondial de rendement
Un polymère de coton pour capter et piéger l'eau
Un nouveau ciment à faible empreinte carbone
Espace
Un composant essentiel à l'apparition de la vie détecté dans l'espace
Terre
La calotte du Groenland est vulnérable au changement climatique
Vivant
Le papillomavirus pourrait être responsable de l'épilepsie de l’enfant
Pour vivre vieux, vivons debout !
Quand le bacille de la lèpre transforme les cellules nerveuses en muscles !
Acide folique et dépression : un lien majeur ?
Maladies auto-immunes : le rôle protecteur des bactéries de la flore intestinale
Le premier pilulier intelligent et communicant
Un séquençage génétique au niveau d'une seule cellule !
L'apprentissage des langues commence avant la naissance !
Les infections bactériennes vaincues par la lumière
Mélanome : deux mutations génétiques clés identifiées
Téléphone mobile et risque de cancer : le débat relancé
La stimulation cérébrale profonde : un nouvel outil pour combattre l'alcoolisme ?
Le chocolat serait excellent pour le cerveau
Schizophrénie : la piste génétique se précise
Attaquer le cancer par la voie mécanique !
Tabac : vers une surmortalité féminine
Myélome multiple : un nouveau médicament prometteur
L'aspirine améliore aussi la survie des malades âgés après un cancer du colon
La sociabilité des fourmis est-elle génétique ?
L’allaitement : bon pour le corps, bon pour l'esprit
Un cœur virtuel pour mieux comprendre les maladies cardiaques
Des nouveaux médicaments contre la polyarthrite rhumatoïde
La télémesure pour les diabétiques arrive sur le mobile
Recherche
Pour rester anonyme, évitez de mettre en ligne votre ADN !
Edito
L'Europe prend la tête de l'Odyssée de l'Esprit



Le 28 janvier, la Commission européenne a accordé une enveloppe exceptionnelle de plus d'un milliard d'euros, sur dix ans, au Human Brain Project, (HBP), consacrant ce projet scientifique comme le plus important depuis le séquençage complet du génome humain, terminé en 2004 (Voir article).

Projet particulièrement ambitieux, le HBP (Voir Projet), qui regroupe 80 centres de recherche, veut parvenir d’ici à dix ans à modéliser le cerveau humain sur ordinateur. Dans un premier temps, le Human Brain Project (HBP) va collecter toutes les connaissances sur le cerveau pour pouvoir dresser un premier modèle numérique.

L’objectif du HBP est triple : d’abord faire progresser la connaissance fondamentale sur le fonctionnement de notre cerveau et des mécanismes décisionnels, mémoriels et cognitifs.

Ensuite, ouvrir de nouvelles voies thérapeutiques pour traiter les affections cérébrales, psychiatriques et neurodégénératives, comme les maladies d’Alzheimer et de Parkinson mais également les AVC ou la schizophrénie.

S’agissant de ce deuxième point, il faut rappeler que les maladies du système nerveux coûtent 800 milliards d'euros chaque année à l'Europe, soit environ 4 000 euros par ménage européen et par an ou encore la moitié du PIB de la France !  

Enfin, dernier axe mais non le moindre : faire avancer l’intelligence artificielle en informatique et robotique. 

Le premier chantier que va ouvrir le HBP va consister à établir une cartographie fonctionnelle de très haute précision du cerveau humain, tant sur le plan structurel que fonctionnel. Dans cette première phase, la France va jouer un rôle de premier plan avec des acteurs comme le CNRS, l’INSERM, le CEA, NeuroSpin ou le récent Institut du Cerveau et de la Moelle épinière.

Avec ses 80 à 100 milliards de cellules nerveuses, ou neurones, chacune pouvant se connecter à plus de 10 000 de ses homologues, le cerveau humain est considéré comme le système le plus complexe de l’Univers et, 120 ans après la découverte fondamentale du neurone par le génial catalan Ramon y Cajal, son extraordinaire fonctionnement échappe encore en grande partie à notre compréhension, même si des progrès considérables ont été accomplis depuis une vingtaine d’années, grâce notamment aux avancées de l’imagerie médicale.

En 1936, le grand logicien et mathématicien anglais Alan Turing fut le premier à imaginer une machine, le « Calculateur Humain » capable de manipuler des symboles et d’imiter le fonctionnement du cerveau humain. Mais à cette époque, un tel projet était hors de portée de la technologie disponible, ce qui n’est plus le cas aujourd’hui. 

Reste que ce « Projet de Cerveau Humain » suscite de nombreuses interrogations non seulement au sein de la communauté scientifique mais également chez les philosophes, cogniticiens et psychologues.  

Certains dénoncent en effet dans ce projet l’hégémonie d’une approche réductionniste et matérialiste qui passerait à côté de la véritable nature de la complexité du cerveau et de sa production la plus étonnante : la conscience.

Henry Markram, neurobiologiste à l’Ecole Polytechnique Fédérale de Lausanne et directeur scientifique de ce projet, est bien conscient de ces critiques et se défend de toute approche exclusivement neurobiologique. Il admet bien volontiers que «Les approches traditionnelles basées sur l’étude de sa physiologie ou l’imagerie ne suffiront jamais à comprendre la complexité du cerveau et ses capacités ».

Sa vision se veut à la fois ouverte et pragmatique. Il souligne que chaque année, plus de 60 000 articles en neurosciences sont publiés et que la priorité est d’organiser et d’articuler cette mine d’informations précieuses qui s’est constituée.

C’est seulement dans un deuxième temps que les chercheurs rentreront dans le vif du sujet et construiront, sous forme de modèle informatique, un réseau de neurones qui pourra intégrer l’ensemble des données scientifiques disponibles. Mais ce travail sera d’autant plus ardu qu’il devra être conceptualisé et mené en articulant une logique « horizontale » (le fonctionnement interne de chaque composant et élément) et verticale (la prise en compte de la spécificité de chaque niveau d’organisation).

Pour Stanislas Dehaene, chercheur en neurosciences, « Le Human Brain Project est le seul projet à poser de vraies questions scientifiques et philosophiques : qu'est-ce qui fait que le cerveau humain possède des compétences uniques dans le monde animal, comme le langage et la capacité de déduire les pensées d'autrui ? »

Il faut aussi évoquer les retombées que ce projet peut avoir en terme médical et rappeler, comme le fait Richard Frackowiak, codirecteur du projet Human Brain, que les maladies du système nerveux coûtent 800 milliards d'euros chaque année à l'Europe et que l'amélioration dans la prise en charge thérapeutique de ces pathologies lourdes et invalidantes, en constante augmentation à cause du vieillissement de la population, est un enjeu absolument majeur de santé publique.

Au Canada, Chris Eliasmith, de l'Université de Waterloo travaille sur un autre projet pionnier : SPAUN (Sematic Pointer Architecture Unified Network Voir pages 1018 à 1023).  

SPAUN a été imaginé en s’inspirant du cerveau humain. Il comprend un réseau de deux millions et demi de neurones et se veut une sorte de réplique simplifiée de notre cerveau.

Pour l’instant, SPAUN reste incapable d’apprendre de nouvelles choses mais il peut effectuer, plus ou moins bien, certaines tâches que réalise notre cerveau, comme écrire, reconnaître des nombres ou mémoriser certains mots. Il est notamment capable de reconnaître, comme un être humain, des chiffres, des lettres écrites à la main par plusieurs personnes différentes.

Si SPAUN n’arrive pas encore au niveau d’un singe pour certaines tâches cognitives, il surclasse par contre nettement les primates pour reconnaître une construction syntaxique complexe. En fait, SPAUN n’est pas vraiment en compétition avec le Human Brain Project et le but avoué de son créateur, Chris Eliasmith, n'est pas de parvenir à produire une entité intelligente mais, plus modestement, d’essayer de mieux comprendre comment le fonctionnement et l’organisation de notre cerveau évolue dans le temps.

Enfin, outre-Atlantique, le grand concurrent du projet européen HBP est le projet américain Synapse (Voir IBM : New Ways of thinking), financé et piloté par l’Agence américaine de recherche en Défense (DARPA). 

Ce projet, dont le maître d’œuvre est IBM, repose sur l’utilisation en architecture parallèle de puces de silicium qui miment nos neurones. Chaque puce intègre 256 « neurones virtuels» qui peuvent, en fonction des données reçues, comme leurs homologues humains, s’interconnecter en permanence aux différentes synapses. 

Ce réseau artificiel de neurones, à la différence de son cousin canadien SPAUN, peut tirer partie de ses expériences et s’adapter aux changements de son environnement en se reconfigurant en permanence.

A terme, IBM veut créer un système neuronal contenant l’équivalent de 10 milliards de neurones. Présenté officiellement en 2011, Synapse se donne cinq ans pour parvenir à un degré de simulation convaincant du fonctionnement d’un cerveau de primate.

Google, pour sa part, a embauché l’un des pionniers de l’intelligence artificielle, Ray Kurzweil, dans le but avoué d'essayer de rendre "intelligente" la gigantesque masse d’informations et de données que produit et contrôle le géant numérique (Voir article MIT Technology Review).

Comme il l’explique dans son dernier livre « Comment créer l’esprit », Kurzweil est en effet persuadé que, si l'on parvient à organiser et à exploiter de manière judicieuse cette montagne d'informations numériques, on pourra parvenir à produire une espèce de "conscience" numérique, de la même façon que notre cerveau s’est organisé, au cours de l’évolution de notre espèce, pour permettre l’émergence d’une conscience réflexive qui est plus que la somme de ses composants et a donné à l’homme un avantage compétitif décisif.

Compte tenu du rythme observé par la miniaturisation électronique et la puissance des puces informatiques depuis 40 ans, Kurzweil se dit convaincu qu’avant 2045, les ordinateurs vont atteindre une telle puissance de calcul, qu’une nouvelle forme d’intelligence numérique va apparaître et devenir autonome et autoorganisée. 

On peut bien sûr trouver les thèses de Kurzweil excessives et présomptueuses et elles contiennent leur part de naïveté, d'excès et de rêve. Mais quand on observe les extraordinaires avancées de l’informatique et des nanotechnologies depuis 20 ans, il n’est pas certain que les prophéties de ce visionnaire ne se réalisent pas.

Qui aurait dit en effet, il y a encore 20 ans, que l'ordinateur battrait le champion du monde aux échecs et arriverait devant les humains au "Jeopardy", comme l'a fait l'ordinateur "Watson" d'IBM en 2011! Qui aurait imaginé, à peine 20 ans après la découverte des nanotubes de carbone, qu'on arriverait à produire, sur une tranche de silicium, plusieurs dizaines de milliers de transistors en nanotubes de carbone, comme l'a fait IBM il y a quelques semaines, ouvrant ainsi la voie vers une électronique descendant au niveau atomique ! (Voir article).

Il est intéressant de constater que les deux grands projets concurrents, l’européen HBP et l’américain Synapse, se sont tous deux fixés la même échéance, 10 ans, ce qui nous porte au milieu de la prochaine décennie. Or cette échéance de moyen terme est assez proche de celle prévue pour la fin de la loi de Moore. Selon les physiciens, la finesse de gravure des puces électroniques va descendre à 5 nanomètres d’ici 2020, atteignant un mur technologique qu’il sera impossible de franchir, même avec les nanotubes de carbone, sans un « saut conceptuel » et scientifique majeur.  

C’est là que l’idée d’une intelligence synthétique ou artificielle prend tout son sens car, si nous atteignons en électronique une limite physique et quantitative en matière de puissance et de miniaturisation, il sera d’autant plus nécessaire de doter nos systèmes et outils informatiques d’une forme d’intelligence et d’autonomie de décision proche de celle qui caractérise notre cerveau et en fait un outil polyvalent sans égal d’action, de réflexion et de création, bien qu'il ne soit pas très "puissant", comparé à certains ordinateurs. 

Si le Human Brain Project aboutit et atteint ses objectifs, même avec quelques années de retard, les conséquences pour nos sociétés et pour l’espèce humaine toute entière seront absolument incalculables car nous disposerons alors d’une intelligence planétaire et évolutive, qui accélérera le progrès scientifique technique et économique de manière à peine imaginable aujourd’hui. 

Si cette révolution se produit, nous basculerons dans une nouvelle civilisation dont le moteur sera une forme inédite de symbiose entre l’être humain et cette entité intelligente et consciente d’elle-même que l’homme aura créée. 

Réjouissons-nous que l’Europe, en ces temps de crise et de difficultés budgétaires, ait su faire un choix politique courageux et visionnaire en pariant sur l’avenir et en soutenant fortement ce projet de cerveau artificiel qui sera l’une des grandes aventures scientifiques et humaines de ce siècle.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'ADN remplacera-t-elle les disques durs de nos ordinateurs ?
Dimanche, 27/01/2013 - 17:25

Selon les chercheurs de l'Institut européen de bioinformatique à Hinxton, au Royaume-Uni, l'ADN pourrait un jour stocker toute notre mémoire numérique de manière stable pendant des milliers d'années.

La densité de stockage de l'information de l'ADN est plus de mille fois supérieure à celle des meilleures mémoires informatiques actuelles mais ce saut technologique se heurte à la question du coût. On  estime en effet que l'encodage des données dans l'ADN revient encore aujourd'hui à 8 000 euros par mégaoctet.

Mais le stockage sur ADN présente d'immenses avantages : alors que la plupart des moyens actuels de stockage numérique ne durent que quelques décennies, le mode de stockage sur ADN mis au point par ces chercheurs promet une conservation d'au moins 10 000 ans.

Pour leurs essais, les chercheurs ont ainsi encodé, à une densité de stockage d'environ 2,2 pétaoctets par gramme, un fichier MP3 avec le fameux discours de Martin Luther King "I Had a dream" et les 154 sonnets de Shakespeare (sous forme de texte ASCII). Le tout tient dans une poussière d'ADN dans laquelle les chercheurs sont parvenus à récupérer les données numériques avec une précision de 100 %.

Ces données numériques composées de successions de 0 et de 1 ont été transcrites une première fois en système trinaire utilisant des 0, des 1 et des 2. Puis à nouveau de manière à les faire correspondre aux quatre bases azotées qui composent l’ADN, en A, C, T et G. Les chercheurs ont imaginé un code d'indexation des fragments d'ADN pour éviter les erreurs de lecture.

Dans un premier temps, il est envisagé d'utiliser l'ADN pour archiver des données ne nécessitant pas un accès fréquent mais devant être sauvegardées sur plusieurs générations, comme par exemple l'emplacement des sites nucléaires dans le monde.

Article rédigé par Georges Simmonds pour RT Flash

MIT Technology Review

Enfant et écran : une relation complexe
Vendredi, 25/01/2013 - 19:37

L'Académie des sciences vient de rendre un rapport très complet intitulé "l'Enfant et les écrans" qui fait le point sur les différents aspects de la question liée à l'impact des images sur le psychisme de l'enfant ; ses capacités cognitives, ses aptitudes relationnelles et plus largement sa sensibilité au monde.

Ce rapport propose une approche globale du monde numérique et des images en les considérant dans une perspective anthropologique et historique et en les replaçant dans le processus de la mutation sociale qui va du livre à l'écran.

"L’utilisation de l’Internet et d’outils numériques variés a transformé d’abord les loisirs, puis l’apprentissage, l’éducation et la formation culturelle des enfants de tous âges" souligne Jean-François Bach, Secrétaire perpétuel de l’Académie des sciences.

Ce rapport souligne que cette évolution irréversible vers l'image a des effets positifs indéniables en permettant de nouvelles formes d'accès au savoir et aux connaissances et en favorisant l’insertion sociale des enfants et des adolescents.

Cette étude précise que chez les jeunes enfants, les jeux numériques peuvent être utiles pour apprendre à distinguer le réel et le virtuel mais qu'il est important de ne pas laisser l'enfant seul devant un écran.

L’Académie des sciences souligne par ailleurs que l'utilisation pédagogique des outils numériques, à l’école et à la maison, peut provoquer des progrès éducatifs importants.

Enfin, chez l’adolescent, l'utilisation accompagnée des écrans est favorable au développement des capacités de concentration et de maîtrise des émotions. Il existe néanmoins un risque non négligeable, si  l'écran devient l'unique source d'accès au savoir et au divertissement, d'une "fragmentation" de la pensée, le sujet passant d'une chose à l'autre, sans approfondir sa réflexion sur un objet.

Selon ce rapport, il faut encadrer les enfants de manière à leur permettre de combiner l’intelligence numérique et l’intelligence littéraire. Enfin, Serge Tisseron, l'un des auteurs de l'étude, souligne  que : "Nos enfants ne sont pas que des petits êtres à protéger. Traitons-les en partenaires, avec leurs capacités et leurs désirs." Afin de responsabiliser les enfants, il propose aux parents de leur donner "un temps global d'écran par jour".

Article rédigé par Georges Simmonds pour RT Flash

Académie des sciences

^ Haut
Matière
Matière et Energie
Une bio-façade à microalgues !
Mercredi, 30/01/2013 - 17:02

Le premier bâtiment au monde intégrant en façade un système de climatisation composé de micro-algues est en cours de construction dans la banlieue de Hambourg. Cette "maison des algues" sera achevée en 2013.

Conçue pour le Salon International du Bâtiment à Hambourg, cette maison à énergie zéro sera la première du genre. Les algues seront cultivées dans des bio-réacteurs placés en façade. Ce concept vise à exploiter la chaleur et la lumière du soleil pour produire de la biomasse à finalité énergétique.

En France, la ville de Saint-Nazaire va également se doter en 2013 de sa première bio façade à micro-algues.

En utilisant des nouveaux capteurs solaires biologiques de microalgues pour le bâtiment, et grâce à un système de façade thermo-régulé, conçu pour l'algoculture, l’agence X-TU Architects, le laboratoire GEPEA de l’Université de Nantes et AlgoSource Technologies vont réaliser cette première bio-façade pour en évaluer les performances.

Cette expérimentation permettra d'évaluer le potentiel d'économies d’énergie globales de ce système. Les chercheurs espèrent qu'il sera d'au moins 40 % par rapport à un bâtiment normal.

L'utilisation des immenses surfaces verticales exposées au soleil et disponibles sur les bâtiments pourrait permettre une culture à coût énergétique nul de  microalgues pouvant ensuite être utilisées comme source alimentaire, compte tenu de leur concentration en protéines, lipides et nutriments mais également comme biocarburants et dans de multiples domaines liés à la chimie fine et la pharmacie.

Article rédigé par Georges Simmonds pour RT Flash

DesignBuild Source

Scoop

Un plastique performant à base d'algues
Mercredi, 30/01/2013 - 15:40

Le Japon est pauvre en ressources fossiles et notamment en pétrole et, dans ce contexte, il recherche activement des méthodes de substitution pour la production de bioplastiques.

Une équipe de recherche regroupant Motonari Shibakami (Biomedical Research Institute of Japan's National Institute of Advanced Industrial Science and Technology ), Masatoshi Iji ( NEC) et Masahiro Hayashi (Université de Miyazaki), et travaillant dans le cadre du programme japonais de recherche pour les technologies à faible intensité carbone, a mis au point un film plastique à base de micro-algues.

Ce biomatériau est constitué de nanofibres de polysaccharide obtenues à partir de paramylon, un biopolymère présent dans la cellule d'Euglena gracilis, une micro-algue.

La technique de synthèse mise au point est très novatrice car elle procède par auto-assemblage des différents composants de la fibre, c'est-à-dire par une approche "du bas vers le haut", au lieu de l'approche habituelle "du haut vers le bas". Autre avancée majeure : ce type de synthèse est le premier auto-assemblage in vitro de nanofibre de cellulose.

Ces nanofibres possèdent de remarquables propriétés physiques, chimiques et thermiques et devraient avoir de nombreuses applications dans le domaine industriel mais aussi médical.

Article rédigé par Gaël Orbois pour RT Flash

Tech-On

Le proton est plus petit que prévu
Mercredi, 30/01/2013 - 15:32

Une équipe internationale de chercheurs a confirmé que le proton a une taille de 4 % inférieure à celle admise jusqu'à présent.

Le proton était censé avoir un rayon de 0,88 femtomètres, taille qui avait été établie en recoupant deux méthodes de mesure complémentaires.

Mais il y a trois ans, le physicien Aldo Antognini de l'Ecole Polytechnique Fédérale de Zurich a utilisé une nouvelle technique pour calculer la taille du proton. Il a remplacé les électrons par des muons, beaucoup plus massifs.

Aldo Antognini a ensuite mesuré les rayons X émis par les muons et en est arrivé à la conclusion que le rayon du proton est de 0,84 femtomètres, soit 4 % de moins que les estimations officielles. Ces chercheurs viennent à nouveau de mesurer le proton en affinant leur méthode et en réduisant la marge d'erreur de la mesure de 40 %. Ils trouvent exactement le même résultat : 0,84 femtomètres.

Cette équipe prépare de nouvelles expériences pour voir si une nouvelle particule encore inconnue ne serait pas la cause de ce "rétrécissement" du proton. Beaucoup de physiciens ont en effet l'intuition que la physique actuelle est à l'aube d'un bouleversement théorique majeur car le "modèle standard" ne parvient pas à rendre compte de manière satisfaisante des effets de la gravitation à petite échelle et de l'accélération de l'expansion de l'univers sous l'effet de l'énergie sombre.

Article rédigé par Gaël Orbois pour RT Flash

Science

Science News

Vers une production massive d'hydrogène par photosynthèse
Mardi, 29/01/2013 - 17:59

Les scientifiques rêvent de reproduire parfaitement la photosynthèse qui permet aux plantes, à partir d'eau et de carbone, de produire de l'énergie sous forme de sucre grâce à la lumière du soleil.

Des chercheurs de l'Université de Rochester à New York ont conçu de minuscules particules de cadmium et de sélénium qui peuvent éjecter des électrons sous l'effet de la lumière. Ils ont également utilisé un catalyseur constitué de nanoparticules de nickel et ont eu la surprise de constater une production importante et continue d'hydrogène gazeux.

"Ce procédé original permet de surmonter plusieurs obstacles qui empêchent la photosynthèse artificielle" souligne le chimiste Hemamala Karunadasa qui est à la fois simple, efficace et peu coûteux et nous pouvons même l'ajuster de manière à ce que nos particules réceptrices puissent absorber les différentes longueurs d'onde de la lumière qui composent la lumière du soleil".

Article rédigé par Georges Simmonds pour RT Flash

Science News

Les astéroïdes : nouvel eldorado du XXIème siècle ?
Mardi, 29/01/2013 - 17:10

Certains astéroïdes qui croisent régulièrement l'orbite de la Terre, recèlent d'énormes quantités de métaux précieux ou d'eau, sous forme de glace, et ces richesses potentielles, en dépit des difficultés techniques d'exploitation, commencent à attirer la convoitise.

La société américaine Deep Space Industries prévoit de lancer à partir de 2015 des petites sondes spatiales de quelques kilos pour explorer et éventuellement exploiter certains astéroïdes lorsqu'ils passent près de notre planète.

Selon David Gump, directeur général de cette société, "Sur le long terme, la conquête spatiale ne pourra se faire qu'en exploitant les ressources se trouvant dans l'Espace et avec plus de 900 nouveaux astéroïdes passant près de la Terre chaque année, ces ressources pourraient devenir aux activités spatiales de ce siècle ce qu'ont été les gisements de minerais de fer du Minnesota pour l'industrie automobile de Detroit au XXe siècle".

Dans un premier temps, Deep Space essayera d'identifier les astéroïdes les plus rentables en utilisant des micro-sondes à faible coût de lancement baptisées "lucioles" qui seront lancées à partir de 2015 pour des missions de plusieurs mois. A partir de 2016, Deep Space enverra une deuxième vague de sondes plus grosses, les "libellules", qui pourront atteindre les astéroïdes et ramener sur Terre des échantillons de matière.

L'idée est de faire d'une pierre deux coups : extraire du carburant directement sur les Astéroïdes pour alimenter les vaisseaux spatiaux et, à plus long terme, exploiter les métaux de ces astéroïdes.

Deep Space devra faire face à un concurrent car en 2012 s'est constituée une autre société de prospection et d'exploitation minière d'astéroïdes, Planetary Resources.

On comprend mieux cet intérêt pour l'exploitation spatiale quand on sait que certains astéroïdes contiennent plus de platine qu'il en a été extrait sur terre depuis l'Antiquité !

Selon  la NASA, sur environ 9 000 astéroïdes qui croisent régulièrement à proximité de la Terre, 20 % sont d'un accès aussi facile que la Lune.

Article rédigé par Georges Simmonds pour RT Flash

Newsfeed

Intel relance la course à la miniaturisation électronique et à l'autonomie
Mardi, 29/01/2013 - 16:55

A l'occasion du récent CES, Intel a présenté sa puce Bay Trail, gravée en 22 nm, qui sera deux fois plus rapide que ses composants actuels. Le premier fabricant mondial de puces a également annoncé une nouvelle génération de ses puces, basée sur la micro-architecture x86.

Grâce à un mode entièrement revu de la gestion de la batterie, Intel promet des terminaux et portables qui pourront enfin fonctionner pendant plus de neuf heures de manière continue.

A l'occasion du EMI Industry Strategy Symposium (ISS), a été montré pour la première fois un wafer de 450 mm qui est entièrement « imprimé ».

Le passage au wafer de 450 mm (18") est une étape cruciale pour l'industrie du semiconducteur. Elle permettra notamment de réduire les déchets liés aux découpes, mais aussi de produire des puces en plus grande quantité. En décembre dernier, Intel avait annoncé que plusieurs de ses usines étaient en cours de test sur la production de wafers de 18 pouces.  Intel devrait par ailleurs présenter, à l'occasion du Computex 2013 qui se déroulera du 4 au 8 juin à Taipei, ses processeurs Haswell, gravés en en 22nm.

Intel a également annoncé le passage prochain à une finesse de gravure de 14 nm et précisé que trois de ses usines, en Oregon, en Arizona et en Irlande, passeront à cette finesse de gravure. Quelques exemplaires de processeurs Broadwell seront distribués aux partenaires du fondeur d'ici la fin de l'année pour valider la nouvelle lithographie de ces puces. Des processeur de cinquième génération Core i continueront cependant à être produits sur des wafers de 300 mm.

Dans sa "feuille de route", Intel prévoit de passer à la gravure en 10 nanomètres en 2015 et veut descendre à 7 nanomètres dès 2018.

Article rédigé par Georges Simmonds pour RT Flash

Anandtech

The Verge

Informatique : une molécule organique remplacera-t-elle les puces mémoires ?
Mardi, 29/01/2013 - 16:43

Une équipe dirigée par l'Université de Washington à Seattle et l'Université du Sud de la Chine a découvert une molécule qui semble prometteuse pour constituer en informatique une alternative biologique à la voie du silicium semi-conducteur d'aujourd'hui.

Cette molécule est un ferro-électrique, ce qui signifie qu'elle est chargée positivement sur une face et négativement sur l'autre, ce qui produit une polarisation électrique qu'on peut orienter à volonté en appliquant un champ électrique d’intensité supérieure à un certain seuil. Des composants ferroélectriques sont déjà utilisés dans certains affichages, capteurs ou puces-mémoire.

Selon le professeur Jiangyu Li, ce matériau à base de carbone pourrait permettre de stocker à faible coût des informations numériquesb ; il pourrait également être utilisé pour les capteurs médicaux implantables dans le corps.

Ce ferroélectrique organique fonctionne en outre à température ambiante et conserve ses propriétés jusqu'à 153 degrés Celsius (307 degrés F), ce qui le rend supérieur aux ferroélectriques à base de titanate de baryum.

Autre avantage : la constante diélectrique de ce matériau, c'est-à-dire sa capacité à stocker l'énergie - est plus de 10 fois plus élevée que pour les autres matériaux ferroélectriques organiques. Enfin, il possède également des propriétés piezzo-électriques et peut donc convertir le mouvement en électricité.

Cette molécule est fabriquée à partir du brome, un élément naturel isolé à partir du sel de mer, mélangé à du carbone, de l'hydrogène et de l'azote. Elle ne remplacerait pas tout de suite tous les actuels matériaux inorganiques mais pourrait être utilisée dans des applications où le coût, le poids, la flexibilité et la toxicité sont importants.

Article rédigé par Gaël Orbois pour RT Flash

Science Daily

Technologies nucléaires du futur : quelle place pour la France ?
Mardi, 29/01/2013 - 16:24

Selon Andrew Kadak, professeur de sciences et techniques nucléaires au MIT, le retrait de la France du nucléaire civil appauvrirait la recherche mondiale sur cette énergie mais le grand perdant serait la France elle-même car elle aurait beaucoup plus de mal à exporter sa technologie EPR (European Pressurized Reactor) développée par Areva et EDF.

Outre la centrale EPR en construction en Finlande, EDF construit deux usines de ce type en Chine et cherche à exporter cette technologie aux États-Unis et au Royaume-Uni.

Toutefois, selon Kadak, la France restera un acteur majeur dans le développement des technologies nucléaires avancées. Kadak souligne que le CEA dépense environ 1,5 milliard d'euros par an en R & D dans la recherche, contre moins de 900 millions d'euros par an pour les Etats-Unis.

Kadak rappelle que la France est de loin le leader mondial dans le domaine stratégique du retraitement du combustible usé et qu'aucun autre pays au monde n'est capable de se substituer à la France dans cette phase essentielle de l'industrie nucléaire.

Pour Burton Richter, lauréat du prix Nobel et physicien à l'Université de Stanford, "La France est très en avance sur les Etats-Unis dans le développement des réacteurs de 4ème génération à neutrons rapides qui permettent, non seulement de produire leur propre combustible, par irradiation de l'uranium non enrichi, mais qui peuvent transmuter les actinides mineurs et ramener ainsi la radioactivité dangereuses des déchets à trois siècles, au lieu de dizaines de milliers d'années.

L'article du MIT souligne que le débat sur l'énergie en France sera clos en juillet prochain et qu'une loi sur l'énergie est prévue en octobre. Selon le MIT, le gouvernement devra tenir compte de l'opinion publique française qui considère, selon une enquête d'opinion réalisée en 2012, que "La France est trop dépendante de l'énergie nucléaire."

Mais le MIT rappelle qu'une sortie du nucléaire trop rapide risque d'avoir des conséquences importantes en matière d'emplois alors que la France est confrontée à un chômage important. Le MIT évoque également la montée en puissance des véhicules électriques qu'il faudra bien approvisionner en électricité sans carbone, une équation qui risque d'être difficile à résoudre sans le nucléaire !

"Finalement, il n'est pas impossible que la France s'aperçoive que, pour accomplir sa transition énergétique, elle a besoin à la fois de développer les énergies renouvelables mais aussi le nucléaire de prochaine génération "conclut le MIT.

Article rédigé par Georges Simmonds pour RT Flash

MIT Technology Review

Vers des éoliennes marines de 10 MW
Dimanche, 27/01/2013 - 16:54

Blade Dynamics, une entreprise américaine spécialisée dans la construction d'éoliennes, a développé une technologie qui permet d'augmenter sensiblement la taille des pales d'éoliennes.

Cette société a réalisé un prototype de pales de 49 mètres de long et travaille à la fabrication d'un nouveau type de pales de 100 mètres de long, soit 25 mètres de plus que les plus longues pales actuelles. De telles pales équiperaient des éoliennes marines géantes de 250 mètres de haut, soit 80 mètres de plus que le plus haut monument de Washington, qui culmine à 169 mètres !

Les vents marins sont à la fois plus forts et plus réguliers mais la construction d'un parc éolien en mer coûte trois fois plus cher qu'un parc de puissance similaire sur terre car il faut prendre en compte le coût du transport de ces machines par bateau et, bien, sûr le coût d'installation et d'entretien en milieu agressif. Il est donc nécessaire de réduire le nombre de machines pour diminuer les coûts d'installation et de maintenance sur mer.

Mais, jusqu'à présent, la construction d'éoliennes marines géantes se heurtait au coût de fabrication des pales. Grâce à l'emploi combiné de nouveaux matériaux composites, fibres de verre et de carbone notamment, il devient maintenant possible de fabriquer des pales très longues sans accroître le poids et le coût de fabrication. Siemens, par exemple, produit des pales de 75 mètres de long et Vestas travaille sur une pale de 80 mètres qui sera disponible l'année prochaine.

Blade Dynamics a, pour sa part, mis au point un procédé qui lui permet de construire des pales de 100 mètres de long entièrement en fibre de carbone. La fibre de carbone est certes plus coûteuse que la fibre de verre mais le gain en légèreté et en puissance finale compense ce surcoût. Ces pales plus légères permettent également de concevoir de nouvelles éoliennes qui ont des composants plus légers et moins coûteux. On peut par exemple utiliser un rotor de seulement 15 tonnes, au lieu de 24 tonnes et réduire également le poids des fondations.

Au final, ces avancées techniques vont permettre l'arrivée d'une nouvelle génération d'éoliennes marines d'une puissance de 10 mégawatts contre six au maximum actuellement. Chacune de ces machines devrait pouvoir produire en moyenne assez d'électricité pour alimenter 12 000 foyers.

Article rédigé par Georges Simmonds pour RT Flash

MIT Technology Review

Blade Dynamics

Blade Dynamics

Cellules solaires souples : nouveau record mondial de rendement
Samedi, 26/01/2013 - 08:38

Des chercheurs suisses de l'EMPA, la Laboratoire Fédéral d'Essai des Matériaux, ont mis au point des cellules solaires souples sur des feuilles de plastique flexible dont le taux de conversion du rayonnement solaire en électricité atteint la nouvelle valeur record de 20,4 %. Ces cellules solaires, basées sur la technologie des semi-conducteurs CIGS (diséléniure de cuivre-indium-gallium), ouvrent la voie à la production à bas prix d’électricité photovoltaïque.

Pour produire de l’électricité solaire à bon marché, les scientifiques et les ingénieurs s’efforcent depuis longtemps de développer des cellules solaires peu coûteuses qui aient à la fois un haut rendement et soient simples à produire en grande quantité.

Ces chercheurs sont parvenus à considérablement augmenter le taux de conversion du rayonnement solaire en électricité des cellules solaires à couche mince CIGS sur feuilles de plastique flexible. Depuis 1999, ces chercheurs sont passés d'un rendement de 12.8 % à 20,4 %.

Fait remarquable, le rendement de cette cellule solaire dépasse même la valeur record des cellules solaires CIGS sur verre qui est de 20,3 %. En outre, ce rendement est équivalent à ceux atteints avec les cellules solaires au silicium polycristallin, qui, elles, sont bien plus chères.

Ces cellules solaires flexibles à couche mince et à haut rendement, qui sont applicables sur n'importe quelle suface (murs, toits, sols), devraient permettre d'abaisser rapidement et fortement le coût de production de l'électricité photovoltaïque.

Article rédigé par Georges Simmonds pour RT Flash

EMPA

MIT Technology Review

Un polymère de coton pour capter et piéger l'eau
Vendredi, 25/01/2013 - 19:28

On sait depuis une vingtaine d'années qu'il est possible de récupérer l'eau du brouillard en plaçant judicieusement de grands filets aux mailles spécialement calibrées qui vont permettre aux gouttelettes du brouillard de se condenser.

Mais une équipe de recherche néerlandaise, en collaboration avec des chercheurs de Hong Kong, a développé un système encore plus astucieux qui exploite les propriétés hydrophiles du tissu de coton.

Les chercheurs ont développé un polymère, le poly(N-isopropylacrylamide), ou PNIPAAm, qui, appliqué sur le tissu de coton, multiplie par vingt la capacité d'absorption de ce dernier. Au lieu d'absorber en eau l'équivalent de 18 % de son poids, comme habituellement, il en absorbe 340 %. Autre propriété remarquable de ce matériau : il relâche l'eau lui-même lorsqu'il fait chaud, ce qui permettrait d'irriguer des régions désertiques.

L'association du polymère et du coton confère au matériau une structure similaire à une éponge. En dessous d'une température de 34°C, ce procédé absorbe toute l'humidité contenue dans l'air (brume, brouillard) mais lorsque la température dépasse ce seuil, ce matériau devient hydrophobe et les grandes quantités d'eau absorbées n'ont plus qu'à être récupérées.

Contrairement aux autres systèmes qui piègent l'eau, le coton enduit fonctionne même sans vent. En outre, ces fibres végétales recouvertes du polymère peuvent être posées directement là où l'eau est nécessaire, sur un sol cultivé par exemple.

Article rédigé par Gaël Orbois pour RT Flash

Wiley

Un nouveau ciment à faible empreinte carbone
Vendredi, 25/01/2013 - 18:55

Lafarge vient d'annoncer que les essais industriels de son clinker nouvelle génération, permettant la production de ciments à faible empreinte carbone, avaient été tout à fait satisfaisants. Les essais ont réuni une équipe d’environ 100 personnes pendant 10 jours dans une usine du Groupe situé au Teil (France) et ont permis de produire 10 000 tonnes de clinker Aether et de valider ainsi la faisabilité d’une production à échelle industrielle utilisant des matières premières traditionnelles. Le lancement des premiers produits Aether est prévu en 2014.

Les ciments Aether offrent des propriétés comparables au ciment classique et peuvent être fabriqués dans une cimenterie traditionnelle légèrement modifiée. Cette innovation chimique devrait permettre de réduire les émissions de CO2 de 25 à 30 % grâce à un taux de calcaire réduit, une température de cuisson plus basse (~1300°C) et un broyage plus facile, nécessitant moins d’énergie.

Ce projet de développement bénéficie du soutien de l’Union européenne, dans le cadre de son programme LIFE +, un instrument de financement de projets en faveur de l’environnement.

Lafarge travaille à réduire ses émissions de CO2 depuis plus de 20 ans grâce à l’utilisation de combustibles alternatifs, d’ajouts cimentaires et l’amélioration de l’efficacité énergétique de ses usines. Le projet Aether démontre la volonté de Lafarge d’aller encore plus loin dans la réduction de ses émissions de CO2. Ce projet contribuera à l’objectif du Groupe de réduire ces émissions par tonne de ciment de 33 % d’ici 2020, objectif fixé dans le cadre des Ambitions développement durable 2020 du Groupe.

La production mondiale de ciment représente environ 2,4 milliards de tonnes de CO2, soit 7 % des émissions humaines annuelles de CO2. La généralisation de ce procédé pourrait donc permettre de réduire à terme, au niveau mondial, les émissions de CO2 liées au ciment de plus 700 millions de tonnes, soit deux fois les émissions françaises annuelles de CO2.

Article rédigé par Gaël Orbois pour RT Flash

Lafarge

^ Haut
Espace
Espace et Cosmologie
Un composant essentiel à l'apparition de la vie détecté dans l'espace
Dimanche, 27/01/2013 - 17:43

Une équipe composée de chercheurs de l'Institut de planétologie et d'astrophysique de Grenoble et de l'Institut de recherche en astrophysique et planétologie vient d'annoncer la présence de la formamide dans le gaz qui entoure IRAS 16293-2422, une étoile analogue à notre Soleil, en formation dans la nébuleuse de Rho Ophiuci.

Cette découverte a été réalisée à l'aide de nouveaux récepteurs spectraux installés sur le télescope de 30m de l'Institut franco-allemand-espagnol de radio-astronomie millimétrique situé à près de 3000m d'altitude sur la Sierra Nevada, dans le sud de l'Espagne.

De récents travaux de biochimie laissent penser que la molécule de formamide, NH2CHO, est peut-être à l'origine de l'apparition des molécules nécessaires à la vie : acides aminés, sucres et acides nucléiques notamment.

C'est en analysant des milliers de raies moléculaires émises par le gaz qui environne IRAS 16293-2422 et en comparant ces données aux spectres de référence constitués de molécules terrestres que les chercheurs ont réussi à détecter et à identifier 39 raies caractéristiques de la molécule formamide.

Article rédigé par Georges Simmonds pour RT Flash

IOP Science

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La calotte du Groenland est vulnérable au changement climatique
Dimanche, 27/01/2013 - 17:32

Une équipe internationale de scientifiques est parvenue à reconstituer l'histoire du climat au cours des 130 000 dernières années au Groenland grâce à l’analyse de carottes de glace issues de l'Arctique et datant de la dernière période interglaciaire. Ce forage est descendu à 2,5 km de profondeur, jusqu'au socle rocheux et a permis d'extraire des carottes de glace au nord-ouest du Groenland.

Selon ces travaux, la calotte du Groenland aurait contribué seulement de 2 mètres aux 8 mètres de montée du niveau marin observés pendant cette période. Il y a 130 000 à 125 000 ans, le climat du Groenland aurait été de 4°C à 8°C plus chaud qu’actuellement.

Par ailleurs, les chercheurs estiment que le volume de la calotte du Groenland a diminué d’environ 25 % pendant cette période interglaciaire.

Ces résultats confirment la vulnérabilité de la calotte du Groenland aux augmentations de température. Cependant, le fait qu’elle n’ait pas entièrement disparu au cours de la dernière période interglaciaire confirme l'hypothèse selon laquelle la calotte de l’Antarctique serait responsable d’une part importante des 8 mètres de la montée du niveau marin enregistrée à cette époque.

Article rédigé par Gaël Orbois pour RT Flash

NEEM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le papillomavirus pourrait être responsable de l'épilepsie de l’enfant
Mercredi, 30/01/2013 - 16:53

Selon une étude publiée dans « Annals of Neurology », le papillomavirus de type 16 (HPV16),  impliqué dans le cancer du col de l’utérus, pourrait également provoquer certaines formes d'épilepsie de l’enfant liées à une dysplasie corticale focale.

Cette dysplasie, qui est à l'origine de formes d’épilepsie difficiles à traiter chez l’enfant et chez l’adulte, se caractérise par la présence de cellules ballonnées. celles-ci sont soumises à la cascade de signalisation mTOR1 (mammalian Target Of Rapamycin complex 1), qui joue un rôle essentiel dans la croissance et la division cellulaires, notamment  au niveau cérébral.

Sachant que le système mTOR est activé par l’oncoprotéine HPV16 E6, les chercheurs ont voulu savoir si la dysplasie corticale focale pouvait être provoquée par le virus HVP16. Ils ont introduit la protéine E6 dans le cerveau de fœtus de rats et ont alors observé l'apparition de malformations cérébrales.

L'hypothèse retenue est que le HPV16 qui infecterait le cerveau des fœtus proviendrait d’une infection du placenta. Dans ce cas, il serait possible de traiter cette forme d’épilepsie résultant d’une perturbation du système mTOR, à l'aide d'inhibiteurs de cette voie de signalisation mTOR, semblables à ceux utilisés depuis peu dans le traitement du cancer du rein.

Article rédigé par Georges Simmonds pour RT Flash

Wiley

Pour vivre vieux, vivons debout !
Mercredi, 30/01/2013 - 16:47

Selon une étude australienne réalisée sur 222.000 personnes âgées de 45 ans et plus, le fait de rester assis six heures ou plus augmenterait de 40 % le risque de décès dans les quinze ans qui suivent par rapport à une personne qui ne resterait assise que trois heures par jour.

Rester assis ralentit le métabolisme, diminue le taux du bon cholestérol HDL et augmente les risques de maladies cardio-vasculaires, de diabète, et de cancer. En outre, une sédentarité excessive favorise l'obésité qui est à présent plus meurtrière que la malnutrition, selon une étude publiée par le "Lancet".

Des chercheurs australiens ont par ailleurs montré que pour chaque heure supplémentaire assise, le risque de décès augmente de 11 %.

L'étude souligne que les adultes passent en moyenne 90 % de leur temps libre assis et qu'il est nécessaire de pratiquer au moins 150 minutes d'activité physique par semaine.

Article rédigé par Georges Simmonds pour RT Flash

Lowdown Scroll

Quand le bacille de la lèpre transforme les cellules nerveuses en muscles !
Mercredi, 30/01/2013 - 16:40

Décidément, tous les dogmes de la biologie tombent les uns après les autres . C'est une découverte fondamentale extraordinaire qui viennent de faire des chercheurs de l'Université d'Edimbourg.

Ils ont en effet observé que le bacille de la lèpre était capable de reprogrammer les cellules nerveuses de manière à les transformer en cellules-souches pluripotentes. Ces cellules-souches, qui restent infectées par le bacille, peuvent alors se transformer, selon deux voies distinctes, en cellules musculaires ou en globules blancs !

Le plus étonnant, c'est qu'à l'issue de cette reprogrammation, les cellules-souches ainsi créées sont identiques aux cellules-souches ordinaires et peuvent se transformer en os ou en muscles.

C'est la première fois qu'une telle propriété de reprogrammation cellulaire chez une bactérie est observée chez l'homme. Pour arriver à ses fins, le bacille de la lèpre parvient à modifier l'expression des gènes contrôlant le développement de son hôte par un mécanisme qui reste à élucider.

Comme le précise le commentaire de l'étude, publié dans "Cell", "Ces résultats montrent que certaines bactéries pathogènes utilisent la plasticité de leur niche cellulaire pour assurer leur propagation en utilisant un mécanisme inédit et particulièrement efficace de reprogrammation cellulaire."

Au-delà d'une meilleure connaissance du bacille de la lèpre, c'est donc bien une voie nouvelle et passionnante de production de cellules-souches qui vient de s'ouvrir.

Article rédigé par Georges Simmonds pour RT Flash

Cell

Acide folique et dépression : un lien majeur ?
Mercredi, 30/01/2013 - 16:32

On sait depuis les années 50 qu'il existe un lien de causalité entre le risque de dépression et le déficit en acide folique (ou vitamine B9). Des recherches plus récentes ont par ailleurs montré que des faibles taux d'acide folique sont corellés à une diminution de l'effet thérapeutique des antidépresseurs.

Une étude en double aveugle vient de montrer qu'une supplémentation de 500 mg par jour en vitamine B9, en complément d'un traitement antidépresseur, accroît l'efficacité thérapeutique chez la femme, mais non chez l’homme.

Par ailleurs, une récente méta-analyse portant sur 10 études montre une augmentation significative de la fréquence de la dépression chez les personnes présentant une mutation génétique spécifique du génotype TT. Chez ces personnes, il pourrait donc être envisagé, en cas de dépression, une supplémentation en acide folique qui viendrait compenser cette prédisposition génétique à la dépression.

Ces travaux confirment le lien entre vitamine B9 et dépression et ouvrent la voie, grâce à une supplémentation personnalisée,vers une possible prévention ciblée de la dépression, en fonction du profil génétique.  

Article rédigé par Georges Simmonds pour RT Flash

AJP

Maladies auto-immunes : le rôle protecteur des bactéries de la flore intestinale
Mercredi, 30/01/2013 - 16:23

Des chercheurs canadiens de l’hôpital des enfants malades de Toronto ont montré qu’il était possible de ralentir ou même de bloquer la progression d’un diabète insulino-dépendant chez des enfants qui présentent un risque génétique élevé, en modifiant l'équilibre de leur flore intestinale.

Ces travaux menés sur des souris génétiquement modifiées pour développer un type particulier de maladies auto-immunes, ont montré qu’il était possible, en colonisant le tube digestif des souris femelles avec des bactéries prélevées dans la flore intestinale de rongeurs mâles, de réduire de plus de 60 % les risques de maladie.

Les chercheurs ont constaté qu’en modifiant la flore digestive des souris femelles, ils augmentaient la production de testostérone dans leur organisme, or  cette hormone mâle joue un rôle protecteur contre le développement des maladies auto-immunes.

Ces recherches semblent conforter la "théorie de l'hygiène", selon laquelle l'augmentation du nombre de maladies auto-immunes et inflammatoires serait due au fait que notre environnement est de plus en plus aseptisé. Il a en effet été démontré que les enfants vivant à la campagne et connaissant un environnement microbien plus dense et plus complexe qu'en ville, présentaient moins de maladies auto-immunes que les enfants urbains.

"Nos résultats mettent en évidence une relation directe entre la composition intestinale de la flore microbienne et le déclenchement de maladies auto-immunes. A partir de ces découverte, nous allons à présent essayer de contrôler les réponses immunitaires indésirables, ce qui devrait permettre de diminuer le risque de maladie auto-immune", explique le Docteur Danska.

Article rédigé par Georges Simmonds pour RT Flash

Science

UFZ

Le premier pilulier intelligent et communicant
Mercredi, 30/01/2013 - 15:59

Au niveau mondial, on estime qu’un meilleur usage du médicament entraînerait 378 milliards d'euros d'économies sur les dépenses de la santé, soit 8 % de leur coût total. Il est donc capital de parvenir à faire respecter correctement les prescriptions médicales car la non-observance des traitements représente plus de la moitié des coûts évitables.

En France, on estime qu'environ 13 millions de personnes prennent quotidiennement plusieurs médicaments et, selon les travaux de l’IGAS, la mauvaise observance des prescriptions concernerait plus du tiers des patients. Les conséquences humaines et financières de cette situation sont considérables : un million de journées d’hospitalisation et 10 000 décès par an seraient directement imputables à la mauvaise observance des traitements prescrits.

Les économistes de la santé estiment que 2,6 milliards d'euros d'économies pourraient être réalisées d'ici 2020 en utilisant les nouvelles possibilités de la télémédecine pour mieux contrôler la prise des traitements dans quatre pathologies : le diabète, l'insuffisance cardiaque, l'insuffisance rénale et l'hypertension artérielle.

C'est dans ce contexte qu'a été conçu le Sivan de MedSecure. il s'agit du premier pilulier connecté au réseau GSM qui combine quatre fonctions essentielles : téléassistance ; télésurveillance ; télémonitoring et télécontrôle. Ce pilulier branché qui peut communiquer avec le patient et ses proches, comporte pas moins de 28 compartiments, chacun pouvant contenir une dizaine de comprimés.

Le patient sait qu'il doit prendre ses médicaments grâce un signal lumineux et sonore. Bien entendu, ce pilulier peut être reprogrammé à tout moment très simplement (par le patient ou son médecin) pour s'adapter à l'évolution des traitements à administrer et il délivre automatiquement des rapports périodiques d'activité.

Article rédigé par Georges Simmonds pour RT Flash

Medsecure

Un séquençage génétique au niveau d'une seule cellule !
Mercredi, 30/01/2013 - 15:50

Jusqu'à maintenant, des millions de cellules étaient nécessaires pour obtenir assez d'ADN pour pouvoir réaliser un séquençage complet et fiable. Mais les choses sont en train de changer et le séquençage de l'ADN à partir d'une seule cellule se rapproche.

Après purification cellulaire, l'amplification de l'ADN est une étape cruciale pour le séquençage de l'ADN complet d'une cellule unique. En effet, il est impossible de séquencer un génome avec une quantité d'ADN aussi faible que celle obtenue dans une seule cellule. Il existe, certes, des méthodes d'amplification du génome mais elles restent imparfaites et certaines régions du génome échappent au séquençage. Résultat : seul 40 % du génome est décodé.

Mais l'équipe de Sunney Xie vient d'annoncer dans le journal Science une nouvelle méthode d'amplification de l'ADN baptisée MALBAC (Multiple Annealing and Looping-Based Amplification Cycles) qui permet de séquencer 93 % du génome à partir d'une seule cellule. Sans entrer dans les détails, l'amplification de l'ADN isolé d'une cellule est réalisée grâce à des amorces constituées de 8 nucléotides à séquence variable.

Ce séquençage de cellules uniques ouvre de nombreuses voies de recherche dans tous les domaines de la biologie, cancérologie, reproduction, neurobiologie notamment.

En matière de cancer par exemple, Nicholas Navin (Université du Texas) a pu identifier en 2011, alors que cette technique n'était pas encore aussi performante qu'aujourd'hui, trois populations majeures de cellules ayant émergé d'une population tumorale initiale pendant la croissance d'une tumeur du sein.

Cette technique va également permettre, à partir d'une infime quantité de matériel génétique, de réaliser des tests prénataux ou des identifications de corps en médecine légale.

Article rédigé par Georges Simmonds pour RT Flash

Science

Harvard University

L'apprentissage des langues commence avant la naissance !
Mardi, 29/01/2013 - 17:50

Selon une étude américaine de la Pacific Lutheran University à Tacoma, les bébés peuvent commencer à apprendre leur langue maternelle avant même de voir le visage de leur mère. Ces recherches montrent en effet que les nouveau-nés réagissent différemment aux sons des voyelles de leur langue maternelle ou d'une langue étrangère, ce qui suggère que l'apprentissage des langues commence dans l'utérus.

Les foetus peuvent entendre les sons extérieurs environ 10 semaines avant la naissance. Jusqu'à présent, il était établi que le foetus pouvait reconnaître la mélodie, le rythme et le volume des voix mais pas la langue à laquelle appartiennent les voyelles entendues.

"Cette reconnaissance des voyelles de la langue maternelle avant la naissance démontre que le fœtus entend très bien les sons malgré son immersion dans le liquide amniotique" souligne Minna Huotilainen de l'Institut finlandais de la santé à Helsinki.

Ces travaux ont porté sur 80 nouveau-nés en bonne santé. Chaque enfant se trouvait dans une pièce calme avec des écouteurs souples placés à côté de ses oreilles. Par la succion d'une tétine reliée à un ordinateur, les bébés pouvaient déclencher l'audition de voyelles pendant cinq minutes.

Chaque voyelle pouvait être entendue par le nouveau-né jusqu'à ce que celui-ci reprenne la tétine pour une nouvelle aspiration. Dans ce cas, une nouvelle voyelle lui était alors proposée. Les chercheurs ont ainsi pu démontrer, en analysant les temps d'écoute et de pause de chaque voyelle, que les bébés distinguaient nettement les voyelles issues de leur langue maternelle de celles issues d'une autre langue, preuve qu'ils avaient déjà entendu et distingué ces deux langues in utero.

Article rédigé par Georges Simmonds pour RT Flash

Science News

Les infections bactériennes vaincues par la lumière
Mardi, 29/01/2013 - 17:39

Des chercheurs du Massachusetts General Hospital et de la Harvard Medical School de Boston, dirigés par Michael R. Hamblin ont montré que la lumière pouvait sélectivement éradiquer les infections sévères provoquées par la bactérie Pseudomonas aeruginosa dans le derme, tout en préservant l'épiderme.

Dans cette expérimentation, tous les animaux infectés par Pseudomonas aeruginosa et traités avec de la lumière bleue (d'une longueur d'ondes de 415 nanomètres qui permet une absoption optimale par les tissus), d'une puissance de 55 joules par cm2 ont survécu, alors que 82 % de ceux du groupe témoin sont morts.

"La prévalence des infections de la peau et des tissus mous chez les patients hospitalisés est de 10 %, ce qui représente environ 14 millions de soins ambulatoires chaque année aux Etat-Unis, soit un coût annuel de 24 milliards d'euros", précise le docteur Hamblin.

Depuis quelques années, le traitement des infections de la peau est devenu beaucoup plus compliqué à cause du phénomène de multirésistance aux antibiotiques et certains microbes ont la capacité de s'adapter rapidement, par mutations génétiques, à tous les antibiotiques. Les chercheurs ont notamment découvert récemment une enzyme, la NDM-1, qui rend certaines bactéries résistantes à presque tous les antibiotiques disponibles.

Face à ce défi de santé publique, qui augmente en outre les coûts des soins, "Le traitement des infections multirésistantes de la peau nécessitant souvent l'utilisation de médicaments de plus en plus toxiques qui augmentent la durée de l'hospitalisation pour les patients", souligne le docteur Hamblin qui ajoute "Le recours à la lumière pourrait nous permettre de casser cette spirale infernale".

Article rédigé par Elisa Tabord pour RT Flash

Antimicrobial Agents and Chemotherapy

Massachusetts General Hospital

Mélanome : deux mutations génétiques clés identifiées
Mardi, 29/01/2013 - 17:27

Des chercheurs du Dana Farber Cancer Institute à Boston ont découvert deux nouvelles mutations génétiques qui, ensemble, se produisent dans 71 % des mélanomes, un cancer agressif de la peau. C'est la première fois que des mutations liées au cancer sont découvertes dans cette vaste région de l'ADN appelée "matière noire" du génome, en référence à la matière noire qui constituerait une grande partie de l'Univers mais dont la nature reste inconnue.

Ces chercheurs ont également indiqué que ces mêmes mutations seraient présentes dans des cellules du cancer du foie et de la vessie. Ils notent en outre que la découverte de ces importantes mutations dans la "matière noire" du génome démontre qu'il est important d'examiner l'ADN complet de la tumeur.

"Le problème est que nous ne savons pas comment inverser les mutations cancérigènes" souligne  le Docteur Garraway qui ajoute, "Il faudrait parvenir à bloquer la production de télomérase dans les cellules cancéreuses par un médicament".

Elaine Mardis de l'Université de Washington déclare pour sa part, "Ces recherches montrent que le cancer n'est pas seulement lié aux gènes et aux mutations génétiques mais au moins autant aux modes d'expression de ces gènes que nous commençons seulement à comprendre."

Article rédigé par Georges Simmonds pour RT Flash

The New York Times

Science et Science

Téléphone mobile et risque de cancer : le débat relancé
Mardi, 29/01/2013 - 16:35

L'Agence européenne de l'environnement a publié le 24 janvier un rapport intitulé "Leçons tardives d'avertissements précoces", dans lequel elle fait le point sur de nombreuses innovations technologiques pouvant avoir un effet négatif sur la santé ou l'environnement.

S'agissant du téléphone portable, le rapport fait état d'un lien possible entre l'utilisation excessive du téléphone portable et une augmentation du risque de tumeur du cerveau.

L'Agence européenne pour l'environnement prend acte des incertitudes scientifiques sur cette question et ne remet pas en cause les avantages des télécommunications mobiles mais elle estime néanmoins que, dans le doute, il faut appliquer dès maintenant le principe de précaution de façon à réduire les risques éventuels liés à une utilisation intensive du mobile.

Le rapport propose une approche pragmatique qui permette de réduire l'exposition du cerveau aux ondes.

Première recommandation : éviter autant que possible de téléphoner en voiture car le passage d’une antenne à relais à une autre entraîne une augmentation de l'intensité des ondes reçues.

Autre recommandation : utiliser un kit mains-libres avec écouteur qui limite considérablement l'exposition directe du cerveau aux ondes.

Mais, dans ce cas, pour éviter d'exposer toujours la même partie du corps, il faut penser à changer régulièrement de place son mobile et alterner les appels téléphoniques classiques et les appels "mains-libres". Enfin, dans la même logique, il faut changer régulièrement d'oreille au cours d'un appel prolongé.

Ces préconisations de l'Agence européenne pour l'environnement surviennent quelques mois après le verdict de la Cour de cassation italienne, qui vient de rendre un arrêt très commenté, considérant que c'est bien l'usage intensif (plus de six heures par jour pendant douze ans) du mobile qui a provoqué une tumeur du cerveau chez un ancien cadre d'entreprise.

Enfin, rappelons qu'en juin 2011, le Centre international de recherche sur le cancer (CIRC), basé à Lyon, a officiellement classé les ondes électromagnétiques dans la catégorie des "cancérogènes possibles pour l'homme".

Article rédigé par Elisa Tabord pour RT Flash

Rapport de l'AEE (page 31)

La stimulation cérébrale profonde : un nouvel outil pour combattre l'alcoolisme ?
Dimanche, 27/01/2013 - 18:06

En implantant une électrode dans le cerveau d'un alcoolique, des chercheurs de l'université d'Anvers sont parvenus à stopper sa dépendance.

L'homme était alcoolique depuis 20 ans. Aujourd’hui, il affirme qu'il n'a plus envie de boire. La technique a déjà fait ses preuves pour la maladie de Parkinson. L'électrode implantée envoie du courant électrique sur une zone du cerveau et cela diminue les tremblements.

La stimulation cérébrale profonde est déjà utilisée dans la maladie de Parkinson et l'épilepsie et plus récemment, elle a montré son efficacité dans certains des troubles obsessionnels compulsifs réfractaires aux traitements classiques.

Début 2012, des chercheurs américains de l'UCLA sont parvenus à restaurer la mémoire spatiale de patients épileptiques en utilisant la stimulation cérébrale profonde d'une zone du cortex entorhinal qui joue un rôle clé dans la formation de la mémoire. Selon ces scientifiques, cette technique pourrait également être efficace sur des malades touchées par la maladie d’Alzheimer.

Article rédigé par Georges Simmonds pour RT Flash

NCBI

Maguza

Le chocolat serait excellent pour le cerveau
Dimanche, 27/01/2013 - 17:59

On savait déjà que le cacao était bon pour le cœur et calmait le stress mais il serait également excellent pour prévenir le vieillissement des cellules du cerveau.

Des chercheurs de l'Université de L'Aquila ont en effet montré que la consommation de flavonoïdes, composés du cacao, pouvait améliorer les performances cognitives des personnes âgées. L’équipe a travaillé sur une population de 90 personnes âgées souffrant de déclin cognitif léger. Celles-ci ont été divisées en trois groupes et chaque groupe a reçu chaque jour pendant deux mois des doses différentes de boisson avec des flavonoïdes de cacao.

Résultat : les personnes âgées qui avaient consommé les plus fortes doses de flavonoïdes de cacao (990 mg par jour) ont montré des performances cognitives supérieures de 40 % par rapport à celles qui en avaient consommé de faibles doses. Ces gros consommateurs de cacao ont vu en outre baisser leur pression artérielle et leur diabète.

Les conclusions de ces travaux sont que "Les flavonoïdes de cacao consommés dans le cadre d'un régime hypocalorique contrôlé et équilibré du point de vue nutritionnel, peuvent améliorer sensiblement la capacité cognitive et la qualité de vie des personnes âgées".

Article rédigé par Georges Simmonds pour RT Flash

Hypertension

Schizophrénie : la piste génétique se précise
Dimanche, 27/01/2013 - 17:50

Des chercheurs de l'Université Johns Hopkins ont découvert un lien entre une mutation génétique rare, des anomalies cérébrales et la schizophrénie, ce qui conforte l'hypothèse de l'implication d'un facteur génétique dans le développement de la maladie. Les chercheurs ont effectué l’analyse ADN des échantillons de sang de 34 personnes atteintes de schizophrénie et issues de familles comportant plus d’une personne atteinte de schizophrénie.

Dans ces travaux, c'est le gène NPAS3 qui est mis en cause. Ce dernier régule le développement des neurones sains, en particulier dans l'hippocampe, une zone affectée dans la schizophrénie.

Les chercheurs ont pu montrer que la mutation de ce gène surexprimait son activité, ce qui entraînait un défaut de connectivité de certains neurones et des perturbations dans le fonctionnement du cerveau. Bien que cette mutation du gène NPAS3 semble rare, elle va probablement conduire à une meilleure compréhension de la façon dont les autres gènes peuvent contribuer au développement de la maladie.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Attaquer le cancer par la voie mécanique !
Dimanche, 27/01/2013 - 16:43

L'équipe de Chloé Féral à l'Inserm (U 1081) travaille sur une nouvelle voie de recherche originale en matière de cancer. On sait que les cellules des tumeurs solides se rigidifient en se développant et que, parallèlement, la prolifération tumorale rigidifie également la matrice extracellulaire, c'est-à-dire le milieu dans lequel baignent les cellules et qui est constitué de protéines. Les chercheurs ont également mis en évidence une corrélation entre la rigidité de la matrice extracellulaire et la capacité des tumeurs à se disséminer.

La plupart des cellules possèdent des protéines d’adhérence, les intégrines, grâce auxquelles elles vont pouvoir se lier entre elles pour former un tissu. Ces protéines traversent la membrane qui sépare la cellule de son environnement. De ce fait, une extrémité de la protéine se situe à l’extérieur de la cellule et l'autre est à l'intérieur.

Ces intégrines sont sensibles aux pressions mécaniques du tissu qui entoure la cellule. Ces pressions sont transmises, via l'intégrine, à une autre protéine située à l’intérieur de la cellule et cette dernière va alors modifier sa structure chimique. Ce mécanisme qui transforme un signal mécanique en signal chimique est appelé mécanotransduction. Les chercheurs de l'Inserm travaillent plus spécialement sur la protéine CD98hc, fortement impliquée dans la mécanotransduction.

Ces chercheurs ont pu récemment montrer chez la souris que cette protéine CD98 est très présente dans les cellules cancéreuses et absente sur certaines zones de la peau qui ne développent pas de tumeurs, même soumises au contact d'une substance cancérogène.

En mimant, grâce à des aimants, les forces mécaniques extérieures, ces chercheurs ont par ailleurs montré qu'il était possible de bloquer la formation d'une tumeur en empêchant les cellules de ressentir les variations mécaniques de l'environnement.

L'utilisation de ce mécanisme de mécanotransduction pourrait donc constituer un axe de recherche très prometteur contre le cancer et ces chercheurs vont à présent chercher les moyens de modifier les capacités contractiles des cellules ou les propriétés mécaniques des tissus qui les entourent, ce qui pourrait bloquer efficacement le développement d'une tumeur.

Article rédigé par Georges Simmonds pour RT Flash

Biomed

IRCAN

Tabac : vers une surmortalité féminine
Dimanche, 27/01/2013 - 16:28

Selon une étude publiée dans le New England Journal of Medicine et ayant porté sur plus de deux millions d'Américains, le risque de mourir d'un cancer du poumon a très fortement augmenté ces dernières décennies chez les femmes qui fument. On estime que depuis 20 ans, les femmes fument autant que les hommes et présentent donc des risques équivalents de mortalité.

Ces travaux montrent qu'il y a 50 ans, les femmes qui fumaient avaient un risque de décéder d'un cancer du poumon 2,7 fois plus élevé que celles qui ne fumaient pas. Mais depuis 10 ans, ce risque est devenu 25,7 fois plus grand que chez celles qui n'avaient jamais fumé.

Cette surmortalité est directement liée au nombre de cigarettes fumées et à la précocité du tabagisme. Par exemple, le risque de décès est multiplié par 3,7 pour une consommation d’environ 25 cigarettes par jour et par 2 pour une consommation d’un peu moins de 10 cigarettes quotidiennes. Par ailleurs,  le risque est multiplié par 3,2 pour les femmes qui ont commencé à fumer avant 16 ans contre 2,4 pour celles qui ont commencé à fumer après 22 ans. 

L'étude montre que les femmes qui se sont arrêtées de fumer entre 25 et 34 ans ont une surmortalité supérieure de seulement 5 % à celles qui ne fument pas mais cette surmortalité monte à 20 % lorsque le sevrage intervient à 40 ans et atteint 56 % lorsque le sevrage se fait à 50 ans.

Ces recherches confirment que l'arrêt du tabac est toujours bénéfique et réduit fortement, à tous les âges de la vie, le risque de mortalité.

Article rédigé par Elisa Tabord pour RT Flash

The Lancet

Myélome multiple : un nouveau médicament prometteur
Dimanche, 27/01/2013 - 16:20

Le myélome multiple est un cancer du sang qui se caractérise par une prolifération des plasmocytes malins dans la moelle osseuse. Ces plasmocytes malins remplacent les plasmocytes normaux et d'autres globules blancs importants pour le système immunitaire. Les cellules du myélome multiple peuvent également entraîner des tumeurs osseuses. On ne connaît pas la cause de la maladie.

Des chercheurs américains ont montré que la pomalidomide améliore significativement la survie chez les patients atteints de myélome multiple qui n’avaient pas d’autres traitements, selon un résumé des données qui seront présentées lors d’une réunion médicale le mois prochain.

Cet essai a comparé l'efficacité de la pomalidomide associée à une faible dose de dexaméthasone avec le traitement standard, c'est-à-dire une forte dose de dexaméthasone seule. Dans cet essai de phase I chez 38 patients inscrits, la pomalidomide a permis une réponse meilleure que le traitement standard pour 42 % des patients, une réponse partielle  pour 21 % d'entre eux, et une réponse complète pour 3 %.

L'étude, fruit d'une collaboration entre les chercheurs de Moffitt, Dana-Farber Cancer Institute, du Hackensack University Medical Center, du Multiple Myeloma Research Consortium, et de Celgene Corporation, a été publiée dans la revue de la Société américaine d'hématologie.

Les chercheurs ont constaté que la pomalidomide, administrée en doses croissantes (de 2 à 5 mg par jour pendant 21 jours), en association avec de faibles doses de dexaméthasone, a montré sa supériorité thérapeutique et des effets secondaires gérables (anémie et fatigue).

Les essais de phase II ont confirmé l'innocuité et l'efficacité de ce médicament chez les patients atteints de myélome en rechute et, compte tenu de ces résultats, la Food and Drug Administration envisage une autorisation rapide de mise sur le marché pour ce nouveau médicament.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Blood

L'aspirine améliore aussi la survie des malades âgés après un cancer du colon
Samedi, 26/01/2013 - 08:27

On sait depuis quelques années que l’aspirine a un effet protecteur contre le cancer du colon en inhibant l'enzyme COX2 (cyclooxygénase 2), découverte en 1990 et impliquée dans le déclenchement des processus inflammatoires.

Des chercheurs néerlandais ont examiné les effets de l’aspirine chez 4 481 malades de plus de 70 ans ayant un cancer du colon. 20 % d’entre eux avaient pris de l’aspirine à 80 mg pendant plus de 14 jours après le diagnostic du cancer.

Cette étude montre que la prise d’aspirine a réduit de moitié le risque de mortalité après pondération des autres facteurs de risque. C'est sur les patients sans chimiothérapie que l'aspirine a eu l'impact le plus important sur la mortalité. Selon les chercheurs, l’aspirine pourrait avoir un effet plus important dans les cas où le risque de métastases augmente en l’absence de chimiothérapie.

Article rédigé par Georges Simmonds pour RT Flash

Medscape

La sociabilité des fourmis est-elle génétique ?
Vendredi, 25/01/2013 - 19:21

Parmi les quelque 300 espèces de fourmis répertoriées, les "fourmis de feu" (de leur nom latin Solenopsis invicta) sont de loin les plus dangereuses et les plus agressives et, en moins de 80 ans, elles ont, à partir de l'Amérique du sud, envahi la planète et font à présent des dégâts considérables en Chine et en Australie notamment.

Les fourmis de feu sont surtout réputées pour les sévères brûlures qu’elles occasionnent. Elles sont également nuisibles aux cultures et autres espèces locales de fourmis, avec lesquelles elles entrent en concurrence.

Deux modèles d’organisation sociale co-existent chez ces fourmis : un modèle monogyne, avec une reine unique qui gouverne les ouvrières et un modèle polygyne, dans lequel plusieurs reines cohabitent au sein d’une même colonie. Ces travaux ont montré que le choix du modèle social par les fourmis faisait intervenir 600 gènes transmissibles d'une génération à l'autre.

Soit les fourmis sont porteuses d'une variante génétique "BB" et elles ne tolèrent qu'une seule reine. Soit elles sont porteuses de la variante "Bb" et acceptent plusieurs reines, à condition toutefois que ces reines appartiennent également du type "Bb".

"C'est la première fois qu'on démontre qu'un groupe de gènes commande un comportement complexe de nature sociale, chez un animal", souligne Andrew Bourke, biologiste à l'Université britannique d'East Anglia.

Article rédigé par Georges Simmonds pour RT Flash

Nature

L’allaitement : bon pour le corps, bon pour l'esprit
Vendredi, 25/01/2013 - 19:06

Déjà reconnu en matière de "booster" immunitaire, l'allaitement serait également bénéfique aux jeunes enfants sur le plan psycho-moteur, selon une étude de l'Inserm.

Selon ces travaux, portant sur plus de deux mille femmes enceintes, les enfants qui ont été allaités sont légèrement plus précoces que les autres pour le langage. Les résultats montrent que, en moyenne, les enfants allaités prononcent davantage de mots à deux ans que ceux qui ne l’ont pas été. De plus, ils semblent avoir un meilleur développement cognitif global à l’âge de trois ans.

Ces résultats montrent que l’allaitement est l’un des nombreux facteurs qui peuvent expliquer les différences de développement cognitif entre les enfants.

Ces travaux ont par ailleurs montré une relation forte entre la durée de l’allaitement et les performances des enfants. Ces résultats s'expliqueraient par l'effet du lait maternel, très riche en acides gras essentiels, oméga 3 et oméga 6, indispensables au développement cérébral. Les chercheurs vont à présent essayer de voir si ces différences perdurent dans le temps.

Article rédigé par Elisa Tabord pour RT Flash

The Journal of Pediatrics

Un cœur virtuel pour mieux comprendre les maladies cardiaques
Vendredi, 25/01/2013 - 19:01

Les chercheurs de l'Université de Manchester, dirigés par le professeur Henggui Zhangont, ont conçu un "cœur virtuel" sur la base d'un modèle informatique en 3D d'un cœur de mouton.

Cet "organe numérique" intègre la structure fibreuse complexe du tissu réel ainsi que la segmentation des cavités supérieures du cœur dans les différentes régions auriculaires. Les chercheurs ont également intégré à ce modèle l'activité électrique dans différentes parties auriculaires de la région du cœur.

La fibrillation atriale ou fibrillation auriculaire est le trouble du rythme cardiaque le plus répandu. Elle se traduit par un fonctionnement désordonné des cellules myocardiques auriculaires, ce qui provoque une contraction irrégulière des oreillettes cardiaques. Cette affection accroît sensiblement le risque et la gravité des attaques cardiaques.

Grâce à ce nouvel outil informatique innovant, les chercheurs vont essayer de mieux comprendre les causes de la fibrillation atriale qui toucherait plus de 100 millions de personnes dans le monde. Rien qu'en Grande-Bretagne, on estime que 500 000 personnes sont atteintes de fibrillation atriale.

En simulant le passage d'ondes électriques irrégulières dans ce "cœur numérique", les chercheurs ont découvert que les différences locales au niveau de l'activité électrique, à travers le tissu cardiaque, semblaient à l'origine de la fibrillation atriale. Ce modèle informatique a donc révélé le rôle clé de l'hétérogénéité électrique et de la structure fibreuse dans le déclenchement de la fibrillation atriale. Cette découverte fondamentale devrait ouvrir de nouvelles voies de recherche thérapeutique pour mieux prendre en charge cette pathologie.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Des nouveaux médicaments contre la polyarthrite rhumatoïde
Vendredi, 25/01/2013 - 18:39

Après l'échec du traitement par méthotrexate, les patients souffrant de polyarthrite rhumatoïde sont souvent traités par un anti-TNF. Bien que les biothérapies aient révolutionné la prise en charge des malades, la moitié des patients traités par anti-TNF doivent faire face à des effets secondaires sévères.

Le Tofacinitib est le premier médicament inhibiteur de la famille JAK à avoir reçu une autorisation de mise sur le marché dans le traitement de la polyarthrite rhumatoïde 2012. La famille des Janus kinases (JAK) est composée de JAK1, JAK2 et JAK3. Elle est fortement impliquée dans la signalisation de cytokines qui joue un rôle-clé dans la polyarthrite.

Des chercheurs de l'Université de la Charité à Berlin ont réalisé une étude de phase 3, pour évaluer l'efficacité du Tofacitinib sur 399 patients âgés de 18 ans ou plus, souffrant de polyarthrite rhumatoïde.

Sur ces malades réfractaires au méthotrexate et traités par Tofacinicib, une amélioration rapide et significative des symptômes de la polyarthrite rhumatoïde et de la fonction physique a été observée au bout de six mois.

Il faut par ailleurs signaler que le Baricitinib, un autre inhibiteur de JAK1/JAK2, a également donné de bons résultats lors d'essais cliniques, pour les trois quarts des patients atteints de polyarthrite rhumatoïde. Ce médicament semble avoir une efficacité comparable au Tofacinitib mais il agit toutefois par un canal différent. Un traitement combinant ces deux nouvelles molécules est donc envisageable contre la polyarthrite rhumatoïde.

Article rédigé par Georges Simmonds pour RT Flash

Pharmalot

La télémesure pour les diabétiques arrive sur le mobile
Vendredi, 25/01/2013 - 18:29

La télémédecine sur mobile est en train d'arriver à grand pas et va changer la vie des patients qui ont besoin d'un suivi biologique et médical permanent. C'est le cas pour les diabétiques, qui doivent récolter chaque jour des données concernant leurs niveaux de glucose et leurs habitudes alimentaires. Or, il faut rappeler qu'aux Etats-Unis, plus de 26 millions de personnes souffrent de diabète, soit 8 % de la population.

Glooko a développé une solution de télécontrôle du glucose pour les diabétiques qui améliore sensiblement le partage de ces données entre patients et médecins.

Le système proposé par Glooko vient de recevoir l'agrément de la FDA américaine. Il se compose d'une application mobile et d’un câble, compatible avec la plupart des glucomètres en vente sur le marché, qui  permet à l’utilisateur de transférer les données enregistrées par son glucomètre dans son iPhone. La partie logicielle permet la visualisation en temps réel d'un journal de bord où l'on peut consulter les niveaux de glucose mesurés par le glucomètre, mais aussi d’autres données et paramètres alimentaires qui peuvent affecter les taux de sucre dans le sang.

Grâce à ce système, le patient peut en permanence partager avec son médecin les données biologiques et médicales concernant sa pathologie. L’application présente les données et les analyses sous forme de graphiques, courbes et diagrammes immédiatement compréhensibles. Patient et médecin peuvent ainsi voir à tout moment la courbe d’évolution des niveaux de glucose sur une journée, une semaine ou un mois. 

Article rédigé par Georges Simmonds pour RT Flash

TechCrunch

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Pour rester anonyme, évitez de mettre en ligne votre ADN !
Mardi, 29/01/2013 - 17:19

L'enfer est souvent pavé de bonnes intentions ! Plusieurs bénévoles américains qui avaient accepté de mettre en ligne leur ADN sur Internet en ont fait l'amère expérience.

Tout avait pourtant bien commencé avec le lancement d'une étude baptisée Projet 1 000 Genomes, visant à collecter les données génétiques de personnes du monde entier afin de les mettre en ligne, à disposition des biologistes pour une utilisation à des strictes fins de recherche médicale.

Mais un chercheur a réussi à identifier cinq personnes choisies au hasard parmi les 1092 volontaires qui avaient accepté de mettre en ligne leur ADN. Encore plus fort, il a également réussi à identifier les membres des familles de ces cinq personnes. Ce chercheur a ensuite publié son "exploit" mais sans toutefois rendre public le nom des personnes identifiées.

Le pire, c'est que cette identification n'a pas été très compliquée à réaliser. En comparant judicieusement certaines données précises concernant des fragments d’ADN et renseignant sur l'âge, le sexe et l'origine géographique de la personne, le scientifique a pu facilement, en exploitant les ressources du Web, retrouver l'identité de ces malheureux donneurs.

Mais à toute chose malheur est bon et, à la suite de ce scandale largement relayé par les medias, l’institut national de santé américain a décidé d’effacer certaines informations concernant les bénévoles de l’étude pour rendre leur identification, sinon impossible, du moins beaucoup plus difficile.

Il ya quelques semaines, nous avions publié un article intitulé "Etablir le portrait robot d'un suspect à partir d'un fragment d'ADN" dans lequel nous relations les recherches de la firme américaine VisiGen qui a mis au point un puce à ADN capable, à partir de minuscules fragments d'ADN, de prédire la couleur des yeux et des cheveux du porteur. Cette nouvelle affaire montre à quel point les technologies d'identification génétique évoluent rapidement et rendent nécessaires des mesures juridiques spécifiques de protection de la vie privée et de l'anonymat.

Article rédigé par Georges Simmonds pour RT Flash

The New York Times

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top