RTFlash

RTFLASH Recherche & Technologie
NUMERO 685
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Janvier 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les terminaux numériques mobiles vont-ils faire exploser l'Internet ?
Avenir
Des nanoparticules d’or pour combattre le cancer
Vers le tissage industriel des nanotubes
Matière
Une puce biométrique alimentée par votre portable !
Des LED plus performantes grâce aux lucioles
Comment traiter la chaleur comme la lumière ?
Le CEA mise sur le potentiel énergétique des microalgues
Des batteries cinq fois plus puissantes grâce aux nanotechnologies
L'essor des énergies renouvelables est-il menacé par les gaz de schiste ?
Espace
Des observations astronomiques confirment la conception de l'espace-temps d'Einstein
La vie est-elle venue de l'Espace ?
Terre
Changement climatique : cinq fois plus de canicules constatées
Vers une croissance illimitée des plantes ?
USA : 2012, l'année de toutes les catastrophes climatiques
Climat : la pente actuelle nous conduit à 5°C d'augmentation d'ici 2100
Vivant
Des chercheurs indiens en pointe dans la lutte contre le cancer
Une endo-caméra pour explorer l'œsophage
La gravité du cancer de la vessie est directement liée à l'intoxication tabagique
Autisme : les migrations seraient un facteur important
Anorexie mentale et hyperactivité physique, une base biologique commune
Le rapport Bioinitiative 2012 relance le débat sur les effets des champs électromagnétiques
Les carences alimentaires dans l'enfance triplent les risques de troubles du comportement
Etablir le portrait robot d'un suspect à partir d'un fragment d'ADN !
L'herbe comme source de protéines pour nourrir la planète !
Cancer du poumon : le bénéfice des bêtabloquants confirmé
Cancer du sein et maladie de Huntington : une protéine commune
Le test du cancer du col de l'utérus pourrait détecter d'autres cancers
Vaccins : le nanopatch va-t-il remplacer la seringue ?
Les bonobos privilégient le partage avec les étrangers...
Une molécule qui restaure la mémoire chez les souris porteuses d'un Alzheimer !
Un hydrogel photosensible pour remplacer le cartilage
Aphasie : le cerveau conserve toujours une capacité de récupération
Lésions de la moelle épinière : un essai prometteur chez la souris
Une thérapie régénérative pour réduire les fractures non consolidées
L'ADN "poubelle" commence à révéler son rôle caché !
L'efficacité des vaccins dépend de leur mode d'administration
Vers un vaccin efficace contre les hépatites B et C
Morphine : vers une meilleure efficacité contre la douleur
Homme
Près de la moitié des aliments produits dans le monde ne sont pas consommés !
Recherche
Les dix percées technologiques qui ont marqué 2012
Edito
CES 2013 : interactivité, réactivité et émotivité !



Le Consumer Electronics Show (CES), salon mondial incontournable de la high-tech et des technologies numériques, vient de fermer ses portes à Las Vegas.

Tous les géants de l’électronique et de l’informatique y ont présenté leurs dernières nouveautés et leurs nouveaux concepts qui, peut-être demain, s’imposeront sur toute la planète…ou retomberont dans l’oubli, faute d’avoir su séduire les consommateurs.

Commençons par l’univers du téléviseur. Après nous avoir successivement proposé la télé 3D, la télé connectée, la télé ultra-haute définition (dont personne ne pourra profiter avant plusieurs années, faute de programmes idoines) et la télé à connecter sans fil sur les différents terminaux numériques du foyer, on aurait pu croire les constructeurs à cours d’imagination. Il n’en a rien été !

Samsung a ainsi présenté un téléviseur baptisé « multi-view » (multivue) et qui permet à deux personnes de regarder en même temps sur le même écran et sans perte de qualité (ce qui n’était pas le cas jusqu’à présent), des programmes différents !

Cette prouesse technologique a été rendue possible grâce à l’emploi de la technologie d’affichage des pixels OLED ou DELO, en bon français (Diode Electro Luminescente Organique) découverte en 1987.

L’affichage OLED permet en effet un temps de réponse très rapide et en jouant sur cette propriété, il est possible, grâce au port de lunettes spéciales, de voir deux programmes distincts en même temps.

Mais au-delà de cette innovation, qui a tout de même l’allure d’un gadget dont on mesure mal l’utilité réelle dans un foyer où il existe souvent de multiples écrans disponibles, des avancées surprenantes ont été présentées en matière de télécommande et d’interface avec le téléviseur.

C’est ainsi que la "Brain Wave TV" propose une télécommande cérébrale, rien de moins, qui permet de changer de programme en y pensant, après, tout de même, un peu de concentration et quelques erreurs de jeunesse dans la précision des ordres exécutées par votre téléviseur. Mais ces défauts seront, n’en doutons pas, rapidement corrigés.

Plus fiable et moins sorti d’un film de science-fiction, le système "Vision control" ou contrôle par le regard, permet de contrôler un téléviseur mais aussi un ordinateur, par de simples mouvements oculaires ; et si cela ne vous suffit pas, vous pourrez toujours utiliser le nouveau système de contrôle gestuel, le "Finger Gesture", proposé par LG, qui permet la commande à distance du téléviseur par des petits mouvements de doigts ! 

Du côté de l’informatique personnelle, face au succès croissant des "ardoises" numériques (il s'est vendu en 2012 une tablette pour trois PC ou portables) et au recul inexorable des ventes de PC (- 3,5 % dans le monde en 2012) et de portables, les constructeurs essayent par tous les moyens de séduire le consommateur en proposant, c’est selon, des tablettes numériques qui se transforment en portables ou des portables qui se transforment en tablettes !

Exemple de cette convergence hybride, le Tab-Book de LG qui est une espèce de grande et grosse tablette (1 kg pour 1,6 cm d’épaisseur) qui présente tous les inconvénients du portable mais sans ses avantages….

Plus intéressant, LG a également présenté un écran pour portables ou tablettes de 32,5 centimètres de diagonale, proposant une définition exceptionnelle (2560 x 1700 pixels) qui pourrait bien remplacer la full HD et devenir le nouveau standard.

Samsung a, pour sa part, misé sur des ultraportables encore plus fins, légers et autonomes, comme les Chronos, dont le rapport puissance-consommation a tout simplement été multiplié par dix, grâce à l’emploi de nouvelles puces, et qui affiche une autonomie proche de 11 heures.

Le rival coréen de Samsung, Asus, à lui aussi su créer l’événement en présentant son « Transformer AiO », un concept surprenant qui pourrait bien faire un triomphe commercial. De prime abord, l’engin a l’air d’un classique ordinateur de bureau tout-en-un, équipé d'un écran tactile 18,5 pouces (47 cm) et tournant sous Windows 8.

Mais en fait, l’écran de ce système est amovible et peut devenir à tout moment une tablette panoramique, tournant sous Android !

Pour réussir cette prouesse, Asus a tout simplement intégré, dans le pied de sa machine, tous les composants nécessaires pour faire tourner un ordinateur (processeur, mémoire vive, disque dur et carte graphique).

Lorsqu’elle n’est plus posée sur sa base, vous pouvez quand même continuer à travailler sur vos programmes favoris et sous Windows, grâce à une nouvelle technologie sans fil baptisée « Télécommande sans fil de Bureau ». Mais vous pouvez également, en appuyant sur un petit bouton, basculer sous Android ; le beurre et l’argent du beurre en quelque sorte !

Autre innovation très prometteuse, celle de Snakebyte, qui propose un concept du nom d’UnU. UnU regroupe quatre éléments : une tablette, une station d’accueil que l’on relie à son téléviseur, une télécommande et enfin une manette sans fil. La tablette, qui tourne sous Android, permet l’accès à toutes vos applications, courriels, Web, photos, musique, vidéo…

Mais grâce à la connexion de la station d’accueil, la tablette se transforme également en une passerelle multimédia très puissante et télécommandable à distance. Le tout est complété par une manette de jeu pour les « gamers » invétérés.

Une des autres grandes nouveautés de ce CES 2013 est l’arrivée en force de l’informatique « sensible » ou émotionnelle, de quoi s’agit-il ?

L’idée, développée par Technicolor, consiste, grâce à des capteurs et des moyens d’analyse adaptés, à pouvoir percevoir, sans que nous en soyons conscients, l’intensité et la nature des émotions que nous éprouvons en visionnant différentes images : films, documentaires ou jeux vidéo, afin, bien sûr, de repérer le type d’image ou de programme qui nous captive le plus.

Les enjeux économiques et commerciaux d’un tel système sont considérables car on imagine sans peine que les producteurs de contenus audiovisuels et de films analyseront avec le plus grand soin ce retour d’informations concernant l’impact émotionnel et affectif de leurs programmes, afin d’adapter ces derniers en conséquence et séduire le maximum de consommateurs.

L’équipe de recherche de Technicolor qui travaille sur ce projet précise toutefois que plusieurs précautions sont prévues pour assurer le respect de la vie privée des téléspectateurs et empêcher tout piratage de ces informations sensibles, c’est le cas de le dire, par des « groupes mal intentionnés ». Nous voila rassurés, nous pourrons continuer à pleurer sans honte au cinéma en regardant "Chien perdu sans collier" !

Mais les innovations présentées cette année au CES ne se sont pas limitées au domaine, très vaste, des spectacles et distractions numériques en tout genre et on a également pu voir que l’informatique et le numérique étaient en train de conquérir un autre secteur porteur d’une énorme profitabilité économique mais également de bouleversements sociaux : la télésanté et le bien-être en général.

La firme Withings a ainsi présenté la dernière déclinaison de sa balance connectée, la WS50. Cette balance high tech qui a obtenu le prix de l’Innovation 2013 dans la catégorie des technologies de la santé, ne se contente plus d’indiquer et d’enregistrer l’évolution de votre poids.

Elle sait également vous informer sur la répartition entre masse musculaire et masse graisseuse (attention aux écarts gastronomiques), vous indiquer votre rythme cardiaque et vous rappeler la température de votre appartement, sans oublier de vous préciser quel est l’état de la qualité de votre air intérieur. Un capteur portable peut même enregistrer vos différentes phases de sommeil. Gageons que la prochaine version vous prodiguera également des conseils diététiques et vous proposera des menus « light » !

Bien entendu, toutes ces précieuses données peuvent être transmises, via un mobile ou un smartphone, à votre médecin, à l’hôpital dont vous dépendez ou même à un parent.

Les concurrents de Withings ne sont pas en reste et Fitbit a par exemple présenté son « Traceur d’activité sans fil Fitbit » (FWAT), un podomètre très sophistiqué, qui calcule en temps réel votre bilan calorique et la qualité de votre sommeil et vous propose même de partager ces données passionnantes avec vos amis sur Facebook !

Enfin, last but not least, il faut évoquer la « fourchette électronique » présentée par la firme Hapilabs, qui calcule le temps que met la nourriture à aller de l'assiette à votre bouche et se met à clignoter si vous mangez trop vite !

Au-delà des inévitables gadgets et technologies inutiles, ce qui ressort de cette vague d’innovations est l’arrivée irrésistible d’une informatique « transparente » et interactive qui se fond de plus en plus dans les objets de notre vie quotidienne, y compris nos vêtements, et nous connecte en permanence, non seulement à nos interlocuteurs, mais plus largement à notre environnement tout entier et aux objets qu’il contient.

C’est ainsi que, sans vraiment nous en rendre compte, nous sommes en train de devenir des  « bionautes » dont les corps et les esprits reçoivent sans cesse et de manière de plus en plus intuitive, des informations du monde extérieur et qui émettent en retour des informations de toute nature (biologique, émotionnelle, esthétique) qui sont autant de sources potentielles de valeur ajoutée cognitive et économique.

Cette évolution fascinante, par son ampleur, sa rapidité et ses conséquences sur le fonctionnement et la finalité de nos sociétés, doit plus que jamais nous questionner et nous conduire à définir ensemble un nouveau cadre éthique et démocratique qui mette cette prodigieuse évolution au service de tous, à commencer par nos concitoyens les plus fragiles, et permette à chacun d’exprimer tout sa créativité et sa richesse personnelle.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les terminaux numériques mobiles vont-ils faire exploser l'Internet ?
Dimanche, 13/01/2013 - 15:55

Derrière tous les éblouissants produits électroniques présentés au cours du Consumer Electronics Show de Las Vegas cette semaine, se cache un problème imminent : comment éviter la saturation du Net sans cesse plus sollicité par l'interconnexion de ces nouveaux appareils et terminaux numériques.

Selon Intel, qui y travaille activement dans ses laboratoires, le grand défi est de moderniser l'Internet afin qu'il puisse supporter l'arrivée des 15 milliards de périphériques qui seront connectés au réseau d'ici 2015.

L'Internet a été conçu dans les années 1960 pour envoyer des données à des adresses fixes de PC fixes connectés à un seul réseau. Mais aujourd'hui, le paysage numérique a radicalement changé et chacun possède deux ou trois terminaux numériques portables qui se connectent au Net par de multiples réseaux.

Depuis un an, des architectures nouvelles de réseaux sont expérimentées par les principales universités américaines. L'idée de base de ce changement est que le réseau doit être capable d'obtenir des données à partir du point d'entrée le plus proche, sans avoir besoin d'une adresse fixe.

Comme le souligne Zhang Lixia, chercheur en informatique à l'Université de Californie, "Aujourd'hui, j'ai sur mon bureau un smartphone, une tablette et un ordinateur Mac et, pour pouvoir échanger des données entre ces appareils, il n'est plus possible que je doive encore passer par des serveurs situés à des milliers de km."

Pour contourner ce problème majeur, Zhang Lixia travaille sur l'architecture NDN (Named Data Networking), c'est-à-dire "Routage de données identifiées". Dans ce nouveau schéma, les paquets de données ont des adresses qui mettent l'accent sur l'information contenue et pas seulement l'adresse IP de l'endroit d'où partent et arrivent ces données.

L'idée est de permettre un partage simple et rapide des données directement entre  appareils numériques. "Nous pouvons améliorer la vitesse, le débit et l'efficacité globale du Web mais à condition de changer les critères d'adressage et de routage des données. Quand plusieurs milliers de personnes demandent la même donnée au même moment, le système NDN est bien plus efficace car il est capable de la trouver localement sans aller chercher celle-ci sur un serveur situé à l'autre bout du monde" souligne Zang qui ajoute : "Le concept est assez simple mais son application au Web est une véritable révolution". Cette mutation en gestation pourrait notamment permettre aux différents appareils et terminaux que nous utilisons de se connecter simultanément à plusieurs réseaux, ce qui démultiplierait la rapidité et la puissance de l'Internet.

Le projet NDN n'est pas le seul en lice et la Fondation Nationale des Sciences finance également des projets d'architecture Internet concurrents ayant des objectifs similaires, comme l'architecture XIA (eXpressive Internet Architecture) et il est encore trop tôt pour savoir qui l'emportera.

Mais selon David Clark, informaticien au MIT, "Le projet NDN est le plus révolutionnaire dans son approche et sa gestion des données et informations sur le Net ".

Article rédigé par Georges Simmonds pour RT Flash

MIT Technology Review

^ Haut
Avenir
Nanotechnologies et Robotique
Des nanoparticules d’or pour combattre le cancer
Mercredi, 16/01/2013 - 14:30

En juillet 2012, des chercheurs américains de l'Université du Missouri annonçaient des premiers résultats encourageants concernant une thérapie contre le cancer de la prostate qui utilise des nanoparticules d'or radioactif pour véhiculer une molécule anti-cancer.

Il y a quelques semaines, des chercheurs britanniques annonçaient la mise au point d'un test à base de nanoparticules d'or qui permet de dépister à l'œil nu les premiers stades d'une maladie ou d'une infection.

Cette fois, c'est le groupe pharmaceutique britannique AstraZeneca qui a annoncé une alliance avec la société américaine CytImmune pour mettre au point une thérapie anti-cancer utilisant des nanoparticules d’or comme vecteurs d'agents anticancéreux.

Cette association a pour vocation de construire un système combinant le facteur de nécrose tumorale (TNF), une molécule anticancer et un composé de camouflage à base de polyéthylène glycol contre le système immunitaire. Ce projet, baptisé CYT-6091, a déjà fait l’objet d’un essai clinique de phase I chez des patients souffrant de cancers avancés. Il permet la destruction des tumeurs sans recours à la chirurgie.

AstraZeneca prévoit déjà de tester CYT-6091 avec ses agents oncologiques. Ces essais devraient permettre d’évaluer l’intérêt du système de nanoparticules d’or dans l’amélioration de la spécificité du traitement et donc de la tolérance et de l’efficacité des chimiothérapies.

L'or radioactif est un vecteur de médicaments très intéressant car il a un isotope dont la demi-vie (temps au bout duquel la moitié des particules ont perdu leur radioactivité) de deux jours et demi. Au bout de quelques semaines, l'ensemble de ces nanoparticules d'or cessent donc d'être radioactives.

Article rédigé par Gaël Orbois pour RT Flash

ClinicalConnection

FierceDrugDelivery

Vers le tissage industriel des nanotubes
Dimanche, 13/01/2013 - 17:15

Les nanotubes de carbone ont une résistance inégalée et des propriétés thermiques et électriques remarquables mais depuis leur découverte, en 1991, les chercheurs ont du mal à les tisser et à les filer, pour en faire des macromatériaux utilisables dans l'industrie.

Des chercheurs de l'Université Rice et la société néerlandaise de matériaux Teijin Aramid ont réussi à produire de longues fibres de nanotubes qui combinent la conductivité électrique des métaux et la résistance des composites de carbone, et sont légers, souples et excellents conducteurs de chaleur.

Ces fibres de nanotubes pourraient s'imposer dans de multiples secteurs, comme l'aéronautique et l'électronique, où ils offrent leurs surprenantes propriétés qui combinent, de manière unique, résistance, flexibilité et conductivité thermique et électrique. D'autres applications sont envisagées dans les textiles électroniques et des implants médicaux.

Les filaments obtenus par les chercheurs ont environ 25 micromètres d'épaisseur et peuvent être tissés en fils plus épais pour supporter des charges plus lourdes ou transporter des courants plus intenses. La méthode mise au point permet de produire des matériaux en nanotubes de manière continue et il ne faut que quelques heures pour produire des centaines de mètres de ces fibres de carbone.

Article rédigé par Georges Simmonds pour RT Flash

MIT Technology Review

^ Haut
Matière
Matière et Energie
Une puce biométrique alimentée par votre portable !
Mercredi, 16/01/2013 - 15:42

Des scientifiques de l’université d’Oregon aux Etats-Unis viennent de développer une puce biométrique de la taille d’un timbre poste alimentée uniquement par les radiofréquences des mobiles. Cette puce autonome peut mesurer une multitude de paramètres biologiques, comme le rythme cardiaque, la température ou les calories dépensées.

Cette puce biométrique utilise le couplage inductif par résonance magnétique, une technologie similaire à celle qui permet de recharger certains mobiles par induction. Elle est capable de capter les ondes du téléphone dans un rayon de 5 mètres.

En outre, cette puce aurait un coût d'environ 20 centimes d’euros, bien inférieur à celui des systèmes concurrents. Compte tenu de sa petite taille et de sa faible épaisseur, cette puce pourrait facilement être placée sur n'importe quel endroit du corps pour mesurer et transmettre des signaux biologiques.

Les chercheurs précisent enfin que cette puce peut également exploiter, le cas échéant, d'autres sources d'énergie interne, comme la chaleur corporelle ou le mouvement. Cette technologie pourrait être commercialisée à compter de la mi-2013.

Article rédigé par Georges Simmonds pour RT Flash

Oregon State University

Des LED plus performantes grâce aux lucioles
Mardi, 15/01/2013 - 17:30

Un des obstacles techniques majeurs à l'efficacité des LED est la propension de la lumière à s'échapper de ce type de diodes. Mais en s'inspirant de la structure irrégulière des lucioles, une équipe de chercheurs belges, français et canadiens a réussi à augmenter de plus de 50 % l'intensité lumineuse des diodes électroluminescentes.

En fait, une grande partie de la lumière produite par les LED est réfléchie en raison des disparités de propagation de la lumière à travers les composants de la LED et dans l'air. "Ce phénomène fait chuter considérablement l'efficacité des LED", explique Annick Bay, étudiante en doctorat à l'Université de Namur, en Belgique et auteur de l'étude.

La lumière émise par une luciole et produite par bioluminescence est soumise aux mêmes contraintes optiques mais les chercheurs ont découvert que la structure microscopique de l'abdomen des lucioles présentait une particularité : elle se composait d'arêtes vives qui empêche les "fuites" de lumière.

En modifiant la structure des LED de façon à y intégrer un revêtement copié sur celui des lucioles, ce qui est envisageable sans modification majeure des chaînes de production, il est possible d'augmenter sensiblement leur intensité lumineuse sans accroître leur consommation.

Article rédigé par Gaël Orbois pour RT Flash

MIT Technology Review

Comment traiter la chaleur comme la lumière ?
Mardi, 15/01/2013 - 15:29

Un chercheur du MIT, Martin Maldovan, a mis au point une technique utilisant des alliages de nanoparticules qui permet de concentrer ou réfléchir la chaleur comme des ondes lumineuses.

Cette innovation repose sur l'utilisation de cristaux d'alliage semi-conducteurs nanostructurés. La chaleur, comme le son, est une vibration de la matière. Ces vibrations sont comparables à un flux de phonons - une sorte de "particule virtuelle" - qui serait l'équivalent des photons qui véhiculent la lumière.

"C'est une toute nouvelle façon d'utiliser la chaleur", souligne Maldovan. Celui-ci rappelle qu'en tant que flux, la chaleur diffère du son en matière de fréquence et de vibrations. Les ondes sonores se composent des basses fréquences (jusqu'à 20 kilohertz, alors que la chaleur correspond à des fréquences bien plus élevées (de l'ordre térahertz).

Afin de pouvoir appliquer à la chaleur des techniques déjà développées pour manipuler le son, Maldovan a commencé par réduire la fréquence des phonons thermiques pour la rapprocher de celle du son. cette forte réduction a été obtenue à l'aide d'un alliage de silicium qui incorpore des nanoparticules de germanium dans une gamme de taille particulière.

La réduction de la gamme de fréquences thermiques a été également réalisée en utilisant une série de couches minces de ce matériau, afin de concentrer les phonons thermiques dans une bande relativement étroite de fréquences.

Résultat : 40 %  du flux total de chaleur est concentré dans une plage hypersonique de fréquences qui va de 100 à 300 gigahertz et les phonons restent alignés dans un faisceau étroit, au lieu de partir dans toutes les directions. Ce faisceau étroit de phonons, un peu analogue au laser,  peut alors être manipulé à l'aide de cristaux phononiques similaires à ceux développés pour contrôler les phonons sonores.

Ce dispositif de concentration thermique pourrait avoir un large éventail d'applications et notamment améliorer l'efficacité des systèmes thermoélectriques, qui convertissent des différences de température en électricité.

Les cristaux employés pourraient également être utilisés pour créer des diodes thermiques dans lesquelles la chaleur passerait dans un sens mais pas dans l'autre, une application qui serait très utile pour chauffer ou refroidir les bâtiments.

Article rédigé par Georges Simmonds pour RT Flash

MIT

Le CEA mise sur le potentiel énergétique des microalgues
Vendredi, 11/01/2013 - 18:04

La production de biocarburants de 3ème génération issus de la culture de microalgues représente un immense enjeu scientifique et industriel dans la perspective de l'épuisement annoncé des réserves d'énergies fossiles et de l'après-pétrole et, partout dans le monde, les chercheurs testent et comparent différentes méthodes de production de cet "or bleu" qui pourrait bien dans quelques décennies faire rouler nos voitures et nos camions (Voir Edito : L'or bleu va changer la donne énergétique mondiale).

Rappelons qu'un seul litre de micro-algues permet de produire environ cent grammes d’huile d'une haute qualité énergétique et que le rendement de ces micro-algues est plus de trente fois supérieur à celui de plantes terrestres utilisées pour la production de biocarburants, comme le tournesol ou le colza. Ce rendement est tel qu'on estime qu'une surface de culture en microalgues équivalente à environ la moitié de la France suffirait à produire suffisamment de biocarburants pour répondre à la totalité de la demande mondiale.

C'est dans ce contexte que le CEA vient de s'allier avec la société la société Microphyt, dans le cadre du programme BOLERO, pour développer ses recherches sur la production industrielle des microalgues vertes à finalité énergétique et notamment des Chlamydomonas.

Microphyt a mis au point une technologie innovante de production de masse de microalgues, permettant d'étendre sensiblement le champ des espèces cultivables en photobioréacteurs et en 2012, Microphyt a réussi à cultiver pendant plusieurs mois de suite, une variété de Chlamydomonas. Grâce à la centrifugation, la biomasse cellulaire issue de ces microalgues est séparée de son milieu liquide pour obtenir une pâte compacte qui peut être lyophilisée ou congelée.

Le programme BOLERO dans lequel est associé le CEA est destiné à identifier les molécules les plus intéressantes sur le plan énergétique, chimique et industriel et à évaluer l'efficacité des différentes techniques de production.

Il existe également un autre projet, concurrent de BOLERO, le projet Salinalgue, développé par la Compagnie du Vent sur d'anciens marais salants à Gruissan, près de Narbonne.

Cette culture en milieu salin vise un rendement de 10 tonnes par hectare et un coût de production de l'ordre d'un euro le litre, contre 10 euros aujourd'hui.

Article rédigé par Georges Simmonds pour RT Flash

CEA

Des batteries cinq fois plus puissantes grâce aux nanotechnologies
Vendredi, 11/01/2013 - 17:20

Des chercheurs de l'Université de Stanford ont mis au point de nouvelles nanostructures qui augmentent considérablement le nombre de cycles de charge des futures batteries lithium-soufre, portant celui-ci de 150 à 1.000.

Cette avancée majeure ouvre donc la voie à l'utilisation de ce type de batterie dans les voitures électriques. Les batteries mises au point à Stanford conservent en effet 81 % de leur capacité après 500 cycles et 67 % après 1000 cycles, ce qui les rend très compétitives. Avec de telles batteries, on peut envisager, à poids égal, des voitures électriques ayant une autonomie double de celles utilisant des batteries lithium-ion.

Il faut en effet savoir que lorsque les batteries au lithium-soufre piles sont déchargées, le soufre se combine avec le lithium pour former du sulfure de lithium. Mais cette réaction n'est pas directe et passe par la formation de composés intermédiaires appelés polysulfures. Si ces polysulfures migrent de l'électrode, la réaction se poursuit, ce qui  limite la quantité d'énergie que la batterie peut stocker. A mesure que les cycles de recharge se multiplient, ces composés intermédiaires s'accumulent et réduisent la capacité de la batterie.

Les nanostructures mises au point piègent les polysulfures au sein d'une électrode sphérique et, grâce à leur structure en oxyde de titane, elles empêchent ces polysulfures de migrer hors de l'électrode.

Article rédigé par Gaël Orbois pour RT Flash

MIT Technology Review

L'essor des énergies renouvelables est-il menacé par les gaz de schiste ?
Vendredi, 11/01/2013 - 16:54

Bien que les énergies renouvelables ne cessent de progresser dans le monde, leur développement a été éclipsé en 2012 par la montée en puissance du gaz de schiste, notamment aux USA où cette nouvelle source d'énergie se substitue de plus en plus au charbon dans la production d'électricité. Les Etats-Unis devraient devenir le premier producteur mondial de gaz en 2015, premier producteur de pétrole d'ici 2020 et autosuffisants en énergie d'ici 2030.

Mais ce développement spectaculaire du gaz de schiste risque d'avoir un impact majeur sur l'essor des énergies renouvelables. Ainsi, avec un gaz naturel pas cher et abondant, beaucoup d'entreprises, qui s'étaient données pour but de produire des biocarburants à partir de sources renouvelables, changent de stratégie et se réorientent vers la production de carburants issus du gaz naturel.

Par ailleurs, la technologie des véhicules hybrides est maintenant compétitive et l'amélioration des moteurs à combustion freinera le décollage des véhicules électriques au cours de la prochaine décennie.

Pour que les technologies alternatives "vertes" puissent se substituer massivement aux combustibles fossiles pour aider à la réduction des émissions de gaz à effet de serre, des innovations de rupture sont nécessaires. En Allemagne par exemple, on voit bien que le fort développement des énergies renouvelables et notamment de l'éolien, conjugué avec le choix politique de renoncer au nucléaire, pose un problème considérable. Comment, en effet, vont faire les Allemands pour diminuer massivement et rapidement leurs émissions de CO2 sans le recours au nucléaire ?

Le Département américain de l'Énergie a un objectif ambitieux : atteindre un coût de production de l'électricité solaire de six cents par kWh/heure, moins de la moitié du coût actuel. Mais il n'est pas certain que cette baisse des coûts du solaire soit suffisante pour concurrencer le gaz naturel et le gaz de schiste aux États-Unis.

On voit donc qu'en seulement cinq ans, la production massive de gaz de schiste a totalement bouleversé le paysage énergétique américain, ce qui n'était pas prévisible. Les défis énergétiques qui nous attendent doivent nous inciter à poursuivre nos efforts pour trouver des technologies alternatives aux combustibles fossiles et développer la recherche et l'innovation pour produire une énergie propre et compétitive.

Article rédigé par Georges Simmonds pour RT Flash

MIT Technology Review

^ Haut
Espace
Espace et Cosmologie
Des observations astronomiques confirment la conception de l'espace-temps d'Einstein
Mercredi, 16/01/2013 - 14:55

Dans sa théorie de la relativité générale, Einstein décrit l'espace-temps comme structurellement lisse, même s'il se déforme sous l'effet de l'énergie et de la matière. Mais certaines interprétations de la théorie quantique appliquées à la cosmologie voient au contraire l'espace-temps comme étant composé d'une mousse de particules minuscules en agitation permanente.

Pour essayer de trancher entre ces deux conceptions de l'Univers, une équipe de chercheurs est parvenue à reconstituer le long voyage de trois photons dans l'espace intergalactique. Les photons ont été émis à l'occasion d'une explosion stellaire de type Gama à 7 milliards d'années-lumière de la Terre. Ils ont finalement atteint les détecteurs ultra-sensibles du télescope spatial Fermi Gamma en mai 2009 et, fait remarquable, en dépit de ce temps de trajet qui représente plus de la moitié de la durée de vie de l'Univers depuis le Big bang, ces trois photons sont arrivés avec seulement un millième de seconde d'écart.

Or, les longueurs d'onde des photons issus de sursauts gamma sont si petites que ces photons doivent être en mesure d'interagir avec cette fameuse "mousse" quantique qui composerait la structure de l'Univers, si toutefois elle existe...

Problème : si cette mousse existe bien, les trois photons auraient interagi avec elle au cours de leur long voyage et, dans cette hypothèse, les chances d'atteindre tous les trois le télescope Fermi à peu près en même temps auraient été très faibles. En effet, sur une aussi longue distance, la "mousse" quantique, structurée par la longueur de Planck (10-33 centimètre), aurait du disperser ces photons.

Le fait qu'au contraire, ces photons soient arrivés presque simultanément dans le télescope conforte donc fortement la thèse d'Einstein sur l'espace-temps... à moins bien sûr, comme le pensent certains physiciens, que cette "mousse" quantique soit finalement beaucoup plus fine que cette échelle de Planck !

Article rédigé par Georges Simmonds pour RT Flash

Space

La vie est-elle venue de l'Espace ?
Mercredi, 16/01/2013 - 14:46

Les astronomes ont trouvé dans le cosmos des traces d'un produit chimique précurseur des éléments de la vie près d'une région de formation d'étoiles située à environ 1000 années-lumière de la Terre. Cette molécule identifiée est de l'hydroxylamine, qui est constituée d'atomes d'azote, d'hydrogène et d'oxygène. L'hydroxylamine peut réagir avec d'autres composés, tels que l'acide acétique, pour former des acides aminés nécessaires à la vie.

Certains scientifiques pensent que les ingrédients de la vie sont formés à froid, à partir du gaz, de la poussière et du plasma qui composent les nuages ​​interstellaires. Les comètes, les astéroïdes et les météores se formant dans ces nuages, ils auraient intégré ces "briques" du vivant et les auraient ensuite transportées sur d'autres planètes, comme la Terre, ce qui aurait pu, dans un environnement propice, déclencher l'apparition de la vie telle que nous la connaissons, c'est-à-dire basée sur la chimie du carbone.

Pour tester cette théorie, les scientifiques recherchent les empreintes chimiques des composés chimiques simples présents dans les nuages ​​interstellaires. Ces composés sont les constituants élémentaires qui forment les molécules indispensables à la vie, tels que les acides aminés ou les nucléotides qui composent l'ADN.

Ces dernières années, les scientifiques ont découvert plusieurs différentes molécules prébiotiques dans l'Espace et cette présence d'hydroxylamine dans le Cosmos conforte la théorie d'un possible "ensemencement" de la Terre par des météorites qui auraient permis l'apparition de la vie sur notre planète.

Article rédigé par Georges Simmonds pour RT Flash

The Oregon Herald

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Changement climatique : cinq fois plus de canicules constatées
Mercredi, 16/01/2013 - 15:14

Selon une étude du Potsdam Institute for Climate Impact Research (PIK) et de l'Université Complutense de Madrid, le réchauffement climatique serait très probablement responsable d'une très forte augmentation des épisodes caniculaires enregistrés ces dernières années partout dans le monde.

L'étude souligne "qu'il y a, en moyenne, cinq fois plus de mois avec des records de température constatés que cela aurait été le cas sans le réchauffement climatique".

Ces travaux montrent que dans certaines régions de l'Europe, d'Afrique et d'Asie du sud, le nombre de mois très chauds a même été multiplié par dix et les chercheurs précisent que 80 % des records de température mensuels enregistrés sont l'effet de l'action humaine sur le climat.

Les chercheurs ont conçu un modèle statistique sur la base de 131 années de relevés mensuels de température pratiqués sur plus de 12.000 points dans le monde. Ce modèle montre clairement que la fréquence des records a sensiblement augmenté depuis 1970 et cette évolution n'est pas explicable par les phénomènes naturels, comme le courant El Nino.

Comme le souligne Stefan Rahmstorf, co-auteur de l'étude, "Ces résultats ne nous indiquent pas formellement les causes de cette augmentation des vagues de chaleur mais ils confortent sérieusement l'idée d'un lien puissant entre ces épisodes de canicules répétés et le changement climatique en cours".

Article rédigé par Gaël Orbois pour RT Flash

PIK

Vers une croissance illimitée des plantes ?
Mardi, 15/01/2013 - 14:56

Les chercheurs de l'Institut Fraunhofer à Münster (Rhénanie du Nord-Westphalie), dirigés par le professeur Dirk Prüfer, ont découvert dans le tabac un "interrupteur génétique" qui empêche la plante de vieillir et lui permet de croître sans limite.

Normalement, les plants de tabac ne dépassent pas deux mètres de haut. Ils entrent en floraison au bout de 3 à 4 mois puis meurent. Les chercheurs allemands ont réussi à modifier les gènes de la plante de façon à ce qu'elle ne puisse plus atteindre son stade final de floraison et à ce que sa croissance se poursuive indéfiniment. " Nous avons à présent des plans de tabac modifiés qui ont huit ans et continuent de grandir," précise le professeur Dirk Prüfer qui ajoute, "Nous avons baptisé ces plants du nom de "Forever Young" (Eternellement jeune)."

Ce mécanisme de modification génétique est applicable à d'autres types de plantes et pourrait permettre de produire des quantités beaucoup plus grandes de produits agricoles et de biomasse et de répondre ainsi à l'accroissement attendu de la demande mondiale.

Néanmoins, cette technique n'est utile que pour les espèces comme la betterave ou la pomme de terre, dont la récolte ne suppose pas la floraison. Dernier point important : les plantes ainsi modifiées ne peuvent en aucun cas contaminer l'environnement.

Article rédigé par Georges Simmonds pour RT Flash

Fraunhofer

USA : 2012, l'année de toutes les catastrophes climatiques
Dimanche, 13/01/2013 - 16:30

Selon une étude de l'Agence Nationale américaine Océanique et Atmosphérique, les Etats-Unis ont connu en 2012 l'année la plus chaude depuis 1895, date des premiers relevés. Le pays a également subi l'une des plus grandes sécheresses de son histoire récente et des épisodes climatiques bien plus dévastateurs que la moyenne, notamment  l'ouragan Sandy, très violent.

Selon l'Agence fédérale, la température moyenne l'année dernière (hors Alaska et Hawaï) a été de 12,94 degrés Celsius, soit 1,77 degré au-dessus de la moyenne du XXe siècle et 0,55 degré de plus que la température moyenne enregistrée en 1998, précédente année la plus chaude.

2012 a aussi été marquée par le quatrième hiver le plus doux constaté dans les relevés et par le deuxième été le plus chaud, avec une température maximum moyenne en juillet de 24,94 degrés, deux degrés au-dessus de la moyenne.

L'étude souligne également que les pluies ont aussi été moins abondantes avec 67,4 centimètres en 2012, soit 6,53 cm sous la moyenne annuelle, ce qui fait de 2012 la quinzième année la plus sèche depuis le début de relevés météo.

Cette aridité a touché plus de 60 % du territoire américain et a gravement affecté les états du Middle West, détruisant une partie des récoltes américaines de maïs et de soja.

Les USA ont connu, en 2012, onze catastrophes climatiques qui ont fait, chacune, plus d'un milliard de dollars de dégâts.

Selon Kevin Trenberth, responsable du Centre national pour les recherches atmosphériques, "Le fait que nous avons enregistré des records aussi importants de chaleur et qu'ils se soient maintenus aussi longtemps indique que le réchauffement du climat joue un rôle dans ce dérèglement climatique".

Article rédigé par Gaël Orbois pour RT Flash

NOOA

Climat : la pente actuelle nous conduit à 5°C d'augmentation d'ici 2100
Dimanche, 13/01/2013 - 16:08

La dernière étude du projet Global pour le Carbone (GCP) nous révèle que les émissions de CO2 ont augmenté de 3 % en 2011, pour atteindre 34,7 milliards de tonnes, et devraient avoir augmenté de 2,6 % en 2012. Ainsi, de 2000 à 2011, la croissance des émissions mondiales a été de 3,1 % par an en moyenne, loin des réductions envisagées par le protocole de Kyoto. En effet, les émissions auraient dû être stabilisées à leur niveau de 1990. Si la tendance se poursuit, la température globale moyenne augmentera probablement de 5°C en 2100.

Malheureusement, les émissions mondiales de CO2 continuent de suivre une pente bien trop raide pour contenir le réchauffement à 2°C et ce ne sont pas les faibles objectifs à minima qui sont sortis de la conférence de Doha qui vont provoquer le choc nécessaire au niveau mondial.

Selon cette étude, nous comptons désormais essentiellement sur des avancées technologiques à long terme, comme la capture et le stockage de carbone (CSC). Mais cette technique reste très coûteuse et personne ne peut dire pour l'instant quand elle sera compétitive.

Ce retour à la hausse des émissions de CO2, après une brève accalmie due à la crise mondiale en 2008 et 2009, risque nous enfermer définitivement dans un scenario d'échec. Comme le souligne le co-auteur de l'étude, Robbie Andrew, "les systèmes politiques, techniques et sociaux se caractérisent par une inertie considérable et même dans l'hypothèse optimiste où un accord global ambitieux serait finalement trouvé pour amplifier l'effort de Kyoto, il faudra au moins dix ans avant que les émissions mondiales de CO2 commencent à diminuer."

L'étude souligne cependant que les efforts de transition énergétique déployés en Europe ont permis une diminution globale de 5 % par an des émissions pendant 10 ans. Il faudrait donc poursuivre ces transitions énergétiques dans les pays émergents.

Même si l' Europe a stabilisé ses émissions en dessous du niveau de 1990, l'étude montre que les émissions globales en 2011 ont augmenté de moitié par rapport à celles de 1990, date de référence du Protocole de Kyoto.

En 2011, la Chine a émis 9 milliards de tonnes de CO2, suivie par les Etats-Unis (5,4 milliards de tonnes), l'Inde (2,3 milliards de tonnes), la Russie (1,7 milliard de tonnes), le Japon (1,2 milliard de tonnes) et l'Allemagne (0,7 milliard de tonnes). La France, pour sa part, a émis 0,3 milliard de tonnes de CO2 en 2011.

Les émissions chinoises ont augmenté de 10 % en 2011 (plus 800 millions de tonnes de carbone, l'équivalent de ce que l'Allemagne émet en un an). Désormais, par habitant, La Chine émet autant que l'Union européenne, et plus que la France (6 tonnes par chinois contre 4,5 tonnes par Français).

Les pays en voie de développement, qui représentaient le tiers des émissions globales de CO2 il y a 25 ans, en représentent 58 % aujourd'hui.

"Je crains que notre trajectoire actuelle d'émissions de CO2 ne nous permette pas de limiter les effets du changement climatique majeur en cours", a souligné Corinne Le Quéré, co-auteure de l'étude, qui ajoute : "Nous devons inverser la tendance avant 2020".

Article rédigé par Gaël Orbois pour RT Flash

IGBP

Earth System Science Data

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des chercheurs indiens en pointe dans la lutte contre le cancer
Mercredi, 16/01/2013 - 15:36

La recherche contre le cancer n'est plus seulement l'apanage des pays développés et l'Inde commence à s'illustrer dans ce combat. Une équipe de chercheurs indiens, dirigée par le Docteur Raghavan Sathees, de l'Institut Indien des Sciences de Bangalore, a identifié une molécule très prometteuse dans la lutte contre le cancer : la SCR7.

On sait que la cassure du double-brin de l'ADN entraîne une altération de certains gènes qui peut ensuite provoquer des cancers. Cette altération est principalement réparée par deux mécanismes : la recombinaison homologue et non homologue.

Ces chercheurs ont montré que cette molécule, la SCR7, permet l'inhibition de la ligase IV, dans le cadre du mécanisme de recombinaison non homologue, et induit ainsi l'apoptose - le "suicide"- des cellules cancéreuses.

Plus important encore, la SCR7 entrave la progression tumorale dans des modèles murins et potentialise les effets thérapeutiques des traitements classiques, radiothérapie ou chimiothérapie. Cette molécule pourrait donc être utilisée contre des tumeurs qui ne répondent pas aux traitements habituels.

Article rédigé par Georges Simmonds pour RT Flash

The Indian Express

Cell

Une endo-caméra pour explorer l'œsophage
Mercredi, 16/01/2013 - 15:30

Des chercheurs de la Harvard Medical School ont mis au point une endo-caméra à guidage externe qui permet une exploration très précise et très rapide de l'œsophage. Ce nouvel outil pourrait détecter précocement des cancers digestifs et remplacer à terme la technique de l'endoscopie, fiable mais lourde et  coûteuse à mettre en oeuvre.

Cette endo-caméra se présente sous la forme d'une capsule qui mesure 1,28 cm par 2,48 cm. Elle utilise un laser balayant à infra-rouge, capable de prendre des images haute définition sur 360° des tissus explorés. Cette caméra peut ainsi filmer des images de l'ensemble du système digestif.

Quand la la caméra se trouve à proximité de la zone à explorer, le médecin peut la positionner en tirant doucement sur une attache. Les images obtenues sont renvoyées à un système informatique qui reconstruit en temps réel une image 3D très précise et plus détaillée que celle fournie par l'exploration endoscopique classique.

Ce système est encore en phase d'essais mais les résultats sont très encourageants : un examen complet dure en moyenne 6 minutes, contre plus d'une heure et demie pour l'endoscopie ordinaire et aucune complication n'a été relevée pour l'instant.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La gravité du cancer de la vessie est directement liée à l'intoxication tabagique
Mercredi, 16/01/2013 - 15:24

Des chercheurs de l'Université de Miami et de l'Université de Californie du Sud viennent de montrer que le tabagisme est non seulement le premier facteur de risque pour le cancer de la vessie mais détermine aussi le degré de gravité de ce cancer. Les plus gros fumeurs présentent ainsi un plus grand risque de décès par ce cancer.

Pour mesurer les effets de consommation quantitative de tabac sur la progression du cancer de la vessie, les chercheurs américains ont analysé, chez 212 malades, les tumeurs de la vessie en prenant en compte la durée et l'intensité du tabagisme chez chacun de ces patients.

Les chercheurs ont alors pu constater que les cancers de la vessie dont souffrent les plus gros fumeurs conduisent à un taux de mortalité plus élevé. Ces travaux montrent donc qu'il existe un lien de causalité progressive très net entre l'intensité du tabagisme, d'une part, et la gravité de la maladie ainsi que le risque de décès, d'autre part.

Ces recherches ont également permis de repérer neuf protéines qui constituent des marqueurs moléculaires spécifiques pouvant indiquer le pronostic du cancer de la vessie. Cette découverte fondamentale est importante car elle ouvre la voie à une prise en charge personnalisée des traitements pour ce type de cancer.

Sachant en effet que le nombre des modifications constatées sur l'ensemble de ces protéines spécifiques est plus important, pour le pronostic, que la présence de modifications sur une seule de ces protéines, les chercheurs recommandent de proposer d'emblée aux malades qui présentent au moins 6 de ces marqueurs un traitement mieux adapté au profil moléculaire de leur tumeur, c'est-à-dire plus agressif.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Wiley

Autisme : les migrations seraient un facteur important
Mercredi, 16/01/2013 - 15:09

Des chercheurs suédois ont réussi à mieux préciser le lien entre migrations et autisme. Pour évaluer ce risque de la survenue de troubles autistiques chez l’enfant en fonction des antécédents de migration des parents, les chercheurs ont réalisé une étude de cas-témoins appariés sur 4 952 sujets autistes (dont 2 855 autistes de haut niveau et 2 097 autistes de bas niveau).

L'étude montre que les enfants de migrants ont bien un risque d’autisme de bas niveau augmenté. Ce risque est d'autant plus grand que les parents viennent d'une région pauvre et à faible indice de développement humain au sens de l'ONU. Enfin, le risque est maximum quand le déplacement migratoire des parents s’est effectué au moment de la période de grossesse de la mère.

En revanche, les chercheurs ont constaté une diminution du risque d’autisme de haut niveau chez les enfants de migrants, quel que soit le pays d’origine des parents et l’époque de la migration.

Cette étude souligne que des facteurs d’environnement associés au vécu migratoire peuvent vraisemblablement « contribuer au déclenchement de l’autisme associé à une déficience intellectuelle », notamment quand « les effets de ces facteurs environnementaux se font ressentir in utero. »

Enfin ces travaux confortent l'hypothèse selon laquelle l’autisme de haut niveau et celui de bas niveau ont des étiologies différentes, ce qui ouvre de nouvelles voies de recherche épidémiologiques.

Article rédigé par Georges Simmonds pour RT Flash

Karolinska Institutet

Anorexie mentale et hyperactivité physique, une base biologique commune
Mercredi, 16/01/2013 - 15:03

des chercheurs de l’Inserm et du CNRS auraient mis en évidence un mécanisme moléculaire commun entre l’anorexie mentale et l’hyperactivité physique. C’est ce que révèle une étude publiée dans la revue Translational Psychiatry. Cette découverte pourrait ouvrir la voie à de nouvelles pistes thérapeutiques pour soigner ces troubles du comportement.

Trouble grave du comportement alimentaire, l’anorexie touche de plus en plus d’adolescents et d’adolescentes dans les pays industrialisés. Depuis plusieurs années, la plupart des spécialistes estimaient que l'hyperactivité des anorexiques était liée au fait de perdre du poids plus vite en brûlant des calories. C’était donc considéré comme un acte intentionnel. Une étude, menée par des chercheurs de l’Institut national de la santé et de la recherche médicale (Inserm), du Centre national de recherche scientifique (CNRS) et des Universités de Montpellier et de Nîmes, pourrait bien modifier notre vision sur ce sujet.

En étudiant et en analysant le comportement de souris génétiquement modifiées afin de développer une affection similaire à l’anorexie humaine, Valérie Compan et ses collègues ont constaté une "surexpression" du récepteur 5-HT4 à la sérotonine dans la zone du cerveau impliquée dans la récompense. Ce dernier est connu pour jouer un rôle majeur dans le contrôle de l'hyperactivité motrice des rongeurs.

C’est la première fois qu’une équipe de chercheurs arrive à faire un lien moléculaire entre l'anorexie et l'hyperactivité. Par ailleurs, les travaux de Valérie Compan ont permis de confirmer l’existence de liens entre addiction à la cocaïne et anorexie. Ce qui pourrait signifier que ce trouble grave du comportement serait une forme de dépendance.

Autre point important, les chercheurs ont constaté que le récepteur 5-HT4 à la sérotonine peut dans certains cas être inactivé et entraîner une prise alimentaire excessive et non contrôlée, un comportement typiquement boulimique. Ainsi, pour les personnes touchées, l’alternance de comportements anorexiques et boulimiques pourrait s’expliquer par des perturbations au niveau de ce récepteur qui est soit trop actif soit totalement inactif.

Selon Valérie Compan, "Il n'y a actuellement aucun médicament qui traite l'anorexie et ce récepteur ouvre enfin l'espoir d'une voie thérapeutique car si on parvient à le réguler de manière contrôlée, les patients accepteront sans doute de s'alimenter à nouveau".

Article rédigé par Elisa Tabord pour RT Flash

Nature

Le rapport Bioinitiative 2012 relance le débat sur les effets des champs électromagnétiques
Mardi, 15/01/2013 - 17:40

Le nouveau rapport Bioinitiative 2012 ne va pas manquer de relancer le débat sur l'éventuelle nocivité des ondes électromagnétiques. Selon cette étude, qui repose sur l’analyse de plus de 1.800 études scientifiques, l'utilisation excessive de téléphones portables par de jeunes enfants et des femmes enceintes pourrait augmenter le risque de développer certaines pathologies.

« Nos cœurs et nos cerveaux sont régis par des signaux bioélectriques et les expositions environnementales aux champs électromagnétiques artificiels peuvent donc interagir avec les processus biologiques fondamentaux du corps humain », souligne ce rapport qui est en désaccord avec les conclusions du récent rapport de l'Académie des Sciences qui concluait à une absence de risques avérés pour la santé.

Le rapport Bioinitiative rappelle que nous sommes exposés à plusieurs types de champs électromagnétiques, liés à l’utilisation d’appareils électriques et électroniques, aux réseaux électriques et aux antennes-relais de téléphone et de télévision.

Le rapport met en avant quatre types principaux de risques : premièrement, comme l'a reconnu l'OMS en 2010, des risques de gliome liés à une utilisation intensive de téléphones portables. Second risque, les ondes électromagnétiques pourraient altérer la qualité du sperme. Troisième risque, l'utilisation intensive du mobile par une femme enceinte augmenterait de 50 % les risques de développer des troubles du comportement. Enfin, le dernier risque concerne l'autisme dont l'apparition pourrait être favorisée par l'utilisation excessive du portable par les futures mères.

Article rédigé par Elisa Tabord pour RT Flash

Bioinitiative

Les carences alimentaires dans l'enfance triplent les risques de troubles du comportement
Mardi, 15/01/2013 - 17:35

Des chercheurs INSERM ont montré qu’un enfant ayant eu une mauvaise alimentation jusqu'à quatre ans et demi présente ensuite un risque trois fois plus grand de développer des symptômes d’hyperactivité ou d’inattention au cours de l’enfance.

Ce travail repose sur l'analyse de données concernant 2120 enfants nés entre 1997 et 1998 et suivis régulièrement jusqu’à l’âge de 8 ans. Les chercheurs ont étudié la corrélation entre l’insécurité alimentaire lorsque les enfants avaient entre 18 mois et 4 ans et demi et les troubles du comportement qu'ils ont développés entre 4 ans et demi et 8 ans.

Ces recherches montrent également que ce lien de causalité est indépendant d’autres facteurs et persiste après ajustement des autres facteurs, tels que le niveau de revenus des familles, le type de famille ou les antécédents psychiatriques des parents.

L'hypothèse avancée pour expliquer ce résultat est que "l’incapacité des parents à s’occuper de façon régulière de l’alimentation de la famille pourrait fragiliser le lien parents-enfant dans la petite enfance, avec des effets sur le développement à long terme. »

Autre explication possible : la consommation excessive de produits gras et sucrés et une carence prolongée en fer favoriseraient des troubles de l'attention.

Conclusion de l'étude : lutter et prévenir l’insécurité alimentaire dans les familles peut permettre de réduire sensiblement les troubles du comportement chez les jeunes enfants.

Article rédigé par Elisa Tabord pour RT Flash

PLOS

Etablir le portrait robot d'un suspect à partir d'un fragment d'ADN !
Mardi, 15/01/2013 - 15:12

Des chercheurs de la firme américaine VisiGen ont mis au point une puce à ADN capable, à partir de minuscules fragments d'ADN, de prédire non seulement le sexe du porteur de cet ADN mais également la couleur de ses yeux et de ses cheveux.

La nouvelle puce analyse des centaines de milliers de courtes séquences d'ADN qui se lient à différents polymorphismes nucléotidiques simples (SNP), caractérisés par des variations d'une seule lettre dans la séquence génétique. Ces SNP contiennent des informations sur les caractéristiques physiques qui peuvent être exploitées par le logiciel mis au point par VisiGen pour calculer l'apparence probable du suspect.

VisiGen a deja testé sa puce sur plus de 3000 échantillons d'ADN recueillis dans le monde entier, et a constaté qu'elle pouvait prévoir "avec une bonne précision" certains traits du visage, comme la couleur des yeux et des cheveux.

Cette nouvelle technique génétique pourrait rapidement être généralisée, en complément des autres outils d'analyse de l'ADN, dans les enquêtes criminelles ainsi que pour l'identification des victimes de catastrophes.

Article rédigé par Georges Simmonds pour RT Flash

New Scientist

L'herbe comme source de protéines pour nourrir la planète !
Mardi, 15/01/2013 - 15:06

Face à la perspective d'une possible pénurie alimentaire mondiale à l'horizon 2050, toutes les voies de recherche sont explorées, de l'aquaculture à la consommation d'insectes en passant par le végétarisme. Mais la solution viendra peut être ...de l'herbe ?

La société NIZO Food Research, basée à Ede-Wageningen aux Pays-Bas, a réussi à extraire les protéines de l'herbe, notamment la RuBisCO qui, sous ses différentes formes, est la protéine la plus abondante sur Terre. Selon René Floris, chercheur chez NIZO, "Nous savons maintenant isoler les protéines de l'herbe et les utiliser dans de multiples préparations alimentaires. Si nous parvenons à donner à ces protéines une texture de viande, pourquoi ne pas proposer aux consommateurs des steaks d'herbe ?"

L'herbe présente l'avantage de pousser partout et d'être riche en protéines. Malheureusement, notre estomac ne sait pas digérer ces fibres végétales. C'est pourquoi nous ne pouvons pas consommer les acides aminés présents dans l'herbe. Cela est d'autant plus dommage que nous ne savons pas fabriquer tous les acides aminés dont nous avons besoin alors que l'herbe contient tous ces acides aminés.

Ce qui est certain, c'est que les perspectives d'utilisation de cette protéine de l'herbe sont sérieuses car la RuBisCO est plus nourrissante que le soja ; elle se digère mieux et, contrairement au soja, elle n'a pas besoin d'être complétée par des additifs. 

Article rédigé par Georges Simmonds pour RT Flash

NIZO

Cancer du poumon : le bénéfice des bêtabloquants confirmé
Mardi, 15/01/2013 - 14:34

Une étude portant sur plus de 700 patients atteints de cancer bronchique non à petites cellules (CBNPC) montre que ceux qui reçoivent des bêtabloquants pour traiter une hypertension ont une survie globale plus longue de 20 % par rapport aux patients qui ne prennent pas ce type de médicaments. En outre, pour les malades sous bêtabloquants, la survie sans récidive et la survie sans métastases se voient également augmentées de respectivement 26 % et 33%. Enfin, la survie sans progression locale ne varie pas.

Il semble donc, selon les chercheurs de l'Université du Texas, que les bêtabloquants ralentissent la formation de métastases, grâce à leur action sur l'adrénaline et la noradrénaline. On sait en effet que la noradrénaline favorise la dissémination des cellules cancéreuses, via les récepteurs bêta-adrénergiques.

Pour le Professeur Kris, cancérologue au Memorial Sloan Kettering, cette découverte ouvre une voie intéressante pour comprendre et prévenir les métastases. Il précise que "Le processus qui mène aux métastases est long et complexe et nous en commençons seulement l'exploration."

Plusieurs études ont déjà montré les effets bénéfiques des bêtabloquants en matière de cancer, notamment dans le cancer du sein et de la peau. Une voie à suivre donc...

Article rédigé par Georges Simmonds pour RT Flash

Annals of Oncology

Cancer du sein et maladie de Huntington : une protéine commune
Mardi, 15/01/2013 - 14:27

Des chercheurs de l'Inserm et de l'Institut Curie viennent de montrer pour la première fois qu'il existait un mécanisme moléculaire commun entre certains cancers du sein et la maladie de Huntington. Ils ont en effet découvert que la protéine baptisée huntingtine et impliquée dans la maladie de Huntington est également présente dans le tissu mammaire sain ainsi que dans les tumeurs mammaires. Autre découverte : l'expression de cette protéine dans les tumeurs mammaires rend ces cancers plus agressifs et plus aptes à se disséminer en métastases.

Ces chercheurs ont par ailleurs établi un lien entre la protéine huntingtine et le récepteur HER2. Ces protéines agissent dans la cellule comme des interrupteurs et maintiennent l’équilibre entre multiplication, division et réparation cellulaire. Si ces protéines sont présentes en trop grand nombre dans une tumeur, celle-ci aura tendance à se développer plus vite.

Comme le souligne Sandrine Humbert, "Nous avons montré que la protéine huntingtine mutante perturbe le fonctionnement normal du récepteur HER2 qui va alors déclencher des signaux provoquant les métastases".

Les chercheurs vont à présent analyser les tumeurs des patientes atteintes de la maladie de Huntington pour essayer d'identifier celles qui ont besoin d’un suivi particulier. Ils vont également essayer de mieux comprendre le rôle de la protéine huntingtine normale dans l'apparition du cancer du sein.

Article rédigé par Georges Simmonds pour RT Flash

NCBI

Le test du cancer du col de l'utérus pourrait détecter d'autres cancers
Dimanche, 13/01/2013 - 17:21

Selon une étude américaine, le test de détection éprouvé du cancer du col de l'utérus, appelé "Pap", pourrait également détecter les cancers de l'ovaire et de l'endomètre. Les chercheurs ont, pour la première fois, découvert des marqueurs génétiques des cancers de l'endomètre - un cancer particulièrement meurtrier - et de l'ovaire dans le frottis effectué pour le  test Pap. Le Pap (Papanicolaou, du nom de son inventeur) pourrait donc détecter trois types de cancer avec un test unique.

Cette extension de l'utilisation du test Pap a été rendue possible grâce aux progrès génomique qui permettent à présent de détecter une grande variété de cancers.

Ce test Pap est déjà employé avec succès pour détecter le cancer du col de l'utérus mais il n'existe encore aucun test pour repérer les cancers de l'ovaire et de l'endomètre. "Grâce à une utilisation nouvelle du séquençage génomique, nous pensons pouvoir détecter ces cancers à grande échelle et de façon peu coûteuse", souligne le Professeur Diaz qui a participé à cette étude.

Ce test doit maintenant être expérimenté sur des femmes sans symptômes des cancers concernés pour voir s'il est bien en mesure de détecter précocement les cancers de l'ovaire et de l'endomètre. Le cancer de l'endomètre est souvent découvert à un stade tardif et deux malades sur trois en décèdent.

Le cancer de l'ovaire est un peu moins meurtrier mais ces deux cancers touchent 70.000 femmes par an aux Etats-Unis dont un tiers en décède.

Article rédigé par Georges Simmonds pour RT Flash

Science

Vaccins : le nanopatch va-t-il remplacer la seringue ?
Dimanche, 13/01/2013 - 16:44

Après 160 ans, l'aiguille et la seringue vivent-elles leurs dernières années en matière de vaccination ? Peut-être, si l'on en croit Mark Kendall, un chercheur qui a travaillé sur l'administration de vaccins par patch et qui est convaincu que cette technique finira par s'imposer et par se substituer à l'aiguille.

"La plupart des vaccins actuels sont administrés avec le couple aiguille-seringue qui date de 1853" souligne le scientifique qui a obtenu des résultats impressionnants dans les essais de nanopatch sur les animaux et doit bientôt passer aux essais sur l'homme, en Australie et en Papouasie-Nouvelle-Guinée, qui dureront trois ans.

Le Nanopatch est conçu pour diffuser une petite quantité de vaccin juste sous la peau et les tests sur l'animal ont montré qu'il peut générer la même réponse immunitaire que la seringue mais avec seulement une fraction de la dose nécessaire pour un vaccin traditionnel. Contrairement aux autres procédés de patch testés jusqu'à présent, ce Nanopatch permet la vaccination directe, sans adjuvant, avec un contrôle immédiat et direct de l'antigène administré. En outre, cette technique utilise des vaccins lyophilisés et peut donc se passer de la chaîne du froid pour conserver les vaccins, ce qui réduit le coût de la vaccination.

Au cours des 30 dernières années, les immunologistes ont découvert que la peau, à la différence des muscles, comporte une grande variété de cellules immunitaires, ce qui en fait une cible plus efficace pour les vaccins.

Jusqu'à présent, l'équipe de recherche de Kendall (Université du Queensland pour la biotechnologie et la nanotechnologie en Australie) a testé avec succès le Nanopatch sur des souris qui ont reçu différents vaccins par cette technique.

Autres avantages du Nanopatch : il est indolore et à faible coût - moins d'un dollar par dose, contre 50 pour de nombreux vaccins actuels - et facilement transportable.

Il y a encore 17 millions de décès par an dus aux maladies infectieuses, surtout dans les pays pauvres, et la mise au point d'une technique de vaccination simple, efficace et bon marché, par patch, représente un enjeu médical majeur même si nous avons encore un long chemin à parcourir en matière d'essais sur l'homme», souligne Kendall.

Article rédigé par Elisa Tabord pour RT Flash

Yahoo!

Les bonobos privilégient le partage avec les étrangers...
Dimanche, 13/01/2013 - 16:35

Lorsqu'un enfant a des bonbons et veut en donner, il choisit en général de privilégier d'abord d'autres enfants qu'il connaît et qu'il aime bien, même s'il lui arrive également de donner un bonbon à un autre enfant qu'il ne connaît pas. Les primates, en général, ont également tendance à privilégier leurs congénères par rapport à des membres d'autres espèces ou groupes, dans le partage de la nourriture.

Mais une étude menée par Brian Hare, professeur d'anthropologie à l'université de Duke (USA), vient de montrer que, chez les bonobos, le partage de la nourriture obéissait à d'autres critères que la proximité familiale ou groupale.

Les chercheurs ont en effet mis à disposition d'un bonobo une quantité importante de nourriture et lui ont laissé le choix : soit la manger seul, soit la partager en choisissant son compagnon de "table" : un bonobo connu ou un bonobo étranger. Résultat, neuf des 14 animaux soumis au test ont choisi le bonobo étranger pour partager leur repas !

Quant aux motifs qui inspirent ce comportement, les scientifiques émettent l'hypothèse que si une majorité de bonobos choisit plutôt un bonobo étranger pour partager un repas convivial avec lui (aucune agression n'a été constatée), c'est parce que ce choix permet de nouer de nouvelles relations affectives et sociales !  

Article rédigé par Georges Simmonds pour RT Flash

PLOS One

Une molécule qui restaure la mémoire chez les souris porteuses d'un Alzheimer !
Dimanche, 13/01/2013 - 16:23

La nouvelle année a été marquée par la publication de plusieurs études faisant état de recherches prometteuses en neurobiologie, en particulier sur la maladie d'Alzheimer.

Des chercheurs américains de NIH ont notamment mis en évidence le rôle du peptide TFP5 qui, lorsqu'il est administré à des souris présentant la maladie d'Alzheimer, semble pouvoir inverser les symptômes de perte de mémoire.

TFP-5 agit en inhibant une enzyme du cerveau, baptisée Cdk5 (cyclin-dependent kinase 5), qui est impliquée dans la formation de plaques pathologiques dans le cerveau, un symptôme caractéristique de de la maladie d'Alzheimer. Pour mener cette étude, les chercheurs ont utilisé deux groupes de souris génétiquement modifiées pour porter la maladie d'Alzheimer. Le premier groupe a reçu la molécule de TFP5 par voie intrapéritonéale, et le groupe témoin a reçu un placebo.

Les chercheurs ont pu constater, au bout de quelques semaines, que les souris qui avaient reçu le TFP5 voyaient leurs capacités cognitives nettement améliorées, sans présenter d'effets secondaires. En revanche, dans le groupe témoin, la maladie a progressé comme prévu.

Il reste à présent à tester ce peptide chez l'être humain pour en évaluer l'intérêt thérapeutique. "A présent que nous connaissons de mieux en mieux les mécanismes moléculaires à l'oeuvre dans le déclenchement de l'Alzheimer, nous allons enfin pouvoir concevoir et tester des traitements bien plus ciblés et, je l'espère, plus efficaces que ceux dont nous disposons aujourd'hui", a déclaré Gerald Weissmann, rédacteur en chef du FASEB.

Article rédigé par Georges Simmonds pour RT Flash

The FASEB Journal

Un hydrogel photosensible pour remplacer le cartilage
Dimanche, 13/01/2013 - 16:17

Des chercheurs de l'Université Boulder (Colorado) dirigés par le professeur Nicodemus ont mis au point un hydrogel destiné à remplacer le cartilage détruit ou abîmé.

Le cartilage adulte sain est lisse et  ferme ; il permet le bon fonctionnement des articulations mais, avec l'âge, certaines personnes sont parfois touchées par des lésions qui altèrent leur cartilage.

Le gel mis au point fonctionne un peu à la manière d'un substrat fertile qui aide les plantes à pousser : il enrichit l'environnement du cartilage défectueux et promeut la croissance de tissu sain tout en limitant la formation du tissu cicatriciel.

L'hydrogel est d'abord injecté dans la cavité articulaire sous la forme d'un liquide visqueux. Il est ensuite solidifié par photosensibilisation. Les chercheurs ont testé ce "ciment" artificiel chez 15 patients souffrant de douleurs au genou dues provoquées par des lésions du cartilage. Ils ont observé qu'après plusieurs semaines de traitement, les patients voyaient l'état de leurs genoux s'améliorer et les douleurs diminuer. Aucun effet indésirable majeur n'a été noté dans les six mois qui ont suivi les interventions.

Les chercheurs sont parvenus à surmonter une difficulté technique majeure en contrôlant la structure fine du gel et sa dégradation dans le temps de sorte que la consolidation se fasse précisément dans les zones visées.

Ces hydrogels sont très prometteurs pour fournir des environnements appropriés permettant non seulement une bonne diffusion des cellules mais également la croissance de nouveaux tissus spécifiques obtenus par différenciation cellulaire.

Ces nouveaux matériaux devraient ouvrir un vaste champ thérapeutique dans la régénération osseuse et articulaire.

Article rédigé par Georges Simmonds pour RT Flash

NCBI

Aphasie : le cerveau conserve toujours une capacité de récupération
Vendredi, 11/01/2013 - 17:52

Le cerveau d'une personne aphasique, même depuis longtemps, peut toujours améliorer ses capacités, selon une étude de l'Institut universitaire de gériatrie de Montréal (IUGM) dirigée par Ana Inés, professeure à l'Université de Montréal.

Après six semaines d'une thérapie du langage intensive et spécifique, les personnes âgées aphasiques parviennent à la fois à améliorer leur capacité de nommer les objets et à récupérer des capacités cognitives. La neuroimagerie fonctionnelle confirme que cette thérapie du langage permet au cerveau d'activer pendant plusieurs mois après l'accident des circuits alternatifs qui vont être mobilisés pour la récupération des mots supplémentaires.

Cette étude redonne donc de l'espoir pour les personnes âgées souffrant d'aphasie depuis plusieurs années. Elle démontre que les effets bénéfiques de cette thérapie vont au-delà du langage et s'étendent à la cognition dans son ensemble.

Ces travaux ont également permis de mieux comprendre les mécanismes du réseau du mode par défaut dans les cas d'aphasie. En comparant neuf sujets atteints d'aphasie chronique à dix sujets témoins, les chercheurs ont pu, pour la première fois, repérer le réseau du mode par défaut chez des personnes atteintes d'aphasie. 

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Lésions de la moelle épinière : un essai prometteur chez la souris
Vendredi, 11/01/2013 - 17:47

Des chercheurs américains ont montré l'efficacité, chez la souris, d'un nouveau médicament pour réparer une lésion de la moelle épinière. Cette molécule, appelée LM11A-31, a été développée à l'Université de Stanford. Elle possède la capacité d'inhiber l'activation d'une protéine appelée p75 qui est liée à la mort des oligodendrocytes, des cellules spécialisées qui gainent et protègent les axones en les enveloppant de myéline.

"C'est la première fois qu'un seul médicament pris par voie orale produit une telle amélioration fonctionnelle sans effet secondaire" souligne Yoon Sung Ok, professeur à l'Ohio State University et directeur de cette étude.

Sachant que les oligodendrocytes continuent à mourir longtemps après une lésion de la moelle épinière, les chercheurs ont eu l'idée de prévenir la dégénérescence des axones en administrant le LM11A-31 à des souris juste après leur lésion puis deux fois par jour pendant un mois et demi. Au terme de ce traitement, les chercheurs ont constaté une amélioration nette de la motricité des membres chez les souris lésées qui parvenaient à nouveau à marcher de façon coordonnée.

C'est la première fois qu'un traitement par voie orale surmontant l'obstacle de la barrière hémato-encéphalique est à l’essai dans les lésions de moelle.

Avec la dose la plus forte, les axones myélinisés étaient conservés à plus de la moitié des taux normaux, alors que les trois quarts avaient été détruits à la suite de la lésion de la moelle. En outre, le pourcentage d’oligodendrocytes non endommagés a pu être augmenté de 50 %.

Article rédigé par Georges Simmonds pour RT Flash

Ani news

Science Daily

Une thérapie régénérative pour réduire les fractures non consolidées
Vendredi, 11/01/2013 - 17:40

La moitié des fractures ne cicatrisent pas seules et nécessitent une chirurgie de reconstruction osseuse qui concerne un million de patients par an en Europe.

Le projet REBORNE (Régénération des défauts osseux utilisant de nouvelles approches d'ingénierie biomédicale) financé par la Commission Européenne et coordonné par l’Inserm, vient d’obtenir l’accord de l’Agence nationale de sécurité du médicament et des produits de santé pour mener pendant un an, dans les hôpitaux de Créteil et Tours, un essai clinique innovant sur trente patients européens, qui vise à réparer les os à partir de cellules-souches adultes, combinées à un biomatériau.

Lancé en 2009, ce projet ambitieux vise à exploiter le potentiel des cellules-souches mésenchymateuses (CSM), présentes dans la moelle osseuse, pour accélérer la cicatrisation des fractures. L'idée est d'associer ces CSM et des cellules-souches adultes du patient à un biomatériau, et de greffer ce "mélange" sur la fracture.

En cas de fracture consécutive à un accident, on observe souvent une non-consolidation du tibia, du fémur ou de l'humérus, ce qui oblige à une greffe osseuse autologue, (prélèvement d’os du patient), une intervention lourde pouvant entraîner des effets secondaires importants.

Dans l'essai REBORNE,  les cellules-souches mésenchymateuses, issues d’un prélèvement de moelle osseuse, sont isolées et amplifiées en culture pendant trois semaines. Ces CSM sont ensuite combinées à des microbilles en céramique de phosphate de calcium, et implantées au niveau de la fracture. Ce biomatériau joue le rôle de treillis et favorise la prolifération des cellules-souches qui, grâce à leur pouvoir de différenciation, se transforment en os et vont combler et consolider la fracture.

Comme le souligne Pierre Layrolle, coordinateur du projet REBORNE, "L’objectif de l’essai est de démontrer que l’utilisation des biomatériaux et des cellules-souches est sans danger et au moins équivalente aux traitements standards, sans leurs risques et effets secondaires."

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Reborne

L'ADN "poubelle" commence à révéler son rôle caché !
Vendredi, 11/01/2013 - 17:08

Des chercheurs américains de l'Université de Caroline du Nord ont dévoilé le rôle régulateur important joué par l'«ADN poubelle», dans le fonctionnement et la structure de notre génome. Comme l'avait déjà montré l'étude Encode sur l'organisation du génome humain, ces travaux confirment que cet ADN, en apparence inutile, joue en fait un rôle biologique important dans l'expression de nos gènes.

Ces travaux montrent notamment que les informations contenues dans cet "ADN-poubelle", si elle ne sont pas directement utilisées pour produire des protéines, modifient subtilement les codes de fonctionnement et d'expression de nos gènes.

Ainsi, grâce à un mécanisme d'épissage alternatif, un seul gène peut coder plusieurs protéines avec différentes fonctions biologiques. C'est ce qui explique que le génome humain, qui compte environ 20.000 gènes, puisse gérer la synthèse d'un très grand nombre de protéines. Un grand nombre de maladies sont causées par la dérégulation de l'épissage d'un gène au cours duquel celui-ci n'a pas été coupé et collé correctement.

Le Professeur Zefeng Wang, auteur principal de l'étude, explique le processus en question en le comparant au montage d'un film de cinéma dont on va supprimer ou remonter certaines séquences.

Il rappelle que seuls 10 à 20 % du génome participent directement au codage des protéines dans des régions nommées "exons". Le reste, soit au moins 80 %, est constitué de régions intermédiaires baptisées "introns".

Seuls les exons peuvent être intégrés au sein de l'ARN final produit par le gène, alors que les introns sont découpés et détruits. C'est pour cette raison que la recherche a surtout porté, jusqu'ici, sur  la séquence codante ou exons, alors, qu'en réalité, 90 % de la séquence codante se dissimulent dans les introns du gène.

Ces recherches confirment donc que les introns jouent un rôle-clé dans la régulation de l'épissage des gènes, en activant des protéines qui vont soit favoriser, soit inhiber ce processus d'épissage.

En parvenant à insérer un intron porteur de séquences d'ADN dans un gène codant une protéine fluorescente, les chercheurs ont montré que cet intron régulait bien ce processus d'épissage et pouvait bien modifier le type de codage de l'exon ainsi que la fonction des protéines produites.

Article rédigé par Georges Simmonds pour RT Flash

UNC

Nature Structural & Molecular Biology

L'efficacité des vaccins dépend de leur mode d'administration
Vendredi, 11/01/2013 - 16:43

Il faut inlassablement le rappeler : la vaccination, en dépit de ses inévitables risques, reste le moyen le plus efficace et le moins coûteux pour prévenir de nombreuses maladies infectieuses et permet de sauver plus de 3 millions de vies par an dans le monde.  Aujourd’hui, on dispose non seulement d'une panoplie de vaccins beaucoup plus large mais l'efficacité et la sécurité de ceux-ci ne cessent d'être améliorées.

L'équipe de Behazine Combadière, Directrice de recherche à l' Inserm, a montré que l’injection du vaccin dans le derme (intradermique) provoque une réaction inflammatoire de cellules neutrophiles en moins d'une heure. En outre, ces cellules neutrophiles ne transportent pas seulement l’antigène jusqu’au ganglion mais aussi jusqu'à la moelle osseuse.

Ces recherches ont montré que l’inflammation induite lors de l’injection intradermique (à la différence d’une injection sous-cutanée ou intramusculaire) provoque l’activation d’une nouvelle source de cellules CD8 dans la moelle osseuses, différentes des cellules CD8 ganglionnaires spécifiques de l’antigène.

En utilisant judicieusement certains adjuvants, il est donc envisageable de provoquer par la vaccination, la mobilisation de cellules inflammatoires qui va permettre une meilleure réponse immunitaire dans le temps.

Article rédigé par Elisa Tabord pour RT Flash

Science Direct

Vers un vaccin efficace contre les hépatites B et C
Vendredi, 11/01/2013 - 16:37

L’hépatite C constitue un enjeu majeur de santé publique au niveau mondial, avec près de 200 millions de personnes infectées dans le monde et 4 millions de nouvelles infections par an. Cette forme d'hépatite est à présent traitée par bithérapie (interféron et ribavirine) ou trithérapie.

En dépit de ces avancées, les traitements proposés restent lourds et ne guérissent au mieux que 7 malades sur 10. C'est pourquoi il est si important de mettre au point un vaccin contre l'hépatite C.

Le problème est qu'un tel vaccin se heurte à des obstacles biologiques majeurs. En effet, il est impossible de produire les protéines d’enveloppe du virus de l’hépatite C (VHC), nécessaires à la production d’anticorps spécifiques.

Pour surmonter cet obstacle, les chercheurs ont eu l'idée d'exploiter les propriété des protéines d’enveloppe (S) du virus de l’hépatite B (VHB). Ils ont réussi à mettre des particules combinant  des protéines d’enveloppe des deux virus. Chez le rat, l’injection de ces particules recomposées a déclenché la production d’anticorps efficaces contre le virus VHC.

Les chercheurs ont donc fait d'une pierre deux coups, puisqu'ils ont levé l'obstacle qui empêchait la production d’un vaccin contre l’hépatite C, et qu'ils ont en outre ouvert la voie à la mise au point d'un vaccin commun contre les hépatites B et C qui touchent au total plus de 500 millions de personnes dans le monde.

Article rédigé par Elisa Tabord pour RT Flash

Wiley

Morphine : vers une meilleure efficacité contre la douleur
Vendredi, 11/01/2013 - 16:31

Une étude, menée par Yves De Koninck de l’Université Laval (Québec) et Michael Salter de l'Université de Toronto et publiée dans la revue Nature Neuroscience, a élucidé le mécanisme moléculaire qui, dans certains cas, fait que la morphine augmente la douleur au lieu de la diminuer, ce qui devrait déboucher sur de nouveaux moyens de rendre la morphine efficace pour un plus grand nombre de malades.

Ces recherches ont permis de mieux distinguer ces deux mécanismes, celui la tolérance à la morphine et celui du rejet chez certains patients.

Comme le souligne Michael Salter, "Quand la morphine ne peut plus diminuer suffisamment la douleur, on augmente généralement la dose mais parfois, sans qu'on sache pourquoi, une hausse de la dose de morphine accroît la douleur au lieu de la soulager".

Ces travaux ont donc permis de découvrir de nouveaux mécanismes cellulaires et de transmission des signaux associés à la tolérance à la morphine qui sont différents de ceux de l’hypersensibilité à la douleur que provoque parfois cet opiacé puissant.

Les chercheurs ont notamment découvert que la microglie, un type de cellules spécialisées de la moelle épinière, était fortement impliquée dans cette  hypersensibilité à la douleur induite par la morphine. Ils ont montré que la morphine agit sur les récepteurs de la microglie, ce qui provoque une réaction en chaîne qui, in fine, excite les cellules nerveuses chargées de la transmission des signaux de la douleur.

Ces recherches ont également montré que c'est une protéine appelée KCC2, contrôlant le transport des signaux sensoriels vers le cerveau, qui est impliquée dans le déclenchement de cette hypersensibilité à la morphine.

Cette découverte devrait déboucher sur de nouvelles stratégies dans le traitement de la douleur chronique et empêcher à terme l'apparition de ces hypersensibilités à la morphine.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Près de la moitié des aliments produits dans le monde ne sont pas consommés !
Dimanche, 13/01/2013 - 17:30

Selon l'ONU, la population mondiale pourrait atteindre 9,5 milliards de personnes en 2075, soit 2,5 milliards d'habitants en plus qu'aujourd'hui. Or, l'Institution of Mechanical Engineers (IMeche), un organisme dédié au développement de l'ingénierie dans le monde, vient de publier une étude saisissante intitulée "Nourrir la planète : pas de déchets, plus de déchets" qui montre que 30 à 50 % de la nourriture produite dans le monde chaque année serait gaspillée, soit environ 2 milliards de tonnes d'aliments (dans l'hypothèse des 50 % de gaspillage), sur les quatre milliards que produit l'humanité tous les ans.

Selon le Docteur Tim Fox de l'Imeche, "la quantité de nourriture gâchée dans le monde est stupéfiante" et ce rapport dénonce "des infrastructures et dispositifs de stockage inadaptés" et "des dates limite de vente trop strictes". Plus grave encore, ce gaspillage considérable ne se limite pas à la nourriture mais s'étend à l'ensemble de la chaîne alimentaire et aux ressources en eau et en énergie. Sur les 4 000 milliards de mètres cubes utilisés chaque année, 70 % sont déjà mobilisés par l'agriculture et l'étude estime à 550 milliards de mètres cubes le gaspillage d’eau employée pour la culture d'aliments qui sont détruits ou perdus sans être consommés !

Le gaspillage est également énergétique. Si l'on estime que l'agriculture mondiale consomme environ 3 %, soit 300 millions de Tep, de l'énergie finale consommée dans le monde (9 gigateps), on peut estimer à 140 millions de tonnes équivalent pétrole, soit la moitié de la consommation énergétique totale de la France, le gaspillage d'énergie dans le monde pour produire des aliments qui ne sont pas consommés.

L'étude précise encore qu'en Europe et aux Etats-Unis, "jusqu'à la moitié de la nourriture achetée est jetée par le consommateur lui-même". En revanche, les pays les moins développés, comme les pays sub-sahariens ou l'Asie du Sud-Est, perdent une grande partie de leur production au niveau de la production agricole, faute de transports et d' infrastructures de stockage performants.

L'étude s'interroge enfin sur les conséquences de l'évolution des habitudes alimentaires dans les pays émergents. La planète pourra-t-elle mobiliser assez de terres, d'eau et d'énergie pour multiplier par trois ou quatre la production mondiale de viande d'ici 30 ans et répondre ainsi à la nouvelle demande des consommateurs asiatiques ? 

Article rédigé par Georges Simmonds pour RT Flash

Institution of Mechanical Engineers

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les dix percées technologiques qui ont marqué 2012
Mardi, 15/01/2013 - 14:47

Le cabinet de veille technologique Lux Research a révélé son palmarès des dix entreprises les plus innovantes de 2012.

NdlR : Ce cabinet de veille a, à notre avis, insuffisamment observé les entreprises europeénnes

1. Beta Renewables : biocarburants

Cette entreprise va ouvrir cette année en Italie une usine de carburants issus de la cellulose. Elle vise à transformer les déchets agricoles ou forestiers en biocarburants compétitifs.

2.  Materials Innovation Technologies : fibre de carbone

Cette entreprise a mis au point un nouveau procédé de recyclage des fibres de carbone qui vise l'industrie automobile.

3. N-Solv : Pétrole

Cette entreprise a développé une nouvelle technique d’extraction des hydrocarbures lourds qui utilise un solvant chaud et réduit sensiblement la consommation d’eau et les émissions de CO2.

4. Imprint Energy : Electronique flexible

Cette firme a mis au point un nouveau type de batteries au zinc rechargeables et fabriquées par impression.

5. Phosphagenics : administration de médicaments

Cette start up australienne a développé un patch qui diffuse les médicaments par voie cutanée. Les essais sur l'homme sont prévus pour 2013.

6.  Azzurro Semiconductors : Electronique et énergie

Ce fabricant de semi-conducteurs en nitrure de Gallium (GaN) sur substrat de silicium vient de lancer la production industrielle de tranches de 15 cm de diamètre, très attendues par le secteur électronique.

7. Enbala Power Networks : Efficacité énergétique

Cette firme rétribue les installations tertiaires et industrielles en fonction de leur capacité à réduire leur consommation d'énergie. Ce concept permet de "lisser" les pointes de demande sur le réseau et son coût à terme pourrait s'avérer inférieur à celui des systèmes lourds et complexes de stockage d'énergie.

8.  Boulder Ionics : voitures électriques

Boulder a mis au point un process de production à faible coût d’électrolytes ultra-pures, un élément indispensable dans les batteries des véhicules électriques.

9. Silevo : cellules solaires

Silevo a mis au point, en associant des contacts de cuivre galvanisés et une fine couche de silicium amorphe, des cellules solaires bon marché qui affichent un rendement de 18 %.

10. Desalitech : désalinisation de l’eau de mer

Cette société est parvenue, en réduisant la pression exercée sur la membrane par le flux d’eau entrant, à accroître sensiblement l’efficacité de l’osmose inverse, une technologie de plus en plus utilisée pour désaliniser l’eau de mer.

Article rédigé par Georges Simmonds pour RT Flash

Lux Research

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top