RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 635
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Janvier 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
gTLD : l'ICANN ouvre les vannes pour les inscriptions
Facebook pourrait atteindre le milliard d'abonnés en 2012
Un algorithme pour aider au dépistage du cancer de l’ovaire
La justice devient numérique
Internet : record du monde de haut débit battu
La localisation de capteurs n'a pas besoin de technologie GPS
Avenir
Une armée de robots pour remplacer nos agriculteurs ?
Matière
Réacteur Myrrha : réduire la toxicité des déchets radioactifs
Cellectis et Total vont chercher des substituts pétroliers dérivés de microalgues
Stockage de l'énergie solaire : la Corse innove
Des chercheurs ont créé des fils électriques de 1 x 4 atomes
Les Smart Grid vont faciliter le commerce local d'énergie
Espace
HumaNav : une offre de service innovante aux agences humanitaires
Une planète pour chaque étoile de la Voie Lactée
Terre
Réchauffement climatique : une réponse rapide mais retardée des oiseaux et papillons d'Europe
La fin des glaciations ?
Vivant
Cancer de la prostate : un gène qui multiplie par vingt le risque !
Un gène qui freine le cancer du sein
Un pas de plus vers le traitement du cancer du côlon
Urostation : une technique prometteuse pour dépister le cancer de la prostate
Hépatite C : le vaccin de l'espoir !
Les premiers singes chimériques sont nés !
L'ANRS va expérimenter un traitement préventif contre le SIDA
Des chercheurs toulousains de l’INRA découvrent le gène responsable de l’épilepsie du poulet
Manger du poisson rend intelligent
Des anticorps inhalables contre les virus !
La consommation de vin rouge permettrait de réduire le risque de cancer du sein
Cancer de la prostate : le dépistage systématique remis en cause
Une espèce de tortue géante éteinte réapparaît
Des scientifiques découvrent l'évolution des crânes
Les nourrissons préfèrent imiter une personne de confiance
Maladies rénales et neurologiques : un gène en commun
Foie virtuel : une aide high-tech pour opérer certaines tumeurs
Recherche
Rhône-Alpes aide ses PME à innover
Edito
Allons-nous entrer dans l'ère de l'anthropocène ?



L'information est à présent confirmée : 2011 a bien été l'année la plus chaude depuis 1900 en France avec une température moyenne de 13,6°C (+ 1,5°C par rapport à 2010). Au niveau mondial, une étude publiée en décembre dernier dans la revue scientifique de référence "Environmental Research Letters", montre que le réchauffement climatique mondial se poursuit inexorablement depuis 30 ans.

Cette étude dirigée par Stefan Rahmstorf et Grant Foster a analysé l’évolution du réchauffement climatique de 1979 à 2010 en distinguant les facteurs naturels et l'impact des activités humaines. Pour évaluer rigoureusement le poids des phénomènes naturels sur le climat, ces scientifiques reconnus ont reconstruit les courbes de températures grâce aux données obtenues conjointement par satellites et par le réseau mondial de stations météorologiques. Ils ont ainsi pu démontrer que l'augmentation des émissions de gaz à effet de serre liées aux activités humaines a entraîné une hausse des températures mondiales comprise entre 0,14 et 0,18 degré celsius par décennie depuis 30 ans.

Cette étude remarquable qui intègre l'activité solaire et le phénomène "Nina" montre que 2011 est bien l'année la plus chaude jamais enregistrée sur terre. L'étude n'est guère optimiste et prévoit que, sans une rupture par rapport aux objectifs internationaux (qui représentent à peine plus de la moitié de l'effort minimum à effectuer pour limiter le réchauffement climatique à 2-3° d'ici 2050), l'accélération du réchauffement planétaire va se poursuivre au cours de ces prochaines années avec son cortège de conséquences désastreuses et d'épisodes extrêmes que nous pouvons déjà constater.

Il n'y a pourtant aucune fatalité dans cet enjeu majeur du climat et l'homme peut encore, sans mettre en œuvre des efforts démesurés sur le plan économique, technologique et financier, éviter le pire. C'est ce que montrent plusieurs études distinctes mais parfaitement convergentes. La première, de grande ampleur, vient d'être publiée dans "Science" (Simultaneously Mitigating Near-Term Climate Change and Improving Human Health and Food Security et  What can be done to slow Climate Change ?).

Cette étude rappelle que depuis un siècle, la température moyenne à la surface de Terre a connu une hausse de 0,8 degré, dont plus des deux tiers au cours des trente dernières années. L'étude souligne également que les quantités considérables de CO2 émises par l'homme (elles ont été multipliées par dix depuis 70 ans) s'accumulent dans l'atmosphère pendant plusieurs centaines d’années, contribuant puissamment à accroître l'effet de serre et le réchauffement climatique.

De manière très pragmatique, l'étude a modélisé les effets de la mise en œuvre de plus de quatre cents mesures destinées à l'ensemble des émissions polluantes. Au final, les chercheurs ont sélectionné 14 mesures considérées comme les plus efficaces à court terme : toutes ces mesures visent à réduire fortement les émissions humaines ou animales de méthane (CH4), un gaz à effet de serre 25 fois plus puissant que le CO2  et les émissions de suies qui sont des particules résultant de combustions incomplètes en suspension dans l'atmosphère.

Concrètement, l'étude préconise la généralisation des dispositifs de capture du méthane dans les mines de charbon et les raffineries de pétrole et l'amélioration des réseaux de transport de gaz naturel. Un effort important est par ailleurs envisagé en matière d'agriculture et d'élevage : l'étude propose de revoir complètement la gestion des effluents du bétail, de mettre en place  le drainage systématique des rizières, de généraliser les filtres à particules de nouvelle génération sur les véhicules diesel et de mettre fin à la culture sur brûlis.

En réduisant de façon sensible nos émissions de méthane et de suie, nous ferions d'une pierre trois coups : en matière de climat, ces mesures permettraient de limiter le réchauffement à 0,8°C d'ici à 2060, au lieu des 1,3°C prévu. En matière de rendement agricole global, ces mesures permettraient une hausse de la production agricole mondiale de plusieurs dizaines de millions de tonnes par an et constitueraient donc un puissant levier pour nourrir correctement les neuf milliards d'humains qui vivront sur terre au milieu de ce siècle. Enfin, en matière sanitaire, cette réduction de nos émissions de carbone et de suies aurait un impact non moins considérable et permettrait d'éviter jusqu'à 4 millions et demi de morts prématurées par an, notamment en Asie.

Il faut toutefois bien comprendre qu'une telle stratégie ne nous dispenserait absolument pas de réduire massivement nos émissions de CO2 (actuellement 31 milliards de tonnes par an, soit 4 tonnes et demi par terrien) si l'on veut à terme éviter un réchauffement catastrophique de 4 à 6°C d'ici la fin du siècle. Selon une autre étude réalisée en 2007 par l'Université de Stanford, le CO2 contribue pour moitié au réchauffement climatique, suivi par les suies (16 %) et enfin par le méthane, pour 14 %.

Cette étude nous révèle également qu'en utilisant uniquement des technologies existantes, il serait possible de réduire les émissions de méthane émis de 40 % et que la mise en œuvre de ces 14 mesures aurait un coût économique tolérable : en effet la plupart de ces mesures ont un coût maximum de 250 dollars la tonne de méthane, ce qui est plus de dix fois inférieur aux immenses bénéfices qui pourraient être obtenus en matière de santé et d'environnement. L'étude prend un exemple concret : les poêles et fours à charbon de bois sont utilisé par trois milliards d'humains pour faire cuire les aliments et sont responsables d'au moins deux millions de décès prématurés par an.

Il est frappant de constater que cette vaste étude rejoint les conclusions d'un rapport réalisé en 2009 par le cabinet McKinsey. Cette étude concluait également que si l’ensemble des options technologiques disponibles étaient utilisées, les émissions mondiales de gaz à effet de serre pourraient être réduites de 40 % par rapport à 1990 d’ici à 2030, ce qui permettrait de limiter la hausse de la température mondiale à moins de 2°C. Selon cette étude, le coût global de ce plan mondial serait bénéfique avec un baril à plus de 100 dollars, ce qui est aujourd'hui le cas. Cette étude pointait trois grands leviers pour s'attaquer efficacement au réchauffement de climat : premier levier (un tiers de l'effort à produire), la sobriété et l'efficacité énergétique, second levier (28 % de l'effort global), un investissement massif dans les énergies renouvelables (éolien, biomasse, géothermique, solaire, mer) et les biocarburants de 2ème et 3ème génération, issus du bois et des algues et enfin, troisième levier, une réorientation de la gestion de la forêt, de l'élevage et de l’agriculture ( 28 % de l'effort total).

En moins de deux siècles, l'espèce humaine a conquis un pouvoir déterminant sur le climat mondial, ce qui constitue une rupture majeure de civilisation. Comme le souligne Richard Alley, de l'Université de Pennsylvanie "En décuplant nos émissions de CO2 depuis moins d'un siècle, nous sommes en train de modifier pour les siècles à venir, et à un rythme jamais vu, le climat de la planète".

Il est intéressant de constater que, face à la réalité et à la rapidité du réchauffement climatique mondial, de plus en plus difficile à nier ou à contester, les climato-sceptiques ont été contraints de changer de stratégie. La plupart d'entre eux ne contestent plus la réalité de ce réchauffement mais ils déplacent le débat sur la responsabilité de l'homme dans ce phénomène. Selon eux, ce réchauffement serait "naturel" et l'homme n'y serait pour rien ou aurait une responsabilité marginale dans son accélération. Partant de cette thèse, il serait donc inutile, voire dangereux pour nos économies et nos modes de vie, de prendre des mesures de réduction de nos émissions de gaz à effet de serre et il suffirait finalement d'attendre que le climat s'autorégule.

Mais, comme nous venons de le voir en évoquant quelques unes des dernières études sur ce sujet, cette négation de la responsabilité humaine en matière de réchauffement climatique est une position qui devient, elle aussi, de moins en moins tenable scientifiquement face à l'accumulation des faits et aux progrès de la connaissance du fonctionnement globale de notre planète. Il est peut-être temps d'admettre enfin que nous sommes en train d'entrer, comme le pense Paul Crutzen, prix Nobel de chimie, et un nombre croissant de scientifiques, dans l'ère de l'anthropocène, une nouvelle ère géologique qui pourrait être prochainement reconnue par la communauté scientifique internationale et qui se caractérise par l'influence majeure que détient à présent l'espèce humaine sur sa planète, par rapport aux forces et phénomènes naturels et géologiques.

Cette nouvelle puissance, sans précédent dans la longue histoire de l'homme, nous confère évidemment une responsabilité immense et un devoir d'agir pour éviter que le pire n’advienne. Nous savons maintenant que le coût de l'inaction sera infiniment plus grand et désastreux pour l'homme et l'ensemble du vivant que celui d'une action résolue et durable pour maîtriser l'évolution du climat. Contrairement à ce que veulent nous faire croire les climato-sceptiques, il n'y a pas de fatalité, l'avenir n'est jamais écrit et même si l'homme est confronté à des forces naturelles et cosmiques qui le dépassent, il n'est pas pour autant condamné à l'inaction et à l'impuissance. Nous ne ferons pas disparaître ce défi climatique en nous mettant la tête dans le sable mais en le comprenant et en l'affrontant avec toute notre intelligence, notre imagination et notre pugnacité, en nous inspirant de ce qu'écrivait Sénèque il y 2000 ans : "Ce n'est pas parce que c'est difficile que nous n'osons pas mais parce que nous n'osons pas que c'est difficile".

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
gTLD : l'ICANN ouvre les vannes pour les inscriptions
Jeudi, 19/01/2012 - 00:40

L'ouverture des extensions des noms de domaine se concrétise et l'ICANN invite depuis le 12 janvier les personnes intéressées à soumettre leur candidature.

C'est depuis le 12 janvier que les entreprises peuvent demander la création d'un nouveau TLD (Top Level Domain, soit domaine de premier niveau) venant ainsi s'ajouter aux extensions classiques de type .com, .fr, .net ou .org. Bien entendu, le processus n'est pas accessible à tout le monde et le dépôt d'un dossier coûtera à lui seul 185 000 dollars, et après validation par l'ICANN, il faudra ensuite s'acquitter de la somme annuelle de 25 000 dollars pour le garder.

Pour amorcer la procédure, il faudra passer par le TAS (TLD Application System), le mécanisme officiel d'enregistrement et de gestion des TLD. L'ICANN précise qu'avant de pouvoir accéder au TAS, l'entreprise devra préalablement créer un profil et déposer une garantie de 5000 dollars. Cette procédure sera disponible jusqu'au 29 mars. Puis l'accès au TAS sera clôturé au 12 avril prochain.

Les gTDL approuvés par l'ICANN seront mis en circulation l'année prochaine. Retrouvez davantage d'informations sur cette page.

Clubic

Facebook pourrait atteindre le milliard d'abonnés en 2012
Mercredi, 18/01/2012 - 00:30

Aidé par les nouveaux abonnés des pays en émergence, le réseau social Facebook pourrait atteindre d'ici quelques mois le milliard d'abonnés.

Selon Gregory Lyons, analyste pour la firme iCrossing, c'est en août prochain que le cap du milliard d'abonnés sera atteint. «En regardant les données de 2006 à la mi-2008, il semble que Facebook a crû à un rythme exponentiel, toutefois les données les plus récentes suggèrent que Facebook croît maintenant de manière linéaire», écrit l'analyste.

Gregory Lyons estime que la croissance du site de réseautage social a diminué, voire cessé, dans plusieurs pays, dont les États-Unis et la Grande-Bretagne. Mais Mark Zuckerberg et sa bande peuvent remercier des pays comme l'Inde ou le Brésil. En Inde, par exemple, les abonnés sont passés de 22 à 36 millions au cours des neuf derniers mois.  «Ces deux pays ont des millions d'utilisateurs potentiels qui ne se sont pas encore inscrits à Facebook, avec seulement 3 % de la population indienne qui y est et 16 % de la population brésilienne», écrit l'analyste, qui estime que ces pays contribuent «lourdement» à la croissance continuelle de Facebook.

En comparaison, le Canada compte 18 millions d'abonnés à Facebook, soit un peu plus de la moitié de la population du pays.

La dernière fois que Facebook a fait le point sur son nombre d'abonnés, en septembre dernier, le réseau comptait 800 millions d'inscrits.

Cyberpresse

Un algorithme pour aider au dépistage du cancer de l’ovaire
Mardi, 17/01/2012 - 00:00

Le cancer de l’ovaire est en septième position dans l’ordre de fréquence des cancers féminins, affectant chaque année dans le monde 225 000 nouvelles patientes. Pour moins de 30 % d’entre elles, le diagnostic concerne une tumeur de stade I. Ces femmes ont  alors 90 % de chances de survie à 5 ans. Alors que pour la majorité de celles qui sont diagnostiquées au stade III ou IV, seules 20 % et 6 % respectivement survivront à 5 ans.

Le défi posé par le cancer ovarien est donc d’arriver à un diagnostic plus précoce, malgré l’absence de symptômes spécifiques. Pour cela, les praticiens peuvent désormais s’aider d’un algorithme. Une équipe du Royaume Uni vient en effet de publier les résultats de l’étude de validation de cet algorithme.

Près de 2 millions de femmes ont été incluses, les unes (n=1 158 723) dans une cohorte destinée à développer l’algorithme, les autres (n= 508 862) dans une cohorte de validation. Pendant le suivi, 976 cancers ovariens sont survenus dans la première cohorte et 538 dans la seconde. L’algorithme prend en compte les facteurs prédictifs indépendants, signes cliniques notés avec une fréquence particulière dans les 2 ans précédant l’apparition du cancer.

Ainsi, un antécédent familial de cancer de l’ovaire multiplie par 9,8 le risque, l’anémie par 2,3, des douleurs abdominales par 7, une distension abdominale par 23, un saignement rectal par 2, un saignement gynécologique après la ménopause par 6, une perte de l’appétit par 5,2 et enfin une perte de poids par 2. Ces facteurs entrent donc dans l’algorithme. Vient s’y ajouter l’âge de la patiente, le risque de cancer de l’ovaire augmentant en même temps que l’âge. Après validation, l’algorithme s’avère performant en termes de sensibilité, sensitivité, courbe ROC et D-statistique, les 10 % de femmes ayant le risque le plus élevé représentant 63 % de tous les cancers diagnostiqués dans les 2 ans.

Les auteurs précisent que cet algorithme ne fait évidemment pas le diagnostic de cancer ovarien. Mais il peut constituer une aide performante pour le praticien, pour décider si le ou les symptômes allégués justifient de premières investigations, tels que le dosage du CA-125 et une échographie abdomino-pelvienne. Il restera toutefois à en évaluer l’applicabilité en pratique courante, son coût réel et l’impact qu’aura sa mise en œuvre sur le stade de découverte des cancers de l’ovaire.

JIM

La justice devient numérique
Lundi, 16/01/2012 - 00:00

La cour d'appel de Lyon fait partie des premières en France à avoir basculé dans l'ère de la communication électronique pour les échanges entre ses chambres civiles et les avocats, afin d'accélérer le traitement des dossiers. "L'enjeu est d'avoir des conditions de travail plus fiables, plus rapides, de façon à ce que le justiciable bénéficie d'une justice de qualité rendue dans des délais raisonnables", a déclaré le premier président de la cour, Jean Trotel, lors de la signature du protocole de mise en oeuvre de l'outil.

Cinq barreaux (Lyon, Saint-Etienne, Ain, Villefranche-sur-Saône, Roanne) sont concernés, soit près de 3.000 avocats, qui peuvent traiter les affaires précédemment gérées à Lyon par 18 avoués, dont la profession a fusionné au 1er janvier avec celle d'avocat. Depuis le 1er septembre dernier, partout en France, les avocats ne peuvent faire appel des jugements de première instance que par voie électronique. D'ici le 1er janvier 2013, la transmission des autres actes en appel au civil devra se faire par la même voie. La cour d'appel de Lyon a devancé cette échéance, supprimant ainsi totalement le papier durant la phase d'instruction des dossiers.

Deux ans de préparation ont été nécessaires. L'outil permet la consultation en temps réel des dossiers par les avocats, greffiers et magistrats, il réduit les délais de convocation et supprime de fait les audiences dites de "mise en état" où étaient échangées les pièces des dossiers. Le système est sécurisé via l'interconnexion de deux réseaux intranet. Quelque 4.000 affaires à ce stade sont concernées à Lyon chaque année : demandes de remboursement de crédit, divorces, tutelles, liquidations de succession, contentieux de la construction...

Le Parisien

Internet : record du monde de haut débit battu
Dimanche, 15/01/2012 - 00:30

Le câblo-opérateur Numericable et l'équipementier américain Cisco ont annoncé avoir "battu un record du monde de l'accès haut débit" via la fibre en réalisant un accès de 4 gigabits sur une prise murale, alors que la vitesse commerciale grand public est actuellement de 100 megabits en moyenne. "Nous annoncerons au CES", le grand salon de l'électronique grand public à Las Vegas, "que nous avons battu en partenariat avec Cisco le record du monde d'accès grand public", a déclaré à Paris lors d'un point presse Eric Denoyer, PDG de Numericable.

Le précédent record, d'un peu plus de 1 gigabit, était détenu par des Britanniques. Le "record" a été établi au laboratoire de recherches de Numericable à Champs-sur-Marne, en Ile-de-France, a indiqué Eric Denoyer. "Cela démontre que nous avons un réseau très puissant, que notre technologie est prête pour l'avenir et qu'il y a une grande réserve de marge et de puissance", s'est félicité le PDG.

Europe 1

La localisation de capteurs n'a pas besoin de technologie GPS
Samedi, 14/01/2012 - 00:00

Reliés en réseau, les capteurs sans fil permettent de localiser les objets sur lesquels ils sont placés, que ce soit à l’extérieur comme à l’intérieur des bâtiments. Plusieurs systèmes et algorithmes ont déjà été développés dans cet objectif. Mais pour atteindre une bonne précision, la plupart des solutions actuelles requièrent la présence d’équipements matériels spécifiques, ce qui augmente leur coût ou réduit la portée des services applicatifs. En effet, la technologie GPS ne peut pas être retenue : sa consommation électrique est trop importante - il faudrait changer la pile trop fréquemment - et le prix de la solution globale deviendrait trop élevé. Pour y remédier, une équipe de chercheurs de l’université technologique de Dalian, en Chine, a mis au point un système qui réalise un découpage en deux phases du calcul visant à délivrer un repérage granulaire, de plus en plus précis, sans surcoût matériel.

La première phase, dite de partition, divise la région cible en petites grilles élémentaires. La seconde phase procure des informations plus fines sur l’emplacement de l’objet ; donc une localisation plus précise. A ce stade, l'algorithme calcule des coordonnées à l'intérieur de chaque carré (ou rectangle) élémentaire de la grille. Le système développé a fait l’objet d’une démonstration, sur un System on Chip TI Corporation muni d’une pile de communication sans fil Zigbee. Reste qu’il sera toutefois nécessaire de l’associer à d’autres programmes ingénieux pour résoudre le déplacement rapide d’une cible ou encore l’éloignement des nœuds de référence. A noter que les capteurs concernés sont fréquemment embarqués dans des containers, cuves, chauffe-eau, ou photocopieurs d’où ils envoient des informations, via un réseau sans fil. Les données transmises concernent leur position géographique, leur environnement (la température par exemple), le niveau des consommables et l’usure des pièces renouvelables.

Cela permet d’améliorer le service après-vente, d’anticiper certaines pannes et d’optimiser les déplacements des techniciens de maintenance. Les techniques de localisation sont généralement fondées sur la distance et la portée du capteur par rapport à un point d’origine. Plusieurs méthodes permettent d’évaluer la distance entre deux capteurs, en fonction du délai entre les mesures, d’un angle d’arrivée ou encore d’une force de signal. Les coordonnées de l’objet mobile (la cible à repérer) peuvent être ainsi calculées par triangulation ou par estimation « la plus probable ».

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Une armée de robots pour remplacer nos agriculteurs ?
Samedi, 14/01/2012 - 00:30

Plusieurs siècles d’évolutions technologiques ont conduit l'agriculture à une productivité élevée. Que se passera-t-il quand elle commencera à plafonner ? Un passionné américain a développé des robots, appelés Prospero, optimisant l’ensemencement dans les parcelles agricoles pour retarder cette échéance. Son modèle : les insectes !

Rien qu'en France, ils sont des milliers à travailler tous les jours pour produire les fruits, les légumes et les céréales nécessaires à notre santé. Pour y parvenir, les agriculteurs peuvent compter sur plusieurs siècles d’évolution de leurs outils. Malheureusement, arrivera un jour où ils atteindront un rendement maximal. Pourtant, la population mondiale continuera à croître et il faudra bien la nourrir.

C’est pour aider les agriculteurs qu’un entomologiste américain, David Dorhout, a développé des robots autonomes capables d’améliorer le rendement des terres agricoles (et non le travail des producteurs) en optimisant les techniques d’ensemencement. L’inventeur s’est inspiré du comportement social de nombreux insectes pour concevoir des robots, nommés Prospero, travaillant collectivement. Ils communiquent entre eux par infrarouge et se déplacent en groupe pour disperser les graines.

Malgré leur collaboration étroite, les automates savent prendre certaines décisions individuellement. La nature du sol est étudiée par chaque robot avant l'enfouissement d'une graine. En fonction des résultats, les automates choisissent de poursuivre ou non leurs opérations. Ils déterminent aussi le nombre de semences à planter par unité de surface. La distance séparant les semis peut donc varier au sein même d’un champ.

  • Les phéromones de fourmis, modèle des robots Prospero

Pour éviter qu'une même zone soit plantée plusieurs fois, chaque robot marque la position de ses graines par un point blanc. Les autres engins détectent cette indication et passent alors leur chemin. David Dorhout s’est inspiré de la communication chimique chez les fourmis pour mettre au point ce procédé. Lorsque les fourmis repèrent un point d’intérêt, elles libèrent une phéromone, remplacée par la couleur chez les robots, servant de point de repère pour les autres.

L’auteur du concept a souhaité produire un système simple et le moins onéreux possible. Les robots ne sont pas équipés de GPS, qui impose des flux de données assez conséquents. Ils fonctionnent et se localisent uniquement en communiquant entre eux.

Seuls des robots planteurs ont été développés à ce jour. Ce ne sont d'ailleurs que des prototypes qui vont sûrement encore évoluer dans les années à venir. David Dorhout souhaite maintenant mettre au point des automates qui pourront entretenir et récolter les cultures. L’objectif final est de produire un engin autonome pouvant à la fois semer les graines, entretenir les champs et récolter la production.

Des robots spécialisés dans la lutte contre des organismes ravageurs et des plantes envahissantes pourraient également se substituer à l’emploi de produits chimiques et améliorer la qualité phytosanitaire de la production.

L’autonomie des machines est encore limitée. L’inventeur pourrait développer un robot nourrice. Il serait équipé d’un générateur hybride lui permettant de recharger les robots-agriculteurs en pleine action. Les avantages de ces engins sont nombreux. L’augmentation du rendement des champs de quelques pourcents par hectare permettrait aux agriculteurs d'accroître considérablement leur production.

Futura Sciences

^ Haut
Matière
Matière et Energie
Réacteur Myrrha : réduire la toxicité des déchets radioactifs
Lundi, 16/01/2012 - 00:30

Pour la première fois, avec Guinevere1, un réacteur nucléaire rapide au plomb a pu être couplé avec un accélérateur dans la perspective de pouvoir retraiter les déchets radioactifs. Cette première mondiale, réalisée par le Centre d'étude de l'énergie nucléaire belge (SCK-CEN) en collaboration avec le CNRS et le CEA, est une étape importante pour la mise au point de MYRRHA**, démonstrateur d'incinération des déchets nucléaires.

Ces résultats et leurs perspectives ont été présentés mercredi 11 janvier, lors d'une conférence de presse au Siège du CNRS. Installé à Mol (Belgique), Guinevere est la maquette de MYRRHA, premier démonstrateur mondial de "Systèmes Pilotés par Accélérateurs" (ADS) dédiés à l'incinération des déchets nucléaires.

MYRRHA sera construit à Mol pour démontrer la possibilité de transmuter des déchets radioactifs en éléments à durée de vie beaucoup plus courte, voire en éléments stables. "Un ADS consiste en un réacteur nucléaire dit « sous-critique », couplé à un accélérateur de particules. Pour pouvoir fonctionner et produire les neutrons rapides, le réacteur a besoin d’un apport d’énergie extérieur, fourni par l’accélérateur. Avant la construction de Myrrha et sa mise en fonction en 2022-2023, il était indispensable de réaliser des expériences afin d’appréhender  les spécificités d’un ADS. C’est désormais possible grâce à Guinevere."

Guinevere a été construit par trois organismes : le Centre d'étude nucléaire belge pour l'élaboration du réacteur, le CNRS qui a réuni les compétences de quatre de ses laboratoires pour réaliser l'accélérateur de particules "GENEPI-3C" avec sa ligne de faisceau, et le CEA de Cadarache qui a fourni le combustible nécessaire au fonctionnement du système.

Enerzine

Cellectis et Total vont chercher des substituts pétroliers dérivés de microalgues
Dimanche, 15/01/2012 - 00:40

Le pétrolier et l’entreprise d’ingénierie des génomes vont mener ensemble des recherches pendant un à quatre ans.

Cellectis, société française spécialisée dans l’ingénierie des génomes, annonce un accord avec Total, sur le développement de substituts pétroliers dérivés de microalgues. Le programme de recherche comprend une première phase d’une durée d’un an qui pourrait être suivie d’une seconde phase de deux à trois ans. « A long terme, l’exploitation des microalgues pourrait contribuer à compléter l’offre et réduire les impacts environnementaux des marchés de l’énergie et de la chimie », indique Cellectis.

La première phase porte sur la mise au point de méthodes et d’outils d’ingénierie des génomes sur certaines espèces de microalgues sélectionnées pour leurs spécificités. La seconde phase porterait sur l’ingénierie de traits (modifications précises du métabolisme et de l’espèce) pour la production de composés aujourd’hui dérivés du pétrole.

Les coûts de ce programme conjoint seront supportés à 50/50 par les deux entreprises. Les technologies et produits issus de ces travaux seront également détenus à parts égales par Cellectis et Total.

André Choulika, PDG de Cellectis, déclare que « l’enjeu de cette collaboration est considérable, puisqu’il porte sur la mise au point de produits dérivés de ressources biologiques renouvelables pour le marché de l’énergie et celui de la chimie ».

Smartplanet

Cellectis

Stockage de l'énergie solaire : la Corse innove
Samedi, 14/01/2012 - 00:20

À quelques kilomètres d'Ajaccio, dans le maquis, au pied de collines sauvages et face à la Méditerranée, se ­cache une installation de stockage de l'énergie solaire unique en Europe. Après un peu plus de deux années et demie de travail, un large champ de panneaux photovoltaïques a été couplé à un système innovant de production et de stockage d'hydrogène qui permet de compenser l'intermittence inévitable liée à la production d'électricité à partir du ­soleil à une échelle préindustrielle.

Cette plate-forme appelée Myrte a été inaugurée par l'Université de Corse et ses partenaires, l'industriel Helion, filiale d'Areva spécialisée dans les technologies de l'hydrogène, et le Commissariat à l'énergie atomique (CEA). Pour des régions insulaires non raccordées aux grands réseaux électriques,  l'intermittence de la production d'électricité fournie par les énergies renouvelables, que ce soit le solaire ou l'éolien, est l'un des principaux freins à leur implantation à grande échelle.

Les 3700 m2 de panneaux solaires implantés sur le site ont une puissance maximum de 560 kW d'électricité et sont d'une technologie tout à fait courante sur le marché du photovoltaïque.

Les parties réellement innovantes du projet se cachent derrière les panneaux, dans un petit bâtiment discret, peint en ocre pour se fondre au mieux dans le maquis. C'est là que se trouvent les instruments fournis par Helion, dont l'un produit de l'hydrogène à partir de l'électricité solaire tandis qu'un autre le recombine avec de l'oxygène dans une pile à combustible pour produire de l'électricité à la demande. Entre les deux, l'hydrogène et l'oxygène sont stockés dans de grandes cuves blanches pressurisées à 35 bars. La production de gaz s'effectue par simple électrolyse de l'eau, en faisant passer un courant qui sépare l'eau (H2O) en ses deux composants de base, l'hydrogène (H2) et l'oxygène (O2). Ces deux gaz sont stockés en toute sécurité en attendant d'être réutilisés pour produire de l'eau par un procédé inverse, qui émet du courant en recombinant O2 et H2.

«Ce procédé a l'immense avantage d'être absolument propre, et, contrairement aux batteries, ne nécessite aucun élément polluant pour être produit, comme le cadmium ou le lithium, par exemple», explique Jérôme Gosset, PDG d'Helion.

Très compactes, les quatre piles à combustible déjà installées tiennent dans une grosse armoire de deux mètres de haut et produisent un total de 100 kW d'électricité. Une capacité qui sera doublée dans les mois qui viennent avec l'installation par Helion d'un bloc innovant, combinant dans un même boîtier la production d'hydrogène et celle d'électricité.

Le Figaro

Des chercheurs ont créé des fils électriques de 1 x 4 atomes
Samedi, 14/01/2012 - 00:10

Alors que les circuits électroniques se miniaturisent, leur capacité à s'opposer à la circulation d'un courant augmente (résistivité) et il devient alors plus difficile pour une charge électrique de les traverser. Des chercheurs ont cependant réussi à fabriquer des nanofils, hauts de juste 1 atome pour 4 de large, qui transportent une charge électrique aussi bien que les épais fils de cuivre et cela même à basse température.

Bent Weber et ses collègues de l'Université de Nouvelles Galles du sud en Australie ont conçu leurs nanofils en déposant des atomes de phosphore espacés de juste un nanomètre sur une surface de silicium en utilisant un microscope à effet tunnel. Ils sont épais de 1,5 à 11 nanomètres tout en ayant les capacités conductrices du cuivre, montrant ainsi que des propriétés peuvent être conservées jusqu'à l'échelle atomique.

Cette découverte est surprenante car pour la plupart des experts en approchant de l'échelle nanométrique les effets quantiques devaient limiter la possibilité de miniaturiser les circuits électroniques. "Pouvoir effectuer des branchements de fils à cette échelle microscopique sera essentielle pour le développement des futurs circuits électroniques de taille atomique", a prédit Bent Weber.

"Les composants électroniques continuent à voir leur taille se réduire, permettant de construire des ordinateurs de plus en plus petits et plus puissants", a indiqué pour sa part Michelle Simmons, directrice du Centre australien for Quantum Computation and Communication Technology à l'Université de New South Wales. Et d'ajouter, "nous sommes sur le point de créer des transistors de la taille d'un atome mais pour construire un ordinateur quantique opérationnel il faut également que les fils et les branchements entre les composants et les circuits soient aussi de taille atomique."

Créer de tels composants microscopiques a été rendu possible en utilisant une technique appelée microscopie à effet tunnel. "Cette technique, nous permet non seulement  de visualiser des atomes individuellement mais aussi de les manipuler et de les placer dans certaines positions", a expliqué Bent Weber.

Enerzine

Les Smart Grid vont faciliter le commerce local d'énergie
Vendredi, 13/01/2012 - 05:00

Le secteur de l’énergie électrique évolue avec certains utilisateurs capables désormais de produire leur propre énergie et de la revendre localement. Une telle approche ne fonctionnera qu’avec une infrastructure dédiée, baptisée Smart Grid, et qui jouera le rôle de soutien. Mieux, suivant sa topologie et son modèle d’évolution, ce réseau d’énergie intelligent pourra créer l’émergence d’un marché décentralisé de l’énergie. C’est en effet la conclusion du rapport rédigé par deux universitaires aux Pays-Bas. Giuliano Andrea Pagani et Marco Aiello ont d’abord analysé - au sein du groupe de systèmes distribués de l’institut Johann Bernoulli à l’University de Groningen - le réseau électrique hollandais en place aujourd’hui. Ils ont pu ainsi déterminer l’impact économique de ses propriétés topologiques sur le commerce décentralisé de l’énergie.

Plusieurs aspects bénéfiques peuvent découler de l’ouverture de marchés locaux d’énergie : la production d’énergie renouvelable, l’autonomie énergétique des consommateurs-producteurs voire le profit que ces derniers peuvent réaliser à la vente de leur surplus d’énergie. Mais, pour bien comparer les points de vue économiques des infrastructures d’énergie, il faut tenir compte aussi du prix du câblage nécessaire à la connectivité d’une Smart Grid. Le rapport Pagani-Aiello étudie surtout la façon dont les diverses topologies d’infrastructures et leurs propriétés variables peuvent s’adapter, ou non, aux futurs réseaux de type Smart Grids. Leurs travaux s’appuient sur des études portant à la fois sur des réseaux sociaux et sur des infrastructures technologiques.

Plusieurs modèles ont été analysés. En particulier, les auteurs ont examiné les apports topologiques bénéfiques à la distribution de courant électrique à l’échelle locale. Leur enquête statistique porte aussi sur les propriétés d’échantillons de câbles destinés à soutenir des courants de faible et moyen voltage, afin d’estimer les investissements nécessaires. Bien que des bénéfices significatifs, selon les propriétés topologiques du réseau, soient mis en évidence, la quantification économique reste complexe car la réalisation d’une grille très interconnectée - fût-elle de faible voltage - requiert un investissement conséquent. Le travail réalisé à Groningen pourra cependant servir de validation d’infrastructures en place, voire de soutien ou d’aide à la décision lors d’une prochaine migration d’infrastructure électrique vers une Smart Grid. Il pourra contribuer aussi à prédire l’impact d’un changement de topologie sur certains modèles réseaux, notamment du point de vue de l’efficacité, de la robustesse et de la tolérance aux pannes.

L'Atelier

^ Haut
Espace
Espace et Cosmologie
HumaNav : une offre de service innovante aux agences humanitaires
Jeudi, 19/01/2012 - 00:30

Le nouveau service HumaNav de la PME Novacom Services, application de technologies spatiales à une flotte de véhicules humanitaires, a bénéficié d’une aide financière du CNES. La phase de commercialisation en cours remporte un fort succès.

  • Des technologies spatiales au profit de l'humanitaire

« Humanav est un exemple concret de nouveau service de gestion de flotte de véhicules humanitaires utilisant les systèmes spatiaux et adressant un marché en forte croissance. » constate Pascal Faucher, responsable des applications spatiales Nations Unies au CNES.

Le projet, porté par la PME innovante Novacom Services à Toulouse, a été sélectionné en 2008 par le CNES à la suite d’un appel à projets sur les applications spatiales. Son objectif : équiper les véhicules humanitaires de technologies spatiales (GPS, télécommunication, cartographie) pour garantir la sécurité des personnes lors de leurs déplacements dans des régions à risques. Dans le même temps, l'amélioration de la gestion de la flotte de véhicules assure aux agences humanitaires des économies d’essence appréciables à l’heure de la flambée des prix du pétrole.

Les nombreux atouts et attraits de Humanav, comme son intérêt sociétal et ses partenariats multi-acteurs, ont amené le CNES à le soutenir à des fins de politique publique. L’aide financière accordée, d’un montant de 200 K€, a servi à équiper 100 véhicules 4x4 de terminaux GPS, de moyens de télécommunications par satellite et d’un système d'alerte.

Déployée à partir de 2009 pendant 12 mois sur 6 sites pilotes - Tchad, Soudan, Ouganda, en partenariat avec le HCR et Côte d'Ivoire, Zimbabwe et Népal avec le CICR - la phase de démonstration a prouvé la viabilité technique et économique du nouveau service HumaNav.

  • Nations Unies et organisations internationales : un potentiel économique pour les PME

La phase de commercialisation qui a succédé, rencontre un fort succès et étend le développement de l’entreprise Novacom Services à l’international. Faire du secteur des applications spatiales un marché porteur passe aussi par la rencontre avec celui des Nations Unies et des organisations internationales. « Faire émerger ou accompagner, à des fins de politique publique, des entreprises innovantes qui utilisent des services et des applications spatiales à valeur ajoutée sur le marché commercial fait partie des missions du CNES. » souligne Pascal Faucher. «Avec les Nations Unies, ces deux finalités sont souvent réunies.»

2 autres projets de services sont en cours d’étude aux Nations Unies :

- Le projet NOMAD, service de collecte de données pour la gestion et le suivi de l’aide alimentaire, sélectionné lors de l’appel à projets 2010. Il est actuellement déployé dans les Weredas, districts pauvres d’Ethiopie, en partenariat avec le PAM (Programme Alimentaire Mondial) des Nations Unies.

- Le projet de Charte Internationale cible, lui, la mise à disposition de ressources de télécommunications d'urgence par satellite en cas de catastrophes humanitaires.

CNES

Une planète pour chaque étoile de la Voie Lactée
Mercredi, 18/01/2012 - 00:40

Dans la Voie Lactée, une planète au moins gravite autour de chaque étoile. Cette estimation de l'abondance des planètes hors du Système Solaire a été obtenue grâce à l'étude statistique menée par Arnaud Cassan, chercheur à l'Institut d'Astrophysique de Paris (UPMC/CNRS), dans le cadre d'une collaboration internationale. Elle met en évidence une forte proportion de planètes cousines de la Terre par leur masse.

Publiés le 12 janvier dans la revue Nature, ces résultats sont le fruit de six années d'observations de millions d'étoiles à l'aide d'une méthode performante basée sur l'effet de microlentille gravitationnelle.

En dehors des huit planètes du Système Solaire, celles qui sont dispersées dans la Voie Lactée (les exoplanètes) sont-elles abondantes ou rares ? Pour répondre à cette question fondamentale en astronomie, les auteurs se sont appuyés sur des observations réalisées de 2002 à 2007 par un réseau mondial de télescopes dans le cadre des collaborations OGLE et PLANET. Deux laboratoires français sont impliqués dans l'étude publiée, l'Institut d'Astrophysique de Paris (UPMC/CNRS) et l'Institut de Recherche en Astrophysique et Planétologie (CNRS/Université Toulouse III - Paul Sabatier).

Les observations étaient fondées sur la technique de microlentille gravitationnelle, qui repose sur l'amplification apparente de l'éclat d'une étoile d'arrière-plan lorsqu'un corps plus proche traverse sa ligne de visée. Évitant le biais des autres méthodes existantes (la technique des vitesses radiales et celle des transits), elle a permis d'observer des planètes même très éloignées de leur étoile, sans se limiter aux planètes massives ou proches de leur étoile.

Les astronomes ont combiné les informations obtenues grâce au suivi de millions d'étoiles à des résultats existants. Leur étude statistique a ainsi permis de relier le nombre de planètes par étoile, leur masse et la distance entre une étoile et une planète. Leurs travaux ont établi que le nombre d'exoplanètes est au moins égal au nombre d'étoiles dans la Voie Lactée. Ils ont également démontré qu'environ un sixième des étoiles ont pour compagnon une planète géante de type Jupiter, environ la moitié d'entre elles sont accompagnées d'une planète similaire à Neptune, et qu'environ deux tiers des étoiles sont associées à des super-Terres (cousines de la Terre mais 5 à 10 fois plus massives). Cette étude suggère que de nombreuses planètes semblables à la Terre pourraient exister et être découvertes dans les années à venir.

CNRS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Réchauffement climatique : une réponse rapide mais retardée des oiseaux et papillons d'Europe
Mercredi, 18/01/2012 - 00:00

Mesurer l'impact du changement climatique sur la biodiversité n'est pas une tâche aisée. Menée par Vincent Devictor du CNRS de Montpellier, sous la coordination de Frédéric Jiguet du Muséum national d'Histoire naturelle de Paris pour les oiseaux, une étude montre pour la première fois que les oiseaux et les papillons répondent rapidement au changement climatique mais de façon retardée. Cette étude est le fruit d'une collaboration sans précédent avec de nombreux chercheurs européens. Elle a été publiée récemment dans la revue Nature Climate Change.

En 20 ans, les températures ont augmenté en Europe de 1°C, décalant les températures de 249 km vers le Nord. Les papillons ont également « glissé » vers le Nord mais en accumulant un retard de près de 135 km sur les températures. Ce retard est encore plus grand pour les oiseaux, avec 212 km de décalage.

Cette étude, basée sur l'étude de 9490 communautés d'oiseaux et 2130 communautés de papillons, illustre à quel point les changements climatiques réorganisent rapidement et profondément la composition de la faune en Europe, avec d'inquiétants décalages dans la réponse de différents groupes d'espèces.

En effet, ces décalages laissent présager de profonds changements dans les réseaux d'interactions entre espèces et entre groupes. Ces chercheurs ont bénéficié de données récoltées par des milliers de naturalistes bénévoles, totalisant plus d'un million et demi d'heures passées sur le terrain depuis plus de vingt ans pour compter papillons et oiseaux. Cette étude a en outre permis de valider un indicateur d'impact du changement climatique sur la biodiversité directement utilisable au niveau national et international.

CNRS

La fin des glaciations ?
Dimanche, 15/01/2012 - 00:00

Une équipe internationale de climatologues a en effet conclu que le gaz carbonique envoyé par les humains dans l'atmosphère empêchera une nouvelle glaciation, alors que, normalement, elle devrait commencer d'ici 1500 ans. Mais ce n'est pas nécessairement une bonne nouvelle, affirme l'un des chercheurs, Luke Skinner, de l'Université de Cambridge. «Si nous sommes en train d'essayer d'éviter une ère glaciaire, nous essayons trop fort», a-t-il dit en entrevue à la BBC. Selon Lawrence Mysak, professeur émérite de météorologie à l'Université McGill, cette recherche s'ajoute à d'autres qui montrent qu'il n'y aura plus de glaciation du tout. «Ce qui est probable, c'est la fin des glaciations en général, dit-il en entrevue à La Presse. Au cours des 500 000 prochaines années, il n'y aura pas de calotte glaciaire sur l'Amérique du Nord et le nord de l'Europe.»

«Cela signifie aussi probablement la fonte de la calotte glaciaire du Groenland d'ici quelques centaines ou quelques milliers d'années, ajoute-t-il, ce qui ferait augmenter de sept mètres le niveau des océans.» Depuis plus de 2 milliards d'années, la Terre est frappée périodiquement par des ères glaciaires. Pendant celles-ci, des montagnes de glace se forment et s'étendent vers l'Équateur, ce qu'on appelle une glaciation. Puis, les glaciers reculent temporairement pendant ce qu'on appelle une période interglaciaire. Il peut y avoir plusieurs glaciations et périodes interglaciaires au cours d'une ère glaciaire. Nous vivons actuellement une période interglaciaire qui dure depuis 11 000 ans et nous sommes au sein de la cinquième ère glaciaire, qui a commencé il y a 2,5 millions d'années.

Les causes des ères glaciaires et des glaciations sont encore débattues. Mais au moins deux facteurs entrent en ligne de compte : des changements de l'orbite de la Terre autour du Soleil, qui changent l'ensoleillement, et le taux de gaz à effet de serre (GES) dans l'atmosphère. Les 800 000 dernières années sont mieux connues à cause des carottes de glace recueillies en Antarctique qui ont permis d'obtenir des échantillons d'atmosphère du passé, dans des bulles emprisonnées dans la glace. La nouvelle recherche publiée récemment dans la revue Nature Geophysics compare une période interglaciaire survenue il y a 780 000 ans avec la période actuelle, parce qu'elles sont similaires en ce qui concerne l'ensoleillement. Conclusion des chercheurs : si le taux de gaz carbonique (CO2) se situait à un taux «normal» de 240 parties par millions (ppm), une glaciation serait sur le point de se déclencher. Mais ce taux est actuellement de 390 ppm.

Ce n'est pas la première fois que les climatologues se penchent sur la question. Il y a quelques années, le chercheur William Ruddiman avait même postulé que l'être humain a influencé le climat planétaire bien avant l'ère industrielle, avec l'avènement de l'agriculture. La recherche publiée confirme en partie les postulats de M. Ruddiman. «Cet impact subtil aurait pu à lui seul être suffisant pour empêcher le déclenchement d'une glaciation», dit M. Skinner. La recherche confirme à quel point l'humanité a pris le contrôle du climat planétaire, selon plusieurs chercheurs qui ont réagi à la nouvelle, notamment sur le blogue Dot Earth du New York Times. «Notre CO2 a un impact important sur le climat et cet impact va durer longtemps», affirme Richard Alley, de l'Université de l'État de la Pennsylvanie.

«C'est pourquoi il faudrait renommer l'ère géologique actuelle et l'appeler anthropocène, ou l'ère de l'homme», affirme de son côté M. Mysak. Certains notent toutefois que le manque de connaissances sur les ères glaciaires du passé limite l'utilité de cette recherche pour prédire l'avenir. Mais en l'absence de toute mesure contraignante sur les émissions de gaz à effet de serre, les scientifiques prédisent que le réchauffement dépassera les 2°C d'ici à 2100 et atteindra peut-être les 4°C, avec des conséquences jugées catastrophiques. «Ce que montre notre recherche, c'est que le système climatique est très sensible aux petits changements dans le taux de CO2 dans l'atmosphère, sans parler des énormes changements dont nous sommes responsables depuis 200 ans», dit M. Skinner.

Cyberpresse

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer de la prostate : un gène qui multiplie par vingt le risque !
Jeudi, 19/01/2012 - 00:20

Des chercheurs du Johns Hopkins viennent de découvrir la première mutation génétique majeure associée à une augmentation spectaculaire, par 10 à 20, du risque de cancer de la prostate héréditaire. Cette découverte qui marque l’aboutissement d’une vingtaine d’années de recherche pour trouver un pilote génétique pour le cancer de la prostate, en particulier quand il frappe les hommes plus jeunes et décime des familles, est publiée dans l’édition du 12 Janvier du New England Journal of Medicine.

"C'est la première des principales variantes génétiques associée au cancer héréditaire de la prostate», explique le Docteur Kathleen A. Cooney, professeur de médecine interne et d’urologie, l’un des auteurs de l’étude. Ces chercheurs de l'université Johns Hopkins et de l'Université du Michigan constatent que les hommes héritiers de cette mutation ont un risque 10 à 20 fois supérieur de développer un cancer de la prostate.

Par ailleurs, même si elle ne concerne directement que les formes héréditaires, cette recherche apporte d'importants indices sur la façon dont le cancer se développe d’une manière générale et contribue à identifier une typologie d’hommes qui pourraient bénéficier d'un dépistage supplémentaire ou plus précoce. En particulier dans le contexte actuel où le principe d’un dépistage de masse à 50 ou 60 ans est fortement remis en cause.

Pour cette étude, les chercheurs ont collaboré avec le Translational Genomics Research Institute (TGen) à Phoenix (Arizona) afin de bénéficier des dernières technologies pour l’analyse génomique de plus de 200 gènes dans une région du chromosome humain appelée 17q21-22. Cette région du chromosome et son lien éventuel avec le cancer de la prostate avait été identifié par des chercheurs de l'Université de Caroline du Nord. Des échantillons ont été prélevés sur de jeunes patients atteints de cancer de la prostate appartenant à 94 familles présentant de multiples cas de la maladie entre pères et fils ou entre frères.

La mutation du gène HOXB13 : Il se trouve que les membres de 4 familles différentes présentaient la même mutation dans le gène de HOXB13, qui joue un rôle important dans le développement de la prostate au stade fœtal et sur sa fonction plus tard dans la vie. La mutation s’est avérée présente chez tous (18) les hommes ayant un cancer de la prostate dans ces familles.

Les chercheurs ont ensuite vérifié la présence de cette mutation du gène HOXB13 sur 5.100 hommes traités pour un cancer de la prostate. La mutation a été identifiée chez 72 hommes, soit 1,4 % des patients touchés. Cette mutation est spécifique, car sur un groupe témoin de 1.400 hommes « sains », elle n’est présente qu’une seule fois. "Nous constatons que la mutation est significativement plus fréquente chez les hommes ayant des antécédents familiaux et dans le cadre de diagnostics précoces avant 55 ans ».

Des tests génétiques pour toutes les formes héréditaires de cancer de la prostate ? L’objectif des chercheurs est de poursuivre les études pour développer des tests génétiques qui « couvriraient » toutes les formes héréditaires de la maladie. La prochaine étape sera de développer un modèle de souris présentant cette mutation pour voir si la mutation provoque systématiquement le développement du cancer de la prostate.

Santé Log

Un gène qui freine le cancer du sein
Jeudi, 19/01/2012 - 00:10

Un travail publié en ligne dans Cancer Discovery fournit une nouvelle preuve convaincante selon laquelle le gène 14-3-3a empêche la progression des tumeurs.

Le travail des scientifiques du Centre de recherche Goodman sur le cancer de l'Université McGill appuie l'hypothèse selon laquelle le gène 14-3-3a joue un rôle essentiel dans l'interruption du déclenchement et la progression du cancer du sein. Des observations antérieures ont montré que le gène 14-3-3a ne s'exprime pas pour une majorité de patients atteints du cancer du sein. Les scientifiques soupçonnaient que ce gène empêchait la scission de cellules cancéreuses, l'équipe du Docteur William Miller a voulu confirmer cette hypothèse.

A l'aide d'un modèle de souris transgénique exprimant l'oncogène ErbB2, associé aux cancers du sein agressifs, les chercheurs ont désactivé le gène 14-3-3a dans la glande mammaire. Ils ont ensuite observé que la perte de cette expression entraînait l'accélération radicale de l'apparition d'une tumeur. "Les gènes 14-3-3a et ErbB2 coopèrent, le premier agissant comme un frein", explique William Muller, du Département de biochimie, "sans ce frein, l'ErbB2 peut induire la scission indéfinie des cellules. Par ailleurs, non seulement la capacité de ces cellules à se fractionner augmente-telle, mais elles deviennent métastatiques et peuvent envahir des zones distantes."

Bulletins Electroniques

Un pas de plus vers le traitement du cancer du côlon
Jeudi, 19/01/2012 - 00:00

Des chercheurs de l'Université suisse de Fribourg ont identifié un nouveau gène suppresseur de cancer, capable d'empêcher la croissance de tumeurs du côlon et de prévenir la formation de métastases. Ce gène est induit par les médicaments anti-inflammatoires mais comme ceux-ci ont des effets secondaires importants, il faut maintenant rechercher un moyen d'activer ce nouveau gène autrement que par la prise d'anti-inflammatoires.

Le groupe de recherche de l'Université de Fribourg dirigé par le professeur Curzio Ruëgg, et en particulier Jelena Zaric, maître-assistante, a cherché comment obtenir les effets anti-tumoraux des anti-inflammatoires tout en évitant les effets secondaires. Elle a collaboré avec l'Université de Lausanne afin d'identifier les gènes modifiés par ces médicaments et capables de freiner l'expansion du cancer du côlon.

En utilisant des techniques moléculaires de profilage génétique, elle a constaté que les anti-inflammatoires induisent un gène nommé MAGI1 dans les cellules du cancer du côlon. Ce gène agit comme suppresseur de tumeur en forçant les cellules malignes à devenir plus bénignes. Ce gène détruit également la capacité d'invasion des cellules cancéreuses et leur capacité à former des métastases. Les chercheurs étudient maintenant la capacité de MAGI1 à prévenir la formation de polypes, les tumeurs bénignes qui précèdent l'apparition d'un cancer colorectal.

Un cancer peut se développer à la suite d'une inflammation chronique stimulée par des facteurs environnementaux, comportementaux ou alimentaires, comme le tabagisme, les fibres d'amiantes pour le poumon, les infections chroniques pour l'estomac ou le foie, ou une alimentation riche en graisses pour l'intestin, le pancréas, le sein ou la prostate. La prise régulière sur plusieurs années de médicaments anti-inflammatoires non stéroïdiens comme l'aspirine réduit le risque de développer certaines tumeurs, dont les quatre cancers les plus fréquents : sein, côlon, poumon et prostate.

Metro

Urostation : une technique prometteuse pour dépister le cancer de la prostate
Mercredi, 18/01/2012 - 00:20

Aujourd’hui, le cancer de la prostate est diagnostiqué sur des biopsies (douze prélèvements) réalisées à l’aide d’un appareil d’échographie standard. Cette technique a malheureusement des limites car dans 10 à 30 % des cas, la maladie peut passer inaperçue.

Dans ce contexte, cette clinique privée de Toulouse s’est dotée depuis peu d’un nouveau système, fabriqué par la société Koelis, « qui permet d’accroître la fiabilité de cet examen : l’Urostation ». Ce dernier permet de localiser les zones biopsiées en trois dimensions (3D) avec une grande précision.

Les images échographiques de la prostate, qui guident le geste, sont fusionnées aux images IRM acquises préalablement. La zone suspecte à l’IRM est ainsi accessible aux biopsies. Elle permet aux médecins de cibler exactement les points de prélèvements, de réaliser un suivi du patient, de choisir et planifier un traitement adapté.

« Ce dispositif est incontestablement un des piliers du traitement ciblé du cancer, autorisant une prise en charge mini invasive dans le souci de diminuer les contraintes thérapeutiques pour le patient » affirme encore l’établissement qui précise qu’il est le deuxième en France à posséder ce système.

L'hypertrophie bénigne de la prostate ou adénome prostatique est une pathologie extrêmement répandue et une cause fréquente de troubles urinaires chez l’homme de plus de 50 ans (un homme sur deux entre 60 et 69 ans est concerné). Elle se caractérise le plus souvent par une augmentation de volume de la prostate.

La résection endoscopique de prostate, qui consiste à réséquer l’adénome sous forme de copeaux par voie naturelle, est la technique la plus utilisée. Toutefois, des alternatives à cette chirurgie classique existent dont la vaporisation ou la résection laser.

La Clinique Pasteur a opté pour cette technique d’opération au laser avec la nouvelle génération du Greenlight. L’établissement s’annonce comme le premier centre en Midi-Pyrénées à se doter de cet équipement.

Senior Actu

Hépatite C : le vaccin de l'espoir !
Mercredi, 18/01/2012 - 00:10

D’après les résultats d’un essai clinique mené en Grande Bretagne, un vaccin expérimental pourrait permettre à terme de lutter efficacement contre la propagation de l’hépatite C, maladie chronique dont 237 00 français sont atteints. Les travaux, qui ont été financés par l’Union européenne, le Medical Research Council britannique, le Welcome Trust et les NIH, viennent d’être publiés dans la revue Science Translational Medicine.

Maladie infectieuse transmissible par le sang, l’hépatite C est causée par un virus (VHC) qui s’attaque au foie. Souvent asymptomatique, elle se caractérise comme son nom l’indique par une inflammation de cet organe et des lésions hépatiques. Dans certains cas, la maladie devient chronique et peut évoluer en cirrhose, voire en cancer du foie. Actuellement, s’il n’existe aucun vaccin préventif, des médicaments permettent toutefois de réduire les symptômes. Ces derniers ont une efficacité qui varie en fonction de la souche virale. Toutefois, les experts estiment que 20 % des personnes infectées ont une immunité innée contre le VHC et l’éliminent dans un délai de 6 mois. En France, on estime que chaque année 2 700 à 4 400 personnes contractent la maladie et 2 600 meurent des ces conséquences.

Dans ce contexte, l’arrivée d’un vaccin efficace est particulièrement attendue. Jusqu’à présent, les tentatives n’ont pas été fructueuses. Paul Klenerman et ses collègues des universités d'Oxford et de Birmingham ont fabriqué un vaccin à partir de petits morceaux d'ADN du virus de l'hépatite C qu’ils ont insérés dans une forme rare du virus qui cause le rhume. L’originalité de ces travaux, c’est que les chercheurs ont utilisé de l’adénovirus de Chimpanzé. Une fois le vaccin concocté, les chercheurs ont recruté 41 volontaires sains afin de tester l’innocuité du traitement, ainsi que le dosage nécessaire pour qu’il soit efficace.

Les premiers résultats semblent concluants. Aucun effet secondaire grave n’a en effet été constaté. Plus intéressant encore, la réponse immunitaire induite par la dose optimale déterminée pour le vaccin est similaire à celle observée chez les patients ayant une immunité naturelle contre le virus. Un an après l’injection du traitement, des anticorps sont toujours présents chez les personnes immunisées.

Information Hospitalière

Science

Les premiers singes chimériques sont nés !
Mardi, 17/01/2012 - 00:30

Trois singes chimériques, composés de l’ADN de six cellules souches embryonnaires différentes, viennent de voir le jour aux États-Unis. L'innovation ouvre de nouvelles perspectives dans les thérapies reposant sur les cellules souches.

C’est une première mondiale. Si l’on avait déjà réalisé des animaux chimériques depuis les années 1960, le succès s’était limité aux souris, rats, lapins, moutons et vaches. Désormais, une étape supplémentaire a été franchie puisque la performance a été réalisée chez des primates. Ce qui n’était pas une mince affaire…

En effet, chez des souris, l’expérience était réussie lorsqu’on injectait des cellules souches embryonnaires dans un blastocyste. Mais chez les singes, cela ne fonctionne pas car ces cellules ne sont que pluripotentes et non totipotentes. Le palier est désormais franchi, et des chercheurs du Centre national de la recherche sur les primates de l’université d’Oregon viennent de dévoiler la recette de leur réussite sur le site Internet de la revue Cell, avant publication dans la version papier le 20 janvier.

  • Trois macaques chimériques avec six génomes différents

Cette fois, les biologistes ont agi plus tôt, en prélevant les cellules embryonnaires totipotentes de plusieurs macaques rhésus différents, récupérées lors du stade 4 cellules (une des toutes premières phases du développement de l’embryon). Entre 3 et 6 cellules provenant d'embryons différents ont été collées ensemble pour créer 29 blastocystes chimériques. Les chercheurs ont ensuite gardé les 14 qui paraissaient les plus solides pour les implanter dans 5 femelles macaques. Toutes ont démarré une gestation mais les chercheurs n'ont laissé se développer que trois petits.

« Les cellules ne fusionnent pas mais travaillent ensemble à l’élaboration des tissus et des organes » commente Shoukhrat Mitalipov, l’un des auteurs de l’étude. Après 5 mois et demi de gestation, trois petits macaques rhésus (Macaca mulatta) ont vu le jour, en pleine forme et en bonne santé. Les scientifiques les ont affublés de noms à la hauteur de la performance. Chimero d’abord. Roku et Hex ensuite, deux (faux) jumeaux, dont les noms signifient 6 en japonais et en grec, pour rappeler le nombre de lignées embryonnaires différentes qui les composent. Pour l’anecdote, tous sont biologiquement des mâles mais Roku présente des cellules femelles dans son organisme.

  • Des singes qui ont beaucoup à nous apprendre

Ce genre d’expérience n’a pas été tenté pour le plaisir ou la gloire. Jusque-là, on utilisait le modèle murin pour réaliser des expériences thérapeutiques à base de cellules-souches. Or, la transposition à l’Homme pose de nombreux problèmes du fait de l’éloignement phylogénétique entre les deux espèces. Par cette performance, on s’approche davantage de la compréhension du fonctionnement des cellules souches dans l’espèce humaine.

«Nous ne pouvons pas tout modéliser à partir de la souris, ajoute Mitalipov. Si nous voulons extrapoler les thérapies cellulaires des laboratoires à la clinique et de la souris à l’Homme, nous devons absolument saisir ce que ces cellules de primates peuvent et ne peuvent pas faire.»

Les thérapies cellulaires visent à remplacer un tissu mort ou malade par un neuf et en bonne santé. Cela concerne donc de nombreuses maladies, de Parkinson au cancer en passant par le diabète. Actuellement, même si certains traitements sont appliqués avec succès, ils restent limités par des lacunes persistantes. Ces petits singes pourraient nous en apprendre beaucoup sur nous-mêmes…

Futura Sciences

L'ANRS va expérimenter un traitement préventif contre le SIDA
Mardi, 17/01/2012 - 00:20

Le CHU de Lyon va participer à un essai de prévention inédit en France. L’essai « ANRS IPERGAY » déterminera si un traitement antirétroviral intermittent pris durant les périodes d’activité sexuelle, associé à une stratégie globale et renforcée de prévention, peut réduire le risque d’être infecté par le VIH. La région Rhône-Alpes est de longue date engagée dans la lutte contre le VIH/sida. Les laboratoires de recherche, les centres hospitaliers et les associations de lutte contre le sida se sont mobilisés dès le début de l’épidémie dans la prévention, la recherche et la prise en charge de l’infection. Le CHU de Lyon y participe toujours activement au sein de ses hôpitaux et des laboratoires de recherche qui lui sont associés. Les maladies infectieuses sont un des cinq thèmes prioritaires du CHU.

Environ 6.700 patients vivant avec le VIH sont suivis dans les centres hospitaliers régionaux, dont 3 307 au CHU de Lyon. La région Rhône-Alpes est la troisième en métropole pour le nombre de cas nouvellement détectés chaque année, après la région parisienne et la région PACA. En 2010, on y estimait à 234 le nombre de découvertes de séropositivité pour l’année. La contamination par voie homosexuelle représente plus de la moitié des nouveaux cas.

« Ces chiffres montrent que la région Rhône-Alpes paie toujours un lourd tribut à l’épidémie », déclare le Docteur Laurent Cotte, CHU de Lyon. « c’est la raison pour laquelle nous devons continuer à innover, pour réduire l’infection, en particulier parmi les populations les plus exposées au risque » poursuit-il.

Le CHU de Lyon va ainsi participer à l’essai ANRS IPERGAY. Cet essai s'adressera à des hommes et des trans’ séronégatifs ayant des relations sexuelles avec d’autres hommes. Il leur sera proposé une stratégie globale et renforcée de prévention (préservatifs, dépistages réguliers du VIH, dépistages réguliers et traitements des IST, vaccination contre les hépatites A et B) accompagnée de la prise d’un médicament antirétroviral ou son placebo,

Les participants pourront bénéficier, s’ils le souhaitent, de conseils personnalisés de prévention. L’essai se déroulera, pour la région Rhône-Alpes, à Lyon dans le centre d’Information et de Dépistage Anonyme et Gratuit (CIDAG) de l’Hôpital de la Croix-Rousse. Il se déroulera en parallèle, à Paris, à l’Hôpital Saint-Louis et à l’Hôpital Tenon. 300 volontaires seront recrutés dans la phase pilote de l’étude, à partir de fin janvier.

ANRS

Des chercheurs toulousains de l’INRA découvrent le gène responsable de l’épilepsie du poulet
Mardi, 17/01/2012 - 00:10

Le laboratoire de Génétique Cellulaire (INRA-ENVT) et ses collaborateurs (INRA de Jouy-en-Josas et Nouzilly) ont identifié le gène responsable de l’épilepsie photosensible chez la poule par « cartographie génétique, séquençage et analyse fonctionnelle » indique l’INRA Toulouse.

« Il existe chez l’homme une forme particulière d’épilepsie : l’épilepsie réflexe photosensible, généralement provoquée par une stimulation lumineuse épisodique comme les lumières stroboscopiques ou certains jeux vidéo. Il s’agit de la plus commune des épilepsies réflexes humaines. L’objectif de ces travaux était de comprendre le dysfonctionnement à l’origine de l’épilepsie. Pour cela, les chercheurs de l’INRA ont pris comme modèle une lignée de poulets naturellement épileptiques. Le déterminisme génétique de cette épilepsie photosensible avait été identifié comme étant dû à une mutation spontanée récessive, dénommée Fepi. Mais la nature du gène atteint était inconnue » explique-t-on chez les chercheurs.

Grâce à de nombreuses collaborations (au sein de l’INRA, mais également avec le CNRS et l’INSERM), les chercheurs ont pu maintenir et caractériser une lignée de poules portant la mutation Fepi.  Plusieurs familles de poulets ont été produites à l’INRA pour localiser le gène responsable de cette épilepsie, ce qui a pu être réalisé fin 2005 grâce au développement de nouveaux marqueurs génétiques sur un microchromosome encore mal connu.

La localisation fine de la mutation a conduit à mettre en cause le gène SV2A (Synaptic Vesicle Glycoprotein 2A). Le séquençage de l’ensemble du gène a ensuite été entrepris. Parmi les mutations détectées, une mutation candidate a été mise en évidence dans l’intron 2 du gène, qui en modifie l’expression. La protéine SV2A est la cible d’un médicament anti-épileptique, le levetiracetam. La mutation Fepi est un bon modèle de l’épilepsie photosensible chez l’homme. « Ce gène SV2A est donc un excellent candidat pour l’étude des formes génétiques de cette épilepsie chez l’homme et pour la compréhension des mécanismes en cause, en vue d’une amélioration potentielle des traitements existants. La mutation a fait l’objet d’un dépôt de brevet » se réjouissent les chercheurs de l’INRA.

Toulouse 7

Manger du poisson rend intelligent
Lundi, 16/01/2012 - 00:20

Les femmes enceintes peuvent-elles renforcer la capacité cérébrale des enfants en mangeant des poissons ? Les résultats d'une étude, présentées dans la revue American Journal of Clinical Nutrition, montrent que les enfants nés de femmes ayant consommé beaucoup de poissons pendant leur grossesse obtiennent de meilleurs résultats dans les tests d'intelligence verbale, possèdent de bonnes compétences motrices et présentent un comportement très social. Les résultats proviennent du projet NUTRIMENTHE («Effect on diet on the mental performance of children»), soutenu à hauteur du thème «Alimentation, agriculture et pêches, et biotechnologie» du septième programme-cadre (7e PC) à hauteur de 5,9 millions d'euros.

Les poissons gras sont la principale source d'oméga-3 tels que l'acide docosahexaénoïque (DHA) ; un composant structurel essentiel aux cellules et particulièrement aux membranes cellulaires du cerveau. La Commission européenne soutient que la DHA «contribue au développement normal du cerveau et des yeux des foetus et des nouveau-nés nourris au sein». (EFSA Journal 2011)

Dans le cadre de l'étude NUTRIMENTHE, les chercheurs ont étudié comment le poisson atténue les effets et la variation génétique du pouvoir mental. Les partenaires du projet se sont concentrés principalement sur les polymorphismes dans le regroupement génétique (FADS) des désaturases d'acides gras qui code les enzymes delta-5 et delta-6 désaturase impliquées dans la synthèse des acides gras oméga-3 et des oméga-6.

Grâce à des échantillons de sang prélevés sur plus de 2000 femmes à 20 semaines de grossesse et provenant du cordon ombilical à la naissance, les chercheurs ont évalué les acides gras oméga-3 et 6 et le génotypage de 18 polymorphismes de nucléotides simples de désaturases d'acides gras. L'équipe a administré des acides gras oméga-3 et 6 aux foetus par transfert placentaire par le cordon ombilical. Mais les chercheurs n'ont toujours pas étudié comment les génotypes des désaturases de la mère et de l'enfant influencent les taux d'acides gras.

Le Docteur Eva Lattka du Helmholtz Zentrum München, le centre allemand de recherche pour la santé environnementale, et son équipe ont découvert que le regroupement génétique FADS affecte les acides gras des femmes enceintes. Selon les chercheurs, la composition des acides gras dans le sang ombilical, la composition des acides gras dans le sang du cordon ombilical a besoin des génotypes de la mère et de l'enfant, ainsi, les génotypes maternels sont principalement associés aux précurseurs d'oméga-6, et ceux de l'enfant aux produits d'oméga-6. Ils ont également découvert que les quantités de DHA étaient associées aux génotypes de la mère et de l'enfant.

«Il y a donc une plus grande contribution à la synthèse des acides gras d'oméga-6 par le foetus par rapport à nos estimations antérieures ; Les taux de DHA dépendent du métabolisme de la mère et de l'enfant», commente le Docteur Lattka. «La DHA apportée par la mère serait très importante.»

Dans une étude antérieure, les chercheurs avaient découvert que la consommation de poisson pendant la grossesse est associée à un quotient d'intelligence (QI) verbale élevé à l'âge de 8 ans, mais qu'apporte exactement le poisson pour garantir cet effet ? L'étude a identifié que la consommation de poisson est associé à des taux maternels élevés de DHA, mais aucune donnée n'a indiqué si les taux maternels de DHA étaient directement associés à des conséquences pour les enfants. Le projet NUTRIMENTHE, qui devrait s'achever en 2013, tentera de répondre à cette lacune.

Cordis

Des anticorps inhalables contre les virus !
Lundi, 16/01/2012 - 00:10

Ablynx, spin-off de l’Université libre de Bruxelles et de l'Institut flamand pour la biotechnologie (VIB), entre en phase clinique pour son traitement ALX-0171, dirigé contre le virus respiratoire syncytial (VRS). Cet agent pathogène est le principal responsable des bronchiolites et des pneumonies chez le nourrisson, mais aussi de nombreuses infections respiratoires chez les personnes âgées. Il n'y a, à l'heure actuelle, pas de stratégie thérapeutique efficace contre ce virus.

La thérapie d'Ablynx présente deux originalités : d'une part, contrairement aux anticorps monoclonaux, qui sont des protéines entières, elles se composent uniquement du fragment spécifique, que la société appelle Nanobodies. D'autre part, du fait de sa taille inférieure au micromètre, mais aussi de sa stabilité et de sa faible tendance à s'agréger, il peut être administré sous la forme d'un aérosol.

L’étude qui démarre doit recruter soixante patients. Il s'agit d'abord de déterminer la tolérance et la sûreté de l'ALX-0171. Les premiers résultats seront connus au troisième trimestre de 2012. D'après Ablynx, son fragment d'anticorps a non seulement le potentiel de traiter in situ l'infection, mais aussi de vacciner les personnes saines contre une souche virale dangereuse.

Industrie & Technologies

La consommation de vin rouge permettrait de réduire le risque de cancer du sein
Dimanche, 15/01/2012 - 00:20

Contrairement aux idées reçues, le vin rouge pourrait permettre de diminuer le risque de développer un cancer du sein, selon une étude américaine publiée dans le Journal of Women's Health, lundi 9 janvier. Des chercheurs californiens ont montré que des produits présents dans la peau et les grains du raisin rouge étaient capables d'abaisser les taux d'oestrogènes chez les femmes pré-ménauposées. Il était pourtant prouvé jusqu'alors que l'alcool augmentait ces niveaux d'oestrogènes, ce qui favorisait la croissance des cellules cancéreuses.

Pour parvenir à de tels résultats, les chercheurs américains ont suivi 36 femmes. Certaines ont bu quotidiennement du vin blanc alors que d'autres ont consommé du vin rouge, pendant environ un mois. Une prise de sang a été réalisée deux fois par mois sur les participantes, pour mesurer leurs taux d'hormones. Les chercheurs ont pu s'apercevoir que la consommation de vin rouge permettait de stopper la croissance des cellules cancéreuses. Les scientifiques précisent toutefois que cela ne signifie pas que le vin blanc augmente le risque de développer un cancer du sein. Cependant, si les résultats de l'étude étaient confirmés, les femmes concernées pourraient remplacer la consommation de vin blanc par celle de vin rouge.

Santé Médecine

 

Cancer de la prostate : le dépistage systématique remis en cause
Dimanche, 15/01/2012 - 00:10

De nouvelles données provenant d'une vaste étude américaine portant sur les tests du cancer de la prostate montrent que la conduite systématique de ces examens auprès des hommes âgés d'une cinquantaine ou d'une soixantaine d'années ne permet pas de sauver des vies. Les premiers résultats de cette étude, menée auprès de 76.000 hommes, avaient été diffusés en 2009, mais les données publiées récemment portent sur un suivi de la plupart des participants plus long, compris entre 10 et 13 ans.

"Ces données confirment que pour la plupart des hommes, il n'est pas nécessaire de se faire dépister chaque année du cancer de la prostate", affirme Gerald Andriole, principal auteur de l'étude publiée dans le Journal of the National Cancer Institute. "La majeure partie des cancers que nous avons trouvés évoluent lentement et il est peu probable qu'ils soient mortels". Les tests réalisés annuellement pour détecter un éventuel cancer de la prostate aboutissent au diagnostic d'un plus grand nombre de tumeurs, mais cela ne conduit pas à une diminution significative des décès, assure ainsi l'étude qui a porté sur des patients âgés de 55 à 74 ans.

Certains de ces hommes ont été soumis chaque année au test sanguin appelé PSA, ainsi qu'à un toucher rectal. D'autres ont été soumis à des examens uniquement lorsque leur médecin le préconisait. Un nombre plus important de cancers de la prostate a été diagnostiqué chez ceux qui avaient été soumis de manière systématique à des tests (4.250), par rapport à ceux qui ne l'avaient pas été (3.815). Mais le nombre de décès n'a pas été significativement différent entre les deux groupes, avec 158 décès dans le premier et 145 dans le second.

"Avec ces nouvelles données (...) nous découvrons que seuls les hommes les plus jeunes, ceux dont l'espérance de vie est la plus longue, sont susceptibles de tirer profit des examens" systématiques, a assuré le Professeur Andriole. En octobre, un influent comité fédéral américain avait recommandé de ne plus soumettre de manière systématique les hommes de 50 ans et plus au PSA, estimant qu'il conduisait à des traitements inutiles.

RTL

Une espèce de tortue géante éteinte réapparaît
Samedi, 14/01/2012 - 00:40

Les scientifiques pensent qu'elle vit aujourd'hui à plus de 300 kilomètres de là où elle avait disparu il y a 150 ans.

Cela fait 150 ans qu'aucune tortue géante Chelonoidis elephantopus n'a été aperçue, et pourtant les scientifiques affirment que cette espèce que l'on croyait éteinte depuis 150 ans, victime de la surpêche, ne l'est peut-être pas. Pourquoi croire au retour d'une espèce si personne ne l'a aperçue, demanderont certainement les adeptes de Saint-Thomas. La réponse est imparable : car il y a des preuves scientifiques.

Récemment, sur une île des Galapagos située à plus de 300 kilomètres de là où vivait la Chelonoidis elephantopus, les scientifiques ont remarqué que la forme de la carapace de certains membres d'une espèce cousine, la Chelonoidis becki, changeait. Intrigués par cette soudaine évolution, ils se sont livrés à une série de tests ADN, pour s'apercevoir que les tortues dont la carapace était différente étaient en fait des hybrides des deux espèces.

Les plus jeunes de ces hybrides ayant moins de quinze ans, les scientifiques ont en conclu que leurs parents devaient toujours être en vie. Si elles sont restées invisibles pendant 150 ans, les Chelonoidis elephantopus existent donc a priori toujours. Grâce aux profils génériques établis, les scientifiques en ont également conclu que 38 Chelonoidis elephantopus au moins s'étaient reproduites sur l'île.

Ce premier mystère éclairci, deux autres demeurent encore : comment la tortue géante a-t-elle parcouru plus de 300 kilomètres alors qu'elle ne nage pas et, surtout, où se cache-t-elle aujourd'hui ?

Atlantico

Des scientifiques découvrent l'évolution des crânes
Vendredi, 13/01/2012 - 05:40

Les anthropologues ont longtemps cru que les changements survenus au niveau de la forme du crâne au fil du temps sont indépendants les uns des autres, mais une nouvelle recherche réalisée par une équipe internationale de chercheurs montre que cela n'est peut-être pas le cas.

Après avoir examiné une collection unique de 390 crânes de l'ossuaire de l'église catholique de Hallstatt, en Autriche, l'équipe, composée de scientifiques d'Espagne, de Suède, du Royaume-Uni et des États-Unis, a découvert que les changements que l'on pensait être des événements évolutifs séparés seraient probablement associés. Cela signifie que le crâne est fortement intégré et que la variation d'une part est associée aux variations dans plusieurs parties du crâne.

«Nous avons trouvé que la variation génétique du crâne est fortement intégrée, ainsi, si la sélection favorisait un changement de forme dans une partie particulière du crâne, il y aurait une réponse impliquant les changements dans tout le crâne», explique le Docteur Chris Klingenberg, l'un des auteurs de l'étude de l'université de Manchester, au Royaume-Uni.

Les crânes, tous décorés selon la tradition locale, appartiennent à une collection de plus de 700 restes squelettiques. Les restes sont tous décorés de fleurs, de feuilles et de croix; sur la plupart des crânes, le nom du défunt est écrit sur le front. Les scientifiques ont établi une liste de renvois avec les noms des crânes et les registres locaux des naissances, décès et mariages pour qu'ils puissent reconstruire les relations généalogiques avec la population de Hallstatt jusqu'au XVIIème siècle. Cela signifie qu'ils ont pu réaliser des estimations sur les gènes influençant la forme du crâne.

Dans leur article paru dans la revue scientifique Evolution, l'équipe explique comment l'intégration morphologique génétiquement déterminée dirige l'évolution de la forme du crâne chez l'homme.

«Dans ce type de scénario évolutif, il serait différent de changer ou d'altérer l'un des éléments sans altérer les autres», explique l'un des auteurs de l'étude, Miquel Hernández de l'université de Barcelone, en Espagne. Et de poursuivre : «Selon la tradition, les experts ont étudié comment la sélection agit sur une caractéristique spécifique. En pratique, toutefois, ces caractéristiques sont toutes associées. Le concept clé est l'intégration morphologique: si nous changeons l'un des éléments dans la forme des crânes, la structure générale change également, et seuls les changements qui suivent le schéma morphologique sont privilégiés.»

L'équipe a utilisé des méthodes génétiques quantitatives et géométriques morphométriques pour examiner la forme du crâne, en utilisant des coordonnées tridimensionnelles de 29 «références» anatomiques pour créer des cartes morphologiques et simuler plusieurs scénarios dans lesquels différentes caractéristiques clés sont sélectionnées pendant le processus évolutif de l'homme moderne. Une autre auteur de l'étude, Neus Martínez-Abadías, également de l'université de Barcelone, commente : «L'un des aspects les plus innovants de l'étude est l'utilisation d'une méthodologie avec laquelle nous pouvons analyser la structure du crâne dans l'ensemble et quantifier l'impact de l'intégration morphologique. Cela signifie que nous ne sommes pas obligés d'étudier chaque caractéristique séparément si l'évolution était un processus distribué.»

Mireia Esparza, autre auteur de l'étude également de l'institution catalane, explique comment leur étude renforce un changement de théorie concernant les scénarios évolutifs de l'homme moderne : «L'évolution agit comme un processus intégré et les caractéristiques spécifiques n'évoluent jamais de manière indépendante. Dans le cas du crâne, les changements évolutifs ont convergé dans ce schéma morphologique. Ainsi, nous ne pouvons pas tout simplifier et étudier la réponse de sélection d'une seule caractéristique isolément, même s'il est fort probable que le facteur sélectif y soit pour quelque chose, les facteurs affectant les autres parties du crâne aussi.»

Cordis

Les nourrissons préfèrent imiter une personne de confiance
Vendredi, 13/01/2012 - 05:30

Une nouvelle étude effectuée par des psychologues de l'Université Concordia montre que les jeunes enfants peuvent faire la différence entre des sources crédibles ou non.

"Comme les enfants plus âgés, les nourrissons sont capables de se souvenir s'ils peuvent faire confiance ou non à quelqu'un et utilisent cette information pour les guider dans leur apprentissage futur" explique Diane Poulin-Dubois, professeur au Département de Psychologie de l'Université Concordia. "En fait, les bébés choisissent de ne pas apprendre de quelqu'un qu'ils perçoivent comme peu fiable".

Pour ce travail, 60 jeunes enfants de 13 à 16 mois ont été divisés en 2 groupes : l'un avec un adulte référent fiable et l'autre avec un adulte trompeur. Dans un premier temps, la personne "référente" regardait dans une boîte tout en exprimant l'excitation. Les enfants étaient ensuite invités à découvrir si la boîte contenait un jouet ou si elle était vide. Cette expérience était destinée à déterminer la crédibilité ou non de l'adulte. Dans un second temps, la même personne "référente" utilisait son front à la place de ses mains pour pousser sur un bouton et allumer la lumière. Les scientifiques observaient alors les enfants pour vérifier s'ils imitaient l'adulte. Résultats, seulement 34 % des bébés testés soumis aux tests avec un référent qui les avaient trompés lors de la première tâche ont imité le geste. Au contraire, 61 % des nourrissons du groupe de l'adulte crédible ont suivi son comportement.

Selon les auteurs, cela montre que les jeunes enfants imiteront l'attitude d'un adulte en qui ils peuvent avoir confiance.

Ce travail a été publié dans le journal Infant Behavior and Development.

Techno-Science

Maladies rénales et neurologiques : un gène en commun
Vendredi, 13/01/2012 - 05:20

Des chercheurs français ont découvert un gène commun à de nombreux patients qui souffraient à la fois de troubles rénaux et d'une affection neurologique bien particulière, la maladie de Charcot-Marie-Tooth (MCMT). D'après leur travail, la mutation du gène INF2 serait en cause dans cette association.

La maladie de Charcot-Marie-Tooth (MCMT) est une maladie neurologique héréditaire qui touche environ une personne sur 2 500. Elle est caractérisée par l'atteinte des nerfs reliant la moelle épinière aux muscles. La conduction de l'influx nerveux est ainsi perturbée, conduisant à une faiblesse musculaire qui atteint progressivement les extrémités des membres.

Corinne Antignac (unité mixte de recherche INSERM/Université Paris Descartes de l'hôpital Necker - Enfants malades, à Paris) a analysé les profils génétiques de 16 patients atteints à la fois de la MCMT et d'une maladie rénale. Ils ont découvert que dans 75 % des cas, le gène INF2 était muté. « La mutation de ce gène est une cause majeure de l'association entre la maladie de Charcot-Marie-Tooth et la maladie rénale » explique-t-elle.

Il existerait donc une « machinerie cellulaire commune » aux cellules du rein (les podocytes) et aux cellules de Schwann qui entourent les nerfs. Le travail des chercheurs ne devrait toutefois pas s'arrêter à cette découverte. « Nous pensons que ce type de mutation est en cause dans d'autres maladies, comme la surdité observée chez certains patients souffrant de MCMT. Car on sait que des anomalies d'une protéine de la famille d'INF2 peuvent induire une surdité », conclut Corinne Antignac.

Inserm

Foie virtuel : une aide high-tech pour opérer certaines tumeurs
Vendredi, 13/01/2012 - 05:10

Dans le cadre du projet PASSPORT (Patient-Specific Simulation and Pre-Operative realistic Training), un consortium de chercheurs européens a mis au point un « foie virtuel » qui devrait permettre aux chirurgiens spécialisés de planifier et visualiser parfaitement et précisément les opérations du foie, bien avant l’intervention réelle. Chaque année, en France, plus d’un millier de personnes meurent des suites d’une maladie hépatique, que ce soit suite à une cirrhose ou à un cancer du foie.

Si pour ces patients, il existe des traitements thérapeutiques, l’ablation de la tumeur ou la cryochirurgie est de plus en plus usitée. Dans le but de faciliter le travail des chirurgiens, des chercheurs français, allemands, suisses et anglais, ont plus au moins une technique qui permet, à partir d’images radiographiques, de créer un foie virtuel et de déterminer avec précision la taille et la localisation des tumeurs. Simple d’utilisation, le système n’a besoin que des images transmises par les radiologues, via un service en ligne, pour offrir aux chirurgiens le lieu exact de la partie endommagée.

C’est une véritable avancée technologique qui devrait permettre de construire pour chaque patient un foie similaire au leur, et ainsi, faciliter le travail des chirurgiens. Cette méthode pourrait aussi permettre d’aider au diagnostic et au pronostic. Il serait ainsi plus facile de savoir si le patient est opérable ou non.

Information Hospitalière

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Rhône-Alpes aide ses PME à innover
Mardi, 17/01/2012 - 00:40

La région Rhône-Alpes donne les premières indications sur le programme d’aide à l’innovation dans les PME qu’elle a mis en place il y a deux mois. 25 entreprises sont déjà impliquées et à terme il est prévu d’accompagner 150 PME sur 3 ans, dont 90 sur 2011–2012.

Afin d’aider les PME à innover, la région Rhône-Alpes a lancé en novembre, dans le cadre de son Plan PME, le programme Innovation PME. 25 entreprises se sont déjà lancées dans ce nouveau dispositif collectif de management de l’innovation. Elles représentent plus de 1 000 salariés et 130 millions d’Euros de chiffres d’affaires cumulés. Le programme est conçu pour permettre à tout type d’entreprise d’aborder l’innovation. Ainsi cinq d’entre elles n’avaient jamais jusqu’à conçu de nouveaux produits.

Cette première session couvre une grande diversité d’activités : conception de systèmes automatisés pour l’industrie ; textiles techniques ; décolletage ; profilés pour le bâtiment ; systèmes acoustiques ; recyclage textile ; logiciels GED ; tests génétiques pour chiens et chats ; machines automatiques d’embouteillage ; distillerie ; études géotechniques pour les risques naturels ; fournitures haut de gamme pour maréchaux ferrants ; fabrication d’aimants permanents ; usinage… Cette diversité confirme que les outils et méthodes de gestion de l’innovation ne sont pas spécifiques à un secteur industriel et peuvent appréhender des problématiques particulières.

  • Une démarche d’innovation poussée

Le dispositif Innovation PME vise les entreprises qui représentent un potentiel important de valeur pour la région Rhône-Alpes. Rarement étudiées et accompagnées de façon aussi massive et selon un même protocole générique, ces entreprises sont des PME, industrielles, de niveau de maturité caractérisé comme intermédiaire en Management de l’innovation. Ces PME maîtrisent assez globalement des éléments du processus de gestion opérationnelle des projets d’innovation et souhaitent acquérir une plus grande maturité du processus stratégique d’innovation de façon à être en mesure de générer de façon récurrente de nouvelles offres-produits-services innovants.

Plus qu’une simple sensibilisation habituellement activée dans une telle situation pour l’accompagnement des PME traditionnelles, une démarche spécifique au programme Innovation PME a été développée. Résultant du cumul d’expérience de terrain de Thésame en accompagnement des entreprises en innovation, la démarche comporte des outils d’analyse dédiés (conçus en partenariat avec les cabinets Cesame3, Ideo Consultants, Polarise et Weenov), des opérations intra-entreprise de conseil (analyse/accompagnement puis plans d’actions) pour une durée de 4 mois et des opérations interentreprises de séminaire et formation.

Les modalités d’intervention du programme Innovation PME dans les entreprises résultent d’un choix d’approche modulaire : des étapes successives courtes, continues ou discontinues et 3 options d’analyse au choix des PME (option A : Stratégie d’innovation ; option B : Innovation dans la relation client ; option C : Maîtrise des risques dans les projets d’innovation). Le dispositif Innovation PME apporte aussi une attention particulière aux PME de sous-traitance qui souhaitent évoluer vers le co-développement en innovation.

  • Des besoins divers

Les priorités en besoins d’accompagnement correspondent à des demandes différentes : Définir une stratégie d’Innovation (12 entreprises) ; Innover dans la Relation clients (6 entreprises) ; Maîtriser les risques d’un projet en cours (7 entreprises). Elles représentent des motivations diverses des dirigeants qui placent l’innovation au cœur du développement de leur entreprise :  Aider à prendre du recul par rapport aux axes de développement de l’entreprise par l’innovation ; Sécuriser un projet d’innovation dans la perspective d’un dépôt de demande de financement Oseo ; Comprendre les mécanismes d’achats de ses clients pour se positionner en co-conception …

En agissant au plus près des dirigeants et de leurs équipes, au rythme des PME et selon leurs disponibilités, le dispositif Innovation PME entend transférer sur le terrain, par la pratique, les bons réflexes de gestion de l’innovation.

Rendez-vous est pris dans 4 mois pour réaliser un bilan concret de cette première session. Un processus de retour d’expérience est mis en place afin d’améliorer encore les outils d’accompagnement pour la session suivante. Une nouvelle opportunité de participation d’entreprises est prévue à partir d’avril 2012.

Industrie & Technologies

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top