RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 643
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Mars 2012
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Innovation dans les services mobiles : l'Europe à la traîne
La théorie des réseaux appliquée aux zones urbaines
Avenir
Le robot sur pattes le plus rapide du monde !
VMS, le robot qui prend soin des vaches
Matière
Un chauffage qui apprend à connaître votre maison
Une nouvelle dimension pour le graphène
Lytro : la photo réinventée
Produire de l'énergie à partir des eaux usées
Nanolasers innovants : un pas de plus vers l'opto-électronique
Hybridation : voie prometteuse pour la production de biocarburants ?
Espace
De l'oxygène détectée dans une lune de Saturne
Terre
Acidité des océans : un niveau sans précédent depuis 300 millions d'années
Vivant
Des cellules staminales pour régénérer le coeur
Des chercheurs français présentent une nouvelle classe d’antidouleurs
Cancer du côlon : attention à une alimentation trop riche en graisses
Découverte de deux nouveaux groupes sanguins
Un nouveau gène de susceptibilité au cancer du sein
Dyslexie : désaccords cérébraux
Le processus de dégénérescence à l'origine de La maladie d'Alzheimer
Peut-on construire un être humain de A à Z ?
L’exercice a des effets bénéfiques sur l’ADN
Santé : l'intelligence artificielle change la donne
Bactéries : un fanstastique pouvoir d'adaptation à leur environnement
Découverte d’un nouveau type de sarcome osseux
Le lien génétique des maladies coronariennes découvert
Quand votre main gauche mime ce que fait votre main droite : une histoire de gène
Une protéine qui affaiblit le VIH
Comment agit le cannabis sur la mémoire de travail
La fatigue des adolescents peut être guérie par Internet
Une molécule qui met la tumeur sous contrôle
Cancer colorectal : Un nouveau test de dépistage plus efficace en 2013
Homme
La création d'emplois, liée à l'usage des technologies dans une entreprise
Sénakht-en-Rê, la « redécouverte » d'un pharaon
Edito
L'optique va révolutionner l'informatique



Il y a plus de 40 ans que les ingénieurs cherchent à marier l'électron et le photon puisque l'idée d'une puce photonique par les ingénieurs des Bell Labs date de 1969 et est donc antérieure de 2 ans au premier microprocesseur d'Intel, sorti en 1971. Pourquoi vouloir utiliser la lumière pour stocker, traiter et transmettre l'information numérique ? Pour plusieurs raisons essentielles : qu'il s'agisse de bande passante, de débit ou de rapidité, les technologies optiques et photoniques surclassent de plusieurs ordres de grandeur les technologies électroniques.

Mais jusqu'à présent ces technologies étaient beaucoup trop complexes et coûteuses à mettre en œuvre pour se substituer entièrement à l'électronique classique, d'autant plus que celle-ci n'a cessé de progresser. En quarante ans, le nombre de transistors intégrés à une puce a été multiplié par un million et se compte à présent en milliards !

Dans le même temps, le besoin en puissance de calcul et le volume de données produites chaque année dans le monde ont littéralement explosé : au niveau mondial, cette quantité d'informations numériques devrait être multipliée par 40 d'ici 2020 pour atteindre 35 ZettaOctects (35 milliards de TerraOctets), soit une croissance moyenne de plus de 45 % par an. En 2011, la masse totale de données numériques a dépassé les 1 800 milliards de gigaoctets, dix fois plus qu'en 2006. Depuis 2007, les capacités de stockage mondiales (environ 270 milliards de gigaoctets), sont devenues inférieures aux volumes produits et, sans ruptures technologiques majeures, la capacité de stockage ne devrait progresser que d'un facteur de 30 d'ici 2020.

Face à ce défi technologique mais aussi économique et social, les ingénieurs et chercheurs du monde entier redoublent d'efforts pour unir à tous les niveaux les qualités de l'électronique et de l'optique et à plus long terme pour remplacer entièrement l'électron par le photon.

Actuellement, tous les foyers qui bénéficient déjà de la fibre optique jusqu'au domicile (moins de 200 000 foyers début 2012 sur 21 millions d'abonnés au haut débit), utilisent quotidiennement l’optoélectronique sans le savoir car le signal optique qui arrive chez eux n'est pas utilisable tel quel et doit donc être reconverti en signal électrique avant d'être acheminé vers le téléphone, l'ordinateur ou la télévision.

Autre problème : en dépit des progrès de la transmission haut débit sur cuivre, la capacité de transmission d'un réseau "métallique" diminue très rapidement avec la distance. La transmission de grosses quantités d’informations est donc limitée par d'inévitables compromis entre la vitesse, la consommation d'énergie et l'intégrité du signal à transporter.

Avec l'explosion des besoins en bande passante et en puissance de calcul constatée depuis une dizaine d'années, la voie optique et photonique devient de plus en plus intéressante, non seulement à grande échelle, pour relier les serveurs et gros ordinateurs entre eux mais également aux niveaux les plus minuscules, c'est-à-dire ceux concernant les circuits, les composants et les puces qui sont au cœur de nos ordinateurs et de nos appareils numériques.

Au cours de ces dernières années les avancées technologiques dans ces domaines de l'optique et de la photonique se sont accélérées. Fin 2010, les chercheurs d'IBM ont ainsi mis au point une nouvelle technologie, baptisée " CMOS Integrated Silicon Nanophonics" qui permet d'utiliser des impulsions lumineuses pour accélérer le transfert des données entre des puces.

Cette nouvelle technologie qui intègre des modules électriques et optiques sur une seule pièce de silicium, devrait permettre à terme de multiplier par mille les performances des supercalculateurs actuels. Aujourd'hui, les plus rapides des super ordinateurs dépassent tout juste les 10 pétaflops (10 millions de milliards de calculs par seconde). La technologie photonique vise à atteindre d'ici 10 ans l'exaflop, c'est-à-dire un milliard de milliard d'opérations par seconde. La Commission Européenne est fortement engagée dans ce défi technologique et vient d'annoncer un doublement de son budget de recherche dans ce domaine (de 630 millions d’euros à 1,2 milliard d’euros).

Mais parvenir à réaliser un super- ordinateur "Exascale" 100 fois plus puissant qu'aujourd'hui constitue un véritable défi conceptuel et matériel. il faut en effet savoir que les plus gros super-ordinateurs actuels, reposant sur l'électronique, intègrent près de 100 000 processeurs et consomment plus de 10 MW d'électricité ! Il est impossible d'aller plus loin dans les performances car cela supposerait une consommation énergétique bien trop grande et une maintenance ingérable.

Pour relever ce défi, plusieurs firmes, dont Intel, IBM HP et Infinera travaillent sur des voies technologies nouvelles dans lesquelles l'optique joue un rôle majeur. L'objectif est d'atteindre d'ici 10 ans le térabit (mille milliards de bits) par seconde. Les chercheurs d’IBM viennent de présenter un prototype « d’optopuce à trous » (« Holey Optochip »), communiquant entre elles par faisceaux lasers. Chaque trou correspond à un canal photonique d’une bande passante de 20 gigabits par seconde. La puce compte 48 trous, soit 960 gigabits/s. Ce type de circuit intégré, dont la commercialisation est prévue en 2015, repose sur des techniques de gravure CMOS classiques et des lasers à cavités verticales émettant par la surface (VCSEL).

De son côté, HP travaille sur le projet « Corona ». Il s'agit d'un microprocesseur photonique qui vise une puissance de 10 téraflops en regroupant 256 cœurs interconnectés à la mémoire principale par des liaisons photoniques à une vitesse variant de 10 à 20 téra-octets par seconde. Tous les géants de l'électronique et de l'informatique tentent de produire des microprocesseurs massivement multicœurs mais se heurtent rapidement à un obstacle redoutable : plus le nombre de cœurs est important, plus ils doivent disposer d'une large bande passante pour communiquer avec leur mémoire, sous peine d'être sous-exploités et de perdre une grande partie de leurs puissance potentielle. Au-delà de 16 cœurs, la technologie actuelle n'est plus adaptée. D'où la nécessité d'un saut technologique.

Le projet Corona bénéficie des dernières avancées en matière d'optoélectronique et chaque cœur disposera d’un micro laser lui permettant de "dialoguer" avec les autres cœurs grâce à un réseau optique intégré à la puce. Autre innovation, ces puces seront en 3D et les 256 cœurs seront organisés en 4 groupes de 64 cœurs. La puce sera gravée en plusieurs couches qui communiqueront entre elles à l'aide d'interconnexions verticales baptisées « through silicon via » ou TSV. HP pense mettre au point cette puce révolutionnaire d'ici 2017 et se dit persuadé que la photonique intégrée sur silicium sera banale d’ici 10 ans.

Une autre firme américaine est à la pointe de ces recherches, Infinera, située à Sunnyvale en Californie. Cette société particulièrement innovante est parvenue en 10 ans à miniaturiser et à intégrer un système optique complet dans une puce photonique plus petite qu'un microprocesseur, dénommée PIC (photonic integrated circuted ou circuit intégré photonique). Infinera a réussi la prouesse d'intégrer sur une seule puce un micro-laser et une cinquantaine de composants optiques.

Ce type de puce consomme entre deux et trois fois moins d'énergie et son coût d'exploitation est deux fois moins important que celui des puces électroniques équivalentes. Il devrait permettre à terme de proposer à tous les foyers le très haut débit optique pour un coût inférieur à celui de l'ADSL.

Mais les technologies optiques progressent également à pas de géant dans le domaine des télécommunications. Il y a quelques semaines, Deutsche Telekom a établi un nouveau record pour la transmission de données sur un unique canal en fibre optique avec un débit de 512 Gbit/s (contre 100 Gbit/s par canal actuellement) ou l'équivalent d'une transmission simultanée de 77 CD en une seconde. A noter que ce record a été réalisé dans des conditions réelles sur une distance de 734 km séparant Berlin de Hanovre. Pour obtenir ce résultat, Deutsche Telekom a développé une technologie baptisée OSIRIS ( Optically Supported IP Router Interfaces ) qui est utilisable immédiatement sur le réseau optique existant.

Deutsche Telekom précise qu'il pense pouvoir atteindre les 24 Tbit/s (soit le transfert de 4 000 CD) en utilisant 48 canaux d'une fibre optique. La vitesse autorisée par cette technologie est équivalente à celle de la bande passante consommée par 100 000 utilisateurs sur un accès Internet haut débit de type 10 Mb/s. Avec un tel débit optique, il devient possible de transférer en une heure la totalité des archives numérisées sur le Net de la Bibliothèque du Congrès américain !

En Grande-Bretagne, des chercheurs des universités de Southampton ont mis au point il y a quelques semaines une jonction semi-conducteur à partir d'une fibre optique micro-structurée (MOFs, Microstructured Optical Fibers), ce qui ouvre la voie à des réseaux en fibre optique bien plus performants que ceux d'aujourd'hui.

Il faut bien comprendre que ces sauts technologiques en cours dans le domaine du traitement, du stockage et de la transmission optique vont avoir des effets non seulement dans le domaine informatique mais également sur l'ensemble de l'économie numérique et virtuelle. En effet, en disposant à moindre coût d'une puissance de calcul et d'un débit cent fois plus grand dans 10 ans, les entreprises, les administrations et les ménages vont pouvoir accéder à des outils et services reposant massivement sur l'intelligence artificielle, la 3D et les environnements virtuels.

Ces outils intelligents vont bouleverser l'ensemble de l'économie et de l'industrie mais vont également changer profondément nos vies personnelles et professionnelles. Avec une telle puissance informatique et une telle capacité de transmission, le Web des objets va rapidement devenir une réalité : l'ensemble de notre environnement et tout ce qui le compose va être numérisé, indexé, interconnecté et virtualisé et nous sera accessible en temps réel. Notre efficacité, notre productivité et notre capacité d'innovation vont s'en trouver décuplées. Cet accès permanent au "Monde2", numérisé sera également prédictif : à tout moment, nous pourrons imaginer des scenarii d'évolution en faisant varier une infinité de paramètres à notre disposition.

Ainsi que l'a magistralement théorisé le grand économiste autrichien Joseph Schumpeter, avec l'arrivée de ces systèmes photoniques intelligents, notre économie va connaître un nouveau et puissant cycle d'expansion aux conséquences incalculables car cette croissance reposera sur une augmentation prodigieuse et qualitative de l'intelligence collective. Il nous appartient cependant de veiller à ce que cette révolution qui s'annonce profite au plus grand nombre et soit porteuse d'un enrichissement spirituel et culturel qui lui donne toute sa finalité.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Innovation dans les services mobiles : l'Europe à la traîne
Mardi, 13/03/2012 - 00:10

Dès la fin des années 1990, l'Internet mobile existait au Japon. Au contraire de l'Europe où les opérateurs ont privilégié la consommation de masse et la croissance de leurs revenus.

Les données mobiles à bas prix depuis dix ans, la télévision sur smartphone depuis cinq ans, le NFC, l’invention du standard technologique de la 4G, la 5G déjà en test… Le Japon est le pays de l’innovation mobile, faisant ressortir à contrario le faible dynamisme européen. Voilà le constat fait par une équipe de l’Institut de la Technologie de Karlsruhe dans « L’innovation dans les services mobile : un échec européen ». Le constat : les opérateurs japonais mettent sur le marché des services à un rythme plus soutenu et à des prix plus bas que leurs homologues européens. La raison ? Une concurrence acharnée, tant sur les services que sur les appareils et les technologies réseau. Les opérateurs nippons arrivent à se différencier nettement les uns des autres alors qu’en Europe, l’adoption de technologies de communication mobile unifiée tend à niveler les choses.

  • Innovation y compris dans le SMS

Les auteurs estiment aussi que les opérateurs européens ont privilégié la consommation de masse et les stratégies pour acquérir des revenus substantiels, et maximiser le ROI par abonné. Ce qui aurait freiné l’innovation et la mise à disposition de service à bas prix. Au Japon, les revenus des opérateurs ont des origines plus hétérogènes, moins dépendant des SMS et de la voix. Pour mener cette étude, les chercheurs ont mené un travail comparatif Europe-Japon et interrogé plus de 80 chercheurs, analystes, et industriels des télécoms. Ils évacuent une fausse idée selon laquelle l’appropriation des technologies et services mobile serait une question de culture : les SMS, la musique ou l’Internet mobile sont en vogue en Europe. Le facteur différenciant serait bien la concurrence. Les opérateurs japonais ont rivalisé d’innovations pour séduire les consommateurs, y compris dans le SMS. A partir du milieu des années 1990, les tarifs voix se sont mis à baisser, avec pour incidence l’arrivée de nouveaux prestataires. Ne pouvant plus se distinguer les uns des autres sur le service voix, les opérateurs ont développé d’autres services et fonctionnalités des terminaux.

  • Plus de concurrence technologique

A l’inverse, il existerait une "concurrence technologique sous-développée en Europe". L’Internet mobile n’est arrivé qu’en 2002 sans s’accompagner d’une baisse de prix des SMS. Les opérateurs européens souffrent aussi de leur dépendance à des constructeurs de terminaux. La préoccupation de ces derniers étant d’écouler un maximum d’appareils standard, les opérateurs européens n’ont pas développé de technologies réseau propriétaires pour s’épargner d’avoir à payer un surcoût induit par la fabrication de terminaux spécifiques à leurs infrastructures. Une stratégie pas forcément payante si l’on se réfère à Apple : la firme de Steve Jobs rivalise aujourd’hui d’innovation avec les Japonais tout en se basant sur des technologies propriétaires. Les conseils adressées à l’Europe : introduire plus de concurrence en matière technologique, laisser émerger de nouveaux prestataires et repenser les usages clients en sollicitant l’avis des consommateurs eux-mêmes et des actionnaires.

L'Atelier

La théorie des réseaux appliquée aux zones urbaines
Dimanche, 11/03/2012 - 00:00

L'urbanisation est un phénomène complexe dont l'une des facettes se retrouve dans l'évolution du réseau viaire. Un chercheur de l'IPhT (CEA/CNRS) et ses collaborateurs italiens ont observé et mesuré le développement urbain d'une région de 125 km², au nord de Milan, sur une période de 200 ans. A l'aide des outils de la physique statistique, ils ont mesuré les grandeurs caractéristiques de la connectivité et de la densité du réseau formé par les routes ainsi que leur évolution.

Cette étude révèle que l'évolution du réseau viaire est gouvernée par deux mécanismes élémentaires : un processus de densification, correspondant à une augmentation de la densité de voies dans les centres urbains, et un processus d'exploration par lequel de nouvelles voies explorent des régions non urbanisées et définissent ainsi l'avancée du front d'urbanisation. Ces deux mécanismes élémentaires semblent être constants à travers les décennies, indépendamment du développement des technologies et des changements de culture.

Les chercheurs ont également observé une stabilité des voies à forte centralité qui constituent le squelette de la structure urbaine. Ce qui confirme l'importance du 'chemin historique' dans l'évolution urbaine. Une tendance vers l'organisation urbaine, avec une augmentation des intersections de degré 4 (croisement de quatre voies) et une uniformisation de la forme des îlots (parcelle de terrain délimitée par plusieurs voies) ont également été mises en lumière. On assiste donc à une évolution du réseau viaire vers un état organisé malgré l'absence de planning sur une période aussi longue.

La part de la population urbaine augmentant constamment dans le monde, cette première étude quantitative permet de mieux appréhender l'évolution des espaces et d'engager une réflexion sur les politiques d'urbanisation possibles. En effet, le phénomène d'exploration, démontré par ces mesures, entraîne par exemple un éloignement du centre-ville et donc une distance foyer / lieu de travail de plus en plus grande. Les répercussions sur l'environnement sont directes, avec une consommation d'énergie plus importante et une augmentation des émissions de CO2.

CNRS

^ Haut
Avenir
Nanotechnologies et Robotique
Le robot sur pattes le plus rapide du monde !
Lundi, 12/03/2012 - 00:10

Le robot Cheetah - guépard en anglais - porte bien son nom. Cette machine quadrupède, conçue par l'équipe Boston Dynamics, a battu le record du monde de «course à pattes robotisées» en atteignant la vitesse de 29 km/h. Elle explose la précédente marque établie à 21 km/h en 1989 par un robot bipède du Massachusetts Institute of Technology (MIT).

Pour le moment, la démarche de Cheetah fait plus penser à celle d'un chien maladroit que d'un gracieux félin. Un chroniqueur du Washington Post évoque même, assez méchamment, un «cochon agité». Plus surprenant, ce robot semble courir à l'envers ! C'est en tout cas l'impression donnée par le design actuel. En habillant correctement la structure et en lui fixant une tête au bon endroit (à gauche), cette sensation devrait s'estomper.

Plus gênant, Cheetah court pour l'instant sur un tapis roulant. L‘Agence américaine des programmes de recherche avancée de défense (DARPA), qui finance ces travaux, espère que la «bête» pourra rapidement gagner en vitesse - l'objectif étant d'atteindre 80 km/h - et en autonomie. Le projet Bigdog, également mené par le Boston Dynamics pour le compte de la Darpa, a déjà démontré les étonnantes capacités tout-terrain d'un robot quadrupède.

Le Figaro

VMS, le robot qui prend soin des vaches
Samedi, 10/03/2012 - 00:20

Sur son stand du Salon International de l'Agriculture qui s’est tenu la semaine dernière à la Porte de Versailles à Paris, la société DeLaval a présenté un robot de traite tellement automatisé que l'exploitant n'a plus rien à faire, ou presque.

Installé entre la zone de couchage et la zone d'alimentation, le robot VMS de DeLaval permet aux vaches de se faire traire à leur rythme. "Les études vétérinaires ont prouvé que ce principe de traite volontaire respecte davantage le cycle biologique des vaches, assure Edouard Alix, chef de produit robotique chez DeLaval. Les vaches sont plus détendues et elles peuvent alimenter leurs petits quand elles le souhaitent. Surtout, cela libère du temps pour l'agriculteur, car la traite accapare environ 40 % du temps de main d'œuvre sur une exploitation laitière."

Chaque vache porte un collier électronique qui lui permet d'être identifiée lorsqu'elle se présente dans le portique. Le robot VMS peut donc adapter ses paramètres de traite en fonction du gabarit de la vache et de sa productivité. "Et sur la dernière version du VMS, nous avons ajouté une détection en ligne de certains paramètres liés à la santé de l'animal", poursuit Edouard Alix.

"A chaque traite, le robot mesure la quantité de progestérone contenue dans le lait, ce qui aide l'exploitant à dater avec précision les périodes de chaleurs de la vache. Le robot est également capable de détecter des enzymes LDH (lactate déshydrogénase) sécrétées en cas d'infection dans la mamelle, ainsi que les enzymes BHB (Bêta-hydroxybutyrate) qui apparaissent lorsque la vache est sous-alimentée", explique le chef de produit.

Jusqu'à présent, il fallait un délai de deux à trois jours pour obtenir des résultats d'analyses quant à l'état de santé de l'animal. Avec le robot, les données sont disponibles plus rapidement. "Désormais, les problèmes sont détectés dès la fin de la traite et l'exploitant peut prendre immédiatement des mesures, comme demander au robot de ne pas traire la vache à son prochain passage", explique Edouard Alix.

Pour finir, la traite proprement dite s'effectue grâce à un bras robotisé particulièrement intéressant du point de vue technologique. Ce bras effectue trois tâches successives : il nettoie le trayon (l'extrémité du pis), puis il tire le lait et enfin il désinfecte la mamelle. Des tâches beaucoup plus complexes que celles confiées traditionnellement aux robots dans l'industrie, car ces opérations n'ont rien de répétable.

En effet, non seulement chaque vache a une morphologie différente, mais en plus elles ne s'arrêtent pas de bouger pendant la traite. Alors, pour être sûr de ne pas blesser la vache, le robot comporte deux lasers et une caméra numérique. Le dispositif lui permet ainsi de corriger en permanence sa position et l'inclinaison de ses gobelets trayeurs en fonction des mouvements des mamelles.

L'Usine Nouvelle

^ Haut
Matière
Matière et Energie
Un chauffage qui apprend à connaître votre maison
Jeudi, 15/03/2012 - 00:20

Un régulateur thermique «intelligent» basé sur un réseau neuronal lancé par la start-up Neurobat pourrait permettre d'économiser jusqu'à 50 % de combustible grâce à la prise en compte de la météo et du comportement thermique des bâtiments. L'hiver n'a pas encore dit son dernier mot et, sous nos latitudes, un chauffage central efficace et fonctionnel paraît indispensable. La plupart des installations actuelles ne réagissent toutefois qu'à un seul et unique paramètre – la température extérieure – pour réguler leur puissance.

Or chaque bâtiment a sa manière propre de réagir aux changements de température. Conviez une assemblée de 20 personnes, il y fera bientôt étouffant. Laissez un rasant soleil d'hiver pénétrer jusqu'au fond du salon par de larges baies vitrées, la température y montera en flèche… sans que les radiateurs ne daignent faire baisser leur vigueur. «Si l'on parvient à mieux prendre en compte les propriétés de chaque bâtiment en fonction des habitudes de ses utilisateurs et de son exposition au soleil, il est possible d'économiser de grandes quantités d'énergie», a affirmé David Lindelöf, directeur technique de Neurobat SA.

Cette société trouve son origine dans les travaux du Laboratoire d'énergie solaire et de physique du bâtiment (LESO-PB) de l'EPFL, où David Lindelöf et son associé Antoine Guillemin, directeur scientifique, ont obtenu leur doctorat. Créée dans le cadre d'un partenariat entre l'EPFL et le CSEM (Centre suisse d'électronique et de microtechnique, à Neuchâtel), Neurobat s'apprête à lancer sur le marché un module de contrôle qui, précisément, se nourrit de plusieurs sources bien distinctes pour régler finement la puissance de l'installation de chauffage central.

«En plus de la température extérieure, notre appareil prend en compte l'ensoleillement, grâce à un capteur solaire, et la réaction du logement lui-même, au moyen d'un thermomètre placé dans une pièce témoin», a précisé David Lindelöf. En outre, un capteur de présence permet de faire baisser automatiquement le chauffage lorsqu'il n'y a personne à la maison. Toutes ces données sont intégrées dans un régulateur susceptible de s'adapter à la plupart des installations existantes. Mais les ingénieurs en charge du développement de Neurobat ont voulu lui ajouter une couche d'«intelligence», basée sur un circuit de neurones artificiels. «Le système enregistre ces divers paramètres et les met en relation, reprend le responsable technique. Plus il «apprend», plus ses réglages deviennent précis. Au bout du compte, il devient capable d'établir des modèles météorologiques prédictifs propres à une seule maison, donc bien plus précis – et moins coûteux ! – que ce que pourraient fournir des services météorologiques.»

Le régulateur de Neurobat a déjà été installé sur plusieurs bâtiments tests – parmi lesquels l'un de ceux du CSEM, à Neuchâtel, ainsi qu'une villa privée. Divers tests ont pu démontrer des économies de combustible allant selon les cas jusqu'à 65 %, suggérant que des économies de l'ordre de 50 % pour un bâtiment moyen sont envisageables.

Enerzine

Une nouvelle dimension pour le graphène
Mercredi, 14/03/2012 - 00:30

Un nombre croissant de chercheurs reconnaît que le graphène, un allotrope de carbone, serait le prochain silicium. Mais selon ces derniers, le graphène serait trop conducteur pour être utilisé dans les puces d'ordinateurs. Une équipe de recherche de l'université de Manchester au Royaume-Uni aurait probablement trouvé un moyen de contourner ce problème. Présentée dans la revue Science, l'étude démontre que le transistor pourrait bien être le chaînon manquant pour que le graphène devienne le nouveau silicium. Leur découverte ouvre une troisième dimension dans la recherche du graphène.

Le groupe de Manchester, sous la direction des professeurs Andre Geim et Konstantin Novoselov, tous deux lauréats du Nobel et sacrés chevalier l'an dernier, fait remarquer que le graphène est un matériel fascinant doté de myriades de propriétés, principalement optiques, mécaniques, électroniques et chimiques.

Les experts expliquent que le graphène peut être utilisé pour former la base des puces d'ordinateurs, remplaçant ainsi le matériau de premier choix, le silicium. Des entreprises du monde entier, telles que Samsung, Intel et IBM, ont déjà exprimé un intérêt pour le graphène. Les transistors uniques à très hautes fréquences (jusqu'à 300 GHz) ont déjà fait l'objet de démonstrations pour de nombreux groupes dans le monde entier.

Le problème de ces transistors est qu'ils ne peuvent pas être intégrés dans une puce d'ordinateur car ils laissent échapper trop de courant, même dans l'état d'isolation le plus extrême du graphène. Ce courant électrique entraîne rapidement la fonte de la puce. Malgré les diverses études menées pour résoudre ce problème ces huit dernières années, aucune solution valide n'a été trouvée. Mais l'équipe de Manchester est parvenue à trouver la pièce manquante du puzzle. Selon les chercheurs, le graphène devrait être utilisé en position verticale et non en direction latérale. L'équipe a utilisé le graphène en tant qu'électrode depuis laquelle les électrons sont passés par un diélectrique dans un autre métal. Les chercheurs appellent ce dispositif une diode à effet tunnel.

Ils se sont concentrés principalement sur une caractéristique unique du graphène : un voltage externe peut fortement modifier l'énergie des électrons à effet tunnel. Ils ont ainsi obtenu un nouveau type de dispositif, un transistor à effet tunnel en champ vertical dans lequel le graphène est l'ingrédient principal.

«Nous avons prouvé conceptuellement une nouvelle approche à l'électronique de graphène», explique l'auteur principal de l'étude, le Docteur Leonid Ponomarenko de l'école de physique et d'astronomie de l'université de Manchester. «Nos transistors fonctionnent déjà très bien. Je pense qu'ils peuvent être améliorés, et réduits à l'échelle nanométriques et fonctionner à des fréquences sous-THz.» Pour sa part, le professeur Novoselov commente : «C'est une nouvelle vision pour la recherche sur le graphène et les chances pour l'électronique du graphène n'ont jamais été aussi positives qu'aujourd'hui.»

Mais le graphène ne fonctionne pas seul ; d'autres matériaux sont également nécessaires. L'équipe de Manchester a associé au graphène du nitrure de bore et du disulfure de molybdène de plans atomiques pour développer les transistors. Ces derniers ont été fabriqués couche par couche selon la séquence voulue à l'échelle atomique. Ces types de superstructures en couche n'existent pas dans la nature. Ce concept innovant offre de nouveaux degrés de fonctionnalité, dont le transistor à effet tunnel est un composant essentiel.

«Le transistor étudié est important mais le concept de l'assemblage en couches atomiques l'est encore plus», commente le professeur Geim. Et le professeur Novoselov d'ajouter : «Le transistor à effet tunnel n'est qu'un exemple de la collection non exhaustive des structures en couches et des dispositifs innovants pouvant être créés par ce mode d'assemblage. Il offre des opportunités infinies en physique fondamentale et pour des applications.

Cordis

Lytro : la photo réinventée
Dimanche, 11/03/2012 - 00:40

Avis aux mordus de nouvelles technologies : le Lytro, appareil photo d'un nouveau genre, est enfin disponible sur le marché. Cette petite merveille permet de faire la mise au point sur ordinateur... bien après avoir pris la photo.

Dernier bébé de la Silicon Valley en vente, l'appareil photo Lytro révolutionne la photographie. Ce petit appareil au design minimaliste, permet en effet de prendre des photos sans effectuer de mise au point. Et de choisir ensuite, en retouchant le cliché sur ordinateur, la profondeur de champ souhaitée.

Le Lytro est la création de Ren Ng dont les travaux de doctorat à l'université Stanford en Californie il y a huit ans ont débouché sur ce qui est présenté comme le premier appareil photo capable de saisir l'intégralité du champ lumineux d'une scène. Un logiciel permet ensuite d'utiliser les données de luminosité pour changer les points de netteté et de flou dans les images numériques, explique la société californienne. Quand les photos Lytro sont mises en ligne, le "moteur de champ lumineux" reste inclus dans chaque image, et tout le monde peut en faire une utilisation interactive sur ordinateur, tablette ou téléphone portable.

Comme bien souvent lorsqu'il s'agit de photo, les utilisateurs de Mac seront les premiers servis puisque le logiciel n'est compatible qu'avec ce type d'ordinateurs. Même si une version compatible Windows est prévue à terme. Autre défaut : le processus de téléchargement des photos est relativement lent en raison de la taille des fichiers.

  • Révolutionnaire

Du côté des experts on se réjouit. "L'appareil de poche grand public est réinventé - pas modifié, pas perfectionné, mais re-conçu de fond en comble", écrivait le respecté Walt Mossberg dans le Wall Street Journal. "Je considère que c'est révolutionnaire". Dans le New York Times, Sam Grobart a jugé "ahurissant" et "éblouissant" le système de mise au point a posteriori. "Je me sens comme un agent de la CIA dans un film, qui regarde une photo satellite et demande au technicien de préciser la photo jusqu'à ce qu'on distingue (le terroriste) Carlos", écrit-il. Mais le journaliste regrette l'impossibilité d'ajouter un filtre, ou de manipuler les clichés avec le programme Photoshop d'Adobe.

Un modèle à 16 gigaoctets, format petite lampe de poche rectangulaire, coûte 499 dollars et peut contenir 750 clichés. Un modèle à 8 gigaoctets coûte 399 dollars et stocke 350 clichés.

La Tribune

Produire de l'énergie à partir des eaux usées
Dimanche, 11/03/2012 - 00:10

Une  équipe de recherche de l'Université de Pensylvannie, dirigée par R.D. Cusick, Y. Kim et B.E. Logan, vient de montrer que la digestion des eaux usées par des microbes peut produire de l'énergie sous forme d'électricité ont annoncé des chercheurs. Ce résultat suggère que les stations d'épuration pourraient un jour fournir de l'énergie au lieu d'en consommer, facilitant ainsi le traitement des eaux dans des régions pauvres en énergie. La nouvelle méthode associe deux types de technologie productrice d'énergie, une pile à bactéries et un système d'électrodialyse inversée.

Dans la pile à bactéries, celles-ci consomment les produits de la fermentation de déchets humains ou végétaux et produisent des électrons qui forment un courant dans la pile. C'est toutefois un processus relativement peu efficace. Dans l'électro-dialyse inversée, des solutions d'eau salée et d'eau douce sont pompées au travers de membranes spécialisées qui ne laissent passer que les ions positivement ou négativement chargés. Les membranes sont reliées à des électrodes de charges opposées et quand les anions et les cations des solutions migrent vers leurs électrodes respectives, un courant électrique est généré.

Cette technologie demande néanmoins plusieurs membranes, ce qui la rend onéreuse. Roland Cusick et ses collègues ont combiné les deux approches pour fabriquer une pile microbienne à électro-dialyse inversée ou MRC qui produit nettement plus d'énergie que la pile à bactéries seule et n'exige que relativement peu de membranes. L''innovation dans ces recherches a été d'utiliser du bicarbonate d'ammonium comme matériau pour l'électro-dialyse au lieu de l'eau de mer habituelle. Cette solution salée peut être régénérée en continu avec le peu de chaleur produit par le traitement des déchets. La technologie MRC a pu fournir 0,94 kilowattheure d'électricité par kilo de matière organique d'eau usée. Le traitement des boues activées consomme, au contraire, 1,2 kilowatts-heure par kilo de matière organique.

Science Mag

Nanolasers innovants : un pas de plus vers l'opto-électronique
Samedi, 10/03/2012 - 00:30

Une équipe de chercheurs américains revendique la création de deux nouveaux lasers : le plus petit nanolaser à température ambiante au monde, ainsi qu'un nanolaser « sans seuil » capable de concentrer tous ses photons dans son rayonnement, sans aucune perte. Une équipe de chercheurs de l'Université de Californie, San Diego, a récemment développé dans ses laboratoires deux nouveaux lasers aux propriétés remarquables : le plus petit nanolaser à température ambiante jamais créé, ainsi qu'un nanolaser « sans seuil » dont le rayonnement se fait sans perte aucune, tous les photons servant à créer un rayonnement cohérent.

Ces nanolasers (lasers dont les dimensions sont « nano ») ne requièrent que peu d'énergie pour fonctionner, avancée remarquable en regard de la quantité d'énergie habituellement requise pour des lasers de cette taille. En effet, plus la section d'un laser est petite, plus son besoin en énergie pour émettre un rayon cohérent est élevé. Pour faire face à ce problème, l'équipe de chercheurs a réussi à modifier la géométrie des cavités utilisées par le laser pour émettre, emprisonnant la lumière à certaines fréquences et amplifiant celle-ci.

Tout laser a besoin d'une certaine quantité d'énergie provenant d'une source extérieure pour commencer à émettre un rayon cohérent. Le seuil d'un laser correspond au point où ce rayon cohérent est plus grand que toute autre émission spontanée produite. Publiés dans le journal Nature, ces travaux mettent en avant les bénéfices que peut apporter le nanolaser « sans seuil », notamment dans l'aide au développement de métamatériaux, matériaux dont la structure artificielle est étudiée dans le but de développer, par exemple, de super-lentilles d'observations (pour les virus ou les molécules ADN).

La petite taille et la faible consommation de ces deux lasers en font surtout de sérieux atouts pour la création d'un futur ordinateur optique, comme supports de transport de l'information dans les composants électroniques, réduisant la quantité de photons nécessaires à cette transmission. Les RAMs optiques fonctionnent d’ores et déjà en laboratoire… L'opto-électronique est dès lors synonyme de progrès, le développement et la croissance des processeurs ayant ralenti ces dernières années faute de progrès significatifs dans la miniaturisation de certaines technologies. L'intégration, la rapidité et la faible consommation en sont quelques uns des avantages.

Techniques de l'Ingénieur

Hybridation : voie prometteuse pour la production de biocarburants ?
Samedi, 10/03/2012 - 00:10

Des scientifiques de l'Université de l'Illinois à Urbana-Champaign ont identifié un nouvel entrant dans la course à la bioénergie : il s'agit d'un maïs créé par hybridation, reprenant certaines caractéristiques de variétés adaptées aux climats tropicaux et tempérés. Leurs résultats, publiés dans la revue bioénergie GCB, montrent que ce maïs hybride est potentiellement capable de produire de l'éthanol à partir de la biomasse (matière végétale utilisée pour la production de biocarburants) à un niveau égal voire supérieur à de l'éthanol produit avec des cultures de céréales traditionnelles.

"Notre maïs hybride, lorsqu'il est cultivé en utilisant la même quantité d'engrais que celle utilisée pour les céréales, produit plus de biomasse (+15 à 20 %) que les hybrides du commerce" a déclaré le Docteur Frederick Below, professeur de physiologie des cultures à l'Université de l'Illinois.

A la base, les scientifiques ont sélectionné des plantes différentes sur le plan génétique afin de créer une hybridation capable d'intégrer les caractéristiques avantageuses des variétés de maïs tropicales et tempérées. Habituée à un climat tropical, la plante souche tropicale connaît une croissance beaucoup plus longue que la variété tempérée. Le maïs tempéré de son côté minimise les traits négatifs du maïs tropical sur le plan de la maladie et de la vulnérabilité face aux nuisibles tout en maximisant les caractéristiques positifs, telles que la tolérance à la sécheresse. Les deux plantes souches ont donc été combinées pour former une plante hybride qui croît et accumule plus de sucres dans les tiges que les hybrides conventionnelles, des facteurs qui augmentent d'autant la production d'éthanol.

Les scientifiques ont découvert que les hybrides sont capables de produire beaucoup plus d'éthanol par hectare que le maïs actuellement cultivé pour produire de l'éthanol. Par ailleurs, les hybrides nécessitent moins d'intrants comme les fertilisants tel que l'azote. De plus, l'éthanol pourrait être produit à partir de la biomasse végétale et non plus seulement à partir de plantes céréalières.

"Le maïs hybride tempéré et tropical a le potentiel de produire la même quantité d'éthanol que les hybrides céréalières du commerce, mais avec des besoins moindres en engrais azotés. Cette différence rend l'hybride plus efficace énergétiquement et (il) peut en résulter un cycle de vie environnemental durable" a expliqué le Docteur Below.

Le maïs est souvent critiqué par la communauté scientifique comme un mauvais choix dans la production de l'éthanol à cause notamment des effets induits par les engrais sur l'environnement. Mais selon le Docteur Below, "l'hybride permet de réduire considérablement la nécessité d'engrais et peut fournir une matière première plus respectueuse de l'environnement pour la production de biocarburants."

Enerzine

^ Haut
Espace
Espace et Cosmologie
De l'oxygène détectée dans une lune de Saturne
Mercredi, 14/03/2012 - 00:10

Comme toutes les découvertes liées à un élément propice au développement de la vie dans l'Univers, la nouvelle a fait sensation. En analysant les données recueillies par la sonde Cassini en avril 2010, lors d'un survol de l'un des 62 satellites de Saturne, des chercheurs américains du Los Alamos National Laboratory ont découvert des molécules d'oxygène dans l'exosphère (couche lointaine de l'atmosphère) de Dioné. Coïncidence : cette lune, criblée d'impacts et couverte de glace, avait été découverte par Giovanni Domenico Cassini lui-même en 1684.

La présence d'une fine atmosphère entourant Dioné confirme une hypothèse formulée après la découverte par le télescope spatial Hubble d'une couche d'ozone en périphérie de cette lune. Car des doutes subsistaient encore sur la capacité de celle-ci à retenir une atmosphère du fait de sa faible densité. Pour autant, cela ne signifie en aucun cas que l'air de Dioné soit respirable, loin de là. Selon les calculs de l'équipe de Robert Tokar et de Michelle Thomsen qui publie ses résultats dans la revue scientifique Geophysical Research Letters, sa concentration en oxygène n'excède pas un ion oxygène pour 11 centimètres cubes. Ce qui représente à peu près l'équivalent de ce que l'on trouve à 480 kilomètres de la surface de la Terre.

Quant aux molécules d'oxygène, sans lien avec la présence de vie organique, elles seraient le fruit du bombardement de la surface de Dioné par des ions produits par le champ magnétique de Saturne ou encore par des photons solaires. Les chercheurs pensent qu'en heurtant la glace qui recouvre le satellite ces particules libéreraient des ions oxygène. Pourquoi alors tant d'enthousiasme ? Parce que le même phénomène pourrait bien se produire sur d'autres lunes de Saturne, telle Encelade, sur laquelle les scientifiques espèrent trouver, sous une épaisse couche de glace, un océan où aurait pu se développer une forme de vie comparable à celle que l'on trouve dans l'Antarctique.

Le Point

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Acidité des océans : un niveau sans précédent depuis 300 millions d'années
Mercredi, 14/03/2012 - 00:20

Le niveau d'acidité des océans atteintun niveau sans précédent depuis 300 millions d'années et menace l'ensemble de la vie marine.

Selon une étude dirigée par la paléocéanographe Bärbel Hönisch, de l'Université de Colombia (Lamont-Doherty Earth Observatory), les océans de la planète s'acidifient à un rythme sans précédent depuis 300 millions d'années, sous l'effet des émissions anthropiques croissantes de gaz carbonique et ce phénomène risque d'avoir des conséquences désastreuses pour l'ensemble de  l'écosystème marin. "Jamais au cours de cette période les niveaux d'acidification n'ont représenté une telle menace sur la chimie organique des océans, conséquence des émissions sans précédents de dioxyde de carbone (CO2) dans l'atmosphère", souligne l’un des auteurs de cette étude, le professeur Andy Ridgwell de l'Université de Bristol, au Royaume-Uni.

Au cours du dernier siècle, le CO2 a augmenté de 30 % dans l'atmosphère pour atteindre 393 parts par million (ppm) tandis que son pH a diminué de 0,1 unité à 8,1, signe d'une plus grande acidité. Cette évolution représente un rythme dix fois plus rapide que celui enregistré au cours des dernières 56 millions d'années, souligne Bärbel Hönisch, la principale auteure de ces travaux publiés dans la prestigieuse revue américaine Science du 2 Mars. A ce rythme,  le pH des océans pourrait encore diminuer de 0,3 unité d'ici la fin de ce siècle pour s'établir autour de 7,8.

Selon Bärbel Hönisch "Un tel niveau d'acidification risque d'entraîner dans les océans des bouleversements équivalents à ceux observés durant le pic thermique qui a marqué la transition du Paléocène à l'Eocène, il y a 56 millions d'années". A cette époque, à la suite d'un doublement du niveau de CO2 dans l'atmosphère, la température moyenne de la planète avait augmenté de 6°C en 5.000 ans, ce qui avait notamment entraîné une montée sans précédent du niveau général des mers et une disparition corrélée d'environ 10 % des espèces marines au cours des 20.000 années suivantes.

Cet épisode catastrophique a pu être reconstitué il y a une vingtaine d'années grâce à l'analyse des sédiments récupérés au fond de l'océan dans l'Antarctique. "Nous avons à présent la preuve que dans le passé l'acidification des océans produite par un  accroissement brutal du niveau de CO2 atmosphérique provenant de gigantesques éruptions volcaniques a profondément perturbé le biosystème marin, provoquant une extinction de nombreuses espèces et l'apparition de nouvelles formes de vie", souligne Bärbel Hönish qui poursuit "Si les émissions humaines de CO2  se poursuivent au rythme actuel nous risquons la disparition définitive d' organismes marins majeurs, comme les récifs coralliens, les huîtres et les saumons". Ces craintes sont déjà confirmées par une étude publiée dans la revue Nature en 2011 qui  montre qu'une hausse de l'acidité océanique (avec une diminution du pH à 7,8) dans les récifs coralliens proches de la Papouasie Nouvelle Guinée, a entraîné une diminution de plus de 40 % de la masse de ces coraux.

Ce phénomène est le résultat d'une absorption trop rapide du CO2 dans l'océan qui réduit considérablement la formation de carbonate utilisé par les coraux pour développer les récifs mais également par  les mollusques et certains planctons pour leur coquillage. Cette perturbation majeure du cycle du carbone entraîne notamment une dissolution des coquilles de phytoplancton dont les résidus se déposent sur les fonds marins et détruisent les foraminifères, des organismes unicellulaires. Au final, c’est donc l'ensemble du cycle biologique marin qui est perturbé et affecté de manière irréversible.

« Article original de l’Université de Columbia résumé et traduit par RT Flash »

ASP

Université de Columbia

Science

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules staminales pour régénérer le coeur
Jeudi, 15/03/2012 - 07:10

Une étude de l'Institut de biologie cellulaire et de neurobiologie, du Conseil national des recherches (Ibcn-Cnr), en collaboration avec l'Institut d'hospitalisation et de soins à caractère scientifique (IRCCS) MultiMedica de Milan, ouvre de nouvelles perspectives dans le domaine des thérapies cellulaires. L'étude démontre pour la première fois que les cardiomyocytes, les cellules musculaires du coeur, peuvent être une source de cellules staminales avec des caractéristiques de différentiation avantageuses par rapport à d'autres cellules staminales. La recherche, conduite par les chercheurs Roberto Rizzi et Claudia Bearzi, a été publiée dans la revue Cell Death and Differentiation.

"Les cellules cardiomyocytes ont des capacités de prolifération minimales voire nulles ; c'est-à-dire qu'après un accident ischémique cardiaque, tel qu'un infarctus, il se crée une cicatrice qui réduit la capacité fonctionnelle du coeur, et engendre une situation d'insuffisance cardiaque", explique Roberto Rizzi. "Notre travail a démontré que, à travers l'introduction de gènes foetales dans le génome de cellules cardiomyocytes post-natales, il était possible de faire revenir ces cellules déjà différenciées à un état embryonal. Une fois que nous avons obtenu des cellules staminales à partir de cellules cardiomyocytes, elles sont redifférenciées en cellules cardiaques battantes.

La recherche a mis en évidence que les cellules pluripotentes obtenues à partir de cellules cardiomyocytes ont une plus grande capacité à redevenir des cellules cardiaques contractiles, par rapport à d'autres cellules staminales. Ont ainsi été définies les bases moléculaires prouvant que cette "mémoire dépend de seulement quelques gènes".

Cette découverte ouvre la voie à une possible utilisation des cellules cardiomyocytes en tant que cellules staminales cardiaques, en passant par le stade embryonal. "Grâce à leur capacité de différenciation, ces cellules peuvent être utilisées pour réparer le myocarde endommagé", poursuit Claudia Bearzi. "La caractéristique de générer n'importe quel type de tissu est propre aux cellules staminales à l'état embryonal mais il existe des oppositions éthiques à leur utilisation. En 2006, un chercheur japonais, Shinya Yamanaka, a démontré qu'il était possible de ramener les cellules néonatales et adultes déjà différenciées à un stade staminal, et avec la capacité de générer des tissus semblables à ceux des cellules staminales embryonales, grâce à l'introduction de quelques gènes foetaux. Ces cellules staminales obtenues à partir de cellules matures ont été définies comme pluripotentes et induites".

Bulletins Electroniques

Des chercheurs français présentent une nouvelle classe d’antidouleurs
Jeudi, 15/03/2012 - 00:10

Des chercheurs de la société française Pharmaleads ont présenté le 7 mars une nouvelle classe de médicaments antidouleurs particulièrement innovante. Son principal atout est de s’appuyer sur un mécanisme naturel. Toujours en période de tests, ces nouvelles molécules, dont les premiers résultats sont encourageants, pourraient bien arriver sur le marché officinal français dès 2017.

Si l’activité de recherche pour lutter contre la douleur est particulièrement importante dans le monde entier, les découvertes majeures dans ce domaine restent assez rares. La mise au point d'une nouvelle classe d'antidouleurs par la société Phamaleads fait partie de ces innovations marquantes. C’est l’aboutissement de plus de 30 ans de travaux sur les enképhalines.

Depuis les années 1980, Pharmaleads étudie de près ces molécules, sorte de « morphines internes » que le corps secrète naturellement. Très vite, la start-up se rend compte que ces dernières ont une durée de vie particulièrement courte. Elles sont, en effet, très vite dégradées par deux enzymes : les « enképhalinases ». Le Seul moyen de permettre aux enképhalines de soulager naturellement la douleur, c’est de bloquer l’action de ces enzymes. C’est ainsi que Pharmaleads va mettre au point une classe de molécules capable de les inhiber, et ainsi de favoriser la présence en quantité importante dans l’organisme d’enképhalines.

Les premiers tests montrent que le PL37, tel est le nom de cette molécule innovante, agit comme si l’organisme avait reçu un dérivé morphinique, mais sans en subir les effets secondaires. Par ailleurs, les chercheurs ont constaté que le PL37 ciblait tout particulièrement les douleurs dites neurophatiques, c’est-à-dire celles qui sont dues à une souffrance directe des nerfs périphériques. Ces dernières sont particulièrement mal prises en charge par les traitements actuels.

Les dirigeants de Phamaleads espèrent pouvoir commercialiser ce nouveau médicament à l’horizon 2017. En parallèle, la société travaille sur deux autres classes de molécules qui pourraient à terme permettre de répondre à différents types de douleur.

Information Hospitalière

Pharmaleads

Cancer du côlon : attention à une alimentation trop riche en graisses
Jeudi, 15/03/2012 - 00:00

Selon une étude menée par la Temple University (Philadelphie), une alimentation trop riche en graisses entraîne un risque accru de cancer du côlon. L’excès de graisse entraîne en effet des modifications épigénétiques de la voie métabolique entraînant un excès d’insuline dont se nourrit la tumeur. Ces conclusions publiées dans l’édition de mars de Cancer Prevention Research, la revue de l’American Association for Cancer Research, suggèrent la piste d’un test de diagnostic ou de probabilité de la maladie.

Les épidémiologistes nous avertissent depuis longtemps sur les risques d’une alimentation trop riche, au-delà de l'obésité. Ces chercheurs nous expliquent pourquoi ce type d’alimentation est associé, aussi, au cancer du côlon.

L’auteur principal, Carmen Sapienza, professeur de pathologie et de biologie moléculaire à l’université Temple a comparé avec son équipe, des prélèvements de tissus du côlon chez des patients cancéreux avec des tissus du côlon chez des patients sains. Dans le tissu de patients atteints de cancer, les chercheurs constatent des marques épigénétiques sur les gènes impliqués dans la dégradation des glucides, des lipides et des acides aminés, c’est-à-dire des modifications chimiques qui servent de commutateur on et off pour certains gènes.

"Ces aliments ont le pouvoir de modifier les profils de méthylation des gènes qui contrôlent l'insuline avec, pour conséquence une production d'insuline plus importante que nos besoins», explique le Docteur Sapienza. «Chez les personnes atteintes de cancer du côlon, les voies métaboliques du glucose et de l’insuline fonctionnent à des niveaux totalement différents de ceux de personnes non atteintes ». Car les cellules cancéreuses aiment l'insuline et de précédentes études ont montré que les tumeurs se nourrissent d’insuline. « L'insuline devrait être exprimée dans le pancréas seulement, et cette quantité supplémentaire d'insuline est propice au développement du cancer ».

Alors que le développement du cancer du côlon intervient plutôt à la cinquantaine, il est difficile de savoir quand la modification épigénétique des gènes commence. « L'hypothèse serait que les changements dans les voies métaboliques se produisent en premier, puis ensuite une mutation provoque un polype cancéreux qui se nourrit de cet excès d'insuline ».

Selon les auteurs, c’est la première étude à apporter la preuve des modifications épigénétiques des gènes de la voie métabolique dans les tissus du côlon. Les chercheurs suggèrent que de telles modifications pourraient également être identifiées dans d'autres tissus sains du corps, et pourraient alors être un marqueur de diagnostic ou de probabilité de cancer du côlon par l’intermédiaire d’un test salivaire ou sanguin, en complément d’une coloscopie.

CPR

Découverte de deux nouveaux groupes sanguins
Mercredi, 14/03/2012 - 00:00

Deux nouveaux groupes sanguins viennent d’être découverts grâce à une collaboration internationale de chercheurs, dont un certain nombre de scientifiques français, membres de l’Institut national de la transfusion sanguine. Junior et Langereis, tels sont leurs noms, concerneraient un petit nombre de personnes et pourraient expliquer le rejet de certaines greffes, certaines incompatibilités entre une mère et son enfant à naître, et des difficultés rencontrées à la suite de transfusions sanguines.

Ensemble de propriétés antigéniques du sang, le groupe sanguin permet de classer les individus. Cela a notamment pour but de permettre des transfusions dans des conditions optimales de compatibilité. A la surface des hématies, cellules sanguines, des substances antigéniques (protéines, glucides, glycolipides, etc.) sont présentes. C’est la combinaison de ces molécules, reconnues par les anticorps du système immunitaire, qui définit le groupe sanguin. Les deux classements les plus connus sont le système ABO et le système rhésus. Jusqu’à la découverte de Junior et Langereis, il existait 29 groupes sanguins distincts.

C’est en étudiant deux protéines (ABCB6 et ABCG2) appartenant aux transporteurs ABC (ATP-binding cassette), qui permettent à certaines substances de passer à travers la membrane plasmique, et en constatant la présence d’anticorps qui leur étaient spécifiques dans des échantillons sanguins, que des chercheurs du monde entier ont découvert l’existence de deux nouveaux groupes sanguins : Junior et Langereis.

Les travaux publiés dans la revue Nature Genetics montrent que certains problèmes peuvent être associés à ces nouveaux groupes sanguins. En effet, cette découverte pourrait permettre d’expliquer des rejets de greffe, des difficultés consécutives à des transfusions sanguines, et même des incompatibilités entre une mère et son enfant à naître. Ces différents phénomènes sont liés aux réactions immunitaires de l’organisme. Si ce dernier ne reconnaît pas une molécule ou un corps étranger, il va tout faire pour l’éliminer.

Forts de ces premiers résultats, les chercheurs continuent leurs travaux, espérant découvrir de nouveaux groupes sanguins. Il en resterait plus d’une dizaine qui n’auraient pas été encore identifiés…

Information Hospitalière

Un nouveau gène de susceptibilité au cancer du sein
Mardi, 13/03/2012 - 07:02

Le cancer du sein est le plus fréquent des cancers chez la femme avec, en France, environ 52 500 nouveaux cas estimés en 2010, soit 34 % de l'ensemble des nouveaux cas de cancers féminins. Jusqu’à 20 % de la responsabilité des cas héréditaires de cancer du sein est attribuée aux gènes BRCA1 et BRCA2 liés au système de réponse aux dommages de l'ADN. Une grande part de la susceptibilité familiale au cancer du sein est due à des mutations moins fréquentes. Neuf gènes sont connus pour être associés de façon forte ou modérée à un risque accru de cancer du sein et des gènes additionnels restent encore à identifier.

En se liant directement aux motifs BRCT de la région C-terminale de BRCA1, critiques pour la fonction suppressive de tumeur, et site de mutations fréquentes, la protéine Abraxas a un rôle central dans l’organisation du complexe nécessaire à la réparation de l’ADN impliquant BRCA1 et d’autres protéines. Des observations précédentes suggèrent que BRCA1, en association avec ce complexe ayant pour cœur Abraxas, a une fonction suppressive de tumeurs chez l’homme. Le gène Abraxas a-t-il de ce fait une part de responsabilité dans la susceptibilité génétique à la maladie ?

Une équipe hospitalo-universitaire de Pennsylvanie et de Finlande a isolé l’ADN d’échantillons sanguins de 125 familles frappées par un cancer du sein dans le nord de la Finlande, et recherché des mutations du gène Abraxas. Les chercheurs identifient 10 variants du gène, dont 5 inconnus auparavant. Un seul des changements observés, c.1082G>A, résulte vraisemblablement en modifications fonctionnelles de la protéine où cette altération entraîne une mutation Arg361Gln (R361Q). La mutation c.1082G>A est retrouvée chez les patientes de trois familles sur les 125 (2,4 %), et absente chez 868 femmes contrôles en bonne santé. Sa prévalence est significativement différente de celle observée chez les contrôles (p=0,002) ou dans une cohorte de cas de cancer du sein non sélectionnés pour étant familiaux (1 sur 991 ; p=0,005 ; cas qui s’avèrera aussi familial), ce qui suggère une association spécifique avec la forme familiale de la maladie.

Parmi ses caractéristiques, la mutation est principalement associée à un phénotype tumoral lobulaire (4 tumeurs sur 5). Les tumeurs sont négatives pour le récepteur de facteurs de croissance épidermiques HER2, et positives pour les récepteurs hormonaux. Côté fonctionnel, la protéine Abraxas mutée perd la localisation principalement nucléaire de la protéine sauvage pour devenir cytoplasmique, et ce défaut d’accumulation nucléaire empêche son recrutement au niveau des lésions de l’ADN, supprimant la possibilité de réparation de l’ADN par BRCA1.

Au final, il a été découvert un variant du gène Abraxas augmentant la susceptibilité des femmes au cancer du sein, même lorsque BRCA1 est intact. A terme cette mutation pourrait être ajoutée à la liste de celles pour lesquelles les familles prédisposées au cancer du sein peuvent être testées.

JIM

Dyslexie : désaccords cérébraux
Mardi, 13/03/2012 - 00:30

Chez les personnes dyslexiques, les hémisphères cérébraux semblent se répartir les tâches de façon inopérante lors de la perception des sons.

Que se passe-t-il lorsqu'un enfant présente des troubles de la lecture ? On suspecte depuis plusieurs années que la capacité à analyser les composantes sonores des mots est altérée chez les sujets dyslexiques. Une étude récente de plusieurs équipes de l'INSERM, du CNRS, de l'EHESS et de l'École Normale Supérieure semble confirmer ce modèle.

L'étude consiste à observer les oscillations électriques produites par chaque hémisphère cérébral en réponse à des sons de différentes fréquences. Chez les sujets non dyslexiques, le cortex auditif gauche réagit en émettant des oscillations électriques à un rythme de 30 par seconde, ce qui correspond à la fréquence des phonèmes (les plus petits sons audibles, par exemple s et ou dans la syllabe sou). Chez les dyslexiques, cette fréquence est de 50 à 60 hertz, ce qui ne correspond plus au rythme des phonèmes. En outre, le cortex auditif droit émet à 30 hertz.

Normalement, lors de la perception du langage, l'hémisphère gauche oscille au rythme des phonèmes (30 hertz) et le droit au rythme des syllabes (5 hertz). Chez les dyslexiques, l'hémisphère gauche ne se synchronise vraisemblablement plus avec le rythme des phonèmes, et oscille à des fréquences beaucoup trop élevées (50 hertz) sans lien avec le langage. En outre, l'analyse des données sonores à cette fréquence sature probablement la mémoire de travail des enfants.

La lecture est alors perturbée, car elle suppose de savoir découper mentalement les sons de la parole. Ces anomalies pourraient être d'origine génétique, des études anatomiques ayant révélé des malformations précoces du cortex dit périsylvien dans l'hémisphère gauche, empêchant cet hémisphère de produire les oscillations à la fréquence de 30 hertz. De telles observations pourraient conduire à distinguer plusieurs types de dyslexie, certains sujets présentant un défaut très net de la répartition des tâches entre les hémisphères, et d'autres beaucoup moins.

Pour La Science

Le processus de dégénérescence à l'origine de La maladie d'Alzheimer
Mardi, 13/03/2012 - 00:20

Des chercheurs de McGill trouvent le processus de dégénérescence à l'origine de la maladie d’Alzheimer. Une étude laisse entrevoir de nouvelles approches thérapeutiques.

Un groupe de recherche dirigé par le Docteur A. Claudio Cuello du Département de pharmacologie et de thérapeutique de l'Université McGill a découvert un processus déterminant pour comprendre la dégénérescence des cellules du cerveau dans la maladie d'Alzheimer (MA). Il ressort de l'étude, publiée dans l'édition de février du Journal of Neuroscience, que la découverte pourrait mener à d'autres thérapies de la MA.

Les chercheurs pensent qu'une dégradation dans la communication entre les neurones du cerveau contribuerait à la perte de mémoire et au déclin cognitif qui s'observe chez les personnes atteintes de MA. Ils soupçonnent le FCN (facteur de croissance du tissu nerveux), une molécule qui génère des signaux préservant les neurones cholinergiques (sous-ensemble de cellules du cerveau particulièrement sensibles à la MA) en santé durant la vie d'une personne. Curieusement, les scientifiques n'avaient jamais trouvé quoi que ce soit de suspect à cette molécule pour expliquer la dégénérescence de neurones cholinergiques chez les personnes atteintes de MA.

Or, la nouvelle étude a permis d'élucider le processus de libération du FCN dans le cerveau et de sa maturation en une forme active jusqu'à sa dégradation finale. Les chercheurs ont aussi pu déterminer la dégradation de ce processus dans la MA. Le groupe a montré que l'administration à des rats adultes en santé d'un médicament qui bloque la maturation du FCN actif entraîne la perte d'unités fonctionnelles cholinergiques similaire à la perte constatée dans la MA, qui se traduit par un déficit cognitif. Par contre, lorsqu'on les traitait avec un médicament destiné à empêcher la dégradation du FCN actif, les contacts cholinergiques augmentaient nettement.

"La difficulté à comprendre cette voie était en partie attribuable aux défis techniques associés à la différenciation des formes active et inactive du FCN", a expliqué Simon Allard, auteur principal de l'étude et boursier postdoctoral à McGill. "Les manipulations que nous proposons diffèrent des thérapies existantes en ce qu'elles visent à protéger les neurones de la dégénérescence."

Les auteurs croient que ces résultats pourraient ouvrir la voie à des traitements pharmacologiques qui retarderaient la progression de la maladie d'Alzheimer. "Cette découverte faciliterait la mise au point d'autres thérapies", a indiqué le Docteur Cuello, titulaire d'une Chaire Charles E. Frosst/Merck.

Techno Science

Peut-on construire un être humain de A à Z ?
Lundi, 12/03/2012 - 00:40

Après avoir permis l'amélioration du corps, la technologie pourrait à terme permettre la construction d'un être humain de A à Z, selon le site de la BBC qui énumère quelques membres et organes que la haute technologie et l'électronique pourraient aider à remplacer.

Comme le bras bionique, la jambe bionique est capable de «reproduire le mouvement naturel» d'un vrai membre en utilisant pour certaines les mêmes technologies que la télécommande de la Wii, permettant à l'utilisateur de «contrôler la direction et régler la taille des pas grâce à une manette».

Fin 2011, un coeur défectueux a été remplacé par un coeur en plastique pour la première fois : «Une pompe logée dans un sac à dos pousse le sang vers le coeur le long des tubes qui pénètrent dans le corps sous la cage thoracique. L'air est rythmiquement pompé dans le cœur artificiel, forçant le sang à parcourir le corps de la même façon que le ferait un coeur qui bat.»

Des implants oculaires ont permis de rendre la vue à certains patients aveugles. Plus courant, les «oreilles bioniques» ou implants cochléaire ont permis à des milliers de personnes de mieux entendre.

En juin 2011, des scientifiques ont réussi à implanter une mâchoire en titane identique à la mâchoire d'un patient à l'aide d'une impression 3D. Selon le Global Post, ils espèrent utiliser cette technique pour créer des os plus gros ou des «parties du corps plus complexes» tels que les vaisseaux sanguins.

Un des «défis» reste l'élaboration d'une peau bionique qui permettrait de «ressentir la pression, la température et la douleur». Défi que tente de relever un professeur de l'université de Californie à Berkeley. Avec la «e-skin», il espère à terme redonner le sens du toucher à des patients portant des prothèses.

Selon le Huffington Post, le professeur Hugh Herr a déclaré que dans une dizaine d'années, les membres bioniques pourront être reliés aux terminaisons nerveuses, permettant ainsi «une collaboration, une danse transparente entre la chair et la machine».

Slate

L’exercice a des effets bénéfiques sur l’ADN
Lundi, 12/03/2012 - 00:30

Les personnes sédentaires et en bonne santé qui se remettent au sport connaissent des changements immédiats et bénéfiques au niveau de leur ADN.

Quelques minutes d’exercice par jour et tout change…au niveau moléculaire. Si le code génétique porté par l’ADN n’est pas directement modifié par l’exercice, cette longue molécule subit quand même des modifications chimiques et structurelles. Ces modifications que les scientifiques qualifient d’épigénétiques, car elles ne modifient pas les gènes eux-mêmes mais des agents impliqués dans leurs expressions, se produisent au sein des muscles.

Au niveau musculaire, elles affectent des gènes qui permettent à l’organisme de s’adapter à l’effort et procurent les avantages structurels et métaboliques engendrés par l’exercice. « Le muscle s’adapte à ce que vous faites. Si vous ne l’utilisez pas vous le perdez et inversement. Nous avons identifié un mécanisme impliqué dans ce phénomène » explique Juleen Zierath de l'institut Karolinska en Suède.

Lorsque les chercheurs ont réalisé des tests sur des muscles plats en laboratoire (en les faisant se contracter), ils ont observé ces modifications épigénétiques. Curieusement, la caféine a le même effet. Bien que les auteurs de l’étude publiée dans Cell Metabolism ne conseillent pas de remplacer l’exercice par un petit café au comptoir, ils estiment que des médicaments à base de caféine pourraient être administrés aux personnes qui ne peuvent pas pratiquer de sport.

«L'exercice c’est de la médecine » souligne Juleen Zierath et  « il semble que le moyen de modifier nos génomes pour une meilleure santé peut être juste de faire un jogging de temps en temps ».

Sciences et Avenir

Santé : l'intelligence artificielle change la donne
Lundi, 12/03/2012 - 00:20

Les outils intelligents peuvent fournir à l'industrie la capacité de limiter le risque et les coûts. On peut le voir clairement en examinant le rôle de ces outils dans un secteur comme la Santé. Dans le système de la santé, des montants énormes de données n'ont pas été intégrés au système, des individus présentant des besoins et situations très divers sont souvent mal catégorisés, ce qui génère, avec d'autres problèmes, d'énormes pertes. Une « intelligence de la santé » basée sur les données représente l'espoir de l'industrie d'améliorer « l'efficacité, la qualité et la sécurité des soins prodigués. » Des outils adaptés permettraient d'économiser des millions de dollars, d'éviter aux patients des soins injustifiés et de rationaliser davantage les ressources.

Des outils de modélisation prédictive analysent les données pharmaceutiques et des plaintes médicales pour créer un score de risque fiable à 20-30 % près, limite due au fait que certaines données datent de plus de 30 jours. Les nouveaux systèmes seront capables de traiter, de fournir et d'analyser sur-le-champ des données médicales électroniques (Electronic Medical Records (EMR)), des systèmes d'information hospitalière (Hospital Information Systems (HIS)) et des échanges d'informations médicales (Health Information Exchanges (HIE)), améliorant de façon drastique l'analyse du risque, et limitant ainsi les coûts. Le système actuel ne peut prévoir le coût ou le risque avec suffisamment de précision pour identifier les patients à risque ou appliquer les médicaments et thérapies les plus efficacies, mais on y arrive peu à peu, notamment en créant des outils capables de traiter des volumes de données colossaux.

A l’image des secteurs de la Finance et de la Défense, les données complexes de l’industrie de la santé peuvent être analysées grâce à une intelligence artificielle plus sophistiquée. La technologie de l'Intelligence Artificielle d'entreprises comme UHealthSolutions recourt à une approche impliquant différentes techniques inspires de modèles biologiques. Les réseaux neuronaux sont des logiciels entraînables qui peuvent reconnaître des schémas ou des groupes comme les patients à risque.

Des algorithmes génétiques reproduisent les comportements de colonies bactériennes qui évoluent et se développent pour identifier les facteurs clés comme les éléments de risque pour la santé. Il est également possible d’analyser la flexibilité de données complexes pour des statistiques plus précises. Le traitement efficace des données et l'intégration de l'intelligence artificielle seront, à l’instar de l’industrie de la santé, bénéfiques aux entreprises pour prévoir le risque et y répondre, et pour réaliser des économies.

L'Atelier

Bactéries : un fanstastique pouvoir d'adaptation à leur environnement
Lundi, 12/03/2012 - 00:00

Comment la bactérie du sol Bacillus subtilis fait elle pour survivre et croître dans un environnement naturel en perpétuel changement (température, humidité, salinité, nutriments, etc.) ? Pour le comprendre, les chercheurs de 7 pays Européens et d’Australie qui participent au projet BaSysBio, coordonné par l’Inra et financé par la Commission Européenne, publient 2 articles majeurs dans la revue internationale « Science ». Pour la première fois, tous les niveaux de régulation dans une bactérie ont été pris en compte. Ces travaux révèlent l’architecture globale des régulations génétiques chez la bactérie et mettent en évidence des stratégies d’adaptation qui reflètent les contraintes évolutives imposées par un environnement en constant changement.

Dans la première étude, Bacillus subtilis a été exposé à plus d’une centaine de conditions différentes et la façon dont la bactérie réagit et adapte le niveau d’expression de ses gènes a été cartographiée. Dans la seconde étude, Bacillus subtilis a été exposé à un changement nutritionnel et la réaction de la bactérie a été mesurée au cours du temps au niveau de l’expression des gènes, de la production des protéines et du métabolisme. Ce qui est innovant dans cette recherche est l’ampleur des données expérimentales qui permettent de cartographier avec un haut niveau de détails les mécanismes de régulation. Habituellement, un seul niveau de régulation est étudié dans un nombre limité de conditions. Ici, tous les niveaux ont été pris en compte ainsi que la façon dont ils sont reliés l’un à l’autre. Ceci a été rendu possible par une intense collaboration entre les biologistes, les informaticiens, et les mathématiciens dans une approche de « biologie des systèmes » qui associe étroitement la production de données expérimentales sur les composants cellulaires, le traitement et l’analyse bioinformatique de ces données, et leur intégration dans des modèles mathématiques qui seuls permettent de prendre en compte cette complexité afin de comprendre le fonctionnement de la bactérie dans sa globalité.

Pourquoi choisir une centaine de conditions différentes ? Parce que ces conditions reflètent celles que Bacillus subtilis peut rencontrer dans la nature, mais aussi dans le laboratoire et dans l’industrie où cette bactérie est largement utilisée. Dans cette centaine de conditions, la bactérie exprime 96 % de ses gènes ce qui a permis de définir très précisément plus de 3000 endroits sur le chromosome où la lecture des gènes commence. Plus de 500 nouveaux gènes ont été découverts et des informations sur les fonctions de nombreux gènes ont été acquises.

A l’aide des modèles mathématiques développés, les chercheurs ont étudié comment Bacillus subtilis s’adaptait à la présence d’une nouvelle source de sucre dans son milieu. Les deux sucres utilisés, le glucose et le malate, sont une bonne source d’énergie. Bacillus subtilis a été mis soudainement en présence du second sucre, et des mesures globales ont été effectuées sur tous les composants cellulaires au fil du temps jusqu’à la complète adaptation. Un jeu de données sans précédent a ainsi été collecté et utilisé par les modélisateurs pour déterminer comment la bactérie passait d’une source d’énergie à l’autre et quels mécanismes de régulation étaient utilisés. Alors qu’a priori un petit nombre de modifications du système aurait suffi à l’adaptation, les résultats ont révélé une mobilisation d’une très large partie du système cellulaire selon des modalités et des temporalités distinctes : dans un cas, la régulation a lieu principalement au niveau de la transcription des gènes et se fait lentement, dans l’autre cas, elle a lieu au  niveau de la synthèse et de l’activité des protéines et se fait rapidement.

Les chercheurs ont cherché à replacer les mécanismes de régulation découverts dans le contexte de l’évolution de Bacillus subtilis. Ils ont pu proposer à l’aide de modèles mathématiques que les réactions très différentes de la bactérie au glucose et au malate sont dues à une stratégie évolutive de « réduction des coûts » d’utilisation du malate. Cette explication est très plausible car dans le sol, Bacillus subtilis vit près des racines des plantes qui produisent du malate. Par ailleurs, la centaine de conditions testées a mis en évidence de nombreux endroits du chromosome qui sont exprimés mais ne correspondent pas à des gènes codant pour des protéines. La modélisation statistique indique que cet effet a priori indésirable pour la bactérie est probablement une conséquence de son système de régulation très complexe. Malgré le risque que représente cette expression « en dehors des gènes », la bactérie a un avantage évolutif à posséder un système de régulation complexe qui lui permet de rapidement changer son programme génétique et de s’adapter.

INRA

Découverte d’un nouveau type de sarcome osseux
Dimanche, 11/03/2012 - 00:30

L’Institut Curie est le centre de référence en France pour la prise en charge clinique et pour la recherche sur les tumeurs d’Ewing, et à ce titre effectue une majorité des tests du diagnostic moléculaire sur cette pathologie. L’équipe d’Olivier Delattre, directeur de recherche de l’Unité Inserm 830/Institut Curie "Unité de génétique et biologie des cancers", a ainsi pu étudier le matériel génétique de 594 enfants pour lesquels l’existence d’une tumeur d’Ewing était suspectée. Grâce à une nouvelle technologie de séquençage appelée Next generation sequencing (NGS), il leur a été possible d’analyser en même temps un volume important de matériel génétique. Au cours de cette étude, les chercheurs ont découvert que certains échantillons ne présentaient pas la même mutation que celle de la tumeur d’Ewing.

Les chercheurs ont en fait réussi à isoler 24 échantillons présentant cette nouvelle mutation : une inversion d’une partie du chromosome X conduisant à la fusion de deux gènes proches, BCOR et CCNB3. La très faible distance séparant ces gènes, situés sur le même chromosome, a jusqu'ici rendu impossible leur mise en évidence par les méthodes classiques de diagnostic.

Les chercheurs ont ensuite comparé le matériel génétique de ces échantillons à celui des personnes atteintes d’une tumeur d'Ewing. La "carte d’identité" de cette nouvelle forme de sarcome indique que l'expression d'environ 3000 gènes est différente. "Cette « nouvelle » fusion est bien responsable d'un type de sarcome différent et non pas d’un variant de la tumeur d'Ewing" affirme le Docteur Olivier Delattre.

"C’est la première fois que l’on démontre la possibilité d’identifier une nouvelle entité tumorale à l'aide d'une technologie de séquençage haut débit" précise Franck Tirode, chargé de recherche Inserm, co-auteur de l’étude publiée. "En une seule étude, nous avons repéré 24 cas positifs pour cette translocation, ce qui est considérable" poursuit-il. "En valeur absolue, ces 24 cas représentent autant de cas que tous ceux dus à des translocations rares de la tumeur d'Ewing" ajoute Gaëlle Pierron, co-auteure, coordinatrice de l’unité de génétique somatique à l’Institut Curie.

La présence de la protéine de fusion a, quant à elle, été vérifiée sur des prélèvements de tumeurs par des techniques d'immunohistochimie qui permettent de repérer les protéines d’intérêt. "La détection de la surexpression de la protéine CCNB3, de par sa fusion à BCOR, est extrêmement spécifique de ces tumeurs, ce qui permet de proposer un test diagnostique simple" précise Gaëlle Pierron.

"Actuellement les patients sont traités de la même manière que ceux atteints de tumeur d'Ewing. Des études cliniques vont désormais pouvoir être mises en place pour voir s'il est possible de les prendre en charge autrement" indique Olivier Delattre.

D'autres patients atteints par cette nouvelle forme de sarcome vont pouvoir être identifiés. L’identification de la fusion des deux gènes pourrait permettre le diagnostic de cette nouvelle forme de tumeur chez de nouveaux patients qui se verront alors proposer un traitement adapté. "C'est du dialogue entre médecins et chercheurs que naissent les véritables progrès de la cancérologie et il faut donner les moyens à chacun de renforcer encore ces échanges" conclut le Docteur Olivier Delattre.

Les chercheurs vont désormais s’atteler à déchiffrer le mécanisme d'action de la protéine de fusion qui conduit à la formation de la tumeur. En particulier, ils vont tenter de comprendre pourquoi cliniquement ce nouveau type de sarcome est semblable à une tumeur d'Ewing, alors que biologiquement ces tumeurs ne le sont pas. Une activation commune de certaines voies de signalisation intracellulaires pourrait en être la cause.

Inserm

Le lien génétique des maladies coronariennes découvert
Dimanche, 11/03/2012 - 00:20

Une équipe internationale de chercheurs sous la direction de l'université de Leicester au Royaume-Uni a identifié un lien génétique pour les maladies coronariennes. Les résultats de l'étude, présentés dans la revue The Lancet, démontrent que la maladie, responsable de milliers de décès chaque année, est transmise de père en fils. L'étude était partiellement financée au titre d'une subvention du sixième programme-cadre (6e PC) de l'UE.

Les chercheurs ont découvert que le chromosome Y, exclusivement présent dans l'ADN des personnes de sexe masculin, influence la susceptibilité de transmission de père en fils. La maladie est responsable du rétrécissement des vaisseaux sanguins apportant le sang au coeur. Le manque d'apport d'oxygène au coeur déclenche plusieurs symptômes dont la constriction thoracique et les crises cardiaques.

Selon la British Heart Foundation, plus de 88 000 décès au Royaume-Uni pour l'année 2008 étaient attribuables à des maladies coronariennes ; plus de 49.000 hommes étaient concernés, pour quelque 38.000 femmes. Dans cette dernière étude, l'ADN de plus de 3 000 hommes provenant des études British Heart Foundation Family Heart Study (BHF-FHS) et de la West of Scotland Coronary Prevention Study (WOSCOPS) a été évalué. Leurs données montrent que 90 % des chromosomes Y britanniques appartiennent à l'un des deux groupes principaux : l'haplogroupe I et l'haplogroupe R1b1b2.

Les hommes portant un chromosome Y de l'haplogroupe 1 courent 50 % de risque en plus de souffrir d'une maladie coronarienne. Les chercheurs font remarquer que le risque est indépendant des facteurs de risques traditionnels comme un taux de cholestérol élevé, de l'hypertension et le tabagisme. Le risque accru dépend de la manière dont l'haplogroupe 1 affecte le système immunitaire et l'inflammation, en d'autres termes, il dépend de la manière dont le corps réagit aux infections.

«Nous sommes très contents de nos résultats car ils indiquent le chromosome Y comme étant un facteur de susceptibilité génétique pour les maladies coronariennes», explique le principal chercheur et auteur de l'étude, le Docteur Maciej Tomaszewski, professeur clinique du département de sciences cardiovasculaires de l'université britannique. «Nous espérons analyser davantage le chromosome Y pour trouver des variantes et des gènes spécifiques impliqués dans cette association.»

Il ajoute : «La découverte principale de ces résultats est que le chromosome Y semble jouer un rôle dans le système cardiovasculaire bien au-delà de la simple détermination traditionnellement admise du sexe masculin. L'université de Leicester est une institution particulièrement active dans la recherche génétique depuis de nombreuses années. Le succès de cette étude se fonde sur l'excellence de soutien aux études génétiques du département de sciences cardiovasculaires et de l'unité de recherche biomédicale cardiovasculaire de Leicester.»

Des chercheurs des institutions britanniques suivantes King's College de Londres, de l'université de Glasgow, de l'université de Leeds, du Wellcome Trust Sanger Institute, de l'université de Cambridge ainsi que de l'université de Ballarat et du Garvan Institute of Medical Research en Australie, de l'université de Lübeck et de l'université de Regensburg en Allemagne, et de l'école de médecine et de l'université Pierre et Marie Curie en France ont tous contribué à cette étude.

Cordis

Quand votre main gauche mime ce que fait votre main droite : une histoire de gène
Samedi, 10/03/2012 - 00:40

Des chercheurs de l'Inserm, du CNRS, de l'UPMC et de l'AP-HP au sein du Centre de Recherche de l’Institut du Cerveau et de la Moelle (CRICM) de la Pitié-Salpêtrière, viennent de mettre en évidence des mutations à l’origine de la maladie des mouvements en miroir congénitaux. Les personnes atteintes de cette maladie ont perdu la capacité de réaliser un mouvement différent des deux mains. Grâce au séquençage du génome de plusieurs membres d’une même famille française, le gène RAD51 a été identifié. Des travaux complémentaires menés chez la souris suggèrent qu’il s’agit d’un gène impliqué dans le croisement des voies motrices. Ce croisement est un point clé de transmission des informations cérébrales puisqu’il permet à la partie droite du cerveau de contrôler la partie gauche du corps et inversement. Ces travaux sont publiés dans la revue The American Journal of Human Genetics.

Les mouvements en miroir congénitaux constituent une maladie rare qui se transmet de génération en génération. Les personnes atteintes ont perdu la capacité de réaliser un mouvement différent des deux mains : lorsqu’une main effectue un mouvement, l’autre main est "obligée" d’effectuer le même mouvement, même contre la volonté du sujet. Dans cette maladie, il est donc rigoureusement impossible d’avoir une activité motrice bi-manuelle telle que jouer du piano par exemple. Il arrive que l’on observe ces phénomènes chez les enfants, mais ils disparaissent généralement spontanément avant l’âge de 10 ans, sûrement grâce à la maturation des réseaux de neurones moteurs. Toutefois chez les personnes malades, les symptômes de la maladie débutent dès la petite enfance et restent inchangés tout au long de la vie.

En 2010, des chercheurs québécois ont découvert un gène responsable de la maladie grâce à l’analyse du génome des membres d’une grande famille canadienne. Des mutations avaient été identifiées dans le gène DCC (Deleted in Colorectal Carcinoma). Après cette découverte, l’équipe de chercheurs et de médecins coordonnée par Emmanuel Flamand-Roze a donc cherché des mutations de ce gène chez plusieurs membres d’une famille française atteinte de la maladie des mouvements en miroir congénitaux : sans succès. "Le gène DCC était intact, explique Emmanuel Flamand-Roze. Alors que l’on croyait toucher au but, il a donc fallu chercher une mutation dans un autre gène." ajoute-t-il.

Par une approche couplant une analyse génétique conventionnelle et une analyse en "whole exome" (une technique d’analyse génétique de nouvelle génération permettant le séquençage entier de la partie signifiante du génome) les chercheurs ont démontré que le gène RAD51 était responsable de la maladie des mouvements en miroir congénitaux dans une grande famille française et confirmé ce résultat dans une famille allemande atteinte de la même maladie.

"Le gène RAD51 était bien connu de la communauté scientifique pour son rôle potentiel dans la survenue de certains cancers et dans les phénomène de résistance aux chimiothérapies" explique Emmanuel Flamand-Roze. Nous avons donc cherché s’il pouvait avoir une fonction différente pouvant expliquer les symptômes moteurs de cette maladie.

Le système moteur se constitue chez l’homme selon une organisation croisée : le cerveau gauche commandant la motricité du côté droit et réciproquement, avec un croisement qui s’effectue au niveau du tronc cérébral. En étudiant l’expression de la protéine RAD51 au cours du développement du système moteur chez la souris, les chercheurs ont découvert que ce gène pourrait être impliqué dans le croisement des voies motrices reliant le cerveau à la moelle épinière au niveau du tronc cérébral.

Cette découverte ouvre un champ complètement nouveau d’investigation pour la connaissance du développement du système moteur et pour une meilleure compréhension des mécanismes cérébraux qui contrôlent la motricité bi-manuelle (très mal connus). Elle pourrait ainsi permettre d’apporter un éclairage sur d’autres désordres moteurs impliquant une altération de l’organisation fine du mouvement tels que la dystonie ou sur certaines maladies génétiques neuro-développementales.

Inserm

Une protéine qui affaiblit le VIH
Samedi, 10/03/2012 - 00:00

Des chercheurs ont découvert qu'une protéine responsable de la protection de certaines cellules immunitaires contre la forme la plus répandue et virulente du VIH est parvenue à priver le virus des éléments moléculaires dont il a besoin pour se multiplier. L'étude, publiée dans la revue Nature Immunology, était en partie financée par une subvention du Conseil européen de la recherche (CER) au titre du septième programme-cadre (7e PC). Les résultats pourraient nous aider à mieux comprendre pourquoi certains médicaments anti-VIH sont plus efficaces que d'autres.

Des chercheurs dirigés par l'Institut national de la santé et de la recherche médicale (INSERM) en France expliquent que ce dernier développement pourrait se révéler bénéfique d'une part pour le développement de médicaments anti-VIH et d'autre part pour l'impact potentiel qu'il pourrait avoir sur d'autres pathogènes dont les herpèsvirus.

«Les résultats pourraient expliquer pourquoi certains médicaments anti-VIH actuels sont plus efficaces dans certaines circonstances», commente le professeur Baek Kim de l'University of Rochester Medical Center aux États-Unis, l'un des auteurs de l'étude. «L'étude offre de nouvelles informations sur la manière dont d'autres virus fonctionnent dans l'organisme des personnes qu'ils affectent.»

La recherche porte sur la protéine connue sous le nom de SAMHD1, que l'on trouve dans les macrophages ainsi que dans certaines cellules, les cellules dendritiques. En 2011, les chercheurs ont découvert que cette protéine empêche le VIH-1 d'infecter les macrophages, les cellules qui «mangent» les pathogènes, dont les virus.

Dans cette dernière étude, l'équipe a découvert que la molécule SAMHD1 supprime la série de matières premières nécessaires au VIH pour la création et la réplication de son ADN (acide désoxyribonucléique), les déoxynucléosides triphosphates (dNTP), les bases de l'ADN. SAMHD1 endommage ces éléments, empêchant ainsi le VIH-1 de se répliquer dans les macrophages. L'étude a également mis en lumière la manière dont une protéine exprimée par un autre type de VIH, VIH-2, bloque SAMHD1. La protéine virale X (Vpx) dégrade SAMHD1, facilitant l'infection au VIH-2 dans les macrophages.

«Nous ignorons encore exactement comment SAMHD1 et Vpx affectent la virulence du VIH-1 et du VIH-2, mais nous explorons activement ce point.» «Dans ce cas, la capacité du VIH-2 à se répliquer plus rapidement dans les macrophages ne le rend pas plus virulent».

L'équipe a émis l'hypothèse selon laquelle les mutations dans l'ADN viral contournent la voie bloquée par SAMHD1. Et c'est donc là que réside toute la difficulté de traiter les patients.

Cordis

Comment agit le cannabis sur la mémoire de travail
Vendredi, 09/03/2012 - 15:19

La mémoire de travail permet de réaliser des opérations cognitives courantes (réfléchir, lire, écrire, calculer…) sur des informations stockées temporairement (de quelques secondes à quelques minutes). Cette capacité est responsable de l'intégration des informations sonores, visuelles et spatiales.

L'un des effets majeurs de l'intoxication aux cannabinoïdes est l’altération de la mémoire de travail, à la fois observée chez l'homme et l'animal. Le cannabis entraîne des perturbations de cette fonction qui empêche son consommateur d'effectuer des tâches qu'il sait pourtant réaliser au quotidien. Les récepteurs aux cannabinoïdes sont exprimés sur les cellules gliales de l'hippocampe, une structure cérébrale essentielle à la modulation des souvenirs. Jusqu'alors, les mécanismes cellulaires entraînant les effets délétères du cannabis sur ce processus de mémorisation étaient inconnus.

Giovanni Marsicano, chargé de recherche Inserm et ses collaborateurs du Neurocentre Magendie (unité Inserm 862/université bordeaux 2) sont parvenus à décrire un mécanisme par lequel le cannabis engendre des effets délétères sur la mémoire de travail. Les chercheurs ont montré que les cannabinoïdes, une fois liés à leurs récepteurs, diminuent la force des connexions entre les neurones au niveau de l'hippocampe.

Les cannabinoïdes regroupent environ 60 composés issus de la feuille et la fleur de cannabis. Ils agissent sur le cerveau via "les récepteurs cannabinoïdes". Dans cette étude, l'équipe de recherche s'est penchée sur le récepteur CB1, particulièrement abondant au niveau des terminaisons nerveuses du cerveau. Le récepteur CB1 est présent à la fois sur la membrane des neurones (en jaune) mais aussi sur la membrane de cellules dites "astrogliales" (en rose) de l'hippocampe (en orange) qui servent de support aux neurones.

La liaison des cannabinoïdes (en vert) aux récepteurs CB1 (en rose) active l'envoi de signaux (glutamate, en bleu clair) aux récepteurs à glutamate (en bleu foncé) des terminaisons nerveuses qui permettent la circulation de l'information de neurones en neurones. Ce mécanisme module la force des connexions entre les neurones de l'hippocampe (dépression du signal) qui perturberait la mémoire de travail.

Pour découvrir les mécanismes d'action des cannabinoïdes, les chercheurs ont évalué la mémoire de travail spatiale, en présence de THC (le cannabinoïde le plus connu, en vert). Deux groupes de souris, chez lesquelles les récepteurs CB1 ont été supprimés respectivement sur les cellules astrogliales ou les neurones, ont été étudiés.

Lorsque les récepteurs CB1 sont supprimés uniquement sur les neurones, le THC induit des déficits de mémoire de travail spatiale chez les souris. Au contraire, lorsque seuls les récepteurs CB1 situés au niveau des cellules astrogliales sont supprimés, les performances de mémoire de travail spatiale sont préservées chez les souris. Ainsi, les récepteurs CB1 localisés au niveau des cellules astrogliales sont responsables des effets délétères du THC sur cette forme de mémoire. "Ces résultats montrent de façon surprenante, in vitro et in vivo, l'importance de l'activation des récepteurs CB1 des cellules astrogliales, et non ceux des neurones, dans la médiation des effets des cannabinoïdes sur la mémoire de travail" explique Giovanni Marsicano.

CNRS

La fatigue des adolescents peut être guérie par Internet
Vendredi, 09/03/2012 - 05:30

Souvent accusé de bien des maux Internet peut aussi avoir quelques vertus thérapeutiques. C’est ce que démontre une étude qui vient d’être publiée sur le site de l’hebdomadaire médical britannique The Lancet. Ce travail concerne le syndrome de fatigue chronique. On désigne ainsi une entité pathologique d’origine récente, de plus en plus fréquente et aux origines toujours fort mal connues.

Comme l’indique son nom, elle se caractérise par une fatigue soit persistante et récidivante, résistante au repos, évoluant depuis au moins six mois et imposant à la personne qui en souffre une réduction des activités. Le sommeil n’est pas réparateur. On observe aussi souvent, associée à cette asthénie, un cortège de symptômes variés comme des troubles de la mémoire ou de la concentration, des douleurs musculaires et/ou articulaires, des maux de tête, etc.

Chez les adolescents, ce syndrome est à l’origine d’absences scolaires récurrentes et prolongées.

Les auteurs du Lancet estiment que la thérapie comportementale a dans ce domaine apporté les preuves de son efficacité, mais que ses limites tiennent à l’absence de praticiens spécialisés. D’où l’intérêt potentiel de développer des consultations sur Internet. La nouveauté vient aujourd’hui d’une équipe dirigée par le Docteur Sanne Nijhof et le Professeur Elise M van de Putte (Centre médical universitaire d’Utrecht, Pays-Bas). Les médecins ont pris en charge un groupe de 135 adolescents souffrant de ce syndrome depuis au moins deux ans.

Ils ont, en tirant au sort, constitué deux groupes. Dans le premier les adolescents fatigués ont reçu une thérapie comportementale individuelle et collective habituellement proposée dans cette situation. Ceux du second groupe ont bénéficié d’un nouveau programme dénommé Fitnet développé par l’université d’Utrecht.

Il s’agit là d’un programme thérapeutique original basé sur Internet. Il est fondé sur des protocoles existants de thérapie cognitivo-comportementale et a été spécifiquement élaboré pour les adolescents souffrant de ce syndrome et leurs parents. Un thérapeute spécialisé apporte ici un soutien via des consultations régulières assurées par échange de courriers électroniques.

Dans les deux groupes, des questionnaires standardisés ont été utilisés pour évaluer la fatigue, le fonctionnement physique et l'auto-évaluation de l’amélioration de l’état de santé. Parallèlement, la fréquentation scolaire était enregistrée de manière objective.

Au bout de six mois, il est apparu que la proportion des adolescents ayant vu leurs symptômes s’estomper de manière significative était nettement plus importante dans le second groupe que dans le premier (85 % contre 27 %). Des différences notables ont aussi été notées pour ce qui était des performances physiques (78 % contre 2 0%). Il en a été de même pour l’amélioration de la réduction de l’absentéisme scolaire (75 % contre 16 %).

Ces progrès étaient toujours observés à douze mois. Il semble donc bien que l’efficacité du traitement soit due à la médiation de la thérapeutique par Internet. «La démonstration définitive, concluent les auteurs, sera apportée par les résultats d’essais cliniques conduits sur de plus larges échelles.»

Pour les Professeurs Peter Barts (Queen Mary University of London) et Trudie Chalder King’s College London), ces auteurs devraient être chaleureusement félicités pour avoir démontré qu’il est possible d’administrer par d’autres voies, nettement plus souples, une thérapeutique qui avait déjà fait ses preuves dans le cadre d’une relation traditionnelle, de visu. Rien désormais n’interdit de penser que cette méthode puisse être proposée avec succès dans la prise en charge d’autres affections.

Slate

Une molécule qui met la tumeur sous contrôle
Vendredi, 09/03/2012 - 05:20

Le cancer, pour se diffuser dans l'organisme, a besoin d'être alimenté. Un des objectifs actuels de la recherche est donc de mettre au point des médicaments capables d'affamer les tumeurs cancéreuses. C'est sur ce principe que fonctionne le cabozantinib, une nouvelle molécule qui agit à deux niveaux dans le mécanisme de la cancérisation : sur le récepteur VEGF, impliqué dans la croissance de nouveaux vaisseaux chargés d'irriguer les métastases, mais aussi sur le récepteur c-MET, qui lui participe à la prolifération cellulaire.

Cette action sur les deux types de récepteurs semble indispensable pour maîtriser le développement cancéreux. Des essais chez l'animal ont en effet montré que si seuls les récepteurs VEGF étaient inhibés, le cancer pouvait se "défendre" de manière agressive en envahissant d'autres tissus et en faisant des tumeurs secondaires. Mais le blocage simultané des récepteurs c-MET, comme le fait le cabozantinib, permet de déjouer cette stratégie de défense…

Une équipe de l'Université de San Francisco a testé la molécule sur des cellules cancéreuses de souris. Après 14 semaines de développement du cancer chez les animaux, ceux-ci ont reçu de doses quotidiennes de cabozantinib. Les résultats sont parus dans la revue NewScientist : toutes les souris traitées ont survécu jusqu'à l'âge de 20 semaines après la fin de l'étude, alors que toutes les autres sont mortes.

Ces bons résultats sont dus au contrôle par la molécule des tumeurs inoculées chez la souris. Chez les rongeurs non traités, le cancer s'est étendu, générant des métastases jusqu'à les tuer. En revanche, chez les souris sous cabozantinib, les chercheurs ont observé une absence de métastases et le confinement de la tumeur, sous forme d'une masse cellulaire lisse et compacte. A en croire l'équipe de recherche, aucuns résultats de ce type, associés à une telle longévité des animaux n'avaient été jusque-là observés dans ce type de cancer avancé chez la souris.

D'autres études, qui associent des molécules connues pour couper l'irrigation des cellules cancéreuses sont actuellement testées en association avec des bloqueurs du récepteur c-MET, dans le traitement de cancers avancés du sein, du côlon et du foie. Toujours est-il que le cabozantinib molécule "2 en 1" a donné ensuite des résultats impressionnants chez l'homme.

"Le nouveau médicament a en effet été administré à 108 hommes atteints d'un cancer de la prostate récemment métastasé dans les os, pendant 3 mois. Les tumeurs cancéreuses des os des patients ont été réduites ou ont totalement disparu et trois-quarts des hommes ont vu leurs tumeurs primaires réduites. Enfin, deux-tiers des patients traités ont déclaré que leurs douleurs s'étaient calmées, certains ayant même cessé de prendre de la morphine…

Selon un des chercheurs, de l'université catholique de Louvain-la-Neuve, qui a participé à quelques essais, les résultats obtenus avec le cabozantinib sont inattendus et très prometteurs, aussi en raison du très large champs d'action apparent du médicament. Habituellement, les nouveaux médicaments testés ne fonctionnent pas contre différents types de tumeurs. Le cabozantinib, lui, a produit des résultats probants dans 12 des 13 cancers testés.

AACR

Cancer colorectal : Un nouveau test de dépistage plus efficace en 2013
Vendredi, 09/03/2012 - 05:10

Un nouveau test de dépistage du cancer du côlon, en 2013, vient d’être annoncé par la secrétaire d'Etat à la Santé. Plus sensible, il remplacera progressivement le test actuel, l'Hemoccult. Les pouvoirs publics et les médecins espèrent que le nouveau test sera plus utilisé par les patients.

Il repose toujours sur la détection de sang dans les selles. Mais si l'Hemoccult est basé sur une réaction enzymatique, celui-ci est immunologique. Il détecte par une réaction antigène-anticorps la présence d'hémoglobine.

  • Fiabilité accrue

Ce test, qui ne porte pas encore de nom, est présenté comme beaucoup plus sensible que son prédécesseur. "Le test immunologique est beaucoup plus performant, car la concentration en hémoglobine qu'il détecte est beaucoup plus basse", indique le Professeur Jean Faivre, gastro-entérologue au CHU de Dijon et chercheur à l'Inserm. Un seul prélèvement sera donc nécessaire alors que trois prélèvements doivent être réalisés avec l'Hemoccult. Quant à la lecture du test, elle ne laissera aucune place à la subjectivité. Effectuée par un automate immunologique en laboratoire, ce qui n'était pas le cas pour l'Hemoccult, elle donnera un résultat quantitatif précis.

"L'Hemoccult détecte environ 40 % des cancers. Avec le nouveau test, le taux de détections passerait environ à 80 %", continue le Professeur Faivre. La secrétaire d'Etat à la Santé, Nora Berra, a quant à elle précisé qu'il permettrait également de dépister trois à quatre fois plus d'adénomes avancés (précurseurs de tumeurs malignes cancéreuses).

La Haute Autoristé de Santé (HAS) avait émis un avis favorable pour les tests immunologiques dès 2008, tout en soulignant la nécessité d’en préciser et délimiter les utilisations. Pourquoi tant d’années d’attente ? "Nous disposions de données qui permettaient de savoir que le test immunologique était meilleur que celui existait déjà. Mais ces données n’étaient pas suffisantes pour faire des recommandations à l'échelle d'un pays, il s’agissait seulement d’informations fragmentaires", explique le Professeur Faivre.

Des études ont donc été menées dans sept départements pour évaluer la performance du test. En revanche, son acceptabilité n'a pas été étudiée. Mais pour le Professeur Faivre, au regard de l'exemple néerlandais, où il est utilisé par 60 % des patient ciblés, il y a de quoi être plutôt optimiste. "Pour représenter un intérêt véritable pour la santé publique, un test de dépistage doit toucher au moins 50 % de la population concernée. Notre but serait donc atteint."

  • Le test qui "a tout bon" se fera-t-il attendre ?

Plus fiable, mieux accepté par les patients, le test immunologique, même s'il n'est pas idéal, semble avoir tout pour plaire. "Il va transformer le dépistage du cancer de côlon", s'enthousiasme le Professeur Jean Faivre. Malgré tout, il doute d'une mise en place rapide du dispositif, malgré l'annonce de Nora Berra. La faute, selon lui, à une grande lenteur des pouvoirs publics. "Les choses risquent encore de tarder. Il va maintenant falloir lancer un appel d'offres à l'échelle européenne pour obtenir le test le plus économique possible. Et la Caisse nationale d'Assurance-Maladie n'a pas l'air particulièrement pressée…"

Les cancers du côlon et du rectum constituent la deuxième cause de mort par cancer en France avec 17 500 décès par an et arrivent au troisième rang des cas de cancer détectés (chiffres du rapport "Situation du cancer en France en 2011"). On estime que la mortalité par cancer colorectal serait réduite de 15 % à 20 % si la moitié de la population cible se soumettait au test car la précocité du dépistage est essentielle pour la survie du patient.

Allo docteurs

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La création d'emplois, liée à l'usage des technologies dans une entreprise
Jeudi, 15/03/2012 - 00:30

Les entreprises qui ont intégré les outils technologiques dans leurs métiers et leurs processus créeraient plus d'emplois que celles qui n'ont pas passé le cap. Reste que ce critère est nécessaire mais pas suffisant.

Il serait plus facile de créer une entreprise grâce à la réduction des coûts au lancement, aux marchés plus larges, aux talents plus faciles à trouver ou la plus grande disponibilité d'outils pour innover que permettent l'utilisation des technologies de l'information. A tel point que ce sont les entreprises qui utilisent le plus la technologie qui créeraient le plus d'emplois. Voilà ce que conclut un rapport du Technology CEO Council. Selon lui, les entreprises qui ont un usage intensif des technologies de l'information auraient vu l'emploi croître à un taux de 5,1 % entre 2001 et 2009, contre une diminution de 0,9 en moyenne. Et pour cause, si la technologie rend obsolètes certains emplois, elle en crée également. Selon une étude du McKinsey Global Institute, citée dans le rapport, il y aurait en effet 2,6 emplois créés pour chaque emploi détruit. Mais ils ne demandent évidemment pas les mêmes compétences.

  • La technologie change les règles

Sur ce constat, le Technology CEO Council fait état de dix façons dont la technologie aide à créer et à développer une entreprise. En effet, les outils mis au point permettent d'entrer en contact avec des investisseurs facilement afin de trouver des fonds mais également de baisser les coûts des services et des opérations. De la même façon, le développement technologique permettrait, grâce aux outils d'analyse accessibles, le traitement de données importantes qui facilitent la prise de décision. Par ailleurs, ces technologies donneraient la possibilité d'élargir les opportunités de croissance en permettant de toucher des marchés plus larges. Les solutions technologiques existantes faciliteraient également le changement de business model à l'instar d'un rédacteur de livre qui entre par l'e-book et non pas par une maison d'édition.

  • De nouveaux commerces

Pour le Technology CEO Council, cela crée également de nouveaux métiers, produits et services tels que la création d'application. Le rapport cite aussi la personnalisation de ces produits et services pour le client à l'instar du "pay-per-use". Outre la technologie qui est un pilier du développement économique et de la création d'emploi, le Technology CEO Council met en lumière trois autres éléments. D'abord, les talents puisque la qualité d'une entreprise, mais également son avenir, dépend des hommes et des femmes qui la constituent, et ce dès l'éducation. Les marchés, puisque ce sont sur ces derniers que l'entreprise trouvera ses clients et ses fournisseurs. Et enfin le capital, outil indispensable à l'investissement, et donc à la création et au développement d'une entreprise.

L'Atelier

Sénakht-en-Rê, la « redécouverte » d'un pharaon
Mercredi, 14/03/2012 - 00:40

Les égyptologues ne connaissaient jusqu'ici que son nom : Sénakht-en-Rê. La découverte d'un linteau de porte fragmentaire par les archéologues du Centre franco-égyptien d'étude des temples de Karnak (CNRS/Ministère d'état des antiquités égyptiennes) en février 2012 permet à ce pharaon de retrouver enfin sa place dans la chronologie des souverains égyptiens de la XVIIe dynastie.

Le Centre franco-égyptien d'étude des temples de Karnak a été créé en 1967 par le CNRS et le Ministère d'état des antiquités égyptiennes pour étudier et restaurer le domaine d'Amon-Rê à Karnak (Louqsor).

Depuis octobre 2008, un programme d'étude est mené sur le temple de Ptah, situé en limite septentrionale du temple d'Amon-Rê. Construit sous le règne de Thoutmosis III (env. 1479-1424 av. J.-C.), ce temple avait été restauré, agrandi et aménagé jusqu'au règne de l'empereur Tibère (14-37 après. J.-C.). Cette étude comprend une documentation épigraphique, architecturale, archéologique et photographique, associée à un programme de restauration et de mise en valeur du site en vue de son ouverture au public.

Les fouilles conduites jusqu'ici dans le temple de Ptah ont mis en évidence des structures plus anciennes, murs massifs en briques crues, probables vestiges d'un temple précédent ; jusqu'à présent, seule la céramique recueillie indiquait une datation fin XVIIe dynastie - début XVIIIe dynastie.

C'est au cours du mois de février 2012 que l'équipe CNRS découvre alors, en bordure méridionale du temple, un montant et un linteau fragmentaire en calcaire, premiers éléments d'une structure administrative datant de la XVIIe dynastie (env. 1634-1543 avant J.-C.).

Seul le recours à la grue du Centre permet d'extraire l'imposant montant de porte de plus de 2 m de haut et pesant près d'une tonne. Les archéologues peuvent alors lire les hiéroglyphes conservées sur le monument : ceux-ci précisent qu'il s'agit d'une porte de grenier dédiée à Amon-Rê, dieu tutélaire de Karnak. Mais ils révèlent surtout l'identité du bâtisseur de cette structure : le pharaon Sénakht-en-Rê.

Il s'agit là du premier document contemporain de ce roi jamais découvert. Son nom était jusqu'ici connu uniquement par trois documents posthumes rédigés un à deux siècles après son règne, durant les XVIIIe et XIXe dynasties (env. 1543-1186 av. J.-C.) : Sénakht-en-Rê était considéré par les anciens Égyptiens eux-mêmes comme un des ancêtres des souverains fondateurs du Nouvel Empire. Mais la localisation de sa tombe, qui se trouvait très vraisemblablement sur la rive ouest thébaine, reste inconnue. De ce pharaon, l'on ignorait tout… jusqu'à ce jour.

Car le montant de porte livre les trois principaux noms du souverain : « Horus », « Roi de Haute et Basse Égypte » et « Fils de Rê » : cette série de noms, totalement inédite, permet d'identifier avec certitude ce souverain.

L'identification d'un pharaon par la découverte de sa titulature1 royale presque complète reste extrêmement rare de nos jours. Celle de Sénakht-en-Ré a des implications importantes dans les reconstitutions historiques fondées sur l'historiographie égyptienne et modifie en profondeur notre connaissance de la chronologie de cette période qui voit la fin de la domination Hyksôs en Égypte et l'émergence du Nouvel Empire.

CNRS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top