RTFlash

RTFLASH Recherche & Technologie
NUMERO 619
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Octobre 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le porte-monnaie électronique Google Wallet concurrence la carte bancaire
Des virus à l'attaque des drones de l'armée américaine
Communication par lumière visible : après le Wi-Fi, le Li-Fi
Inauguration du premier hôpital tout fibre optique en France
Des puces RFID facilitent le guidage dans la ville pour les malvoyants
Visualiser son domicile en 3D sur une feuille de papier !
Matière
Recycler le CO2 : une nouvelle approche
Combiner de l’eau et des bactéries pour produire de l’hydrogène
La photonique entre dans les puces électroniques
Espace
L'œil était dans les Andes et regardait le ciel
Lancement de Megha-Tropiques le 12 octobre
L'eau sur Terre vient aussi des comètes
Galileo : mise en orbite des 2 premiers satellites le 20 octobre prochain
Vivant
Notre cerveau peut « zapper » les mauvaises nouvelles
Cellules souches d'embryon : premier essai clinique européen
De nouveaux radioéléments ciblés pour détruire les métastases
Les jus de fruit trop sucrés augmenteraient les risques de cancer
Manger des fruits pour réduire ses risques d'AVC !
Filmer directement nos souvenirs dans notre cerveau : plus tout à fait de la science-fiction !
Un médicament issu du plasma pour neutraliser l'E. coli tueuse
Un T-shirt pour améliorer les services hospitaliers
L'insuline donne des résultats encourageants contre la maladie d'Alzeiheimer
Hypoglycémie sévère : découverte d’un gène clé
La narcolepsie déclenchée par la grippe ?
Le gène de la douleur chronique identifié
Quand la moelle osseuse protège le cerveau !
Jules Hoffmann, Prix Nobel de Médecine et de physiologie 2011
Sclérose en plaque : démarrage d'un essai clinique à l'aide de cellules souches
Paludisme : un vaccin français tient la corde
Recherche
Michelin partenaire du projet DeltaWing des 24 Heures du Mans
Mercedes présente la voiture de 2025
Edito
Steve Jobs, le visionnaire qui a rendu la technologie désirable



Le décès de Steve Jobs, fondateur et patron charismatique d'Apple a donné lieu à de multiples hommages amplement mérités mais je souhaiterais en ajouter un qui tente de déborder les dimensions technologiques et économiques de cette aventure humaine hors du commun.

Parti de rien, il y a 35 ans, Steve Jobs fut la pure incarnation du rêve américain dans ce qu'il a de plus fascinant. Il a révolutionné l'informatique en inventant avec son compère Steve Worniak, l'Apple 1 et 2 puis en dévoilant en 1983 une interface graphique utilisant la souris, concept génial qui aura, avec le lecteur de disquettes, autre idée de génie, un immense succès avec le Macintosh sorti en 1984. Ces innovations décisives seront reprises par tous les fabricants informatiques, IBM en tête, et s'imposeront très vite sur tous les ordinateurs de la planète.

Obligé de quitter sa propre société en 1985, Steve Jobs sut rebondir, à la tête des Studios PIXAR, avec l'extraordinaire talent qui était le sien. Après 12 ans d'absence, il y eut le retour de l'enfant prodigue au bercail et Jobs retrouva en 1997 la présidence d'Apple, bien décidé à en faire le leader mondial de l'innovation numérique en imposant envers et contre tous sa vision de l'avenir.

Revenu à la tête d'Apple, il su comprendre avant tout le monde que la technologie ne devait pas seulement être efficace. Pour séduire un très large public, elle devait être belle, séduisante et surtout, intuitive. En lançant l'iPod en 2001, l'iPhone en 2007 et l'iPad en 2010, il renversa purement et simplement le paradigme qui prévalait dans la High Tech et l'industrie numérique en réalisant et en commercialisant, avec un succès planétaire sans équivalent, des produits si remarquables par leur facilité déconcertante d'utilisation et leur polyvalence qu'ils sont devenus presque immédiatement des symboles d'un nouveau mode de vie dans lequel la technologie devenait ludique, conviviale, esthétique et s'adaptait de manière totalement personnelle à son utilisateur.

Jobs a su introduire deux dimensions fondamentales dans l'accès du plus grand nombre aux technologies numériques, longtemps ésotériques et élitistes.

La première est celle de la corporalité et du plaisir sensuel à utiliser ces appareils qui se fondent et se plient aux désirs de leur propriétaire ; la seconde est celle de la sociabilité et de l'échange : posséder un iPhone ou un iPad, c'est appartenir à une communauté et adhérer à une certaine vision du monde et, par certains côtés, à une certaine éthique numérique.

Après avoir compris avant tout le monde que l'adoption des "smartphones" par le plus grand nombre passerait par l'écran tactile et la richesse des applications proposées, Apple s’apprête à nouveau à distancer tous ses concurrents en lançant, la veille du décès de Steve Jobs, sur son Iphone 4S, un outil de reconnaissance vocale intelligente qui s'imposera très rapidement, j'en suis convaincu, comme une nouvelle norme dans l'ensemble des terminaux numériques et des ordinateurs.

Baptisé "Siri", cet outil est non seulement capable de comprendre et d'interpréter en fonction du contexte ce que lui dit son interlocuteur humain mais de lui répondre en lui précisant ce qu'il fait pour satisfaire le mieux possible sa demande. Pour obéir à nos souhaits, Siri sera également capable de gérer et de combiner seul, comme le ferait un assistant humain, les données et applications de notre smartphone.

A l'égal de ses grands prédécesseurs qui furent à la fois découvreurs et entrepreneurs, Steve Jobs aura su concevoir et vendre tout au long de son fulgurant parcours une technologie qui s'efface derrière les usages et les services innombrables qu'elle apporte. Il aura su réintroduire le désir dans l'univers froid, austère et très peu "glamour" des produits informatiques et électroniques réservés à quelques initiés. Quant aux résultats financiers, ils sont à la hauteur du génie visionnaire de Jobs : la firme à la pomme valait 2 milliards de dollars en 1980 ; elle en pèse désormais 350 et est tout simplement devenue la première capitalisation mondiale !  

En décédant prématurément à 56 ans, le fondateur d'Apple vient d’entrer dans l'Histoire et rejoint le firmament des découvreurs et innovateurs de légende qui ont changé la face du monde en bouleversant notre vie quotidienne.

Il est toujours difficile et risqué d'établir un palmarès mais il me semble que Jobs mérite d'être associé et comparé à sept autres innovateurs et découvreurs géniaux : Graham Bell (1847-1922) qui inventa le téléphone en 1876, Thomas Edison (1847-1931) à qui l'on doit une multitude d'innovations (plus de 1000 brevets) et la généralisation de l'utilisation de l'électricité, Alan Turing (1912-1954), qui fut le père de l'informatique, John Logie Baird (1888-1946), un peu oublié aujourd'hui mais qui inventa la télévision (appelée alors "Televisor") en 1926 et enfin, Gordon Moore, co-fondateur d'Intel et inventeur en 1965 de la célèbre "Loi de Moore" qui régit la miniaturisation électronique depuis près d'un demi-siècle. 

Enfin, il est frappant de constater que Steve Jobs était né la même année que les deux autres génies visionnaires encore vivants de cette liste non exhaustive, Tim Berners-Lee, le père du Web et Bill Gates, fondateur de Microsoft. Au-delà de leurs différences, deux points communs unissent ces grands inventeurs et entrepreneurs : ils ont conçu leurs inventions pour le plus grand nombre et compris qu'une innovation, même géniale, n'est rien si elle n'est pas désirée par le public.

Demain, cette technologique numérique intuitive, conviviale et ludique se fondera dans nos vêtements et dans notre corps et peut-être même dans notre cerveau, grâce au fantastique essor des nanotechnologies et des neuro-sciences. Elle n'aura plus besoin de se matérialiser dans des terminaux et appareils tels que nous les connaissons aujourd'hui. Mais il y aura toujours de géniaux défricheurs de chemins qui sauront, comme Steve Jobs, imaginer, avant les autres, les nouveaux besoins et les nouveaux usages correspondant aux avancées technologiques.

Finalement, l'éclatante trajectoire de Jobs et d'Apple aura été la parfaite illustration de ce que Spinoza avait déjà magistralement compris il y a 350 ans : le désir est toujours premier ; il est le moteur essentiel et irrésistible de toutes les activités humaines. En fusionnant dans une symbiose conceptuelle géniale, efficacité, sensualité et convivialité, Jobs a su rendre la technologie numérique plus qu'indispensable, infiniment désirable et si Steve Jobs n'est plus, la vague qu'il a initiée a bel et bien changé le monde et n'est pas prête de retomber.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le porte-monnaie électronique Google Wallet concurrence la carte bancaire
Mercredi, 12/10/2011 - 01:20

Plus besoin d’argent liquide ou d’une carte bancaire pour régler ses achats en magasin : le smartphone devient un porte-monnaie électronique. Le géant Google lance le service Google Wallet aux États-Unis. Pour utiliser ce mode de paiement, il faut approcher la carte à puce de son mobile d’un terminal bancaire. Cela implique de disposer d’un téléphone doté de la technologie NFC et de se trouver dans un magasin équipé d’une borne spécifique.

Testé durant l’été, le service est pour l’instant uniquement disponible sur les téléphones Google Nexus S. Comme le système repose sur la technologie Near Field Communication (NFC), pour «communication en champ proche», il sera bientôt compatible avec différents modèles de portables Android, qui devraient se munir de cette fonctionnalité. Le principe : lorsqu’on approche son mobile d’une borne spéciale, un échange de données a  lieu entre la carte à puce du téléphone portable et le terminal bancaire.

En lançant son service, Google devance la concurrence, composée d’opérateurs mobiles américains ou de la société PayPal. Il milite aussi pour la création d’un système ouvert, où chaque acteur pourrait trouver sa place. Le géant du web a déjà pour partenaires les institutions bancaires Mastercard et Citi, mais d’autres sociétés auraient montré de l’intérêt, comme Visa, Discover ou American Express. Leurs cartes pourraient ainsi fonctionner sur le porte-monnaie électronique. En s’entourant de partenaires de cette envergure, Google espère que son système prévaudra sur ceux que ses concurrents ne manqueront pas de proposer prochainement.

Cerise Club

Des virus à l'attaque des drones de l'armée américaine
Mardi, 11/10/2011 - 01:10

Alors que le mois d’octobre a été baptisé National Cybersecurity Awareness Month (mois de la prise conscience de la cybersécurité nationale), il semble qu’un virus informatique soit en train de contaminer les drones de l’armée américaine Predator et Reaper, sans que les spécialistes de la sécurité informatique soient capables de s’en débarrasser.

Le magazine Wired s’en est fait l’écho récemment et raconte dans un article incroyable comment le virus enregistre chaque commande des «pilotes» alors qu’ils manœuvrent les drones, à distance, depuis la Creech Air Force Base dans le Nevada. Pour l’instant, aucune des missions n’aurait été annulée et aucun secret n’aurait fuité. Mais Wired, qui a eu accès à trois sources anonymes, montre que cette affaire est très sérieuse : «Nous essayons de le nettoyer, mais il revient. Nous pensons que ce virus n’est pas très dangereux… Mais en fait, on n’en sait rien.» Aucun rapport ne semble fait pour l'instant entre ce virus et les deux accidents de drones enregistrés en septembre.

Comment le virus est-il parvenu jusqu’au système de commande des drones ? Pas par Internet, puisque, notamment pour des raisons de sécurité, les appareils ne sont pas connectés directement au Réseau. Du coup, l’enquête se dirige vers l’introduction d’un logiciel malveillant via les disques durs amovibles que les ingénieurs utilisent pour transférer les données entre leurs ordinateurs et le système de pilotage des drones. Qui ne sont pas, faut-il préciser, des citadelles très sécurisées. En 2009, des insurgés irakiens avaient ainsi réussi à détourner le flux vidéos non crypté des caméras embarquées avec de la technologie bon marché.

Les drones sont de plus en plus souvent utilisés dans les opérations américaines car ils permettent aux militaires américains d’espionner et frapper leurs cibles sans mettre en jeu la vie de leurs troupes. Depuis 2001, les drones ont tué plus de 2.000 militants de réseaux islamistes, rappelait le Washington Post début septembre. Au grand désespoir des Afghans et pakistanais, victimes collatérales de ces frappes.

Le recours aux Predator et Reaper s’est même accéléré depuis que Barack Obama s’est assis dans le bureau ovale en 2009, sur les fronts irakiens, afghans et libyens (où les appareils sans pilote ont frappé 92 fois). C’est d’ailleurs avec un drone que, récemment, les Américains ont exécuté le djihadiste américain Anwar al-Awlaki au Yemen.

Slate

Communication par lumière visible : après le Wi-Fi, le Li-Fi
Samedi, 08/10/2011 - 01:20

La communication par lumière visible (VLC, Visible light communication) utilise des impulsions lumineuses pour transmettre des informations à distance. Cette technologie, autrement désignée Li-Fi, pourrait dans certains cas devenir une alternative au Wi-Fi. Dans son intervention à la conférence TED Global 2011, Harald Haas, professeur de Communication mobile à l'Université d'Edimbourg a démontré comment mettre en place un réseau de télécommunication sans fil grâce à des LEDs. Le principe est simple : des LEDs transmettent de l'information, des photodiodes la reçoivent. Si une LED est allumée, elle transmet un bit 1, si elle est éteinte, un bit 0. Les LEDs peuvent changer d'état très rapidement et donc avoir un débit suffisant pour la transmission d'information. La fréquence des LEDs est si rapide que l'oeil humain ne perçoit pas le clignotement et ne voit qu'une lumière fixe. Le projet de recherche D-LIGHT, mené par Harald Haas, vise précisément à diffuser cette nouvelle technologie. L'objectif final étant la création d'une spin-out universitaire en 2012 pour commercialiser les LEDs.

Plus concrètement, les recherches actuelles se concentrent sur l'amélioration du débit des VLC (Visible Light Communication). Des équipes de chercheurs des Universités d'Oxford et d'Edimbourg travaillent sur la transmission de données parallèles via des panneaux de LEDs. D'autres travaux s'intéressent à l'utilisation de LEDs de couleurs différentes pour pouvoir utiliser différents canaux de fréquence. Une équipe de l'Institut Heinrich Hertz à Berlin est récemment parvenue à atteindre un débit de 800 Mbit/s en utilisant une LED blanche. Les LEDs développées au sein du projet D-LIGHT devraient quant à elles être capables de transmettre des informations à 100 Mbit/s, soit un débit plus rapide que la plupart des offres haut débit actuelles.

Une fois mise en place, la technologie VLC pourrait résoudre le problème de bande passante disponible sur les ondes radio. En 2009, la Commission fédérale des communications des Etats-Unis (US Federal Communications Commission) a en effet émis un avertissement concernant la réduction des fréquences radio disponibles. En effet, la transmission de volumes toujours plus grands de données via les téléphones mobiles pourrait bientôt dépasser la capacité disponible en bande passante sur l'ensemble du spectre d'ondes radios. La technologie VLC pourrait donc être une alternative, d'autant que les infrastructures sont déjà en place et que le spectre de lumière visible - soit le nombre de fréquences disponibles - est dix mille fois supérieur à celui des ondes radios.

Selon Harald Hass, il y a approximativement 14 milliards d'ampoules utilisées pour l'éclairage public dans le monde. Autant de points où l'on pourrait installer des LEDs VLC. Il estime que le réseau Li-Fi coûterait dix fois moins cher que le Wi-Fi. Parce que la VLC utilise des ondes lumineuses plutôt qu'électromagnétiques, la technologie pourrait être utilisée dans les avions ou bien intégrée à des appareils médicaux, voire sous l'eau, là où le Wi-Fi ne fonctionne pas.

Bulletins Electroniques

Inauguration du premier hôpital tout fibre optique en France
Samedi, 08/10/2011 - 01:10

Le nouvel hôpital de Cannes est le premier hôpital de France et de l'Europe du sud à être câblé quasiment en tout optique et à profiter de la convergence vers le tout IP. Cet établissement qui accueille les activités de médecine-chirurgie-obstétrique et de psychiatrie, sur quelque 60.000m2 et 510 lits (sur un total de 882 lits pour l'établissement), est opérationnel et sera inauguré le 24 septembre prochain. Quasiment câblé en tout optique et utilisant au mieux la transmission tout IP, c'est le premier hôpital de France de la sorte. Jérôme Bousquet, responsable du service informatique hospitalier, confirme : « À ma connaissance, c'est même le premier et le seul hôpital, à ce jour, à être ainsi équipé dans toute l'Europe du Sud ».

Dans un hôpital, la complexité de la transmission des informations tient au fait que quatre grands domaines applicatifs, très différenciés, sont à couvrir : le médical, l'administratif, le confort des malades et la vie du bâtiment lui-même. Dès l'arrivée du patient, l'application dématérialisation prend en charge tout document papier qui est scanné grâce à des photocopieurs numériques - reliés en tout optique et tout IP - et entré automatiquement dans le dossier du malade. Côté confort, de son lit, le malade a accès à un terminal multimédia offrant de nombreuses possibilités comme le téléphone, accès à Internet, la radio, des jeux et un grand nombre de chaînes de télévision sur son téléviseur IP. Et 15 centrales font suivre les appels des malades. Dans les blocs chirurgicaux, là aussi la fibre optique et les micro-switches sont présents dans les bras des équipements.

Le côté physique est assuré par un réseau de vidéo protection de 120 caméras et un système de contrôle d'accès complété par un applicatif de suivi des horaires variables. Enfin, il est à noter que la vie du bâtiment lui-même, ascenseurs compris, est assurée par ce réseau tout optique à travers la gestion technique centralisée (GTC) pour la sécurité et l'alerte incendie, la partie chauffage-climatisation-ventilation, la surveillance des températures « biomédicales » des chambres froides, la distribution des gaz médicaux, etc. « Notre hôpital est une entreprise humaine au service de la population, la qualité de la prise en charge et sa performance dépendent entre autres de la fluidité de la communication. Les solutions supports mises en place nous permettent de mieux répondre à ces exigences tant en interne qu'avec les autres acteurs de santé publics et privés du territoire. » commente Jérôme Bousquet, responsable du service informatique hospitalier.

24 presse

Des puces RFID facilitent le guidage dans la ville pour les malvoyants
Samedi, 08/10/2011 - 01:00

Fournir aux non-voyants les mêmes informations qu'aux voyants lorsqu'ils marchent dans la rue est un défi ardu. Selon une équipe de l'université de Séoul, certaines des technologies utilisées à l'heure actuelle (des systèmes audio insérés dans les cannes blanches) posent plusieurs problèmes. Celui de la vie privée tout d'abord, puisque les personnes alentours peuvent elles aussi entendre les informations fournies par la canne. Celui de l'intégrité physique ensuite, puisque dans le cas où la personne non-voyante porte des écouteurs, l'émission permanente d'informations sonores peut nuire à sa santé auditive et surtout l'empêcher d'être en contact avec son environnement. Leur système, du coup, est basé sur l'utilisation du braille, et recourt à des puces RFID pour parvenir à fournir efficacement une information.

Le dispositif serait en fait constitué d'émetteurs, situés aux points clés de la ville, de puces RFID intégrées aux cannes blanches, et d'écrans intégrés à ces mêmes cannes. Via des groupements de six miniplots rétractables, ces derniers seraient capables d'afficher toutes les lettres de l'alphabet braille. Dans la pratique, dès qu'un utilisateur du système passe à proximité d'un émetteur, celui-ci lui transmet de l'information sur l'environnement du possesseur de la canne (bâtiments importants, passages piétons...). Les groupes de plots retranscrivent alors en braille les lettres composant l'information, ce qui permet à la personne de les déchiffrer.

Le système fonctionne grâce à une batterie au lithium, facilement rechargeable. Dans le cas où celle-ci serait totalement déchargée, de petits panneaux solaires intégrés à la canne prennent le relais et assurent une alimentation électrique convenable. Les premiers tests effectués mettent en évidence une facilité d'utilisation du système. Sa commercialisation au grand public pourrait donc se faire dans un délai relativement court.

L'Atelier

Visualiser son domicile en 3D sur une feuille de papier !
Vendredi, 07/10/2011 - 06:30

Afin de simplifier l'affichage d'objets en réalité augmentée dans les secteurs du e-commerce ou de l'urbanisme, Idées-3COM a mis au point un programme (Reality Touch) permettant de visualiser la représentation en 3D d'un élément de mobilier dans un univers réel à travers une tablette.

L'intérêt du système, c'est qu'il suffit de disposer de l'application et d'une feuille de papier pour en profiter : l'utilisateur doit télécharger le module sur sa tablette. Il doit ensuite prendre une feuille, sur laquelle se trouve un logo ou un dessin, et enregistrer ce dernier, qui sera ensuite reconnu par l'application comme le marqueur de référence.

Il faut ensuite se rendre sur une boutique en ligne partenaire pour sélectionner l'objet de son choix en 3D. Puis lancer l'application. "Grâce à la caméra de votre tablette, le programme repère la position du marqueur et met à sa place le meuble sélectionné à l'échelle 1/1 dans l'environnement", explique à L'Atelier Hakim Hadrouj, ingénieur d'affaires chez Idées-3COM. Le marqueur peut ensuite être déplacé à loisir. Le programme gère aussi l'orientation mais aussi l'impact de la lumière, suivant le matériau de l'objet (verre, bois, cuir…). Une version est en développement sur smartphone.

L'Atelier

^ Haut
Matière
Matière et Energie
Recycler le CO2 : une nouvelle approche
Lundi, 10/10/2011 - 01:20

Convertir du dioxyde de carbone (CO2) pour obtenir une classe de molécules à la base de la fabrication de textiles, médicaments, et colles : c'est le défi d’une équipe de chercheurs du CEA et du CNRS, dont les travaux font l’objet d’une publication dans la revue Angewandte Chemie. L’utilisation de ce déchet pour produire des composés chimiques réutilisables est une alternative prometteuse à la pétrochimie. L'approche scientifique présentée est une démarche innovante qui satisfait les exigences de la "chimie verte".

Le CO2 est le déchet ultime de la combustion des hydrocarbures, tels que le pétrole ou le gaz naturel, mais aussi de toute autre activité industrielle utilisant des ressources carbonées fossiles. Ce produit, de basse énergie, est faiblement réactif. Il s’accumule dans l’atmosphère et, en tant que gaz à effet de serre, participe au réchauffement climatique. Réduire nos émissions de CO2 et utiliser le CO2 existant sont donc deux défis actuels majeurs. Une voie audacieuse pour répondre d'un coup à ce double défi est de trouver le bon procédé capable d’apporter suffisamment d’énergie pour fonctionnaliser la molécule de CO2 et la convertir en carburant ou en consommable chimique, issus aujourd'hui des produits pétroliers.

  • Une nouvelle façon de recycler le CO2

Jusqu’à présent, deux approches étaient régulièrement privilégiées pour recycler le CO2 : la première consistait à incorporer le CO2 dans des matériaux sans valeur énergétique (comme les plastiques à base de polycarbonate par exemple). La deuxième approche visait, quant à elle, à utiliser le CO2 comme vecteur énergétique, pour produire de nouveaux carburants (l’acide formique et le méthanol). L’inconvénient de ces deux procédés, bien distincts, est qu’ils permettent de produire un nombre très limité de molécules et que la majorité des produits de base de l’industrie chimique reste issue de la pétrochimie.

Aujourd’hui, grâce aux recherches menées par l’équipe du CEA/CNRS du SIS2M, une approche alternative est possible. Selon un procédé chimique original, la voie proposée vise à incorporer des molécules de CO2 dans des matériaux, tout en lui fournissant de l’énergie. A noter que la réaction mise au point repose sur une source d’énergie d’origine chimique. Cette démarche, qui permet dans le principe de produire une grande diversité de molécules, a été validée par les expériences conduites cette année dans les laboratoires de l’unité mixte de recherche CEA/CNRS. Ainsi, il est désormais possible de convertir du CO2 en formamides, c’est-à-dire en molécules issues habituellement de la pétrochimie. Ces molécules sont à la base de la production de colles, de peintures ou encore de produits textiles.

  • Une voie conforme aux exigences de la chimie verte

La synthèse industrielle des formamides repose généralement sur des méthodes pétrochimiques, en plusieurs étapes, mettant en jeu un gaz toxique (le monoxyde de carbone) utilisé à haute température et haute pression. A contrario, la méthode de conversion du CO2 employée par les chercheurs du CEA/CNRS répond aux exigences de la chimie verte, du fait qu’elle s’effectue en une seule étape et que l’utilisation d’un catalyseur permet à la réaction d’avoir lieu à basse température et à basse pression. De plus, le catalyseur utilisé par l’équipe du CEA/CNRS est purement organique, ce qui évite le recours à des matières métalliques toxiques et coûteuses, comme l’or, le platine ou le cobalt. Enfin et grâce à ce procédé, la réaction peut s’effectuer sans solvant et limiter ainsi le rejet de déchets.

Cette nouvelle voie pour le recyclage du CO2 pourrait contribuer à résoudre le problème de la raréfaction des ressources pétrochimiques et à la réduction des gaz à effet de serre. La réaction mise au point reposant actuellement sur une source d’énergie d’origine chimique, le prochain travail des chercheurs vise à réussir la conversion du CO2 à partir d’une source d’énergie électrique décarbonée telle que l’énergie nucléaire ou photovoltaïque. Validé en laboratoire, ce procédé ouvre la voie à de nombreux développements technologiques et industriels, indispensables pour répondre aux contraintes économiques et écologiques auxquels doivent faire face les sociétés industrialisées.

CEA

Combiner de l’eau et des bactéries pour produire de l’hydrogène
Dimanche, 09/10/2011 - 01:20

Pour la première fois, des chercheurs ont produit de manière durable du gaz hydrogène, une source potentielle d’énergie propre, en utilisant uniquement de l’eau et des bactéries. Le défi désormais, d’après les scientifiques, est d'augmenter l'échelle du processus pour fournir de grandes quantités d’hydrogène pour des utilisations diverses, telles que l’alimentation de véhicules ou de petits générateurs.

L’hydrogène pourrait être le carburant le plus propre au monde dans la mesure où sa combustion –en termes chimiques, le fait de le faire réagir à l’oxygène- ne produit que de la vapeur d’eau.

Auparavant, des chercheurs avaient produit de l’hydrogène grâce à des microbes utilisés dans des piles à combustible similaires à des batteries, mais en complétant l’énergie produite par la bactérie par de l’énergie électrique provenant d’autres sources –obtenue par exemple par la combustion de carburants fossiles, d’après ce qu’a indiqué Bruce Logan, un ingénieur environnemental pour l’Université d’Etat de Pennsylvanie. Dans cette nouvelle étude, en utilisant des appareils contenant de grandes bandes de membranes perméables qui séparent l’eau salée de l’eau douce, les scientifiques ont comblé la différence de voltage qui existe entre ces deux eaux.

Cependant, ces appareils ne créent qu’une différence de voltage : ils ne génèrent pas le courant électrique requis pour produire de l’hydrogène. Les atomes d’hydrogène sont formés dans ce genre d’appareils lorsque les électrons affluent dans un fluide dans lequel ils peuvent se combiner avec des ions d’hydrogène, et que ces atomes se mélangent en retour pour créer de l’hydrogène.  

Bruce Logan et l’ingénieur Youggy Kim ont indiqué dans le journal Proceedings of the National Academy of Sciences qu’ils avaient réussi quelque chose que l’autre équipe de chercheurs n’avait pas fait : ils ont combiné les deux types d’appareils pour générer de l’hydrogène sans autre source externe d’énergie.

L’appareil prototype contient deux petites chambres –une détenant la bactérie et ses nutriments, l’autre contenant de l’eau salée dans laquelle de l’hydrogène a été produit –qui sont séparées par cinq cellules au moyen desquelles les chercheurs ont fait circuler de l’eau douce et de l’eau salée. Combinées, ces cellules ont généré entre 0,5 et 0,6 volts, soit suffisamment de voltage d’après les chercheurs pour permettre la production d’hydrogène dans la pile à combustible microbienne, dans laquelle la bactérie se nourrit de composés d’acétate. Pour 30 millimètres de solution d’acétate de sodium fournie pour la bactérie, l’appareil a généré entre 21 et 26 millimètres d’hydrogène en un jour.

Cela représente un volume minuscule, environ quatre fois la quantité de combustible que l’on trouve dans un briquet jetable, mais cela suffit pour prouver que le concept de production d’hydrogène fonctionne en laboratoire, d’après ce qu’indiquent les chercheurs dans leur étude.

Bien que les équipements nécessaires pour produire de l’hydrogène soient chers, l’appareil n’a besoin d’aucune source externe d’énergie et ainsi aucun gaz à effet de serre n’est produit pendant le processus. L’appareil de l’équipe est « élégamment simple, et leurs résultats sont bien expliqués et sans ambiguité » a déclaré Leonard Tender, un chimiste pour le Laboratoire de Recherche Navale Américaine à Washington, D.C.

L’un des défis résidant dans la réalisation de ce processus à plus grande échelle selon lui, sera de développer de nouvelles matières pour les membranes des piles à combustibles qui ne se boucheront pas trop rapidement avec les produits chimiques dérivés de l’activité bactérienne, qui pourraient réduire le flux d’ions qui aide à maintenir la différence de voltage entre les membranes. Cependant, une fois que ces obstacles auront été surmontés, le processus donne la possibilité d’utiliser de la matière organique dans les eaux usées pour produire de l’énergie.

Actualités News Environnement

La photonique entre dans les puces électroniques
Dimanche, 09/10/2011 - 01:10

C'est une grande avancée vers l’intégration de fonctions photoniques dans des puces électroniques telles que les microprocesseurs. Fujitsu a en effet développé un transmetteur photonique qui mesure à peine 1 mm de longueur. Ce composant, présenté comme un véritable circuit intégré optoélectronique, est construit sur un substrat en silicium, le même que celui utilisé pour la grande majorité des circuits intégrés électroniques. Miniaturisation et substrat en silicium sont deux caractéristiques qui rendent en théorie possible l’intégration de circuits photoniques aux cotés de circuits électroniques dans la même puce.

La photonique sur silicium est un domaine de recherche très prometteur visant à remplacer les interconnexions électriques de puce à puce ou de carte à carte par des liaisons optiques. A la clé, une accélération des transferts de données, une réduction de la consommation électrique, une insensibilité aux perturbations électromagnétique et une liberté de conception puisqu’on n’est plus contraint par la distance. L’objectif des recherches est de mettre la photonique, aujourd’hui limitée aux télécoms, à la portée de l’informatique et de l’électronique grand public. Pour cela, il faut réduire drastiquement l’encombrement et les coûts, et simplifier l’intégration.

IBM et Intel figurent parmi les plus actifs dans ces recherches. Fujitsu les rejoint avec un prototype combinant des sources de lumières et des modulateurs optiques. Jusqu’ici, les fluctuations thermiques nécessitaient un dispositif de contrôle qui évite les distorsions de longueurs d'ondes entre les sources et les modulateurs. Fujitsu semble avoir trouvé le moyen d’éliminer le besoin d'un mécanisme de contrôle thermique, permettant au transmetteur photonique d'être plus petit et plus économe en énergie.

Industrie & Technologies

^ Haut
Espace
Espace et Cosmologie
L'œil était dans les Andes et regardait le ciel
Mardi, 11/10/2011 - 01:30

Installé sur le plateau Chajnantor au Chili, un nouveau radiotéléscope doit permettre d'explorer un pan de l'univers méconnu. Une vraie révolution pour l'astronomie mondiale.

Le plateau de Chajnantor, à 5 000 mètres d'altitude dans les Andes chiliennes, est l'un des endroits les plus inhospitaliers de la planète. L'air y est rare, ce qui rend la respiration difficile. Il n'y pleut jamais ou presque, et des vents violents font parfois baisser la température jusqu'à - 20°C. C'est pourtant dans cette zone désolée, qui n'est pas sans évoquer la géographie martienne, que vient d'entrer en service le téléscope le plus cher et le plus perfectionné au monde.

L'Atacama Large Millimeter/Sub-millemeter Array (Alma ; grand réseau d'antennes en millimétrique et submillimétrique de l'Atacama [Alma signifie "âme" en espagnol]) va permettre aux astronomes d'observer toute une moitié de l'univers qui, jusqu'à présent, restait invisible aux télescopes modernes. Il est déjà capable de percer du regard les lointains nuages de poussières et de débris dans lesquels se sont formées les premières étoiles, galaxies et planètes.

"C'est dans ces nuages de gaz et de poussière froids que se forment les étoiles", explique John Richer, de l'université de Cambridge et responsable scientifique de projet pour l'Alma. Ces formations, dont les composants forment une sorte de suie et qui sont aussi le lieu de naissance des planètes (Terre comprise), ont un effet obscurcissant qui masque les étoiles aux équipements optiques à infrarouge modernes, comme le télescope spatial Hubble. Mais ces amas de poussière sont aussi chauffés par la lumière stellaire, qui élève leur température de quelques degrés au-dessus du zéro absolu (- 273 °C) ; cette poussière émet de ce fait un rayonnement propre dans le domaine submillimétrique qu'Alma pourra détecter depuis la Terre.

Les ondes lumineuses submillimétriques sont semblables au rayonnement des fours à micro-ondes et 1 000 fois plus longues que celles de la lumière visible par l'homme. Les observer, c'est la promesse pour les astronomes de pouvoir se représenter un tableau plus complet de l'univers. "Si vous associez les images optiques à celles de l'Alma, vous mettez en relief toute l'activité de formation stellaire, alors que jusqu'ici la moitié de l'image nous échappait," s'enthousiasme John Richer.

Le plateau andin de Chajnantor, quoique inhospitalier, a séduit les astronomes par son ciel pur et dégagé toute l'année et son aridité, l'une des plus marquées au monde : les molécules d'eau absorbent les ondes submillimétriques et les rendent donc indétectables, mais pas de risque ici, puisque certaines zones du désert d'Atacama n'ont plus vu une goutte de pluie depuis plusieurs siècles. Par ailleurs, sa situation à pareille altitude va permettre à Alma de saisir des images d'une netteté incomparable. Pour superviser le télescope, des équipes d'astronomes se relaient dans une base plus accueillante, à plus de 1 000 mètres en contrebas.

Il aura fallu plus de 20 ans de conception et de travaux avant qu'Alma entre en service, le 3 octobre. Sur le plateau désertique sont installées aujourd'hui 20 antennes identiques mesurant chacune 12 mètres de diamètre. Quand cet observatoire, qui aura coûté un milliard d'euros, sera achevé dans deux ans, il comptera 66 de ces antennes en fibre de carbone qui pourront être disposées pour former d'innombrables configurations, sur une distance pouvant atteindre 16 kilomètres, en fonction des mesures que souhaitent effectuer les astronomes.

"L'Alma offre une sensibilité formidablement plus grande que les précédents télescopes d'observation submillimétrique, poursuit John Richer, et nous prévoyons qu'il pourra découvrir toutes les trois minutes une galaxie nouvelle quelque part dans l'univers." Bien qu'inachevé, l'observatoire est déjà au service de la science. Sa première image, obtenue grâce aux mesures effectuées par 16 des paraboles, met en évidence les violents tourbillons de la galaxie des Antennes, deux galaxies spirales qui sont en cours de collision à environ 70 000 années-lumière de notre planète.

Pour sa première année d'activité, les scientifiques ont aussi prévu qu'Alma étudierait Sagittaire A*, un trou noir supermassif situé au centre de la Voie lactée, à 26 000 années-lumière de la Terre. D'épais nuages de poussières et de gaz obscurcissent généralement le trou noir, mais Alma sera capable de "voir" au travers.

L'Alma est le fruit d'une collaboration entre les 15 pays membres de l'Observatoire européen austral (ESO), les Etats-Unis, le Japon, le Chili, Taïwan et le Canada.

Courrier international

Lancement de Megha-Tropiques le 12 octobre
Mardi, 11/10/2011 - 01:20

Le satellite franco-indien Mégha-Tropiques sera placé demain sur orbite depuis la base de Sriharikota, en Inde. Il sera alors le premier à étudier l’atmosphère et les phénomènes climatiques des régions intertropicales, qui restent encore mal connus.

  • Un satellite au service des tropiques

« Le satellite Megha-Tropiques sera le premier satellite à étudier l’atmosphère intertropicale et les événements climatiques particulièrement intenses de ces régions, affirme Nadia Karouche, chef de projet CNES de Megha-Tropiques. Cette mission est le fruit d’une collaboration entre le CNES et l’Agence spatiale indienne (ISRO) qui a débuté en 1997. »

Pourquoi étudier les zones tropicales ? Parce que le cycle de l’eau des régions tropicales - la formation des nuages, des pluies et des orages par exemples - met en jeu des transports d’eau et d’énergie qui restent, à ce jour, mal connus et qui ont une répercussion sur le climat de la Terre entière.

Pour ausculter l’agitation atmosphérique de la ceinture tropicale, Megha-Tropiques s’est donc doté de 4 instruments : Madras, qui va suivre la distribution et la dynamique des pluies et des nuages, Saphir, qui va réaliser des profils d’humidité, Scarab, qui va enregistrer les flux d’énergie et un récepteur GPS, qui fournira les profils d’humidité et de température.

« Les équipes du CNES et de l’ISRO ont travaillé sur ces instruments en étant à des milliers de km l’une de l’autre, avec des méthodes très différentes… Malgré les échanges, on avait donc peur de s’être mal compris et d’avoir de mauvaises surprises au moment de l’assemblage, raconte Nadia Karouche. Mais tout s’est finalement très bien passé. »

  • Des données tropicales attendues par tous

Placé sur une orbite inclinée à 20° au niveau de l’équateur, Megha-Tropiques sondera 3 fois par jour minimum la région intertropicale, entre 23°N et 23°S. Grâce à ces données, les scientifiques espèrent mieux comprendre le cycle de l’eau atmosphérique mais aussi le cycle de vie des orages.

La NASA, avec qui un accord de coopération a été établi, souhaite pour sa part exploiter les mesures de précipitations équatoriales obtenues par Megha-Tropiques. Elles viendront ainsi compléter celles de la constellation GPM dont l’objectif est d’étudier les précipitations à l’échelle mondiale.

Les centres de météorologie attendent eux aussi les données du satellite franco-indien avec impatience. « On a récemment finalisé des accords avec Eumetsat, explique Nadia Karouche. Ils vont ainsi pouvoir récupérer les données en moins de 3 h et améliorer la prédiction des cyclones et des moussons. »

Le satellite Megha-Tropiques doit être placé sur orbite par le lanceur indien PLSV demain, mercredi 12 octobre 2011. Il devrait fonctionner pendant 3 à 5 ans afin de suivre les variations atmosphériques annuelles de ces régions tropicales.

CNES

L'eau sur Terre vient aussi des comètes
Lundi, 10/10/2011 - 01:10

La comète Hartley 2, détectée par le télescope spatial Herschel, contient de l’eau qui ressemble plus à celle de nos océans que celle des autres comètes étudiées auparavant. Selon la BBC ce résultat, publié dans la prestigieuse revue scientifique Nature, vient remettre en cause les théories selon lesquelles l’eau sur la Terre ne viendrait presque que des astéroïdes.

L’agence de presse Reuters précise que les scientifiques ont depuis longtemps pensé que les comètes, des petits corps du système solaire composé de glace et de poussière, ne pouvaient pas avoir apporté plus de 10 % de l’eau sur la Terre. Or, des analyses de composition chimique, notamment grâce au ratio «D/H», qui mesure la proportion de deutérium dans l’eau, ont révélé que l’eau de la comète Hartley 2 et l’eau des océans ont la même «signature» moléculaire.

Pour le chercheur Paul Hartogh de l’institut Max Planck en Allemagne ce résultat est capital : «Ce fut une grande surprise quand on vu que le ratio était le même que pour l’eau des océans. Cela signifie que la théorie selon laquelle les comètes n’ont pas apporté plus de 10 % de l’eau sur la Terre n’est pas vraie.»

Quelques millions d’années après sa formation, la Terre était sèche et terreuse explique la BBC. On sait depuis quelques temps maintenant que l’eau n’est pas apparue spontanément, mais qu’au contraire elle est venue de l’espace.

L’eau des océans a une composition chimique qui présente une certaine quantité de deutérium. Jusqu’à maintenant, toutes les comètes détectées en avaient deux fois plus. La plupart des chercheurs en ont donc conclu que c’était plutôt les astéroïdes et les météorites, contenant à peu près la même quantité de deutérium que l’eau sur Terre, qui l’avaient apportée de l’espace.

Hartley 2 est la première comète en provenance de la ceinture de Kuiper, non loin du système solaire, qui invalide la thèse sur le deutérium. Pour Ted Bergin, coauteur du rapport, cette découverte change pas mal de choses : «Le réservoir des sources de nos océans est beaucoup plus grand qu’on le pensait, et il comprend l’eau qui vient des comètes, ce que nous n’avions pas reconnu avant. […]Nous devons réfléchir beaucoup et  essayer de mieux comprendre ce qui se passe dans notre système solaire.»

Allessandro Morbidelli de l’Observatoire de la Côte d’Azur va plus loin et explique quant à lui que ces résultats sur la provenance de l’eau remettent en question la distinction traditionnelle entre comètes et astéroïdes : «Avant, les scientifiques pensaient que les astéroïdes et les comètes appartenaient à des catégories complètement différentes. Maintenant, plusieurs résultats montrent que ces objets primitifs sont frère et sœur.»

Slate

Galileo : mise en orbite des 2 premiers satellites le 20 octobre prochain
Vendredi, 07/10/2011 - 06:10

Les deux premiers satellites du futur système de navigation européen attendent actuellement leur lancement en Guyane. Avec une meilleure couverture et précision, Galileo sera prêt à faire face au GPS américain.

  • Une constellation de 30 satellites

Le premier satellite opérationnel du système de positionnement par satellites européen Galileo est arrivé en Guyane le mois dernier. Son lancement avec un deuxième satellite de la constellation est prévu le 20 octobre sur la première fusée Soyouz à décoller du centre spatial guyanais.

« Le lancement par paire est rendu possible grâce à la charge utile que peut emporter le lanceur russe. Cela nous permet d’accélérer la phase de déploiement de la constellation, tout en en diminuant le coût » explique Claude Audouy, responsable des opérations Galileo au CNES, à Toulouse. « Astrium est chargé de la construction des 4 premiers exemplaires opérationnels de la constellation, qui seront d’abord utilisés pour une ultime phase de tests, avec un début des opérations prévu pour 2014 » ajoute-t-il. La construction des 26 autres exemplaires sera confiée à OHB-System, une entreprise allemande. Au total, la constellation disposera de 30 satellites.

Le CNES a fortement participé aux phases de test et d’expérimentation en préparation pour Galileo (avec Euridis et Egnos) ainsi qu’à la définition des signaux utilisés.

  • Un système européen à vocation civile et globale

« Galileo provient d’une volonté européenne d’indépendance en termes de positionnement vis-à-vis du GPS américain et GLONASS russe » explique Claude Audouy. En effet, tandis que ceux-ci sont sous contrôle militaire, Galileo est civil. Financé à 100 % par la Commission européenne qui a contracté l’ESA pour en assurer le développement, le système vise à fournir un meilleur service pour les applications civiles et commerciales.

Galileo fournira une meilleure couverture ainsi qu’une meilleure précision (jusqu’à 1 m au lieu de 20 m pour le GPS) grâce à sa constellation plus nombreuse et à son orbite plus élevée. En effet, à 23 222 km d’altitude, les satellites Galileo disposeront d’un angle d’inclinaison plus élevé, très utile en ville.

Cette orbite plus élevée leur permettra également de balayer des latitudes plus importantes, allant de -56 jusqu’à +56°. Bien que le système européen se veuille indépendant, il sera néanmoins compatible avec le GPS et GLONASS. L’utilisateur ne saura pas qu’il utilise un satellite Galileo, car les systèmes sont complémentaires.

CNES

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Notre cerveau peut « zapper » les mauvaises nouvelles
Jeudi, 13/10/2011 - 06:08

Le cerveau des optimistes aurait la capacité d'ignorer les mauvaises nouvelles, selon un article de BBC News qui fait état d'une étude de chercheurs publiée dans Nature Neuroscience.

Le cerveau choisit les éléments auxquels il prête attention. C’est donc en quelque sorte un disfonctionnement du cerveau qui rend les gens optimistes. Et le nombre d’optimistes serait très élevé. Même si les gens ne se déclarent pas comme tels, des scientifiques de l’University College de Londres ont estimé qu’ils représentent 80 % de la population.

Pour comprendre ce qui se passe dans le cerveau des optimistes, contrairement à celui des pessimistes, l’équipe de chercheurs a fait une expérience sur 14 personnes. Tout d’abord, les cobayes devaient estimer la probabilité que des événements tristes –cancer, divorce– arrivent. Ils furent ensuite renseignés de la probabilité réelle d’occurrence de ces événements et durent alors à nouveau donner leur estimation à la fin de l’expérience. Les optimistes réagissaient de façon très différente selon que les nouvelles étaient positives ou négatives. S’ils avaient estimé leur probabilité de contracter un cancer à 40 % dans un premier cas ou 10 % dans un second cas, lorsque la probabilité d’occurrence réelle de 30 % leur était livrée, les optimistes avaient tendance à directement la faire chuter à 31 % pour les premiers, et à peine a l’augmenter pour les seconds.

Une seconde partie de l’expérience consistait à observer au scanner ce qui se passe dans le cerveau à l’écoute de bonnes et mauvaises nouvelles. Pour les bonnes nouvelles, le lobe frontal du cerveau –activé pour les erreurs de traitement- de tout le monde était fortement stimulé. En revanche, à l’annonce de mauvaises nouvelles, il était très faiblement stimulé chez les optimistes, et fortement chez les autres.

Tali Sharot, un des chercheurs, explique qu’«il y a un biais important dans le cerveau», parce que pour les optimistes, «les slogans alarmistes, comme "Fumer tue", n’ont pas d’impact car ils sont persuadés qu’ils ont peu de risques de contracter un cancer du poumon. De même, face aux statistiques de 50 % de divorces, ils sont sûrs que cela ne les concerne pas».

Et l’optimisme serait bon pour la santé selon un article de BBC d’août 2009. Les travaux de chercheurs américains, réalisés sur 100.000 femmes, ont montré que le risque de crise cardiaque et de mort était plus faible chez les optimistes –de respectivement 9 % et 14 % de moins. Au contraire, les pessimistes auraient une plus forte pression artérielle et davantage de cholestérol.

Slate

Cellules souches d'embryon : premier essai clinique européen
Jeudi, 13/10/2011 - 06:03

Pour la première fois en Europe, un hôpital britannique (Le Moorfields Eye Hospital de Londres) a obtenu l'autorisation d' injecter des cellules souches issues d'un embryon dans les yeux d'enfants malvoyants. C'est une société américaine de biotechnologie, ACT, qui va piloter ce premier essai clinique dont l'objectif est de traiter une pathologie rare de la vue. Les 12 patients retenus pour cet essai sont tous atteints de la maladie de Stargardt à un stade avancé ; il s'agit d'une maladie génétique héréditaire incurable à ce jour qui entraîne la cécité chez les enfants en dégradant la vision centrale.

Après des essais concluants chez l'animal, les patients vont bénéficier d'injections de cellules souches (entre 50 000 et 200 000 par patient) sous la rétine. Celles-ci sont issues d'un embryon humain, transformées en cellules rétiniennes. Normalement, ces cellules souches devraient se multiplier er remplacer les cellules détériorées par  la maladie. Mais l'utilisation de cellules souches embryonnaires à  des fins médicales pose des problèmes éthiques et suscite un vif débat, y compris dans la communauté scientifique. En outre, cette thérapie devra faire la preuve de son innocuité de son efficacité sur plusieurs années pour pouvoir être généralisée.

MEH

De nouveaux radioéléments ciblés pour détruire les métastases
Jeudi, 13/10/2011 - 05:57

Depuis deux ans, le réacteur grenoblois, normalement dédié à la production de neutrons pour l'étude de la matière, sert à un usage qui n'avait pas été prévu lors de sa construction à la fin des années 1960 : la production d'atomes radioactifs exotiques utilisés pour de nouveaux traitements ciblés contre des cancers.

La petite poudre blanche est un produit très rare, de l'ytterbium, qui, soumis au flux de neutrons intense du réacteur peut se transmuter en un autre élément, cette fois radioactif, le lutétium 177. Il est utilisé dans des traitements plus efficaces que les chimiothérapies contre des formes de cancers présentant des petites métastases dispersées. Au lieu d'irradier toute une région du corps pour éliminer une tumeur comme le fait la radiothérapie habituelle, la nouvelle méthode qui utilise le lutétium 177 est bien plus ciblée.

L'idée étant de ne s'attaquer qu'aux seules cellules cancéreuses, pour éviter au maximum d'irradier les autres organes indemnes. Une sélectivité permise par la biotechnologie, et la production d'anticorps spécifiquement développés pour ne se fixer qu'aux antigènes des cellules tumorales. «On sait maintenant accrocher un unique élément radioactif au bout d'un anticorps, précise Ulli Köster. Ce dernier sert en fait de vecteur, et va apporter l'isotope au plus près de la tumeur, là où la radioactivité sera la plus efficace pour tuer les cellules cancéreuses.»

Les premiers traitements de ce type, qui ont montré leur efficacité contre les lymphomes, et sont d'ailleurs commercialisés aux États-Unis, utilisaient un élément radioactif assez courant en médecine, de l'iode 131. «Or ce type d'isotope présente le grand inconvénient d'émettre des rayons gamma, qui sont très pénétrants et obligent à mettre les patients en isolation dans des chambres blindées», explique Jean-François Chatal, professeur émérite de médecine nucléaire, pionnier de la radioimmunothérapie en France qui travaille désormais à temps plein au nouveau cyclotron médical Arronax à Nantes. C'est notamment pour éviter ce genre d'inconvénient que des sites de recherche comme l'ILL de Grenoble et le cyclotron de Nantes produisent des nouveaux isotopes ayant des caractéristiques plus ciblées.

Par exemple, le lutétium 177 généré dans le cœur du réacteur grenoblois et utilisé pour des traitements expérimentaux contre le cancer de la prostate par Jean-François Chatal, présente l'avantage de n'émettre que des rayonnements bêta. Ces «bêta» sont des électrons qui n'agissent que sur une distance très courte de l'ordre de 2 à 3 millimètres, soit grosso modo la taille des petites métastases contre lesquelles ces traitements sont les plus efficaces. Des essais cliniques très prometteurs sont d'ailleurs menés avec cet élément contre des cancers de la prostate dans des phases avancées pour lesquels tous les autres traitements s'avèrent inefficaces.

Le réacteur grenoblois produit également du terbium 161, qui a les mêmes propriétés que le lutétium 177, mais émet en plus des électrons dits d'Auger. Ces derniers sont encore moins énergétiques, et ont un rayon d'action encore plus ciblé, équivalent à la taille d'une seule cellule biologique.

La production de ces éléments se fait pour le moment de manière presque artisanale à l'ILL, mais une installation dédiée et automatisée est à l'étude. «L'investissement serait de l'ordre de quelques millions d'euros, mais pourrait produire assez d'isotopes pour tous les patients concernés en Europe par ce type de traitement» , assure Ulli Köster.

Le Figaro

Les jus de fruit trop sucrés augmenteraient les risques de cancer
Jeudi, 13/10/2011 - 01:10

Vous hésitez entre un verre de jus d'orange et une pomme ce matin ? Choisissez plutôt le vrai fruit. On nous encourage toujours à faire le plein de vitamines, et les fruits peuvent réellement booster notre santé. Mais une fois qu'on les transforme en jus et qu'on les emballe, la majorité des substances bénéfiques sont perdues. Pire, les jus de fruit contiendraient tellement de sucre qu'ils peuvent augmenter les risques de cancer.

Des chercheurs australiens ont étudié pendant deux ans le comportement alimentaire de 2200 personnes afin de déterminer l'efficacité des fruits, des légumes et des jus pour empêcher le développement du cancer du côlon. Leurs découvertes ? Manger des pommes, des choux de Bruxelles, des brocolis ou des choux-fleur réduit les risques de cancer. Mais boire plus de trois verres de jus de fruit par jour les augmente.

Pas besoin de chercher très loin, le vilain responsable, c'est le sucre. Les experts estiment que la forte teneur en sucre des jus peut causer certains cancers. Même les jus de fruit frais contiennent 5 cuillères à café de sucre par verre. Il est préférable de manger des pruneaux ou d'autres fruits secs. Mais si le jus de fruit n'est pas une boission idéale, il reste plus sain que beaucoup d'autres boissons. Pour lutter contre le cancer du côlon, rien de tel qu'un régime riche en fibres. Des fibres qu'on retrouve en grande quantité dans les fruits et légumes.

7 sur 7

Manger des fruits pour réduire ses risques d'AVC !
Jeudi, 13/10/2011 - 01:00

Une étude néerlandaise publiée dans la Revue Stroke montre que la consommation de légumes et fruits à chair blanche, comme les pommes et les poires, pourrait réduire de moitié les risques d’être touché par un AVC. Ce n’est pas la première fois que des travaux scientifiques montrent que la consommation de fruits et de légumes en bonne quantité joue un rôle bénéfique pour la santé.

Linda M. Oude Griep et ses collègues du département nutrition de l’Université de Wageningen ont examiné durant 10 ans l’impact de la consommation de légumes et de fruits en fonction de la couleur de leur chair sur une population de 20 069 adultes âgés en moyenne de 41 ans et exempts de maladie cardiaque lors du recrutement. Ils ont ainsi constaté que les fruits et légumes à chair blanche, c’est-à-dire contenant des composés phytochimiques bénéfiques tels que les caroténoïdes et les flavonoïdes, réduisaient considérablement les risques d’être touché par un AVC, d'un peu plus de 50 %. Forts de ces résultats, les chercheurs conseillent d’augmenter sa consommation de légumes et fruits à chair claire : une pomme par jour suffirait pour profiter de ces effets bénéfiques contre les risques d' AVC.

Information Hospitalière

Filmer directement nos souvenirs dans notre cerveau : plus tout à fait de la science-fiction !
Mercredi, 12/10/2011 - 01:40

Des scientifique de l’université de Berkeley sont parvenus à enregistrer en vidéo les perceptions et émotions humaines. Ces chercheurs, dirigés par le neurobiologiste Jack Gallant, pensent que cette technologie pourrait permettre, dans le futur, de traduire en images, sur écran, nos rêves, souvenirs et sensations. Pour l'instant, les images obtenues restent rudimentaires et le procédé utilisé permet simplement de reproduire notre «système visuel de base», composé de formes floues et de gros objets.


Les chercheurs ont utilisé un enregistrement par IRM des flux sanguins du cerveau sur des patients volontaires regardant des clips vidéos sur YouTube. Ces images se fixent surtout dans le cortex, zone du cerveau particulièrement impliquée dans la vision. En analysant et traitant ces informations sur l’activité cérébrale, les chercheurs ont ensuite pu reproduire globalement, à l'aide d' un logiciel informatique, les images produites par le cerveau. Pour pouvoir établir des correspondances pertinentes entre types d'images et émotions ressenties, les scientifiques ont utilisé une banque de données constituée par plus de 5.000 heures de vidéos aléatoires de YouTube, ce qui a permis au logiciel de reproduction d’images de "traduire" correctement" les images en émotions.


Jack Gallant souligne toutefois les limites de cette technologie. "Nous ne sommes pas des caméras vidéo et ce que nous voyons est toujours "parasité" et influencé par nos souvenirs, notre culture et notre état émotionnel", les policiers savent cela de manière empirique et connaissent bien la différence entre ce que nous croyons voir et ce que nous avons vraiment vu".  Néanmoins, en dépit de ces limitations, cette technologie s'avère prometteuse comme outil  thérapeutique et pourrait être utilisée par exemple pour communiquer avec des patients inconscients ou dans le coma. «Nous pourrions essayer d'utiliser cette technique pour voir sous forme d'images ce qu'ils veulent dire, ce qui permettrait d'améliorer considérablement la communication avec ces patients", souligne Jack Gallant.


Current Biology

Un médicament issu du plasma pour neutraliser l'E. coli tueuse
Mercredi, 12/10/2011 - 01:30

Au printemps dernier, les Européens ont découvert avec effroi l'existence d'une bactérie tueuse présente dans l'alimentation : l'E. coli à shigatoxines (Shiga-toxin-Producing Escherichia coli, ou Stec). Partie du nord de l'Allemagne, l'infection a touché quatre milliers de personnes et provoqué une cinquantaine de morts. Car, à la différence de l'E. coli "classique" - entraînant une affection banale soignée par des antibiotiques -, la variante Stec peut être mortelle. Dans 10 à 15 % des cas, l'infection engendre un syndrome dit "hémolytique et urémique" : la bactérie produit des toxines "perforantes", les shigatoxines, qui percent la paroi intestinale puis pénètrent dans les reins et les détruisent. Aujourd'hui, il n'existe qu'une solution pour sauver les malades : ils doivent être entièrement transfusés, voire subir une greffe d'organes si leurs reins ont été touchés. Pas évident en cas de crise sanitaire à grande échelle.

Cela pourrait néanmoins changer d'ici deux à trois ans. LFB Biomédicaments, un laboratoire pharmaceutique contrôlé par l'Etat, travaille à l'élaboration d'un remède dérivé du plasma capable de lutter contre ce type d'infection. "Notre idée est d'obtenir une molécule biologique qui, en se liant à la toxine, formerait alors une molécule encore plus grosse qui, compte tenu de sa taille, pourrait être éliminée par la rate et par le foie, et non plus par les reins", explique Christian Béchon, son président.

Allié au laboratoire canadien Thallion, LFB a déjà engagé sept années de recherches dans ce projet. Actuellement en phase deux d'essai clinique, le traitement, baptisé Shigamabs, est testé dans dix-huit sites en Amérique du Sud. L'autorisation de mise sur le marché devrait être demandée d'ici deux ou trois ans. Comme tous les médicaments développés par LFB, ce futur traitement sera produit par fractionnement de plasma humain. Liquide biologique entrant dans la composition du sang, le plasma contient en effet naturellement plus de 300 protéines différentes, présentes en faible concentration. Les médicaments issus du plasma, à l'instar de Shigamabs, font appel à des technologies très pointues afin d'identifier, d'isoler, de concentrer et de purifier certaines de ces protéines.

L'Express

Un T-shirt pour améliorer les services hospitaliers
Mercredi, 12/10/2011 - 01:10

Au sein d'un hôpital, être informé en permanence sur l'état de santé d'une personne est un avantage non négligeable. En développant un  t-shirt intelligent, des chercheurs de l'université Carlos III de Madrid proposent de rendre possible la chose. Grâce aux outils technologiques intégrés à celui-ci, il deviendrait ainsi possible de se tenir informé en temps réel sur la température des patients, leur activité physique, leur rythme cardiaque, et même leur localisation géographique... Autant de données essentielles qui permettent d'agir rapidement en cas de problème.

Le t-shirt est en fait un concentré de technologies, qui inclut un thermomètre, des électrodes, ainsi qu'un Accéléromètre, qui permettent la mesure des informations vitales. Les chercheurs expliquent ainsi : "l'information collectée via le t-shirt intelligent est ensuite envoyée, via un système Wi-Fi, vers un centre de gestion des données. Celui-ci permet ensuite de consulter en temps réel aux signes vitaux et le lieu où se trouvent l'ensemble des patients de l'hôpital". Si les signes vitaux excèdent un certain seuil (100 battements par minute pour le cœur par exemple), une alarme se met en marche, permettant d'avertir les infirmiers du problème.

Pour les chercheurs, le dispositif remplit avant tout un rôle médical. Outre une utilisation au sein d'un hôpital, d'autres situations se prêtent bien à son application. Ainsi, en y apportant de légères modifications, il deviendrait possible par son biais de détecter les anomalies cardiaques des sportifs ou de mettre en place une "télémédecine", qui éviterait aux patients un séjour trop long au sein des hôpitaux. A noter que des tests concluants ont déjà été menés au sein du corps médical. La généralisation du procédé pourrait donc se faire d'ici 2012.

L'Atelier

L'insuline donne des résultats encourageants contre la maladie d'Alzeiheimer
Mercredi, 12/10/2011 - 01:00

L’insulinothérapie par voie intranasale donne des résultats encourageants chez les patients atteints d’une maladie d’Alzheimer (MA) et d’un trouble cognitif léger de type amnésique (aMCI), d’après les résultats, tout juste rendus publics, d’un essai clinique pilote.

Selon des observations précédentes, la dysrégulation de l’insuline contribuerait à la physiopathologie de la MA, où l’on a mis en évidence une activité et des taux réduits d’insuline. L’insuline module aussi les niveaux de peptide amyloïde β et peut protéger contre les effets nuisibles des oligomères de Aβ sur les synapses.

Un essai clinique d'administration quotidienne intranasale d'insuline pendant 3 semaines s’est avéré positif pour l'état fonctionnel d’un groupe de malades atteints de MA et de sujets aMCI, condition qui représente dans la plupart des cas le stade prodromal de la MA.

Sont aujourd’hui publiés les effets à plus long terme de cette administration d’insuline. Soixante quatorze participants sont traités par insuline intranasale deux fois par jour (20 UI ou 40 UI) pendant 4 mois, et 30 par un placebo. Ils sont tous les deux mois soumis à des tests de mémorisation et à un questionnaire spécifique sur la sévérité de la démence (DSRS) mesurant l’évolution cognitive, sociale, et fonctionnelle. Le score ADAS-cog et l’échelle ADCS-ADL permettent de quantifier les fonctions cognitives, et l’autonomie dans les activités de la vie quotidienne. La dernière évaluation a lieu deux mois après le traitement.

Une amélioration de la mémoire est observée pour les participants sous 20 UI d'insuline. Les scores au DSRS sont préservés dans les deux groupes de traitement. Les capacités à l’échelle ADCS/ADL se maintiennent sous insuline. De même la cognition générale au score ADAS-cog est protégée, un effet plus prononcé chez les patients les plus jeunes, qui connaissent un déclin cognitif plus important.

JIM

Hypoglycémie sévère : découverte d’un gène clé
Mardi, 11/10/2011 - 01:00

Une mutation sur un gène expliquerait les symptômes des malades souffrant d’hypoglycémie sévère, une maladie dans laquelle l’organisme ne peut maintenir la concentration de sucre dans le sang.

Les troubles de la glycémie (la concentration de sucre dans le sang) ont deux versants : l’excès (qu’on retrouve dans le diabète) et le manque dont peuvent souffrir occasionnellement les diabétiques et plus fréquemment les personnes atteintes d’une forme rare d’hypoglycémie sévère. Ces patients sont contraints de manger de nombreuses fois par jour, environ toutes les trois heures, sans cela ils risquent de perdre conscience voire de tomber dans le coma.

Dans la revue Science, des chercheurs de l’université de Cambridge annoncent avoir identifié une enzyme suractivée chez les personnes ayant une forme sévère et handicapante d'hypoglycémie. En étudiant les séquences génomiques de trois enfants malades non apparentés, ils ont découvert qu'ils partageaient la même mutation sur le gène AKT2 qui code pour une enzyme impliquée dans les voies de signalisation intracellulaires contrôlées par l'insuline (l’hormone permettant de réguler le taux sanguin de sucre).

Les personnes ayant une mutation qui inactive l'enzyme AKT2 ont des taux élevés de sucre dans le sang et sont très résistants à l'insuline. La mutation identifiée par les chercheurs a des effets opposés : elle provoque une activation permanente de l'enzyme indépendamment des niveaux d'insuline et perturbe ainsi radicalement le mécanisme de régulation de la glycémie dans le corps.

Les auteurs estiment que cette découverte pourra servir à mettre au point de nouveaux traitements contre ce trouble.

Sciences et Avenir

La narcolepsie déclenchée par la grippe ?
Lundi, 10/10/2011 - 01:00

Une nouvelle étude montre un lien entre la grippe saisonnière et la narcolepsie, ce trouble neurologique du sommeil comme l'explique Yves Dauvilliers, du CHU de Montpellier.

Question : Une étude menée en Chine établit un lien entre la narcolepsie et une infection par le virus de la grippe H1N1. Que révèle-t-elle exactement? Y.D. Les résultats suggèrent que l’apparition des cas de narcolepsie en Chine suit des variations saisonnières : ils sont en moyenne près de sept fois plus nombreux en avril qu’en novembre. Mais surtout, l’équipe dirigée par Emmanuel Mignot, de l’université Stanford, a découvert un triplement des cas de narcolepsie après la pandémie grippale H1N1 de l’hiver 2009-2010. Six mois environ séparaient le pic d’infection du pic d’apparition de nouveaux cas de narcolepsie. Cette étude a consisté en une analyse des données médicales de 629 narcoleptiques pékinois suivis entre 1996 et 2010. Pour chacun, ces chercheurs ont relevé l’année et le mois durant lesquels les malades avaient pour la première fois ressenti deux symptômes caractéristiques de cette maladie : une somnolence diurne excessive et la cataplexie, caractérisée par une perte brutale de tonus musculaire.

Question : Comment expliquer ce possible lien entre infection par le H1N1 et la narcolepsie ? Y.D. La narcolepsie est due à la destruction de neurones produisant l’hypocrétine, une protéine impliquée dans la régulation de l’éveil et du sommeil ; et il semble que cette mort neuronale soit causée par un dérèglement du système immunitaire : la narcolepsie serait une maladie « auto-immune ». Récemment, des cas de narcolepsie ont aussi été observés chez des Caucasiens exposés à des bactéries du genre Streptococcus. Chez des sujets génétiquement prédisposés, les infections des voies respiratoires supérieures pourraient amorcer ce dérèglement, déclenchant la maladie. Toutefois, on ne sait pas si les malades chinois ayant contracté une narcolepsie après octobre 2009 avaient préalablement été infectés par le virus.

Question : En 2010, vous aviez révélé un lien entre la vaccination contre le virus H1N1 et la survenue de cas de narcolepsie. Dans cette nouvelle étude, la vaccination est-elle également suspectée ? Y.D. Sur les 142 malades chinois ayant contracté une narcolepsie après octobre 2009, moins de 6 % s’étaient fait vacciner contre le H1N1 : la vaccination ne peut donc pas expliquer ce triplement des cas. Et en Chine, la formulation du vaccin utilisé différait de celle du vaccin Pandemrix incriminé en Europe du Nord. Elle ne contenait notamment pas l’adjuvant AS03, le composant suspecté dans l’apparition de ces cas de narcolepsie en Suède et en Finlande.

Propos recueillis par Jean-Philippe Braly

La Recherche

Le gène de la douleur chronique identifié
Dimanche, 09/10/2011 - 01:30

Des scientifiques d'Espagne et du Royaume-Uni ont découvert le gène responsable de la régulation de la douleur chronique. Publiée dans la revue Science, les résultats éclairent d'une nouvelle lumière la façon dont les médicaments peuvent être ciblés pour bloquer les protéines produites par ce gène en vue de lutter contre la douleur chronique. La recherche a été partiellement financée par une bourse des actions Marie Curie au titre du septième programme-cadre (7e PC) de l'UE.

Les chercheurs de l'université de Cambridge, en coopération avec leurs collègues du Département de neurosciences, du Centro de Inverstigación Biomédica en Red de Salud Mental (CIBERSAM), de la faculté de médicine de l'université de Cádiz en Espagne, expliquent que la vitesse de décharge du potentiel d'action au niveau des nocicepteurs est un facteur déterminant important pour l'intensité de la douleur.

Un Britannique sur sept souffre de douleur chronique ou de longue durée. Les maladies les plus communes sont l'arthrite, les douleurs au dos et les maux de tête. Les experts expliquent que la douleur émerge sous deux formes : la douleur inflammatoire et la douleur neuropathique.

La douleur inflammatoire est le résultat d'une lésion persistante comme l'arthrite ou une brûlure, déclenchant une sensibilité accrue des terminaisons des nerfs, sensibles à la douleur. Ainsi, la personne touchée ressent beaucoup de douleur. La douleur neuropathique est la forme de douleur la plus complexe à déceler. Les dégâts sur les nerfs produisent une douleur continue et les personnes touchées sont hypersensibles aux stimuli. Les chercheurs expliquent que ce type de douleur, pouvant devenir un problème à vie, affecte de nombreuses personnes mais n'est pas facile à traiter.

Par exemple, les diabétiques peuvent souffrir de douleur neuropathique (l'Europe, le Japon et les États-Unis totalisent près de 3,7 millions de malades chez qui la maladie a été diagnostiquée), tout comme les patients atteints de cancer ou de zona. Les patients se plaignant de douleur au niveau des lombaires sont également considérés comme souffrant de douleur neuropathique.

«Les individus souffrant de douleur neuropathique n'ont que très peu ou pas du tout de répit car il n'existe pas vraiment de médicaments efficaces», explique l'auteur principal, le professeur Peter McNaughton du département de pharmacologie à l'université de Cambridge, au Royaume-Uni. «Notre recherche pose les bases pour le développement de nouveaux médicaments pour traiter la douleur chronique en bloquant HCN2.» Le gène HCN2 est exprimé dans les terminaisons nerveuses sensibles à la douleur. Cela faisait déjà longtemps que les chercheurs avaient reconnu ce fait, mais personne n'avait élucidé son rôle dans la régulation de la douleur, jusqu'à présent.

Les chercheurs font remarquer qu'un gène apparenté, HCN4, influence le contrôle de la fréquence de l'activité électrique du coeur ; ainsi, ils pensent que HCN2 jouerait un rôle dans la régulation de la fréquence de l'activité électrique dans les nerfs sensibles à la douleur.

Pour les besoins de l'étude, l'équipe a retiré le gène des nerfs sensibles à la douleur. Ils ont ensuite mené des études en utilisant des stimuli électriques sur les nerfs dans des cultures cellulaires pour voir si leurs propriétés avaient changé en l'absence d'HCN2.

«De nombreux gènes jouent un rôle important dans la sensation de la douleur, mais dans la plupart des cas, toute interférence conduit à éliminer toute douleur voire toute sensation», commente le professeur McNaughton. «Ce qui était surprenant avec les travaux sur HCN2 est qu'en le supprimant, ou plutôt en le bloquant par voie pharmacologique, la douleur neuropathique est éliminée sans affecter la douleur grave normale. Ces résultats seraient précieux du point de vue clinique car la sensation de douleur normale est essentielle pour éviter tout dégât accidentel.»

CORDIS

Quand la moelle osseuse protège le cerveau !
Dimanche, 09/10/2011 - 01:00

Devant l’augmentation du nombres de personnes souffrant de maladies neurodégénératives, que ce soit Alzheimer, Parkinson ou encore la sclérose latérale amyotrophique, de nombreux scientifiques sont mobilisés dans le seul but de trouver un moyen de protéger le cerveau. Dans cette quête, Danil Offent et Eldad Melamed, chercheurs à la faculté de médecine TAU’s Sackler et au centre de recherche médicale de Felsenstein, situés à Tel Aviv, se sont intéressés à des protéines spécifiques, connues pour leur rôle protecteur du cerveau.

Leurs travaux ont pour l’instant principalement constité à produire en plus grande quantité ces neuroprotecteurs et à trouver un moyen de les injecter à proximité du cerveau. Ainsi, ils ont prélevé des cellules souches de la moelle osseuse de souris, puis les ont cultivées afin de les différencier en astrocytes, cellules gliales du système nerveux central spécialisées dans la protection des neurones. Elles libèrent notamment des neuroprotecteurs qui ont déjà montré leur efficacité pour lutter contre la sclérose latérale amyotrophique (SLA).

Les chercheurs ont utilisé des souris génétiquement modifiées afin de développer la SLA. En injectant les astrocytes qu’ils avaient cultivées dans le cerveau de ces dernières, ils ont constaté que non seulement le cerveau était mieux protégé contre l’attaque des neurotoxines qui entrainent un ralentissement significatif des symptômes de la maladie, mais aussi que les animaux avaient une meilleure espérance de vie. C’est la première fois que des scientifiques montrent in vivo l’efficacité d’une telle technologie pour lutter contre les maladies neurodégénératives. Suite à ce succès thérapeutique chez les animaux, des essais cliniques chez l’homme sont en cours au centre médical d'Adassah à Jérusalem.

Information Hospitalière

Jules Hoffmann, Prix Nobel de Médecine et de physiologie 2011
Samedi, 08/10/2011 - 01:40

Le prix Nobel de Médecine et de physiologie est décerné cette année à Jules Hoffmann, biologiste de renommée internationale, accompagné de l'Américain Bruce Beutler et du Canadien Ralph Steinman. Directeur de recherche émérite au CNRS et professeur à l'Université de Strasbourg, Jules Hoffmann a consacré ses travaux à l'étude des mécanismes génétiques et moléculaires responsables de l'immunité innée chez les insectes. Une distinction dont se félicite l'Alliance nationale pour les sciences de la vie et de la santé.

Les travaux primés cette année par le comité Nobel "ont ouvert de nouvelles voies pour le développement de la prévention et pour des thérapies contre les infections, les cancers et les maladies inflammatoires", explique le jury.

Né au Luxembourg en 1941, Jules Hoffmann a effectué ses études universitaires à Strasbourg où il a obtenu une thèse de biologie expérimentale. Il entre au CNRS en 1964 puis crée le laboratoire CNRS "Réponse immunitaire et développement chez les insectes" qu’il a dirigé jusqu’en 2006. Ce laboratoire fait partie de l'Institut de biologie moléculaire et cellulaire du CNRS dont il a été également directeur de 1994 à 2006. Ses nombreuses découvertes dans le domaine ont fait émerger une vision nouvelle des mécanismes de défense que les organismes, des plus primitifs jusqu'à l'homme, opposent aux agents infectieux.

Le comité Nobel souligne que Jules Hoffmann, 70 ans et Bruce Beutler, 55 ans "ont découvert les protéines réceptrices qui reconnaissent les micro-organismes (nocifs) et activent le système immunitaire, première étape de la réponse immunitaire de l'organisme".

Pour André Syrota, Président d'Aviesan, "Ce nouveau Nobel attribué 3 ans après celui décerné à Françoise Barré Sinoussi et Luc Montagnier démontre s'il le fallait, l'excellence de la recherche académique française dans le domaine des sciences du vivant." Il adresse ses plus chaleureuses félicitations à Jules Hoffmann ainsi qu'au CNRS et l'université de Strasbourg.

Président de l’Académie des sciences française en 2007 et 2008, Jules Hoffmann est également membre des Académies des sciences des États-Unis, d’Allemagne et de Russie. Il a reçu de nombreux prix prestigieux comme dernièrement le Prix Rosenstiel pour l’Immunité (2010), le Prix Keyo de Médecine (2011), le Prix Gairdner 2011 en sciences médicales, et le Prix Shaw 2011 en sciences du vivant et médecine. Il vient de recevoir la médaille d'OR 2011 du CNRS.

INSERM

Sclérose en plaque : démarrage d'un essai clinique à l'aide de cellules souches
Samedi, 08/10/2011 - 01:30

Suite à des résultats encourageants en 2009, l'utilisation de cellules souches adultes autologues (cellules appartenant à l'organisme dans lequel elles seront ré-injectées) comme traitement potentiel de la sclérose en plaque (SEP), fera l'objet d'un large essai clinique multi-centre de phase 2 qui devrait démarrer fin 2011. Celui-ci devra évaluer la tolérance et l'absence d'effets secondaires graves chez près de 200 patients recrutés à travers le monde et les résultats sont attendus d'ici 3 à 5 ans dans le cadre d'une collaboration internationale sans précédent et porteuse de grands espoirs pour cette maladie qui ne connaît encore aucun traitement satisfaisant.

Dans un premier temps, les cellules souches seront extraites de la moelle osseuse du patient, mises en culture au laboratoire pour induire leur différenciation en cellules souches neurales, et, une fois prêtes, seront ré-injectées dans la circulation sanguine du patient. Une telle procédure réduira ainsi à néant les risques de rejets. Les cellules souches ré-injectées devraient alors se diriger vers le cerveau où les chercheurs espèrent qu'elles seront capables de réparer les dommages causés par la maladie. Au cours d'études préliminaires précliniques, ces cellules souches semblaient être capables de protéger les cellules hématopoïétiques (productrices de cellules sanguines) et la myéline des fibres du système nerveux central. La myéline est une membrane grasse qui entoure et isole certains types de nerfs, en particulier ceux retrouvés dans le cerveau et la moelle épinière, et qui est attaquée par le système immunitaire des personnes atteintes de SEP.

Bulletins Electroniques

Paludisme : un vaccin français tient la corde
Vendredi, 07/10/2011 - 06:20

Cette fois l'espoir se précise : un vaccin français contre le paludisme pourrait prochainement être disponible, selon les conclusions d'un essai réalisé en 2007 au Burkina Faso et publié le 15 septembre par le NEJM. Baptisé MSP3, ce vaccin est l'aboutissement de 20 ans de recherche par l'équipe de Pierre Druilhe, ex-directeur du laboratoire de paludo-vaccinologie (LPV) de l'Institut Pasteur.

"Ce vaccin MSP3 est désormais l'un des deux candidats vaccins à s'être avéré capable de protéger l'homme en zone d'endémie», explique Pierre Druilhe. On mesure mieux l'enjeu médical que représente un tel vaccin quand on sait  que le paludisme affecte encore plus de deux millions de personnes dans le monde, essentiellement en Afrique et en Asie, et  provoque chaque année 800.000 décès.

L'essai mené en 2007 et publié dans le NEJM a permis de vérifier la tolérance mais également la remarquable efficacité de ce vaccin, qui offre une protection de 64 à 77 % chez 45 enfants âgés de 12 à 24 mois. Grâce à ces résultats, en cours de confirmation par un vaste essai au Mali qui se terminera en 2012, le vaccin MSP3 se pose en concurrent sérieux de l'autre vaccin actuellement à l'essai, le RTS,S, développé par Glaxo SmithKline.

Il faut cependant souligner que que le mécanisme d'action des deux vaccins est très différent. Le vaccin français agit pendant la phase des signes cliniques alors que le vaccin américain intervient pendant la phase précoce de l'infection.

Des chercheurs français  avaient réussi à montrer, il y 20 ans, qu'il était possible protéger des enfants thaïlandais de 12 à 24 mois contre le paludisme en leur administrant des anticorps d'adultes africains protégés. Cette protection précoce est déterminante car presque tous les décès dus au paludisme surviennent avant cinq ans. S'appuyant sur crs recherches, l'Institut Pasteur avait alors identifie l'antigène spécifique responsable de la réaction immunitaire chez l'homme, le MSP3, à la base du vaccin français. Pierre Druilhe, conscient du combat inégal de son vaccin contre son rival américain, a lancé une initiative pour accélérer le développement du vaccin MSP3(Vac-4-All).

NEJM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Michelin partenaire du projet DeltaWing des 24 Heures du Mans
Lundi, 10/10/2011 - 01:30

Michelin annonce qu'il devient le premier partenaire technique majeur du prototype innovant Project 56 DeltaWing, lequel disputera en 2012 la course des 24 Heures du Mans. L’objectif de ce projet est réduire de moitié la consommation de carburant et de pneumatiques de la voiture.

Pour cela le poids, la puissance et la traînée aérodynamique ont été divisés par deux, sans affecter les performances du véhicule. Le prototype DeltaWing est équipé de pneus 10/58- 15 (avant) et 31/62-15 (arrière).

La DeltaWing est une voiture à quatre roues, configurée comme si elle n’avait que trois points d’appui. Sa partie avant est très étroite et son arrière est large. C’est cette forme inédite qui lui confère une réduction significative de traînée aérodynamique. Cependant, pour un tel châssis innovant, Michelin a été appelé à concevoir des pneus spécifiques. « La Deltawing ouvre d’intéressantes pistes à explorer, déclare Nick Shorrock, directeur de la Division Compétition Michelin. Réduire la consommation d’énergie et la quantité de matériaux utilisés tout en maintenant, voire en améliorant, les performances est une priorité pour les automobilistes du monde entier. Le Project 56 parvient à intégrer des idées inédites dans une auto véritablement révolutionnaire. Nous sommes impatients de découvrir les défis et les opportunités qu’il nous promet », ajoute Nick Shorrock. Durant toute la phase de développement, les ingénieurs de Michelin ont travaillé étroitement avec leurs collègues de DeltaWing pour comprendre et intégrer dans la conception des nouveaux pneus les contraintes imposées par la vitesse, la charge et les sollicitations latérales subies en courbe.

La DeltaWing, dont le design a été confié à Ben Bowlby, l’ancien chef designer de Lola Cars, est fabriquée dans les ateliers de All American Racers, la société de Dan Gurney, légende des courses automobiles, à Santa Ana, en Californie. Les premiers essais sur piste sont attendus en fin d’année.

Auto Innovations

Mercedes présente la voiture de 2025
Vendredi, 07/10/2011 - 06:00

Le principe n'est pas nouveau mais, ces derniers temps, la technologie évolue à grands pas. La preuve avec la F 125, véritable laboratoire roulant, que Mercedes a présentée à Francfort comme un futur crédible pour la somptueuse Classe S, à l'horizon 2025. La carrosserie de cette F 125 est confectionnée avec un subtil mariage de matériaux légers tels que l'aluminium bien sûr, mais également des composites et de la fibre de carbone. Malgré ses batteries, le prototype pèse 135 kg de moins qu'une S 350 actuelle.

L'autre avancée majeure est un réservoir capable de stocker 7,5 kg d'hydrogène sous 30 bars, contre 700 bars actuellement, ce qui autorise une forme plus complexe et donc une meilleure intégration dans le châssis. L'électricité produite est stockée dans des batteries lithium-sulfure, d'une densité énergétique de 350 Wh/kg, contre 150 à 200 Wh/kg pour les actuelles litium-ion. Leur capacité totale atteint 10 kWh, procurant à la F 125 une autonomie confortable de 1000 km. Détail important, cette limousine du futur est aussi une hybride rechargeable, ce qui accroît d'autant son potentiel d'utilisation.

Dernière originalité, elle est propulsée par une transmission intégrale e-4Matic, comportant un moteur électrique par roue. Mercedes annonce une puissance totale de 231 ch, 313 ch en crête, et un couple gigantesque de 3440 Nm ! La F 125 serait capable d'atteindre 100 km/h en 4,9 s, avec une consommation d'hydrogène de 0,79 kg/100 km, soit l'équivalent diesel de 2.7 l/100 km.

Mercedes-Benz

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top