RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 606
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Juillet 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les e-mails polluent aussi la planète
La canne virtuelle pour aider les malvoyants à se repérer
Orange expérimente un pacemaker communicant
Avenir
POB, le robot qui arrose les plantes et assaisonne les plats
Matière
La capture et le stockage du CO2 sur le marché en 2015
Récupérer de l'énergie par des films piézoélectriques
Un nouveau catalyseur enzymatique pour produire du biodiesel
Des pneus qui « roulent mieux »
De nouvelles piles à combustible pourraient changer la face des batteries
Terre
Pathogènes et insecticides : un cocktail mortel pour les abeilles
Début de l’affichage environnemental dans les magasins
Vivant
Cancer : des chiffres inquiétants
De nouvelles approches pour lutter contre la maladie d'Alzheimer
La bonne clé pour la bonne serrure
Greffe historique d'une trachée-artère artificielle enveloppée de cellules souches
Médecine légale : l'âge est dans la salive
Identification d’un "interrupteur" responsable de la transformation d’un cerveau sain en cerveau épileptique
Nutrition : les fibres réduisent fortement la mortalité par infection
Les effets du stress pourraient se transmettre héréditairement
Le cerveau affecté par la vie en ville
ERYTECH Pharma a terminé le recrutement des patients dans son essai clinique de phase I dans le cancer du pancréas
Une lumière pour activer les gènes
Un nouvel endoscope se mouvant librement dans le tube digestif
Calixar rêve de lancer un vaccin universel contre la grippe
Contrôler la différenciation des cellules-souches grâce aux champs magnétiques !
Cancer de la prostate : un traitement prometteur
Recherche
La voiture électrique moins polluante sur son cycle de vie
Le premier avion hybride
Edito
Véhicule du Futur : Il faut revoir la Convention de Vienne



De très nombreux modèles automobiles embarquant des aides à la conduite sont déjà sur le marché ou sur le point d’y arriver.

Des systèmes avertissent le conducteur qu’il franchit les lignes délimitant la voie sur laquelle il se trouve, alors qu’il n’a pas, en mettant son clignotant, exprimé l’intention d’une telle manœuvre. Si le conducteur ne réagit pas à l’avertissement, certains constructeurs demandent même à l’automatisme de ramener la voiture dans le droit chemin !

Des constructeurs commencent à barder leurs véhicules de nombreux radars et détecteurs. Certains permettent de surveiller le véhicule qui nous précède et ralentissent automatiquement le véhicule dans lequel nous nous trouvons quand celui qui est devant nous fait de même. Avec ces radars et détecteurs, votre véhicule peut vous dire si vous avez suffisamment de place entre 2 véhicules pour vous garer. Certains modèles vous proposent même de faire le créneau et de stationner votre véhicule à votre place.

Depuis plusieurs années, l’informatique s’est infiltrée dans les moteurs, les boîtes de vitesses, les freins, les trains de roulement, la sécurité de nos voitures sans que nous en prenions toujours bien conscience.

Mais, nous en serions déjà beaucoup plus loin si les règles de base de la circulation routière applicables dans le monde entier, régies par la Convention de Vienne, signée en 1968, prenaient en compte les nombreuses évolutions technologiques apparues depuis 43 ans. Ainsi, cette Convention de Vienne dit que le conducteur est le seul responsable, à tout moment, du comportement de son véhicule. Cette seule règle interdit de faire circuler des voitures sans personne à bord.

Si cette seule règle s’adaptait aux technologies actuelles, nous verrions apparaître, chez tous les constructeurs, des véhicules entièrement automatiques dont la sécurité du process de circulation nous surprendrait.

Preuve de l’importance que va prendre, et très rapidement maintenant, le véhicule entièrement automatique, des acteurs majeurs de la communication entre l’Homme et la Machine, comme Google, ont décidé d’investir, avec des moyens importants, dans l’automobile du futur. Pour remplir cette mission, Google a déjà recruté Sébastian Thrun, Directeur du Laboratoire d’intelligence artificielle de Stanford, qui est arrivé avec une trentaine d’ingénieurs particulièrement compétents. Le premier véhicule entièrement automatique de Google réalisé sur une base de Toyota-Prius a déjà fait plus de 200.000 km sur les routes de Californie, sans intervention humaine. Toutefois, pour respecter la Convention de Vienne, une personne a toujours été à bord pendant les essais.

Bien d’autres expérimentations de véhicules totalement automatiques sont actuellement conduites dans le monde, et cela ne date pas d’hier. Dès 1995, une Mercédès avait parcouru 1.000 km sur les autoroutes entre Munich et Copenhague, sans intervention humaine, alors que le véhicule avait réalisé des pointes à 175 km/h.

Le 21 Juin dernier, quatre prototypes (2 voitures, 1 camion, 1 car) équipés de pilotes automatiques, pouvant se déplacer seuls sans présence à bord, ont été présentés à Borås en Suède, par les 17 entreprises et laboratoires qui se sont associés dans le cadre du projet Européen HAVEit (High Automated Vehicule for intelligent transport).

Tout prouve que les acteurs sont prêts à présenter des voitures entièrement automatiques. La Communauté Internationale doit prendre conscience qu’elle doit se réunir pour adapter la Convention de Vienne aux nouvelles technologies.

Google, qui n’a pas l’habitude de faire dans la dentelle, veut peser sur les Pouvoirs Publics pour que la réglementation interdisant à un véhicule automatique de rouler sans personne à bord soit modifiée.

Ainsi, à force de lobbying auprès des décideurs de cet État, les électeurs du Nevada (États-Unis) devront dire, lors d’une prochaine consultation, s’ils acceptent que des véhicules entièrement automatiques roulent sur les routes de leur État, sans qu’il n’y ait personne à bord. Si le vote était positif (et à condition qu’une autorité supérieure n’impose pas, malgré tout, le respect de la Convention de Vienne), le Nevada deviendrait alors la première région au Monde où un véhicule, entièrement automatique, pourrait librement rouler sur toutes les routes à une vitesse supérieure à 25 km/h, et ce, sans personne à bord.

Mais la Communauté Internationale ne veut, peut-être, pas faire évoluer trop rapidement la Convention de Vienne, car elle n’est pas certaine que la communauté des automobilistes, souvent conservatrice par nature, soit prête à accepter une telle mutation. Déjà, beaucoup de commentateurs qui s’expriment dans les principales revues automobiles regrettent que les aides à la conduite, apparues récemment sur les véhicules les plus sophistiqués, rendent moins agréable sinon ennuyeux le pilotage des voitures.

Pour réussir une telle mutation, il est indéniable que la voiture va devoir totalement changer de vocation. D’un simple véhicule de transport soumis aux aléas des embouteillages et des accidents, le véhicule de demain devra devenir un moyen de déplacement de très haute sécurité avec zéro mort, zéro accident et zéro embouteillage.

De plus, le chauffeur qui est actuellement, dans plus de 80 % des cas, la seule personne à bord, deviendra passager. Il faudra donc organiser tout autrement l’ergonomie à l’intérieur du véhicule et le temps passé par ce (ou ces) passager(s) à bord. D’un simple outil de déplacement, la voiture du futur deviendra un lieu de découverte, de travail et de loisirs. Et ce, simplement parce que la voiture de demain est appelée à devenir une super forteresse de communications.

Peut-être comprenons-nous mieux, maintenant, pourquoi Google s’investit si lourdement dans le véhicule du futur.

Il serait dommage que nos constructeurs automobiles ratent ce virage déterminant pour l’avenir en ne prenant pas conscience, suffisamment tôt, de la mutation fondamentale que va devoir subir, très prochainement maintenant, la voiture automobile.

Il est vrai qu’en leur temps aussi les fabricants de diligences n’avaient pas senti arriver la révolution culturelle qu’allait apporter avec elle l’automobile. Or la révolution culturelle qui arrive avec la voiture du futur, entièrement automatique et hyper communicante est de même importance.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les e-mails polluent aussi la planète
Jeudi, 14/07/2011 - 01:00

Les courriels d'une société de cent personnes génèrent une pollution annuelle égale à quatorze allers-retours Paris-New York.

Envoyer des courriers électroniques, surfer sur Internet... Qui imaginerait que ces gestes quotidiens, machinaux, polluent l'environnement dans les mêmes proportions que le trafic aérien ? Pourtant, "les technologies de l'information et de la communication (TIC) pourraient être responsables de près de 4 % des émissions de gaz à effet de serre en Europe, en 2020, contre 2 % en 2005 ", a récemment affirmé l'ADEME (Agence de l'environnement et de la maîtrise de l'énergie), lors d'une conférence sur l'impact environnemental des TIC. Un impact plus important encore que celui du transport aérien, lequel représente 2 à 3 % des émissions européennes de gaz à effet de serre.

Contrairement aux idées reçues, l'envoi d'un e-mail d'un poids de 1 mégaoctet génère près de 20 grammes équivalent CO2, en raison de l'énergie consommée par les ordinateurs de l'expéditeur et du destinataire, à laquelle s'ajoute celle des serveurs stockant les données informatiques ainsi échangées. Sachant qu'un salarié français reçoit en moyenne 58 e-mails par jour et en envoie 33, les courriels gérés par une entreprise de 100 personnes entraînent l'émission de 13,6 tonnes équivalent CO2 par an, soit l'équivalent, en termes de pollution, de près de 14 allers-retours en avion entre Paris et New York, selon l'Ademe. Un impact sur l'environnement appelé à s'aggraver, le nombre d'e-mails envoyés chaque jour dans le monde devant avoisiner les 507 milliards en 2013, soit un doublement par rapport à 2009. À moins, tout simplement, de diminuer le nombre de destinataires des courriers électroniques : "Réduire de 10 % l'envoi de courriels incluant systématiquement son responsable et son collaborateur direct au sein d'une entreprise de 100 personnes permet d'économiser environ une tonne équivalent CO2 sur l'année, soit un aller-retour Paris-New York ", assure l'Ademe.

  • Recherche sur Internet

En apparence aussi inoffensive pour l'environnement que l'e-mail, une recherche sur Internet peut générer jusqu'à 10 grammes équivalent CO2, en fonction du temps passé sur le Web et, donc, de la consommation énergétique du PC. Or, un internaute effectuant en moyenne 949 recherches sur le Web par an, les 29 millions d'internautes que compte la France généreraient ainsi 287.600 tonnes équivalent CO2 par an, calcule l'Ademe. Soit une pollution égale à celle de... près de 300.000 allers-retours Paris-New York. Là encore, il suffirait aux internautes d'utiliser des mots-clés précis et de recourir à la barre des "favoris" dans leur navigateur pour aller plus vite en besogne et, partant, réduire les émissions liées à la recherche sur Internet de 10 kilos équivalent CO2 par an, soit la pollution générée par un trajet de 80 kilomètres en voiture.

La Tribune

La canne virtuelle pour aider les malvoyants à se repérer
Mardi, 12/07/2011 - 01:30

Inventée par l'Université hébraïque de Jérusalem, elle permet au patient de reconstruire une image de l'environnement.

Actuellement, près de 200 millions de personnes dans le Monde souffrent de déficience visuelle, avec comme conséquence principale des difficultés pour s'orienter et se déplacer. Un des principaux défis qui se posent à elles est d'évaluer la hauteur des différents obstacles et d'identifier des objets plus éloignés, afin d'anticiper leur déplacement. La canne blanche utilisée actuellement n'offre qu'une solution très partielle à ces problèmes. D'où l'idée de mettre au point une canne virtuelle ca­pable, grâce à un système de capteurs et de vibrations, d'améliorer l'orientation et la mobilité des malvoyants.

Ce nouveau dispositif aidant les personnes aveugles à percevoir les différents obs­tacles sur leur chemin a été présenté fin juin à Jérusalem, lors d'une conférence internationale intitulée «Facing Tomorow», visant à réfléchir aux défis de l'avenir et organisée à l'initiative du président Shimon Pérès. Le Docteur Amir Amedi, de l'Institut de recherche médicale Israël-Canada (Imric) et de Safra Center for Brain Sciences (ELSC) de l'université de Jérusalem, et son équipe ont donc développé ce dispositif, de la taille d'un téléphone portable. Ce système, qui fonctionne comme une lampe de poche virtuelle, peut remplacer ou compléter la canne blanche classique. La canne virtuelle émet un faisceau focalisé vers les objets environnants et transmet les informations à l'utilisateur via une légère vibration, semblable à celle d'un téléphone portable.

  • Utilisation très «intuitive»

La canne intègre plusieurs capteurs permettant d'estimer la distance entre l'utilisateur et l'objet pointé. Cela permet à la personne aveugle d'évaluer la hauteur et la dis­tance des objets divers, de reconstruire une image précise de l'environnement et de se déplacer en toute sécurité. La canne virtuelle est extrêmement petite, facile à transporter, précise, a une autonomie de fonctionnement de douze heures et est facile à charger. Son utilisation, très «intuitive», peut être apprise en quelques minutes.

Les chercheurs du laboratoire du Docteur Amedi ont expérimenté la canne virtuelle dans des environnements différents, afin d'étudier le fonctionnement du cerveau chez les personnes aveugles, et notamment sa capacité de réorganisation. En particulier, les chercheurs ont construit un labyrinthe qui impose de marcher dans un environnement et des chemins changeants. Grâce à la canne virtuelle, et après une courte période de formation, une dizaine de malvoyants se sont déplacés avec succès dans le laby­rinthe et ont réussi à éviter complètement les murs et les obstacles.

Le Figaro

Orange expérimente un pacemaker communicant
Dimanche, 10/07/2011 - 01:30

Juillet signe la concrétisation du partenariat entre l’opérateur télécoms Orange et le fabricant de pacemakers Sorin. Leur premier dispositif communicant va être expérimenté en France durant cinq mois, dans l’objectif d’être commercialisé en Europe début 2012.

C'est une étape de taille pour Orange dans la e-santé. Le système de suivi à distance en télécardiologie a été développé avec le spécialiste italien des dispositifs médicaux cardiovasculaires Sorin, qui  réalise un tiers de son chiffre d’affaires en France. Grâce à des capteurs 3D implantés pour mesurer l’activité du patient, le pacemaker pourra transmettre les informations à un boîtier placé dans la chambre. Doté d’un logiciel que les deux entreprises testaient depuis quelques mois aux Etats-Unis et en Europe, le système devrait être capable de détecter les signes de dégradation de l’état de santé du patient. Et dans ce cas, une alerte est alors envoyée au cardiologue, pour éviter l’hospitalisation d’urgence, avec deux semaines d’anticipation !

Traditionnellement, les pacemakers de Sorin étaient dotés d’une mémoire enregistrant tous les éléments se produisant, mais qu’il fallait vider à l’hôpital pour réaliser la lecture des données. Le système développé avec Orange, lui, est autonome pour transmettre chaque nuit les informations au boîtier. Sa batterie implantée à une durée de vie est de neuf ans. La difficulté a donc été de trouver un bon équilibre entre le volume de la batterie et le volume d’informations à transmettre.

Présenté comme facile à utiliser, cette solution "permet une surveillance quotidienne et des suivis planifiés des paramètres de l’appareil implanté". Elle peut également jouer un rôle préventif dans les épisodes de décompensation dans l’insuffisance cardiaque, explique-t-on chez Sorin.

Lancé en France et simultanément en Allemagne, Italie, Espagne et Royaume-uni au 1er semestre 2012, son modèle économique est déjà défini : Orange fournira son système à son client Sorin, qui les vendra aux médecins et hôpitaux. Si le dispositif devrait être pris en charge par la sécurité sociale,  les frais de médecins risquent de ne pas être remboursés. Mais d’ici là, l’opérateur de télécoms mise sur la vigilance : "surveiller l'activité cardiaque est une solution lourde qui implique que nous prenions beaucoup de précautions, précise-t-il à l’Usine Nouvelle. S'il y a le moindre souci durant la phase de test, nous n'hésiterons pas à allonger le cycle du projet".

L'Usine Nouvelle

^ Haut
Avenir
Nanotechnologies et Robotique
POB, le robot qui arrose les plantes et assaisonne les plats
Samedi, 09/07/2011 - 01:10

A quoi sert un robot ? A distribuer des fromages en cubes, à arroser les plantes, à saler et à poivrer une assiette, répond en substance Pierre Seguin, le fondateur et dirigeant de POB Technology, start up lyonnaise créatrice du robot éponyme. Futile, le POB ? Pas seulement, puisqu'il permet aussi d'accéder très simplement à la programmation robotique. Le POB, dont la vente a débuté le 23 juin dans les magasins Fnac et sur fnac.com, se présente comme une petite base roulante, facilement démontable à l'aide d'une clé de type Allen. Communicant en Wi-Fi, il se programme par l'intermédiaire d'un logiciel entièrement graphique, Risbee. Une version iPhone et iPad est disponible, en attendant l'application Android en cours de finalisation.

Livrée avec un capteur de distance, la base peut être complétée avec différents kits (environ 35 € chacun) : « Pince » (pour attraper une canette), « Poubelle » (pour mettre celle-ci au rebut) ou « Radar » (pour être capable de se déplacer dans un labyrinthe). Et dans les locaux encombrés et exigus de POB Technology, Pierre Seguin imagine déjà en rigolant les prochaines applications du POB : « piqueur de saucisses de barbecue », « ramasseur de chaussettes » ou « cible pour la chasse au robot ».Jusqu'à présent, le POB visait essentiellement le monde de l'éducation : 2 500 exemplaires ont déjà été produits (100 % en France). « Même si on est encore dans l'évangélisation, le marché commence à basculer vers le grand public », estime Pierre Seguin, qui espère écouler 2 000 unités en 2011 à travers son partenariat exclusif avec la Fnac.

01net

^ Haut
Matière
Matière et Energie
La capture et le stockage du CO2 sur le marché en 2015
Mercredi, 13/07/2011 - 01:00

La capture et le stockage de CO2 (CSC) vise à enfouir le CO2 dans le sous-sol. Destinée principalement aux centrales électriques au charbon, encore expérimentale, cette technologie donne lieu au concept de charbon propre auquel s'opposent nombre d'associations pour l'environnement. Alstom Power vient de rendre public les résultats de treize projets pilotes, ou démonstrateurs.

Selon Alstom Power, les technologies de capture et le stockage du carbone seront commercialement disponibles à grande échelle en 2015 et permettront de capturer 90 % du CO2 émis par une centrale à charbon pour un coût de l'électricité produite entre 6,5 et 8,5 centimes d'euros.

Le point intéressant vient de la comparaison avec les énergies renouvelables. Dans un communiqué, Alstom précise que le coût du kWh électrique produit avec capture et stockage du carbone sera compétitif avec celui des énergies renouvelables (à ce jour l'éolien principalement, ndlr). Ce qui signifie que le surcoût lié à la technologie CSC serait de l'ordre de 30 % à 50 % plus cher (notre estimation) que sans la technologie CSC. Ce surcoût provient pour partie de l'énergie supplémentaire - et donc d'une combustion supplémentaire de charbon - pour isoler le CO2 lors de la combustion, le compresser, le transporter, et enfin le stocker dans le sous-sol.

Alstom Power précise qu'au fil du développement de la technologie, la compétitivité de la capture et du stockage du CO2 ne fera que s'améliorer. À cette prévision, on pourrait toutefois opposer une logique différente exprimée par le ministre de l'environnement allemand dans un article récent de ddmagazine, logique selon laquelle plus on consomme de combustible fossile, plus les prix montent alors que plus on consomme d'énergie renouvelable, plus les prix baissent.

Alstom Power souligne l'importance des enjeux économiques de la CSC alors que plus de la moitié de la production mondiale de l'électricité sera encore produite par les énergies fossiles en 2035. La CSC pourrait à elle seule générer 20 % des réductions d'émissions de gaz à effet de serre nécessaires à l'horizon 2050 pour limiter le réchauffement climatique à 2°C.

DD Magazine

Récupérer de l'énergie par des films piézoélectriques
Mardi, 12/07/2011 - 01:20

Combiner le potentiel des matériaux piézoélectriques à convertir la pression mécanique en énergie électrique et le procédé de fabrication des puces électroniques pour réaliser des couches minces. Telle pourrait être la formule providentielle pour l’obtention de générateurs d’énergie piézoélectriques capables de rendre les produits portables complètement autonomes en électricité. Des chercheurs australiens de l’Université RMIT viennent de démontrer la faisabilité de ce couplage. Leur résultat est publié dans le journal Advanced Functional Materials.

Selon les chercheurs, cette démonstration prouve la faisabilité de dispositifs piézoélectriques intégrés dans des chaussures de course pour recharger les téléphones mobiles à partir de la pression des pieds contre le sol, ou dans le corps humain pour alimenter les stimulateurs cardiaques à partir de la pression artérielle.

Le concept de récupération d'énergie avec des nanomatériaux piézoélectriques a été démontré sur le plan scientifique. Mais sa réalisation bute sur des problèmes de complexité de structures et des difficultés de fabrication de masse. Selon les chercheurs australiens,  leur utilisation sous forme de revêtements en couches minces, fabriqués par les technologies courantes en microélectronique, offre une solution. Le principal défi est de trouver le moyen d’amplifier l’énergie produite par ces revêtements pour subvenir aux besoins du produit portable.

Industrie & Technologies

Un nouveau catalyseur enzymatique pour produire du biodiesel
Mardi, 12/07/2011 - 01:10

La production d'agrocarburants offre une alternative aux carburants d'origine fossile. Les biodiesels par exemple sont des produits transformés à base d'huiles de plantes oléagineuses comme le colza, la palme, le tournesol ou le soja. Ils résultent d'une réaction chimique, catalysée en milieu acide ou préférentiellement en milieu basique, entre de l'huile végétale (90 %) et de l'alcool (10 %). Cette réaction dite de transestérification convertit le mélange en ester méthylique (principal constituant du biodiesel) et en glycérol. Une réaction de saponification parasite (transformation de l'ester méthylique en sel de l'acide correspondant) limite ainsi le rendement réactionnel en esther méthylique. Pour améliorer le taux de conversion, il était donc nécessaire de développer d'autres catalyseurs.

Pour ce type de réaction, certains catalyseurs enzymatiques comme ceux appartenant à la famille des lipases (hydrolases triglycériques) sont particulièrement efficaces et sélectifs. Cependant, leur coût élevé et leur faible stabilité conformationnelle limitent leur utilisation industrielle. À moins de parvenir à les confiner, de manière irréversible, dans des matrices poreuses, permettant une bonne accessibilité et un transport de masse accru. C'est ce qu'est parvenu à faire l'équipe du professeur Rénal Backov (Université Bordeaux 1) au Centre de Recherches Paul Pascal (CRPP) du CNRS, en collaboration avec des chercheurs de l'équipe du docteur Hervé Deleuze à l'Institut des Sciences Moléculaires de Bordeaux (CNRS/Université Bordeaux 1/Institut Polytechnique de Bordeaux) et du professeur Clément Sanchez  au laboratoire de chimie de la matière condensée de Paris (CNRS/UPMC/ENSCP/Collège de France).

Dans une première étude, ils avaient déjà montré la possibilité d'une catalyse efficace : la mise au point de matrices alvéolaires siliceuses modifiées permettant de confiner les lipases afin d'atteindre des taux de conversions exceptionnels pour les réactions d'hydrolyse, d'estérification ou de transestérification. Ce travail avait également prouvé qu'il était possible, dans les matrices, d'utiliser des enzymes non purifiées. Le fait qu'elles soient non purifiées constitue le premier facteur de réduction significative du coût des bio-catalyseurs. Néanmoins, la méthodologie développée ne permettait pas une production de biodiesel en continu. Cette limitation est désormais levée.

La nouvelle méthode mise au point génère in situ le bio-catalyseur hybride alvéolaire au sein d'une colonne de type chromatographique. Cette innovation permet désormais une synthèse en flux unidirectionnel, continu et de façon durable puisque l'activité catalytique et la productivité en ester d'éthyle sont maintenues à des niveaux élevés et quasi-stationnaires sur une période de 2 mois. Ces résultats comptent parmi les meilleurs obtenus dans le domaine.

Les recherches doivent se poursuivre dans la conversion de triesters sans solvant, visant à minimiser la génération de déchets et l'utilisation de solvants et de métaux lors des processus de transformations chimiques.

CNRS

Des pneus qui « roulent mieux »
Dimanche, 10/07/2011 - 01:10

Plus d’un milliard de pneus sont produits chaque année dans le monde, dont près de la moitié en Amérique du Nord... Leur élimination après usage représente tout un défi. Une grande partie d’entre eux sont utilisés comme combustible dans les fours à ciment, processus qui produit de grandes quantités de gaz carbonique (CO2) qui contribue au réchauffement planétaire.

Mais il faut aussi tenir compte du CO2 produit par les pneus simplement par leur utilisation. On estime qu’une voiture consomme 20 % de son carburant simplement pour contrer la résistance au roulement de ses pneus. Ce phénomène est responsable de plus de 4 % des émissions de CO2 provenant de combustibles fossiles à travers le monde. Il est possible de fabriquer des pneus qui « roulent » mieux mais cela nuit à leur adhérence et leur durabilité. Le défi des manufacturiers a toujours été de combiner ces trois éléments, connus sous le terme de « triangle magique », de manière à avoir le meilleur roulement sans trop sacrifier l’adhérence et la durabilité. Pendant longtemps, le noir de carbone, un composé provenant de la combustion incomplète du goudron, était l’additif au caoutchouc qui donnait les meilleurs résultats. Mais les chercheurs de Michelin sont arrivés à conquérir « le triangle magique » avec un nouvel additif révolutionnaire. Ils ont remplacé le noir de carbone par des dérivés de la silice, une technologie qui, d’un seul coup, a réduit la résistance au roulement de près de 30 %, réduisant la consommation d’essence et donc, la production de CO2. Voilà qui représente une belle contribution de la part d’un matériau tout simple. Car la silice est tout simplement le composé dont le sable est constitué.

Techniques de l'Ingénieur


De nouvelles piles à combustible pourraient changer la face des batteries
Samedi, 09/07/2011 - 01:20

Les fourmis détiennent-elles le secret des piles à combustible de demain ? Des chercheurs de l'Institut de physique chimie de Pologne ont découvert que l'acide formique, qui dans la nature se trouve initialement dans le dard des fourmis, permet un stockage plus efficace et sécurisé de l'hydrogène. Grâce aux propriétés de ce catalyseur, ils prévoient de mettre au point un nouveau type de pile à combustible, qui pourrait, à terme, avoir un impact important sur le marché de l'électronique et notamment des terminaux mobiles, des portables et des GPS.

Elles pourraient en effet remplacer les batteries actuelles, souvent longues à recharger et avec une autonomie limitée. Ces nouvelles piles, facilement commercialisables à grande échelle -selon le communiqué du Laboratoire-, seraient moins chères, moins complexes et plus stables dans le temps que les piles existantes. D'autres recherches de ce type sont menées depuis de nombreuses années par d'autres laboratoires, mais leur commercialisation posait jusque là de nombreux problèmes techniques. L'acide formique utilisé ici est, selon les chercheurs, facile à produire en grandes quantités, ce qui permettrait de fabriquer ces piles en masse et à bas coût.

En pratique, ces piles à combustible transforment l'acide formique et l'oxygène en dioxyde de carbone et en eau qui servent à produire de l'énergie. Elles produisent une puissance qui, selon les chercheurs, correspondrait aux besoins des appareils électroniques comme les téléphones, les ordinateurs portables ou encore les GPS. Dans une pile à combustible classique, le Docteur Borodzinski explique que "c'est l'utilisation du platine comme catalyseur et du méthanol qui permet de produire la réaction chimique et la production d'énergie" avant d'ajouter : "qu’allié à de l'acide formique, le rendement diminue fortement". Il leur a donc fallu trouver une nouvelle solution pour répondre à ce problème. Selon eux, au lieu d'utiliser du méthanol souvent très polluant et très cher, il vaut mieux le remplacer par du palladium, beaucoup moins rare et finalement plus puissant lorsqu'on arrive à le rendre stable après une opération de deux heures en laboratoire.

Les chercheurs soulignent que l'acide formique est un dérivé de la biomasse et qu'il respecte ainsi beaucoup plus l'environnement que les autres composés utilisés. Par ailleurs, il offre des capacités de stockage deux fois plus importantes que les piles à combustible actuellement disponibles sur le marché. On peut également envisager d'utiliser cette technologie dans l'industrie automobile afin d'augmenter l'autonomie énergétique tout en réduisant le volume des batteries à combustible. Les chercheurs de l'Institut de physique chimie de Pologne n'en sont néanmoins qu'à l'étape de l'élaboration d'un prototype, qui ne devrait voir le jour que dans deux ans.

L'Atelier

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Pathogènes et insecticides : un cocktail mortel pour les abeilles
Jeudi, 14/07/2011 - 01:10

L’infection par Nosema ceranae, un parasite responsable de la nosémose, entraîne une plus forte mortalité des abeilles lorsque celles-ci sont exposées à de faibles doses d’insecticides. C’est ce que viennent de mettre en évidence des chercheurs du Laboratoire Microorganismes : Génome et Environnement (LMGE, CNRS/Université Blaise Pascal Clermont-Ferrand 2) et du Laboratoire de Toxicologie Environnementale (LTE, INRA Avignon). Ces résultats sont publiés dans la revue PLoS ONE.

En France, les abeilles domestiques de l’espèce Apis mellifera représentent l’outil de travail d’environ 70000 apiculteurs professionnels et amateurs. Leur influence directe sur la qualité et la quantité des récoltes, ainsi que sur le maintien de la biodiversité florale, est aujourd’hui largement reconnue et souligne le rôle prépondérant des abeilles, domestiques et sauvages, dans le fonctionnement des écosystèmes.

Cependant, depuis plus de 15 ans, les colonies d’abeilles sont en proie à un mal étrange et peu compris des apiculteurs et des scientifiques, avec chaque année, des milliers de colonies qui disparaissent. Pour expliquer ce phénomène, observé principalement par les apiculteurs européens et américains, de nombreuses pistes sont avancées : l’appauvrissement de la diversité et de la qualité des ressources alimentaires (en lien avec les changements climatiques), l’intensification des monocultures et la modification des paysages, l’action d’agents pathogènes responsables de maladies comme la varroase2, les loques3 et la nosémose, le stress chimique provoqué par l’exposition des abeilles aux produits phytosanitaires et vétérinaires ou encore certains prédateurs tels que le frelon asiatique. Bien que de nombreuses données soient disponibles sur l’influence des stress nutritionnel, parasitaire et chimique sur la santé des abeilles, aucun d’entre eux n’a pu être isolé comme unique responsable du déclin des populations d’abeilles. Aujourd’hui, les spécialistes du domaine s’accordent pour orienter les recherches sur les effets combinés de plusieurs de ces facteurs.

C’est dans ce contexte que des équipes de recherche du CNRS, de l’INRA et de l’Université Blaise Pascal ont associé leurs compétences respectives en parasitologie et en toxicologie pour évaluer l’influence des interactions pathogène-toxique sur la santé des abeilles. En laboratoire, les chercheurs ont exposé de façon chronique des abeilles naissantes saines et d’autres contaminées par Nosema ceranae à de faibles doses d’insecticides. Résultat : les abeilles infectées par Nosema ceranae puis exposées de façon chronique aux insecticides succombent, même à des doses se situant en dessous du seuil entraînant la mort, ce qui n’est pas le cas de leurs congénères non infectées. Cet effet combiné sur la mortalité des abeilles apparaît pour une exposition quotidienne à des doses pourtant très faibles (plus de 100 fois inférieures à la DL504 de chaque insecticide). La synergie observée ne dépend pas de la famille d’insecticides puisque les deux molécules étudiées, le fipronil et le thiaclopride5, appartiennent à des familles différentes. Le mode d’action responsable de cette synergie n’a cependant pas été encore identifié.

Cette étude montre donc que l’interaction entre nosémose et insecticides constitue un risque significatif supplémentaire pour les populations d’abeilles et pourrait expliquer certains cas de surmortalité. Ce travail indique également que des doses d’insecticides considérées comme ne pouvant entraîner la mort expriment pourtant un potentiel toxique létal pour des organismes parasités et donc fragilisés. Par conséquent, ces résultats montrent la nécessité d’améliorer la gestion et la protection du cheptel apicole face au danger que représentent les pollutions environnementales et les pathogènes (seuls ou en combinaison) sur la santé de l’abeille. L’équipe « Interactions Hôtes-Parasites » du Laboratoire Microorganismes : Génome et Environnement (LMGE, CNRS/Université Blaise Pascal Clermont-Ferrand 2) travaille justement à rechercher de nouveaux moyens de lutte contre cet agent pathogène.

INRA

Début de l’affichage environnemental dans les magasins
Samedi, 09/07/2011 - 01:30

Une expérimentation d’affichage environnemental a débuté vendredi 1er juillet 2011 pour un an en France. Mesure phare du Grenelle de l’environnement, elle consiste à indiquer sur les étiquettes des produits de consommation courante leur empreinte écologique.

L’objectif est d’inciter les consommateurs à acheter les produits qui ont le moins d’impacts sur la planète. Près de 170 entreprises, multinationales ou PME, dans les domaines de l’alimentation, du textile, de l’ameublement ou des cosmétiques, participent à cette expérimentation. Concrètement, elles indiqueront sur les étiquettes des produits ou sur leur site Internet les émissions de gaz à effet de serre et la consommation d’eau des produits tout au long de leur vie, ainsi que la quantité de ressources non renouvelables nécessaires à leur fabrication.

Baromètre écologique noté sur 5, chiffre des émissions de gaz à effet de serre exprimé en équivalent CO2 ou note globale sur une échelle de A à E : chaque entreprise est libre de concevoir son étiquette verte comme elle le souhaite, à condition que celle-ci fasse apparaître plusieurs critères. Ce qui risque de rendre la comparaison entre différents produits difficile pour le consommateur.

La Croix

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer : des chiffres inquiétants
Jeudi, 14/07/2011 - 01:30

Le nombre de cancers a encore augmenté en 2011, avec 1.000 nouveaux cas par jour, selon l’Invs.

Plus la population vieillit et croît, plus les victimes du cancer sont nombreuses. Il devrait y avoir en 2011, 365.500 nouveaux cas, soit plus de 1.000 par jour, selon les projections de l'Institut de veille sanitaire (Invs) publiées il y a quelques jours. Dans le détail, il devrait y avoir en 2011 207.000 nouveaux cas de cancers chez les hommes, avec 84.500 décès. Chez les femmes, 158.500 nouveaux cas seraient recensés dans l’année, ainsi que 63.000 décès. Le nombre de cas est en hausse de 2,2 % par rapport à 2010, et le nombre de décès reste stable (+ 0,7 %).

  • Le cancer du sein en hausse

Si l’Invs note une stabilisation des cancers les plus fréquents, comme la prostate, l’institut alerte sur les chiffres inquiétants du cancer du sein, toujours en hausse chez les femmes. Avec 53.000 nouveaux cas en 2011, c’est le type de cancer le plus fréquent chez les femmes. C’est aussi la première cause de mortalité chez ces dernières : l’Invs prévoit 11.500 décès suite à ce type de cancer en 2011.

Chez l’homme, le cancer du poumon est la première cause de mortalité, avec 21.000 décès prévus. Son incidence est cependant en légère baisse, suite au recul du tabagisme. En revanche, elle est en forte hausse chez la femme (12.000 nouveaux cas estimés), avec une hausse de 20 % par rapport aux estimations de 2010, et une mortalité en constante augmentation.

La politique de dépistage du cancer du sein, très active, n'est néanmoins pas vaine. Le taux de mortalité diminue en effet depuis 15 ans. "Plus un cancer est dépisté tôt, plus le traitement est efficace", précise Martine Lequellec-Nathan, directrice de la Santé publique à l’Institut national du cancer.

Europe 1

INVS

De nouvelles approches pour lutter contre la maladie d'Alzheimer
Jeudi, 14/07/2011 - 01:20

Le diagnostic précoce de la maladie d'Alzheimer sera bientôt une réalité, grâce à une équipe de chercheurs financés par l'UE qui a développé des nouvelles approches permettant de mesurer les biomarqueurs pour le diagnostic de la maladie d'Alzheimer, ainsi qu'un système sophistiqué conçu pour l'intégration des informations de manière analytique. Ce système offre aux chercheurs une méthode objective pour mesurer l'état des patients. Il a été développé dans le cadre du projet PREDICTAD («From patient data to personalised healthcare in Alzheimer's disease»), financé à hauteur de 2,89 millions d'euros au titre du thème «Technologies de l'information et de la communication» (TIC) du septième programme-cadre (7e PC).

«L'objectif du projet PREDICTAD est de développer un indicateur objectif permettant de diagnostiquer la maladie d'Alzheimer le plus tôt possible», explique le Docteur Jyrki Lötjönen du centre de recherche technique VTT de Finlande, coordinateur scientifique du projet. «Les directives actuelles sur le diagnostic insistent sur l'importance des divers biomarqueurs dans les diagnostics. Nous avons développé de nouvelles approches pour extraire des biomarqueurs à partir des données d'imagerie, d'électrophysiologie et des examens sanguins, et un outil logiciel unique et cliniquement utile pour intégrer toutes ces mesures hétérogènes.» PREDICTAD a débuté en 2008 et devrait se finir en novembre 2011.

L'atrophie du lobe médio-temporal du cerveau est une caractéristique bien connue de la maladie d'Alzheimer. Pour les experts, l'imagerie par résonance magnétique est un excellent outil de mesure de cette perte de tissu. Dans la pratique clinique courante, les images sont interprétées principalement par inspection visuelle, mais il y a un grand besoin de mesures objectives.

Les partenaires de PREDICTAD ont développé plusieurs méthodes pour répondre à ce besoin. «L'outil PREDICTAD apporte une nouvelle option pour soutenir la prise de décision», commente le professeur Hilkka Soininen de l'université de la Finlande orientale, responsable de la validation clinique du projet. Le professeur Daniel Rueckert de l'Imperial College London au Royaume-Uni, partenaire de PREDICTAD, expliquait : «Nous avons réussi à développer des outils efficaces pour mesurer la taille de l'hippocampe, le taux d'atrophie de l'hippocampe, et deux approches modernes basées sur la comparaison des données des patients avec des cas déjà diagnostiqués dans les grandes bases de données disponibles.»

Le consortium PREDICTAD, qui réunit des chercheurs et partenaires industriels du Danemark, d'Italie, de Finlande, de Suède et du Royaume-Uni, étudie également une autre technologie d'imagerie appelée tomographie par émission de positons (TEP). D'après l'équipe, un traceur développé récemment offre des promesses pour le diagnostic très précoce de cette maladie débilitante dès ses premières étapes.

La recherche sur la maladie d'Alzheimer est extrêmement importante, explique le professeur Gunhild Waldemar du centre hospitalier universitaire de Copenhague, le Rigshospitalet au Danemark. «Un diagnostic précoce combiné à des médicaments nouveaux et à une prise en charge psycho-sociale dès le début des soins peuvent retarder l'institutionnalisation des patients, réduire les souffrances et les coûts pour la société». «Retarder de cinq ans l’apparition de la maladie d'Alzheimer permettrait de réduire de moitié les coûts de la maladie d'Alzheimer, et retarder son apparition et sa progression de seulement un an pourrait réduire de 10 % environ le nombre de cas.»

Les professionnels de la santé ont identifié la démence comme une priorité en Europe et aux États-Unis, et Alzheimer est la cause la plus courante de démence. Les coûts de cette maladie à eux seuls représentent environ 1 % du produit intérieur brut (PIB) mondial. D'après les experts, le nombre de cas d'Alzheimer aura doublé d'ici 2030.

CORDIS

La bonne clé pour la bonne serrure
Mercredi, 13/07/2011 - 01:30

Les thérapies ciblées confirment leur efficacité, en particulier dans certaines formes de cancers du sein

Tout l'intérêt des « grands messes » médicales tel que le congrès annuel de l'American Society of Oncology (ASCO) est de permettre au praticien qui s'y rend de mieux appréhender les progrès réalisés dans le domaine qui l'intéresse et d'avoir une vue d'ensemble de l'état de l'art en oncologie. Cette année aura été marquée par la confirmation de l’intérêt que peuvent jouer ce que l'on appelle les thérapies ciblées. Contrairement aux médicaments « classiques » utilisés en chimiothérapie - qui détruisent les cellules tumorales mais aussi d’autres, d’où les effets secondaires -, on a là des molécules qui vont freiner la progression tumorale en bloquant des facteurs de croissance bien précis ou des oncogènes spécifiques d'une tumeur. Elles s'attaquent aux mécanismes de croissance de la cellule tumorale, principalement au niveau des signaux favorisant la multiplication. La voie dite des tyrosine kinases est la mieux connue à ce jour. Cette voie peut être bloquée par des anticorps monoclonaux (Mab) ou des inhibiteurs enzymatiques (inib).

Pour le Docteur Etienne Brain, oncologue médical spécialiste des tumeurs du sein, à l'hôpital René Huguenin de l’Institut Curie, trois études présentées à l'ASCO illustrent bien les améliorations que l'on peut attendre de ces thérapies.

  • Tout d'abord chez des patientes ayant un cancer du sein surexprimant le récepteur HER2, l'association Herceptin® (trastuzumab, un anticorps monoclonal bloquant un récepteur membranaire) et Tyverb® (lapatinib, un inhibiteur de tyrosine kinase), administrée avant l'opération et surtout sans chimiothérapie, donne des résultats étonnants : après deux mois de traitement, 30 % des malades voient leur tumeur se résorber complètement.« C'est assez exceptionnel », estime Etienne Brain.
  • Résultats tout aussi encourageants chez des patients atteints d'un mélanome, et porteur d'une mutation sur le gène BRAF, situation fréquente jusque dans 50 % des cas : à six mois, 84 % des patients sous vemurafenib, (PLX4032, un inhibiteur de kinase qui va bloquer le gène muté), sont encore en vie contre 64 % de ceux sous chimiothérapie standard avec du Déticène™ (dacarbazine). Le traitement prolonge indubitablement la survie sans progression des malades, c’est-à-dire le temps pendant lequel la maladie est contrôlée et ne progresse pas.
  • Enfin, dans les formes avancées et non opérables de cancers du poumon présentant une mutation du gène EGFR, une étude européenne comparait les effets du Tarceva® (erlotinib, un inhibiteur tyrosine-kinase anti-EGFR) à ceux d’une chimiothérapie classique. L'analyse intermédiaire montre que la médiane de survie sans progression est de 5,2 mois sous chimiothérapie et de 9,7 mois sous Tarceva. Il ne semble toutefois pas y avoir un allongement de la survie globale.

De son côté, le Professeur Emmanuel Mitry, chef du département d’Oncologie médicale de l’hôpital René Huguenin de l’Institut Curie, rappelle que c'est sur les tumeurs stromales gastro intestinales qu'avait été démontré pour la première fois l'intérêt des thérapies ciblées, avec comme molécule le Glivec® (imatinib). Une étude présentée cette année à l'ASCO va, selon lui, « changer les standards ». Elle montre en effet que l'administration de Glivec® pendant 3 ans après l'opération, améliore nettement la survie des patients, y compris la survie globale, par rapport à un traitement d'une durée d'un an, lui-même conférant un bénéfice par rapport à la chirurgie seule.

Outre leur efficacité qui se confirme donc, ces thérapies ciblées ont pour attrait d'être moins « lourdes » pour le patient et plus facilement administrables. Elles n'en conservent pas moins des effets secondaires qu’il est parfois difficile de contrôler, bien qu’ils soient rarement sévères, et des résistances apparaissent déjà. Tout cela incite évidemment à développer les recherches dans ce domaine. Mais dans quel sens ? Etienne Brain plaide en faveur d'une accentuation de la recherche fondamentale ayant pour objectif la caractérisation moléculaire des pathologies : « on a toutes une série de clés (les anticorps, les inhibiteurs...), encore faut-il trouver la serrure qui correspond à chacune d'elle ». L'enjeu dorénavant est donc, pour chaque pathologie, de découvrir et de définir les serrures les plus efficacement « attaquables ».

Institut Curie

Greffe historique d'une trachée-artère artificielle enveloppée de cellules souches
Mercredi, 13/07/2011 - 01:20

Une équipe internationale de chirurgiens a réussi la première greffe mondiale d'une trachée-artère artificielle recouverte de cellules souches, a indiqué il y a quelques jours l'hôpital suédois où cette opération innovante a été réalisée.

Le 9 juin, un homme de 36 ans, souffrant d'un cancer de la trachée à un stade avancé, a reçu une nouvelle trachée-artère faite d'une structure synthétique et recouverte par ses propres cellules souches, a indiqué dans un communiqué l'hôpital universitaire Karolinska de Huddinge, dans la banlieue de Stockholm.

Ce type de médecine régénérative pourrait, selon l'hôpital, révolutionner le champ des greffes de trachées, les rendant nettement plus accessibles. "Les greffes de trachées-artères conçues avec une structure synthétique combinée aux cellules souches du patient, élevées au rang de procédé standard, signifient que les patients n'auront plus à attendre un donneur d'organe compatible", a-t-il indiqué. Ce serait particulièrement bénéfique pour les enfants, "étant donné que les trachées de donneurs sont moins nombreuses que pour les patients adultes", a-t-il indiqué, insistant sur le fait qu'une opération rapide offrirait aux patients de meilleures chances de guérison.

L'équipe de chirurgiens était menée par le professeur Paolo Macciarini de Karolinska et comptait dans ses rangs le professeur Alexander Seifalian, de l'University College de Londres, qui a conçu et fabriqué la trachée-artère artificielle.

Dans le même temps, des chercheurs de Harvard Bioscience ont construit un bioréacteur particulier utilisé pour implanter les cellules souches du patient sur la structure. Les cellules ont pu se développer sur la trachée-artère synthétique pendant deux jours avant la greffe. "Comme les cellules utilisées pour régénérer la trachée étaient celles du patient, il n'y a pas eu de rejet du greffon et le patient ne prend pas de médicaments immunosuppresseurs", a indiqué l'hôpital, ajoutant que l'homme allait "bien, sur le chemin d'une guérison totale, et qu'il serait autorisé à quitter l'hôpital demain".

La trachée synthétique a été utilisée en dernier recours, selon l'équipe, étant donné que, malgré une radiothérapie, la tumeur du patient était devenue si grosse qu'elle menaçait d'obstruer totalement la trachée-artère, et qu'il n'y avait pas de donneur compatible.

Macciarini avait déjà réalisé avec succès des greffes de trachées conçues avec des cellules souches mais, dans ces cas, les trachées-artères étaient prélevées sur des donneurs puis couvertes des cellules souches des patients.

Les Echos

Médecine légale : l'âge est dans la salive
Mercredi, 13/07/2011 - 01:10

Eric Vilain et de ses collègues de l'école de médecine David Geffen de l'Université de Californie cherchaient un moyen fiable de rendre compte de la sénescence du corps humain. Ils se sont très vite intéressés à la méthylation de l'ADN, puisque l'on sait que l'environnement et le vieillissement influent sur notre génome.

Après de multiples analyses incluant plus d'une centaine de personnes, ils ont découvert que deux gènes en particulier ont une méthylation fortement corrélée avec le vieillissement. À partir de ces données, ils ont mis en place un modèle prédictif qui permet d’évaluer l'âge biologique de la personne à 5 ans près grâce à une analyse génétique de sa salive.

Cette méthode pourrait, par exemple, être utile en médecine légale pour permettre de déterminer l'âge d’un coupable présumé à partir de traces de sa salive, mais aussi, dans certaines maladies où l'âge biologique d’un individu et dissocié de la réalité, de mieux appréhender la pathologie et de connaître l’état biologique exact du patient.

Information Hospitalière

Identification d’un "interrupteur" responsable de la transformation d’un cerveau sain en cerveau épileptique
Mardi, 12/07/2011 - 01:00

L’épilepsie est la maladie neurologique la plus fréquente après la migraine. Elle touche 1-2 % de la population mondiale. L’épilepsie du lobe temporal (ELT) est la forme d’épilepsie la plus fréquente chez l’adulte. Elle est résistante à tout traitement pharmacologique dans 30 % des cas. De plus, l’ELT est souvent associée à des déficits de mémoire et d’apprentissage ainsi qu’à des états dépressifs ou anxieux. Ces désordres sont souvent vécus par les patients comme étant plus invalidants que les crises d’épilepsie elles-mêmes.

L’épilepsie du lobe temporal a souvent comme origine une agression du cerveau (méningite, traumatisme crânien, etc.). Des dizaines d’années peuvent s’écouler entre cette agression et l’apparition des premières crises. Cet intervalle libre permet d’envisager la recherche de traitements préventifs. Mais pour cela, il est essentiel de déterminer les mécanismes qui sont responsables de la transformation d’un cerveau « sain » en cerveau "épileptique" après une agression.

La recherche fondamentale a montré qu’une agression initiale du cerveau conduit à une réorganisation considérable des réseaux de neurones qui le composent. Cette réorganisation est responsable de l’apparition des crises et des désordres associés, comme les déficits de mémoire. Un des éléments le plus frappant de cette réorganisation est une modification de l’expression de milliers de gènes qui déterminent l’organisation fonctionnelle des cellules du cerveau. Chaque gène modifié constitue donc une cible thérapeutique potentielle. C’est la direction prise par la recherche fondamentale et pharmaceutique pendant de nombreuses années. Restaurer la fonction d’un gène pourrait être suffisant pour empêcher le développement de l’épilepsie. Mais ce type de stratégie - cible unique - n’est pas très efficace.

L’équipe « Epilepsie » dirigée par Christophe Bernard de l’Unité Inserm U751 à La Timone (Marseille), en collaboration avec une équipe américaine (Tallie Z. Baram, Université de Californie à Irvine) a voulu comprendre les mécanismes responsables de la réorganisation des gènes. "L’idée est que plus on agit en amont, plus le traitement sera efficace." déclare le chercheur français. Ils ont identifié un gène qui est activé par l’agression initiale, et qui, une fois activé, a la capacité de contrôler l’expression de 1800 autres gènes. Ce gène s’appelle NRSF (Neuron Restrictive Silencing Factor). La protéine NRSF ainsi générée va recruter d’autres protéines qui vont empêcher la lecture de l’ADN au niveau de certains gènes, et donc empêcher la production des protéines codées par ces gènes.

En utilisant des modèles animaux d’ELT, ils ont ensuite fabriqué et injecté des leurres chimiques (des peptides appelés oligodéoxynucléotides) qui captent et fixent la protéine NRSF produite, empêchant ainsi son action sur ses gènes cibles. Ce traitement permet de restaurer l’expression des gènes bloqués par NRSF, restaurer la production des protéines codées par ces gènes, et les fonctions assurées par ces protéines. Ces leurres chimiques, injectés chez les animaux, ont un effet thérapeutique important : ralentissement de la progression de l’épilepsie, diminution du nombre de crises, et restauration d’une activité cérébrale (rythme thêta) qui joue un rôle central dans de nombreuses fonctions de mémorisation et d’apprentissage.

Il s’agit de la première identification d’un interrupteur majeur responsable de la transformation d’un cerveau "sain" en cerveau "épileptique" ; ce qui ouvre la voie aux traitements préventifs chez les personnes risquant de développer une épilepsie suite à une agression du cerveau.

INSERM

Nutrition : les fibres réduisent fortement la mortalité par infection
Lundi, 11/07/2011 - 01:30

L'effet bénéfique des fibres était déjà connu, mais son intérêt sur la prévention des décès liés à des maladies infectieuses reste à élucider.

La consommation régulière de fibres alimentaires entraîne une diminution de 22 % de la mortalité, selon une importante étude américaine portant sur près de 220 000 hommes et 170 000 femmes de 50 à 71 ans, suivis pendant neuf ans. Ses résultats ont été récemment publiés dans Archives of International Medicine. C'est la première fois que des chercheurs apportent aussi nettement la preuve du bénéfice des fibres sur la durée de vie. "Et le plus surprenant, c'est l'effet sur la mortalité liée aux infections", estime le Dr Pierre Azam, nutritionniste et endocrinologue à Paris. "À la différence de ce que l'on connaissait déjà sur les effets positifs des fibres sur les maladies cardio-vasculaires et respiratoires, le diabète et l'obésité, cet aspect est totalement inattendu."

Le spécialiste rappelle que les fibres ne sont pas digestibles et qu'elles font l'objet d'une fermentation par la microflore bactérienne dans le gros intestin. Elles sont notamment à l'origine d'une augmentation de l'excrétion des acides biliaires. Elles ont également un effet hypocholestérolémiant, elles ralentissent l'absorption des sucres et elles améliorent la sensibilité à l'insuline. De plus, elles abaissent la pression artérielle et favorisent la perte de poids en créant du volume et en allongeant le temps de satiété. Enfin, elles ont des propriétés anti-inflammatoires qui ont particulièrement intéressé les chercheurs américains.

  • Quinze grammes de fibres par jour

Ces derniers ont évalué les apports alimentaires des membres de leur cohorte au moyen d'un questionnaire de 124 points permettant de déterminer la consommation des aliments en volume et en fréquence quotidienne sur les 12 derniers mois. D'autres données concernant notamment le mode de vie ont été aussi recueillies ainsi que, bien sûr, les causes de décès. Il y en a eu plus de 20 000 chez les hommes et 11 000 chez les femmes durant les 9 ans de suivi. La consommation de fibres allait de 13 à 29 grammes par jour chez les hommes et de 11 à 26 grammes par jour chez les femmes. L'analyse des résultats montre que les apports en fibres sont associés à une réduction très significative du risque de la mortalité générale.

Par rapport aux femmes qui prenaient le moins de fibres, celles qui en mangeaient le plus avaient une diminution de 34 % de la mortalité cardiovasculaire, de 46 % de la mortalité cardiorespiratoire et de 59 % de celle par maladie infectieuse ; pour les hommes, les taux étaient respectivement de 24, 31 et 56 %. "Ces résultats doivent nous inciter à conseiller à tous nos patients de manger plus de 15 grammes de fibres par jour", conclut le Dr Azam. "Mais attention, elles doivent vraiment faire partie d'un régime quotidien. Si on lui apporte un jour beaucoup de fibres et le lendemain très peu, l'organisme risque de ne pas apprécier. Enfin, il faut savoir que les aliments les plus riches en fibres (choux, asperges, épinards...) sont souvent les moins bien supportés par l'intestin, à la différence des pâtes et du riz complet."

Le Point

Les effets du stress pourraient se transmettre héréditairement
Lundi, 11/07/2011 - 01:20

Publiés dans la revue Cell, les résultats obtenus par des chercheurs japonais suggèrent que les effets du stress, s'ils ne modifient pas la structure de l'ADN, modifient en revanche, et de façon transmissible, son 'emballage', entraînant des effets sur l'expression du génome, et donc sur la santé, y compris chez la descendance. Travaillant sur des levures il y a 20 ans, puis sur des mouches drosophiles aujourd'hui, l'équipe de Shunsuke Ishii, du RIKEN Tsukuba Institute (Japon), vient de mettre en évidence, chez ces insectes, la façon dont, dans un milieu 'stressant', l'émission de certaines protéines vient altérer un gène appelé ATF-2. Celui-ci, alors, n'assure plus correctement son rôle dans la formation de l'hétérochromatine, l'enveloppe complexe qui entoure l'ADN et en neutralise certaines séquences 'indésirables', qui, normalement, ne doivent pas s'exprimer.

Faute de ce 'masque' neutralisant de chromatine, ces séquences de gènes peuvent alors fonctionner, avec éventuellement des effets négatifs sur l'organisme. Or, l'altération due au stress subie par le gène ATF-2 est transmissible aux descendants. D'autre part, ATF-2 existe chez les levures, chez la drosophile... mais aussi chez l'homme, qui pourrait donc - de futurs travaux devront le préciser - subir également ce phénomène, dit 'épigénétique', avec de possibles implications dans des maladies telles qu'affections cardiaques, diabète ou schizophrénie. "Il y a longtemps eu une grande discussion pour savoir si l'effet du stress peut être transmis à la génération suivante sans modifier la séquence d'ADN. Beaucoup de gens ont émis des doutes sur de tels phénomènes parce que le mécanisme en était inconnu. Nos résultats démontrent maintenant que de tels phénomènes peuvent vraiment se produire.

Cell

Le cerveau affecté par la vie en ville
Lundi, 11/07/2011 - 01:10

Des chercheurs allemands ont mené une étude sur l'impact que peut avoir la vie en ville sur le cerveau humain. Publiés dans la revue Nature, ces travaux ont été réalisés sur 159 personnes saines, sans aucun antécédent de maladie mentale, âgées de 18 à 80 ans. Chacune avait précisé son lieu de naissance et l’environnement dans lequel elle avait passé les quinze premières années de sa vie.

Pour identifier les régions cérébrales affectées par l’environnement urbain, les chercheurs ont utilisé la technique d’imagerie par résonance magnétique. Ils ont ainsi pu observer l’activité cérébrale des participants et ont découvert que les risques de troubles anxieux et de l'humeur étaient plus élevés chez les citadins que chez les habitants des zones rurales. La vie en zone urbaine augmenterait de 29 % les risques de troubles de l'anxiété, de 39 % les risques de troubles de l’humeur, tandis qu'elle multiplierait par deux les risques de schizophrénie. "Nous savions que vivre en milieu urbain augmente les risques de détresse psychologique, mais ce qui se passe précisément dans le cerveau était inconnu. Notre étude montre que certaines régions de cerveau sont sensibles à la vie en ville, même si on n’y vit plus, mais qu’on y a été élevé" explique Jens C. Pruessner, chercheur à l’Institut universitaire en santé mentale Douglas et principal auteur de l'étude.

L'étude a démontré que la vie urbaine affecte les amygdales du cervelet, une zone qui joue un rôle dans la régulation des émotions et des humeurs. Chez ceux qui sont nés et ont grandi en ville, c'est une augmentation de l’activité du cortex cingulaire, qui régule le stress, qui a été observée. "Même si une personne n’habite plus en ville, elle réagit plus fortement au stress de l’environnement urbain. Cela veut donc dire qu’une personne qui a grandi en milieu rural et qui déménage en ville sera moins sensible à l’environnement urbain, car son cerveau n’aura pas été sensibilisé au stress qui en découle" explique M. Pruessner. Pour le Professeur Andreas Meyer-Lindenberg, de l'Université de Heidelberg, cette étude révèle la nécessité "d'un point de vue de la santé mentale, de faire des villes des lieux plus agréables à vivre".

Maxisciences

ERYTECH Pharma a terminé le recrutement des patients dans son essai clinique de phase I dans le cancer du pancréas
Dimanche, 10/07/2011 - 01:20

ERYTECH Pharma vient de terminer le recrutement des patients dans un essai clinique de phase I avec son produit phare Graspa® dans le cancer du pancréas. Ce produit contient l'enzyme L-asparaginase, encapsulée dans les globules rouges, technologie propriétaire d’ERYTECH Pharma. Les premiers résultats obtenus dans cette étude ont montré que Graspa® était actif avec un profil de tolérance satisfaisant chez des patients en dernière ligne de traitement. Fort de ce succès, ERYTECH envisage de poursuivre le développement clinique de Graspa® dans le cancer du pancréas chez des patients potentiellement répondeurs au traitement.

« Nous sommes heureux de ces résultats dans le cancer du pancreas. Graspa® montre sa bonne tolérance chez ces patients, particulièrement fragiles, quand d’autres études ont montré une toxicité importante avec les autres formes d’asparaginase. Nous avions obtenu les mêmes résultats dans la leucémie ; c’est la première fois dans une tumeur solide», déclare le Dr Yann Godfrin, co-fondateur, Vice-Président et Directeur Scientifique d’ERYTECH Pharma.

Le cancer du Pancréas demeure un défi médical important, constituant la neuvième cause de décès par cancer en Europe, avec plus de 140 000 nouveaux cas chaque année en Europe et aux USA. Les études académiques publiées et les propres travaux d’ERYTECH ont démontré dans des modèles animaux et sur des tumeurs issues de patients, qu’un sous-groupe de tumeurs pouvait être sensible à l’action de la L-asparaginase. Afin de le sélectionner, ERYTECH collabore avec des partenaires académiques et privés pour mettre au point un test prédictif de l’efficacité de l’asparaginase encapsulée. En particulier, un accord de recherche a été signé avec le centre américain MD Anderson Cancer Center, qui a identifié un biomarqueur de prédication de l’activité de l’enzyme L-asparaginase sur les tumeurs solides.

« Parmi les approches pour traiter ce cancer, la déplétion en asparagine apparait séduisante. Cela est d’autant plus intéressant si nous pouvons sélectionner les patients dans les prochaines études cliniques, susceptibles de pouvoir avoir un effet de cette déplétion », souligne le Professeur Thierry André, Service d’Hépato-Gastro-Entérologie  Gr. Hospitalier Pitié-Salpêtrière et investigateur de l’étude.

« Avec le profil d’efficacité et de tolérance de Graspa®, nous comptons élargir ses indications, en particulier dans les tumeurs solides. L’ensemble des marchés potentiels de Graspa® pourrait ainsi atteindre à terme plusieurs centaines de millions d’euros », conclut  Pierre-Olivier Goineau, Co-fondateur, Président du Directoire.

Graspa® a obtenu la désignation de médicament orphelin de l’EMEA, l’Agence européenne du médicament, dans le traitement du cancer du pancréas. Il avait déjà obtenu cette désignation en Europe et aux Etats-Unis dans le traitement de la leucémie aigüe lymphoblastique. Grâce à sa technologie d’encapsulation, ERYTECH Pharma offre de nouvelles possibilités de traitement en cancérologie, où l’augmentation de l’efficacité et la réduction de la toxicité des médicaments sont des éléments clefs pour améliorer l’espérance et la qualité de vie des patients.

Graspa® est une nouvelle formulation de l'enzyme L-asparaginase ayant un éventail d'utilisations cliniques plus large et plus sûr que les formes existantes grâce à l'encapsulation et à la protection des enzymes à l'intérieur d'érythrocytes homologues. L'intérêt de Graspa ® (en encapsulant la L-asparaginase dans des érythrocytes) réside dans sa capacité à éviter tous les inconvénients associés aux traitements conventionnels avec l'enzyme asparaginase grâce à une efficacité prolongée, une meilleure observance du traitement, un dosage réduit et un meilleur profil de tolérance.

Erytech

Une lumière pour activer les gènes
Samedi, 09/07/2011 - 01:00

Cette nouvelle méthode consiste à adapter la machinerie moléculaire qui permet à l'œil d'être sensible à la lumière sur un système d'expression génétique de la cellule. Elle pourrait servir à produire des quantités précises de protéines utilisées sous forme de médicament ou pour contrôler les dosages de l'activité de gènes ou de thérapies cellulaires.

La mélanopsine est un photopigment présent à la surface de certaines cellules de la rétine qui y déclenche une entrée d'ion calcium en réponse à la lumière bleue. Ces ions entraînent à leur tour une cascade de signalisation qui active un facteur de transcription appelé NFAT. En couplant ces deux processus, une équipe franco-suisse a introduit le gène de la mélanopsine dans des cellules en culture avec un autre gène cible, inséré de manière à pouvoir être activé par NFAT. Dans ces cellules, la lumière bleue activait la mélanopsine, ce qui déclenchait l'expression du gène cible.

En utilisant cette méthode, les auteurs ont réussi à faire produire aux cellules en culture la quantité exacte de protéine désirée, en l'occurrence la glycoprotéine SEAP. Les chercheurs ont aussi fait des expériences en implantant dans des souris de minuscules paquets de cellules conçues pour exprimer soit SEAP soit une autre protéine appelée shGLP1 qui permet de contrôler la glycémie. Les cellules exprimant SEAP ont été injectées dans l'abdomen de souris avec une fibre optique donnant une lumière bleue tandis que les cellules exprimant shGLP-1 insérées sous la peau étaient éclairées par une lumière bleue proche. Les chercheurs annoncent que l'éclairage répété des souris avec la lumière bleue pendant 48h a fait augmenter les taux d'expression des deux gènes.

Sciences et Avenir

Un nouvel endoscope se mouvant librement dans le tube digestif
Vendredi, 08/07/2011 - 06:30

Un nouveau type d'endoscope a été présenté par une équipe de chercheurs de Ryukoku University et Medical College, deux établissements d'Osaka, lors d'une conférence internationale portant sur les maladies digestives. Appareil d'un nouveau genre, c'est le premier à être capable de se mouvoir librement au sein du tube digestif et d'en présenter les images. De précédents modèles d'endoscopes ont déjà été développés dans les années 1980 mais après ingestion, 10 heures d'attente étaient nécessaires avant de pouvoir observer le côlon. En outre, ils devenaient très rapidement tributaires des mouvements ondulatoires des intestins, ce qui rendait une observation précise de certaines zones à risque quasi impossible.

Baptisé Maameedo (Sirène), l'appareil télécommandé présente une forme de capsule. D'abord testé dans l'estomac de chiens en 2009, il a ensuite été peu à peu miniaturisé pour atteindre aujourd'hui 2,5 cm de long et 1,2 centimètre de diamètre. L'aimant contenu dans sa fine nageoire caudale en résine est mis en mouvement par l'alternance d'un champ magnétique ce qui octroie à la capsule une forte autopropulsion. Cet aimant puissant permet à Sirène d'explorer l'estomac de patients allongés après déglutition ou bien de parcourir l'intégralité du côlon après insertion anale. Sa vitesse s'élève à 12 centimètres par seconde et sa batterie lui assure une autonomie de 8 à 10 heures. Compte tenu des différentes forces exercées pendant la digestion et les mouvements continus des intestins, deux types de nageoires aux longueurs différentes sont disponibles : de deux centimètres pour un examen de l'estomac jusqu'à quatre centimètres pour un examen du côlon. D'après les chercheurs, Sirène aurait également la capacité de se mouvoir dans l'intestin grêle ce qui restait, jusqu'à aujourd'hui, très complexe.

Bulletins Electroniques

Calixar rêve de lancer un vaccin universel contre la grippe
Vendredi, 08/07/2011 - 06:20

Jamais la recherche médicale n'a été aussi peu performante dans le monde. Les budgets de recherche ont doublé au cours des dix dernières années, tandis que le nombre de nouvelles molécules trouvées a été divisé... par deux ! L'un des freins recensés jusqu'à présent est la difficulté à travailler sur les protéines membranaires qui entourent les cellules et qui constituent la cible de 60 % des médicaments.

Ces médicaments ne se révèlent pas toujours performants car lors des phases de tests, ces protéines sont altérées, réduisant le développement desdits médicaments ou d'anticorps, atténuant plus ou moins fortement l'effet thérapeutique recherché.

Or, à l'issue de recherches menées depuis 2007 par quatre équipes, l'Institut de Biologie et de Chimie des Protéines (IPCB) basé à Lyon-Gerland (150 personnes) a mis au point un procédé qui permet de produire ces protéines membranaires sans aucune altération, ouvrant de ce fait, d'importantes perspectives.

Elles constituent un tiers des protéines humaines et 60 % des cibles thérapeutiques - notamment dans le cancer, Alzheimer, le diabète - et pourtant les protéines membranaires sont très mal connues. « On en connaît 0,3 % et on estime qu’il faudrait cent cinquante ans pour les connaître toutes », explique Pierre Falson, directeur de recherche au CNRS, à l’Institut de biologie et chimie des protéines (IBCP) de Gerland.

Le problème vient du fait que les techniques d’extraction et d’isolement de ces protéines sont mal maîtrisées : elles altèrent leur structure et du coup, « souvent cela donne des anticorps et des vaccins peu efficaces », explique Pierre Falson. Mais le chercheur a mis au point une nouvelle technique d’extraction qui préserve, elle, la structure de ces protéines et améliore donc leur qualité, permettant alors de produire des anticorps, des vaccins et des médicaments plus fiables et plus efficaces. C’est en tout cas l’espoir de Pierre Falson et d’Emmanuel Dejean qui ont fondé la société Calixar pour développer les deux brevets du chercheur lyonnais.

Créée en janvier avec le soutien du secteur « valorisation » du CNRS et via l’incubateur CREALYS, Calixar propose aux laboratoires pharmaceutiques, aux biotechs et aux équipes de recherche académique des services d’extraction, de solubilisation et de purification de protéines membranaires. Lauréate de plusieurs prix, la société Calixar a pour objectif « de tester sa technologie sur toutes les grandes catégories de protéines membranaires pour couvrir tous les domaines thérapeutiques. Au sein de l’IBCP où ils seront hébergés pour quatre ans au maximum, les quatre salariés de la société travaillent notamment sur le vaccin de la grippe avec l’ambition de produire un vaccin « haute performance » qui n’aurait plus besoin d’adjuvant - source potentielle d’effets secondaires - pour être très efficace.

« On devrait savoir d’ici six à huit mois si l’antigène produit est de meilleure qualité qu’actuellement », indique Emmanuel Dejean. A moyen terme, l’entreprise lyonnaise a aussi l’espoir de mettre au point un vaccin « universel » qui serait pérenne et permettrait d’éviter le renouvellement annuel de l’injection. Son but est aussi « d’être rentable rapidement, fin 2012 », remarque Emmanuel Dejean qui possède 51 % de la société. Le chiffre d’affaires devrait être de 100 000 euros en 2011 et de 700 000 euros dans trois ans.

CNRS

Contrôler la différenciation des cellules-souches grâce aux champs magnétiques !
Vendredi, 08/07/2011 - 06:10

De nombreuses thérapies contre les maladies dégénératives ont recours aux cellules souches. Toutefois, être capable de fabriquer des cellules souches et de les différencier par la suite en un type cellulaire désiré (tel que des cellules des muscles, de la peau, des vaisseaux sanguins ou des os) est soumis à des contraintes qui limitent le potentiel de ces biotechnologies.

Lors de l'événement annuel "International Society for Stem Cell Research" qui se déroulait le 16 Juin 2011 à Toronto, Todd McDevitt, directeur du Centre d'Ingénierie sur les Cellules Souches à l'Institut de Technologie de Géorgie à Atlanta a présenté ses nouvelles recherches concernant les cellules souches. Les résultats obtenus par son équipe montrent que le contrôle de l'environnement au cours du développement de cellules souches permet d'orienter efficacement le processus de différenciation. Dans le futur, ces résultats pourraient être utilisés pour développer des procédés de fabrication pour la production de grandes quantités de cellules souches à des fins diagnostiques ou thérapeutiques.

Alors que les recherches menées par T. McDevitt visent le contrôle de l'environnement des cellules souches pour opérer leur différenciation, d'autres études, présentées dans la revue "Mechanical Control of Stem Cell Differenciation" rédigée par D. Cohen et C. Chen de l'université de Pennsylvanie à Philadelphie se basent sur les signaux mécaniques qui influent la différenciation des cellules souches. En effet, les forces mécaniques appliquées aux cellules sont traduites en signaux biochimiques qui régulent les cascades de signalisation. Ainsi, les forces mécaniques ont un rôle déterminant sur l'activité et l'expression des facteurs de transcription. Ces forces mécaniques appliquées aux cellules orientent ainsi la différenciation des cellules souches, tout comme la composition complexe des microenvironnements cellulaires.

De nombreuses méthodes de laboratoire permettent la croissance des cellules souches en agrégats appelés "corps embryoïdes", formation qui a lieu lors de l'étape de différenciation. T. McDevitt et son équipe ont incorporé des microparticules composées de biomatériau (soit de gélatine : le poly (lactique-co-acide glycolique) ou d'agarose) dans ces corps embryoïdes au cours de leur formation. Ceci a permis d'étudier l'assemblage, les voies de communication intercellulaires et la morphogenèse des agrégats des cellules souches.

En incluant ces microparticules en biomatériau qui sont également magnétiques dans les corps embryoïdes, les chercheurs ont découvert qu'en produisant un champ magnétique, l'emplacement des agrégats et leur assemblage avec d'autres agrégats étaient contrôlables. Les microparticules magnétiques piégées dans les agrégats n'ont pas déstabilisé la viabilité ou la différenciation cellulaire, ce qui est très positif pour l'application future de cette méthode lors de prochains essais sur animaux .

T. McDevitt explique qu' "avec ces microparticules magnétiques constituées de biomatériau, nous sommes capables de recréer des types de motifs géométriques complexes observés au tout premier stade du développement et qui généralement nécessitent des signaux multiples. Nous pouvons contrôler leur position dans l'espace au fil du temps".

D'autres expériences réalisées par T. McDevitt et son équipe ont démontré que la variation des conditions hydrodynamiques peut aussi dicter la morphologie des agrégats de cellules. T. McDevitt explique que "les cellules souches n'évoluent pas au hasard, leurs décisions sont spatialement et temporellement dirigées par des signaux environnementaux de nature biochimique ou mécanique".

Lors d'une entrevue avec T. McDevitt , il nous a confié que l'application des techniques utilisant les cellules souches à des fins de diagnostic ou de traitement pour certaines maladies dégénératives dépendait de la reproductibilité des techniques exposées plus haut. Son laboratoire développe des systèmes d'ingénierie pour la production des cellules souches qui exigent le développement de nouveaux outils biotechnologiques, capables d'être directement intégrés dans les procédés de production. A l'avenir, ces outils combineront différents niveaux de contrôle pour réguler la différenciation des cellules souches et faciliteront l'utilisation des cellules souches lors d'essais non-cliniques et cliniques.

Bulletins Electroniques

Cancer de la prostate : un traitement prometteur
Vendredi, 08/07/2011 - 06:00

Angers, la photothérapie est expérimentée pour traiter ces tumeurs sans chirurgie.

Le bloc opératoire ultramoderne est plongé dans la pénombre. Le Professeur Abdel-Rahmène Azzouzi, le chirurgien, a fait réduire l'intensité lumineuse pour la phase finale de l'intervention. Pendant plus d'une heure, l'urologue angevin a préparé son patient en positionnant une à une 14 fibres optiques dans sa prostate, sous contrôle échographique. L'homme, âgé de soixante ans, est atteint d'un cancer très localisé de cette glande. Et il bénéficie d'une toute nouvelle technique de traitement, la photothérapie dynamique. Destinée uniquement aux tumeurs peu évoluées de la prostate, cette stratégie qui se pratique sous anesthésie générale est en cours d'évaluation au CHU d'Angers et dans quelques dizaines d'autres centres dans le monde.

Couché sur le dos, les jambes en l'air, le patient toujours inconscient vient d'être chaussé de lunettes teintées et recouvert d'une couverture de survie. Tout est maintenant prêt pour l'étape cruciale de la thérapie, qui nécessite de le protéger des rayons lumineux environnants. Dans quelques instants, l'anesthésiste va lui injecter dans les veines un produit photosensibilisant, autrement dit qui rend son organisme sensible à la lumière. Les fibres optiques implantées dans un lobe de sa prostate seront ensuite activées par un rayon laser d'une longueur d'ondes très précise. La combinaison photosensibilisant-laser génère des molécules instables dérivées de l'oxygène, qui vont thromboser les vaisseaux au niveau de la zone tumorale. L'objectif de ce traitement ciblé est d'asphyxier le cancer, sans enlever la prostate. Le risque de séquelles sexuelles ou urinaires, fréquent lors des prostatectomies ou après radiothérapie, est ainsi réduit.

160 patients déjà opérés

Comme toute la procédure, la dernière phase se déroule avec une précision extrême. Le produit, appelé Tookad (R) Soluble, est administré en dix minutes, avec un débit calculé automatiquement par un système de seringue électrique. Quant à l'illumination laser, elle est programmée pour durer vingt-deux minutes et quinze secondes. Pour l'observateur, rien de spectaculaire. Le précieux photosensibilisant, un liquide rouge et visqueux, reste invisible. La seringue et la tubulure ont été soigneusement emmaillotées dans du papier aluminium. L'activation des fibres optiques n'est pas non plus perceptible sous le champ opératoire.Une demi-heure plus tard, l'opération est terminée. Elle a duré au total à peine deux heures. Le patient va rester quelques heures en salle de réveil, toujours dans la pénombre, puis regagnera sa chambre, en gardant les lunettes protectrices jusqu'au coucher du soleil. La sortie de l'hôpital est prévue le lendemain, avec reprise rapide des activités quotidiennes.

Pour le Professeur Azzouzi, c'est déjà presque de la routine. Sur les quelque 160 patients ainsi opérés dans le monde, presque 70 sont passés entre ses mains, dont une soixantaine à Angers. Mais le cadre est très strict. Le malade opéré ce matin-là participe à une étude dite de phase III, qui a démarré en juin en Europe dans 45 centres. Treize d'entre eux se situent en France, coordonnés par le Professeur Azzouzi qui assure la formation de ses confrères d'autres CHU. Au total, 400 patients atteints d'une forme localisée de cancer de la prostate seront inclus, la moitié sera traitée par photothérapie dynamique, l'autre moitié aura un protocole de surveillance active, avec dosages réguliers de l'antigène prostatique (PSA) et biopsies. Si les résultats, jugés à deux ans, sont positifs, le photosensibilisant pourrait être commercialisé dans les prochaines années, permettant une diffusion de la technique dans les hôpitaux. Lors de l'essai précédent, portant sur 155 cas, 83 % avaient des biopsies négatives avec six mois de recul, et la grande majorité d'entre eux (80 %) avaient conservé une fonction érectile. La proportion est de 50 % après chirurgie ou radiothérapie.

Potentiel médico-économique

Cette aventure de la photothérapie dynamique a commencé il y a une dizaine d'années à l'Institut Weisman en Israël, où des chercheurs ont mis au point le Tookad à partir d'une algue. Rapidement, la combinaison photosensibilisant/laser a commencé à être testée dans plusieurs cancers, prostate mais aussi poumon ou vésicule biliaire. Le Professeur Azzouzi l'a lui découverte en Angleterre, chez le Professeur Emberton, pionnier en Europe pour la prostate. «J'ai tout de suite perçu le potentiel de la photothérapie dynamique, sur le plan technique mais aussi médico-économique, raconte ce jeune chef de service. C'est une technique simple et reproductible si besoin chez le patient. La sortie de l'hôpital est possible dès le lendemain.»

Aujourd'hui, selon lui, développer des traitements moins agressifs des cancers de la prostate est une priorité. Avec l'augmentation constante du dépistage par PSA (qui fait toujours débat), de plus en plus de ces tumeurs sont découvertes à un stade précoce. «Dans les années 1990, les cancers dits à bas risque représentaient 25 % des tumeurs de la prostate, aujourd'hui, c'est la moitié, et la proportion va encore augmenter dans les années à venir, souligne le chirurgien. Actuellement, il y a encore trop de prostatectomies radicales. Les techniques ciblées ne sont pas une stratégie d'éradication, mais de cohabitation.»

Le Figaro

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La voiture électrique moins polluante sur son cycle de vie
Lundi, 11/07/2011 - 01:00

Une étude anglaise démontre que si la voiture électrique est plus polluante lors de sa production, elle reste plus écologique qu’un véhicule  thermique durant son cycle de vie. Le LowCVP (Low Carbon Vehicle Partnership) a réalisé une étude sur la pollution des voitures électriques et thermiques sur la totalité du cycle de vie des véhicules. Il s’agit d’une organisation sectorielle anglaise mise en place en 2003 pour étudier l’évolution du secteur automobile vers les voitures propres et accompagner les industriels.

Selon l’étude, c’est la voiture électrique qui nécessite le plus d’émissions de CO2 pour sa production : 8,8 tonnes de CO2, contre 6,5 pour une voiture hybride et 5,6 pour un véhicule essence. En revanche, les voitures électriques et hybrides se montrent bien plus respectueuses de l’environnement que le véhicule thermique durant leur utilisation. Au final, la voiture électrique se montre moins polluante que la voiture thermique sur son cycle de vie, la palme revenant à la voiture hybride rechargeable. Notons également que les émissions de CO2 sont plus faciles à capter et traiter pour la voiture électrique que pour la voiture thermique : elles sont centralisées dans les usines de production et sur les sites de production d’électricité. Notons également que l’étude britannique est basée sur le mix énergétique du Royaume-Unis. Les résultats seraient encore plus avantageux pour la voiture électrique si l’on se basait sur la production d’électricité française, moins émettrice de CO2.

LowCP

Le premier avion hybride
Dimanche, 10/07/2011 - 01:00

La motorisation hybride, disponible déjà sur des voitures, des camions, des trains et des bateaux, monte dans le ciel. En effet, EADS, Diamond Aircraft et Siemens ont construit le premier avion de série du monde équipé d’un moteur thermique et d'un moteur électrique. Ce moto-planeur de deux places a été exposé par les trois partenaires au Salon du Bourget 2011. L'aéronef vise à tester le concept de motorisation hybride. Cette technologie, destinée aussi à une utilisation à grande échelle sur les futurs avions, permet de réduire la consommation de carburant et les émissions de CO² de 25 %, par rapport aux avions d'aujourd'hui les plus performants.

Ce moto-planeur est le premier à utiliser un entraînement hybride électrique et une chaîne cinématique intégrée. Son hélice est entrainée par un moteur électrique de 70 kW de Siemens. L'électricité est fournie par un petit moteur Wankel d’Austro Engine lié à un générateur électrique qui fonctionne uniquement comme source d'alimentation électrique. Un convertisseur d’énergie de Siemens alimente le moteur électrique et la batterie à partir du générateur. La consommation de carburant est très faible puisque le moteur à combustion fonctionne toujours avec un débit constant faible de 30 kW. Un système de batterie d'EADS fournit la puissance nécessaire au décollage et à la montée. L'accumulateur se recharge pendant la phase de croisière. L'avion peut voler sur de longues distances. Pendant les vols d'essai, il a volé pendant environ deux heures.

La prochaine étape de développement sera d’optimiser la chaîne de transmission. Siemens travaille actuellement sur un nouveau moteur électrique qui devrait être cinq fois plus léger que les moteurs conventionnels. D'ici deux ans, un autre avion devrait être équipé d'un entrainement électrique ultra-léger.

Industrie&Technologies

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top