|
|
|
|
|
NUMERO 669 |
|
|
|
|
|
|
|
Edition du 28 Septembre 2012
|
|
|
|
|
Edito
Comment repenser les déplacements urbains pour réduire la pollution
En mai 2011, la Commission européenne avait assigné la France devant la Cour de justice de l'Union européenne pour non-respect des valeurs limites relatives aux particules fines (PM10) dans 16 zones ou agglomérations. Le dernier rapport de l'Institut de veille sanitaire confirme que la pollution de l'air dans notre pays atteint un niveau préoccupant. Selon cette étude fort documentée, la réduction de la pollution de l'air dans neuf villes de France permettrait une augmentation sensible de l'espérance de vie en évitant près de 3.000 décès annuels (Voir le rapport complet et Communiqué de Presse InVS).
Ce rapport montre que toutes les villes françaises étudiées présentent des valeurs de particules et d’ozone supérieures aux valeurs guides recommandées par l’Organisation Mondiale de la Santé (OMS). Ainsi, pendant la période 2004-2006, le niveau moyen de particules fines (PM 2,5) variait de 14 à 20 µg/m3 selon la ville, dépassant largement la valeur-limite 10 µg/m3 fixée par l'OMS. Quant aux émissions d'ozone, elles ont dépassé la valeur-limite (100 µg/m3 sur 8 heurs) plus de 300 fois au cours des trois années sur lesquelles s'est déroulée cette vaste étude.
Ces neuf villes (Bordeaux, Le Havre, Lille, Lyon, Marseille, Paris, Rouen, Strasbourg et Toulouse), comptent 12 millions d'habitants et présentent des niveaux de particules et d'ozone supérieurs aux valeurs guides recommandées par l'Organisation mondiale de la santé (OMS), selon l'InVS. Ces résultats sont d'autant plus intéressants qu'ils révèlent la présence d'une "surpollution" chronique aux particules fines, même en l'absence de pics de pollution.
L'étude montre que si les concentrations moyennes annuelles de particules fines (PM2,5) respectaient les normes fixées par l'OMS (10 µg/m3), l'espérance de vie des personnes exposées à cette pollution pourrait gagner de 3,6 à 7,5 mois selon l'agglomération, ce qui représente 3.000 décès par an en moins et 5 milliards d'euros d'économie par an pour la collectivité nationale.
Si l'on extrapole ces résultats au niveau de l'ensemble du territoire, on peut estimer que la pollution atmosphérique entraîne la mort de 16.500 personnes par an en France, ce qui est considérable (quatre fois plus que les décès par accidents de la route).
Cette étude s'inscrit dans le cadre du projet de recherche européen Aphekom (Aphekom) qui vise à mieux évaluer les conséquences humaines, économiques et sociales de la pollution atmosphérique. Ce projet scientifique très ambitieux porte sur 25 métropoles européennes regroupant 40 millions d'habitants. Il a déjà pu montrer que le dépassement fréquent du seuil de 10 microgrammes de particules fines par m3 d'air fixé par l'OMS Europe était à l'origine de près de 20 000 décès par an en Europe et représentait un coût économique global de plus de 30 milliards d'euros.
A la suite des résultats alarmants de l'étude Aphekom, les états membres de l'UE et la Commission ont décidé de réviser en 2013 la directive européenne sur la qualité de l’air mais, face à l'ampleur du problème de la pollution de l'air liée aux transports, la nécessaire évolution des cadres législatifs et réglementaires ne suffira pas et c'est toute notre conception de l'urbanisme et des déplacements que nous allons devoir remettre en cause.
L'étude Aphekom a été confirmée le 24 septembre par le dernier rapport de l'Agence européenne pour l'environnement (AEE) concernant la qualité de l'air en Europe. Ce rapport souligne que 30 % des Européens habitant en zones urbaines sont soumis à des niveaux trop élevés de particules fines dans l'air. Ce rapport précise en outre que, si l'on prend comme référence les normes-limites fixées par l'OMS, normes plus sévères que celles appliquées dans l'Union européenne, ce sont plus de 8 citadins sur 10 qui sont exposés à un niveau de pollution de l'air dangereux pour la santé.
Longtemps considérée comme une conséquence inévitable du progrès de nos sociétés en matière de transports et occultée par la pollution industrielle, la pollution de l'air liée à l'accroissement considérable de notre parc de véhicules (plus de 38 millions de véhicules au total en France, soit 1,5 véhicule par ménage) est à présent devenue en enjeu majeur de santé publique. En 1995, une étude britannique retentissante (JECH) avait déjà montré qu'il existait un lien direct entre le fait d'habiter à proximité d'une voie de grande circulation routière et le risque de cancer, notamment chez les enfants.
Cette remarquable étude dirigée par le Professeur George Knox (Université de Birmingham) avait en effet montré, en travaillant sur une population de 22 500 enfants décédés de leucémie ou de cancer entre 1953 et 1980 en Grande-Bretagne, que ces cancers de l'enfant étaient fortement liés au niveau de pollution de l'air par les gaz d'échappement des moteurs de véhicules thermiques à essence ou diesel. L'étude montrait notamment de manière saisissante que le simple fait d'avoir son domicile à moins de 500 mètres d'une grande voie de circulation ou d'une gare routière multipliait par 12 le risque pour un enfant de décéder d'un cancer.
En France, ce problème de la pollution de l'air par les transports est encore aggravé par le niveau de diésélisation unique en Europe de notre parc de véhicules : plus de 77 %. On peut s'interroger sur les causes d'une telle situation et sur l'imprévoyance et l'irresponsabilité des pouvoirs publics et des constructeurs qui ont toujours privilégié les véhicules diesel depuis des décennies alors que l'on sait depuis une bonne vingtaine d'années que les moteurs diesel sont de gros émetteurs de particules fines très nocives pour la santé (elles sont officiellement reconnues depuis juin 2012 comme cancérogènes par le Centre International de Recherche sur le Cancer de Lyon).
Pour s'attaquer plus vigoureusement à cette question de la pollution par les transports, notamment en milieu urbain, le Grenelle de l'Environnement avait lancé l'initiative des ZAPA (Zones d'Actions Prioritaires pour l'Air), permettant notamment aux collectivités qui le souhaitaient de limiter l'accès des centres-villes aux véhicules les plus polluants.
Sept communautés d'agglomération, dont Lyon, s'étaient portées candidates mais le gouvernement vient d'annoncer que ces ZAPA étaient abandonnées parce qu'elles s'avéraient en fait inapplicables sur le terrain. Il est vrai que ces ZAPA, qui partaient d'une intention louable, se sont heurtées à la dure réalité économique et sociale : dans notre pays, trois véhicules sur quatre sont des diesels et près de la moitié des voitures les plus anciennes et donc les plus polluantes appartiennent à des foyers modestes qui sont ceux utilisant le plus la voiture pour rejoindre le centre-ville.
Est-ce à dire qu'il n'y pas de solution pour diminuer de manière sensible et rapide la pollution atmosphérique provoquée par nos voitures et nos camions ? Certainement pas mais à condition de considérer ce problème dans toutes ses dimensions, de ne pas se laisser enfermer dans une vision idéologique du problème et de s'inspirer des expérimentations et mesures prises à l'étranger.
Avant d'attendre un renouvellement complet de notre parc automobile et l'arrivée massive de véhicules propres ou très peu polluants, ce qui risque de prendre une bonne dizaine d'années, il est possible de prendre des mesures volontaristes qui visent à limiter et à réglementer de façon intelligente et souple la circulation automobile dans nos villes. Sans faire le tour complet de toutes les expériences lancées dans le monde dans ce domaine, on peut évoquer trois exemples, par ailleurs très différents, de "péage urbain" qui, sans être des panacées au problème de la pollution urbaine, ont permis des avancées certaines dans la bonne direction.
Le premier exemple est celui de Londres qui a instauré depuis 2003 un péage urbain. Très contesté lors de sa mise en service, il est aujourd'hui largement admis par les usagers et a permis une baisse notable de la circulation de l'ordre de 30 % pour les voitures particulières et de 10 % pour les camions. Parallèlement, les transports collectifs londoniens ont été améliorés et sont plus ponctuels, grâce à une meilleure fluidité du trafic.
Mais pour les autorités du Grand Londres, ce péage n'est pas une fin en soi. Il n'est que la première étape d'un vaste plan qui vise à réduire de manière drastique et conjointe trafic automobile et pollution de l'air. Il s'agit, d'une part, de réduire la quantité de véhicules particuliers en circulation grâce à la dissuasion du péage et à une offre de transports en commun renforcée et attractive et, d'autre part, de mener une politique très volontaire pour que les véhicules devant circuler en ville polluent le moins possible.
A l'occasion des Jeux Olympiques, la municipalité de Londres a ainsi dévoilé un plan ambitieux de développement de l’hydrogène. Organisé par le consortium HyTEC (Hydrogen Transport for European Cities) et conjointement avec la ville de Copenhague, le projet prévoit dans un premier temps l’installation de plusieurs stations de distribution d’hydrogène. Une nouvelle station publique a été ouverte fin 2011 et propose de l’hydrogène à 350 et 700 bars, ce qui convient à l'approvisionnement de la plupart des véhicules (Voir HyTEC).
L'objectif final du projet HyTEC consiste à mailler Londres d'un ensemble de stations de recharge à l'hydrogène d'ici 2018. Parallèlement, la municipalité de Londres va mettre en service 7.500 stations de recharge électrique d’ici 2013 et va accélérer la transition vers des bus hybrides peu polluants. Avec ce plan global volontariste associant péage urbain et développement des transports propres, les autorités londoniennes espèrent diminuer d'encore 20 % l'ensemble du trafic routier d'ici 2020.
Deuxième exemple, celui de Stockholm qui a mis définitivement en place un péage urbain en 2008, après une expérimentation de 7 mois (de janvier à juillet 2008). Il s’agit d’un péage limitant l'accès au centre-ville (35 km2) entre 6h40 et 18h30, du lundi au vendredi, à l'exception des jours fériés. Les premières évaluations des effets de ce péage montrent qu'il a atteint les objectifs visés par la municipalité de Stockholm et notamment le premier d'entre eux : la diminution sensible de la circulation automobile et de la pollution de l'air dans le centre-ville.
Ce n'est d'ailleurs pas un hasard si la capitale suédoise est la seule des neuf grandes métropoles européennes de l'étude Aphekom qui respecte les normes d'émissions de particules fines de l'OMS. Autre enseignement du péage urbain de la capitale suédoise : la réduction du trafic routier, telle une onde, a des effets positifs qui se manifestent bien au-delà du centre-ville et n'a pas produit en revanche d’effets contreproductifs en augmentant la circulation sur les périphériques extérieurs, comme le craignaient les opposants. Il est vrai que, comme à Londres, ce péage urbain s'est accompagné d'une amélioration réelle de l’offre de transports en commun.
Troisième exemple : depuis le début de l'année, Milan a également ouvert son péage urbain, baptisé "Area C". Celui-ci remplace l'ancien système mis en place en 2008 mais qui ne concernait que les véhicules les plus polluants. Le bilan est déjà très encourageant puisque ce péage urbain élargi a permis de réduire d'un tiers le trafic, la pollution et le nombre d’accidents dans le centre ville. Ce péage oblige tous les usagers, à l'exception de ceux possédant un véhicule hybride ou électrique, à payer 5 euros pour entrer dans le centre de Milan, du lundi au vendredi de 07H30 à 19H30.
Dans un proche avenir, grâce au progrès en électronique, en informatique et dans les capteurs, on peut imaginer des systèmes de péage urbain souples, modulables et intelligents. Avec ce type de péage, il serait par exemple possible de modifier en temps réel le prix à payer pour entrer dans le centre-ville, en fonction de plusieurs facteurs : heure de la journée, type de véhicule mais aussi nombre de passagers dans chaque voiture. Il faut en effet savoir qu'en ville, neuf voitures sur dix ne comptent qu'un passager, le conducteur, et passent en outre, 90 % de leur durée de vie en stationnement...
Un tel modèle de déplacement est tout simplement une aberration sur le plan de l'efficacité énergétique et de l'environnement et nous devons imaginer d'autres concepts de transports qui nous fassent passer d'une logique de "stockage" et de possession à une logique de flux et d'usage.
A cet égard, les expérimentations de mise à disposition de véhicules électriques en libre-service, comme Auto lib, sont intéressantes et doivent être généralisées, diversifiées et encouragées par les collectivités locales mais cela ne suffit pas. Il faut aussi actionner plus fortement le levier du covoiturage et de l'autopartage qui permet, dans des conditions économiques viables, une utilisation bien plus efficace et rationnelle du parc existant. Pourquoi ne pas réfléchir, par exemple, à des avantages fiscaux, tant au niveau local qu'à celui de l'Etat, qui seraient spécifiquement réservés aux personnes utilisant de manière fréquente ou exclusive ces nouveaux modes de déplacements ?
Mais il faut également revoir complètement la conception et le fonctionnement des flux logistiques liés aux indispensables livraisons de marchandises dans nos villes. Il n'est pas normal de voir nos centres-villes constamment encombrés d'une multitude de gros camions et de véhicules de livraisons polluants. Confrontés à l'augmentation du prix des carburants, plusieurs enseignes de distribution sont en train d'expérimenter, notamment dans les grandes villes traversées par des fleuves, de nouveaux modèles logistiques combinés, associant de manière souple et intelligente l'acheminement fluvial, dans des navettes fluviales de nouvelle génération à décharge rapide et la livraison chez le client final à l'aide d'une flotte de petits véhicules électriques.
A Amsterdam, il existe également, en plus de ce système logistique fleuve-véhicule propre, des types de tramway -Les cargo trams- spécialement conçus et dévolus aux transports de marchandises en centre-ville. Pourquoi ce qui est possible aux Pays-Bas ne le serait-il pas en France ?
Par ailleurs, la plupart des déplacements urbains s'effectuant sur des distances courtes ou moyennes, on peut également développer la mise à disposition en libre service de vélos électriques, à présent devenus très performants et pouvant associer hydrogène et propulsion électrique. Propre et particulièrement adapté à la ville, le vélo électrique permet en effet un déplacement qui nécessite peu d'effort physique et il peut être utilisé par les personnes âgées en nombre croissant dans nos villes.
Enfin, la régulation de la circulation et la dépollution massive et définitive de nos villes (dépollution chimique mais également sonore car le trafic automobile et deux roues génère des nuisances sonores graves elles aussi sources de nombreuses pathologies) passe bien entendu par la mise en oeuvre d'une nouvelle approche de l'urbanisme et par l'élaboration de plans "UTEC" (Urbanisme-Transports-Energie-Climat) qui visent à concevoir "à la source" des villes et quartiers structurés par des objectifs de sobriété, d'efficacité, de diversité et d'accessibilité, tant en matière d'énergie que de transports.
L'éradication de la pollution urbaine et l'amélioration conjointe de l'offre de déplacement qui doit tendre vers la personnalisation du service rendu et être accessible à chacun, quel que soit son lieu de résidence, son âge et sa situation sociale, sont les deux dimensions inséparables d'un même défi. Celui-ci pourra être relevé si nos élus locaux savent faire preuve de lucidité, d'audace et de courage politique et si nous sommes capables d'avoir une réflexion globale, à la fois prospective et pragmatique, sur cette question essentielle, et de bien articuler entre elles les problématiques technologiques, économiques et sociales.
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Le plus souvent, les traitements contre le cancer entraînent des effets secondaires que les patients ont du mal à supporter et ce phénomène limite la possibilité de combiner différents médicaments pour lutter plus efficacement contre la maladie.
Une société de biotechnologie américaine de la région de Boston, Cerulean Pharma, est persuadée que la solution à ce problème réside dans l'utilisation de nanoparticules comme vecteurs de transport des différents médicaments anti-cancéreux.
Acheminés vers la tumeur avec cette technique, les molécules ont en effet moins d'effets secondaires, ce qui permet de mettre en oeuvre des traitements plus agressifs associant plusieurs médicaments. Ces polythérapies présentent en outre l'avantage de limiter les risques d'apparition de résistance des cellules cancéreuses.
Ce phénomène d'adaptation et de résistance des cellules cancéreuses, qui peut apparaître rapidement, est à présent bien connu des médecins et le déjouer constitue l'un des grands défis de la cancérologie. Comme le souligne Oliver Fetzer, Président de Cerulean, de récentes études montrent que différentes cellules au sein de la même tumeur peuvent subir différentes mutations génétiques. De ce fait, un médicament peut tuer les cellules cancéreuses dans une partie d'une tumeur mais s'avérer inefficace sur d'autres cellules tumorales. Face à cette grande variabilité génétique de la tumeur, il est donc souvent indiqué de frapper les cellules cancéreuses avec plusieurs médicaments à la fois afin de prendre la tumeur de vitesse et l'empêcher de développer une résistance à la chimiothérapie employée.
Les nanoparticules développées par Cerulean sont trop grosses pour transiter dans les vaisseaux sanguins des tissus sains mais ils sont de la bonne taille pour pénétrer dans la tumeur. En outre, ces nanoparticules ne libèrent pas d'un seul coup les médicaments transportés, mais de manière très progressive, et il est même possible de régler à l'avance le temps de libération des médicaments car ce type de nanoparticule empacte le médicament par une liaison chimique qu'il suffit de rompre pour libérer la ou les molécules thérapeutiques.
Les premiers essais cliniques portant sur l'utilisation d'un médicament appelé camptothécine, trop toxique pour être administré par voie classique, montrent qu'il est bien toléré lorsqu'il est véhiculé vers la tumeur via ces nanoparticules.
Des essais cliniques sont en cours sur des patientes souffrant d'un cancer des ovaires et d'autres essais sont prévus fin 2012 sur des patients atteints de cancers du poumon. Cerulean prépare également des essais cliniques de phase I pour traiter des patients atteints d'un cancer du rein en associant son nano-vecteur et un anti-cancéreux récent, le bevacizumab.
Article rédigé par Mark FURNESS pour RTFlash
Technology Review
|
|
|
|
|
|
|
|
Il ya deux mois, un nouvel employé a fait sensation en arrivant sur la ligne de production des Plastiques Vanguard à Southington (Connecticut), une ville longtemps florissante sur le plan industriel mais qui a vu la plupart de ses usines fermer pour cause de délocalisation. Ce collaborateur d'un nouveau genre n'est autre qu'un robot étonnant fabriqué par la firme américaine Rethink Robotics et dénommé "Baxter". Haut de 1,50 mètre, c'est le premier robot humanoïde low-cost à destination des petites et moyennes entreprises.
Ce robot d'un nouveau genre est équipé de deux bras articulés, de pinces et d’une tablette tactile qui lui fait office de tête. Mais Baxter n'est pas destiné à remplacer les ouvriers de la chaîne de montage ; il est en effet conçu pour assister les ouvriers humains et les rendre plus efficaces et plus productifs dans leurs tâches.
Contrairement à la plupart de ses homologues robots industriels, Baxter se déplace lentement et, grâce à ses nombreux capteurs en tout genre, il ne présente pas de danger pour ses collègues humains. Mais la grande innovation réside dans le fait que Baxter n'est pas destiné à n'accomplir qu'une seule tâche répétitive. Il a en effet été conçu de manière à pouvoir être reprogrammé très facilement par les ouvriers qu'il assiste et il est capable de remplir avec une grande précision de nombreuses tâches se déroulant tout au long du processus de production.
Face à leurs concurrentes basées dans des pays à faible coût de main d’œuvre, les entreprises n’auraient ainsi pas besoin de s’installer en Chine ou en Thaïlande et sauvegarderaient des emplois aux États-Unis.
Pour le concepteur de ce robot, Rodney Brooks, chercheur réputé au MIT, les robots, s'ils sont utilisés avec intelligence, peuvent contribuer de manière décisive à éviter ou limiter les délocalisations de production dans des pays à moindre coût de fabrication. Mais pour cela, il faut que ces robots deviennent accessibles aux PME. C'est pourquoi Baxter qui sera commercialisé en octobre, ne coûtera que 19 000 euros et aura une durée de vie de 6 500 heures (soit un coût horaire de 3 euros de l’heure) alors que prix moyen d’un robot industriel se situe autour de 100 000 euros.
Outre ce prix d'achat très compétitif, Baxter devrait avoir un coût d'exploitation très faible et une productivité accrue car il suffit que ses collègues humains lui montrent les mouvements à accomplir pour qu’il soit capable, dans une certaine limite, de les reproduire.
Actuellement, il y aurait environ 1,2 million de robots en service dans l’industrie mondiale, selon la Fédération Internationale de la Robotique, et cet organisme table sur la création d'au moins un million d'emplois dans le monde d'ici 2016 grâce aux robots.
Selon Rodney Brooks, des robots comme Baxter pourraient permettre une relocalisation et une ré-industrialisation massives des Etats-Unis en augmentant considérablement la compétitivité des usines américaines. En outre, Rodney Brooks souligne que ce type de robot est conçu pour assister l'homme et pas pour le remplacer. "Il s'agit de rendre le travail des ouvriers plus riche et plus intéressant tout en améliorant la productivité globale" précise t-il.
Article rédigé par Mark FURNESS pour RTFlash
Technology Review
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Les atomes et les particules qui les composent ont un comportement régi par les lois déroutantes mais implacables de la mécanique quantique, formalisé entre 1900 et 1927 par les grands génies de la physique que furent Einstein, Bohr, Planck, Schrödinger, De Broglie et Heisenberg. Lorsqu'ils sont piégés à une très basse température, proche du zéro absolu (- 273°), ces atomes et particules deviennent très sensibles au désordre à cause de leurs propriétés ondulatoires.
Ils deviennent alors un condensat de Bose-Einstein, constitué de bosons ayant la plus basse énergie possible. Ce phénomène dit de "localisation d'Anderson" contraint les particules quantiques à rester dans des états localisés qui rendent en principe impossible la conduction d'un courant électrique.
Mais compte tenu de la présence du désordre dans la nature, il faut bien constater que ces particules quantiques parviennent par différents moyens à échapper à leur état localisé. C'est précisément sur ce phénomène que porte l'article de Tommaso Roscilde, de l'ENS-Lyon, qui montre comment un ensemble de bosons peut évoluer vers un état délocalisé.
Ces travaux de recherche ont permis de réaliser expérimentalement un "verre de Bose" dans un aimant quantique dans lequel les spins (moments magnétiques atomiques) reproduisent le comportement d'un fluide de bosons. Les chercheurs ont alors pu observer que cette transition vers le verre de Bose s'effectuait en plein accord avec le cadre théorique de la mécanique quantique.
Ces recherches sur les bosons (famille qui regroupe les différentes particules indiscernables de spin entier et qui s'oppose au fermions, l'autre famille qui regroupe les particules de demi-spin) permettent de mieux comprendre le phénomène de supraconductivité et elles auront à terme des applications dans de nombreux domaines, informatique quantique, médecine, transports, énergie notamment. En effet, la mécanique quantique n'est pas qu'une curiosité théorique et abstraite et, sans elle, nous n'aurions ni IRM ni disque dur ultra-dense. Il est donc très important d'explorer expérimentalement les différents aspects de cette théorie fascinante.
Article rédigé par Mark FURNESS pour RTFlash
Nature
Science Daily
|
|
|
|
|
|
|
|
Une équipe de recherche d'IBM est parvenue, pour la première fois, à distinguer le type de liaisons chimiques dans une molécule en utilisant un nouvel outil, le microscope à force atomique (AFM).
Les chercheurs ont réussi à filmer l'ordre de liaison et la longueur de liaisons de carbone à carbone dans le fullerène (ou C60, une molécule en forme de ballon de football) et dans deux hydrocarbures aromatiques polycycliques (HAP). C'est en 1985 qu'on a observé pour la première fois une molécule de fullerène (C60). Cette molécule qui a une structure identique à un ballon de football se compose de 12 pentagones et de 20 hexagones et chacun de ses sommets correspond à un atome de carbone.
Le responsable de ces recherches, Leo Gross, détaille cette découverte : «Nous avons découvert deux mécanismes de contraste différents pour distinguer les liaisons. Dans le premier, on observe des différences de force mesurée au niveau des liaisons. Le second mécanisme de contraste nous a surpris car les liaisons semblaient avoir différentes longueurs selon les mesures prises au microscope AFM. Mais nous avons ensuite découvert que la cause de ce contraste était la présence d'une molécule de monoxyde de carbone à la pointe du microscope.»
Les chercheurs d'IBM avaient déjà réussi à filmer la structure chimique d'une molécule mais les subtiles différences au niveau des liaisons n'avait pu être observées directement. Grâce à ce nouvel outil, les chercheurs ont pu démontrer que toutes les liaisons n'étaient pas égales. Les liaisons entre atomes de carbone dans ces molécules présentent en effet des différences légères de longueur et d'intensité. Les différentes propriétés chimiques, électroniques et optiques de ces molécules correspondent logiquement aux différences de liaison observées dans les systèmes polyaromatiques.
Cette avancée est très importante, non seulement sur la plan de la connaissance fondamentale de la matière mais également parce qu'elle va très concrètement permettre de concevoir et de réaliser de nouveaux dispositifs électroniques, à la fois plus petits et plus rapides. Il va notamment devenir possible d'étudier au niveau atomique l'effet des défauts dans le graphène sur les liaisons atomiques ainsi que les modifications de ces liaisons lors de réactions chimiques complexes. Cette percée jette un nouveau pont entre physique, chimie, optique et électronique. Elle devrait se traduire rapidement par la réalisation de cellules solaires organiques et d'écran LED plus performants et aura également de multiples retombées dans le domaine de la communication sans fil haut débit.
Article rédigé par Mark FURNESS pour RTFlash
IBM
Science
|
|
|
|
|
|
|
|
La société française de biotechnologies Deinove a annoncé être parvenue à produire du bioéthanol de deuxième génération via une bactérie, revendiquant une "première mondiale" qui simplifie le processus de fabrication habituel et permet d'en réduire le coût. Ses équipes de recherche et de développement "sont parvenues à isoler et à optimiser une souche de bactéries déinocoques capable de produire de l'éthanol à partir d'une biomasse végétale industrielle à base de blé", indique l'entreprise basée à Montpellier dans un communiqué. Une solution contenant plus de 3 % d'alcool - et donc 3 % d'éthanol pouvant être utilisé dans ou à la place de l'essence - a été obtenue, précise Deinove.
Pour parvenir à une application industrielle, il faudrait atteindre 8 %, a expliqué son directeur général, Jacques Biton. "Mais nous sommes partis de 0,0001 %", a-t-il souligné. Selon lui, le procédé - soutenu par le groupe français du sucre et de biocarburants Tereos et la banque publique Oseo - pourrait atteindre une production industrielle en 2014. Outre le fait qu'il n'utilise pas de matière végétale comestible, le procédé mis au point a aussi l'avantage de ne nécessiter qu'une étape, sans l'ajout habituel d'enzymes ou de levures, souligne l'entreprise. S'il valide son concept, Deinove pense pouvoir réduire de 20 à 30 % le coût de fabrication actuel des biocarburants.
Les biocarburants dits de deuxième génération, l'éthanol ou le biodiesel, utilisent des déchets ou des végétaux non comestibles par l'homme, par opposition à la première génération qui utilise des céréales, des plantes sucrières ou des oléagineux pour faire du carburant.
Alors que la production de bioéthanol est aujourd’hui limitée à la biomasse alimentaire et utilise des procédés anciens impliquant des étapes multiples et la fermentation à l’aide de levures, le procédé « tout en un » d’usine bactérienne fondée sur le déinocoque ouvre la voie à l’exploitation de la biomasse non-alimentaire (déchets de la filière agricole, biomasse végétale…) et à des procédés plus efficaces, plus propres et moins coûteux.
Cette percée technologique intervient alors que le ministre de l'Agriculture vient d'annoncer une "pause" de la France dans les biocarburants de première génération, accusés de contribuer à la flambée des cours des céréales.
Deinove
|
|
|
|
|
|
|
|
La société norvégienne Akershus Energi commencera courant septembre la construction de ce qui deviendra la plus grande centrale solaire thermique du pays. Akershus Energi est une entreprise de taille moyenne, productrice d'énergie hydroélectrique à hauteur d'environ 2,3 TWh chaque année.
La centrale, située à Lillestrøm, sera constituée de 915 modules solaires thermiques (représentant une surface de 12 810 mètres carrés). Ces capteurs thermiques, qui n'ont rien à voir avec les panneaux photovoltaïques, utilisent un absorbeur, placé derrière une vitre, dans lequel circule un fluide caloporteur. L'absorbeur est chauffé par le rayonnement solaire, phénomène amplifié par l'effet de serre créé par la vitre, et transmet cette chaleur au fluide. La centrale, d'une puissance de 7 MW, devrait générer plus de 4 GWh d'énergie thermique par an, qui seront utilisés dans le système de chauffage urbain.
"Cette centrale est unique en Norvège. En plus de participer à l'augmentation de la production d'énergie verte, elle devrait permettre d'améliorer nos connaissances en matière d'énergie solaire.", dit Ase Lekang Sørensen, de l'Association Norvégienne de l'Energie Solaire. En effet, la centrale ne servira pas qu'à produire de l'énergie. Akershus Energi a réservé une partie du terrain pour un champ solaire de test, offrant la possibilité de mener des activités de recherche et développement.
Akershus Energi a d'ores et déjà commencé la construction des bâtiments et des conduites de chauffage urbain. Les fondations de la centrale à proprement dite seront mises en places courant septembre, et les modules solaires devraient être installés en octobre. La société prévoit de produire de l'énergie dès cet hiver.
Bulletins Electroniques
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon un rapport intitulé "Le changement climatique a déjà un impact majeur sur l'économie mondiale et les sociétés humaines" publié le 26 septembre 2012, le changement climatique ralentit actuellement de 1,6 % la production économique mondiale et ce chiffre devrait doubler d'ici 2030. Cette étude très sérieuse a été réalisée par le DARA and Climate Vulnerable Forum, une organisation qui regroupe vingt pays depuis 2009.
Ce rapport parle "d'un péril sans précédent pour l'humanité et le développement économique mondial" et évoque "les pertes économiques majeures liées au changement climatique".
L'étude souligne qu'une mobilisation mondiale pour lutter contre les causes du changement climatique aurait des conséquences très positives sur le plan économique et social, tant pour les pays développés que pour les nations émergentes.
Elle rappelle en outre que l'ensemble de nos émissions de gaz à effet de serre provoquent directement et indirectement la mort de cinq millions de personnes dans le monde.
Selon cette étude, "L'insuffisance manifeste des actions contre le changement climatique coûte déjà 1,6 % du produit mondial brut, cest-à-dire de l'ensemble des richesses produites par l'humanité, soit près de 900 milliards d'euros par an".
Ce coût de l'inaction devrait doubler pour atteindre 3,2 % du produit mondial brut en 2030.
Les pays les plus pauvres seront les plus touchés par cet impact négatif du climat sur l'économie mais la note à payer sera également considérable pour les pays développés. "D'ici 2030, la Chine risque de subir des pertes économiques abyssales, de l'ordre de 1.200 milliards de dollars", selon ce rapport qui évalue par ailleurs la perte économique pour l'Inde à 5 % de son PIB en 2030 et celle des USA à 2 % de son PIB à la même échéance, soit environ 600 milliards de dollars par an.
La présidente du Forum, le Premier ministre du Bangladesh Sheikh Hasina, souligne à quel point ce bouleversement climatique est dramatique pour des pays comme le sien. "Quand la température moyenne augmente d'un seul degré, cela entraîne une perte de productivité de 10 % dans l'agriculture", soit quatre millions de tonnes de céréales et 2,5 milliards de dollars a-t-elle précisé.
Ce rapport rejoint les conclusions du rapport Stern qui avait évalué, en 2006, à 5 500 milliards d'euros l'impact économique sur les 10 prochaines années du réchauffement climatique et qui prévoyait pour sa part un coût d'au moins 5 % du produit mondial brut lié au réchauffement climatique, ce coût pouvant monter à 20 % si rien n'était fait pour infléchir sérieusement le rythme actuel de progression de nos émissions de gaz à effet de serre.
Article rédigé par Mark FURNESS pour RTFlash
DARA
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les cellules souches mésenchymateuses (CSM) font l'objet d'intenses recherches dans le monde car leurs propriétés remarquables, et notamment leur grande plasticité, qui leur permettent de se différencier en différents types de cellules, en font des outils thérapeutiques très prometteurs pour traiter les cancers.
Le myélome multiple (MM), encore appelé maladie de Kahler est un cancer du sang qui touche certains globules blancs, les lymphocytes b qui se mettent à fabriquer des celulles anormales en grande quantité (jusqu'à 30 % des cellules dans la moelle osseuse). Cette maladie grave provoque des lésions osseuses irréversibles, même en cas de rémission.
Des recherches menées sur des souris par l'Institut de recherche sur le myélome de l'Université d'Arkansas ont permis de mieux évaluer l'intérêt d’injections de cellules souches mésenchymateuses sur ces lésions osseuses ainsi que sur la progression de la maladie.
Les résultats sont très encourageants : les chercheurs ont en effet observé que ces injections de cellules souches mésenchymateuses dans les os atteints par un myélome, après un traitement à base de melphalan, empêchaient la progression des lésions osseuses, accéléraient la formation d'os et ralentissaient la progression du myélome.
Cette étude montre que les cellules souches mésenchymateuses injectées se comportent comme les cellules-cibles pour bloquer la maladie osseuse provoquée par le myélome ainsi que la croissance tumorale.
Article rédigé par Mark FURNESS pour RTFlash
JBMR
|
|
|
|
|
|
|
|
La Sclérose en Plaques est une maladie neurologique auto-immune à composante génétique, dont les causes sont multiples et restent mal connues. Elle touche environ 80 000 personnes en France et le nombre de malades augmente de 2000 personnes par an. Sept malades sur dix ont moins de 40 ans et il s'agit de la première cause de handicap grave hors accidents.
En matière de traitement contre la Sclérose en Plaques (SEP), ces derniers mois ont été marqués par l'arrivée d'un nouveau médicament développé par Novartis, le fingolimod (nom commercial : Gilénya) qui est le premier traitement efficace par voie orale contre cette grave affection neurologique. Cette nouvelle molécule originale est la première d'une nouvelle série de médicaments plus faciles à administrer, potentiellement plus efficaces et mieux tolérés que les interférons β.
Une étude de deux ans vient de montrer l'efficacité du fingolimod contre la sclérose en plaques. L'étude incluant 1272 patients a montré une réduction de 54 % du taux de poussées et une diminution de 30 % de la progression du handicap sur 24 mois.
La seconde étude, pour sa part, portait sur l'efficacité d'une autre molécule, le fumarate de diméthyle (BG-12). Le fumarate était à l'origine utilisé pour traiter le psoriasis et il possède des propriétés anti-inflammatoires et cytoprotectrices laissant espérer un effet sur les deux phases de la maladie.
Cette étude en double-aveugle avec placébo portant sur 1 400 patients a montré que le fumarate était aussi efficace que l’acétate de glatiramère, le traitement de référence. Toutefois, aucun effet n'a été observé sur la progression du handicap. L'étude montre que le BG-12, à raison de trois cachets par jour, semble réduire davantage le nombre annuel de poussées que l’acétate de glatiramère. Le fumarate va donc venir s'ajouter à l'arsenal de nouveaux médicaments disponibles contre la sclérose en plaques.
Article rédigé par Mark FURNESS pour RTFlash
NEJM
|
|
|
|
|
|
|
|
La recherche mondiale fait feu de tout bois contre le maladie d'Alzheimer, l'un des défis majeurs de la science et de la médecine et, parallèlement à la mise au point de nouveaux traitements, elle s'oriente également sur deux axes essentiels : la détection très précoce de cette redoutable pathologie et sa prévention par le mode de vie et l'alimentation.
Des chercheurs de l'Université Lancaster (Royaume-Uni), dirigés par le Docteur Trevor Crawford, viennent de montrer qu'il était possible d'envisager un test oculaire très simple et très fiable permettant de détecter précocement la maladie. Ces recherches ont pu montrer pour la première fois un lien très net entre le contrôle des mouvements oculaires et les premières atteintes de la mémoire qui caractérisent l'apparition de la maladie.
Comme le souligne le Docteur Crawford, "Le diagnostic de la maladie d'Alzheimer est lourd et difficile à établir rapidement et clairement avec les méthodes actuelles et les patients atteints de démence sont souvent rebutés par la complexité des tests."
C'est pourquoi son équipe a imaginé un nouveau type de test. Celui-ci a été expérimenté sur 18 patients atteints de la maladie d'Alzheimer, 25 patients atteints de la maladie de Parkinson, 17 personnes jeunes en bonne santé et 18 adultes plus âgés. Ces sujets devaient suivre les mouvements d'une lumière sur un écran d'ordinateur et à certains moments, on leur demandait de détourner leur regard du point lumineux.
L'étude a montré que les patients atteints de la maladie d'Alzheimer se trompaient fréquemment lorsqu'on leur demandait de détourner leur regard de la lumière et ne parvenaient pas à corriger leurs erreurs alors qu'ils se montraient tout à fait capables d'obéir parfaitement lorsqu'on leur demandait de suivre la lumière. Ces réactions incorrectes se sont avérées dix fois plus fréquentes chez les patients atteints de la maladie d'Alzheimer que dans les autres groupes-témoins.
Selon le Docteur Crawford, «Cette étude montre que l'incapacité pour certains sujets à corriger leurs erreurs résulte d'un dysfonctionnement de la mémoire spatiale caractéristique des atteintes cérébrales provoquées par l'Alzheimer. Dans ce contexte, ce test d'oculométrie pourrait devenir un outil majeur de diagnostic rapide et sûr de cette grave pathologie qui doit être repérée le plus tôt possible."
Mais la recherche s'orient également vers une meilleure prévention de cette maladie, notamment par l'alimentation. Travaillant sur une cohorte de 79 patients âgés en moyenne de 79 ans et atteints de la maladie d'Alzheimer et et sur 158 participants témoins, une équipe de l'Université d'Ulm, dirigée par Gabriele Nagel, épidémiologiste et Christine von Arnim, neurologue, a ainsi constaté que les malades atteints d'Alzheimer présentaient souvent des niveaux anormalement bas de certains nutriments et antioxydants (vitamine C et bêta-carotène).
Une autre équipe de l'Université de Floride a montré pour sa part que la consommation régulière de café semblait entraîner une diminution du risque de démence. Selon le Docteur huanhai Cao qui a dirigé cette étude, "Ces résultats montrent que les sujets qui commencent à présenter de légers troubles cognitifs et qui consomment en moyenne trois tasses par jour ont moins de risque de développer un Alzheimer ou développeront cette maladie plus tard."
Depuis 2006, Les docteurs Cao et Arendash de l'USF ont publié plusieurs études qui montrent que la caféine présente dans le café semble prévenir ou ralentir la maladie d'Alzheimer par un mécanisme encore mal compris. Ils soulignent qu'il est envisageable d'imaginer une "chimioprévention" par la caféine qui présente l'avantage d'être bon marché, d'agir rapidement sur le cerveau et d'avoir peu d'effets secondaires graves. Néanmoins, une telle prévention ne pourrait être efficace que si elle commence au moins 20 ans avant l'apparition des premiers symptômes de la maladie.
Ces chercheurs soulignent par ailleurs qu'une consommation modérée mais régulière de café semble également avoir des effets protecteurs contre d'autres maladies, comme la maladie de Parkinson, le diabète de type II et le cancer du sein.
Article rédigé par Mark FURNESS pour RTFlash
Université de Lancaster
Eurekalert
IOS
JAD
|
|
|
|
|
|
|
|
Pourquoi certaines personnes sont-elles naturellement altruistes ? Cette question passionne depuis des siècles philosophes et scientifiques et vient peut-être de trouver un début de réponse grâce à des recherches menées à l'université de Zurich en Suisse sous la direction d'Ernst Fehr.
Des études avaient déjà montré que le comportement altruiste n'était pas réductible aux seuls facteurs sociaux, culturels ou éducatifs sans toutefois parvenir à identifier les causes profondes de ce choix moral.
Il semble en effet, selon cette étude, que les sujets qui ont une conduite plus altruiste que d'autres possèdent plus de matière grise à la jonction des lobes pariétal et temporal. Il y aurait donc un lien de causalité entre l'anatomie du cerveau, son activité et le choix d'un comportement altruiste.
Dans leurs travaux, les chercheurs ont demandé à des volontaires de partager des sommes d'argent avec un partenaire anonyme. Les participants avaient toujours la possibilité de renoncer à une certaine part de cet argent au profit de l'autre personne. L'expérience partait du postulat que les sujets qui acceptaient de donner le plus d'argent à l'autre partenaire était les plus altruistes. Cette expérience a montré que certains participants n'étaient presque jamais disposés à renoncer à une partie de leur argent au profit d'autres alors que d'autres participants, au contraire, se comportaient toujours de façon très altruiste.
S'appuyant sur d'autres études montrant que le point de croisement du lobe pariétal et temporal était relié à la capacité d'empathie et de compréhension de l'autre, ces chercheurs forment l'hypothèse que les différences individuelles dans cette partie du cerveau pourraient être liées aux différences dans le comportement altruiste. Or, l'observation expérimentale semble confirmer cette hypothèse car les sujets ayant le comportement le plus altruiste sont toujours ceux qui possèdent également une proportion plus élevée de matière grise à la jonction des lobes pariétal et temporal.
De manière corrélative, cette étude montre que l'activité cérébrale chez les sujets de cette expérience varie sensiblement au moment où ils décident du partage de leur argent. Chez les sujets "égoïstes", la matière grise semble s'activer dès qu'il s'agit de donner à l'autre de petites sommes d'argent. En revanche, chez les personnes altruistes, la matière grise ne s'activerait que lorsque les dons sont plus élevés.
Mais, comme le souligne le Docteur Fehr, «Ces résultats sont passionnants mais nous ne devons pas en tirer de conclusions hâtives et simplistes car le comportement altruiste n'est pas déterminé seulement par des facteurs biologiques. Il n'est cependant pas exclu que nous puissions un jour, par des méthodes éducatives appropriées, renforcer les mécanismes biologiques sous-jacents qui, dans notre cerveau, conduisent à l'altruisme ». Reste à savoir s'il serait moral de rendre quelqu'un généreux malgré lui ?
Article rédigé par Mark FURNESS pour RTFlash
Université de Zurich
|
|
|
|
|
|
|
|
Pour vaincre le cancer, il est essentiel de détecter la tumeur le plus rapidement possible pour mettre en oeuvre immédiatement les thérapies adaptées qui donneront au malade de plus grandes chances de guérison. C'est dans ce but qu'une équipe de chimistes de l'Université du Massachusetts, dirigée par Vincent Rotello a mis au point un "nez chimique", qui permet de détecter à un niveau moléculaire les marqueurs chimiques spécifiques du cancer. Le prototype réalisé permet de différencier les cellules malignes des cellules normales grâce à une structure composée de nanoparticules d'or et de protéines. Cette structure joue un rôle identique à notre système olfactif qui analyse les odeurs.
Grâce à cet outil original, les chercheurs sont capables de repérer des cellules issues de métastases directement dans un tissu naturel animal. Actuellement, la méthode classique pour identifier les cellules cancéreuses repose sur un récepteur biologique, en général une protéine qui se lie à la cellule cancéreuse. Mais avec cette technique, on doit impérativement connaître à l'avance le type de cancer que l'on recherche pour choisir le bon récepteur. Rien de tel avec le "nez chimique" imaginé par ces chercheurs car celui-ci peut détecter la présence de protéines spécifiques aux cellules de différents types de cancers en quelques minutes.
Ce "nez" fonctionne globalement comme son homologue naturel. Chez l'homme, une odeur particulière va activer un certain nombre de récepteurs qui vont constituer une "signature" olfactive unique que notre cerveau peut non seulement distinguer parmi des milliers d'autres mais mémoriser et reconnaître, même de nombreuses années après la première exposition. Ce "nez" artificiel, avec sa structure de nanoparticules peut également repérer avec une grande précision une odeur caractéristique liée à un cancer particulier.
L'avantage de ce système est qu'il est très rapide : quelques minutes suffisent à repérer d'éventuelles cellules malades. Il est également très sensible et peu invasif car une simple microbiopsie sur moins de 2000 cellules lui suffit à établir son diagnostic. Mais c'est surtout son pouvoir de discrimination qui est remarquable car, lorsqu'il est bien étalonné, il permet non seulement de repérer des cellules mais également d'identifier immédiatement le type de cancer et l'organe concerné.
Article rédigé par Mark FURNESS pour RTFlash
UMass
|
|
|
|
|
|
|
|
Trois mois après l'annonce d'une équipe de l’École polytechnique fédérale de Lausanne (EPFL), en Suisse, qui est parvenue à restaurer la mobilité des membres inférieurs de rats paraplégiques grâce à une thérapie électrochimique associée à une rééducation robotisée (Voir article), une autre équipe américaine a annoncé dans la revue Neuroscience qu'elle était parvenue à restaurer partiellement une fonction motrice chez trois rats paralysés par à une ischémie de la moelle épinière.
Ce résultat remarquable a été obtenu après six semaines de traitement à base de cellules souches de la moelle épinière humaines (hSSC) développées par la société de biotechnologie Neuralstem, basée à Rockville dans le Maryland. Après deux mois de traitement, les trois rats présentaient des améliorations considérables de la mobilité des articulations et des extrémités inférieures ainsi qu'un meilleur tonus musculaire. Chez tous les animaux greffés, la majorité des cellules hSSCs transplantées a survécu et s'est transformée en neurones fonctionnels, comme l'a montré l'étude réalisée par l'Université de Californie à San Diego.
Les rats souffraient de paraplégie ischémique, une pathologie qui entraîne une perte définitive et incurable de la fonction motrice. "Jusqu'à présent, les greffes de cellules-souches humaines dans la moelle épinière avaient surtout pour objectif le rétablissement de la production de myéline" explique le Docteur Karl Johe, directeur scientifique de Neuralstem et auteur de l'étude. "Mais cette étude a permis de reconstruire les circuits neuronaux, ce qui n'avait jamais été entrepris auparavant." Le Docteur Johe souligne également que "Contrairement aux rats, les patients humains souffrant d'une paraplégie ischémique seront en mesure de suivre une rééducation à l'issue du traitement. Nous pensons que cela accélérera l'intégration des cellules souches greffées et améliorera encore la restauration de la mobilité du patient."
Compte tenu de ces résultats, Neuralstem a demandé à la FDA d'approuver un essai pour tester la transplantation de cellules-souches dans la moelle épinière de patients paralysés. Parallèlement, les chercheurs sont également en train de tester le potentiel thérapeutique des cellules souches neurales de StemCells, une société basée en Californie, chez trois personnes dont la moelle épinière a été sectionnée et deux d'entre elles affirment avoir retrouvé "certaines sensations" liées à la mobilité des membres inférieurs.
Article rédigé par Mark FURNESS pour RTFlash
Technology Review
Neuralstem
Cell
|
|
|
|
|
|
|
|
La viande reste la source majeure de protéines animales pour l’homme mais l’élevage intensif pose de nombreux problèmes écologiques et serait responsable de plus de 20 % des émissions humaines de gaz à effet de serre, sans compter le mobilisation exclusive de plus de la moitié des terres de la planète pour nourrir les différentes familles d'animaux que nous consommons. Il est démontré qu'une consommation excessive de viande augmente les risques de pathologies comme les maladies cardio-vasculaires ou certains cancers. Enfin, un nombre croissant de personnes se soucient de la condition animale et refusent, pour des raisons éthiques, de consommer de la viande.
Dans ce contexte, les laboratoires tentent depuis des décennies de fabriquer de la viande synthétique qui pourrait offrir à des conditions économiques viables, une alternative acceptable à la consommation de viande naturelle. Une étape importante vers la viande artificielle a été franchie par l’équipe de Mark Post, de l’université de Maastricht dont les travaux ont été présentés lors du récent congrès de la Société américaine pour l’avancement des sciences qui a eu lieu à Vancouver.
Les muscles contiennent des cellules-souches, appelées myoblastes et les biologistes ont appris à "reconstruire" des muscles en transférant les myoblastes d’un donneur compatible. Mais les chercheurs néerlandais sont allés plus loin et sont parvenus à utiliser ces myoblastes pour produire directement des cellules musculaires. Ils ont prélevé par biopsie des extraits de tissu musculaire sur des animaux vivants puis les ont "cultivés" dans des boîtes de Pétri en les recouvrant de collagène et en les faisant croître dans une "soupe" dans laquelle sont savamment dosés les divers éléments nutritifs et facteurs de croissance ainsi que des antibiotiques pour prévenir une éventuelle contamination.
Comme le souligne Mark Post, "Nous ne réalisons pas encore que d'ici 40 ans, la viande risque de devenir un produit hors de prix réservé à quelques privilégiés fortunés. La demande de viande devrait en effet doubler dans le monde d'ici 2050, notamment dans les pays en développement. Or, il faut savoir que 70 % des terres arables du monde sont déjà utilisées pour l'élevage. Nous risquons donc d'être face à un sérieux problème pour satisfaire cette nouvelle demande planétaire. Si nous pouvons produire en laboratoire à un coût compétitif une viande artificielle saine qui présente les mêmes qualités nutritionnelles que la viande naturelle, nous aurons résolu un grand problème pour l'humanité et, en plus, nous aurons contribué à lutter contre l'effet de serre. La question n'est pas de savoir si nous devons trouver des solutions de rechange pour produire la viande mais quand nous pourrons les proposer aux consommateurs".
Article rédigé par Mark FURNESS pour RTFlash
Webmagazine
|
|
|
|
|
|
|
|
Des neurobiologistes de Heidelberg, en Allemagne, ont réussi à restaurer les capacités de mémorisation de souris âgées en injectant dans leur cerveau un virus vecteur d’un gène spécifique. Ce dernier modifie la structure de l’ADN par une réaction chimique appelée méthylation.
En activant une enzyme, baptisée Dnmt3a2, cette réaction relance la production de deux protéines essentielles à la plasticité neuronale, ou capacité des neurones à modifier la force de leurs connexions. Leur plasticité neuronale retrouvée, les neurones sont à nouveau en mesure de former des souvenirs.
Les souris ainsi traitées ont été soumises à un test de mémoire simple, consistant à repérer, après un délai de 24 heures, le déplacement d’un objet dans leur environnement. Les souris âgées ayant reçu une injection de virus mémorisent la disposition des objets aussi bien que les jeunes. À l’inverse, de jeunes souris ayant reçu un virus qui diminue la méthylation perdent la mémoire.
L'étude a montré que les souris âgées auxquelles on a injecté ce gène modifié changent radicalement de comportement et passent 70 % du temps à examiner le nouvel objet qui est introduit dans leur environnement, ce qui montre que leur mémoire s'est nettement améliorée. A contrario, lorsque les chercheurs ont réduit de moitié la quantité d'ADN méthyltransférase produite par les jeunes souris, la capacité de mémoire s'est à nouveau dégradée et est tombée au niveau des souris âgées non traitées.
"Ces recherches montrent clairement le rôle majeur du niveau d'activation de l'enzyme Dnmt3a2 pour préserver les capacités de la mémoire" souligne Hilmar Bading qui a dirigé cette étude. Reste à présent à trouver le moyen de modifier les niveaux d'ADN méthyltransférase chez l'homme pour vérifier si cette modification peut améliorer ou restaurer la mémoire défaillante chez l'homme.
Article rédigé par Mark FURNESS pour RTFlash
Medical Daily
Nature Neuroscience
|
|
|
|
|
|
|
|
Comment le méthane se forme t-il dans les océans ? Une équipe de recherche dirigée par William Metcalf, de l’Institut de biologie génomique de l’Université de l’Illinois, vient d'apporter des éléments de réponse décisifs à cette question. On savait déjà que certains micro-organismes marins anaérobiques (qui vivent sans oxygène) peuvent produire du méthane mais le problème est que ce sont précisément les régions océaniques riches en oxygène qui sont saturées en méthane.
David Karl, de l’Université de Hawaï et Edward DeLong (MIT), avaient formulé l'hypothèse que le méthane océanique pouvait être produit par certains des micro-organismes possédant une enzyme capable de casser une liaison carbone-phosphore et de produire du gaz à partir d’acide méthylphosphonique. Mais cette théorie restait à confirmer par l'observation sur le terrain. C'est ce qu'a fait tout à fait fortuitement l’équipe de Metcalf.
Ces chercheurs travaillaient en effet sur les mécanismes de résistance des bactéries à certains antibiotiques et sur les moyen de les contourner pour développer de nouvelles classes d'antibiotiques. C'est dans ce cadre qu'il ont travaillé sur des phosphonates et les acides phosphoniques car certaines bactéries produisent des phosphonates pour inhiber la croissance de leurs congénères : pour "digérer" ces phosponates, les bactéries doivent en effet casser une puissante liaison chimique carbone-phosphore, ce qui n'est possible qu'au prix d'une grosse consommation d'énergie qui ralentit considérablement le métabolisme des bactéries concernées. Les laboratoires cherchent donc activement de nouveaux composés ayant cette liaison carbone-phosphore pour concevoir de nouvelles familles d'antibiotiques.
C'est en décortiquant le génome (65 millions de paires de bases et 1 847 gènes répertoriés) de l’archée Nitrosopumilus maritimus (une archéobactérie sans noyau de la famille appartenant aux eucaryotes), un des micro-organismes unicellulaire marins les plus communs présent dans les mers du globe, que l'équipe de W. Metcalf, a repéré des gènes clés qui commandent la synthèse des enzymes indispensables à la production de phosphonates. Ce mécanisme a ensuite été confirmé expérimentalement et les chercheurs ont montré qu'effectivement Nitrosopumilus maritimus est capable de produire des polymères à base d’aminoéthylphosphonate, ainsi que du méthylphosphonate. La pièce manquant au puzzle théorique proposé par Karl et DeLong venait d'être trouvée !
Quand une archée Nitrosopumilus maritimus meurt, les micro-organismes voisins viennent capter son méthylphosphonate et peuvent ainsi s'approvisionner en phosphore, ce qui entraîne l'émission du méthane sous-marin. Cette découverte majeure va permettre d'éclairer d'une lumière nouvelle les processus de formation et d'émission des gaz à effet de serre et particulièrement du méthane, un gaz à effet de serre 23 fois plus puissant que le CO2, dont les émissions ont augmenté de 150 % depuis le début de la révolution industrielle et qui est responsable pour plus de 20 % du changement climatique.
Article rédigé par Mark FURNESS pour RTFlash
Science
|
|
|
|
|
|
|
|
Selon l'OMS, les surdités acquises concerneraient trois naissances sur mille et il y aurait au moins 400 millions de personnes sourdes ou malentendantes dans le monde. En France, 5 millions de personnes sont sourdes ou malentendantes, dont 450 000 souffrent de surdité profonde. Parmi les formes de surdité, la neuropathie auditive (NA) est une atteinte auditive neurosensorielle qui touche l'oreille interne et dans laquelle les neurones (cellules nerveuses) spécialisées dans la transmission de l'information auditive sont altérés ou détruits pour des raisons qui ne sont pas encore totalement comprises et qui peuvent impliquer des facteurs génétiques de mieux en mieux identifiés. Ce sont les altérations subies par ces cellules qui entraînent la surdité.
Récemment, des chercheurs de l’Université de Sheffield (Royaume Uni) et de l'Université de Srinakharinwirot (Thailande) sont parvenus à produire, à partir de cellules souches embryonnaires, des cellules nerveuses auditives situés dans l'oreille interne. Ils ont ensuite injecté ces nouvelles cellules, dont la fonction est d'acheminer les signaux auditifs vers le cerveau, dans l'oreille interne de 18 gerbilles rendues sourdes, et mesuré leur niveau d'audition avant et après cette transplantation. Ces petits rongeurs ont été choisis parce qu'ils présentent l'avantage de posséder une "bande passante" comparable à celle de l'homme : de 20 à 20.000 hertz (périodes par seconde) chez les sujets jeunes.
les résultats sont très encourageants puisqu'en moyenne, les gerbilles, un mois après cette transplantation de cellules souches, voyaient leur capacité auditive améliorée de 46 %. Bien que cette sensible amélioration varie selon les gerbilles, l'étude précise que plusieurs rongeurs transplantés ont complètement retrouvé leurs capacités auditives au bout de deux mois et demi.
Comme le souligne le Docteur Marcello Rivolta qui a conduit cette étude, "Si on transpose ces résultats à un patient humain, cela serait comme si une personne si sourde qu'elle est incapable d' entendre un camion dans la rue retrouvait la capacité de pouvoir tenir une conversation normale dans un environnement calme. Même s'il ne s'agit pas d'une restauration totale de l'audition, ce serait un progrès décisif en matière de qualité de vie".
Plusieurs années seront encore nécessaires pour s'assurer que l'utilisation de cellules souches embryonnaires humaines pour traiter certains types de surdité comme les neuropathies auditives, n'entraîne aucun effet secondaire indésirable pour le patient. Il faudra notamment comparer et évaluer les différentes méthodes de transplantation de ces cellules dans l'oreille interne humaine et vérifier que la restauration de la fonction auditive ainsi obtenue persiste à long terme.
Article rédigé par Mark FURNESS pour RTFlash
Nature
|
|
|
|
|
|
|
|
Mauna Kea Technologies, une jeune société française, vient de présenter le plus petit microscope du monde à usage médical. Ce remarquable appareil, baptisé Cellvizio, mesure moins de deux millimètres et intègre 30.000 fibres optiques. Il permet d'obtenir 12 images par seconde de haute résolution (de l'ordre du micron), autorisant ainsi l'observation en temp réel des cellules in vivo.
En complément des biopsies, cette technique innovante permet enfin d'explorer en direct des zones d’accès jusqu'alors impossibles ou difficiles à voir, comme les voies biliaires, l’oesophage ou le pancréas. Ce "micro-microscope" devrait donc permettre de détecter de manière très précoce certains cancers touchant les muqueuses au tout premier stade, avant même que la tumeur n'apparaisse. Il est notamment destiné à la chirurgie colorectale, ORL et gynécologique.
Sur le plan thérapeutique, Il permet de réaliser, en fonction des observations in situ, des interventions chirugicales immédiates et d'éviter le plus souvent des actes chirugicaux ultérieurs beaucoup plus lourds.
Comme le souligne avec enthousiasme le docteur Bertrand Napoléon, gastro-entérologue à l'hôpital privé Jean Mermoz de Lyon, "C'est une nouvelle ère de l'imagerie médicale et du diagnostic qui s'ouvre aujourd'hui et cet appareil permet de voir ce qu'on ne voyait pas avant."
Autre progrès par rapport à l'endoscopie classique, qui donne une image du tissu, et la biopsie, qui n'en prélève qu'une partie, le Cellvizio permet de visualiser la totalité de la muqueuse et de repérer la moindre lésion. Le docteur Napoléon précise d'ailleurs que "Ce microscope, malgré son coût de 150 000 euros permettra de réaliser des économies car plus un cancer est découvert tardivement, plus son coût de traitement est élevé."
Mauna Kea Technologies a annoncé pour 2013 les premiers essais cliniques à grande échelle en Europe de ce microscope.
Article rédigé par Mark FURNESS pour RTFlash
MKT
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|