| 
				|  |  
					| 
							|  |  
								| 
      										
      											| Edito Connaissance du code génétique : l'aventure ne fait que commencer
 
 
  
 
 Au cours de ces dernières semaines, deux  découvertes fondamentales sont venues enrichir et complexifier notre vision du  code génétique et de ses mécanismes de fonctionnement. La première découverte  concerne un des fondements de la biologie moderne : l'ADN est transcrit en un  ARN qui lui-même permet la production d'une protéine. Pour être efficace, cette  "photocopie" doit être le plus fidèle possible et comporter un minimum d'erreurs  de "traduction". En premier lieu, à une séquence d'ADN  (constituée des quatre nucléotides désignés par les lettres A, T, C et G)  correspond une unique séquence d'ARN grâce aux règles de complémentarité (G   et C, A et U, le U remplaçant le T). Par exemple, la séquence d'ADN aatcga est  transcrite en UUAGCU. Ensuite, chaque triplet de l'ARN (trois lettres  consécutives, tels UUA, GCU...) détermine un acide aminé de la protéine. Mais  ce principe général vient d'être remis en question par une équipe de recherche  américaine dirigée par Vivian Cheung, de l'Université de Pennsylvanie, à  Philadelphie, aux États-Unis. Ces chercheurs ont montré que, dans de nombreux  cas, la transcription de l'ADN en ARN est bien moins fidèle que  prévu. En comparant des séquences d'ADN et d'ARN  correspondants dans des lymphocytes B (des globules blancs) de 27 individus, les  chercheurs américains sont parvenus à repérer plus de 10 000 localisations où  les deux molécules diffèrent; ils ont également pu constater, pour 40 % des  gènes observés, l'existence d'au moins une erreur de transcription. Ces  découvertes montrent donc que la nature des protéines produites n'est pas  réductible à la seule séquence des gènes impliqués. Procédant de manière rigoureuse, les chercheurs  américains ont reproduit ces observations avec plusieurs types de cellules  différents (os peau, cerveau...), provenant de sujets d'âge variable et les  résultats ont dans tous les cas été semblables ce qui montre que ce mécanisme  inconnu n'est pas spécifique aux lymphocytes B. L'équipe américaine a également  souligné une autre découverte surprenante: à une modification de transcription  en un site correspond toujours le même remplacement : par exemple, lorsqu'un C  est observé dans l'ARN à la place d'un A, on retrouvera bien ce  C chez tous les  autres sujets examinés. Selon V. Cheung, une telle constance ne peut  être le fruit du hasard et correspond à un code inconnu à ce jour. Ces résultats  confortent fortement l'hypothèse d' un nouveau niveau de diversité génétique et  montrent que le séquençage complet du génome humain est loin de nous apporter  les clés de la connaissance de notre génome car, tel l'arbre qui cache la  forêt, derrière l'ADN, les mécanismes de transcription des ARN semblent bien  plus subtils et complexes que prévus. Il semble donc, ce qui est confirmé par  observation utilisant de nouvelles techniques d'imagerie, que notre génome  fonctionne simultanément sur plusieurs niveaux d'organisation : les 23 paires de  chromosomes sont enroulées autour de protéines (histones) et compactées pour  tenir en totalité dans le noyau. Quant aux chromosomes, ils  occupent des  localisations spatiales distinctes (à la périphérie ou au centre) qui ont une  influence majeure sur leur fonctionnement. La deuxième découverte, réalisée par des  chercheurs québécois et américains dans le cadre du projet CARTaGENE, concerne  le rythme de transmission des mutations génétiques d'une génération à l'autre.  Selon ces recherches, une soixantaine de nouvelles mutations génétiques  seulement sont transmises par les parents à leur enfant. C'est beaucoup moins  que ce que les estimations avancées jusqu'à présent et cette avancée remet en  question l'échelle de temps utilisée pour calculer le rythme d'évolution de  notre espèce au fil des générations. Le génome humain est constitué de près de six  milliards d'éléments d'information appelés nucléotides. Chaque parent en  transmet trois milliards à son enfant. Une seule erreur de copie d'un seul  nucléotide peut se traduire par une mutation génétique. Les généticiens pensaient jusqu'à maintenant  que les parents contribuaient à une moyenne de 100 à 200 erreurs dans les  nucléotides transmis à leur enfant. Ces travaux montrent que c'est plutôt, en  moyenne, une trentaine de nouvelles mutations génétiques qu'un parent transmet à  son enfant. Ces mutations font émerger de nouvelles séquences génétiques et  jouent un rôle clé dans le processus d'évolution des espèces, notent les auteurs  de ces travaux. Les généticiens vont donc devoir réviser le  nombre de générations qui séparent des espèces qui sont génétiquement  apparentées, comme les humains et les grands singes, car l'évolution pourrait  être 30 % moins rapide qu'on le pensait. L'époque de la divergence entre homme et  chimpanzé pourrait ainsi être repoussée de 7 millions d'années dans le passé,  comme le suggèrent déjà de récentes découvertes fossiles. Ce "recalage" des  échelles chronologiques des mutations génétique aura bien sur un impact  important sur la théorie de l'évolution et ne va pas manquer de relancer le  débat entre les différentes approches de la théorie de Darwin (gradualistes et  ponctualistes). Les chercheurs ont aussi constaté que le père  transmet davantage de mutations à l'enfant que la mère, puisque les erreurs  surviennent pendant la division cellulaire et la réplication de l'ADN et que les  hommes produisent plus de gamètes (spermatozoïdes) que les femmes  (ovules). Jusqu'à présent, il était admis qu'un plus  grand nombre de mutations proviennent des hommes. Or, dans les deux familles  étudiées, les résultats ont été tout à fait surprenants : 92 % des mutations ont  été transmises par le père dans une des familles, mais seulement 36 % dans  l'autre. Ces résultats suggèrent que dans certaines familles, la plupart des  mutations viennent de la mère et que dans d'autres, au contraire, l' essentiel des  mutations proviennent du père. En outre, le taux de mutations est extrêmement  variable d'un individu à l'autre. On le voit, ces deux découvertes passionnantes  et inattendues, dont l'une concerne l'individu et l'autre l'espèce humaine,  montrent que les lois de l'hérédité et les mécanismes raffinés qui régissent  notre code génétique, tant au niveau de l'individu que de l'espèce humaine, sont  loins d'avoir livré tous leurs secrets. En dépit de la prouesse technologique  que représente le séquençage complet du génome humain, nous voyons que cette  avancée, certes importante, ne constitue qu'une étape dans la compréhension  d'un vaste continent scientifique dont l'exploration ne fait que commencer.... René TRÉGOUËT Sénateur Honoraire Fondateur du Groupe de Prospective du Sénat Nota :  Pour la partie technique de la transcription de l’ADN , je me suis permis de  reprendre dans cet édito des passages de l’excellent article  de la revue « Pour  la Science » que nous vous avons communiqué dans le précédent numéro de RT  Flash et que vous pouvez retrouver à l’adresse suivante : Pour La Science 
 |  |  |  |  
								| 
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Information et Communication
                                    								|  |  |  
                                    								|  | TIC |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Aumont-Aubrac, une commune lozérienne de 1 147  habitants, dispose désormais d’un réseau en fibre optique permettant de  raccorder en très haut débit (100 Mégabits/s) la totalité des foyers (612 prises  raccordables). L’opération a été portée par le conseil général  de la Lozère, en partenariat avec l’opérateur Altitude Infrastructure. Elle  s’inscrit dans le cadre de l’appel à projets lancé par le Commissariat général à  l’investissement pour expérimenter les conditions techniques du déploiement de  la fibre optique dans les zones les moins denses du  territoire. A un coût  raisonnable en milieu très rural – La consultation a permis de désigner 7 projets pilotes  dont celui d’Aumont-Aubrac. « Il s’agissait de montrer que la fibre optique  jusqu’à l’abonné (FTTH) peut être mise en œuvre en milieu très rural à un coût  raisonnable », souligne Patrick Boyer, directeur des TIC au  conseil général. Le réseau FTTH d’Aumont-Aubrac a pu être créé  grâce à l’existence d’une artère en fibre optique déployée depuis 2008 sous  l’autoroute A 75, dont le village est proche. Il comporte 11 km de  fibre. L’investissement (820 000 euros) a été  cofinancé par : 
le conseil général (43,9 %), 
et Altitude Infrastructure, via sa  filiale Net 48 (13,9 %). « Nous avons optimisé toutes les techniques de  pose pour limiter l’impact sur l’environnement et minimiser les coûts, explique  Patrick Boyer. Nous avons utilisé des fourreaux d’Orange dans le cœur de bourg,  mis en œuvre des techniques de micro-tranchée. Là où la voirie devait être  refaite, les câbles ont été posés sur des appuis aériens. Nous profiterons  ensuite des travaux programmés par la commune pour enfouir des fourreaux.  » Le coût de l’investissement est estimé à 1 200  euros par prise. Sur les 612 foyers raccordables, 516 ont souscrit à l’offre de  raccordement, les frais de raccordement à l’intérieur du logement étant pris en  charge par le conseil général et la commune. A ce jour, une vingtaine  d’abonnements ont été souscrits auprès des trois fournisseurs d’accès référencés  : Alsatis, Wibox et Bouygues. Impact économique ?  Le département projette d’étendre le  réseau FTTH au nord et au sud de la commune d’ici à la fin de l’année pour  desservir la zone d’activités économiques et la Maison de la communauté de  communes. « La question est maintenant de savoir si les habitants et les  entreprises vont s’approprier ce service, commente Patrick Boyer. Il sera  intéressant de voir comment les gens vont utiliser le très haut débit par  rapport aux solutions ADSL existantes, et si ce nouvel outil aura un impact  économique sur la commune. » La Gazette Des Communes |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Comment permettre à un cadre des pays du Sud de travailler en Europe sans « immigrer » ? C’est le pari que font trois jeunes entrepreneurs en lançant Ximinds, une plate-forme de vente aux enchères de matière grise qui permet de se voir, de dialoguer et de travailler à distance. À l’aide de deux webcams branchées sur un simple PC, le cadre en question peut par exemple donner des cours particuliers de mathématiques à un élève de terminale d’un lycée du 16e arrondissement de Paris. Sur le même principe qu’e-bay, l’élève en question n’a qu’à se connecter sur le site web de ximinds et comparer , en termes de qualité, de tarifs et de plage horaire, tous les professeurs de mathématiques répertoriés, où qu’ils se trouvent. Une fois le rendez-vous établi, le cours particulier a lieu et la transaction est conclue par le moyen de PayPal. «Nous constatons que depuis quelques années, beaucoup de personnes hautement qualifiées et formées dans le Sud veulent rester et travailler dans leur pays. Les pays du Nord ont des ressources financières mais veulent payer le juste prix sans se déplacer. Ximinds est aussi un moyen de réduire la fracture Nord-Sud et de permettre un transfert de compétences de matière grise du Sud vers le Nord», affirme Mérouane Debbah, professeur à Supelec, l’un des fondateurs. La plate-forme permet de faire toutes sortes d’offres de services, allant des conseils d’un avocat, à des conseils de jardinage ou des recettes de cuisine. Il suffit d’une connexion internet de plus de 128 kbit/s pour avoir l’impression d’être en face de son homologue à l’autre bout de la planète, de partager ses notes écrites ou encore commenter un document à la main. Selon les fondateurs: « Le décalage horaire joue en notre faveur. En effet, il peut arriver qu’un élève en période d’examen ait besoin d’aide en pleine nuit alors que tout le monde dort. Or, à l’autre bout de la planète il fait jour et des personnes sont entièrement disponibles. Par ailleurs, quand on sait que le tarif d’une heure de cours particulier permet de nourrir une famille entière dans certains pays, on se rend compte rapidement du potentiel économique de Ximinds ». Ximinds |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Le ministre chargé de  l'Economie numérique Eric Besson a annoncé il y a quelques jours la création de commissions  régionales d’aménagement numérique du territoire pour garantir la  complémentarité entre initiative privée et publique dans le déploiement de la  fibre optique. Les « commissions  régionales » accompagneront les collectivités dans l'élaboration de leurs  schémas d'aménagement numérique en vérifiant la conformité avec le programme  national très haut débit. Elles interviendront également sur l'épineuse question  du financement de ces équipements. Elles assureront l'articulation entre  l'investissement publics et privés. A ce sujet, Éric Besson a précisé que  « la priorité sera donnée à l'investissement privé comme [...] pour le haut  débit ». Concrètement, durant les trois premières années, jusqu'en 2014,  les réseaux d'initiatives publiques subventionnés par les collectivités  publiques devront se concentrer exclusivement sur les zones de carence de  l'investissement privé. Passé 2014, les collectivités pourront déployer des  réseaux sur l'ensemble des communes qui ne seraient pas encore  équipées. Il espère ainsi répondre "aux nombreuses collectivités qui  s'interrogent sur la réalité des engagements des opérateurs et sur  l'articulation entre les réseaux des opérateurs et les réseaux d’initiative  publique". Ces commissions "réuniront les opérateurs, les collectivités  territoriales ainsi que l'ensemble des administrations concernées" et  accompagneront les collectivités sur "l'élaboration de leurs schémas  d'aménagement numérique", sur "l'articulation entre investissements publics et  privés" et sur "la conformité avec le programme national très haut débit",  a-t-il assuré. "Je n'accepterai pas que les initiatives des collectivités  soient durablement bloquées par des promesses de déploiements non tenues" par  les opérateurs, a-t-il ajouté. Les opérateurs se sont engagés à couvrir 57 % de la  population en fibre optique dans les dix prochaines années, ce qui représente un  rythme moyen d’un million de logements par an, rappelle-t-il. La France compte  d'ores et déjà un million cent-trente-cinq mille foyers, soit 5 % des foyers  français, éligibles à la fibre optique jusqu'à l'abonné, soit une croissance de  36 % sur un an. le Président de la République a  fixé l'objectif de « 100 % de la population couverte en très haut débit fixe  d'ici 2025 ». Éric Besson a rappelé que « l'équipement de la  France en fibre optique est un chantier majeur de 25 milliards d'euros ». Sur 15 ans cet objectif implique que plus de 1,7 millions de foyers français  soient raccordés chaque année. Réseaux-Telecoms |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Matière et Energie
                                    								|  |  |  
                                    								|  | Matière |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Un système  d'électrolyse développé par  des chercheurs allemands permet de transformer de l'électricité en méthane à partir d'eau et de dioxyde de carbone :  "Power-to-Gas". Les  recherches de l'IWES (Institut Fraunhofer pour l'énergie éolienne à Kassel) et  du ZSW (Centre de recherche sur l'énergie solaire et l'hydrogène de  Bade-Wurtemberg) sur le procédé de fabrication de méthane à partir d'eau, de  dioxyde de carbone et d'électricité, ont été transposées à l'échelle  industrielle en collaboration avec Audi et l'entreprise autrichienne Solar Fuel  Technology. L'installation, qui sera complètement opérationnelle en 2013, aura  une capacité de 6,3 mégawatts. Le dioxyde de carbone  nécessaire en grande quantité pour le procédé d'électrolyse sera fourni par une  installation de biogaz de l'entreprise EWE située à proximité de l'installation,  qui en valorisant ces résidus et déchets, peut fournir du dioxyde de carbone  sans impacts sur le climat. Le méthane produit est ensuite injecté dans le  réseau gazier pour stockage. "C'est en couplant les réseaux de gaz et  d'électricité que la technologie "power-to-gas" réussit à combler les déficits  de production des renouvelables et ce jusque sur une période de deux semaines"  explique Michael Sterner de l'IWES. "Ceci stabilisera à la fois  l'approvisionnement électrique et la transition  énergétique". Le procédé de fabrication du  méthane en faisant réagir de l'eau avec du dioxyde de carbone est connu depuis  longtemps, la question de l'échelle et de la gestion de l'intermittence de la  production d'électricité constituent en revanche l'innovation de ce projet.  L'idée de base avait été critiquée notamment par rapport à l'apport de CO2  nécessaire à l'opération d'électrolyse et le risque de transformer une énergie  verte en énergie émettrice de CO2 (si le gaz est réutilisé pour produire de  l'électricité). C'est pourquoi Michael Sterner insiste sur l'importance du  caractère durable et de la proximité de la source de dioxyde de carbone  exploitée (entreprise de biogaz dans le cas de l'étude). Selon lui, les  installations de préparation et de production de biogaz (60 % de méthane, 40 % de  dioxyde de carbone) en Allemagne devraient fournir plus de deux millions de  tonnes de dioxyde de carbone, ce qui permettrait de stocker 4.8 TWh de  courant. Le procédé fait son chemin et a déjà  conquis l'entreprise allemande Juwi qui aurait aussi installé une centrale  pilote de 25 kW à Hunsrück (Rhénanie-Palatinat). "Selon moi, nous réglons le  problème du stockage des énergies éolienne et solaire avec cette technologie"  affirme le fondateur de Juwi, Matthias Willenbacher, visiblement convaincu, dans  un entretien avec le journal "Süddeutsche Zeitung". L'entreprise Greenpeace  Energy (coopérative fournisseur d'énergie verte créée en 1999) a elle aussi  adopté la démarche et propose à ses clients ce service de "gaz-vent". Dès l'été  2011, ils pourront, via leur facture de gaz habituelle, soutenir le projet de  construction de centrale de production de gaz-vent et dès 2013 bénéficier  véritablement du produit. Les constructeurs automobiles sont aussi très  intéressés par le projet : Audi cité plus haut dans le projet "power-to-gas"  mais aussi BMW dans un projet d'électromobilité (la mini E) en partenariat avec  Vattenfall à Berlin. Selon un procédé similaire, la production d'hydrogène est  aussi intéressante pour des compagnies comme Total, la Deutsche Bahn et  Vattenfall qui participent au projet de Enertrag à Prenzlau depuis 2009. Bulletins Electroniques |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  La prochaine génération  d'implants médicaux et d'organes artificiels, plutôt que de fonctionner grâce à  des piles, pourrait être alimentée directement par l’énergie du corps humain. Un  projet français intitulé IBFC avance dans ce pas. Coordonné par  le professeur Donald Martin de l’Université Joseph  Fourrier de Grenoble (38), il vise le développement d’une biopile à  combustible implantable chez l’homme. En 2010, un premier prototype a été  conçu et testé chez le rat. Celui-ci fonctionne grâce à la catalyse enzymatique  du glucose au niveau des électrodes, de la même façon que les batteries  développées par Sony. Sauf que le dispositif est dans ce cas emballé dans  des matériaux biocompatibles qui l'isolent du milieu extérieur. La biopile  implantée au rongeur a fourni 6,5 microwatts pendant plusieurs mois. Soit  presque assez d'énergie pour alimenter les pacemakers humains. La  biopile aurait aussi la possibilité d'alimenter d'autres dispositifs, comme des  pompes à insuline, voire avec plus de puissance des organes artificiels tels que  des reins ou des sphincters urinaires. Les chercheurs travaillent également sur  un autre type de batterie fonctionnant non pas au glucose, mais au  sel. Deux industriels, le fabricant de produits médicaux italien  Sorin et ST Microelectronics sont associés au projet. Récemment, IBFC a été retenu parmi les  lauréats de l’appels à projets ''Nano biotechnologies'' des Investissements  d’Avenir. Industrie & Technologies |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Le circuit imprimé souple existe. Mais pas le circuit imprimé étirable. Cette lacune est en train d’être  comblée par la société japonaise Nippon Mektron. Selon une  information rapporté par Tech-On, le site d’information  technologique en ligne du Nikkei, elle aurait mis au point un  prototype aussi souple qu’un tissu stretch puisqu’il supporte un étirement de 30  %. Les circuits imprimés souples standard, réalisés à partir de polyimide, ne sont pas élastiques. Pour les rendre  extensibles, la société japonaise remplace le polyimide par une résine élastomère. Les pistes  d’interconnexion électrique sont toujours en cuivre, mais elles suivent une  forme ondulée leur permettant d’absorber la déformation du matériau. Les applications pour ce type de circuit sont  diverses. La société Nippon Mektron a, par exemple, fait la démonstration d'un  bras de robot équipé d’un circuit en forme de gant truffé de capteurs. Ce  circuit souple permettait au robot d’arrêter le bras lorsqu'il touche un  objet. Industrie & Technologies |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Sciences de la Terre, Environnement et Climat
                                    								|  |  |  
                                    								|  | Terre |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Le rôle des forêts dans la lutte contre le changement  climatique est  largement reconnu comme étant primordial, principalement grâce à leur capacité à  agir comme des "puits" de carbone. Cependant, l'impact du changement climatique sur les  forêts - qui pourrait altérer leur capacité à absorber les émissions de carbone  - reste incertain, et préciser l'évolution des écosystèmes forestiers au cours  des décennies à venir est un enjeu important pour la science  climatique. Une nouvelle étude apporte des éléments de réponse dans ce  domaine. Parue le 25 Mai dans la revue Proceedings of the National Academy of  Sciences, celle-ci conclut qu'en modifiant le cycle de l'azote au sein des écosystèmes forestiers, le  réchauffement climatique pourrait entraîner une augmentation de la capacité des  arbres à stocker le carbone. Conduite par Jerry Melillo du Marine Biological  Laboratory, l'étude a été réalisée expérimentalement à Harvard Forest  (Massachussetts), un site de recherche du programme Long-Term Ecological  Research. Sur une période de 7 ans, une portion de forêt de 30 m2 a été chauffée  artificiellement par un réseau de câbles souterrains - jouant le rôle de  résistances thermiques - à une température maintenue constante de 5°C supérieure  à la température ambiante. Cette valeur reflète l'augmentation de température  qui pourrait résulter du changement climatique d'ici la fin du siècle, si des  mesures ambitieuses de lutte contre les émissions de gaz à effet de serre  n'étaient pas mises en place. L'étude permet  de confirmer qu'une température plus élevée entraîne une décomposition plus  rapide de la matière organique du sol - présente en abondance dans la forêt,  augmentant les quantités de dioxyde de carbone et de méthane rejetées dans  l'atmosphère. Cependant, elle montre également qu'une hausse de température peut  favoriser l'absorption du carbone au sein des arbres. Une température du sol plus élevée entraîne une transformation  plus rapide de l'azote - un composé essentiel à la croissance des végétaux -  vers sa forme "utile" à ces derniers (principalement les ions nitrates). Il en  résulte une plus grande disponibilité de l'azote, ce qui stimule et favorise la  croissance des végétaux. Ainsi, les arbres stockent plus de carbone, sous la  forme d'une masse de bois plus importante. "Dans de nombreuses forêts  américaines, la croissance des arbres est limitée par un manque d'azote" déclare  Jerry Melillo. "Nous avons découvert que le réchauffement entraîne une  libération de l'azote contenu dans la matière organique du sol sous forme de  composés inorganiques comme l'ammonium, couramment utilisé comme fertilisant de  jardin. Quand les arbres absorbent cet azote, ils croissent plus rapidement et  absorbent plus de carbone." Cette hausse de  l'absorption du carbone par les arbres ne compense qu'en partie la hausse des  émissions du sol, plus importante. Au cours des 7 années d'étude, le bilan net  des émissions résultant de l'augmentation de température est donc positif :  l'augmentation de température a conduit la forêt à perdre de sa capacité à  absorber du carbone. Cependant, le taux de croissance et la capacité  d'absorption des arbres ont progressivement augmenté au cours du temps, à tel  point qu'au cours de la dernière année d'étude, les émissions de carbone dues au  sol étaient presque entièrement compensées par les gains d'absorption des  arbres. Bulletins Electroniques |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Surpêche, résidus de médicaments, déchets de matières plastiques,  polluants organiques…, la Méditerranée va très mal, explique un rapport présenté  par le sénateur Roland Courteau. D’après lui, le « point de non-retour » n’est  pas loin. C’est plus un réquisitoire qu’un rapport. Présenté récemment au  Sénat par Roland Courteau, sénateur de l’Aude, le texte de l’Office  parlementaire des choix scientifiques et techniques (OPECST) détaille sur 300  pages tous les maux qui rongent la Méditerranée, cette mer presque fermée dont l’eau met un siècle à sortir. Une  synthèse de quatre pages de ce rapport, intitulé La pollution de la Méditerranée : état et perspectives à l'horizon  2030, est disponible sur le site du Sénat. Les faits mis en lumière sont connus mais leur  juxtaposition donne un état de santé inquiétant de mare nostrum (notre  mer), comme disaient les Romains de l’Antiquité. Les symptômes sont multiples mais la cause  première est bien sûr la croissance de la population dans les pays riverains, de 285  millions à 427 millions d’habitants entre 1970 et 2000, selon le rapport, avec «  14 % d’augmentation pour les pays de la rive nord et 101 % pour les pays des  rives est et sud ». Et cette croissance est aggravée par l’urbanisation  grandissante mais aussi par la littoralisation, c’est-à-dire l’augmentation des  populations vivant près de la côte, passées sur la même période de 96  à 145 millions. 
Coopération internationale  indispensable La Méditerranée a ainsi vu grossir le flux de molécules chimiques, de matières  organiques, de déchets de matières plastiques, de bateaux de pêche et d’espèces invasives. Les hydrocarbures sont pointés du doigt  mais aussi les nitrates, les phosphates, les métaux lourds, les pesticides, les polluants de toutes  sortes et même les produits pharmacologiques, une « pollution émergente » selon le rapport, qui souligne qu’il faudrait « 50 millions d’années pour  tester individuellement chacune des molécules connues ». Les stations d’épuration sont à l’évidence en nombre  insuffisant. Dans les pays au nord de la Méditerranée, « seules 11 % des  villes de plus de 10.000 habitants n’ont pas de réseaux d’épuration ; au sud ce  pourcentage atteint 44 % ». Plus généralement, les politiques et les moyens  divergent très largement entre les pays du pourtour méditerranéen et, expliquent  ces sénateurs, c’est à ce niveau qu’il faut agir et le rapport propose une liste  de mesures. Par exemple, pour la lutte contre la pollution ou pour la recherche océanographique, des  coopérations doivent être mises en place. Il faut s’organiser pour réduire les  rejets d’hydrocarbures. Futura-Sciences |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  L’impact du changement climatique  en milieu urbain pourrait être réduit d’environ 2,5°C, en augmentant les  surfaces d’espaces verts dans les villes. En effet, les températures dans les  zones urbaines sont actuellement jusqu’à 6°C plus élevées que dans les zones  rurales et il faudrait faire davantage pour remédier à ce problème, indique une  note d’information de la Royal Institution of Chartered Surveyors (RICS),  publiée dernièrement. A titre d’exemple, au Royaume-Uni,  avec les prévisions actuelles de changement climatique, il est suggéré que les  températures estivales pourraient augmenter jusqu’à 3,5° d’ici 2050, les zones  urbaines étant particulièrement vulnérables. Cependant, par un accroissement  durable de la surface d’espaces verts et la plantation de végétaux sur les toits  et les murs dans les zones urbaines, l’impact de l’effet îlot de chaleur urbain  pourrait être réduit de près de 2,5°. Les espaces verts dans les villes  diminuent de plus en plus, pour faire place à des routes ou à de nouvelles  constructions. Selon la RICS, supprimer seulement 10 % de l’espace vert d’une  zone bâtie peut faire apparaître une augmentation maximale des températures de  près de 7°C. Dans ce contexte, les  gouvernements nationaux, les autorités locales, les propriétaires fonciers et  les développeurs devraient créer et sauvegarder les espaces verts existants, et  accorder une plus grande attention au problème croissant du changement  climatique en milieu urbain, selon la RICS. Afin de permettre l’adoption de  stratégies d’infrastructures vertes, qui ont à long terme des avantages  environnementaux et économiques, ceci doit être pris en compte dans les plans de  développement. "Les zones urbaines sont  actuellement 6° plus chaudes que la campagne environnante et ces températures  devraient augmenter au cours des prochaines décennies. Il est crucial que les  autorités nationales, locales, les promoteurs et les propriétaires fonciers  individuels prennent davantage en considération les avantages de  l’infrastructure verte. Rendre prioritaires les parcs, les jardins, les potagers  et les plantations sur les murs et les toits pourrait contribuer à réduire la  tendance croissante du réchauffement urbain de 2,5°C", déclare Paul  Collins, président de la RICS pour l’infrastructure verte. "L’augmentation des espaces  verts peut non seulement abaisser la température en milieu urbain, mais  également aider à prévenir les inondations, améliorer la qualité de l’air,  réduire le bruit et supporter la biodiversité. En outre, l’ajout de matière  végétale et de plantes sur le toit d’un bâtiment peut aider à modérer sa  température intérieure et pourrait avoir un impact sur les coûts de  fonctionnement des entreprises", ajoute Tom Mulhall, directeur associé de  la RICS. Directgestion |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Les causes de la fonte des glaciers  tropicaux sur les 10 000 dernières années sont enfin dévoilées par une équipe de  chercheurs français du CNRS, du CEA, de l'IRD, de l'Université Joseph  Fourrier et un chercheur américain de l'Université d'Albany. Ils ont montré que  le recul du glacier bolivien Telata sur cette période est avant tout lié à une  hausse de température atmosphérique de 3°C et au réchauffement du pacifique  tropical en réponse à une augmentation de l'insolation. Ces travaux ont été  publiés le 09 juin 2011 sur le site de la revue Nature. Dans l'imaginaire collectif, parler de glaciers  sous les Tropiques semble contradictoire. Pourtant, il existe bel et bien des  glaciers tropicaux, dans les Andes principalement. Pour identifier les causes du  recul de ces glaciers, la connaissance de leur histoire récente est nécessaire. L'équipe de chercheurs a étudié l'un des  glaciers de haute altitude de la Cordillère Royale de Bolivie : le Telata. Les  moraines (roches déposées par le glacier témoignant de ses positions  antérieures) du Telata, très bien conservées et en grand nombre, rendent ce site  unique sous les Tropiques. Elles offrent en effet un enregistrement quasi  continu des stades glaciaires successifs. Datées en mesurant dans les roches la  concentration d'éléments, elles permettent de reconstituer, pour la première  fois, l'histoire du glacier au cours de l'Holocène, c'est-à-dire sur les 10 000  dernières années. Pendant cette période, la surface du glacier a diminué et son  front a reculé de 3 km. Ce recul glaciaire, d'abord lent, s'est accéléré depuis  le début du 19e siècle, avec 2 km de recul de 1820 à aujourd'hui. Les chercheurs des différents laboratoires se  sont penchés sur le lien pouvant exister entre le volume glaciaire et les  valeurs du couple température/précipitation qui prévalaient pour différentes  positions passées du glacier. Les calculs montrent que le recul du glacier est  avant tout lié à un réchauffement des températures d'environ 3°C sur l'ensemble  de l'Holocène. L'augmentation très progressive de la quantité de rayonnement  solaire reçue à la surface terrestre a eu des répercussions sur la température  de surface de l'Océan Pacifique tropical et sur le climat à proximité du  glacier. L'augmentation de la température modifie le comportement du glacier et  explique de son recul. En revanche, les simulations numériques avec des modèles  de climat montrent que les précipitations n'auraient pas varié de façon  suffisamment importante depuis 10 000 ans pour influencer l'évolution du  glacier. C'est la première fois qu'une étude montre que  la fonte de ces glaciers au cours de l'Holocène était étroitement liée aux  variations des températures de surface de l'Océan Pacifique tropical. Cette  étude confirme donc le caractère exceptionnel de la fonte rapide, observée  depuis le début de l'ère industrielle. Cette fonte, depuis 1820, n'est pas liée  aux variations d'insolation mais à d'autres mécanismes. Ces travaux montrent  aussi combien les glaciers tropicaux, situés à haute altitude, là où le  réchauffement prévu pour le 21e siècle devrait être le plus élevé (4 à 5°C dans  le cas de la région du Telata), seront extrêmement vulnérables au cours des  prochaines décennies. CNRS |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Santé, Médecine et Sciences du Vivant
                                    								|  |  |  
                                    								|  | Vivant |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Les équipes  de recherche des docteurs TAKAHASHI et TANI de l'hôpital universitaire de Kyushu  à Fukuoka ont récemment découvert un nouveau marqueur moléculaire présent dans  la plupart des néoplasmes et qui présente la caractéristique d'accélérer leur  formation. Bien que la compréhension générale des mécanismes moléculaires de  formation des cancers se soit considérablement améliorée, il n'existe pas encore  d'outil efficace permettant de prévenir et de détecter les différents types  cancers dans les premières phases de leur développement. Il existe des  techniques permettant de détecter une expression anormale de gènes sensibles  mais l'identification de biomarqueurs communs à tous les cancers reste encore  une priorité pour les chercheurs. Un  biomarqueur est un paramètre biologique constituant un indicateur de processus  normaux ou pathologiques chez un patient. Suscitant un intérêt croissant des  établissements hospitaliers dans la détection de certains cancers, les  biomarqueurs peuvent également renseigner sur les réactions de l'organisme face  à certains traitements. De nombreuses compagnies pharmaceutiques ont également  recours à la détection de biomarqueurs dans leur processus de développement de  médicaments. Dans une démarche  d'identification des molécules communes aux différents types de cancer, les  docteurs TAKAHASHI et TANI ont étudié les protéines surexprimées reflétant des  modifications anormales des voies de signalisation cellulaire dans la majorité  des cellules cancéreuses et entraînant le phénotype néoplasique. Parmi les 11  protéines communes aux différents types de cancer et reconnues comme ayant un  effet sur le déclenchement des mécanismes de cancérisation cellulaire, les  scientifiques ont identifié une protéine nommée FEAT retrouvée en grande quantité dans les cellules  tumorales. Des souris génétiquement modifiées et surexprimant le gène FEAT,  régulant notamment le déclenchement de l'apoptose, ont été créées et l'effet de  la protéine a pu être observé. Des cancers des poumons et des lymphomes se sont  alors été développés chez respectivement 35 % et 48 % des souris. Ces résultats  indiquent donc que la protéine est impliquée dans la carcinogenèse des  cellules. Enfin, une analyse génétique a  permis d'identifier l'action de FEAT sur les voies de signalisation Hedgehog et  sur les récepteurs à activité tyrosine kinase, confirmant ainsi son caractère  hautement oncogène dans les premières phases de cancérogenèse. Les résultats des  travaux effectués par les docteurs TAKAHASHI et TANI ont ainsi permis de  découvrir un nouveau marqueur biologique commun aux cancers et ils ouvrent des  perspectives encourageantes pour le développement de nouvelles technologies  capables de dépister les cancers dans les premières phases de leur  formation. Bulletins Electroniques |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des études  menées par le chercheur José Thaiparambil au Winship Cancer Institute de  l'Université d'Emory ont montré qu'une molécule, la withaférine-A, empêche les cellules cancéreuses situées au niveau du  sein de métastaser (multiplication et migration). Lorsque cette molécule,  extraite de racines de la plante Withania somnifera utilisée en médecine  traditionnelle indienne, a été administrée aux souris, aucune migration des  cellules cancéreuses dans des tissus voisins n'a été  remarquée. En 2010, une équipe menée par Guy Lahat à l'Université du Texas  avait démontré, grâce à l'analyse de la withaférine-A et de ses analogues, que  des approches thérapeutiques ciblant les cellules cancéreuses métastasiques  étaient justifiées. Les recherches de l'équipe d'Emory viennent donc confirmer  ces résultats, après des essais chez la souris. Les propriétés anti-métastatiques de la withaférine-A pourraient  constituer la base de traitements thérapeutiques visant à prévenir les récidives  de cancer du sein. De plus, les chercheurs testent actuellement l'efficacité de  cette même molécule sur d'autres types de cancers. La withaférine-A vient de la  plante Withania somnifera, également connue sous le nom d'Ashwagandha, dont les  racines sont utilisées dans la médecine ayurvédique qui est une des plus  anciennes médecines du monde. La withaférine-A  est connue pour lier et ainsi désactiver les protéines vimentines, protéines  produites en excès dans les cellules cancéreuses, en particulier celles des  tumeurs invasives. Il a été observé que les tumeurs produisant une quantité  importante de vimentine ont de grandes chances de métastaser dans d'autres  parties du corps et donc de former un cancer généralisé. En neutralisant cette  protéine, la withaférine-A réduit ainsi le risque des cellules cancéreuses de  proliférer invasivement. "La plupart des  patients qui meurent d'un cancer meurent à cause des métastases, non de la tumeur  primaire", explique Adam Marcus, professeur adjoint en hématologie et en  oncologie médicale au Winship Cancer Institute de l'Université d'Emory et au  Georgia Cancer Coalition. "Notre objectif n'était pas de trouver un moyen de  tuer les cellules, mais plutôt d'éviter qu'elles migrent et envahissent d'autres  tissus". La withaférine-A semble empêcher la  vimentine de constituer l'architecture de la cellule. Chez la souris, la  withaférine-A limite les cellules du cancer du sein de se propager aux poumons.  Des tests sur plusieurs versions chimiquement modifiées de la withaférine-A ont  révélé qu'un acide aminé particulier de la protéine (l'acide aminé sérine56) est  essentiel pour sa capacité à perturber la vimentine et donc son activité  anti-invasive. Les résultats ont montré que la withaférine-A a une faible  activité toxique et apoptotique (mort des cellules) à des concentrations  inférieures ou égales à 500 nM (500 nanomoles/litre), mais conserve une  puissante activité anti-invasive à cette dose. Dans les années 1990, des scientifiques à la Northwestern  University Medical School à Chicago ont découvert que les souris dépourvues de  vimentine se développaient normalement, un résultat surprenant pour une protéine  filamenteuse qui maintient la forme cellulaire tout en participant à l'adhésion,  la migration, la survie et au processus de signalisation cellulaire. Ceci  suggère que l'utilisation clinique de la withaférine-A pour neutraliser la  vimentine pourrait avoir un minimum d'effets secondaires sur le patient. Les  essais cliniques à venir montreront s'il est possible d'administrer à faibles  doses la withaferine-A sur des longues périodes de temps afin de prévenir les  métastases du cancer, soit en combinaison avec la chimiothérapie, soit après les  traitements anticancéreux. Bulletins Electroniques |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Un dispositif d'assistance cardiaque, qui peut s'adapter  aux enfants, offre un sursis avant d'obtenir une greffe de coeur compatible. Un  système encore insuffisamment utilisé par méconnaissance ou  réticence. Les défaillances cardiaques aigües, de l'un ou des deux  ventricules, ne peuvent pas toujours être traitées médicalement. L'Excor, un  dispositif développé par la société Berlin Heart, fournit une assistance  ventriculaire, le temps de trouver un greffon compatible, y compris pour les  enfants. "Cette solution, temporaire, reste encore trop méconnue en France, y  compris par les professionnels de santé", regrette le professeur Bernard  Kreitmann, chirurgien au service thoracique et cardiaque de l'hôpital pour  enfants de La Timone à Marseille. En France, six implantations sont  comptabilisées par an en moyenne depuis 2005, date de la première utilisation de  l'Excor. En Angleterre, qui compte à peu près le même nombre d'habitants, 15 à  20 interventions sont effectuées chaque année. Plusieurs facteurs expliquent le retard français. Des motifs  économiques, d'abord, puisque ce système nécessite une intervention lourde et un  coût qui avoisine les 60000 euros par enfant. Techniquement ensuite, car les  cardiopathies des enfants sont encore difficile à détecter, ce qui constitue un  véritable défi pour les chirurgiens avec des efforts à concentrer sur la  formation des personnels médicaux qui ignorent trop souvent cet outil pour les  enfants. "En 2009, 46 enfants de moins de 18 ans ont été inscrits sur  liste d'attente pour une greffe de coeur, rapporte le docteur Roland Hénaine. 25  ont pu en obtenir une. Il faut savoir que le temps d'attente pour obtenir une  greffe est de sept mois pour des enfants de trois à cinq ans, contre 3,5 mois  pour des adultes." Plus le patient est jeune, moins les chances de survie sont  importantes. Des réticences existent. "Il faut sensibiliser le public,  souvent méfiants lorsqu'il s'agit de parler des questions de greffes cardiaques,  d'autant plus lorsqu'il s'agit de nourrissons", explique le docteur Roland  Hénaine, chirurgien cardiaque au CHU Louis Pradel de Lyon. "Pourtant, sans cette assistance, qui a permis 42  implantations en France depuis 2005, 30 enfants de plus seraient morts, retient  le docteur Stéphane Le Bel, anesthésiste à l'hôpital de la Timone. Plus de la  moitié ont pu recevoir une greffe. Malheureusement, 29 % n'ont pu être sauvés,  la difficulté de l'anticoagulation postopératoire est source de  complications." Une sensibilisation qui a trouvé un écho le mercredi 22 juin  2011, à l'occasion de la Journée nationale de réflexion sur le don d'organes et  la greffe. L'Express |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des  scientifiques de Leipzig (Saxe) ont testé avec succès une nouvelle méthode qui  devrait permettre de diagnostiquer la maladie d'Alzheimer avant l'apparition des  premiers symptômes. L'essai clinique multicentrique a été réalisé en  collaboration avec des chercheurs des Etats-Unis, d'Australie et de Suisse et  financé par Bayer Schering Pharma. Les résultats ont été publiés dans l'édition  de mai 2010 de la revue scientifique "Lancet Neurology". Les molécules de béta-amyloïde, considérées comme  responsables de la maladie d'Alzheimer, s'accumulent dans le cerveau des  patients pendant dix à quinze ans avant l'apparition de la maladie. Celles-ci  sont, selon l'hypothèse des scientifiques, toxiques pour les neurones et  conduisent à leur mort et, par suite, à la démence. La maladie est actuellement  détectée seulement lors de l'apparition des symptômes (pertes de mémoire,  désorientation...) et peut être confondue avec d'autres types de démence. Aucun  traitement ne permet actuellement de la guérir, mais certains pourraient la  ralentir. Un diagnostic en amont de l'apparition des premiers symptômes pourrait  donc permettre aux patients de conserver une vie normale plus longtemps. De  nombreuses recherches se concentrent sur le développement de nouvelles  thérapies, dont l'efficacité pourrait être augmentée si elles étaient couplées à  un diagnostic précoce. La méthode consiste en  l'injection d'une molécule radioactive, le Florbetaben, dans la veine du bras.  La substance circule jusqu'au cerveau et se fixe aux plaques béta-amyloïdes. Une  tomographie par émission de positons (TEP) détecte le Florbetaben et par  conséquent les plaques. Les données tridimensionnelles obtenues sont alors  couplées avec les résultats d'imagerie par résonnance magnétique (IRM),  permettant une localisation précise des plaques dans la matière grise du cerveau  du patient. Durant la procédure, le patient est exposé à une dose considérée  comme non-dangereuse pour la santé (double des radiations reçue normalement en  une année). L'étude clinique de phase II a été  coordonnée par l'équipe d'Osama Sabri, Directeur de la Clinique et Polyclinique  de médecine nucléaire de la Clinique universitaire de Leipzig. 150 personnes,  dont 81 atteintes de la maladie d'Alzheimer et 69 saines, ont été enrôlées dans  cette étude clinique. Celles-ci ont été prises en charge dans 18 centres  différents au sein des quatre pays cités plus haut. Lors de cette étude, la plus  importante et la première multicentrique au monde, une grande précision dans la  distinction entre personnes malades et saines a été obtenue, ce qui laisse  penser que la méthode pourra, dans le futur, être utilisée pour le diagnostic  précoce dans la routine clinique. Bulletins Electroniques |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une équipe de chercheurs  américains a testé avec succès un procédé qui permet d'activer et de désactiver  la mémoire chez des rats, et qui pourrait, à long terme, aider les humains  atteints de démence ou autres traumatismes cérébraux. Les chercheurs ont  implanté une prothèse dans le cerveau des animaux, permettant de réactiver des  souvenirs éliminés de leur mémoire grâce à des médicaments. «Allumez  l'interrupteur et les rats se souviennent. Eteignez-le et les rats oublient»,  résume Theodore Berger du département de génie biomédical de l'Université de  Californie du Sud. Theodore Berger et ses collègues se sont alliés  à des chercheurs du département de physiologie et de pharmacologie de  l'Université de Wake Forest en Caroline du Nord pour réaliser ces tests. Les  chercheurs ont axé leurs expériences sur l'hippocampe des rats, la partie qui,  comme chez les humains, concentre la mémoire dans le  cerveau. La communication entre deux régions de  l'hippocampe permet la conversion de la mémoire à court terme en mémoire à long  terme. Les chercheurs américains ont étudié les signaux transmis entre ces deux  régions, nommées CA3 et CA1, pendant une expérience où les rats recevaient une  récompense dès qu'ils actionnaient un levier. Au fur et à mesure, les rats ont  assimilé ce comportement et l'ont converti en mémoire à long  terme. Les chercheurs ont alors administré une  substance aux animaux permettant d'interrompre la communication entre les deux  régions et donc de leur faire «oublier» la mémoire à long terme. C'est à ce  moment que les scientifiques ont implanté aux animaux un appareil électronique  qui reproduit les signaux transmis entre les deux régions, CA3 et CA1. Du coup,  la mémoire des rats a été réactivée. Mieux encore, expliquent les chercheurs dans  leur étude publiée dans le Journal of Neural  Engineering, lorsqu'ils ont testé  l'appareil sur des rats «normaux», «l'appareil a permis d'améliorer la capacité  mémorielle» des animaux. L'équipe souhaite maintenant tester son procédé  sur des singes et espère pouvoir un jour aider les humains souffrant de troubles  de la mémoire dus à la démence, une attaque cérébrale ou un  traumatisme. 20 minutes |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des médecins australiens, qui ont évalué dans leur pays l’impact du  programme de vaccination contre le cancer du col de l'uterus, ont  noté que 3  ans après le début des vaccinations, leurs bénéfices se feraient déjà sentir. En  tout cas sur l’incidence des lésions précancéreuses. Depuis quelques années, l’introduction de deux vaccins  prophylactiques a offert une opportunité majeure de protéger de larges  populations contre le cancer du col de l’utérus. Un enjeu majeur, puisque c’est  le deuxième cancer féminin en termes de fréquence. Chaque année à l’échelle  mondiale, plus 500 000 cas sont recensés. Dont environ 3 000 en France, qui  provoquent 1 000 décès. En avril 2007, le gouvernement australien a été le premier à  mettre en place un programme organisé de vaccination HPV. Celui-ci était  principalement basé sur : 
La vaccination (gratuite) en milieu scolaire des filles de 12  à 18 ans avec le vaccin quadrivalent Gardasil ® ;  
Une vaccination de rattrapage, en cabinet médical proposée  jusqu’à 26 ans. Le Dr Julia Brotherton et ses collègues, de Melbourne, ont  recueilli en 2010 les données de l’Etat de Victoria, le second du pays en termes  de population. Ils les ont ensuite comparées avec celles de la période précédant  la mise en place du programme de vaccination. Publiés récemment dans The  Lancet, leurs résultats suggèrent une diminution de 38 % de l’incidence des  lésions précancéreuses de haut grade parmi les jeunes filles de plus de 18 ans.  Mais en dépit des résultats de cette étude, il n'est pas pas question de compter  uniquement sur ces vaccins et de négliger le dépistage par un frottis  cervico-vaginal régulier… Destination Santé |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Une équipe de  chercheurs menée par le Professeur Thomas Webster à Brown University, Providence (Rhode Island) a mis au point un patch composé de nanotubes de carbone favorisant la  régénération des cellules du coeur détruites après un infarctus, faute d'apport  en oxygène. Lors d'expériences in vivo, le tissu cardiaque s'est montré six fois  plus dense en présence du nanopatch conducteur qu'en son absence, ce qui  confirme l'efficacité du patch. Fait de chaînes minuscules d'atomes de carbone  repliées sur elles-mêmes pour former des nanofibres, il conduit l'électricité et  imite la surface rugueuse des tissus naturels. Les chercheurs ont observé que  plus la concentration de nanotubes était élevée, plus la régénération des  cellules cardiaques était efficace. Selon l'American Heart  Association, un tiers des femmes et un cinquième des hommes qui ont subi un  infarctus du myocarde en auront un autre dans un délai de six ans. En 2009, des  chercheurs suédois, français et américains ont constaté, grâce au dosage du  carbone 14, qu'à l'âge de 50 ans, 55 % des cellules cardiaques datent de la  naissance et 45 % ont été générées par la suite. Ces résultats témoignent du  faible taux de régénération des cellules cardiaques, d'où l'intérêt de  développer une méthode qui accélère leur multiplication après un  infarctus. Au cours d'un infarctus, une partie  du myocarde est privée d'oxygène, ce qui entraîne la douleur puis la mort de  cellules cardiaques musculaires et nerveuses privées d'oxygène et nécessaires au  bon fonctionnement du coeur. Après l'infarctus, le tissu ne peut pas se  régénérer de lui-même, le rythme cardiaque est donc perturbé et affaibli, on  parle alors d'insuffisance cardiaque. De nombreuses études sont en cours afin de  trouver des moyens de régénérer ou de réparer ces tissus endommagés. Plusieurs  méthodes se basent sur l'injection de cellules souches prélevées sur le patient  dans le coeur endommagé pour qu'elles s'y multiplient et  différencient. Thomas Webster affirme que les  recherches menées à Brown University sont porteuses d'espoir car le patch a la  spécificité d'aider trois types de cellules à se régénérer : les cellules  musculaires ou cardiomyocytes qui font battre le coeur, les cellules nerveuses  qui les aident à se contracter et les cellules endothéliales qui tapissent les  vaisseaux sanguins à proximité du coeur. Les conclusions ont montré que le patch  de nanotubes de carbone est semblable au tissu cardiaque naturel, ce qui  accélère la régénération de ces trois types de cellules qui fonctionnent de  façon interdépendante. Bulletins Electroniques |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Le lapatinib est une molécule  qui inhibe deux facteurs de croissance : le HER2 (Human Epidermal Growth  Factor Receptor 2) et l’EGFR (Epidermal GRowth Factor Receptor).  Il est utilisé en association avec de la chimiothérapie pour lutter contre les  cancers du sein métastatiques. Le protocole est efficace chez les femmes dont la  tumeur a augmenté malgré d'autres traitements. Devant les bons résultats obtenus  dans ce cadre, plus de 200 essais cliniques à travers le monde tentent de  vérifier si ce double inhibiteur ne serait pas tout aussi utile pour lutter  contre d'autres formes de cancers. Selon les données obtenues par Wafik  El Deiry et ses collègues de l'Université de Pennsylvanie à Philadelphie  (États-Unis), le lapatinib pourrait, en association avec des agents  proapoptotiques (TRAIL – Tumor Necrosis Factor-related Apotosis-inducing  Ligand, qu'ils ont découvert en 2007), augmenter par sensibilisation la mort  des cellules tumorales. Les travaux ont été effectués chez la souris, et  le traitement (double dose par rapport à celui utilisé dans le cancer du sein) a  été très bien toléré. Les chercheurs estiment que cette association  thérapeutique pourrait être très bénéfique pour le cancer du côlon et ils  espèrent pouvoir lancer bientôt un essai clinique chez l'homme. Information Hospitalière |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Les exercices mettant en œuvre la mémoire à court terme d'un enfant  favorisent ses capacités de raisonnement… si l'enfant est  motivé. Le célèbre jeu d'entraînement cérébral du Docteur  Kawashima sur console portable est-il efficace ? Si oui, à quel public  s'adresse-t-il ? Les offres commerciales d'entraînement cérébral, ou plutôt  cognitif, ne cessent de se multiplier, sans que l'on sache vraiment si elles  améliorent les capacités de réflexion. Susanne Jaeggi et ses collègues, du  Département de psychologie de l'Université du Michigan, aux États-Unis, montrent  qu'un entraînement cognitif de la mémoire dite de travail améliore les capacités  de raisonnement des enfants. Mais tous les enfants n'en tirent pas les mêmes  bénéfices… La capacité de raisonner et de résoudre des  tâches nouvelles, nommée l'intelligence fluide, est un facteur de l'intelligence  générale ciblé par les exercices cognitifs. L'autre forme d'intelligence, dite  cristallisée, est la capacité à utiliser ses connaissances et ses compétences.  Certains entraînements cognitifs pourraient améliorer l'intelligence fluide,  notamment ceux mettant en œuvre la mémoire de travail (ou à court terme),  c'est-à-dire le système cognitif qui permet de stocker et de manipuler  temporairement  des données en nombre limité. La mémoire de travail intervient  en particulier dans des tâches cognitives complexes, telles que lire, raisonner  et résoudre des problèmes. Elle se met en place progressivement dans  l'enfance. Pour montrer que l'entraînement cognitif faisant  intervenir la mémoire de travail améliore l'intelligence fluide, les  psychologues américains ont entraîné pendant un mois 62 enfants âgés d'environ 9  ans, à raison de cinq séances de 15 minutes par semaine. Le premier groupe  d'enfants réalisait un exercice mettant en œuvre la mémoire de travail : ils  visionnaient des séquences de jeux vidéo où une cible apparaissait à différents  endroits de l'écran. Quand le stimulus réapparaissait à un endroit où il était  déjà passé, les enfants devaient appuyer sur un bouton. Le second groupe  d'enfants réalisait plutôt des exercices de vocabulaire et de culture générale,  destinés à stimuler leur intelligence cristallisée. Pour motiver les enfants,  tous les entraînements utilisaient des images et des graphismes attrayants  semblables à ceux des jeux vidéo. Avant, juste après et trois mois après les  sessions d'entraînement, les chercheurs ont mesuré les performances des enfants  à l'aide de deux tests de raisonnement classiques en psychologie  cognitive. Résultat, les enfants ayant travaillé leur  mémoire de travail présentaient une meilleure capacité de raisonnement juste  après l'entraînement, mais aussi trois mois après, en comparaison avec les  enfants ayant stimulé leurs connaissances générales. Preuve que l'entraînement  cognitif aurait un effet à long terme. Cela dit, le bénéfice était faible (de l'ordre de  20 pour cent) et certains enfants ne s'étaient pas améliorés. Pour quelle raison  ?  Les enfants les moins motivés et les moins enthousiastes lors de  l'entraînement cognitif, ainsi que ceux qui trouvaient l'entraînement trop  compliqué, ont eu les moins bons résultats.  Cela suggère qu'un entraînement de  la mémoire de travail n'est efficace que s'il est adapté aux capacités des  participants – il ne doit être ni trop simple, ni trop compliqué – et s'il est  réalisé de façon ludique. Ainsi, les jeux de soi-disant docteurs sur consoles  portables vous feront-ils progresser ou amélioreront-ils les résultats scolaires  de vos enfants ? Rien n'est moins sûr. Pour la Science |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des souris amnésiques ont retrouvé la mémoire grâce à  une greffe de cellules souches nasales humaines. C'est le résultat d'une  expérience de thérapie cellulaire inédite menée par plusieurs équipes  universitaires associées au CNRS, en collaboration avec une équipe du CHU Nord  de Marseille (APHM). Leurs travaux viennent d'être publiés dans The Journal of  Clinical Investigation. Quatre équipes de recherche  basées à Marseille et Montpellier1 ont mené une étude préclinique originale :  elles ont analysé les effets d'une transplantation de cellules souches  olfactives humaines dans le cerveau ou le liquide céphalo-rachidien de souris  rendues amnésiques. Quatre semaines après la greffe, des tests comportementaux  ont montré que les souris transplantées avaient retrouvé leurs capacités à  apprendre et à mémoriser l'emplacement d'un objet ou l'association d'une  récompense avec une odeur. Les animaux greffés ont réalisé des scores similaires  à ceux observés chez les animaux non lésés tandis que les souris lésées et non  greffées demeuraient incapables de réaliser ces tâches d'apprentissage et de  mémorisation. Par ailleurs, ces résultats ont été confirmés par l'analyse des  tissus : les cellules souches nasales humaines se sont implantées dans les zones  lésées et différenciées en neurones. Enfin, la greffe de ces cellules souches a  permis de restaurer partiellement le phénomène de potentialisation à long terme,  l'un des mécanismes de base de la mémorisation. L'utilisation de cellules  souches nasales présente de nombreux avantages : elles sont faciles à prélever  et à cultiver. De plus, chaque individu peut être son propre donneur, ce qui  élimine tout risque de rejet immunitaire tout en garantissant un accès immédiat  à ces cellules. A plus long terme, cette étude pourrait ouvrir la voie à un  essai clinique basé sur l'autogreffe de cellules souches nasales chez des  patients souffrant d'une amnésie post-traumatique ou post-ischémique. Par  ailleurs, ces recherches se poursuivent sur des modèles animaux de la maladie  d'Alzheimer. CNRS |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Aux États-Unis, les podologues et les cliniques du sport ont  signalé une «forte» recrudescence des blessures liées à la mode de la course  naturelle, d'après Triathlon.competitor.com, qui qualifie le phénomène  d'«épidémie». Les chaussures ne seraient pourtant pas en cause. Les chaussures de course minimalistes, qui permettent d'adopter une foulée  plus naturelle, sont très tendance. Mais une recrudescence de blessures a été  observée chez leurs adeptes. Cependant, le magazine américain spécialisé dans le fitness Men's  Health indique dans un article du 21 juin que les blessures des coureurs ne  sont pas imputables à leurs nouvelles chaussures, mais plutôt à la faiblesse de  leurs pieds et à leurs erreurs de posture. Robert Gotlin, directeur du département orthopédie et rééducation sportive au  centre médical Beth Israel de New York, estime que c'est une question de  biomécanique. Les coureurs qui portent des chaussures ont tendance à atterrir  sur le talon, alors que ceux qui courent pieds nus atterrissent sur l'avant du  pied. Cela «change l'impact sur le pied et le bas du corps. Lorsque vous posez  l'avant du pied en premier, l'impact sur le corps est grandement réduit»,  précisait-il dans un communiqué de presse l'année dernière. Les coureurs qui  souhaitent s'adonner à la course naturelle en portant des chaussures  minimalistes doivent donc penser à modifier leur foulée. En continuant de poser  le talon en premier dans des chaussures qui ont moins d'amortis que les  chaussures de course standard, ils risquent la blessure. Une équipe de chercheurs d'Harvard a filmé des coureurs sur des tapis, ayant  adopté les deux types de foulés et a mesuré leur impact. En posant le talon en  premier, comme le font 75 % des coureurs, l'impact peut atteindre trois fois le  poids du corps, que le coureur porte des chaussures ou non. Men's Health a noté que les chercheurs continuent de mener des études comparatives sur les  taux de blessures associées aux chaussures de course minimalistes et standards,  mais qu'il faudra attendre quelques années avant d'avoir des résultats probants.  La course naturelle est-elle faite pour vous ? Peut-être. Si vous souffrez de  blessures dues à l'effort, le Docteur Daniel Liberman de l'Université de Harvard  recommande dans l'article d'essayer de changer votre foulée pour atterrir sur  l'avant du pied. Et ne soyez pas trop pressé pour passer de la course en  chaussures traditionnelles à la course en chaussures minimalistes. Si vous êtes  en surpoids ou que vous avez des problèmes orthopédiques sérieux, mieux vaut  oublier les chaussures minimalistes et choisir des chaussures qui offrent plus  de soutien. Triathlon.competitor.com ajoute que les coureurs avec «des  pieds désavantagés sur le plan biomécanique» ont besoin de chaussures adaptées.  En d'autres termes, si vous avez des problèmes de stabilité, que vous êtes  hyperpronateur ou hypersupinateur, vous aurez besoin de chaussures capables de  vous rééquilibrer. La meilleure façon de savoir si vous appartenez à l'une de  ces catégories est de rendre visite à une clinique du sport ou un magasin  spécialisé dans la course pour faire examiner votre foulée par des  experts. Il est également conseillé de commencer doucement, sur un tapis de course, en  prêtant attention au bruit de votre pied lors de l'impact. «Pour courir sans  bruit, votre corps doit trouver l'équilibre: votre foulée en sera raccourcie,  les pieds s'aligneront avec les hanches, et votre posture se redressera, ce qui  facilitera l'atterrissage sur le milieu du pied», indique Men's Health.  Enfin, certains exercices peuvent aider à vous renforcer les pieds avant la  course. Essayez par exemple de saisir une serviette avec les doigts de pied dix  fois de suite, de vous reposer 30 secondes, avant de recommencer deux fois. Vous  pouvez également tenir en équilibre sur une jambe pendant 30 secondes, en  gardant l'autre jambe pliée. Changez de jambes et répétez l'exercice cinq  fois. Cyberpresse |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  "Sans que l'on sache pourquoi ni comment,  l'espérance de vie de l'espèce humaine rallonge de six heures  par jour. Et l'on peut accélérer le processus !" Tignasse en bataille et faux  air de Pedro Almodovar, le professeur Radman est l'un des plus grands  spécialistes de l'ADN. Dans son laboratoire parisien à la faculté de médecine de  l'université René-Descartes à Paris, les microscopes électroniques sont alignés  comme des batteries de canons sur le pont d'un navire. Ce fils de pêcheur  croate, né à Split il y a soixante-sept ans, s'est mis en tête de percer le  secret de l'immortalité. Pas moins ! Tel un Christophe Colomb de la science,  Miroslav Radman explore la chimie du vieillissement en empruntant de nouvelles  routes. Et ce qu'il a découvert pourrait bien révolutionner  l'humanité. Courtisé par les plus prestigieuses universités  américaines, c'est en France que ce surdoué a jeté l'ancre. Après trente ans de  recherche au CNRS puis à l'Inserm, Miroslav Radman est convaincu d'avoir trouvé  le chemin vers l'élixir de jouvence. "C'est en décortiquant une étrange bactérie  que j'ai acquis la conviction qu'il devenait possible de prolonger la vie  humaine, en bonne santé, bien au-delà de ce qui est imaginable aujourd'hui." Une  aventure que le biologiste, devenu lui-même immortel depuis qu'il est entré à  l'Académie des sciences, raconte dans un livre vivifiant. Cette bactérie qui recèlerait, comme une  poignée d'autres bestioles microscopiques, l'arme contre le vieillissement,  c'est la "bactérie du corned-beef" découverte en 1956 dans des conserves de  viande stérilisées à coups de rayons gamma. Une coriace capable de résister à  des radiations 10 000 fois supérieures à la dose mortelle chez l'homme. Au point  que certains se sont même demandé si Deinococcus radiodurans - c'est son nom  scientifique - n'était pas venue de l'espace ! Ayant voyagé sur une météorite,  elle aurait été irradiée et totalement desséchée, ce qui expliquerait sa  phénoménale résistance à la déshydratation. "En plein désert, brûlée par les  rayons du soleil, Deinococcus peut, grâce à une seule goutte de pluie,  ressusciter des dizaines, peut-être des centaines d'années plus tard",  s'enthousiasme le chercheur, dont les yeux pétillants accrochent le regard  presque autant que son polo rose fuchsia. Quel est le secret de la bactérie du  corned-beef ? "À partir d'un état de mort clinique, elle ressuscite en  s'autoréparant grâce à un jeu de deux copies de son génome. Si vous avez sous la  main plusieurs puzzles identiques avec des pièces manquantes, vous pouvez en les  utilisant tous en faire un qui soit complet. La difficulté est de remettre en  ordre des centaines de fragments d'un génome pulvérisé par la radiation, ce que  Deinococcus radiodurans parvient à faire en trois ou quatre heures", explique le  biologiste en mimant l'opération de ses mains. Les protéines mécanos qui rafistolent le puzzle  sont à l'oeuvre dans tous les organismes vivants. Elles devraient donc  normalement nous protéger contre la rouille moléculaire provoquée par les  radicaux libres. Alors pourquoi ne font-elles pas le boulot chez nous ? "Le  problème est que ces protéines sont aussi victimes de la corrosion et deviennent  moins efficaces." La botte secrète de Deinococcus, c'est un cocktail de  molécules qui lui permet de blinder ses enzymes réparatrices contre la rouille  moléculaire. "Nous disposons aussi d'une protection antioxydante - sans elle  nous serions cramés avant même de pouvoir nous reproduire -, mais en quantité  insuffisante pour vivre aussi longtemps que nous le souhaiterions." Une fois les  pièges antiradicaux identifiés, le professeur Radman envisage de tester dès que  possible cet élixir chez la souris. "Ce sera le grain de sable qui viendra  ralentir, sinon arrêter, le tic-tac de notre horloge biologique. D'ici à une  dizaine d'années, nous pourrions disposer d'un "vaccin" qui nous prémunisse  individuellement contre le vieillissement et les maladies qui  l'accompagnent." Depuis deux ans, Miroslav Radman toque à la  porte des instances nationales et européennes de la recherche en expliquant  qu'il a besoin de 1 à 3 millions d'euros pour poursuivre ses travaux. "Leur  réponse ? Le vieillissement est un processus très complexe, ce que vous dites  est trop simple, ça ne peut pas marcher. Les scientifiques qui siègent dans les  instances d'évaluation sont des ultraspécialistes, ils ne comprennent pas  pourquoi, à 60 ans passés, je veux changer de sujet de recherche alors que je  pourrais prospérer dans le domaine qui m'a fait connaître : la réparation de  l'ADN. Le système est hostile aux scientifiques qui refusent de creuser dans le  même trou !" Chercher là où les autres ne cherchent pas,  c'est ce qui intéresse par-dessus tout Miroslav Radman.  "Le dirigisme étouffe  la science ; ce n'est pas aux politiques ni aux industriels de fixer un cap aux  chercheurs, s'énerve celui qui a grandi dans l'ex-Yougoslavie de Tito. Chaque  grande découverte est une surprise aussi pour son découvreur. C'est en partant  vers l'Inde que Christophe Colomb a découvert l'Amérique." Le Point |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Plusieurs études distinctes ont conclu que des  scanners cérébraux permettraient de détecter des années plus tôt la maladie  d'Alzheimer chez une personne. Un appareil capable d'établir ce type de  diagnostic devrait être au point dans les douze prochains  mois. Des chercheurs ont réussi à mettre au point une  technique qui permettrait de prévoir quelles personnes sont susceptibles d'être  atteintes de maladies débilitantes dix ans avant que les premiers symptômes apparaissent. Grâce à cela, il serait possible de mettre en place un  traitement et de se préparer avant que les effets dévastateurs se  manifestent. The Telegraph rapporte que plusieurs équipes de  recherches à travers le monde travaillent sur l'utilisation possible des  scanners obtenus grâce au PET (pour "positron emission tomography"), un matériel  d'imagerie de pointe. De nouvelles études réalisées par les universités  américaine et australienne du Texas et de Melbourne viennent d'être publiées.  Celles-ci affirment être parvenues à une technique  performante. Le principe consiste à contrôler le  développement de la bêta-amyloïde, une protéine connue comme étant liée aux  démences et aux maladies cognitives. Elle serait potentiellement à l'origine des  blocages entraînant des problèmes dans les processus de réflexion. Les études  menées ont également pu mettre en évidence, avec dix ans d'avance, la présence  d'images cérébrales qui rendent les scientifiques capables de prédire une  maladie d'Alzheimer future. Le professeur David Brooks du Collège impérial  de Londres s'enthousiasme : "S'il y avait une manière de traiter la protéine  amyloïde, cela serait vraiment prometteur". Car utiliser les images des scanners  permet non seulement d'anticiper sur le diagnostic et donc sur la prise en  charge, mais permet également d'apporter des indications sur ce qui est en train  de se dérouler au sein du cerveau lorsque la maladie est déclarée. Maxisciences |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Un laboratoire argentin a réalisé une première  mondiale en faisant naître Rosita, une vache Jersey portant deux gènes humains.  L'Institut national de technologie agricole argentin a annoncé la conception du  « premier bovin né au monde avec deux gènes humains contenant les protéines  présentes dans le lait maternel ». Autrement dit, l'animal va donner du  lait similaire à celui des humains. Le fait que la génisse porte deux gènes  modifiés est inédit. L'un des responsables de cette expérience, Adrian Mutto, a  expliqué : « L'objectif était d'améliorer la valeur nutritionnelle du lait  de vache en ajoutant deux gènes humains, la protéine lactoferrine et le  lysozyme ». Le lait ainsi enrichi favorise l'assimilation du fer pour la  fabrication des globules rouges, le développement des dents et de certaines  cellules (intestinales, antibactériennes, antivirales et  antifongiques). Plusieurs études relayées par l'Organisation  mondiale de la santé (OMS) prouvent en effet que le lait maternel est meilleur  pour les nourrissons que ses substituts en poudre. La vache née en Argentine  pourrait donc aider les orphelins et les mères qui n'ont pas la possibilité  d'allaiter. L'équipe argentine espère donc produire un lait similaire à celui  des êtres humains. Les petits de Rosita « auront des gènes modifiés dans 25  à 30 % des cas, ce qui ouvre des perspectives pour les générations futures ». On ne saura que dans 10 mois si le lait de la génisse possède bien les  propriétés du lait maternel humain. Elle pourra faire l'objet d'une simulation  de grossesse. Des chercheurs chinois ont annoncé récemment  avoir mis au point un procédé similaire, mais en clonant deux vaches portant  chacune l'un des deux gènes, alors que l'équipe argentine a réussi à implanter  les deux dans une même vache. Le veau est né le 6 avril «par césarienne, en  raison de son poids excessif, 45 kilos, alors que les (vaches) Jersey ne  dépassent pas habituellement les 22 kilos» à la naissance, selon l'INTA. Il est  surveillé «24 heures sur 24», a expliqué Nicolas Mucci. Les chercheurs argentins ont introduit les deux  gènes dans une même cellule en une seule injection et non en deux comme cela se  faisait auparavant. «C'est très important, car cela améliore l'efficacité du  procédé», a-t-il assuré. A l'âge adulte, la vache pourra «avoir des enfants qui  auront des gènes modifiés dans 25 à 30 % des cas», a-t-il ajouté, «ce qui ouvre  des perspectives pour les générations futures», selon l'INTA. Un laboratoire  privé argentin avait créé le premier veau génétiquement modifié au monde en 2004  avec dans son ADN une hormone de croissance humaine permettant de produire des  hormones de croissance à partir de lait de vaches génétiquement  modifiées. Youtube |  |  |  
			| ^ Haut |  |  |  |  
                                    	
                                    		| 
                                    				|  |  
                                    					|  | 
                                    							Recherche & Innovation, Technologies, Transports
                                    								|  |  |  
                                    								|  | Recherche |  |  |  |  |  |  |  |  |  |  |  
                                    		| 
	
		|  |  
		| 
				|  |  
					|  |  |  Rallier Paris à Tokyo en 2h30. Ce sera  peut-être possible aux alentours de 2050. EADS, la maison mère d'Airbus, a lancé  des études pour développer un prototype qui ressemble physiquement au Concorde  dont les derniers vols commerciaux se sont arrêtés en 2003. La motorisation de  cet avion du futur destiné aux voyages d'affaires avec une capacité de 50 à 100  sièges, permettrait tout à la fois de voler à très grande vitesse tout en étant  écologique puisque son objectif est zéro émission polluante. Le premier vol  expérimental de cette "avion-fusée pourrait intervenir d'ici 2020, c'est à dire  plus de 50 ans aprés le premier vol du "Concorde". Le projet a été baptisé ZEHST dans le cadre  d'un partenariat associant EADS, l'ONERA, le laboratoire de recherche  aérospatial français ainsi que le Japon. Une étude de faisabilité, financée par  la Direction générale de l'aviation civile (DGAC) et son homologue nippone, a  été lancée. Elle s'appuie sur les premiers résultats des recherches menées par  Astrium, la filiale spatiale du géant européen de l'aéronautique, dans le cadre  de son programme d'appareil sub-orbital, le Space plane. L'originalité de cet appareil réside dans  l'utilisation alternative de trois types de propulsion qu'il utilisera pendant  les différentes phases du vol : du décollage jusqu'à 5000 mètres d'altitude,  c'est un turbo-jet qui propulsera l'avion mais celui-ci utilisera des  biocarburants de 3e génération développés à partir de la culture d'algues. Lors  de la montée en altitude, au-delà de 20.000 mètres à 0,8 mach, l'appareil  utilisera des moteurs cryogéniques comme ceux du lanceur Ariane, alimentés par  de l'hydrogène. Puis pour le passage à sa très grande vitesse de croisière (mach  4) et à une très haute altitude (32.000 mètres), ZEHST utilisera des moteurs  appelés Ramjets (qui équipent aujourd'hui aux missiles de croisière). Pour  l'atterrissage, le pilote coupe les moteurs et amorce sa descente en planeur,  avant de se poser en remettant les moteurs classiques de  l'appareil. Ces moteurs fonctionnent à l'hydrogène et  l'oxygène. Ils sont donc "totalement propres et ne dégagent que de la vapeur  d'eau", souligne Jean Botti, responsable de l'innovation" chez EADS. EADS |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  La maladie d'Alzheimer va peser de plus en plus  lourdement sur l'économie mondiale dans les années qui viennent, à mesure que la  population vieillit, ont averti récemment des experts réunis au Congrès  américain qui se plaignent du peu de moyens dont dispose la recherche contre ce  mal qui touchera 115 millions de personnes d'ici une quarantaine d'années. Entre 24 et 37 millions de personnes dans le monde souffrent aujourd'hui de  la maladie d'Alzheimer. Et ce chiffre devrait atteindre les 115 millions d'ici à  2050, estiment les experts de cette maladie incurable. Devant la commission des  Affaires étrangères de la Chambre des représentants, une poignée d'entre eux  sont venus témoigner des risques que court l'humanité si la recherche n'est plus  en mesure d'avancer faute de fonds suffisants. La maladie "est la crise sanitaire et sociale la plus grave du XXIe siècle",  a lancé Daisy Acosta, présidente de l'association Alzheimer's Disease  International, dont le siège se trouve à Londres. Mme Acosta a évalué à 604  milliards de dollars le coût de la maladie d'Alzheimer en 2010, soit un pour  cent du PIB mondial. "Si c'était un pays, ce serait la 18e économie du monde en  termes de PIB ", a-t-elle observé.  Mais les sommes consacrées à la recherche  sont minimes par rapport à d'autres maladies, a observé Bill Thies, de  l'Alzheimer's Association. "Nous investissons six milliards de dollars par an contre le cancer, 4  milliards contre les maladies cardio-vasculaires et 2 milliards contre le sida.  Pour Alzheimer, nous en sommes aux alentours de 450 millions", a-t-il relevé.  George Vradenburg, de l'organisation USAgainstAlzheimer, a souligné que les pays  occidentaux étaient les plus menacés par la dégradation du rapport  actifs/inactifs et par la hausse des coûts de la santé. "Cela crée des tensions pour les systèmes de soins dans le monde entier. Cela  risque de provoquer un ralentissement de la croissance économique dans les pays  développés, particulièrement l'Europe occidentale et la ceinture du Pacifique",  a-t-il pronostiqué. Selon M. Vradenburg, une personne sur deux souffre de démence après 85 ans.  "Les pays qui trouveront le moyen de soutenir leurs personnes âgées en les  maintenant en bonne santé et dans le système de production seront les vainqueurs  du XXIe siècle", a-t-il affirmé. "Nous allons être de plus en plus aux prises  avec une population physiquement capable mais mentalement handicapée", a ajouté  l'expert, appelant les Etats à trouver des outils de travail pour les malades  afin d'éviter un effondrement économique. "Il faut faire du troisième âge des  contribuables productifs faisant partie de la population active et non plus des  assistés sociaux", a-t-il plaidé. La Tribune |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Voler grâce à de l’huile de friture usagée, c’est  l’avenir pour la compagnie aérienne néerlandaise KLM qui vient d’annoncer  qu'elle allait utiliser à partir de septembre ce biocarburant pour plus de 200  vols commerciaux assurant la liaison Amsterdam-Paris. «Il y aura 50 % de  kérosène traditionnel et 50 % de biocarburant qui a été obtenu à partir d'huile  de friture usagée», a déclaré à l'AFP Gedi Schrijver, une porte-parole de KLM,  qui affirme que la compagnie néerlandaise est la première à assurer des vols  commerciaux avec ce type de carburant. «Le biocarburant que KLM utilise répond  aux mêmes spécifications techniques que le kérosène traditionnel», assure KLM  dans un communiqué : «il n'y a donc pas besoin d'adapter les moteurs des avions  ou les infrastructures». Produit par la société américaine Dynamic Fuels,  le biocarburant est obtenu à partir d'huile de friture, principalement végétale,  provenant de restaurants. KLM assure, dans son communiqué, avoir franchi un «cap  important pour rendre l'aviation plus durable». Le premier vol de démonstration de KLM avec un  avion utilisant du biocarburant à base d'huile de friture a eu lieu en novembre  2009, a rappelé Gedi Schrijver. «Nous n'avons pas encore déterminé la fréquence  des vols ni la période sur laquelle les 200 vols auront lieu», a expliqué la  porte-parole, selon laquelle KLM assure six vols quotidiens  Amsterdam-Paris. 20 minutes |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Des  chercheurs de l’université de Koc à  Istambul ont mis au point un  système conçu pour améliorer la reconnaissance et l’interprétation des données  fournies par un GPS par les automobilistes. Ils se sont en effet rendus compte  que l’utilisation d’un système de navigation peut parfois déconcentrer un  automobiliste, lorsque par exemple celui-ci reste les yeux rivés sur l’écran. En  effet, ces outils ne se basent que sur les perceptions visuelles et auditives.  Ainsi, les chercheurs ont mis au point un émetteur de vibrations installé dans  le volant de la voiture. Ce dernier est directement lié au GPS ce qui lui permet  de réagir en temps réel avec les données relatives à la navigation que ce  dernier fournit. Cette  solution permet ainsi aux conducteurs de mieux percevoir la route et de mieux  gérer les directions dans lesquelles ils doivent se diriger. En effet, il arrive  que le conducteur discute avec les autres passagers, écoute de la musique, et  soit moins concentré sur l'écran et la voix du GPS. Cela peut donc détourner son  attention lorsqu’il faut changer de direction par exemple. De cette manière, si  le GPS indique qu’il faut tourner à gauche dans 200 mètres,  la partie gauche de  son volant se mettra à vibrer. Au cours de  leurs expériences, les scientifiques ont noté que les erreurs de direction  étaient plus fréquentes lorsque les conducteurs ne bénéficiaient que  d’indicateurs sonores et visuels, que lorsque des signaux tactiles intervenaient  en complément. Reste à savoir quelle solution adopter si le conducteur n’a pas  les deux mains posées sur le volant. Pour information, ce système est encore en  phase expérimentale. Il a été présenté au salon de Worlde  Haptics les 21 et 24 juin à Istanbul, un événement consacré notamment aux nouvelles technologies  tactiles. L'Atelier |  |  |  |  |  |  |  
	
		|  |  
		| 
				|  |  
					|  |  |  Airbus vient de dévoiler son avion du futur. Prévu  pour 2050, cet appareil transparent sera équipé d'innovations technologiques  dignes d'un film de science-fiction. Bien qu'un tel appareil ne puisse pas être  mis en circulation avant 2050, Airbus a présenté ce qui sera son avion du  futur. Transparente, la coque de l'appareil offrira un panorama sans pareil aux  passagers de cet avion. Le revêtement extérieur devrait également être capable  d'évoluer et de changer d'aspect en fonction des conditions climatiques. Selon  le constructeur, l'avion a été pensé pour posséder une "structure bionique  calquée sur l'ossature d'un oiseau". Côté innovations, Airbus n'en reste pas là. Les  différentes classes et leur répartition à l'intérieur de l'engin ont été  complètement repensées. Désormais démocratisé, l'avant de l'avion disposera d'un  espace de relaxation tandis que l'arrière sera dévolu au travail avec des  conférences virtuelles disponibles. D'autres secteurs devraient également faire  leur apparition avec des espaces de "socialisation" équivalents aux wagons bars  des TGV ainsi que des aires interactives avec des jeux vidéo et des boutiques  virtuelles. Le must, des espaces dits "vitalisants" et "antistress" capables de  proposer des vitamines, de l'air enrichi aux antioxydants, des huiles  essentielles ou encore de l'acupression. La cabine, "intelligente", saura  s'adapter aux voyageurs et pourra "identifier et répondre à leurs  besoins". En outre, Airbus prévoit d'alimenter tous ces  différents gadgets grâce à la chaleur corporelle dégagée par les passagers ! Le  constructeur ne compte pas en rester là et les ingénieurs sont actuellement à  pied d'oeuvre pour parvenir, à terme, à réduire le bruit en vol et à diminuer la  consommation de carburant. Airbus |  |  |  
			| ^ Haut |  |  |  |  |  |  
							
								|  | 
										
											| VOTRE INSCRIPTION |  |  |  
											| Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire.
 Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
 
 |  |  |  |  |  |