|
|
Edito
Connaissance du code génétique : l'aventure ne fait que commencer
Au cours de ces dernières semaines, deux découvertes fondamentales sont venues enrichir et complexifier notre vision du code génétique et de ses mécanismes de fonctionnement. La première découverte concerne un des fondements de la biologie moderne : l'ADN est transcrit en un ARN qui lui-même permet la production d'une protéine. Pour être efficace, cette "photocopie" doit être le plus fidèle possible et comporter un minimum d'erreurs de "traduction".
En premier lieu, à une séquence d'ADN (constituée des quatre nucléotides désignés par les lettres A, T, C et G) correspond une unique séquence d'ARN grâce aux règles de complémentarité (G et C, A et U, le U remplaçant le T). Par exemple, la séquence d'ADN aatcga est transcrite en UUAGCU. Ensuite, chaque triplet de l'ARN (trois lettres consécutives, tels UUA, GCU...) détermine un acide aminé de la protéine. Mais ce principe général vient d'être remis en question par une équipe de recherche américaine dirigée par Vivian Cheung, de l'Université de Pennsylvanie, à Philadelphie, aux États-Unis. Ces chercheurs ont montré que, dans de nombreux cas, la transcription de l'ADN en ARN est bien moins fidèle que prévu.
En comparant des séquences d'ADN et d'ARN correspondants dans des lymphocytes B (des globules blancs) de 27 individus, les chercheurs américains sont parvenus à repérer plus de 10 000 localisations où les deux molécules diffèrent; ils ont également pu constater, pour 40 % des gènes observés, l'existence d'au moins une erreur de transcription. Ces découvertes montrent donc que la nature des protéines produites n'est pas réductible à la seule séquence des gènes impliqués.
Procédant de manière rigoureuse, les chercheurs américains ont reproduit ces observations avec plusieurs types de cellules différents (os peau, cerveau...), provenant de sujets d'âge variable et les résultats ont dans tous les cas été semblables ce qui montre que ce mécanisme inconnu n'est pas spécifique aux lymphocytes B. L'équipe américaine a également souligné une autre découverte surprenante: à une modification de transcription en un site correspond toujours le même remplacement : par exemple, lorsqu'un C est observé dans l'ARN à la place d'un A, on retrouvera bien ce C chez tous les autres sujets examinés.
Selon V. Cheung, une telle constance ne peut être le fruit du hasard et correspond à un code inconnu à ce jour. Ces résultats confortent fortement l'hypothèse d' un nouveau niveau de diversité génétique et montrent que le séquençage complet du génome humain est loin de nous apporter les clés de la connaissance de notre génome car, tel l'arbre qui cache la forêt, derrière l'ADN, les mécanismes de transcription des ARN semblent bien plus subtils et complexes que prévus.
Il semble donc, ce qui est confirmé par observation utilisant de nouvelles techniques d'imagerie, que notre génome fonctionne simultanément sur plusieurs niveaux d'organisation : les 23 paires de chromosomes sont enroulées autour de protéines (histones) et compactées pour tenir en totalité dans le noyau. Quant aux chromosomes, ils occupent des localisations spatiales distinctes (à la périphérie ou au centre) qui ont une influence majeure sur leur fonctionnement.
La deuxième découverte, réalisée par des chercheurs québécois et américains dans le cadre du projet CARTaGENE, concerne le rythme de transmission des mutations génétiques d'une génération à l'autre. Selon ces recherches, une soixantaine de nouvelles mutations génétiques seulement sont transmises par les parents à leur enfant. C'est beaucoup moins que ce que les estimations avancées jusqu'à présent et cette avancée remet en question l'échelle de temps utilisée pour calculer le rythme d'évolution de notre espèce au fil des générations.
Le génome humain est constitué de près de six milliards d'éléments d'information appelés nucléotides. Chaque parent en transmet trois milliards à son enfant. Une seule erreur de copie d'un seul nucléotide peut se traduire par une mutation génétique. Les généticiens pensaient jusqu'à maintenant que les parents contribuaient à une moyenne de 100 à 200 erreurs dans les nucléotides transmis à leur enfant. Ces travaux montrent que c'est plutôt, en moyenne, une trentaine de nouvelles mutations génétiques qu'un parent transmet à son enfant. Ces mutations font émerger de nouvelles séquences génétiques et jouent un rôle clé dans le processus d'évolution des espèces, notent les auteurs de ces travaux.
Les généticiens vont donc devoir réviser le nombre de générations qui séparent des espèces qui sont génétiquement apparentées, comme les humains et les grands singes, car l'évolution pourrait être 30 % moins rapide qu'on le pensait. L'époque de la divergence entre homme et chimpanzé pourrait ainsi être repoussée de 7 millions d'années dans le passé, comme le suggèrent déjà de récentes découvertes fossiles. Ce "recalage" des échelles chronologiques des mutations génétique aura bien sur un impact important sur la théorie de l'évolution et ne va pas manquer de relancer le débat entre les différentes approches de la théorie de Darwin (gradualistes et ponctualistes).
Les chercheurs ont aussi constaté que le père transmet davantage de mutations à l'enfant que la mère, puisque les erreurs surviennent pendant la division cellulaire et la réplication de l'ADN et que les hommes produisent plus de gamètes (spermatozoïdes) que les femmes (ovules). Jusqu'à présent, il était admis qu'un plus grand nombre de mutations proviennent des hommes. Or, dans les deux familles étudiées, les résultats ont été tout à fait surprenants : 92 % des mutations ont été transmises par le père dans une des familles, mais seulement 36 % dans l'autre. Ces résultats suggèrent que dans certaines familles, la plupart des mutations viennent de la mère et que dans d'autres, au contraire, l' essentiel des mutations proviennent du père. En outre, le taux de mutations est extrêmement variable d'un individu à l'autre.
On le voit, ces deux découvertes passionnantes et inattendues, dont l'une concerne l'individu et l'autre l'espèce humaine, montrent que les lois de l'hérédité et les mécanismes raffinés qui régissent notre code génétique, tant au niveau de l'individu que de l'espèce humaine, sont loins d'avoir livré tous leurs secrets. En dépit de la prouesse technologique que représente le séquençage complet du génome humain, nous voyons que cette avancée, certes importante, ne constitue qu'une étape dans la compréhension d'un vaste continent scientifique dont l'exploration ne fait que commencer....
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
Nota : Pour la partie technique de la transcription de l’ADN , je me suis permis de reprendre dans cet édito des passages de l’excellent article de la revue « Pour la Science » que nous vous avons communiqué dans le précédent numéro de RT Flash et que vous pouvez retrouver à l’adresse suivante :
Pour La Science
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Aumont-Aubrac, une commune lozérienne de 1 147 habitants, dispose désormais d’un réseau en fibre optique permettant de raccorder en très haut débit (100 Mégabits/s) la totalité des foyers (612 prises raccordables).
L’opération a été portée par le conseil général de la Lozère, en partenariat avec l’opérateur Altitude Infrastructure. Elle s’inscrit dans le cadre de l’appel à projets lancé par le Commissariat général à l’investissement pour expérimenter les conditions techniques du déploiement de la fibre optique dans les zones les moins denses du territoire. A un coût raisonnable en milieu très rural – La consultation a permis de désigner 7 projets pilotes dont celui d’Aumont-Aubrac. « Il s’agissait de montrer que la fibre optique jusqu’à l’abonné (FTTH) peut être mise en œuvre en milieu très rural à un coût raisonnable », souligne Patrick Boyer, directeur des TIC au conseil général. Le réseau FTTH d’Aumont-Aubrac a pu être créé grâce à l’existence d’une artère en fibre optique déployée depuis 2008 sous l’autoroute A 75, dont le village est proche. Il comporte 11 km de fibre.
L’investissement (820 000 euros) a été cofinancé par :
- le conseil général (43,9 %),
- et Altitude Infrastructure, via sa filiale Net 48 (13,9 %).
« Nous avons optimisé toutes les techniques de pose pour limiter l’impact sur l’environnement et minimiser les coûts, explique Patrick Boyer. Nous avons utilisé des fourreaux d’Orange dans le cœur de bourg, mis en œuvre des techniques de micro-tranchée. Là où la voirie devait être refaite, les câbles ont été posés sur des appuis aériens. Nous profiterons ensuite des travaux programmés par la commune pour enfouir des fourreaux. »
Le coût de l’investissement est estimé à 1 200 euros par prise. Sur les 612 foyers raccordables, 516 ont souscrit à l’offre de raccordement, les frais de raccordement à l’intérieur du logement étant pris en charge par le conseil général et la commune. A ce jour, une vingtaine d’abonnements ont été souscrits auprès des trois fournisseurs d’accès référencés : Alsatis, Wibox et Bouygues.
Impact économique ? Le département projette d’étendre le réseau FTTH au nord et au sud de la commune d’ici à la fin de l’année pour desservir la zone d’activités économiques et la Maison de la communauté de communes. « La question est maintenant de savoir si les habitants et les entreprises vont s’approprier ce service, commente Patrick Boyer. Il sera intéressant de voir comment les gens vont utiliser le très haut débit par rapport aux solutions ADSL existantes, et si ce nouvel outil aura un impact économique sur la commune. »
La Gazette Des Communes
|
|
|
|
|
|
|
|
Comment permettre à un cadre des pays du Sud de travailler en Europe sans « immigrer » ?
C’est le pari que font trois jeunes entrepreneurs en lançant Ximinds, une plate-forme de vente aux enchères de matière grise qui permet de se voir, de dialoguer et de travailler à distance. À l’aide de deux webcams branchées sur un simple PC, le cadre en question peut par exemple donner des cours particuliers de mathématiques à un élève de terminale d’un lycée du 16e arrondissement de Paris. Sur le même principe qu’e-bay, l’élève en question n’a qu’à se connecter sur le site web de ximinds et comparer , en termes de qualité, de tarifs et de plage horaire, tous les professeurs de mathématiques répertoriés, où qu’ils se trouvent. Une fois le rendez-vous établi, le cours particulier a lieu et la transaction est conclue par le moyen de PayPal.
«Nous constatons que depuis quelques années, beaucoup de personnes hautement qualifiées et formées dans le Sud veulent rester et travailler dans leur pays. Les pays du Nord ont des ressources financières mais veulent payer le juste prix sans se déplacer. Ximinds est aussi un moyen de réduire la fracture Nord-Sud et de permettre un transfert de compétences de matière grise du Sud vers le Nord», affirme Mérouane Debbah, professeur à Supelec, l’un des fondateurs.
La plate-forme permet de faire toutes sortes d’offres de services, allant des conseils d’un avocat, à des conseils de jardinage ou des recettes de cuisine. Il suffit d’une connexion internet de plus de 128 kbit/s pour avoir l’impression d’être en face de son homologue à l’autre bout de la planète, de partager ses notes écrites ou encore commenter un document à la main.
Selon les fondateurs: « Le décalage horaire joue en notre faveur. En effet, il peut arriver qu’un élève en période d’examen ait besoin d’aide en pleine nuit alors que tout le monde dort. Or, à l’autre bout de la planète il fait jour et des personnes sont entièrement disponibles. Par ailleurs, quand on sait que le tarif d’une heure de cours particulier permet de nourrir une famille entière dans certains pays, on se rend compte rapidement du potentiel économique de Ximinds ».
Ximinds
|
|
|
|
|
|
|
|
Le ministre chargé de l'Economie numérique Eric Besson a annoncé il y a quelques jours la création de commissions régionales d’aménagement numérique du territoire pour garantir la complémentarité entre initiative privée et publique dans le déploiement de la fibre optique.
Les « commissions régionales » accompagneront les collectivités dans l'élaboration de leurs schémas d'aménagement numérique en vérifiant la conformité avec le programme national très haut débit. Elles interviendront également sur l'épineuse question du financement de ces équipements. Elles assureront l'articulation entre l'investissement publics et privés. A ce sujet, Éric Besson a précisé que « la priorité sera donnée à l'investissement privé comme [...] pour le haut débit ».
Concrètement, durant les trois premières années, jusqu'en 2014, les réseaux d'initiatives publiques subventionnés par les collectivités publiques devront se concentrer exclusivement sur les zones de carence de l'investissement privé. Passé 2014, les collectivités pourront déployer des réseaux sur l'ensemble des communes qui ne seraient pas encore équipées.
Il espère ainsi répondre "aux nombreuses collectivités qui s'interrogent sur la réalité des engagements des opérateurs et sur l'articulation entre les réseaux des opérateurs et les réseaux d’initiative publique". Ces commissions "réuniront les opérateurs, les collectivités territoriales ainsi que l'ensemble des administrations concernées" et accompagneront les collectivités sur "l'élaboration de leurs schémas d'aménagement numérique", sur "l'articulation entre investissements publics et privés" et sur "la conformité avec le programme national très haut débit", a-t-il assuré. "Je n'accepterai pas que les initiatives des collectivités soient durablement bloquées par des promesses de déploiements non tenues" par les opérateurs, a-t-il ajouté.
Les opérateurs se sont engagés à couvrir 57 % de la population en fibre optique dans les dix prochaines années, ce qui représente un rythme moyen d’un million de logements par an, rappelle-t-il. La France compte d'ores et déjà un million cent-trente-cinq mille foyers, soit 5 % des foyers français, éligibles à la fibre optique jusqu'à l'abonné, soit une croissance de 36 % sur un an.
le Président de la République a fixé l'objectif de « 100 % de la population couverte en très haut débit fixe d'ici 2025 ». Éric Besson a rappelé que « l'équipement de la France en fibre optique est un chantier majeur de 25 milliards d'euros ». Sur 15 ans cet objectif implique que plus de 1,7 millions de foyers français soient raccordés chaque année.
Réseaux-Telecoms
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Un système d'électrolyse développé par des chercheurs allemands permet de transformer de l'électricité en méthane à partir d'eau et de dioxyde de carbone : "Power-to-Gas".
Les recherches de l'IWES (Institut Fraunhofer pour l'énergie éolienne à Kassel) et du ZSW (Centre de recherche sur l'énergie solaire et l'hydrogène de Bade-Wurtemberg) sur le procédé de fabrication de méthane à partir d'eau, de dioxyde de carbone et d'électricité, ont été transposées à l'échelle industrielle en collaboration avec Audi et l'entreprise autrichienne Solar Fuel Technology. L'installation, qui sera complètement opérationnelle en 2013, aura une capacité de 6,3 mégawatts.
Le dioxyde de carbone nécessaire en grande quantité pour le procédé d'électrolyse sera fourni par une installation de biogaz de l'entreprise EWE située à proximité de l'installation, qui en valorisant ces résidus et déchets, peut fournir du dioxyde de carbone sans impacts sur le climat. Le méthane produit est ensuite injecté dans le réseau gazier pour stockage. "C'est en couplant les réseaux de gaz et d'électricité que la technologie "power-to-gas" réussit à combler les déficits de production des renouvelables et ce jusque sur une période de deux semaines" explique Michael Sterner de l'IWES. "Ceci stabilisera à la fois l'approvisionnement électrique et la transition énergétique".
Le procédé de fabrication du méthane en faisant réagir de l'eau avec du dioxyde de carbone est connu depuis longtemps, la question de l'échelle et de la gestion de l'intermittence de la production d'électricité constituent en revanche l'innovation de ce projet. L'idée de base avait été critiquée notamment par rapport à l'apport de CO2 nécessaire à l'opération d'électrolyse et le risque de transformer une énergie verte en énergie émettrice de CO2 (si le gaz est réutilisé pour produire de l'électricité). C'est pourquoi Michael Sterner insiste sur l'importance du caractère durable et de la proximité de la source de dioxyde de carbone exploitée (entreprise de biogaz dans le cas de l'étude). Selon lui, les installations de préparation et de production de biogaz (60 % de méthane, 40 % de dioxyde de carbone) en Allemagne devraient fournir plus de deux millions de tonnes de dioxyde de carbone, ce qui permettrait de stocker 4.8 TWh de courant.
Le procédé fait son chemin et a déjà conquis l'entreprise allemande Juwi qui aurait aussi installé une centrale pilote de 25 kW à Hunsrück (Rhénanie-Palatinat). "Selon moi, nous réglons le problème du stockage des énergies éolienne et solaire avec cette technologie" affirme le fondateur de Juwi, Matthias Willenbacher, visiblement convaincu, dans un entretien avec le journal "Süddeutsche Zeitung". L'entreprise Greenpeace Energy (coopérative fournisseur d'énergie verte créée en 1999) a elle aussi adopté la démarche et propose à ses clients ce service de "gaz-vent".
Dès l'été 2011, ils pourront, via leur facture de gaz habituelle, soutenir le projet de construction de centrale de production de gaz-vent et dès 2013 bénéficier véritablement du produit. Les constructeurs automobiles sont aussi très intéressés par le projet : Audi cité plus haut dans le projet "power-to-gas" mais aussi BMW dans un projet d'électromobilité (la mini E) en partenariat avec Vattenfall à Berlin. Selon un procédé similaire, la production d'hydrogène est aussi intéressante pour des compagnies comme Total, la Deutsche Bahn et Vattenfall qui participent au projet de Enertrag à Prenzlau depuis 2009.
Bulletins Electroniques
|
|
|
|
|
|
|
|
La prochaine génération d'implants médicaux et d'organes artificiels, plutôt que de fonctionner grâce à des piles, pourrait être alimentée directement par l’énergie du corps humain. Un projet français intitulé IBFC avance dans ce pas. Coordonné par le professeur Donald Martin de l’Université Joseph Fourrier de Grenoble (38), il vise le développement d’une biopile à combustible implantable chez l’homme.
En 2010, un premier prototype a été conçu et testé chez le rat. Celui-ci fonctionne grâce à la catalyse enzymatique du glucose au niveau des électrodes, de la même façon que les batteries développées par Sony. Sauf que le dispositif est dans ce cas emballé dans des matériaux biocompatibles qui l'isolent du milieu extérieur. La biopile implantée au rongeur a fourni 6,5 microwatts pendant plusieurs mois. Soit presque assez d'énergie pour alimenter les pacemakers humains.
La biopile aurait aussi la possibilité d'alimenter d'autres dispositifs, comme des pompes à insuline, voire avec plus de puissance des organes artificiels tels que des reins ou des sphincters urinaires. Les chercheurs travaillent également sur un autre type de batterie fonctionnant non pas au glucose, mais au sel.
Deux industriels, le fabricant de produits médicaux italien Sorin et ST Microelectronics sont associés au projet. Récemment, IBFC a été retenu parmi les lauréats de l’appels à projets ''Nano biotechnologies'' des Investissements d’Avenir.
Industrie & Technologies
|
|
|
|
|
|
|
|
Le circuit imprimé souple existe. Mais pas le circuit imprimé étirable. Cette lacune est en train d’être comblée par la société japonaise Nippon Mektron. Selon une information rapporté par Tech-On, le site d’information technologique en ligne du Nikkei, elle aurait mis au point un prototype aussi souple qu’un tissu stretch puisqu’il supporte un étirement de 30 %.
Les circuits imprimés souples standard, réalisés à partir de polyimide, ne sont pas élastiques. Pour les rendre extensibles, la société japonaise remplace le polyimide par une résine élastomère. Les pistes d’interconnexion électrique sont toujours en cuivre, mais elles suivent une forme ondulée leur permettant d’absorber la déformation du matériau.
Les applications pour ce type de circuit sont diverses. La société Nippon Mektron a, par exemple, fait la démonstration d'un bras de robot équipé d’un circuit en forme de gant truffé de capteurs. Ce circuit souple permettait au robot d’arrêter le bras lorsqu'il touche un objet.
Industrie & Technologies
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le rôle des forêts dans la lutte contre le changement climatique est largement reconnu comme étant primordial, principalement grâce à leur capacité à agir comme des "puits" de carbone. Cependant, l'impact du changement climatique sur les forêts - qui pourrait altérer leur capacité à absorber les émissions de carbone - reste incertain, et préciser l'évolution des écosystèmes forestiers au cours des décennies à venir est un enjeu important pour la science climatique.
Une nouvelle étude apporte des éléments de réponse dans ce domaine. Parue le 25 Mai dans la revue Proceedings of the National Academy of Sciences, celle-ci conclut qu'en modifiant le cycle de l'azote au sein des écosystèmes forestiers, le réchauffement climatique pourrait entraîner une augmentation de la capacité des arbres à stocker le carbone. Conduite par Jerry Melillo du Marine Biological Laboratory, l'étude a été réalisée expérimentalement à Harvard Forest (Massachussetts), un site de recherche du programme Long-Term Ecological Research. Sur une période de 7 ans, une portion de forêt de 30 m2 a été chauffée artificiellement par un réseau de câbles souterrains - jouant le rôle de résistances thermiques - à une température maintenue constante de 5°C supérieure à la température ambiante. Cette valeur reflète l'augmentation de température qui pourrait résulter du changement climatique d'ici la fin du siècle, si des mesures ambitieuses de lutte contre les émissions de gaz à effet de serre n'étaient pas mises en place.
L'étude permet de confirmer qu'une température plus élevée entraîne une décomposition plus rapide de la matière organique du sol - présente en abondance dans la forêt, augmentant les quantités de dioxyde de carbone et de méthane rejetées dans l'atmosphère. Cependant, elle montre également qu'une hausse de température peut favoriser l'absorption du carbone au sein des arbres.
Une température du sol plus élevée entraîne une transformation plus rapide de l'azote - un composé essentiel à la croissance des végétaux - vers sa forme "utile" à ces derniers (principalement les ions nitrates). Il en résulte une plus grande disponibilité de l'azote, ce qui stimule et favorise la croissance des végétaux. Ainsi, les arbres stockent plus de carbone, sous la forme d'une masse de bois plus importante. "Dans de nombreuses forêts américaines, la croissance des arbres est limitée par un manque d'azote" déclare Jerry Melillo. "Nous avons découvert que le réchauffement entraîne une libération de l'azote contenu dans la matière organique du sol sous forme de composés inorganiques comme l'ammonium, couramment utilisé comme fertilisant de jardin. Quand les arbres absorbent cet azote, ils croissent plus rapidement et absorbent plus de carbone."
Cette hausse de l'absorption du carbone par les arbres ne compense qu'en partie la hausse des émissions du sol, plus importante. Au cours des 7 années d'étude, le bilan net des émissions résultant de l'augmentation de température est donc positif : l'augmentation de température a conduit la forêt à perdre de sa capacité à absorber du carbone. Cependant, le taux de croissance et la capacité d'absorption des arbres ont progressivement augmenté au cours du temps, à tel point qu'au cours de la dernière année d'étude, les émissions de carbone dues au sol étaient presque entièrement compensées par les gains d'absorption des arbres.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Surpêche, résidus de médicaments, déchets de matières plastiques, polluants organiques…, la Méditerranée va très mal, explique un rapport présenté par le sénateur Roland Courteau. D’après lui, le « point de non-retour » n’est pas loin.
C’est plus un réquisitoire qu’un rapport. Présenté récemment au Sénat par Roland Courteau, sénateur de l’Aude, le texte de l’Office parlementaire des choix scientifiques et techniques (OPECST) détaille sur 300 pages tous les maux qui rongent la Méditerranée, cette mer presque fermée dont l’eau met un siècle à sortir. Une synthèse de quatre pages de ce rapport, intitulé La pollution de la Méditerranée : état et perspectives à l'horizon 2030, est disponible sur le site du Sénat.
Les faits mis en lumière sont connus mais leur juxtaposition donne un état de santé inquiétant de mare nostrum (notre mer), comme disaient les Romains de l’Antiquité. Les symptômes sont multiples mais la cause première est bien sûr la croissance de la population dans les pays riverains, de 285 millions à 427 millions d’habitants entre 1970 et 2000, selon le rapport, avec « 14 % d’augmentation pour les pays de la rive nord et 101 % pour les pays des rives est et sud ». Et cette croissance est aggravée par l’urbanisation grandissante mais aussi par la littoralisation, c’est-à-dire l’augmentation des populations vivant près de la côte, passées sur la même période de 96 à 145 millions.
- Coopération internationale indispensable
La Méditerranée a ainsi vu grossir le flux de molécules chimiques, de matières organiques, de déchets de matières plastiques, de bateaux de pêche et d’espèces invasives. Les hydrocarbures sont pointés du doigt mais aussi les nitrates, les phosphates, les métaux lourds, les pesticides, les polluants de toutes sortes et même les produits pharmacologiques, une « pollution émergente » selon le rapport, qui souligne qu’il faudrait « 50 millions d’années pour tester individuellement chacune des molécules connues ».
Les stations d’épuration sont à l’évidence en nombre insuffisant. Dans les pays au nord de la Méditerranée, « seules 11 % des villes de plus de 10.000 habitants n’ont pas de réseaux d’épuration ; au sud ce pourcentage atteint 44 % ». Plus généralement, les politiques et les moyens divergent très largement entre les pays du pourtour méditerranéen et, expliquent ces sénateurs, c’est à ce niveau qu’il faut agir et le rapport propose une liste de mesures. Par exemple, pour la lutte contre la pollution ou pour la recherche océanographique, des coopérations doivent être mises en place. Il faut s’organiser pour réduire les rejets d’hydrocarbures.
Futura-Sciences
|
|
|
|
|
|
|
|
L’impact du changement climatique en milieu urbain pourrait être réduit d’environ 2,5°C, en augmentant les surfaces d’espaces verts dans les villes. En effet, les températures dans les zones urbaines sont actuellement jusqu’à 6°C plus élevées que dans les zones rurales et il faudrait faire davantage pour remédier à ce problème, indique une note d’information de la Royal Institution of Chartered Surveyors (RICS), publiée dernièrement.
A titre d’exemple, au Royaume-Uni, avec les prévisions actuelles de changement climatique, il est suggéré que les températures estivales pourraient augmenter jusqu’à 3,5° d’ici 2050, les zones urbaines étant particulièrement vulnérables. Cependant, par un accroissement durable de la surface d’espaces verts et la plantation de végétaux sur les toits et les murs dans les zones urbaines, l’impact de l’effet îlot de chaleur urbain pourrait être réduit de près de 2,5°.
Les espaces verts dans les villes diminuent de plus en plus, pour faire place à des routes ou à de nouvelles constructions. Selon la RICS, supprimer seulement 10 % de l’espace vert d’une zone bâtie peut faire apparaître une augmentation maximale des températures de près de 7°C. Dans ce contexte, les gouvernements nationaux, les autorités locales, les propriétaires fonciers et les développeurs devraient créer et sauvegarder les espaces verts existants, et accorder une plus grande attention au problème croissant du changement climatique en milieu urbain, selon la RICS. Afin de permettre l’adoption de stratégies d’infrastructures vertes, qui ont à long terme des avantages environnementaux et économiques, ceci doit être pris en compte dans les plans de développement.
"Les zones urbaines sont actuellement 6° plus chaudes que la campagne environnante et ces températures devraient augmenter au cours des prochaines décennies. Il est crucial que les autorités nationales, locales, les promoteurs et les propriétaires fonciers individuels prennent davantage en considération les avantages de l’infrastructure verte. Rendre prioritaires les parcs, les jardins, les potagers et les plantations sur les murs et les toits pourrait contribuer à réduire la tendance croissante du réchauffement urbain de 2,5°C", déclare Paul Collins, président de la RICS pour l’infrastructure verte.
"L’augmentation des espaces verts peut non seulement abaisser la température en milieu urbain, mais également aider à prévenir les inondations, améliorer la qualité de l’air, réduire le bruit et supporter la biodiversité. En outre, l’ajout de matière végétale et de plantes sur le toit d’un bâtiment peut aider à modérer sa température intérieure et pourrait avoir un impact sur les coûts de fonctionnement des entreprises", ajoute Tom Mulhall, directeur associé de la RICS.
Directgestion
|
|
|
|
|
|
|
|
Les causes de la fonte des glaciers tropicaux sur les 10 000 dernières années sont enfin dévoilées par une équipe de chercheurs français du CNRS, du CEA, de l'IRD, de l'Université Joseph Fourrier et un chercheur américain de l'Université d'Albany. Ils ont montré que le recul du glacier bolivien Telata sur cette période est avant tout lié à une hausse de température atmosphérique de 3°C et au réchauffement du pacifique tropical en réponse à une augmentation de l'insolation. Ces travaux ont été publiés le 09 juin 2011 sur le site de la revue Nature.
Dans l'imaginaire collectif, parler de glaciers sous les Tropiques semble contradictoire. Pourtant, il existe bel et bien des glaciers tropicaux, dans les Andes principalement. Pour identifier les causes du recul de ces glaciers, la connaissance de leur histoire récente est nécessaire.
L'équipe de chercheurs a étudié l'un des glaciers de haute altitude de la Cordillère Royale de Bolivie : le Telata. Les moraines (roches déposées par le glacier témoignant de ses positions antérieures) du Telata, très bien conservées et en grand nombre, rendent ce site unique sous les Tropiques. Elles offrent en effet un enregistrement quasi continu des stades glaciaires successifs. Datées en mesurant dans les roches la concentration d'éléments, elles permettent de reconstituer, pour la première fois, l'histoire du glacier au cours de l'Holocène, c'est-à-dire sur les 10 000 dernières années. Pendant cette période, la surface du glacier a diminué et son front a reculé de 3 km. Ce recul glaciaire, d'abord lent, s'est accéléré depuis le début du 19e siècle, avec 2 km de recul de 1820 à aujourd'hui.
Les chercheurs des différents laboratoires se sont penchés sur le lien pouvant exister entre le volume glaciaire et les valeurs du couple température/précipitation qui prévalaient pour différentes positions passées du glacier. Les calculs montrent que le recul du glacier est avant tout lié à un réchauffement des températures d'environ 3°C sur l'ensemble de l'Holocène. L'augmentation très progressive de la quantité de rayonnement solaire reçue à la surface terrestre a eu des répercussions sur la température de surface de l'Océan Pacifique tropical et sur le climat à proximité du glacier. L'augmentation de la température modifie le comportement du glacier et explique de son recul. En revanche, les simulations numériques avec des modèles de climat montrent que les précipitations n'auraient pas varié de façon suffisamment importante depuis 10 000 ans pour influencer l'évolution du glacier.
C'est la première fois qu'une étude montre que la fonte de ces glaciers au cours de l'Holocène était étroitement liée aux variations des températures de surface de l'Océan Pacifique tropical. Cette étude confirme donc le caractère exceptionnel de la fonte rapide, observée depuis le début de l'ère industrielle. Cette fonte, depuis 1820, n'est pas liée aux variations d'insolation mais à d'autres mécanismes. Ces travaux montrent aussi combien les glaciers tropicaux, situés à haute altitude, là où le réchauffement prévu pour le 21e siècle devrait être le plus élevé (4 à 5°C dans le cas de la région du Telata), seront extrêmement vulnérables au cours des prochaines décennies.
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les équipes de recherche des docteurs TAKAHASHI et TANI de l'hôpital universitaire de Kyushu à Fukuoka ont récemment découvert un nouveau marqueur moléculaire présent dans la plupart des néoplasmes et qui présente la caractéristique d'accélérer leur formation.
Bien que la compréhension générale des mécanismes moléculaires de formation des cancers se soit considérablement améliorée, il n'existe pas encore d'outil efficace permettant de prévenir et de détecter les différents types cancers dans les premières phases de leur développement. Il existe des techniques permettant de détecter une expression anormale de gènes sensibles mais l'identification de biomarqueurs communs à tous les cancers reste encore une priorité pour les chercheurs.
Un biomarqueur est un paramètre biologique constituant un indicateur de processus normaux ou pathologiques chez un patient. Suscitant un intérêt croissant des établissements hospitaliers dans la détection de certains cancers, les biomarqueurs peuvent également renseigner sur les réactions de l'organisme face à certains traitements. De nombreuses compagnies pharmaceutiques ont également recours à la détection de biomarqueurs dans leur processus de développement de médicaments.
Dans une démarche d'identification des molécules communes aux différents types de cancer, les docteurs TAKAHASHI et TANI ont étudié les protéines surexprimées reflétant des modifications anormales des voies de signalisation cellulaire dans la majorité des cellules cancéreuses et entraînant le phénotype néoplasique. Parmi les 11 protéines communes aux différents types de cancer et reconnues comme ayant un effet sur le déclenchement des mécanismes de cancérisation cellulaire, les scientifiques ont identifié une protéine nommée FEAT retrouvée en grande quantité dans les cellules tumorales. Des souris génétiquement modifiées et surexprimant le gène FEAT, régulant notamment le déclenchement de l'apoptose, ont été créées et l'effet de la protéine a pu être observé. Des cancers des poumons et des lymphomes se sont alors été développés chez respectivement 35 % et 48 % des souris. Ces résultats indiquent donc que la protéine est impliquée dans la carcinogenèse des cellules.
Enfin, une analyse génétique a permis d'identifier l'action de FEAT sur les voies de signalisation Hedgehog et sur les récepteurs à activité tyrosine kinase, confirmant ainsi son caractère hautement oncogène dans les premières phases de cancérogenèse. Les résultats des travaux effectués par les docteurs TAKAHASHI et TANI ont ainsi permis de découvrir un nouveau marqueur biologique commun aux cancers et ils ouvrent des perspectives encourageantes pour le développement de nouvelles technologies capables de dépister les cancers dans les premières phases de leur formation.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Des études menées par le chercheur José Thaiparambil au Winship Cancer Institute de l'Université d'Emory ont montré qu'une molécule, la withaférine-A, empêche les cellules cancéreuses situées au niveau du sein de métastaser (multiplication et migration). Lorsque cette molécule, extraite de racines de la plante Withania somnifera utilisée en médecine traditionnelle indienne, a été administrée aux souris, aucune migration des cellules cancéreuses dans des tissus voisins n'a été remarquée.
En 2010, une équipe menée par Guy Lahat à l'Université du Texas avait démontré, grâce à l'analyse de la withaférine-A et de ses analogues, que des approches thérapeutiques ciblant les cellules cancéreuses métastasiques étaient justifiées. Les recherches de l'équipe d'Emory viennent donc confirmer ces résultats, après des essais chez la souris.
Les propriétés anti-métastatiques de la withaférine-A pourraient constituer la base de traitements thérapeutiques visant à prévenir les récidives de cancer du sein. De plus, les chercheurs testent actuellement l'efficacité de cette même molécule sur d'autres types de cancers. La withaférine-A vient de la plante Withania somnifera, également connue sous le nom d'Ashwagandha, dont les racines sont utilisées dans la médecine ayurvédique qui est une des plus anciennes médecines du monde.
La withaférine-A est connue pour lier et ainsi désactiver les protéines vimentines, protéines produites en excès dans les cellules cancéreuses, en particulier celles des tumeurs invasives. Il a été observé que les tumeurs produisant une quantité importante de vimentine ont de grandes chances de métastaser dans d'autres parties du corps et donc de former un cancer généralisé. En neutralisant cette protéine, la withaférine-A réduit ainsi le risque des cellules cancéreuses de proliférer invasivement.
"La plupart des patients qui meurent d'un cancer meurent à cause des métastases, non de la tumeur primaire", explique Adam Marcus, professeur adjoint en hématologie et en oncologie médicale au Winship Cancer Institute de l'Université d'Emory et au Georgia Cancer Coalition. "Notre objectif n'était pas de trouver un moyen de tuer les cellules, mais plutôt d'éviter qu'elles migrent et envahissent d'autres tissus".
La withaférine-A semble empêcher la vimentine de constituer l'architecture de la cellule. Chez la souris, la withaférine-A limite les cellules du cancer du sein de se propager aux poumons. Des tests sur plusieurs versions chimiquement modifiées de la withaférine-A ont révélé qu'un acide aminé particulier de la protéine (l'acide aminé sérine56) est essentiel pour sa capacité à perturber la vimentine et donc son activité anti-invasive. Les résultats ont montré que la withaférine-A a une faible activité toxique et apoptotique (mort des cellules) à des concentrations inférieures ou égales à 500 nM (500 nanomoles/litre), mais conserve une puissante activité anti-invasive à cette dose.
Dans les années 1990, des scientifiques à la Northwestern University Medical School à Chicago ont découvert que les souris dépourvues de vimentine se développaient normalement, un résultat surprenant pour une protéine filamenteuse qui maintient la forme cellulaire tout en participant à l'adhésion, la migration, la survie et au processus de signalisation cellulaire. Ceci suggère que l'utilisation clinique de la withaférine-A pour neutraliser la vimentine pourrait avoir un minimum d'effets secondaires sur le patient. Les essais cliniques à venir montreront s'il est possible d'administrer à faibles doses la withaferine-A sur des longues périodes de temps afin de prévenir les métastases du cancer, soit en combinaison avec la chimiothérapie, soit après les traitements anticancéreux.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Un dispositif d'assistance cardiaque, qui peut s'adapter aux enfants, offre un sursis avant d'obtenir une greffe de coeur compatible. Un système encore insuffisamment utilisé par méconnaissance ou réticence.
Les défaillances cardiaques aigües, de l'un ou des deux ventricules, ne peuvent pas toujours être traitées médicalement. L'Excor, un dispositif développé par la société Berlin Heart, fournit une assistance ventriculaire, le temps de trouver un greffon compatible, y compris pour les enfants. "Cette solution, temporaire, reste encore trop méconnue en France, y compris par les professionnels de santé", regrette le professeur Bernard Kreitmann, chirurgien au service thoracique et cardiaque de l'hôpital pour enfants de La Timone à Marseille. En France, six implantations sont comptabilisées par an en moyenne depuis 2005, date de la première utilisation de l'Excor. En Angleterre, qui compte à peu près le même nombre d'habitants, 15 à 20 interventions sont effectuées chaque année.
Plusieurs facteurs expliquent le retard français. Des motifs économiques, d'abord, puisque ce système nécessite une intervention lourde et un coût qui avoisine les 60000 euros par enfant. Techniquement ensuite, car les cardiopathies des enfants sont encore difficile à détecter, ce qui constitue un véritable défi pour les chirurgiens avec des efforts à concentrer sur la formation des personnels médicaux qui ignorent trop souvent cet outil pour les enfants.
"En 2009, 46 enfants de moins de 18 ans ont été inscrits sur liste d'attente pour une greffe de coeur, rapporte le docteur Roland Hénaine. 25 ont pu en obtenir une. Il faut savoir que le temps d'attente pour obtenir une greffe est de sept mois pour des enfants de trois à cinq ans, contre 3,5 mois pour des adultes." Plus le patient est jeune, moins les chances de survie sont importantes.
Des réticences existent. "Il faut sensibiliser le public, souvent méfiants lorsqu'il s'agit de parler des questions de greffes cardiaques, d'autant plus lorsqu'il s'agit de nourrissons", explique le docteur Roland Hénaine, chirurgien cardiaque au CHU Louis Pradel de Lyon.
"Pourtant, sans cette assistance, qui a permis 42 implantations en France depuis 2005, 30 enfants de plus seraient morts, retient le docteur Stéphane Le Bel, anesthésiste à l'hôpital de la Timone. Plus de la moitié ont pu recevoir une greffe. Malheureusement, 29 % n'ont pu être sauvés, la difficulté de l'anticoagulation postopératoire est source de complications."
Une sensibilisation qui a trouvé un écho le mercredi 22 juin 2011, à l'occasion de la Journée nationale de réflexion sur le don d'organes et la greffe.
L'Express
|
|
|
|
|
|
|
|
Des scientifiques de Leipzig (Saxe) ont testé avec succès une nouvelle méthode qui devrait permettre de diagnostiquer la maladie d'Alzheimer avant l'apparition des premiers symptômes. L'essai clinique multicentrique a été réalisé en collaboration avec des chercheurs des Etats-Unis, d'Australie et de Suisse et financé par Bayer Schering Pharma. Les résultats ont été publiés dans l'édition de mai 2010 de la revue scientifique "Lancet Neurology".
Les molécules de béta-amyloïde, considérées comme responsables de la maladie d'Alzheimer, s'accumulent dans le cerveau des patients pendant dix à quinze ans avant l'apparition de la maladie. Celles-ci sont, selon l'hypothèse des scientifiques, toxiques pour les neurones et conduisent à leur mort et, par suite, à la démence. La maladie est actuellement détectée seulement lors de l'apparition des symptômes (pertes de mémoire, désorientation...) et peut être confondue avec d'autres types de démence. Aucun traitement ne permet actuellement de la guérir, mais certains pourraient la ralentir. Un diagnostic en amont de l'apparition des premiers symptômes pourrait donc permettre aux patients de conserver une vie normale plus longtemps. De nombreuses recherches se concentrent sur le développement de nouvelles thérapies, dont l'efficacité pourrait être augmentée si elles étaient couplées à un diagnostic précoce.
La méthode consiste en l'injection d'une molécule radioactive, le Florbetaben, dans la veine du bras. La substance circule jusqu'au cerveau et se fixe aux plaques béta-amyloïdes. Une tomographie par émission de positons (TEP) détecte le Florbetaben et par conséquent les plaques. Les données tridimensionnelles obtenues sont alors couplées avec les résultats d'imagerie par résonnance magnétique (IRM), permettant une localisation précise des plaques dans la matière grise du cerveau du patient. Durant la procédure, le patient est exposé à une dose considérée comme non-dangereuse pour la santé (double des radiations reçue normalement en une année).
L'étude clinique de phase II a été coordonnée par l'équipe d'Osama Sabri, Directeur de la Clinique et Polyclinique de médecine nucléaire de la Clinique universitaire de Leipzig. 150 personnes, dont 81 atteintes de la maladie d'Alzheimer et 69 saines, ont été enrôlées dans cette étude clinique. Celles-ci ont été prises en charge dans 18 centres différents au sein des quatre pays cités plus haut. Lors de cette étude, la plus importante et la première multicentrique au monde, une grande précision dans la distinction entre personnes malades et saines a été obtenue, ce qui laisse penser que la méthode pourra, dans le futur, être utilisée pour le diagnostic précoce dans la routine clinique.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Une équipe de chercheurs américains a testé avec succès un procédé qui permet d'activer et de désactiver la mémoire chez des rats, et qui pourrait, à long terme, aider les humains atteints de démence ou autres traumatismes cérébraux. Les chercheurs ont implanté une prothèse dans le cerveau des animaux, permettant de réactiver des souvenirs éliminés de leur mémoire grâce à des médicaments. «Allumez l'interrupteur et les rats se souviennent. Eteignez-le et les rats oublient», résume Theodore Berger du département de génie biomédical de l'Université de Californie du Sud.
Theodore Berger et ses collègues se sont alliés à des chercheurs du département de physiologie et de pharmacologie de l'Université de Wake Forest en Caroline du Nord pour réaliser ces tests. Les chercheurs ont axé leurs expériences sur l'hippocampe des rats, la partie qui, comme chez les humains, concentre la mémoire dans le cerveau.
La communication entre deux régions de l'hippocampe permet la conversion de la mémoire à court terme en mémoire à long terme. Les chercheurs américains ont étudié les signaux transmis entre ces deux régions, nommées CA3 et CA1, pendant une expérience où les rats recevaient une récompense dès qu'ils actionnaient un levier. Au fur et à mesure, les rats ont assimilé ce comportement et l'ont converti en mémoire à long terme.
Les chercheurs ont alors administré une substance aux animaux permettant d'interrompre la communication entre les deux régions et donc de leur faire «oublier» la mémoire à long terme. C'est à ce moment que les scientifiques ont implanté aux animaux un appareil électronique qui reproduit les signaux transmis entre les deux régions, CA3 et CA1. Du coup, la mémoire des rats a été réactivée. Mieux encore, expliquent les chercheurs dans leur étude publiée dans le Journal of Neural Engineering, lorsqu'ils ont testé l'appareil sur des rats «normaux», «l'appareil a permis d'améliorer la capacité mémorielle» des animaux.
L'équipe souhaite maintenant tester son procédé sur des singes et espère pouvoir un jour aider les humains souffrant de troubles de la mémoire dus à la démence, une attaque cérébrale ou un traumatisme.
20 minutes
|
|
|
|
|
|
|
|
Des médecins australiens, qui ont évalué dans leur pays l’impact du programme de vaccination contre le cancer du col de l'uterus, ont noté que 3 ans après le début des vaccinations, leurs bénéfices se feraient déjà sentir. En tout cas sur l’incidence des lésions précancéreuses.
Depuis quelques années, l’introduction de deux vaccins prophylactiques a offert une opportunité majeure de protéger de larges populations contre le cancer du col de l’utérus. Un enjeu majeur, puisque c’est le deuxième cancer féminin en termes de fréquence. Chaque année à l’échelle mondiale, plus 500 000 cas sont recensés. Dont environ 3 000 en France, qui provoquent 1 000 décès.
En avril 2007, le gouvernement australien a été le premier à mettre en place un programme organisé de vaccination HPV. Celui-ci était principalement basé sur :
- La vaccination (gratuite) en milieu scolaire des filles de 12 à 18 ans avec le vaccin quadrivalent Gardasil ® ;
- Une vaccination de rattrapage, en cabinet médical proposée jusqu’à 26 ans.
Le Dr Julia Brotherton et ses collègues, de Melbourne, ont recueilli en 2010 les données de l’Etat de Victoria, le second du pays en termes de population. Ils les ont ensuite comparées avec celles de la période précédant la mise en place du programme de vaccination. Publiés récemment dans The Lancet, leurs résultats suggèrent une diminution de 38 % de l’incidence des lésions précancéreuses de haut grade parmi les jeunes filles de plus de 18 ans. Mais en dépit des résultats de cette étude, il n'est pas pas question de compter uniquement sur ces vaccins et de négliger le dépistage par un frottis cervico-vaginal régulier…
Destination Santé
|
|
|
|
|
|
|
|
Une équipe de chercheurs menée par le Professeur Thomas Webster à Brown University, Providence (Rhode Island) a mis au point un patch composé de nanotubes de carbone favorisant la régénération des cellules du coeur détruites après un infarctus, faute d'apport en oxygène. Lors d'expériences in vivo, le tissu cardiaque s'est montré six fois plus dense en présence du nanopatch conducteur qu'en son absence, ce qui confirme l'efficacité du patch. Fait de chaînes minuscules d'atomes de carbone repliées sur elles-mêmes pour former des nanofibres, il conduit l'électricité et imite la surface rugueuse des tissus naturels. Les chercheurs ont observé que plus la concentration de nanotubes était élevée, plus la régénération des cellules cardiaques était efficace.
Selon l'American Heart Association, un tiers des femmes et un cinquième des hommes qui ont subi un infarctus du myocarde en auront un autre dans un délai de six ans. En 2009, des chercheurs suédois, français et américains ont constaté, grâce au dosage du carbone 14, qu'à l'âge de 50 ans, 55 % des cellules cardiaques datent de la naissance et 45 % ont été générées par la suite. Ces résultats témoignent du faible taux de régénération des cellules cardiaques, d'où l'intérêt de développer une méthode qui accélère leur multiplication après un infarctus.
Au cours d'un infarctus, une partie du myocarde est privée d'oxygène, ce qui entraîne la douleur puis la mort de cellules cardiaques musculaires et nerveuses privées d'oxygène et nécessaires au bon fonctionnement du coeur. Après l'infarctus, le tissu ne peut pas se régénérer de lui-même, le rythme cardiaque est donc perturbé et affaibli, on parle alors d'insuffisance cardiaque. De nombreuses études sont en cours afin de trouver des moyens de régénérer ou de réparer ces tissus endommagés. Plusieurs méthodes se basent sur l'injection de cellules souches prélevées sur le patient dans le coeur endommagé pour qu'elles s'y multiplient et différencient.
Thomas Webster affirme que les recherches menées à Brown University sont porteuses d'espoir car le patch a la spécificité d'aider trois types de cellules à se régénérer : les cellules musculaires ou cardiomyocytes qui font battre le coeur, les cellules nerveuses qui les aident à se contracter et les cellules endothéliales qui tapissent les vaisseaux sanguins à proximité du coeur. Les conclusions ont montré que le patch de nanotubes de carbone est semblable au tissu cardiaque naturel, ce qui accélère la régénération de ces trois types de cellules qui fonctionnent de façon interdépendante.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Le lapatinib est une molécule qui inhibe deux facteurs de croissance : le HER2 (Human Epidermal Growth Factor Receptor 2) et l’EGFR (Epidermal GRowth Factor Receptor). Il est utilisé en association avec de la chimiothérapie pour lutter contre les cancers du sein métastatiques. Le protocole est efficace chez les femmes dont la tumeur a augmenté malgré d'autres traitements. Devant les bons résultats obtenus dans ce cadre, plus de 200 essais cliniques à travers le monde tentent de vérifier si ce double inhibiteur ne serait pas tout aussi utile pour lutter contre d'autres formes de cancers.
Selon les données obtenues par Wafik El Deiry et ses collègues de l'Université de Pennsylvanie à Philadelphie (États-Unis), le lapatinib pourrait, en association avec des agents proapoptotiques (TRAIL – Tumor Necrosis Factor-related Apotosis-inducing Ligand, qu'ils ont découvert en 2007), augmenter par sensibilisation la mort des cellules tumorales.
Les travaux ont été effectués chez la souris, et le traitement (double dose par rapport à celui utilisé dans le cancer du sein) a été très bien toléré. Les chercheurs estiment que cette association thérapeutique pourrait être très bénéfique pour le cancer du côlon et ils espèrent pouvoir lancer bientôt un essai clinique chez l'homme.
Information Hospitalière
|
|
|
|
|
|
|
|
Les exercices mettant en œuvre la mémoire à court terme d'un enfant favorisent ses capacités de raisonnement… si l'enfant est motivé.
Le célèbre jeu d'entraînement cérébral du Docteur Kawashima sur console portable est-il efficace ? Si oui, à quel public s'adresse-t-il ? Les offres commerciales d'entraînement cérébral, ou plutôt cognitif, ne cessent de se multiplier, sans que l'on sache vraiment si elles améliorent les capacités de réflexion. Susanne Jaeggi et ses collègues, du Département de psychologie de l'Université du Michigan, aux États-Unis, montrent qu'un entraînement cognitif de la mémoire dite de travail améliore les capacités de raisonnement des enfants. Mais tous les enfants n'en tirent pas les mêmes bénéfices…
La capacité de raisonner et de résoudre des tâches nouvelles, nommée l'intelligence fluide, est un facteur de l'intelligence générale ciblé par les exercices cognitifs. L'autre forme d'intelligence, dite cristallisée, est la capacité à utiliser ses connaissances et ses compétences. Certains entraînements cognitifs pourraient améliorer l'intelligence fluide, notamment ceux mettant en œuvre la mémoire de travail (ou à court terme), c'est-à-dire le système cognitif qui permet de stocker et de manipuler temporairement des données en nombre limité. La mémoire de travail intervient en particulier dans des tâches cognitives complexes, telles que lire, raisonner et résoudre des problèmes. Elle se met en place progressivement dans l'enfance.
Pour montrer que l'entraînement cognitif faisant intervenir la mémoire de travail améliore l'intelligence fluide, les psychologues américains ont entraîné pendant un mois 62 enfants âgés d'environ 9 ans, à raison de cinq séances de 15 minutes par semaine. Le premier groupe d'enfants réalisait un exercice mettant en œuvre la mémoire de travail : ils visionnaient des séquences de jeux vidéo où une cible apparaissait à différents endroits de l'écran. Quand le stimulus réapparaissait à un endroit où il était déjà passé, les enfants devaient appuyer sur un bouton. Le second groupe d'enfants réalisait plutôt des exercices de vocabulaire et de culture générale, destinés à stimuler leur intelligence cristallisée. Pour motiver les enfants, tous les entraînements utilisaient des images et des graphismes attrayants semblables à ceux des jeux vidéo. Avant, juste après et trois mois après les sessions d'entraînement, les chercheurs ont mesuré les performances des enfants à l'aide de deux tests de raisonnement classiques en psychologie cognitive.
Résultat, les enfants ayant travaillé leur mémoire de travail présentaient une meilleure capacité de raisonnement juste après l'entraînement, mais aussi trois mois après, en comparaison avec les enfants ayant stimulé leurs connaissances générales. Preuve que l'entraînement cognitif aurait un effet à long terme.
Cela dit, le bénéfice était faible (de l'ordre de 20 pour cent) et certains enfants ne s'étaient pas améliorés. Pour quelle raison ? Les enfants les moins motivés et les moins enthousiastes lors de l'entraînement cognitif, ainsi que ceux qui trouvaient l'entraînement trop compliqué, ont eu les moins bons résultats. Cela suggère qu'un entraînement de la mémoire de travail n'est efficace que s'il est adapté aux capacités des participants – il ne doit être ni trop simple, ni trop compliqué – et s'il est réalisé de façon ludique. Ainsi, les jeux de soi-disant docteurs sur consoles portables vous feront-ils progresser ou amélioreront-ils les résultats scolaires de vos enfants ? Rien n'est moins sûr.
Pour la Science
|
|
|
|
|
|
|
|
Des souris amnésiques ont retrouvé la mémoire grâce à une greffe de cellules souches nasales humaines. C'est le résultat d'une expérience de thérapie cellulaire inédite menée par plusieurs équipes universitaires associées au CNRS, en collaboration avec une équipe du CHU Nord de Marseille (APHM). Leurs travaux viennent d'être publiés dans The Journal of Clinical Investigation.
Quatre équipes de recherche basées à Marseille et Montpellier1 ont mené une étude préclinique originale : elles ont analysé les effets d'une transplantation de cellules souches olfactives humaines dans le cerveau ou le liquide céphalo-rachidien de souris rendues amnésiques. Quatre semaines après la greffe, des tests comportementaux ont montré que les souris transplantées avaient retrouvé leurs capacités à apprendre et à mémoriser l'emplacement d'un objet ou l'association d'une récompense avec une odeur. Les animaux greffés ont réalisé des scores similaires à ceux observés chez les animaux non lésés tandis que les souris lésées et non greffées demeuraient incapables de réaliser ces tâches d'apprentissage et de mémorisation. Par ailleurs, ces résultats ont été confirmés par l'analyse des tissus : les cellules souches nasales humaines se sont implantées dans les zones lésées et différenciées en neurones. Enfin, la greffe de ces cellules souches a permis de restaurer partiellement le phénomène de potentialisation à long terme, l'un des mécanismes de base de la mémorisation.
L'utilisation de cellules souches nasales présente de nombreux avantages : elles sont faciles à prélever et à cultiver. De plus, chaque individu peut être son propre donneur, ce qui élimine tout risque de rejet immunitaire tout en garantissant un accès immédiat à ces cellules. A plus long terme, cette étude pourrait ouvrir la voie à un essai clinique basé sur l'autogreffe de cellules souches nasales chez des patients souffrant d'une amnésie post-traumatique ou post-ischémique. Par ailleurs, ces recherches se poursuivent sur des modèles animaux de la maladie d'Alzheimer.
CNRS
|
|
|
|
|
|
|
|
Aux États-Unis, les podologues et les cliniques du sport ont signalé une «forte» recrudescence des blessures liées à la mode de la course naturelle, d'après Triathlon.competitor.com, qui qualifie le phénomène d'«épidémie». Les chaussures ne seraient pourtant pas en cause. Les chaussures de course minimalistes, qui permettent d'adopter une foulée plus naturelle, sont très tendance. Mais une recrudescence de blessures a été observée chez leurs adeptes.
Cependant, le magazine américain spécialisé dans le fitness Men's Health indique dans un article du 21 juin que les blessures des coureurs ne sont pas imputables à leurs nouvelles chaussures, mais plutôt à la faiblesse de leurs pieds et à leurs erreurs de posture.
Robert Gotlin, directeur du département orthopédie et rééducation sportive au centre médical Beth Israel de New York, estime que c'est une question de biomécanique. Les coureurs qui portent des chaussures ont tendance à atterrir sur le talon, alors que ceux qui courent pieds nus atterrissent sur l'avant du pied. Cela «change l'impact sur le pied et le bas du corps. Lorsque vous posez l'avant du pied en premier, l'impact sur le corps est grandement réduit», précisait-il dans un communiqué de presse l'année dernière. Les coureurs qui souhaitent s'adonner à la course naturelle en portant des chaussures minimalistes doivent donc penser à modifier leur foulée. En continuant de poser le talon en premier dans des chaussures qui ont moins d'amortis que les chaussures de course standard, ils risquent la blessure.
Une équipe de chercheurs d'Harvard a filmé des coureurs sur des tapis, ayant adopté les deux types de foulés et a mesuré leur impact. En posant le talon en premier, comme le font 75 % des coureurs, l'impact peut atteindre trois fois le poids du corps, que le coureur porte des chaussures ou non. Men's Health a noté que les chercheurs continuent de mener des études comparatives sur les taux de blessures associées aux chaussures de course minimalistes et standards, mais qu'il faudra attendre quelques années avant d'avoir des résultats probants. La course naturelle est-elle faite pour vous ? Peut-être. Si vous souffrez de blessures dues à l'effort, le Docteur Daniel Liberman de l'Université de Harvard recommande dans l'article d'essayer de changer votre foulée pour atterrir sur l'avant du pied. Et ne soyez pas trop pressé pour passer de la course en chaussures traditionnelles à la course en chaussures minimalistes. Si vous êtes en surpoids ou que vous avez des problèmes orthopédiques sérieux, mieux vaut oublier les chaussures minimalistes et choisir des chaussures qui offrent plus de soutien. Triathlon.competitor.com ajoute que les coureurs avec «des pieds désavantagés sur le plan biomécanique» ont besoin de chaussures adaptées. En d'autres termes, si vous avez des problèmes de stabilité, que vous êtes hyperpronateur ou hypersupinateur, vous aurez besoin de chaussures capables de vous rééquilibrer. La meilleure façon de savoir si vous appartenez à l'une de ces catégories est de rendre visite à une clinique du sport ou un magasin spécialisé dans la course pour faire examiner votre foulée par des experts.
Il est également conseillé de commencer doucement, sur un tapis de course, en prêtant attention au bruit de votre pied lors de l'impact. «Pour courir sans bruit, votre corps doit trouver l'équilibre: votre foulée en sera raccourcie, les pieds s'aligneront avec les hanches, et votre posture se redressera, ce qui facilitera l'atterrissage sur le milieu du pied», indique Men's Health. Enfin, certains exercices peuvent aider à vous renforcer les pieds avant la course. Essayez par exemple de saisir une serviette avec les doigts de pied dix fois de suite, de vous reposer 30 secondes, avant de recommencer deux fois. Vous pouvez également tenir en équilibre sur une jambe pendant 30 secondes, en gardant l'autre jambe pliée. Changez de jambes et répétez l'exercice cinq fois.
Cyberpresse
|
|
|
|
|
|
|
|
"Sans que l'on sache pourquoi ni comment, l'espérance de vie de l'espèce humaine rallonge de six heures par jour. Et l'on peut accélérer le processus !" Tignasse en bataille et faux air de Pedro Almodovar, le professeur Radman est l'un des plus grands spécialistes de l'ADN. Dans son laboratoire parisien à la faculté de médecine de l'université René-Descartes à Paris, les microscopes électroniques sont alignés comme des batteries de canons sur le pont d'un navire. Ce fils de pêcheur croate, né à Split il y a soixante-sept ans, s'est mis en tête de percer le secret de l'immortalité. Pas moins ! Tel un Christophe Colomb de la science, Miroslav Radman explore la chimie du vieillissement en empruntant de nouvelles routes. Et ce qu'il a découvert pourrait bien révolutionner l'humanité.
Courtisé par les plus prestigieuses universités américaines, c'est en France que ce surdoué a jeté l'ancre. Après trente ans de recherche au CNRS puis à l'Inserm, Miroslav Radman est convaincu d'avoir trouvé le chemin vers l'élixir de jouvence. "C'est en décortiquant une étrange bactérie que j'ai acquis la conviction qu'il devenait possible de prolonger la vie humaine, en bonne santé, bien au-delà de ce qui est imaginable aujourd'hui." Une aventure que le biologiste, devenu lui-même immortel depuis qu'il est entré à l'Académie des sciences, raconte dans un livre vivifiant.
Cette bactérie qui recèlerait, comme une poignée d'autres bestioles microscopiques, l'arme contre le vieillissement, c'est la "bactérie du corned-beef" découverte en 1956 dans des conserves de viande stérilisées à coups de rayons gamma. Une coriace capable de résister à des radiations 10 000 fois supérieures à la dose mortelle chez l'homme. Au point que certains se sont même demandé si Deinococcus radiodurans - c'est son nom scientifique - n'était pas venue de l'espace ! Ayant voyagé sur une météorite, elle aurait été irradiée et totalement desséchée, ce qui expliquerait sa phénoménale résistance à la déshydratation. "En plein désert, brûlée par les rayons du soleil, Deinococcus peut, grâce à une seule goutte de pluie, ressusciter des dizaines, peut-être des centaines d'années plus tard", s'enthousiasme le chercheur, dont les yeux pétillants accrochent le regard presque autant que son polo rose fuchsia.
Quel est le secret de la bactérie du corned-beef ? "À partir d'un état de mort clinique, elle ressuscite en s'autoréparant grâce à un jeu de deux copies de son génome. Si vous avez sous la main plusieurs puzzles identiques avec des pièces manquantes, vous pouvez en les utilisant tous en faire un qui soit complet. La difficulté est de remettre en ordre des centaines de fragments d'un génome pulvérisé par la radiation, ce que Deinococcus radiodurans parvient à faire en trois ou quatre heures", explique le biologiste en mimant l'opération de ses mains.
Les protéines mécanos qui rafistolent le puzzle sont à l'oeuvre dans tous les organismes vivants. Elles devraient donc normalement nous protéger contre la rouille moléculaire provoquée par les radicaux libres. Alors pourquoi ne font-elles pas le boulot chez nous ? "Le problème est que ces protéines sont aussi victimes de la corrosion et deviennent moins efficaces." La botte secrète de Deinococcus, c'est un cocktail de molécules qui lui permet de blinder ses enzymes réparatrices contre la rouille moléculaire. "Nous disposons aussi d'une protection antioxydante - sans elle nous serions cramés avant même de pouvoir nous reproduire -, mais en quantité insuffisante pour vivre aussi longtemps que nous le souhaiterions." Une fois les pièges antiradicaux identifiés, le professeur Radman envisage de tester dès que possible cet élixir chez la souris. "Ce sera le grain de sable qui viendra ralentir, sinon arrêter, le tic-tac de notre horloge biologique. D'ici à une dizaine d'années, nous pourrions disposer d'un "vaccin" qui nous prémunisse individuellement contre le vieillissement et les maladies qui l'accompagnent."
Depuis deux ans, Miroslav Radman toque à la porte des instances nationales et européennes de la recherche en expliquant qu'il a besoin de 1 à 3 millions d'euros pour poursuivre ses travaux. "Leur réponse ? Le vieillissement est un processus très complexe, ce que vous dites est trop simple, ça ne peut pas marcher. Les scientifiques qui siègent dans les instances d'évaluation sont des ultraspécialistes, ils ne comprennent pas pourquoi, à 60 ans passés, je veux changer de sujet de recherche alors que je pourrais prospérer dans le domaine qui m'a fait connaître : la réparation de l'ADN. Le système est hostile aux scientifiques qui refusent de creuser dans le même trou !"
Chercher là où les autres ne cherchent pas, c'est ce qui intéresse par-dessus tout Miroslav Radman. "Le dirigisme étouffe la science ; ce n'est pas aux politiques ni aux industriels de fixer un cap aux chercheurs, s'énerve celui qui a grandi dans l'ex-Yougoslavie de Tito. Chaque grande découverte est une surprise aussi pour son découvreur. C'est en partant vers l'Inde que Christophe Colomb a découvert l'Amérique."
Le Point
|
|
|
|
|
|
|
|
Plusieurs études distinctes ont conclu que des scanners cérébraux permettraient de détecter des années plus tôt la maladie d'Alzheimer chez une personne. Un appareil capable d'établir ce type de diagnostic devrait être au point dans les douze prochains mois.
Des chercheurs ont réussi à mettre au point une technique qui permettrait de prévoir quelles personnes sont susceptibles d'être atteintes de maladies débilitantes dix ans avant que les premiers symptômes apparaissent. Grâce à cela, il serait possible de mettre en place un traitement et de se préparer avant que les effets dévastateurs se manifestent.
The Telegraph rapporte que plusieurs équipes de recherches à travers le monde travaillent sur l'utilisation possible des scanners obtenus grâce au PET (pour "positron emission tomography"), un matériel d'imagerie de pointe. De nouvelles études réalisées par les universités américaine et australienne du Texas et de Melbourne viennent d'être publiées. Celles-ci affirment être parvenues à une technique performante.
Le principe consiste à contrôler le développement de la bêta-amyloïde, une protéine connue comme étant liée aux démences et aux maladies cognitives. Elle serait potentiellement à l'origine des blocages entraînant des problèmes dans les processus de réflexion. Les études menées ont également pu mettre en évidence, avec dix ans d'avance, la présence d'images cérébrales qui rendent les scientifiques capables de prédire une maladie d'Alzheimer future.
Le professeur David Brooks du Collège impérial de Londres s'enthousiasme : "S'il y avait une manière de traiter la protéine amyloïde, cela serait vraiment prometteur". Car utiliser les images des scanners permet non seulement d'anticiper sur le diagnostic et donc sur la prise en charge, mais permet également d'apporter des indications sur ce qui est en train de se dérouler au sein du cerveau lorsque la maladie est déclarée.
Maxisciences
|
|
|
|
|
|
|
|
Un laboratoire argentin a réalisé une première mondiale en faisant naître Rosita, une vache Jersey portant deux gènes humains. L'Institut national de technologie agricole argentin a annoncé la conception du « premier bovin né au monde avec deux gènes humains contenant les protéines présentes dans le lait maternel ». Autrement dit, l'animal va donner du lait similaire à celui des humains. Le fait que la génisse porte deux gènes modifiés est inédit. L'un des responsables de cette expérience, Adrian Mutto, a expliqué : « L'objectif était d'améliorer la valeur nutritionnelle du lait de vache en ajoutant deux gènes humains, la protéine lactoferrine et le lysozyme ». Le lait ainsi enrichi favorise l'assimilation du fer pour la fabrication des globules rouges, le développement des dents et de certaines cellules (intestinales, antibactériennes, antivirales et antifongiques).
Plusieurs études relayées par l'Organisation mondiale de la santé (OMS) prouvent en effet que le lait maternel est meilleur pour les nourrissons que ses substituts en poudre. La vache née en Argentine pourrait donc aider les orphelins et les mères qui n'ont pas la possibilité d'allaiter. L'équipe argentine espère donc produire un lait similaire à celui des êtres humains. Les petits de Rosita « auront des gènes modifiés dans 25 à 30 % des cas, ce qui ouvre des perspectives pour les générations futures ». On ne saura que dans 10 mois si le lait de la génisse possède bien les propriétés du lait maternel humain. Elle pourra faire l'objet d'une simulation de grossesse.
Des chercheurs chinois ont annoncé récemment avoir mis au point un procédé similaire, mais en clonant deux vaches portant chacune l'un des deux gènes, alors que l'équipe argentine a réussi à implanter les deux dans une même vache. Le veau est né le 6 avril «par césarienne, en raison de son poids excessif, 45 kilos, alors que les (vaches) Jersey ne dépassent pas habituellement les 22 kilos» à la naissance, selon l'INTA. Il est surveillé «24 heures sur 24», a expliqué Nicolas Mucci.
Les chercheurs argentins ont introduit les deux gènes dans une même cellule en une seule injection et non en deux comme cela se faisait auparavant. «C'est très important, car cela améliore l'efficacité du procédé», a-t-il assuré. A l'âge adulte, la vache pourra «avoir des enfants qui auront des gènes modifiés dans 25 à 30 % des cas», a-t-il ajouté, «ce qui ouvre des perspectives pour les générations futures», selon l'INTA. Un laboratoire privé argentin avait créé le premier veau génétiquement modifié au monde en 2004 avec dans son ADN une hormone de croissance humaine permettant de produire des hormones de croissance à partir de lait de vaches génétiquement modifiées.
Youtube
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Rallier Paris à Tokyo en 2h30. Ce sera peut-être possible aux alentours de 2050. EADS, la maison mère d'Airbus, a lancé des études pour développer un prototype qui ressemble physiquement au Concorde dont les derniers vols commerciaux se sont arrêtés en 2003. La motorisation de cet avion du futur destiné aux voyages d'affaires avec une capacité de 50 à 100 sièges, permettrait tout à la fois de voler à très grande vitesse tout en étant écologique puisque son objectif est zéro émission polluante. Le premier vol expérimental de cette "avion-fusée pourrait intervenir d'ici 2020, c'est à dire plus de 50 ans aprés le premier vol du "Concorde".
Le projet a été baptisé ZEHST dans le cadre d'un partenariat associant EADS, l'ONERA, le laboratoire de recherche aérospatial français ainsi que le Japon. Une étude de faisabilité, financée par la Direction générale de l'aviation civile (DGAC) et son homologue nippone, a été lancée. Elle s'appuie sur les premiers résultats des recherches menées par Astrium, la filiale spatiale du géant européen de l'aéronautique, dans le cadre de son programme d'appareil sub-orbital, le Space plane.
L'originalité de cet appareil réside dans l'utilisation alternative de trois types de propulsion qu'il utilisera pendant les différentes phases du vol : du décollage jusqu'à 5000 mètres d'altitude, c'est un turbo-jet qui propulsera l'avion mais celui-ci utilisera des biocarburants de 3e génération développés à partir de la culture d'algues. Lors de la montée en altitude, au-delà de 20.000 mètres à 0,8 mach, l'appareil utilisera des moteurs cryogéniques comme ceux du lanceur Ariane, alimentés par de l'hydrogène. Puis pour le passage à sa très grande vitesse de croisière (mach 4) et à une très haute altitude (32.000 mètres), ZEHST utilisera des moteurs appelés Ramjets (qui équipent aujourd'hui aux missiles de croisière). Pour l'atterrissage, le pilote coupe les moteurs et amorce sa descente en planeur, avant de se poser en remettant les moteurs classiques de l'appareil.
Ces moteurs fonctionnent à l'hydrogène et l'oxygène. Ils sont donc "totalement propres et ne dégagent que de la vapeur d'eau", souligne Jean Botti, responsable de l'innovation" chez EADS.
EADS
|
|
|
|
|
|
|
|
La maladie d'Alzheimer va peser de plus en plus lourdement sur l'économie mondiale dans les années qui viennent, à mesure que la population vieillit, ont averti récemment des experts réunis au Congrès américain qui se plaignent du peu de moyens dont dispose la recherche contre ce mal qui touchera 115 millions de personnes d'ici une quarantaine d'années.
Entre 24 et 37 millions de personnes dans le monde souffrent aujourd'hui de la maladie d'Alzheimer. Et ce chiffre devrait atteindre les 115 millions d'ici à 2050, estiment les experts de cette maladie incurable. Devant la commission des Affaires étrangères de la Chambre des représentants, une poignée d'entre eux sont venus témoigner des risques que court l'humanité si la recherche n'est plus en mesure d'avancer faute de fonds suffisants.
La maladie "est la crise sanitaire et sociale la plus grave du XXIe siècle", a lancé Daisy Acosta, présidente de l'association Alzheimer's Disease International, dont le siège se trouve à Londres. Mme Acosta a évalué à 604 milliards de dollars le coût de la maladie d'Alzheimer en 2010, soit un pour cent du PIB mondial. "Si c'était un pays, ce serait la 18e économie du monde en termes de PIB ", a-t-elle observé. Mais les sommes consacrées à la recherche sont minimes par rapport à d'autres maladies, a observé Bill Thies, de l'Alzheimer's Association.
"Nous investissons six milliards de dollars par an contre le cancer, 4 milliards contre les maladies cardio-vasculaires et 2 milliards contre le sida. Pour Alzheimer, nous en sommes aux alentours de 450 millions", a-t-il relevé. George Vradenburg, de l'organisation USAgainstAlzheimer, a souligné que les pays occidentaux étaient les plus menacés par la dégradation du rapport actifs/inactifs et par la hausse des coûts de la santé. "Cela crée des tensions pour les systèmes de soins dans le monde entier. Cela risque de provoquer un ralentissement de la croissance économique dans les pays développés, particulièrement l'Europe occidentale et la ceinture du Pacifique", a-t-il pronostiqué.
Selon M. Vradenburg, une personne sur deux souffre de démence après 85 ans. "Les pays qui trouveront le moyen de soutenir leurs personnes âgées en les maintenant en bonne santé et dans le système de production seront les vainqueurs du XXIe siècle", a-t-il affirmé. "Nous allons être de plus en plus aux prises avec une population physiquement capable mais mentalement handicapée", a ajouté l'expert, appelant les Etats à trouver des outils de travail pour les malades afin d'éviter un effondrement économique. "Il faut faire du troisième âge des contribuables productifs faisant partie de la population active et non plus des assistés sociaux", a-t-il plaidé.
La Tribune
|
|
|
|
|
|
|
|
Voler grâce à de l’huile de friture usagée, c’est l’avenir pour la compagnie aérienne néerlandaise KLM qui vient d’annoncer qu'elle allait utiliser à partir de septembre ce biocarburant pour plus de 200 vols commerciaux assurant la liaison Amsterdam-Paris. «Il y aura 50 % de kérosène traditionnel et 50 % de biocarburant qui a été obtenu à partir d'huile de friture usagée», a déclaré à l'AFP Gedi Schrijver, une porte-parole de KLM, qui affirme que la compagnie néerlandaise est la première à assurer des vols commerciaux avec ce type de carburant. «Le biocarburant que KLM utilise répond aux mêmes spécifications techniques que le kérosène traditionnel», assure KLM dans un communiqué : «il n'y a donc pas besoin d'adapter les moteurs des avions ou les infrastructures».
Produit par la société américaine Dynamic Fuels, le biocarburant est obtenu à partir d'huile de friture, principalement végétale, provenant de restaurants. KLM assure, dans son communiqué, avoir franchi un «cap important pour rendre l'aviation plus durable».
Le premier vol de démonstration de KLM avec un avion utilisant du biocarburant à base d'huile de friture a eu lieu en novembre 2009, a rappelé Gedi Schrijver. «Nous n'avons pas encore déterminé la fréquence des vols ni la période sur laquelle les 200 vols auront lieu», a expliqué la porte-parole, selon laquelle KLM assure six vols quotidiens Amsterdam-Paris.
20 minutes
|
|
|
|
|
|
|
|
Des chercheurs de l’université de Koc à Istambul ont mis au point un système conçu pour améliorer la reconnaissance et l’interprétation des données fournies par un GPS par les automobilistes. Ils se sont en effet rendus compte que l’utilisation d’un système de navigation peut parfois déconcentrer un automobiliste, lorsque par exemple celui-ci reste les yeux rivés sur l’écran. En effet, ces outils ne se basent que sur les perceptions visuelles et auditives. Ainsi, les chercheurs ont mis au point un émetteur de vibrations installé dans le volant de la voiture. Ce dernier est directement lié au GPS ce qui lui permet de réagir en temps réel avec les données relatives à la navigation que ce dernier fournit.
Cette solution permet ainsi aux conducteurs de mieux percevoir la route et de mieux gérer les directions dans lesquelles ils doivent se diriger. En effet, il arrive que le conducteur discute avec les autres passagers, écoute de la musique, et soit moins concentré sur l'écran et la voix du GPS. Cela peut donc détourner son attention lorsqu’il faut changer de direction par exemple. De cette manière, si le GPS indique qu’il faut tourner à gauche dans 200 mètres, la partie gauche de son volant se mettra à vibrer.
Au cours de leurs expériences, les scientifiques ont noté que les erreurs de direction étaient plus fréquentes lorsque les conducteurs ne bénéficiaient que d’indicateurs sonores et visuels, que lorsque des signaux tactiles intervenaient en complément. Reste à savoir quelle solution adopter si le conducteur n’a pas les deux mains posées sur le volant. Pour information, ce système est encore en phase expérimentale. Il a été présenté au salon de Worlde Haptics les 21 et 24 juin à Istanbul, un événement consacré notamment aux nouvelles technologies tactiles.
L'Atelier
|
|
|
|
|
|
|
|
Airbus vient de dévoiler son avion du futur. Prévu pour 2050, cet appareil transparent sera équipé d'innovations technologiques dignes d'un film de science-fiction. Bien qu'un tel appareil ne puisse pas être mis en circulation avant 2050, Airbus a présenté ce qui sera son avion du futur. Transparente, la coque de l'appareil offrira un panorama sans pareil aux passagers de cet avion. Le revêtement extérieur devrait également être capable d'évoluer et de changer d'aspect en fonction des conditions climatiques. Selon le constructeur, l'avion a été pensé pour posséder une "structure bionique calquée sur l'ossature d'un oiseau".
Côté innovations, Airbus n'en reste pas là. Les différentes classes et leur répartition à l'intérieur de l'engin ont été complètement repensées. Désormais démocratisé, l'avant de l'avion disposera d'un espace de relaxation tandis que l'arrière sera dévolu au travail avec des conférences virtuelles disponibles. D'autres secteurs devraient également faire leur apparition avec des espaces de "socialisation" équivalents aux wagons bars des TGV ainsi que des aires interactives avec des jeux vidéo et des boutiques virtuelles. Le must, des espaces dits "vitalisants" et "antistress" capables de proposer des vitamines, de l'air enrichi aux antioxydants, des huiles essentielles ou encore de l'acupression. La cabine, "intelligente", saura s'adapter aux voyageurs et pourra "identifier et répondre à leurs besoins".
En outre, Airbus prévoit d'alimenter tous ces différents gadgets grâce à la chaleur corporelle dégagée par les passagers ! Le constructeur ne compte pas en rester là et les ingénieurs sont actuellement à pied d'oeuvre pour parvenir, à terme, à réduire le bruit en vol et à diminuer la consommation de carburant.
Airbus
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|