|
|
Edito
Comment apporter le très haut débit à deux Français sur trois, avec de la fibre optique, sans aide de l’État ?
Dans mon édito du 25 Mai dernier, j’ai voulu vous montrer comment le développement rapide des nouvelles technologies (automatisation intégrale de tous les déplacements individuels dans les agglomérations urbaines) pourrait donner un réel « coup de booster » à notre économie, donc participer à la relance tant recherchée par les Français et même par tous les Européens actuellement…
Aujourd’hui, je voudrais vous montrer que nous pourrions imaginer autrement certains très grands investissements, sans nécessairement demander à l’Etat d’apporter de fortes subventions d’équilibre, alors qu’il n’en peut plus !
Le Département du Rhône (1.700.000 habitants) est le seul département de France où toutes les communes, de la plus grande, Lyon avec 480.000 habitants, jusqu’à la plus petite, Saint Mamert (dans le haut Beaujolais) avec ses 62 habitants, sont entièrement desservies par la fibre optique.
Tous les Rhodaniens qui accèdent à ce réseau optique peuvent bénéficier de connexions qui leur délivrent quelque 100 Mégabits/seconde, avec un temps de réponse inférieur à 20 millisecondes, alors que la dernière étude nationale de Degrouptest montre que l’internaute français surfe, en moyenne, à un débit de 8,64 mégabits/seconde avec un temps de réponse de 73 millisecondes.
Et pourtant, ce réseau d’avant-garde, construit dans les années 1990, n’aura pas coûté un seul centime à l’Etat (aucune subvention n’a été demandée à l’Etat et à l’Europe), et l’Assemblée Départementale du Rhône aura intégralement récupéré, à la fin de la concession, les 500 millions de francs (76 millions d’euros) qu’elle a avancés en 1995, pour permettre la réalisation de cette opération exceptionnelle (1).
Comment cela est-il possible ?
Simplement en obtenant des opérateurs que tous les usages (hors la télévision) que font les collectivités publiques (Communes, Département, Région, Etat…) de ce réseau optique construit avec l’aide de l’argent public, soient gratuits pour ces collectivités.
Ainsi, aujourd’hui, toutes les Communes du Rhône (ce qui représente des milliers de prises) disposent gratuitement du très haut débit pour desservir tous leurs locaux auxquels il faut ajouter les écoles, les collèges, les lycées, les centres de secours, les centres sociaux, les établissements publics de santé, etc… et même le téléphone gratuit ou de la télésurveillance, s’ils s’organisent pour.
Selon les études officielles réalisées par les services du Conseil Général du Rhône, cela représente, pour 2011, une économie globale de quatre millions d’euros qui n’ont pas été versés aux opérateurs d’Internet et de téléphonie (Orange, SFR, Bouygues, Free, etc…) pour obtenir les mêmes services.
Or, si l’annuité de l’emprunt souscrit par le Conseil Général du Rhône s’élève encore aujourd’hui à 7 millions d’euros, celle-ci tombera à moins de 1 million d’euros en 2014 alors que l’économie réalisée par les collectivités publiques du Rhône s’élèvera toujours au moins à 4 millions d’euros, par an, et ce jusqu’en 2025, date de fin de la concession.
Ainsi, la preuve est apportée que la subvention, en dehors de celle de la collectivité directement bénéficiaire du service apporté, n’est pas nécessaire pour les 25 à 30 départements français dont la population dépasse les 800.000 habitants.
Par contre, l’État et l’Europe doivent se mobiliser sur les Départements peu peuplés (en cet instant, je pense à la Lozère) où le modèle économique (gratuité de tous les services publics obtenus sur ces réseaux) décrit ci-dessus n’est pas imaginable car le nombre de points publics gratuits ramené au montant de l’investissement serait trop faible.
Mais, même pour ces Départements, souvent très étendus, et très peu peuplés, il y a des procédures de construction beaucoup moins coûteuses des réseaux optiques qui pourraient être mises en œuvre. Ceci permettrait à des populations isolées, qui aujourd’hui n’ont même pas accès à l’ADSL, de retrouver l’espoir, tant elles ont conscience de l’importance du très haut débit pour maintenir la vie dans leurs villages et leurs hameaux, et surtout garder auprès d’elles les jeunes générations qui, sans ces emplois générés par les nouvelles technologies, devraient s’exiler vers d’autres régions mieux équipées.
Pour aborder l’Avenir, il nous faut savoir échapper aux schémas du Passé.
Aujourd’hui encore, beaucoup pensent qu’il n’est pas possible d’imaginer un grand équipement sans que l’État n’intervienne avec des capitaux importants. Or, dans notre nouveau modèle d’économie en réseaux, il est bien préférable que des millions d’utilisateurs apportent une contribution minime au lieu de demander à l’État des millions sinon des milliards de subventions et que les opérateurs sachent rendre gratuits certains usages pour permettre à des investisseurs spécifiques de bénéficier d’un juste retour sur investissement.
Cette nouvelle approche pragmatique donnera, certes, au Politique et au Haut Fonctionnaire, l’impression, justifiée, de détenir moins de pouvoirs mais ne s’inscrit-elle pas dans le droit fil de l’attente de nos concitoyens ?
René TRÉGOUËT
Sénateur Honoraire
Fondateur du Groupe de Prospective du Sénat
(1) - L’investissement global permettant de desservir toutes les communes du Rhône s’est élevé (à l’origine) à 1,5 Milliard de Francs (228 M€) (programme réalisé de 1995 à 2000). Sur cette somme globale, l’entreprise ayant emporté l’appel d’offres international (Time Warner) a apporté 1 milliard de francs (152 M€) et la collectivité (le Département du Rhône) a apporté une subvention d’équilibre de 500 millions (76 M€).
Il faut remarquer que la somme apportée, alors, par la collectivité pour réaliser cet investissement extraordinaire, ne représentait qu’un tiers des sommes nécessaires, alors que maintenant, il est souvent exigé des collectivités qu’elles apportent les deux tiers du budget si elles veulent voir un opérateur s’intéresser à leur projet !
Or, ce rapport 1/3 pour l’apport en argent public et 2/3 pour l’argent privé s’est montré particulièrement pertinent dans le temps et aucune dérive n’a été constatée.
Ainsi, un contrôle budgétaire officiel, remis ces temps derniers au Conseil Général du Rhône, vient de préciser que depuis l’origine de la construction du réseau optique du Rhône, en 1994, il y a eu 86 millions d’euros qui ont été apportés en argent public alors que dans le même temps les investisseurs privés ont apporté 190 millions. Ce qui donne un ratio du réellement dépensé depuis l’origine de ce réseau de 31% pour l’argent public et 69 % pour les capitaux privés.
Les résultats sont encore meilleurs que les prévisions faites à l’origine, en 1994, ce qui, vous en conviendrez, est particulièrement rare pour les investissements publics dans notre Pays.
|
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs de l'Universidad Carlos III de Madrid (UC3M) en Espagne ont développé un dispositif innovant permettant aux personnes souffrant de troubles mineurs de la vision de mieux distinguer les obstacles sur leur chemin. «Cet appareil cible les personnes qui se cognent partout parce qu'elles ne voient pas bien, suite à un glaucome ou à une maladie ou trouble de la rétine», commente le Professor Ricardo Vergaz du département de technologie électronique de l'institution espagnole.
L'équipe a créé le prototype en utilisant un dispositif de casque virtuel équipé de deux caméras. Un minuscule ordinateur est attaché aux caméras et traite toutes les images qu'il reçoit. Les chercheurs ont également mis au point un algorithme, qui permet au système de calculer la distance et la forme des objets. L'appareil transmet les informations pertinentes en temps réel à l'utilisateur grâce à deux micro-écrans. Ce que l'utilisateur voit est la silhouette des éléments ainsi que les différentes couleurs en fonction de leur distance par rapport à celui-ci.
«Il détecte les objets et les personnes en déplacement dans le champ de vision d'une personne qui ne souffrirait d'aucun trouble de la vision», commente le professeur Vergaz. «Souvent, le patient n'arrive pas à les percevoir à cause de problème de contraste. Les informations sur la profondeur sont souvent défectueuses chez les personnes nécessitant ce type d'aide technique.» L'équipe de l'université espagnole collabore avec un groupe de l'Instituto de Oftalmología Aplicada de l'Universidad de Valladolid, toujours en Espagne, pour tester l'appareil en utilisant des lunettes «intelligentes». Leurs travaux se concentrent sur la validation et l'évaluation de l'applicabilité de l'appareil.
«Après les tests de l'appareil sur un échantillon de personnes pouvant bénéficier de cette innovation, nos collègues de Valladolid nous informeront des résultats finaux à la fin de l'année», commente le professeur Vergaz. «Nous pourrons évaluer le succès et la validité de ses performances et les améliorer.»
Enfin, les chercheurs visent à optimiser l'ergonomie de l'appareil pour assurer que l'utilisateur n'est pas gêné en portant les lunettes ou par le minuscule mécanisme électronique. Les experts expliquent que ce dernier développement contribue à renforcer la conception et l'innovation de technologies innovantes conçues pour les personnes souffrant de troubles. L'équipe travaille également sur un autre dispositif comprenant une loupe virtuelle.
«L'innovation principale réside dans le type d'algorithme développé, qui sera utilisé par l'utilisateur pour ne pas se perdre à la lecture d'un texte», commente le professeur Vergaz. Selon l'équipe, la lecture sera plus simple pour les utilisateurs, permettant de ne pas sauter de ligne ou de lire les références textuelles. Le contenu lu est contrôlé par un écran d'ordinateur, de tablette ou de téléphone portable. Les personnes souffrant de diminution de la vue dans le centre de la rétine, dont les personnes souffrant d'une dégénération maculaire liée à l'âge, bénéficieront fortement de cet appareil innovant.
Cordis
|
|
|
|
|
|
|
|
En modifiant chimiquement des molécules de synthèse utilisées depuis plusieurs dizaines d'années dans l'industrie pour le processus de photocopie Xerox, les triarylamines, et en observant celles-ci à la lumière et en solution, Nicolas Giuseppone et ses collègues de l'Institut Charles Sadron avaient réussi en 2010 à obtenir pour la première fois des nanofils. Longs de quelques centaines de nanomètres, ces fibres sont constituées par l'assemblage dit "supramoléculaire" de plusieurs milliers de molécules.
Au cours d'une seconde étape, ces chercheurs ont étudié, en collaboration avec l'équipe de Bernard Doudin, de l'Institut de Physique et Chimie des Matériaux de Strasbourg (IPCMS) les propriétés électriques de ces nanofils. Et pour ce faire, ils les ont mis en contact avec un microcircuit électronique comportant des électrodes en or séparées de 100 nanomètres et ont appliqué un champ électrique entre celles-ci. Or, ils ont observé que sous l'action d'un flash lumineux, les fibres se construisent uniquement entre les électrodes. De plus, ces structures, qui s'avèrent aussi légères et flexibles que les plastiques, se sont révélées capables de transporter des densités de courant extraordinaires, supérieures à 2.106 Ampères par centimètre carré, approchant ainsi celles des fils de cuivre, qui plus est avec des résistances d'interface avec les métaux très faibles, 10.000 fois inférieures à celle des meilleurs polymères organiques actuels.
Reste à présent pour ces chercheurs à démontrer que ces fibres peuvent être intégrées industriellement dans des appareils électroniques miniaturisés (écrans souples, cellules solaires, transistors, nano-circuits imprimés ...). Les résultats de ces travaux ont été publiés le 22 avril dernier dans l'édition en ligne avancée de la revue Nature Chemistry.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Pendant longtemps, les processus d'automatisation ont été décriés comme étant des «jobkiller», des tueurs d’emplois, et de fait de nombreuses machines peuvent désormais être pilotées sans aucune participation humaine. Mais dans le même temps, ces évolutions ont conduit à embaucher plus de gens à d'autres endroits, explique le site allemand FAZ.
«L'automatisation peut faire disparaître des emplois. Mais quand elle rend l'entreprise compétitive et quand l'écoulement des produits est boosté par le processus d'automatisation, la production augmente. Ce qui peut plus que compenser les emplois qui ont été supprimés à l'origine», explique Norbert Irsch, économiste en chef de la banque d'Etat allemande KfW, qui publie chaque année une étude sur le lien entre innovation et emploi.
Les petites et moyennes entreprises qui innovent créent donc plus d'emplois que celles qui s'intéressent moins à la recherche et au progrès.
Forte de 230.000 emplois, l'industrie de l'automatisation allemande a vu son rôle changer au cours des dernières décennies, explique le Welt. Dans les années 1970, les robots ont d'abord pris la place des emplois manuels, ce qui a enfoncé leur réputation de tueurs de jobs.
«L'automatisation est depuis longtemps une machine à jobs. Elle crée de nouvelles industries et pousse les anciennes à rester en Allemagne», explique Gunther Kegel, patron de l'entreprise Pepperl+Fuchs Allemagne, spécialisée dans le matériel de sécurité.
Sans elle, l'industrie des semi-conducteurs, qui concerne la fabrication d'ordinateurs, de radios et de téléviseurs, n'existerait pas. Pas un seul des 1.000 éléments qui composent un iPad ne peut par exemple être soudé à la main.
Même dans le domaine des économies d'énergie, l'automatisation joue également un rôle de taille. Elle permet de réduire jusqu'à 25 % des coûts énergétiques, selon une étude publiée par la ZVEI, la fédération de l'industrie électronique et électrotechnique.
«Sur le long terme, cela garantit près de trois millions d'emplois dans les branches énergies-intensives de l'industrie allemande», estime Roland Bent, directeur Marketing et développement chez l'entreprise Phoenix Contact, leader dans le domaine de la connectique industrielle.
Slate
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des dalles à LED modulaires et à durée de vie optimale, voilà le crédo d’Oya Light, jeune société qui veut concurrencer le marché du néon. Les dalles LED se changeront bientôt aussi facilement que des ampoules. Telle est l’ambition d’Oya Light, jeune start-up du côté de Rennes qui commercialise des dalles de plafond, murales et suspendues d’une puissance de 20 à 40 watts. Leur particularité tient à leur conception autour de quatre modules amovibles, constitués d'une barrette d’une centaine de LED. Si l’une d’elles tombe en panne, il suffit de changer la barrette concernée sans avoir à remplacer tout le système.
Les trois fondateurs, Jacques Sisomsack, Marie-Laure Le Fourn et Eric Deblonde se lancent dans l’aventure en janvier 2012, avec la conviction d’apporter une valeur ajoutée au marché de l’éclairage professionnel. « Nous apportons une garantie sur la durée de vie de nos dalles grâce à l’électronique, que l’on ne retrouve pas chez la majorité des constructeurs », explique Marie-Laure Le Fourn, PDG d’Oya Light. L’autre atout de la start-up est de fabriquer et d’assembler ses dalles en France, en faisant appel à des sous-traitants. Seuls les composants des LED sont importés de l’étranger.
Oya Light garantit une durée de fonctionnement de 50 000 heures, contre 30 à 40 000 heures pour des dalles à LED classiques, et 12 à 15 000 heures pour un éclairage néon.
Industrie & Technologies
|
|
|
|
|
|
|
|
Energy Pool, Schneider Electric et le CEA ont annoncé, vendredi 25 mai 2012, le lancement du projet EnR-Pool, ayant pour objectif de favoriser le développement des énergies renouvelables grâce à la modulation participative de la consommation énergétique d’industriels à très forte consommation.
Ce lancement a eu lieu sur le site de Savoie Technolac (Le Bourget-du-Lac), en présence de M. le Sénateur Jean-Pierre Vial, Président de Savoie Technolac, Co-président fondateur de l’INES et membre de la commission Energie du Sénat.
Le projet EnR-Pool consiste à évaluer de quelle manière des clients industriels peuvent, en adaptant ponctuellement leur consommation électrique, contribuer à résoudre certaines problématiques liées à l’insertion des énergies renouvelables intermittentes sur le réseau, tout en améliorant leur compétitivité. Pour ce faire, EnR-Pool développera des solutions et des modèles économiques permettant de valoriser les mécanismes de délestage et de consommation à la demande grâce à la mise en œuvre du projet.
« La production aléatoire des énergies renouvelables n’est pas nécessairement corrélée avec les besoins des consommateurs et peut induire de réelles difficultés pour la gestion du système électrique, explique Olivier Baud, Président Fondateur d’Energy Pool et Pilote du projet EnR-Pool. L’éolien et le solaire étant des énergies intermittentes et variables, mais prédictibles, le projet EnR-Pool a pour vocation d’apporter des solutions au problème d’équilibre entre production et consommation d’électricité, en s’appuyant sur une participation active des consommateurs. »
Le projet EnR-Pool est piloté par Energy Pool, en partenariat avec Schneider Electric et les équipes du CEA à l’INES, et financé par l’ADEME dans le cadre des Investissements d’Avenir à hauteur de 1,1 million d’euros sur un budget total de 2,3 millions d’euros. D’une durée de trois ans, EnR-Pool prévoit un programme d’actions visant à :
agréger et mesurer la production de plusieurs centaines de MW d'énergies renouvelables d’origines éolienne et solaire ; étudier la fiabilité des outils de prévision de rendement existants ; relever la consommation de gros consommateurs issus de plusieurs grands sites industriels en France métropolitaine ; développer des systèmes permettant une évaluation des capacités de ces mêmes sites à faire de la modulation électrique et à contribuer à l'équilibrage du réseau électrique ; analyser les nouveaux mécanismes des marchés de l'énergie.
EnR-Pool vise ainsi à valider la faisabilité technique de la démarche puis à développer des systèmes et modèles d’affaires permettant de valoriser les efforts réalisés par l’ensemble des parties : consommateur, producteur, gestionnaire du réseau et acteur d’équilibre. A terme, le principe de gestion de la demande d’électricité développée par EnR-Pool pourrait permettre de diminuer ou de décaler la consommation lorsque le vent chute et/ou le soleil se cache, et inversement de la stimuler lorsque la production est importante alors que la demande est faible. Le maintien de l’équilibre du réseau en serait ainsi facilité à moindre coût.
CEA
|
|
|
|
|
|
|
|
Des chercheurs britanniques pensent avoir mis au point une mémoire cent fois plus rapide que la NAND Flash. La RAM résistive, ou ReRAM, consiste en des puces composées d'oxyde de métal qui disposent d'une propriété résistive et changent d'état en fonction de la tension appliquée sur celles-ci. Cette valeur résistive induite est enregistrée même si la tension n'y est plus appliquée, par exemple dans le cas d'une mise hors tension du système.
D'après les chercheurs de l'UCL, University College of London, ces puces ReRAM promettent également d'offrir beaucoup plus d'espace de stockage que les puces NAND Flash actuellement utilisées, tout en consommant moins d'énergie et en étant plus petites. Une récente publication dans le "Journal of Applied Physics" explique ainsi que la nouvelle structure composée d'oxyde de Silicium répond mieux au changement fréquent de la tension qui induit la valeur résistive de la cellule qu'avec les anciens matériaux utilisés.
Au sein de la cellule, les atomes de carbone s'alignent pour former des filaments qui sont plus ou moins résistifs, ainsi le nombre de filaments permet de passer d'un état 1 à un état 0 très rapidement. L'UCL va plus loin dans sa présentation en indiquant que ce nouveau matériau développé pour ces puces est potentiellement moins cher à produire, plus robuste dans le temps et pourrait même être assez fin pour fabriquer des puces quasi-transparentes.
"Nos puces ReRAM ne nécessitent qu'un centième de l'énergie et sont cent fois plus rapides que les puces NAND Flash standards", annonce Dr Tony Kenyon, ingénieur à l'UCL au département Electronique et Electrique. Ces recherches se rapprochent de celles d'HP sur les Memristors, qui sont basées sur du dioxyde de Titane et disposeraient des mêmes propriétés que la ReRAM. Cette nouvelle approche par l'oxyde de Silicium permettrait d'intégrer des puces de stockage bien plus facilement à des puces de traitement, comme des processeurs, pour réaliser des puces hybrides avec une base de stockage ultrarapide pour du cache de grande taille et une couche supérieure pour les transistors du CPU par exemple.
De plus, un autre ingénieur de l'UCL, Adnan Mehonic explique que "Le potentiel de ce nouveau matériau est énorme. Pendant nos phases de test, nous nous sommes aperçus qu'il était possible de programmer des puces à plus de deux états de conductivité", ce qui pourrait également rejoindre d'autres recherches plus avancées encore.
PC World
|
|
|
|
|
|
|
|
La détection efficace d'explosifs tels que le trinitrotoluène (TNT) constitue un défi difficile en matière de sécurité. En effet, ces composés sont très peu volatils, et pour les détecter à distance, il faut des capteurs extrêmement sensibles. Les systèmes actuels détectent des concentrations de l'ordre de 1 ppb 2 (une molécule pour 109 molécules d'air), performance qui peut s'avérer insuffisante pour assurer la sécurité d'un aéroport, par exemple. Or, de nombreux animaux ont un odorat pouvant descendre bien en dessous de ce seuil. Parmi ceux-ci, le Bombyx du Murier (Bombyx mori), un papillon de nuit capable de réagir à la capture de seulement quelques molécules de phéromone. Ses antennes sont composées de brins d'une longueur proche du millimètre, sur lesquels sont placés un grand nombre de sensilles, de tout petits brins de taille micrométrique directement reliés aux neurones sensoriels. C'est cette structure qu'ont voulu imiter les chercheurs.
Le système qu'ils ont mis au point est constitué d'un micro-levier en silicium de 200 microns de long pour 30 de large. Ce support a été nanostructuré par environ 500 000 nanotubes de dioxyde de titane alignés verticalement. Ces nanostructures ont pour but de multiplier d'environ un facteur 100 la surface du micro-levier, et d'augmenter d'autant les chances de capturer les molécules recherchées. La mise en vibration du micro-levier est le test permettant de savoir si l'air ambiant contient des traces de TNT et si ces molécules ont été capturées par le dispositif. En effet, le micro-levier possède une fréquence de résonance propre qui est modifiée de façon spécifique lorsqu'il absorbe des molécules d'explosif.
Pour tester les performances de ce dispositif, les chercheurs ont libéré de façon contrôlée de très faibles quantités de TNT. Ainsi, ils ont pu établir que la sensibilité de ce dispositif était de 800 ppq (800 molécules pour un million de milliards de molécules (1015)). Aucun dispositif actuel ne peut détecter d'aussi faibles concentrations d'explosifs. De telles performances s'approchent de celles des chiens entraînés.
Un travail de recherche et développement est encore nécessaire avant d'obtenir un appareil facilement utilisable à partir de ces leviers nanostructurés. L'une des prochaines étapes est de concevoir un dispositif capable de reconnaître de manière spécifique le type d'explosif absorbé. Les scientifiques souhaitent d'ores et déjà adapter ces micro-leviers pour la détection d'autres explosifs, tels que la pentrite, susceptibles de poser un problème de sécurité en Europe. Par ailleurs, cette méthode pourrait aussi servir à détecter diverses drogues, qui, tout comme les explosifs, sont très peu volatiles. En matière environnementale, ce dispositif bio-inspiré pourrait permettre de mesurer d'infimes traces de polluants tels que les composés organiques volatils, devenus un problème sanitaire majeur.
CNRS
|
|
|
|
|
|
|
|
Des scientifiques de l'université de technologie de Nanyang, à Singapour, travaillent sur une puce capable de transmettre sans fil de grandes quantités de données rapidement. Le chipset, nommé VIRTUS, permet de transférer 2 Gbit de données par seconde. À titre de comparaison, le Wi-Fi 802.11n atteint un débit théorique de 300 Mbit/s avec la technologie MIMO. Cette puce sans fil se rapproche en fait plus du Bluetooth puisqu'elle est censée utiliser peu d'énergie pour fonctionner. Ce chipset 60 GHz basse consommation est constitué d'une antenne, d'un émetteur-récepteur radiofréquence et d'un processeur baseband.
Selon le scientifique à la tête du projet, VIRTUS pourrait trouver sa place dans les deux années à venir à l'intérieur de terminaux commercialisés. Et le chercheur d'imaginer déjà les usages qui pourraient en être fait : « un large éventail de nouvelles applications [sera permis] telles que l'affichage sans fil, l'informatique mobile distribuée, le streaming vidéo en direct en haute définition, le jeu vidéo interactif multijoueurs en temps réel et plus encore. » Les scientifiques auraient été approchés par des leaders de l'industrie de l'électronique et des semi-conducteurs pour développer commercialement cette puce. Elle sera exposée au Computex qui se tiendra du 5 au 9 juin à Taipei.
igeneration
|
|
|
|
|
|
|
|
Des chercheurs de l’EPFL (Ecole Polytechnique Fédérale de Lausanne) ont mis au point un outil permettant de contrôler et d’économiser l’énergie consommée par les grands centres de données et de traitement informatique. Il a été développé en collaboration avec Crédit Suisse, qui en a équipé l’alimentation de ses racks de serveurs.
Un clic de souris sur son ordinateur, et c’est une cascade d’appareils qui s’enclenchent et une multitude de connexions qui s’activent. Au final, et de clic en clic, c’est une quantité d’électricité de plus en plus importante qui est ainsi consommée. Internet représente actuellement 8 % de l’énergie utilisée annuellement en Suisse, un chiffre qui pourrait rapidement atteindre 15 % à 20 % dans les années à venir.
Afin d’enrayer cette spirale, des chercheurs du Laboratoire des systèmes embarqués (ESL) de l’EPFL proposent une solution permettant de réaliser d’importantes économies d’énergie, «d’au moins 30 %, et pouvant même aller jusqu’à 50 % de ce qui est consommé à l’heure actuelle», estime David Atienza, directeur de l’ESL.
Appelé «Power monitoring system and management (PMSM)», ce nouvel outil offre le moyen de monitorer la consommation électrique d’un centre de données. Il peut aussi être utilisé pour répartir les charges de travail entre les nombreux serveurs informatiques, ces machines qui gèrent les services offerts sur la toile - courrier électronique, partage de fichiers, opérations commerciales, stockage de données.
Il consiste en un boîtier électronique comprenant un ensemble de capteurs. Chacun d’eux peut être connecté soit à l’alimentation des racks, soit directement à l’un des câbles qui alimentent les composants électroniques du serveur. En mesurant en direct le courant qui y passe à un moment donné, il peut ainsi connaître la puissance utilisée, enregistrer ses variations et contrôler que rien ne surchauffe. Toutes ces informations sont transmises à un serveur central ou le logiciel de contrôle du PMSM est exécuté. Compulsées avec d’autres données – telles que température de la salle ou ordre de priorité des opérations en cours -, elles sont traitées, puis mises sous forme de tableaux montrant l’évolution de la consommation d’énergie des serveurs, qui peuvent être consultées à distance et en temps réel.
- Plus de puissance dans moins d’espace
L’intérêt de cette invention est qu’elle offre une vision d’ensemble précise et inédite de l’utilisation d’un parc de serveurs. De plus, le système peut proposer des reports de charges de travail d’une machine à l’autre, et génère ainsi d’importantes économies d’énergie. «Deux serveurs fonctionnant à 40 % chacun consomment beaucoup plus qu’un seul à 80 %», illustre David Atienza.
Développé à la demande de la société Crédit Suisse, qui cherche à réduire l’empreinte énergétique et économique de ses centres de données, ce nouvel outil a déjà été installé sur l’alimentation des racks comptant quelque 5200 serveurs du grand centre de données de la banque à Zurich. Selon Marcel Ledergerber, responsable de la gestion de ce complexe, la solution proposée par l’ESL est particulièrement intéressante pour l’entreprise, car elle s’inscrit dans un processus de «virtualisation» déjà en cours depuis quelques années. Une évolution qui veut qu’une puissance de calcul informatique toujours plus grande soit progressivement assumée par un nombre de moins en moins élevé de serveurs. «Le PMSM nous permet de concentrer nos machines dans un espace plus restreint, explique-t-il. Les informations précises qu’il nous fournit nous permettent de mieux contrôler les questions de température, et donc de gérer le tout de manière plus sûre.»
EPFL
|
|
|
|
|
|
|
|
La lutte contre le changement climatique est devenue un des sujets les plus sérieux de notre époque, et l'efficacité comme la chasse au gaspillage énergétique sont vues comme des moyens crédibles de diminuer les émissions de gaz à effet de serre.
Alors que, traditionnellement, les économistes et les politiques publiques se focalisent sur la mise en place de mécanismes de taxation (taxe carbone) et les dispositifs de soutien financier des énergies renouvelables (tarifs d'achat incitatifs pour le solaire photovoltaïque), la mise en place de telles politiques - quand elle est possible - se heurte souvent au manque de fonds publics et à la difficulté d'évaluer leur efficacité. C'est pourquoi on observe un intérêt croissant pour les programmes de conservation d'énergie qui ne sont pas basés sur des mécanismes financiers, mais plutôt sur des techniques visant à inciter des changements comportementaux, et dont l'impact est mesurable grâce à des études sur des grands échantillons de populations.
L'avantage de ces méthodes - issues de l'étude psychologique du consommateur - est qu'elles sont relativement peu onéreuses par rapport aux politiques de soutien financier, comme par exemple celui de la filière des énergies renouvelables. Par ailleurs, elles sont parfois capables d'avoir des impacts considérables sur la consommation des ménages lorsque les mécanismes psychologiques sont bien appréhendés, puis activés. La principale difficulté réside alors dans la conception d'une approche qui aura un impact maximal lorsqu'elle sera déployée à grande échelle.
De nombreuses start-up utilisent les résultats récents des recherches menées en psychologie pour développer des outils sophistiqués qui amèneront les ménages à plus de retenue dans leur consommation. Ces start-up, bien que très jeunes, trouvent auprès des fournisseurs d'énergie une oreille attentive, notamment en Californie, où ces derniers sont en effet soumis par le régulateur à des objectifs très précis d'efficacité énergétique dans le cadre du Global Warming Solution Act de 2006. En France, la loi Grenelle 1 impose un objectif d'amélioration de 20 % de l'efficacité énergétique de la Communauté Européenne. Le "20/20/20" Européen comprend des objectifs en terme d'efficacité énergétique, déclinés dans chaque pays d'Europe en objectifs nationaux, tous comprenant un volet "Maîtrise de l'énergie". Que ce soit via l'envoi de courrier régulier, l'offre de coupons de réduction, la mise en comparaison avec les voisins, la compétition ou l'utilisation d'Internet et des réseaux sociaux, chaque start-up propose sa sauce secrète pour un impact maximal, à moindre coût !
Les réseaux sociaux peuvent apparaître comme la solution ultime qui déclenchera les comportements adéquats et saura atteindre la plus grande partie des consommateurs. Les réseaux sociaux vont ils sauver l'humanité des risques associés au changement climatique ?
Bulletins Electroniques
|
|
|
|
|
|
|
|
AREVA Solar, filiale d’AREVA, a été sélectionnée par le groupe indien Reliance Power Limited pour la construction en Inde d’une installation d’énergie solaire à concentration (CSP) de 250 MW, la plus grande d’Asie à ce jour. Le projet s’inscrit dans le cadre du programme indien d’énergie propre prévoyant d’accroître de 20 000 MW la capacité de production d’énergie solaire d’ici à 2022 et évitera ainsi l’émission de 557 000 tonnes de CO2 par an par rapport à une centrale conventionnelle au charbon.
Dans l’Etat du Rajasthan, AREVA construira deux centrales CSP de 125 MW utilisant la technologie thermique solaire à concentration (CLFR) et fournira des services d’assistance au pilotage du projet. La première centrale du programme Reliance est en cours de construction et sa mise en service commerciale est prévue en 2013.
JP Chalasani, Président de Reliance Power, a déclaré : « Reliance Power est fier d’être l’un des chefs de file pour le développement des énergies propres en Inde. Cette annonce n’est qu’un début. Nous avons hâte de travailler avec AREVA Solar et ainsi aider l’Inde à atteindre ses objectifs d’énergie propre grâce à ce type de projet ».
Luc Oursel, Président du Directoire d’AREVA, a déclaré : « AREVA se réjouit de participer au programme de développement de l’énergie solaire en Inde et de soutenir l’ambition de Reliance dans les énergies propres. Nous apporterons toute notre expérience afin que l’Inde et Reliance en particulier deviennent des acteurs mondiaux de l’industrie solaire. Après notre succès dans l’éolien en mer en France, ce contrat conforte la stratégie d’AREVA dans le domaine des énergies renouvelables ».
Le contrat conclu avec Reliance renforce la position d’AREVA Solar en tant que fournisseur international de premier plan de solutions CSP pour les grandes centrales solaires, pour l’apport de puissance supplémentaire aux centrales traditionnelles au charbon et pour les applications solaires hybrides. Ce projet permet à AREVA de renforcer et de diversifier ses solutions à faible émission de CO2 en Inde.
Areva
|
|
|
|
|
|
|
|
Depuis que l’engagement d’arrêter toutes les centrales nucléaires en Allemagne d’ici à 2022 a été signé, de nombreux projets innovants liés aux énergies alternatives commencent à porter leurs fruits. L’une des dernières prises de position a été celle du maire de Munich, Christian Ude, qui s’est donné comme objectif de voir sa ville entièrement alimentée par l’énergie verte d’ici à 2020.
Le grand pari pour atteindre cet objectif ambitieux est l’énergie éolienne, considérée comme la moins coûteuse de toutes les productions d’énergies alternatives. Le Land de Bavière, dont Munich est la capitale, est connu pour avoir le plus grand potentiel d’accueil des parcs éoliens on-shore d’Allemagne. «La Bavière possède le plus grand potentiel d’accueil pour les éoliennes de tout le pays. Néanmoins ce marché vient à peine de naître dans la région», affirme Christian Ude.
En effet, d’autres régions d’Allemagne possèdent un nombre d’éoliennes bien supérieur à la Bavière qui n’en détient que 486. Par exemple, le Land de Basse-Saxe compte 5.501 turbines à vent. Le Land de Brandebourg en dénombre 3.053, tandis qu’à l’heure actuelle Munich ne dispose que d’une seule turbine en construction.
Le plan de construction a été fixé à 200 éoliennes approximativement, et pourrait fournir 1 milliard de kWh d’ici à 2020. Chaque turbine fournira environ 5 millions de kWh et chacune pourra combler les besoins en électricité d’environ 2.000 foyers. Munich est une ville qui compte 1,3 million d’habitants dont chaque ménage représente en moyenne 3,5 personnes. Ainsi avec 200 turbines, cela suffirait selon les calculs à couvrir les besoins énergétiques de toute la ville. Outre l’énergie éolienne, d’autres sources d’énergies alternatives pourront être utilisées dans le cahier des charges de l’énergie verte, comme l’énergie solaire, la biomasse, le biogaz, etc.
Les éoliennes ne peuvent pas être intégrées directement dans la ville de Munich car cela perturberait la qualité de vie des habitants avec un niveau sonore élevé et des perturbations produites par la rotation des turbines, sans parler de l’apparence visuelle d’une ville où il y aurait des turbines rotatives en grand nombre. C’est pour cette raison que le plan de construction ne concerne que les communes et villages périphériques. Jusqu’à présent, 40 collectivités ont manifesté leur intérêt pour ce projet, en acceptant d’accueillir des parcs de production constitués d’au maximum trois éoliennes.
Le coût de construction d’une éolienne avoisine les 5 millions d’euros. Il apparaît donc que le projet de construction de 200 éoliennes représenterait un investissement de 1 milliard d’euros. À l’heure actuelle, les collectivités sont prêtes à couvrir 50 % des frais de construction mais elles veulent en contrepartie toucher 50 % des bénéfices. Les frais restants seront couverts soit par le gouvernement soit par des sociétés privées. Le plus grand promoteur à ce jour est la SWM Bayernwind, une filiale de Stadtwerke München GmbH, premier producteur d’énergie en Bavière.
Certains partis ne soutiennent pas ce projet, car il dessert la nature, défigure les paysages, génère du bruit et des perturbations. Le fait est reconnu : quiconque vit à proximité d’une éolienne en activité peut sentir une agaçante vibration du sol, un léger tremblement de terre. D’autre part, les turbines représentent un danger pour les oiseaux qu’elles frappent de leurs ailerons.
L’argument en faveur de cette énergie est qu’une turbine produisant 5 millions de kWh par an peut fournir 2.000 ménages en électricité et, ce faisant, remplacer 1,9 tonne de charbon, permettant d’éviter l’émission d’environs 5.000 tonnes de CO2 dans l’atmosphère. Enfin, c’est une énergie fiable, et des catastrophes à grande échelle, telles que Fukushima, pourront être évitées.
La Grande Epoque
|
|
|
|
|
|
|
|
Faire un Paris-Lyon d'une traite avec une voiture électrique est aujourd'hui impensable. L'autonomie des batteries se situe autour de 150 kilomètres et leur temps de recharge est d'environ huit heures… Pour lever cette contrainte majeure, le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) propose de faire du «deux en un». Autrement dit d'associer sous le même capot deux sources d'énergie électrique : des batteries couplées à une pile à combustible.
Capable de produire de l'électricité à partir d'oxygène et d'hydrogène tout en rejetant de la vapeur d'eau, ce générateur, développé à l'origine pour les besoins de la conquête spatiale, agit comme «un prolongateur d'autonomie», explique Florence Lambert, chef du département de l'électricité de l'hydrogène pour les transports au CEA-Liten, à Grenoble.
D'un côté la pile à combustible (PAC) recharge les batteries lorsque la voiture est en mouvement continu, à l'arrêt ou en décélération. De l'autre, les batteries fournissent à la PAC le surplus d'énergie nécessaire, par exemple, lors de fortes accélérations. Ce «coup de pouce» permet de lisser le fonctionnement de la pile en lui évitant de subir de brutales variations de puissance, préjudiciables à sa tenue dans le temps. En clair : tout le monde est gagnant à commencer, bien sûr, par l'automobiliste.
Le CEA a, en effet, mis au point il y a trois ans, dans le cadre d'un partenariat avec PSA Peugeot Citroën un prototype de véhicule tout électrique équipé d'une pile à combustible d'une puissance de 20 kilowatts (kW) couplée à une batterie de 15 kW, qui dispose d'une autonomie de près de 500 kilomètres ! Le tout avec 4 kg d'hydrogène embarqué dans des réservoirs sous pression à 700 bars.
«La technologie ayant fait ses preuves, nous travaillons maintenant à son industrialisation, en particulier le contrôle et la réduction des coûts», poursuit Florence Lambert. Pour cela, le CEA s'est doté sur son site de Grenoble, d'une plate-forme ouverte à l'ensemble de ses partenaires industriels (PSA, Renault, Daimler, Solvay, Venturi, Hexcel…). L'objectif est de concevoir et de fabriquer, par «une approche intégrée», de petites séries de piles à combustible dont la sortie des premiers exemplaires est prévue à la fin de l'année.
De son côté, le constructeur allemand Daimler envisage de commercialiser dès 2014, ses premiers modèles de voitures tout-électrique haut de gamme alimentées par un couple batteries-PAC.
Il faudra cependant patienter encore un peu avant que ces véhicules soient à la portée de «M. Tout-le-Monde». Les 250 chercheurs du département dirigé par Florence Lambert tentent notamment de développer des technologies économes en platine. Ce métal rare et cher (environ 37.000 €/kg), qui joue le rôle de catalyseur, représente environ 25 % du coût total de la PAC. Pour réduire les quantités, les scientifiques tentent de le «nanostructurer» ou encore de l'associer avec du cobalt.
Autre défi à relever : l'approvisionnement de la pile à combustible en hydrogène. Si la combustion de ce gaz présente le grand intérêt de ne pas dégager de gaz à effet de serre comme le CO2, sa production, dans les conditions actuelles, en émet en revanche de grandes quantités. «Il faut produire l'hydrogène de manière verte, sinon cela ne sert pas à grand-chose», souligne Nicolas Bardi chef du département des technologies biomasse et hydrogène au CEA-Liten qui fonde de grands espoirs sur les procédés d'électrolyse «haute température».
CEA
Le Figaro Sciences
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Une étude publiée le 20 mai sur le site Internet de la revue Nature Geosciences montre que les herbiers pourraient jouer un rôle primordial dans la régulation des changements climatiques, s’ils réussissent à survivre aux activités humaines.
Les herbiers sont des plantes à fleurs sous-marines aux feuilles longues et étroites, qui ressemblent à première vue à des graminées terrestres. Ils poussent sous la forme de grandes prairies, des pâturages sous-marins et auraient les qualités exceptionnelles de pouvoir stocker deux fois plus de carbone que les forêts tropicales et tempérées et cela à surface comparable.
L’étude intitulée «Seagrass ecosystems as a globally significant carbon stock» est la première du genre à analyser le cycle du carbone des prairies d’herbiers côtiers. Les scientifiques de l’université de Floride, en collaboration avec une équipe internationale, ont pu démontrer que cet écosystème très répandu sur la planète peut stocker jusqu’à 83.000 tonnes métriques de carbone par kilomètre carré, principalement dans le sol autour des plantes. Par comparaison, une forêt stocke environ 30.000 tonnes métrique par km2, dont une grande partie sous forme de bois. D’après les scientifiques américains, ces herbiers stockent 90 % de leur carbone dans les sols. Ainsi, si les herbiers ne couvrent que 0,2 % de la surface des océans, ils permettent de capturer 10 % du carbone piégé par les océans chaque année.
«Les herbiers côtiers n’occupent que peu d’espace sur la bande côtière mais cette évaluation montre qu’il s’agit d’un écosystème dynamique pour la transformation du carbone», explique James Fourqurean, l’auteur principal de l’étude et professeur à l’université de Floride. «Les herbiers ont une capacité unique à stocker en continu du carbone dans leurs racines et dans le sol des zones côtières. Nous avons même trouvé des exemples de strates d’herbiers ayant piégé du carbone depuis des milliers d’années.»
En Méditerranée, qui est la région où les plus fortes concentrations de carbone ont été détectées, ces prairies ont développé des capacités de séquestration jusqu’à plusieurs mètres sous la surface de la mer. Mais il s’agit aussi de l’un des écosystèmes les plus en danger de la planète. A l’échelle mondiale, environ 29 % des herbiers ont été détruits jusqu’à présent, en raison des opérations de dragage et de la dégradation de la qualité des eaux du littoral. Et cette attaque continue, puisque 1,5 % des herbiers disparaissent chaque année. L’étude estime que la destruction de cet écosystème pourrait générer l’équivalent de 25 % des émissions de carbone liées à la déforestation terrestre.
Chose remarquable avec ces herbiers, c’est qu’une fois restaurés, ils peuvent rapidement séquestrer du carbone et tout leur système de puits de carbone se remet à fonctionner. Ils sont bénéfiques à l’écosystème entier puisqu’ils filtrent les sédiments, protègent les côtes des tempêtes et des inondations, les stabilisent en les protégeant de l’érosion.
Journal de l'Environnement
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Dans un article à paraître dans Plos One, des chercheurs de l’Inserm ont réussi à préserver la fonction visuelle de rats atteints de glaucome. Cette maladie, associée à une élévation anormale de la pression à l’intérieur de l’oeil, peut conduire à la cécité. L’équipe de chercheurs dirigée par Christophe Baudouin au sein de l’Institut de la Vision ((Inserm/CNRS/UPMC) a ciblé des molécules spécifiques de l’inflammation : les chimiokines. Le blocage d’un des récepteurs aux chimiokines (CXCR3) a entraîné une diminution de la pression à l’intérieur de l’oeil, grâce à la restauration de l’écoulement normal de l’humeur aqueuse, conduisant à une protection de la rétine et de la fonction visuelle.
Deuxième cause de cécité dans le monde, le glaucome touche cinquante à soixante millions de personnes dont 6 à 7 millions sont aveugles. En France, environ 800 000 personnes sont traitées pour un glaucome. Cette maladie se caractérise par une destruction progressive du nerf optique et une altération irréversible de la fonction visuelle, généralement associée à une élévation anormale de la pression à l’intérieur de l’oeil.
Cette forte pression intraoculaire est causée par une résistance à l’écoulement normal de l’humeur aqueuse au niveau d’une structure oculaire spécifique: le trabéculum. Toutefois, la dégénérescence des tissus du trabéculum, à l’origine de ce dysfonctionnement, est mal comprise.
Les traitements actuels contre le glaucome ne ciblent pas directement la trabéculopathie originelle. Ceci pourrait en partie expliquer l’échec thérapeutique souvent observé et conduisant parfois à la cécité en dépit d’une prise en charge médicale optimale.
L’équipe de chercheurs dirigée par Christophe Baudouin à l’Institut de la Vision est impliquée dans l’étude des mécanismes physiopathologiques responsables de la trabéculopathie glaucomateuse, et plus spécifiquement du rôle de certaines molécules de l’inflammation appelées chimiokines.
Plusieurs chercheurs de cette équipe viennent de montrer sur des tissus de patients glaucomateux et sur une lignée cellulaire humaine de trabéculum, l’existence d’une balance entre la chimiokine dite CXCL12, et une forme tronquée de celle-ci, le SDF-1(5-67). Tandis que la première favorise la viabilité des tissus du trabéculum via le récepteur CXCR4, l’autre forme induit la mort trabéculaire via le récepteur CXCR3. Il semble que le passage d’une forme "saine" à la forme tronquée est favorisé par un environnement particulier et des cytokines et métalloprotéinases impliquées dans le glaucome.
Dans un deuxième temps, les chercheurs ont observé dans un modèle animal de glaucome, que le blocage de CXCR3 permet de diminuer la pression intraoculaire, de restaurer la fonction de filtration du trabéculum, et de préserver ainsi la fonction visuelle en protégeant la rétine.
Ces travaux permettent d’améliorer la compréhension du glaucome. Pour Alexandre Denoyer, premier auteur de cette publication, "La stratégie inédite utilisée ciblant les chimiokines au niveau du trabéculum pourrait aboutir au développement d’un traitement innovant en remplacement ou en complément des traitements à long terme par les collyres actuels."
Inserm
|
|
|
|
|
|
|
|
Un spray nasal destiné à vérifier les liens entre le diabète et la maladie d’Alzheimer et un anticorps monoclonal contre les plaque amyloïdes vont faire l’objet d’essais cliniques poussés aux Etats-Unis. Les chercheurs des NIH (Instituts nationaux de la santé) aux Etats-Unis ont retenu deux essais cliniques innovants à financer en priorité pour lutter contre la maladie d’Alzheimer. Le premier est un spray nasal avec de l'insuline qui fera l’objet d’essais clinique dans le but de restaurer la mémoire chez des personnes atteintes de la maladie d'Alzheimer.
Des recherches faites précédemment ont établi un lien entre maladie d'Alzheimer et le diabète. En 2010, une étude avait montré que des patients aux premiers stades de la maladie d’Alzheimer et qui utilisaient un spray insulinique fabriqué par la société Kurve Technology avaient fait état de capacités améliorées dans la poursuite de leurs activités quotidiennes. Un essai clinique élargi permettra de vérifier le lien entre diabète et maladie d'Alzheimer.
Le second essai clinique examinera les possibilités du Crenezumab, un anti-corps monoclonal développé par le laboratoire américain Genentech, contre les plaques amyloïdes, dont l'accumulation dans le cerveau paraît empêcher les cellules cérébrales de commniquer. Cette accumulation de protéines sur la surface du cerveau est considérée comme le principal responsable de la maladie d'Alzheimer par une majorité de neurologues.
L'essai clinique portera sur 300 sujets sans aucun symptôme, mais porteurs d’un géne muté qui les prédispose à la maladie d’Alzheimer dès l’âge de 40 ans. Tous vivent en Colombie. Si la molécule se révèle efficace, elle sera ensuite testée sur les patients qui n’ont pas cette prédisposition génétique.
Les essais cliniques ciblant les plaques amyloïdes ont pour l’instant été des échecs. Cette étude colombienne se propose d’attaquer le problème différemment : elle cible la couche de protéines qui se forme sur le cerveau dans le but d’empêcher ou de reculer l’apparition des pertes de mémoire. Si elle s’avérait efficace, elle démontrerait l’hypothèse que les plaques amyloïdes jouent un rôle clé dans la formation de la maladie. Cet essai clinique, d'une durée de cinq ans, sera financé à hauteur de 16 millions de dollars par les NIH, 15 millions par des dons privés et 65 millions par Genentec.
Agevillage
|
|
|
|
|
|
|
|
Si vous cherchez à prolonger votre espérance de vie, la pratique de la course à pied plusieurs fois par semaine serait une véritable fontaine de jouvence, d'après les chiffres d'une étude intitulée Copenhagen City Heart.
Selon les chercheurs, les hommes qui pratiquent fréquemment la course à pied ajoutent en moyenne 6,2 années à leur espérance de vie, contre 5,6 pour les femmes.
Les résultats préliminaires de ces recherches ont été présentés récemment à un colloque sur la santé du coeur qui s'est déroulé à Dublin. Les chercheurs ont suivi plus de 19 000 hommes et femmes depuis 1976 pour étoffer les connaissances des scientifiques au sujet de la prévention des maladies cardiaques et des accidents vasculaires cardiaques.
Le Docteur Peter Schnohr a eu l'idée de se pencher sur les effets de la course à pied pour savoir s'ils étaient positifs ou négatifs. Certains détracteurs de cette pratique sportive pensaient qu'elle était trop dure pour les quadragénaires et les quinquagénaires de constitution normale, et qu'elle pouvait avoir un impact sur le coeur qui pouvait être évité.
«Les résultats de l'étude permettent enfin de trancher sur cette question», explique le cardiologue, avant d'ajouter : «Nous pouvons affirmer avec certitude que la pratique fréquente de la course à pied prolonge l'espérance de vie. La bonne nouvelle c'est que vous n'êtes pas obligés de fournir un énorme effort pour en récolter les fruits.»
Les chercheurs ont découvert en effet qu'une à deux heures et demie par semaine suffisent, réparties sur deux ou trois séances, pour en tirer le maximum d'effets positifs, surtout en adoptant une foulée lente ou moyenne.
La foulée idéale, selon le docteur Schnohr, est décrite en ces termes : «Essayez de vous sentir un peu à bout de souffle, mais pas trop.»
Les activités physiques favorisant l'oxygénation des poumons et la santé cardio-vasculaire («aérobiques») comme la course à pied se sont également avérées plus efficaces pour réduire son taux de graisse abdominale que les exercices de résistance, qui peuvent avoir de graves conséquences sur la santé, d'après les chercheurs.
Les personnes qui parviennent à préserver leur santé «aérobique» en vieillissant peuvent retarder leur horloge biologique de douze ans et rester autonomes à un âge avancé, d'après une étude publiée il y a quelques années dans la revue British Journal of Sports Medicine.
La Presse.ca
|
|
|
|
|
|
|
|
Un nouveau traitement contre des cancers avancés ou métastasés du sein "représente une percée", selon la principale auteure de l'étude clinique internationale, qu'elle présentait à Chicago. Un essai clinique international a montré l'efficacité d'un traitement expérimental contre des cancers avancés ou métastasés du sein. Les résultats, attendus, ont été dévoilés récemment à Chicago lors d'un grand colloque sur le cancer.
Développé par la firme américaine Genentech, partie du groupe pharmaceutique helvétique Roche, le T-DM1 a permis un gain de survie "absolue" sans progression du cancer de 3,2 mois (plus 50 %). Ceci représente 9,6 mois, en comparaison à 6,4 mois dans le groupe témoin.
Près de 1000 patientes atteintes d’un cancer du sein HER2+ métastasé (dont les cellules cancéreuses ont essaimé dans l’organisme pour créer d’autres tumeurs ou métastases). La moitié de ces femmes ont reçu le T-DM1 et l’autre moitié le traitement classique de référence, une chimiothérapie par capecitabine (Xeloda ®) et du lapatinib (Tyverb ®). La période durant laquelle la maladie n’a pas progressé (appelée survie sans progression) a été de 9,6 mois sous T-DM1 contre 6,4 mois dans l’autre groupe. La réduction du risque d’aggravation a été évaluée à – 35 %. La médiane de survie globale (période à laquelle la moitié des patients sont toujours en vie) est de 23,3 mois pour les patientes sous Xeloda et Tyverb. Dans le groupe T-DM1, les données ne sont pas disponibles car après deux ans, plus de la moitié des femmes sont toujours en vie. On constate cependant qu’après deux ans, 65,4 % des patientes sous T-DM1 étaient encore en vie, contre 47,5 % dans l’autre groupe.
Au-delà de ces résultats très encourageants sur le plan thérapeutique, la bonne nouvelle est que les femmes sous T-DM1 ont moins d’effets secondaires que celles de l’autre groupe (40,8 % contre 57 % pour les effets secondaires sévères) ; soit moins de diarrhée, de syndrome main-pieds, de nausées et pas de perte de cheveux comme le souligne le Professeur Kimberly Blackwell du Duke Cancer Institute et principale auteur de cette étude : "Ce médicament est efficace. Il apparaît réellement meilleur que le traitement approuvé pour les cancers du sein HER2+ métastatique.
Après deux ans, 65,4% des patientes ayant été traitées avec le T-DM1 dans le cadre de cet essai clinique de phase 3 étaient encore en vie, comparativement à 47,5% chez les autres. Elles étaient toutes atteintes d'un cancer du sein dit HER2 positif, dans lequel les cellules tumorales contiennent des quantités élevées de protéine HER2. Celle-ci rend la tumeur très agressive et représente de 15 à 20 % de tous les cas.
"Pour les patientes atteintes d'un cancer du sein métastasé, ce nouveau traitement représente une percée", a déclaré le Docteur Kimberly Blackwell, professeur de Médecine au Centre sur le cancer de l'Université Duke (Caroline du nord), principale auteure de cette étude clinique."Ce traitement marche et s'est avéré nettement meilleur qu'une thérapie efficace déjà sur le marché pour traiter des cancers du sein HER2 positif ayant fait des métastases", a-t-elle jugé. La chercheuse a souligné aussi la faible toxicité de cet anti-corps armé d'une puissante toxine, ajoutant que "les malades ne perdent pas leurs cheveux". Au total, près de mille femmes ont participé à cet essai clinique, baptisé EMILIA. Ces malades avaient aussi déjà été traitées avec une thérapie ciblée combinant l'herceptin pour neutraliser la protéine HER2 et le Paclitaxel, qui empêche la division cellulaire des tumeurs.
RTS
NEJM
|
|
|
|
|
|
|
|
C’est un véritable miracle qui a été réalisé par des chercheurs suisses. En stimulant une moelle épinière sectionnée, ils ont réussi à, non seulement refaire marcher, mais aussi, courir un rat dont les pattes étaient paralysées. C’est ce que révèle une étude qui vient de paraître dans la revue Science. Si jusqu’à présent, seuls, dans les films et selon certaines croyances, les paralytiques retrouvaient l’usage de leurs jambes et remarchaient, l’expérience menée par Grégoire Courtine de l'Ecole polytechnique fédérale de Lausanne (EPFL) et ses collègues de l'Ecole polytechnique fédérale de Zurich (EPFZ), pourrait permettre le passage de la fiction au concret, du miracle à la réalité.
Depuis plus de 5 ans, ces chercheurs suisses explorent le système nerveux. Leur travail minutieux et acharné a fini par porter ses fruits, car ils ont ainsi découvert de nouveaux éléments fondamentaux permettant de mieux comprendre son fonctionnement. A partir de ces informations, ils ont décidé de mener une expérience sur des rats ayant subi de graves dommages au niveau de la moelle épinière, et ne pouvant plus se mouvoir.
A l’aide d’une stimulation électrique et chimique ciblée sur les parties sectionnées de la moelle, les chercheurs ont déclenché une réponse au niveau des cellules nerveuses afin d’activer la sécrétion de neurotransmetteurs et de permettre le passage de l’information d’un neurone à un autre. Puis, ils ont équipé les rongeurs d’un harnais robotisé pour faciliter les mouvements. En quelques semaines, les animaux avaient retrouvé la capacité de mouvoir leurs pattes et, très vite, ils remarchaient, certains arrivant même à courir.
Pour imiter les graves lésions de la moelle épinières, qui peuvent paralyser de nombreuses personnes, les chercheurs ont anesthésié une centaine de rats, et ont réalisé deux coupes sur la moelle épinière sectionnant ainsi de nombreuses connexions neuronales, indique la doctorante qui a participé à cette étude, Rubia van den Brand pour la revue Scientific american. Les rats ont ensuite été placés sur un tapis roulant, dans un harnais robotisé qui les maintienne à la verticale. A ce moment-là, les sujets ont été soumis à deux types de stimulations, juste en dessous des lésions. D’abords les chercheurs leur ont injecté un cocktail de produits chimiques qui agissent comme des neurotransmetteurs, c’est-à-dire qui stimulent les neurones. On les appelle les monoamines (adrénaline, dopamine etc.) précise le chercheur dans une interview pour le site L’Essentiel. Entre cinq et dix minutes après, des électrodes leur ont été implantées sur la partie dorsale de la moelle épinière pour la stimulation électrique. Une fois stimulée, la moelle épinière est de nouveau capable de recevoir et d’interpréter les signaux que lui envoient les organes sensoriels.
Cependant cela ne suffit pas, il faut aussi beaucoup d’entraînement qui dure des semaines pour que le rat puisse remarcher correctement. «Après quelques semaines d’entraînement, les nerfs repoussent, il y a de nouvelles voies de communications qui vont contourner la lésion et qui permettent aux rats de marcher volontairement. Les nerfs se reconstituent sur l’ensemble du système nerveux central, y compris dans le cerveau avec une augmentation de 400 % des connexions qui viennent du cortex» indique Grégoire Courtine.
Cependant il précise que «Si l’on entraîne ces rats uniquement sur un tapis roulant (comme le font la plupart des patients actuellement), on ne voit pas de neuroplasticité des voies nerveuses en provenance du cerveau. Le robot que l’on a créé agit un peu comme si deux physiothérapeutes aidaient le patient à marcher en le soutenant s’il tombe, mais sans l’aider à aller en avant. Le robot fournit des conditions sécurisées pour que le rat essaye par tous ses moyens de reprendre le contrôle de ses pattes paralysées. Les premières séances comprennent 90 % de tapis roulant et 10 % de robot et puis, petit à petit, les proportions s’inversent.»
L’impressionnante repousse des fibres nerveuses laisse penser qu’une voie prometteuse s’ouvre pour améliorer la récupération des personnes souffrant de lésion de la moelle épinière. «C'est la coupe du monde de la neuroréhabilitation, déclare Grégoire Courtine. Nos rats sont devenus des athlètes, alors même qu’ils étaient complètement paralysés quelques semaines auparavant. Je parle d’une récupération à 100 % des capacités de mouvements volontaires.»
Les essais de phase II sur l’homme commenceront dans un ou deux ans au Balgrist University Hospital Spinal Cord Injury Centre à Zurich, en Suisse. Entre-temps, les chercheurs de l’EPFL coordonnent un projet de neuf millions d’euros appelé NeuWalk dont le but est de créer un système de neuroprothèses pleinement opérationnel pour la colonne vertébrale, qui ressemble à celui utilisé sur les rats, en vue d’une utilisation chez l'homme.
EPFL
Information Hospitalière
Science
|
|
|
|
|
|
|
|
Les 35.000 gènes qui composent le génome de la tomate sont intégalement décryptés et disponible gratuitement sur Internet (solgenomics.net). Un consortium international de 300 chercheurs regroupant 14 pays, dont la France, est parvenu à séquencer, au terme de six ans de travail acharné, l'intégralité du génome de cette plante emblématique et de son parent sauvage (Solanum pimpinellifolium).
Le décryptage de l'intégralité des informations contenues dans les 12 paires de chromosomes de cette solanacée originaire d'Amérique est une excellente nouvelle pour les millions d'agriculteurs et de jardiniers amateurs qui la cultivent dans le monde. Plates, rondes, ovales, cornues, rouges, noires, jaunes ou vertes, on dénombre plusieurs milliers de variétés de tomates pour une production mondiale de 126 millions de tonnes (chiffres FAO, 2007), en constante progression. Ce qui fait du «pomodoro», comme l'appellent les Italiens, le troisième légume consommé dans le monde derrière la pomme de terre et la patate douce.
«En fait, sur le plan botanique, la tomate est un fruit. Les généticiens la considèrent même comme le cobaye de tous les fruits charnus (pomme, pêche, prune…)», corrige le Professeur Mondher Bouzayen, directeur du laboratoire génomique et biotechnologie des fruits (Inra, INP-Ensat), à Toulouse. La publication de son génome, dévoilé dans la revue Nature, va donc permettre de réaliser «des avancées considérables» en matière de création variétale pour un grand nombre d'espèces végétales.
La grande famille des solanacées, dont la tomate fait partie aux côtés de l'aubergine, du poivron, du piment ou de la pomme de terre, devrait bénéficier, elle aussi, de ces retombées. Ces végétaux sont la deuxième ressource alimentaire mondiale, après les céréales, et leur importance est amenée à croître dans les prochaines années, notamment du fait de l'incitation à consommer d'avantage de fruits et de légumes.
«Ces plantes sont génétiquement très voisines : si on ne met pas de “jumelles”, on ne voit quasiment pas de différences !, poursuit le Professeur Bouzayen. Pourtant, c'est peu dire qu'une tomate ne ressemble pas à une pomme de terre. L'un des enjeux consiste maintenant à comprendre pourquoi des génomes aussi semblables s'expriment de manière aussi différente.»
Sur un plan plus pratique, les consommateurs sont en droit d'espérer une amélioration significative des qualités gustatives et nutritionnelles de la tomate. «La synthèse de composés complexes comme les arômes, les pigments ou certaines vitamines est gouvernée par un très grand nombre de gènes que nous ne connaissons pas encore», confie le Professeur Bouzayen, tout en soulignant que l'environnement au sens large, notamment les conditions de cultures, joue un rôle déterminant.
De leur côté, les agriculteurs devraient pouvoir compter sur des variétés capables de mieux résister à la sécheresse, aux maladies et aux insectes nuisibles, avec à la clé des économies d'eau et une réduction de l'usage des pesticides. À noter que la France, en particulier les chercheurs de l'Inra, de l'INP et de l'Ensat de Toulouse, a joué un rôle moteur dans cette entreprise en séquençant l'intégralité du chromosome 7 de la tomate et en mettant en œuvre une nouvelle technique de séguençage à haut débit, 500 fois plus rapide et efficace que les précédentes.
Le Figaro
Inra
|
|
|
|
|
|
|
|
Dans l’arsenal thérapeutique utilisé pour apaiser les douleurs aiguës ou chroniques, l’hypnose constitue une arme de choix.
Longtemps cantonnée aux salles de spectacle où elle était nimbée d’un halo de magie, l’hypnose a acquis de nouvelles lettres de noblesse en faisant son entrée à l’hôpital. A vrai dire, elle y était déjà largement admise aux XVIIIe et XIXe siècles en tant que pratique analgésique, avant d’être supplantée par la découverte des techniques d’anesthésie. Elle y revient donc aujourd’hui et elle est de plus en plus couramment utilisée pour soulager la douleur, aiguë ou chronique, en complément des traitements classiques : médicaments, physiothérapie, psychothérapie ou psychiatrie.
- A chacun son jardin personnel
Loin d’envoûter un individu, l’hypnose modifie son état de perception et le conduit dans une forme de transe. Il s’agit là d’une disposition que tout un chacun peut éprouver, notamment lorsqu’il est «dans la Lune». Mais en clinique, le thérapeute «oriente cette expérience naturelle», comme le dit Eric Bonvin, médecin-directeur des Institutions psychiatriques de l’Hôpital du Valais à Monthey (Suisse), afin d’aider le patient à apprivoiser sa douleur. Lorsqu’une personne a mal, son corps et son esprit sont en effet mobilisés par cette expérience sensorielle et émotionnelle désagréable. L’hypnose lui permet de ne plus être sous l’emprise de la douleur soit en «jouant» avec cette elle, soit en détournant son attention de sa souffrance et en la focalisant sur un autre objet.
A chacun de trouver le sien, en fonction de son vécu et de sa culture. Lorsqu’il pratique l’hypnose ericksonienne – du nom de son initiateur, le psychiatre américain Milton Erickson, et qui est la plus couramment employée – le thérapeute ne donne pas de directive. Il agit «comme s’il amenait son patient à la porte de son jardin personnel. Il n’y rentre pas et, avec des mots choisis, il accompagne la personne dans ses choix d'aménagements ou de réaménagement intérieurs», précise Guillaume Finti, physiothérapeute au CHUV à Lausanne et hypnothérapeute.
Cette thérapie a pour effet d’abaisser le seuil de perception de la douleur et de modifier son vécu. Elle permet notamment de soulager les souffrances aiguës provoquées par des changements de pansement ou autres situations douloureuses et angoissantes vécues à l’hôpital. Guillaume Finti cite l’exemple de cet enfant que l’on devait piquer à la main : «Il s’était “mis” des gants de boxe imaginaires et n’avait rien senti.»
La méthode est aussi efficace lors des soins aux grands brûlés, à en croire une étude réalisée en Suisse en 2006-2007 qui portait sur 23 patients ayant été hypnotisés. Il en ressort que l’hypnose permettait de diminuer les doses de morphine et autres opiacés et d’abaisser les scores mesurés des douleurs et de l’anxiété. En outre, elle réduisait le nombre d’interventions sous anesthésie et réduisait les coûts hospitaliers. Sans oublier les bienfaits psychologiques pour les patients qui étaient plus impliqués dans leur traitement.
L’hypnose agit différemment dans le cas de la douleur chronique. En effet, la douleur aiguë fonctionne comme une alarme qui nous incite à éviter une situation dangereuse. Il arrive toutefois qu’elle perdure, même lorsque la menace est passée et que les lésions sont guéries. Le système d’alerte est alors déréglé et la douleur devient figée. «Dans ce cas, l’hypnose capte la dimension dynamique de la douleur afin de la transformer et de la remettre en mouvement», explique Eric Bonvin. Elle permet, ajoute Guillaume Finti dans son langage imagé, «d’extirper la personne prise en otage par sa souffrance».
Certes, l’hypnose n’est pas la panacée pour lutter contre la douleur, mais sa pratique soulage les patients et permet de diminuer la quantité de médicaments qui leur sont prescrits. Elle n’a rien de miraculeux, mais ses résultats peuvent être surprenants.
Slate
|
|
|
|
|
|
|
|
Une équipe de chercheurs lyonnais et grenoblois (Léon Bérard et ImmunID Technologies) ont identifié un marqueur biologique permettant d'évaluer le taux de survie en cas de rechute du cancer du sein. Ce biomarqueur est la lympho-divpénie; il permet de mesurer la quantité et la diversité des lymphocytes responsables des défenses immunitaires.
Cette découverte est une première mondiale et a été réalisée à partir du suivi de 133 patientes atteintes d'un cancer du sein métastasique et soignées de 2004 et 2010 au centre Léon Bérard de Lyon. Les chercheurs ont pu montrer une corrélation nette entre le nombre et la diversité des lymphocytes et la durée moyenne de survie des patientes.
Ce biomarqueur a notamment permis d'identifier le type de malades qui avaient le plus fort risque de décès rapide (moins de huit mois de survie) et ne répondaient pas à la chimiothérapie. A terme, ces recherches devraient permettre de stimuler les défenses immunitaires des malades pour augmenter leurs chances de survie.
Oncoimmunology
Le Parisien
|
|
|
|
|
|
|
|
Le génome complet de 260 enfants atteints de cancer ainsi que celui de leur tumeur vient d'être mis à disposition des chercheurs du monde entier par le St. Jude Children's Research Hospital, l'un des plus grands centres spécialisés américain, qui a lancé un vaste projet avec l'université de Washington. «On est en train de décortiquer chacune des tumeurs de l'enfant», s'enthousiasme le Professeur Gilles Vassal, pédiatre oncologue, directeur de la recherche clinique à l'Institut Gustave-Roussy (IGR, Villejuif), «ce travail apporte des informations sur ce que sont les tumeurs et les altérations qui les caractérisent. On va pouvoir identifier leur talon d'Achille».
Car l'intérêt d'identifier une mutation particulière est de permettre, potentiellement, un traitement ciblé sur l'altération. D'ailleurs la France s'est dotée depuis 2006 de 28 plates-formes hospitalières de génétiques moléculaires qui dans certains cancers ont systématisé la démarche. On a alors plus de chance de donner au patient une chimiothérapie efficace pour son type de cancer et on évite, en outre, d'administrer le traitement à d'autres patients, pour qui il serait inutile. Malheureusement, il existe de nombreuses mutations possibles. Or, lorsqu'elles sont rares, le seul moyen de les repérer est de mettre en commun un maximum de données. Ce que viennent justement de faire les chercheurs du St. Jude : «Seulement 350 gènes du cancer sur un total supposé d'environ 2 000 ont été identifiés, souligne-t-il, et les causes génétiques de bien des cancers demeurent donc inaccessibles.»
Grâce aux outils perfectionnés développés ces dernières années, les chercheurs ont cependant considérablement accéléré leur travail : «Depuis 3 ans, la nouvelle génération de machines permet de séquencer l'intégralité du génome au lieu d'être restreint à 1 ou 2 % de celui-ci, ce qui permet de découvrir des mutations dans des parties inattendues du génome», explique le Professeur Daniel Gautheret, chef de l'unité bio-informatique de l'IGR. À Gustave-Roussy, on recherche d'ailleurs toutes les mutations pour lesquelles il existe des traitements lorsque des patients sont en situation d'échec thérapeutique.
Pour le Professeur Vassal, le travail du St. Jude a le mérite d'être centré sur les cancers de l'enfant: «Les enfants ont des tumeurs et des mutations différentes de celles de l'adulte.» On compte chaque année environ 2500 nouveaux cas en France. Les cancers les plus fréquents sont les leucémies (29 %), les cancers du cerveau (23 %) et les lymphomes (12 %) selon le Bulletin épidémiologique hebdomadaire du 28 décembre 2010.
Autre avantage du séquençage à haut débit qui révolutionne la génétique des cancers, mieux comprendre l'agressivité de certains cancers, relève le Professeur Gautheret : «Même pour un seul patient, on trouve à l'intérieur d'une tumeur des cellules ayant un patrimoine génétique sans danger et d'autres qui, même si elles ne représentent qu'un petit pourcentage de la tumeur, confère au cancer sa résistance au traitement et sa capacité à former des métastases.» Il devient alors particulièrement intéressant de cibler spécifiquement ces cellules agressives.
Le Figaro
|
|
|
|
|
|
|
|
BioLineRx, une société de développement biopharmaceutique basée à Jérusalem, a signé un accord de licence exclusif avec Ramot Tel Aviv University Ltd., la société de transfert de technologies de l'université de Tel Aviv, pour le développement et la commercialisation du BL-7050, un nouveau traitement par voie orale contre les douleurs neuropathiques et inflammatoires. Les termes financiers de l'accord n'ont pas été divulgués.
La nouvelle molécule agit en inhibant l'activité des neurones transmettant la douleur en utilisant un nouveau mécanisme d'action. Des essais pré-cliniques in-vitro et sur des modèles animaux de douleur neuropathique et inflammatoire ont montré l'efficacité de la molécule à réduire l'activité neuronale et la douleur. En outre, la molécule dispose d'un meilleur profil d'innocuité. Le BL-7050 est basé sur une technologie qui a été développée dans le laboratoire du Professeur Bernard Attali du département de physiologie et de pharmacologie de la faculté de médecine Sackler à l'université de Tel Aviv. "On a plus que jamais besoin de médicaments antidouleurs sûrs, efficaces et présentant peu d'effets secondaires," a déclaré le Professeur Marshall Devor, un expert de renommée mondiale dans le domaine de la douleur, du département de biologie cellulaire et développementale à l'université hébraïque de Jérusalem. "Les essais pré-cliniques indiquent que BL-7050 possède des propriétés favorables du point de vue de la biodisponibilité, de la sécurité et de l'efficacité."
"Les douleurs chroniques neuropathiques ou inflammatoires sont une des principales causes d'invalidité et l'une des raisons les plus fréquentes pour lesquelles les patients consultent leur médecin de famille," a déclaré le Docteur Kinneret Savitsky, PDG de BioLineRx. "Le marché des antidouleurs neuropathiques, qui a atteint 2,4 milliards de dollars en 2009 dans les sept principaux marchés (Etats-Unis, Japon, Royaume-Uni, France, Allemagne, Italie, Espagne), est saturé de médicaments qui n'offrent pas une solution adéquate, en raison soit d'une efficacité limitée soit d'effets secondaires inacceptables, et il y a un besoin évident de nouveaux traitements plus efficaces." Le BL-7050 est une nouvelle entité chimique basée sur la structure moléculaire du diclofénac (Voltaren), un anti-inflammatoire non stéroïdien bien connu, largement utilisé dans le traitement des douleurs nociceptives et inflammatoires. Cependant, le BL-7050 agit grâce à un mécanisme d'action novateur, à savoir l'ouverture de canaux potassiques spécifiques dans les cellules nerveuses. L'ouverture de ces canaux réduit l'activité des cellules nerveuses, réduisant ou bloquant ainsi les signaux de douleur.
Bulletins Electroniques
|
|
|
|
|
|
|
|
Pour la première fois au monde, des chercheurs israéliens ont greffé sur un cœur en mauvais état souffrant d’insuffisance des cellules de peau âgées qu’ils ont au préalable reprogrammées en cellules cardiaques. D’après l’étude qui vient d’être publiée dans l’European Heart Journal, les premiers résultats sont très encourageants. A terme, cette technique pourrait permettre de soigner différemment le grand nombre de personnes atteintes d’insuffisance cardiaque.
Maladie fréquente, notamment dans les pays industrialisés, l’insuffisance cardiaque se caractérise par une incapacité du cœur à assurer un débit cardiaque suffisant pour couvrir l’ensemble des besoins énergétiques de l’organisme, en raison d’une défaillance de la fonction cardiaque. Chaque année, plus de 120 000 français sont nouvellement diagnostiqués et 32 000 décèdent des suites de cette pathologie. Les risques de souffrir de cette maladie très souvent handicapante augmentent avec l’âge. S’il existe des traitements médicamenteux (Inhibiteur de l'enzyme de conversion et bêtabloquants) efficaces qui améliorent de façon importante le pronostic vital, de nombreux travaux de recherche à travers le monde tentent de découvrir la thérapeutique qui permettra à terme de réduire les risques d’être atteint d’insuffisance cardiaque.
En étudiant les cardiomyocytes, cellules cardiaques, Lior Gepstein et ses collègues du Centre médical Rambam, au Technion de Haïfa (Israël), ont remarqué leur incapacité à se régénérer. La principale conséquence de ce constat est que lorsqu’elles sont abîmées et qu’elles entraînent une baisse des fonctions cardiaques, le corps est incapable seul de palier au problème. Seule solution, la greffe.
C’est dans cette optique que les chercheurs israéliens ont décidé de tenter une expérience hors du commun. Dans un premier temps, ils ont prélevé des cellules de peau d’hommes souffrant d’insuffisance cardiaque. Puis dans un deuxième temps, ils ont mis ces cellules en culture dans un milieu contenant des facteurs de croissance permettant de transformer ces dernières en cellules pluripotentes. Dernière étape, permettre à ces cellules, capables en théorie de donner naissance à l’ensemble des 200 type de cellules qui constituent notre organisme, de se différencier en cardiomyocytes. Une fois cette étape réussie, les chercheurs ont greffé ces « nouvelles » cellules cardiaques sur du tissu cardiaque de rat atteint d’insuffisance cardiaque. Les premiers résultats sont encourageants et montrent la faisabilité ...
Information Hospitalière
|
|
|
|
|
|
|
|
Dans le cadre d'une étude novatrice, des chercheurs tchèques et britanniques ont découvert un lien entre l'impression de déjà vu et des structures du cerveau humain, qui confirment l'origine neurologique de ce phénomène. Malgré des études antérieures portant sur ce phénomène chez des individus sains, aucune preuve concrète n'avait jamais été apportée auparavant. Cette étude, parue dans la revue Cortex, a été en partie financée par l'Union Européenne.
Sous la houlette de l'Institut de technologie d'Europe centrale de l'Université Masaryk (CEITEC MU) et de la faculté de médecine de l'Université Masaryk en République tchèque, les chercheurs ont découvert que les structures spécifiques du cerveau ont des répercussions directes sur l'impression de déjà vu. Les résultats de leur étude ont démontré que la taille de ces structures est extrêmement plus faible dans les cerveaux des personnes qui vivaient une situation de déjà vu, que dans ceux des personnes qui ne ressentaient pas cette sensation.
L'équipe du CEITEC MU, avec des collègues d'autres institutions de recherche de Brno et de l'université d'Exeter au Royaume-Uni, est parvenue à ouvrir des perspectives inédites concernant ce phénomène qui déroutait de nombreuses personnes depuis des années.
L'équipe a observé à quel point des petites structures des lobes temporaux médiaux du cerveau, associés à la mémoire et aux souvenirs, étaient extrêmement plus petits chez les personnes présentant la sensation de déjà vu que chez les individus qui ne la vivaient pas. Leurs résultats montrent également que plus souvent les individus examinés ressentent la sensation de déjà vu, plus la taille des structures cérébrales est moindre.
«Cent treize sujets sains ont subi un examen structurel du cerveau par résonance magnétique, puis par une nouvelle méthode sensible permettant une analyse automatique de la morphologie du cerveau (morphométrie basée sur les sources) [et] la taille des régions cérébrales individuelles a été comparée entre les individus qui n'ont jamais connu la sensation de déjà vu et ceux qui l'ont connue», a déclaré l'auteur principal Milan Brázdil du CEITEC.
«À part la présence du phénomène étudié, les deux groupes d'individus étaient tout à fait comparables. Quand nous stimulions l'hippocampe, nous avons pu induire la sensation de déjà vu chez les patients neurologiques. En trouvant les différences structurelles dans l'hippocampe des individus sains qui connaissent et ne connaissent pas la sensation de déjà vu, nous avons clairement prouvé que cette sensation était directement liée à la fonction de ces structures cérébrales. Nous pensons qu'il s'agit probablement d'une certaine petite «erreur dans le système» causée par une excitabilité plus importante des hippocampes. C'est la conséquence de modifications dans les régions du cerveau les plus sensibles qui se sont probablement produites lors du développement du système nerveux».
Les spécialistes affirment que la sensation de déjà vu est une impression commune qui n'en reste pas moins fascinante. Entre 60 et 80 % des individus sains ont signalé l'avoir ressentie occasionnellement. Les recherches de l'équipe se poursuivront au sein du CEITEC MU avec un financement de l'UE.
Cordis
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le rechargement sans fil n'est pas chose nouvelle. Mais appliqué aux véhicules électriques et hybrides, cela peut avoir un réel intérêt commercial. En effet, selon Joe Barrett, responsable de la stratégie marketing chez Qualcomm, présent au salon Digital Shoreditch, "ce qui bloque encore les individus concernant le fait de posséder un véhicule électrique est de savoir où et quand le recharger". Qualcomm, spécialiste des technologies sans fil propose donc, à la manière de celles que l'on trouve pour les mobiles, des stations de chargement sans fil pour les véhicules électriques qui pourront être placées aussi bien dans n'importe quelle place de parking. Mais également chez le particulier.
Pour cela, le système est composé d'une plaque de transfert placée sur le sol et d'une plaque réceptrice dans la voiture. Celles-ci, comme de nombreuses technologies sans fil, fonctionnent à l'induction magnétique. Cela signifie tout simplement que la plaque sur le sol utilise des aimants pour envoyer de l'énergie (jusqu'à 7 kW) et des données, à la plaque placée dans la voiture grâce à l'électromagnétisme. Ce qui est néanmoins nouveau concernant la technologie de Qualcomm est tout d'abord que les plaques de chargement pourront être vendues aux particuliers pour un chargement chez eux. De plus, il ne sera pas nécessaire de se garer très précisément sur une place et de s'aligner pour que le chargement soit effectué.
Enfin, les plaques de transfert pourront être directement placées sous le béton. Ce qui est vraiment intéressant, en particulier pour le chargement sans fil en marche. Car le but sur le long terme pour Qualcomm est de permettre le rechargement en roulant pour éviter que les voitures électriques tombent en panne sur les grandes artères. Ce qui en soit devrait permettre une commercialisation plus large des véhicules électriques. "Ces plaques permettront de réduire la taille des moteurs de ce genre de véhicules et réduira ainsi le coût de fabrication et d'achat pour les particuliers", conclut Joe Barrett. Ces plaques sont déjà à l'essai avec 50 prototypes se déplaçant actuellement dans les rues de Londres. A noter que l'objectif de recharger un véhicule quand il est en mouvement fait également partie des priorités de l'université de Stanford, qui propose d'utiliser un circuit électromagnétique pour permettre aux véhicules de capter l'énergie.
L'Atelier
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|