|
|
Edito
La presse en ligne va t-elle devenir payante?
Dans le contexte actuel de crise économique et financière, la presse et l'information en ligne vont-elles devenir payantes ? La question est sérieusement posée et partout des journaux et revues expérimentent de nouveaux modèles économiques qui visent à faire payer, au moins en partie, l'accès à leur contenu en ligne par les lecteurs. Après avoir affirmé que la formule de la presse en ligne gratuite financée par la publicité était nettement plus rentable que le modèle payant, Rupert Murdoch a changé d'avis et vient d'annoncer la fin de la gratuité du Wall Street Journal en ligne d'ici à l'automne prochain. Le célèbre New York Times est également à la recherche d'un nouveau modèle économique pour équilibre ses comptes dans le rouge et valoriser son contenu en ligne. L'idée retenue pour l'instant consiste à permettre au lecteur d'accéder à un nombre prédéterminé de contenus gratuits avant de basculer en mode payant. La difficulté principale de ce modèle vient de l'équilibre à trouver entre le nombre de contenus gratuits et le nombre de payants. Un accès gratuit trop limité pourrait faire fuir les lecteurs. Mais il reste à trouver un équilibre entre des portails gratuits très réactifs grâce au contenu enrichi par les internautes et une presse payante qui doit offrir une véritable valeur ajoutée. En Italie, plusieurs journaux ont pris avec succès le virage de l'édition en ligne payante : le quotidien romain La Repubblica qui vend son édition en ligne depuis 2002 et propose une autre version payante disponible sur les téléphones portables depuis quelques mois. Les médias devront nécessairement miser non plus sur « la vitesse » de la nouvelle mais plutôt, sur la façon de la donner » expliquait récemment le journaliste Stefano Carli dans une analyse publiée sur le quotidien La Repubblica. En d'autres termes, les portails gratuits, comme Twitter et Facebook, seront toujours les premiers dans la course à l'information grâce aux contributions des internautes. En revanche, seuls les journaux seront en mesure de fournir des articles de fond, des analyses structurées ou encore le dessous des cartes. C'est sur cette conviction que repose la future formule payante du Wall Street Journal qui prévoit l'introduction sur le site, de contenus dits « premium » comme pour la télévision numérique. En outre, il est bien plus intéressant pour le lecteur de souscrire un abonnement annuel d'une centaine de dollars lui donnant accès à l'intégralité du contenu d'un journal plutôt que d'utiliser les « micro paiements » pour l'achat d'articles à l'unité. En fait, trois modèles sont en train d'être expérimentés et vont sans doute coexister et se combiner dans l'avenir. Le premier est celui du livre électronique connecté à un réseau sans fil qui autorisera une dématérialisation complète des publications et des systèmes transactionnels. Avec l'arrivée du géant Google sur ce secteur (Voir article dans notre rubrique « Informations »), le prix des livres électroniques va rapidement rejoindre le coût de recrutement d'un abonné à un quotidien ou un hebdomadaire, et il deviendra rentable pour les éditeurs de les donner en échange d'un engagement sur deux ans par exemple. C'est exactement ce qui s'est passé avec les téléphones portables aujourd'hui largement subventionnés par les opérateurs. Le deuxième modèle est celui du micropaiement de type « iTunes » reposant sur le système du kiosque multi-éditeurs, combiné à un système de paiement agrégé qui rend viable des petites transactions. Le New York Times est tenté par un tel système mais ce modèle doit faire la preuve de sa viabilité. Le troisième modèle repose sur un système hybride : une partie du contenu accessible gratuitement et une autre, plus spécifique, payante. En France, l'échec de la version électronique du journal "Les Echos" montre que la presse dématérialisée cherche encore sa voie et que l'avenir n'appartient pas aux terminaux numériques dédiés mais à la lecture multi-support : demain le lecteur voudra pouvoir lire son journal préféré sur son ordinateur portable puis poursuivre sa lecture sur son PDA ou son smartphone et, arrivant dans sa voiture, terminer en version « audio » la consultation d'un article. Quant au montant du paiement que le lecteur sera disposé à consentir, il sera fonction de la valeur ajoutée cognitive qui accompagnera les informations en ligne. Et cette valeur ajoutée devra être personnalisée en fonction des besoins précis du lecteur à un instant donné. C'est précisément cette mutation d'une économie de l'information vers une économie de la connaissance qui, 20 ans après la naissance du Web, se déroule sous nos yeux. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
La fibre optique en France prend énormément de retard. Outre le ralentissement économique qui pèse sur les investissements des opérateurs, le contexte technologique et réglementaire plombe les déploiements. Différences de chapelles entre les acteurs (GPON pour Orange et SFR, Point à point pour Free), question de la mutualisation, la situation demeure encore bloquée malgré quelques avancements. Numericable a opté pour le FTTB (fibre to the building) où la fibre arrive en bas de l'immeuble, le reste de la liaison se faisant en câble coaxial déjà présent. Ainsi, le câblo-opérateur revendique 4,1 millions de foyers raccordés sur 10 millions de prises et 150 000 clients environ. Conséquence, en France, 88 % de l'architecture déployée est en FTTB (du seul fait de Numericable qui est en situation de monopole). Mieux, ces prises représentent plus de 21 % des accès fibre en Europe ! Le fournisseur avance à grande vitesse car il évite la question sensible du déploiement dans les immeubles où son câble est déjà présent. De leur côté, les opérateurs télécoms continuent à se diviser. Oui, mais y'a-t-il une différence de service ? Roland Montagne, responsable du pôle haut-débit à l'Idate a justement rédigé une étude pour Numericable sur le FTTB en Europe, une étude qui évidemment montre tous les avantages de cette technologie face à celles défendues par les opérateurs... "Les utilisateurs finaux ne voient pas la différence, la qualité de service est quasi-similaire, le débit est le même et les possibilités en termes de télévision HD sont identiques notamment grâce à la norme DOCSIS 3.0 en cours de déploiement ", nous explique-t-il. Surtout, l'étude montre que le choix de Numericable n'est pas isolé dans le monde. Ainsi en Asie, où la fibre règne en maître, les opérateurs télécoms se tournent vers ce choix. Au Japon, Jupiter Communications a lancé une offre FTTB à 160 Mb/s pour 45 euros par mois et, désormais, 40 % des abonnés le sont en FTTB, souligne l'étude. Même chose à Singapour ou aux Etats-Unis, pays où la câble est, il est vrai, très présent. Montée en force ou pragmatisme ? "Les opérateurs télécoms ont compris que le FTTB était plus rapide à déployer car il exploite les réseaux câblés des immeubles, ce qui évite tous les problèmes de droit de passage et d'équipement dans les appartements. Conséquence, les investissements sont beaucoup moins importants au départ. C'est évidemment un argument de poids pour des opérateurs en quête de maîtrise de leurs dépenses", poursuit Roland Montagne. Si l'on s'en tient à l'Europe, l'étude de l'Idate montre qu'à la fin 2008, 47 % des abonnés fibre le sont en FTTB soit 1,7 million de foyers. Néanmoins, en France, la fibre ne semble pas passionner les foules. Selon le dernier bilan de l'Arcep, le régulateur des télécom, on comptait fin 2008 plus de 20 000 immeubles fibrés, soit 550.000 foyers éligibles mais seulement 170.000 abonnements dont 130.000 en FTTB. Le FTTH d'Orange, de Free et de SFR ne concerne donc que 40.000 abonnements, trois fois moins que Numericable... D'ici à la fin de l'année, le groupe américain entend permettre aux éditeurs de commercialiser en direct l'ensemble des références de leurs catalogues disponibles en version électronique. Et ce, en leur laissant la possibilité de fixer le prix des livres. Une approche très sensiblement différente de celle d'Amazon. Le site de commerce en ligne tente en effet depuis plusieurs mois d'imposer - comme le fait Apple dans la musique -, un standard de prix sur le livre électronique (fixé, pour les best-sellers à 9,99 dollars aux Etats-Unis, contre 26 dollars pour une version papier). ZDNet
|
|
|
|
|
|
|
|
D'ici à la fin de l'année, Google entend permettre aux éditeurs de commercialiser en direct l'ensemble des références de leurs catalogues disponibles en version électronique. Et ce, en leur laissant la possibilité de fixer le prix des livres. Une approche très sensiblement différente de celle d'Amazon. Le site de commerce en ligne tente en effet depuis plusieurs mois d'imposer - comme le fait Apple dans la musique -, un standard de prix sur le livre électronique (fixé, pour les best-sellers à 9,99 dollars aux Etats-Unis, contre 26 dollars pour une version papier). Rien ne filtre pour l'instant sur les caractéristiques technologiques du projet. Tout juste sait-on que les éditeurs qui accepteraient de devenir partenaires de cette initiative devront transférer des versions numériques de leurs parutions à Google, qui se chargera de les revendre directement aux internautes. Les livres électroniques achetés seront consultables sur n'importe quel terminal disposant d'un accès à Internet, et non plus seulement sur un livre électronique dédié comme le Kindle, sur les téléphones mobiles et, même, hors ligne via le cache du navigateur. « Nous ne croyons pas qu'une approche propriétaire comme celle d'Amazon, NDLR] soit le meilleur moyen de développer le marché du livre électronique », a expliqué Tom Turvey, directeur des partenariats stratégiques de Google, au New York Times. Jusqu'à présent Google - par l'intermédiaire de son service [Google books -, fonctionne comme une très large bande-annonce pour le monde de l'édition. L'internaute qui recherche un livre peut lancer une requête. Il obtiendra en retour des avis de lecteurs, des extraits d'ouvrages ou des livres complets. Apparaissent aussi des liens lui permettant de transformer sa curiosité en acte d'achat, en cliquant sur les sites de libraires en ligne sélectionnés comme Amazon. En se lançant sur le marché du livre électronique, Google ne regarderait plus passer les ventes mais deviendrait un acteur plein et entier du secteur. A noter que ce projet de vente de livres électroniques n'aura aucun lien direct avec la vaste entreprise de numérisation du patrimoine littéraire mondial. Les quelque 1,5 million d'ouvrages issus du domaine public et déjà numérisés dans Google Books sont disponibles gratuitement à la lecture sur tous supports dédiés, qu'il s'agisse du Kindle d'Amazon ou du Reader de Sony. OINet
|
|
|
|
|
|
|
|
Si ce marché présente des intérêts évidents pour notre vie quotidienne (carte vitale, télépéage, absence de passage en caisse ...) sa généralisation n'est pas sans risque pour le respect de notre vie privée et de nos libertés fondamentales puisque de tels dispositifs permettent à la fois de tracer l'individu dans ses actes quotidiens mais aussi collecter des données personnelles. En effet, les RFID sont l'emblème de ce qu'on appelle « l'Internet des objets ». Notamment quand on pense aux applications médicales comme les bracelets intelligents qui permettraient de suivre les données physiologiques du patient et les médicaments qui leur ont été prescrits. La Chine a également trouve un bon moyen de contrôler sa population à l'aide de cartes d'identité et de passeports équipés de RFID permettant aux autorités d'avoir accès rapidement aux données personnelles de chaque individu. C'est dans ce contexte que le 12 mai 2009, l'UE a dévoilé de nouvelles recommandations : - Un contrôle de principe du consommateur sur le produit acheté avec la possibilité de demander la désactivation de la puce ; - Une obligation d'information claire à l'égard du consommateur quand il utilise un dispositif de type RFID ; - La mise en place d'un signe européen indiquant la présence d'une puce dans un produit à l'image de la CE pour garantir le respect des normes de qualité européennes. - Une évaluation préalable du professionnel, de l'incidence du dispositif RFID sur la protection de la vie privée et des données à caractère personnel avant son implémentation Esseclive
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Apprendre une langue en parlant à son robot, lui demander le temps qu'il fera demain ou se faire rappeler par lui de ne pas oublier ses clés : voilà quelques-unes des possibilités qu'offrira Nao, un petit humanoïde développé par la société française Aldebaran Robotics.Nao, 58 cm de haut et d'un poids de 4,5 kilos, inspire confiance. Techniquement, il dispose de 23 "degrés de libertés", soit la capacité de combiner autant de mouvements différents. Sa grande mobilité et un bon sens de l'équilibre, présenté au Salon européen de la recherche et de l'innovation à Paris, ne lui permettent pas, toutefois, de reproduire tous les gestes d'un humain. "S'il ne peut pas effectuer exactement un mouvement, il va faire son propre geste pour arriver à la position dans l'espace qu'on lui demande d'atteindre", a expliqué à l'AFP Bruno Petit, directeur des ventes pour le monde académique chez Aldebaran. Equipé d'un système de reconnaissance vocale, de synthèse vocale et de reconnaissance des visages grâce à deux caméras, Nao peut être utilisé à de nombreuses fins d'apprentissage. "C'est un robot compagnon qui peut être utilisé pour des tâches éducatives comme enseigner les tables de multiplication à un enfant ou une langue étrangère", ajoute Bruno Petit. Grâce à son ordinateur embarqué avec wifi, "vous pouvez aussi lui demander quel temps il va faire demain. Nao va se connecter à internet et vous lire la météo", poursuit-il. Nao est aujourd'hui vendu 12.000 euros hors taxes à plus de 200 laboratoires publics ou privés à travers le monde, et plus de 100 autres ont déjà passé commande. "Mais d'ici un an ou deux, on envisage de le vendre à un public plus large, à un prix compris 3.000 et 5.000 euros", selon M. Petit. En plus de la version standard, de nouvelles fonctionnalités payantes pourront être téléchargées, mais les utilisateurs pourront aussi créer eux-mêmes de nouveaux comportements pour le robot et se les échanger via internet. Parmi les développements en cours existe notamment un programme de recherche pour faire lire à Nao un conte pour enfant avec des intonations réalistes, une fonction qui pourra être enrichie par des gestes et une musique. Parfaitement inoffensif par sa taille et son poids, ce robot humanoïde n'est pourtant pas encore certifié à la norme CE pour les enfants. Mais si un utilisateur essaye de modifier de force sa position, il va se rendre "mou" en coupant son moteur, assure M. Petit. Nao peut aussi être utilisé à des fins médicales, notamment pour des exercices de stimulation de la mémoire de patients atteints de la maladie d'Alzheimer ou tout simplement pour rappeler à une personne distraite de ne pas oublier ses clefs en sortant de chez elle. Contrairement à des robots humanoïdes plus grands, il n'est pas utilisable pour venir en aide à des handicapés moteurs dans leur vie quotidienne. Mais des évolutions à venir devraient le rendre capable de remplir des tâches de surveillance ou de télé-assistance. Google
|
|
|
|
|
|
|
|
Aldebaran Robotics explique pourquoi les robots vont peu à peu faire partie de notre quotidien. Cette société développe un robot humanoïde dont la taille atteindra 1,30m à 1,40m. Il assistera les personnes en perte d'autonomie. Il devra pouvoir aller chercher un verre sur la table, prendre un trousseau de clés ou récupérer quelque chose dans la pièce à côté. Il sera connecté à Internet, sera capable de rappeler l'agenda à la personne dont il aura la charge. Il devra pouvoir lui lire un livre ou un article de presse sur Internet. Il devra également aider la personne à marcher ou à se relever en cas de chute. Les premiers prototypes devraient apparaître en 2011 pour être évalués auprès des patients de l'Institut de la vision. Sa commercialisation est prévue à l'horizon 2015. Assister une personne n'est pas suffisant. Il devra également communiquer par la voix, les gestes, être expressif. Si la personne est énervée, il devra en tenir compte. Son comportement et la façon dont il interagit avec les humains sont donc des éléments primordiaux. La Japan Robotics Association estime que l'industrie mondiale de la robotique devrait dépasser les 25 milliards de dollars de chiffre d'affaires dès 2010 et 65 milliards de dollars en 2025. Selon cette étude, le segment qui enregistre la plus forte croissance est celui de la robotique dédiée aux services à la personne. Inexistant en 2000, ce segment de marché devrait atteindre 12 milliards de dollars en 2010 et environ 35 milliards en 2025. Expansion
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
C'est une relation d'un genre unique qui n'existe que dans le monde quantique : deux objets physiquement séparés, des particules élémentaires ou des atomes, sont liés entre eux de telle sorte qu'il est impossible de modifier l'un sans modifier l'autre. Grâce à cette intrication, les physiciens peuvent par exemple transporter une information : c'est la base de la téléportation quantique. Pour la première fois, des chercheurs ont réussi à intriquer les vibrations de deux paires d'ions, faisant passer cette propriété quantique à une taille supérieure. John Jost et ses collègues du NIST de Boulder (National Institute of Standards and Technology, Colorado, USA) ont piégé deux paires constituées d'un ion magnésium et d'un ion béryllium. Ces ions -des atomes chargés tous les deux positivement- se repoussent et oscillent donc comme deux boules retenues par un ressort. Ce sont les mouvements de ces deux paires que les chercheurs ont réussi à intriquer. Comme si les deux pendules d'une horloge, au lieu d'être simplement synchronisés mais indépendants dans leur mouvement, étaient liés entre eux de telle sorte que modifier les oscillations de l'un changerait forcément celles de l'autre. La physique quantique ne s'applique pas au monde macroscopique mais uniquement microscopique. Cependant les limites de ce monde quantique ne sont pas connues et cette expérience, publiée aujourd'hui dans la revue Nature, repousse un peu plus la frontière. Pour les chercheurs du NIST, qui travaillent sur des applications comme l'informatique quantique, ces travaux ouvrent de nouvelles perspectives pour la manipulation des atomes. NO
|
|
|
|
|
|
|
|
Les États-Unis ont inauguré au centre de recherche de l'Administration de la sécurité nucléaire nationale (NNSA), en Californie, un laser présenté comme le plus puissant du monde, capable de reproduire la chaleur d'une étoile telle que le Soleil. Le laboratoire national « National Ignition Facility », dont la principale mission est d'évaluer la fiabilité et la stabilité de l'arsenal nucléaire américain, a fait converger 192 faisceaux laser vers un même point, une sphère remplie d'isotopes d'hydrogène. Ce qui pourrait recréer les températures et la pression qui existent au coeur d'une étoile ou d'une planète géante, lorsque l'hydrogène se transformera en hélium, disent les scientifiques. Les chercheurs du laboratoire de Lawrence Livermore affirment que cette découverte dans le domaine de la fusion de l'hydrogène leur permettra d'étudier en laboratoire les mécanismes d'une explosion nucléaire, et par conséquent de mieux évaluer la sécurité de l'arsenal nucléaire américain, qui vieillit. Mais les adversaires du projet se plaignent de son coût : 3,5 milliards de dollars depuis son lancement en 1997. Ils font également valoir que cette technologie pourrait aider à développer de nouvelles armes nucléaires. Les responsables du laboratoire prédisent qu'à terme, l'électricité dérivée de réactions de fusion semblables à celles qui ont lieu sur le soleil pourrait également devenir une importante source d'énergie propre et réduire, voir éliminer, la dépendance vis-à-vis des énergies fossiles comme le pétrole ou le charbon. TA
|
|
|
|
|
|
|
|
Le développement d'une économie viable basée sur l'Hydrogène dépend de nombre de barrières scientifiques et technologiques. En particulier pour une utilisation automobile, le Department of Energy (DoE) américain a identifié trois défis majeurs pour l'adoption de véhicules à l'hydrogène : la réduction des coûts de production, la réduction des coûts fabrication des piles à combustibles, et enfin trouver des moyens pour un stockage permettant une autonomie des véhicules sur plusieurs centaines de kilomètres. Des trois défis, le plus difficile à résoudre est celui du stockage à bord à cause des contraintes imposées au système : coût, sécurité, limitations en masse et volume, opération sur une large plage de températures, temps de chargement, réutilisation des installations actuelles, etc. Le problème pour le stockage est bien évidemment que le H2 aux conditions de température et de pression ambiante, contrairement à l'essence et d'autres combustibles à alcool, a une très faible densité d'énergie par unité de volume. Sous des conditions extrêmes à très basse température ou très haute pression, la difficulté de stockage est trop importante pour l'utilisation en automobile, donc les regards se tournent vers des matériaux absorbants. Malheureusement aucun matériau actuellement ne rejoint les objectifs de 2010 fixés par le DoE : 60g H2/kg du réservoir et 45g H2/Litre du réservoir. Les matériaux carbone apparaissent relativement inefficaces à température ambiante. Cependant, leurs capacités de stockage peuvent être grandement améliorées grâce à une fonctionnalisation de surface. L'objectif est de créer à la fois des pores nanométriques qui augmentent drastiquement la surface du matériau et créent des puits de potentiel plus profonds, et de doper le carbone avec des éléments (Boron, Fer, Nitrogène...) qui renforcent les énergies de liaisons. C'est ce que des chercheurs de l'University of Missouri à Columbia de l'Alliance for Collaboraive Research in Alternative Fuel Technology, ont fait. En combinant à la fois un très fort ratio surface poids et en trouvant le moyen d'augmenter les énergies de liaison entre les molécules de H2 et le substrat, l'équipe de chercheurs menée par Carlos Wexler et Peter Pfiefer a montré d'excellents résultats pour le stockage de l'hydrogène par physisorption. Les chercheurs ont développé des petites granules de carbone nanoporeux basé sur un déchet agricole qui permet d'atteindre des capacités de stockage de 100g H2/kg (90 bar et 83K soit -190°C) et de 20g H2/kg (90 bar, 303K soir 29°C). L'équipe de chercheurs a montré expérimentalement que la surface qu'ils ont atteinte sur ces granules est de 3100m2 par gramme, parmi lesquels 40 % de la surface est comprise dans les pores de 0.7nm et 60 % dans des pores supérieures à 1nm, avec deux énergies de liaison distinctes et importantes suivant la taille des pores (9kJ/mol et 5kJ/mol).Les objectifs fixés par le DoE sont en bonne voie d'être atteints. Dans leur étude, les chercheurs mettent aussi en évidence grâce à des simulations informatiques et la théorie de la thermodynamique, deux conditions de l'absorption de l'hydrogène différentes : une absorption mobile et une localisée, c'est-à-dire deux situations opposées dans lesquelles les molécules de H2 bougent ou ne bougent pas sur la surface. La compétition entre ces deux situations affecte la capacité de stockage, et en les contrôlant par fonctionnalisation de surface, les chercheurs pensent pouvoir doubler les capacités de stockage. BE
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
Le trou noir au centre d'une des plus grandes galaxies proche de la nôtre, la Voie Lactée, est le plus massif mesuré à ce jour, selon les recherches de deux astrophysiciens allemand et américain qui ont utilisé de nouvelles techniques de modélisation informatique. Ce trou noir, situé au centre de la galaxie M87, l'une des plus grandes dans notre voisinage galactique, a une masse deux à trois fois plus grande que précédemment estimé, ont précisé ces chercheurs, qui ont présenté leurs travaux en début de semaine à la dernière conférence de l'American Astronomical Society réunie à Pasadena en Californie (ouest) du 7 au 11 juin. La masse de ce trou noir serait 6.400 milliards de fois celle de notre soleil et c'est "le plus massif mesuré à ce jour selon une technique fiable", ont précisé ces astronomes, dont la communication paraîtra dans l'Astrophysical Journal à la fin de l'été. Un trou noir est un objet céleste de très grande masse dont le champ gravitationnel est si intense que rien ne peut s'en échapper, pas même la lumière. Cette découverte conduit à penser que la taille de trous noirs au centre des autres galaxies voisines pourrait avoir été sous-estimée dans les mêmes proportions, ont souligné ces chercheurs dans un communiqué. Ceci devrait avoir des conséquences sur les théories avancées pour expliquer la formation et l'expansion des galaxies, ont-ils ajouté. "Cette conclusion est importante pour comprendre comment les trous noirs interagissent avec leurs galaxies", a expliqué Jens Thomas, de l'institut Max Planck en Allemagne, l'un des deux co-auteurs de l'étude. "Si on change la masse du trou noir, on modifie sa relation avec la galaxie" car il existe une relation étroite entre eux, a-t-il poursuivi. Les astrophysiciens se sont appuyés sur cette relation pour théoriser le développement des galaxies au cours du temps et cette nouvelle estimation de la masse du trou noir au centre de M87 pourrait bien modifier ces théories, selon ces chercheurs. Le fait que des trous noirs aient une masse plus importante dans des galaxies proches pourrait également résoudre le paradoxe concernant la masse des quasars, ces trous noirs actifs au centre de galaxies très lointaines remontant à une époque plus ancienne de l'univers, ont-ils relevé. "La très grande masse des quasars --estimée à 10 milliards de fois celle du soleil-- posait un problème à l'astronomie" dans la mesure où on ne trouvait aucun trou noir de masse comparable dans notre voisinage galactique, a noté Karl Gebhardt, de l'Université du Texas à Austin (sud), l'autre co-auteur de l'étude. "Les astrophysiciens supputaient que le calcul de la masse des trous noirs des quasars était erroné", a-t-il ajouté. "Or, si on multiplie la masse du trou noir de la galaxie M87 par deux ou trois, ce problème disparaît", a dit ce chercheur. Pour effectuer leur estimation du trou noir au coeur de M87, les deux astrophysiciens ont utilisé l'un des plus puissants superordinateurs dans le monde, le "Lonestar system" au centre informatique de l'Université du Texas. AFP
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Selon cette étude, une meilleure gestion des forêts, des pratiques agricoles plus respectueuses et la restauration des tourbières pourraient permettre d'absorber des quantités importantes de dioxyde de carbone, le principal gaz à effet de serre (GES) mis en cause dans le réchauffement de la planète. "Nous devons aller vers un cadre politique global pour prendre en compte les écosystèmes", souligne Barney Dickson, co-auteur de l'étude et chef du programme sur le changement climatique et la biodiversité du PNUE. Des millions de dollars sont consacrés à la recherche sur la capture et le stockage des émissions de carbone des centrales électriques, alors qu'investir dans les écosystèmes permettrait d'obtenir des résultats à moindres frais, selon le rapport. Cette deuxième option aurait en outre l'avantage de préserver la biodiversité, et d'améliorer les approvisionnements en eau et les moyens de subsistance de nombreux habitants de la planète. Réduire de moitié la déforestation d'ici le milieu du siècle et la maintenir à ce rythme pendant 50 années supplémentaires permettrait également d'économiser cinq années d'émissions de carbone à leur niveau actuel, précise M. Dickson. La perte de tourbières, souvent asséchées pour l'exploitation de l'huile de palme et du bois en Asie du Sud-Est, contribue à hauteur de 8% aux émissions mondiales de carbone, note le rapport. L'agriculture permettrait de stocker d'importantes quantités de carbone avec l'utilisation de meilleures pratiques, par exemple en évitant de retourner la terre et en utilisant du compost et fumier naturels plutôt que des engrais chimiques. AP
|
|
|
|
|
|
|
|
Dans un rapport publié le 5 juin, le Programme des Nations unies pour l'environnement (PNUE) estime que près de 15 % du chemin à parcourir pour limiter la hausse des températures à 2° C d'ici à 2100 pourrait être ainsi réalisé. Un plus certain, car cet objectif de 2° C est loin d'être atteint. Les scénarios établis par le groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) montrent que, pour y parvenir, il faudra réduire de 85 % les émissions mondiales de gaz à effet de serre sur le siècle. Le carbone séquestré par les écosystèmes terrestres est trois fois plus important que celui présent dans l'atmosphère. Mais les espaces naturels ne contribuent pas tous de la même manière à la lutte contre le réchauffement. Le PNUE suggère de concentrer les efforts sur les forêts tropicales, dont on sait que la disparition alimente 20 % des rejets de CO2 dans l'atmosphère. Il insiste aussi sur le rôle des tourbières, dont l'exploitation ou l'assèchement, pour les convertir par exemple en aires de production d'agrocarburants, jouent un rôle dans la dégradation du climat. Une tourbière stocke en moyenne 1 450 tonnes de carbone à l'hectare, beaucoup plus que n'importe quel autre écosystème. Le monde compterait environ 65 millions d'hectares de tourbières dégradées, dont une part importante en Asie du Sud-Est. Il ne s'agit pas seulement de protéger ces espaces de futures dégradations, il faut aussi envisager leur restauration et la création de nouveaux puits de carbone au travers, par exemple, de vastes programmes de plantations. Les experts du PNUE mettent en avant l'argument très convaincant du prix. Alors que les technologies développées pour capturer et stocker 1 tonne de carbone sur les rejets des usines nécessitent de 20 à 270 dollars (sans un total gage de succès), 10 dollars suffiraient pour obtenir le même résultat en utilisant différemment les sols. Tout en faisant d'une pierre deux coups : lutter contre le réchauffement et protéger la biodiversité. LM
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Les cancers résultent d'une succession d'altérations génétiques. Toutefois la génétique peine à expliquer la très grande diversité des cancers. C'est pourquoi les modifications des facteurs épigénétiques sont de plus en plus souvent impliquées en cancérogenèse : il peut s'agir de modifications chimiques (fixation de groupements chimiques, méthyl, phosphate, acétyl) sur l'ADN et les protéines qui lui sont associées, les histones, ou de perturbations de l'organisation de l'ADN au coeur de la cellule. Les facteurs épigénétiques « commandent » l'activation ou la désactivation de certains gènes dans la cellule. C'est grâce à eux si, à partir d'un même capital génétique, les cellules acquièrent des spécificités et forment par exemple un neurone ou un globule blanc. Et si ces facteurs épigénétiques, dont la perturbation a déjà été montrée dans les cellules cancéreuses, pouvaient renseigner les cliniciens sur les évolutions tumorales possibles ? C'est la question que s'est posée l'équipe de Geneviève Almouzni à l'Institut Curie. Et pour y répondre, les chercheurs se sont intéressés à la protéine HP1 pour son rôle dans la compaction de l'ADN et qui, par conséquent, a un rôle sur l'activation ou la désactivation des gènes dans les cellules. Première découverte : la protéine HP1 tumorales et son absence provoquent des perturbations dans la division cellulaire. La seconde partie de l'étude, effectuée sur du tissu tumoral, a été réalisée grâce au Centre de ressources biologiques de l'Institut Curie, initié en 1988 par le Dr Xavier Sastre-Garau, chef du département de Biologie des tumeurs. Les chercheurs ont ainsi pu, dans 86 échantillons, étudier les niveaux d'expression de HP1 qui avaient été prélevés en 1995 chez des patientes atteintes de cancer du sein, dont l'évolution est connue sur plus de 10 ans. Il s'agissait principalement de tumeurs de petite taille sans envahissement métastatique, ni ganglionnaire. Or précise Geneviève Almouzni : il existe un parallèle significatif entre l'expression de cette protéine et la survie des patientes. Cette découverte a fait l'objet d'une demande de brevet européen. CNRS
|
|
|
|
|
|
|
|
Des équipes de chercheurs canadiens et américains ont découvert qu'un médicament antidiabétique largement utilisé peut stimuler le système immunitaire et potentialiser l'effet des vaccins et traitements anticancéreux. Les résultats sont rapportés dans la prestigieuse revue scientifique Nature datée du 3 juin. Cette découverte est signée du Dr Russell Jones, professeur adjoint au Centre Goodman de recherche sur le cancer et au Département de physiologie de la Faculté de médecine de McGill (Canada), ainsi que de Yongwon Choi, professeur de pathologie et de médecine biologique et de la post-doctorante Erika Pearce de l'Université de Pennsylvanie (Etats-Unis). Cette équipe de chercheurs a en effet découvert que la metformine, un antidiabétique très largement prescrit, augmente l'efficacité des lymphocytes T du système immunitaire et par voie de conséquence, l'efficacité des vaccins antiviraux et anticancéreux. Les globules blancs du système immunitaire connus sous le nom de lymphocytes T se souviennent des pathogènes mis en cause lors d'infections ou de vaccinations antérieures, ce qui leur permet d'assurer une réponse plus rapide et plus efficace en cas de réinfection. Cette « mémoire immunologique » fait l'objet de recherches intensives depuis plusieurs années mais jusqu'à présent, les mécanismes cellulaires qui la sous-tendent n'avaient pas été complètement élucidés. Aujourd'hui, les chercheurs affirment qu'ils peuvent utiliser les traitements antidiabétiques pour manipuler la réponse des lymphocytes T et accroître la réponse du système immunitaire aux infections et au cancer. Vulgariz
|
|
|
|
|
|
|
|
Un appareil d'imagerie par résonance magnétique nucléaire (IRM) couplé à des ultrasons est en train de révolutionner le traitement des fibromes utérins, ces tumeurs bénignes très fréquentes qui imposent une intervention à 70 000 femmes en France chaque année. Cette nouvelle technologie permet de détruire les fibromes, sans anesthésie, sans hospitalisation, sans chirurgie. Elle est d'ailleurs en train d'être évaluée pour d'autres pathologies, comme les métastases osseuses, les cancers du sein, du foie... En France, pour l'instant, seul le centre hospitalier universitaire de Tours s'est doté d'un tel appareil baptisé ExAblate. Des discussions sont en cours avec l'Assistance publique des hôpitaux de Paris qui envisage de s'équiper au vu des dernières évaluations. Le bilan de cette technologie a été présenté en marge du congrès de l'Association franco-israélienne d'imagerie médicale (Afiim) qui vient de se tenir à Tel-Aviv, à l'hôpital Tel HaShomer. Cette technique a été inventée par une jeune start-up israélienne InSightec basée à Haïfa, créée par des jeunes ingénieurs ayant travaillé dans l'armée sur les problématiques de géolocalisation et qui ont imaginé de coupler l'imagerie par IRM avec des ultrasons focalisés pour détruire les tumeurs sous contrôle permanent de la vision. «Ces scientifiques ont eu le culot de se lancer dans une technologie totalement innovante, ils ont pris de gros risques en terme d'investissement, avec des résultats vraiment intéressants», estime le professeur Frédéric Pata, chef du département ultrasons au CHU de Tours. Les fibromes utérins sont des tumeurs bénignes de l'utérus, que l'on opère classiquement en cas de complications : saignements, compression, douleurs. Pour réduire le recours à la chirurgie, l'équipe israélienne a imaginé un dispositif innovant, permettant de détruire le fibrome par des ultrasons qui «cuisent» littéralement la tumeur. Les patientes arrivent le matin, subissent une légère sédation, restent conscientes, subissent le traitement et rentrent chez elles dans l'après-midi. Concrètement, la patiente est allongée sur le ventre, la moitié inférieure du corps à l'intérieur d'un cylindre. «Nous envoyons sous contrôle permanent de l'image, une série de tirs d'ultrasons qui ne doivent atteindre que la tumeur et elle seule, explique le professeur Pata. Grâce à l'IRM, nous avons une cartographie permanente de la température des organes avoisinants et de la peau, ce qui nous permet un contrôle total. La patiente, si elle ressent la moindre sensation de brûlure, peut arrêter le tir, elle-même.» À ce jour, l'hôpital de Tours a ainsi traité 63 patientes atteintes de fibromes, sans complications, sans effet secondaire et avec succès. Le protocole dure environ 3 heures, mais les chercheurs sont en train de réduire le temps d'intervention. Certaines tumeurs très volumineuses ou mal placées ne peuvent toutefois bénéficier de cette avancée. Les inventeurs d'ExAblate ont lancé plus de 40 essais cliniques pour d'autres pathologies que le fibrome. Ainsi, plusieurs publications font état de résultats préliminaires intéressants dans la destruction des métastases osseuses douloureuses des patients atteints de cancer. «Nous avons traité un seul malade handicapé par ces douleurs et qui ne pouvait plus marcher, ajoute le professeur Pata, il a pu se lever à nouveau et se déplacer. C'est une avancée, même si son cancer n'a pas été guéri.» Plusieurs dizaines de malades atteints de métastases osseuses ont déjà été traités. Des essais sont également en cours dans le cancer du sein, dans celui du foie et un protocole est envisagé dans les tumeurs du cerveau. Si la technique présente l'immense avantage d'être capable de cibler de manière très précise les ultrasons sur la tumeur, sans altérer les tissus environnants, il reste à démontrer que cette technique permet de détruire tout, absolument tout le tissu cancéreux. Figaro
|
|
|
|
|
|
|
|
Faire ses courses, ranger ses affaires, se mettre au travail, chacune de ces tâches implique une prise de décision. Pour cela, le cerveau organise deux types de pensées : les connaissances et les motivations propres à chaque individu. Tous ces facteurs sont contrôlés au niveau du cortex préfrontal, situé juste derrière le front. Les patients qui présentent une lésion à ce niveau ont par exemple des problèmes à planifier leur vie quotidienne alors que leur mémoire est intacte. Le cortex préfrontal est divisé en plusieurs zones. La partie latérale est impliquée dans le contrôle cognitif de la décision en adaptant le choix de l'action au contexte dans lequel la personne évolue. La partie médiane est impliquée dans la motivation d'une personne à effectuer ou non l'action en question. Les auteurs d'une nouvelle étude parue dans Nature neuroscience connaissaient déjà le fonctionnement de la partie cognitive mais ils ne savaient pas comment les motivations influaient sur l'activité de la zone médiane et comment cette activité était intégrée aux processus de décision dans la partie latérale. Pour le savoir, les auteurs ont imaginé un système de motivation financière pouvant influer sur la réalisation de tâches demandées à plusieurs personnes. Ils ont enregistré en parallèle leur activité cérébrale par IRM (imagerie par résonance magnétique). Ces personnes voyaient défiler des séries de lettres. En fonction de leurs couleurs, elles devaient appuyer sur des boutons différents. Pour chaque série réussie, la personne gagnait de l'argent mais pouvait également en perdre en cas d'échec. Certaines séries pouvaient rapporter ou faire perdre de 5 à 200 % de plus que d'autres. Les résultats montrent que plus l'enjeu financier est important, et donc plus la motivation est grande, plus les personnes réfléchissent longtemps avant chaque décision. En imagerie, cela s'est traduit d'une part, par l'augmentation de l'activité neuronale au niveau du cortex préfrontal médian et d'autre part, par une modulation de l'activation de la zone préfrontale latérale, responsable du contrôle cognitif, et des connexions entre ces deux zones du cerveau. Ces activations prouvent que les facteurs de motivation interagissent avec les facteurs cognitifs lors de la prise de décision. Ces observations ont de plus permis aux auteurs de montrer que le contrôle de la motivation suit un cheminement parallèle à celui du contrôle cognitif, à savoir des régions postérieures vers les régions antérieures du cortex préfrontal. Ce cheminement permettant au cerveau d'intégrer différents facteurs de motivations immédiats ou plus anciens dans les différentes étapes du processus de décision. « Ces résultats montrent que la motivation influence la prise de décision dans le cortex préfrontal de façon subtile. Le facteur motivationnel entre en jeu en modulant l'importance de chacune des décisions intermédiaires qui mènent au choix final. Cette étude ouvre des perspectives intéressantes dans l'étude des troubles caractérisés par une absence de motivation à réaliser certaines tâches ou activités, notamment les troubles dépressifs », clarifie Etienne Koechlin. Inserm
|
|
|
|
|
|
|
|
Cette découverte publiée dans le numéro de Science pourrait aider les chercheurs à mettre au point un traitement contre cette maladie aujourd'hui incurable, ainsi que d'autres pathologies neurologiques dégénératives, notamment la maladie d'Alzheimer. "Jusque-là, personne n'avait la moindre idée de ce qui pouvait bien être à l'origine de la lésion cérébrale caractéristique de la chorée de Huntington et de la mort", a résumé le Dr Solomon Snyder de l'Université Johns Hopkins, dont l'équipe publie les travaux. "C'est une avancée importante", a observé le Dr Walter Koroshetz, directeur adjoint du département cerveau des Instituts nationaux de santé. La chorée de Huntington est une maladie génétique rare, qui touche 30.000 personnes aux Etats-Unis. Elle se déclare le plus souvent aux alentours de 40 ans et se manifeste au départ par des tremblements incontrôlables et une perte des capacités intellectuelles. Ces signes s'aggravent inexorablement jusqu'à ce que les patients puissent à peine manger, parler ou marcher. La mort survient une dizaine d'années ou plus après le début des symptômes. En cause, la mutation d'un gène. L'enfant d'un patient atteint de chorée de Huntington a 50 % de risque d'en hériter, et toute personne qui est porteur du gène déclare la maladie à un moment de sa vie. C'est en 1993 que les scientifiques ont découvert ce gène, laissant aux familles le choix difficile de subir ou non un test de dépistage -et de savoir qui est ou non atteint. Le seul traitement disponible actuellement ne peut que soulager les mouvements saccadés, et peu de progrès ont été jusqu'à présent enregistrés pour l'objectif le plus important, trouver le moyen de ralentir ou de stopper la maladie. Les nouvelles recherches suscitent de l'espoir. Le mauvais gène, ont constaté les scientifiques, fabrique une protéine défectueuse retrouvée dans toutes les cellules. Pourtant, seules certaines d'entre elles meurent, notamment celles qui se trouvent dans une région cérébrale qui contrôle le mouvement, le corpus striatum. Cette région, au moment de la mort des patients, est abimée au point d'être comparée à une feuille de papier de soie. Pourquoi ? Une seconde proteine est la coupable, a découvert l'équipe du Dr Snyder. C'est une molécule peu connue, la protéine Rhes qui est retrouvée exclusivement dans le striatum. Quand Rhes se mélange à la protéine mutée de Huntington, elles provoquent ensemble une réaction chimique, expliquent les chercheurs. Pour aboutir à cette conclusion, ils ont utilisé des cellules embryonnaires humaines et des cellules cérébrales (neurones) prélevées sur des souris. Dans chacune de ces cellules, ils ont fait différents mélanges de la proteine de Huntington mutée, de la forme normale de cette protéine et de Rhes. Ce n'est que quand la proteine mutante et Rhes se trouvaient dans la même cellule que les cellules mouraient. Puis les chercheurs ont démêlé patiemment ce qui avait entraîné la réaction chimique si toxique, la sumoylation. Les cellules tentent de de se défendre de la protéine mutée en formant des amas -une sorte de tas de déchets mis de côté. Ajouter la protéine Rhes conduit à réduire cet amas de cellules et à la mort cellulaire, suggérant que la forme soluble de la protéine défectueuse est dangereuse. Et voilà le lien avec d'autres maladies neurologiques dégénératives, notamment la maladie d'Alzheimer : la plupart de ces maladies sont caractérisées par des amas de protéines défectueuses. Le débat est vif parmi les scientifiques, sur le fait de savoir si ces agrégats sont la cause de cette détérioration, ou au contraire une tentative désespérée de la part du cerveau de se défendre. [AP-#http://fr.news.yahoo.com/3/20090605/thl-medecine-maladie-huntington-aa61a25...
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|