RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 531
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Octobre 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'Europe relance la question de la numérisation des bibliothèques
Haut débit : la Finlande veut instaurer le 100 Mbits/s comme un droit fondamental
Matière
Encore plus de miniaturisation en électronique : la diode moléculaire
Au Mazet-St-Voy, La Sybérienne optimise l'option géothermie
Espace
Découverte d'une trentaine de nouvelles exoplanètes
Terre
Qatar Airways a assuré son premier vol au gaz naturel
Vivant
Nouvelles données encourageantes sur le vaccin anti-VIH
Les nanotechnologies contre le cancer
Des chercheurs américains produisent du tissu cardiaque qui bat
Parkinson : une trithérapie génique prometteuse
Exposition aux radiofréquences : aucune preuve convaincante d'un effet biologique
Une prothèse auditive totalement implantable...
Une méthode innovante apporte de nouvelles réponses sur la transmission neuronale
Découverte d'un nouveau gène lié à l'autisme
Recherche
Premier ferry électrique au monde pour 2015
Edito
livre électronique : qui va contrôler l'accès au savoir ?



Google, le géant numérique vient d'annoncer le lancement en 2010 de Google Editions, son service de commercialisation de livres électroniques. Dans un premier temps, 500 000 livres sont disponibles en ligne et le nombre devrait rapidement atteindre les deux millions. David Drummond, directeur du développement et des affaires juridiques de l'entreprise précise « L'objectif est que vous puissiez acheter la version numérique d'un livre où que vous soyez, sur un site partenaire, dans une librairie, etc. », explique-t-il. Le service serait lancé « dans l'année qui vient. L'accord avec les éditeurs en fait partie, et on veut l'avoir bouclé avant de construire le reste de cette offre ».

Google devrait avoir conclu un accord avec les auteurs et les éditeurs américains d'ici à la fin de l'année, qui prévoit un partage des revenus à hauteur de 63 % pour les détenteurs de droits et 37 % pour Google. L'achat d'un livre numérique sur Google se fera directement auprès du moteur de recherche, sur le site de l'éditeur (qui participe au programme) ou chez un cybermarchand partenaire. Les ouvrages seraient indexés dans le moteur Google Books. Ils pourraient être achetés depuis n'importe quel terminal connecté, et consultables même en cas de déconnexion. Google va donc entrer en concurrence frontale avec Kindle, le lecteur de livre électronique que vient de lancer Amazon.

Sony, pour sa part, va proposer aux utilisateurs de son livre électronique les ouvrages tombés dans le domaine public qui ont été numérisés par Google afin d'accroître l'offre de son catalogue. Les ouvrages en question sont accessibles via le service Google Books. Le géant nippon de l'électronique a précisé que plus d'un demi-million d'ouvrages serait mis gratuitement à la disposition des utilisateurs de son Reader, un appareil portable permettant de lire des livres et des journaux.

Cette nouvelle étape de l'irrésistible ascension de Google vers le monopole de l'accès numérique la culture n'a rien d'étonnant. Elle survient logiquement en s'appuyant sur les 10 millions d'ouvrages que Google a déjà numérisés dans le monde et sur les partenariats signés avec 25.000 éditeurs. La plupart des grandes bibliothèques de la planète, trop heureuses de pouvoir numériser à peu de frais et en un temps record leurs immenses fonds d'ouvrages, ont en effet conclu des accords de partenariat avec Google.

En France Google est déjà en train de numériser les 500 000 livres de la Bibliothèque de Lyon et même la BNF, après avoir longtemps résistée, s'apprête à lui confier la numérisation d'une partie de son fonds.

Sans faire de procès d'intention à Google, il est cependant bon de rappeler que sur les 10 millions d'ouvrages qu'il a numérisés, 2 millions seraient entrés dans le domaine public, 2 autres millions auraient été indexés avec l'autorisation expresse des ayants droit et 6 millions seraient épuisés dans leur version imprimée, mais toujours protégés.

Face à cette situation et à la stratégie mondiale de Google, les réactions ont été bien timides et tardives mais la résistance s'organise peu à peu : Microsoft, Amazon et Yahoo ont rejoint l'OpenBook Alliance, destinée à contrer le service Google Books, qui permet de consulter et faire des recherches dans des livres après leur numérisation. L'OpenBook Alliance est une coalition américaine composée d'éditeurs, bibliothèques, associations et auteurs, qui contestent également la position de monopole de Google sur le secteur et des pratiques jugées anticoncurrentielles.

Google avait l'année dernière proposé un accord aux éditeurs et bibliothèques, concernant les conditions de numérisation et d'accès, prenant à sa charge des coûts et proposant les contenus sur sa plate-forme. La justice américaine tranchera au mois d'Octobre, pour valider ou bloquer cet accord. Si la justice valide l'accord, elle donnera à Google une position de monopole jugée dangereuse par ses concurrents, qui doivent demander à leur tour un accord aux éditeurs et bibliothèques et numériser à leur tour les oeuvres.

En France, les éditeurs français ont également demandé devant le TGI de Paris l'arrêt de la numérisation massive de livres par Google sans autorisation préalable des ayants-droit et réclamé de lourds dommages et intérêts à l'encontre du moteur de recherche américain. Le jugement a été mis en délibéré au 18 décembre.

Mais quelle que soit l'issue de ces batailles juridiques, elles apparaissent désormais comme des combats d'arrière-garde face aux progrès technologiques fulgurants qui permettent aujourd'hui à Google d'envisager de numériser en moins d'une décennie la quasi totalité du patrimoine culturel de l'humanité.

Or, on voit mal pourquoi Google se livrerait à ce travail pharaonique s'il ne comptait pas en tirer à terme d'immenses bénéfices et faire payer, d'une manière ou d'une autre l'accès du milliard et demi d'internautes aux immenses contenus numériques qu'il contrôlera. Or, au rythme où progresse la technologie, il n'est pas impossible que d'ici 10 ans, le quart des livres lus dans les pays développés le soient directement sur des terminaux électroniques de toute nature.

Cette dématérialisation accélérée de l'écrit représente donc un défi économique, culturel et politique immense et, sans nier le rôle historique de Google dans cette révolution numérique mondiale, il est capital que la communauté internationale s'organise, notamment au niveau européen, pour garantir et favoriser un accès libre et équitable pour tous à notre patrimoine culturel, bien commun qui appartient à toute l'humanité.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'Europe relance la question de la numérisation des bibliothèques
Vendredi, 23/10/2009 - 00:00

La Commission européenne a adopté le 21 octobre une communication sur le droit d'auteur dans l'économie de la connaissance. Le but est de relever les importants défis culturels et juridiques posés par la numérisation et la diffusion des livres, et plus particulièrement des collections des bibliothèques d'Europe.

Cette communication a été élaborée conjointement par Charlie McCreevy et Viviane Reding. Les bibliothèques numériques telles qu'Europeana offriront aux chercheurs et aux consommateurs de toute l'Europe de nouveaux moyens d'accéder aux connaissances. Pour ce faire, l'Union européenne devra cependant trouver une solution à la question des oeuvres orphelines qui, du fait de l'incertitude quant aux titulaires de leurs droits, ne sont souvent pas numérisables. Améliorer la diffusion et l'offre des oeuvres auprès des personnes souffrant d'un handicap, notamment les malvoyants, constitue une autre pierre angulaire de cette communication.

Lors de l'adoption, M. McCreevy et Mme Reding ont souligné que le débat autour de l'accord sur Google Books aux États-Unis a montré une fois de plus que l'Europe ne pouvait pas se permettre de rester à la traîne à l'ère du numérique.«Nous devons mettre en valeur l'Europe comme centre de créativité et d'innovation. Au lieu de prendre la poussière dans les rayons, l'important patrimoine des bibliothèques européennes doit être rendu accessible à nos concitoyens», a déclaré M. McCreevy, membre de la Commission chargé du marché intérieur.

Viviane Reding, membre de la Commission européenne responsable de la société de l'information et des médias a ajouté : « Partout dans le monde, d'importants programmes de numérisation ont d'ores et déjà été lancés. L'Europe doit saisir cette occasion pour prendre un rôle de premier plan et faire en sorte que la numérisation des livres se fasse en se fondant sur la législation européenne en matière de droits d'auteur et dans le plus grand respect de la diversité culturelle de l'Europe. Dotée d'un riche patrimoine culturel, l'Europe est la région qui a le plus à offrir et à gagner avec la numérisation des livres. Si nous agissons rapidement, des solutions européennes créant un environnement concurrentiel pour la numérisation des livres pourraient fonctionner plus tôt que celles qui sont actuellement envisagées aux États-Unis avec l'accord sur Google Books.»

Cette communication porte sur les actions que la Commission compte lancer : conservation numérique et diffusion de matériel universitaire et culturel ainsi que des oeuvres orphelines, et accès aux connaissances pour les personnes souffrant d'un handicap. Les questions posées dans la communication de la Commission découlent d'une consultation publique conduite l'an dernier après la parution d'un livre vert (IP/08/1156), des débats au sein du groupe de haut niveau de la Commission sur les bibliothèques numériques et des expériences acquises avec Europeana, la bibliothèque numérique européenne

SP

Haut débit : la Finlande veut instaurer le 100 Mbits/s comme un droit fondamental
Vendredi, 23/10/2009 - 00:00

Le droit de disposer d'un accès Internet d'au moins1 Mbit/s va être inscrit dans la loi en Finlande afin de développer le raccordement des zones rurales. A terme, le débit garanti devra être de 100 Mbits/s. En France, le gouvernement refuse de reconnaître un tel droit, en contradiction avec l'esprit de l'Hadopi. A partir de juillet 2010, les fournisseurs d'accès seront dans l'obligation de fournir aux 5,2 millions de citoyens finlandais un accès à Internet d'un débit minimum de 1 Mbit/s, comme vient de le décider le ministère des Transports et de la Communication.

Le gouvernement fait ainsi de l'accès à Internet un droit en l'inscrivant dans la loi. La Finlande compte accélérer le développement de l'Internet dans les zones rurales, souvent négligées par les opérateurs car économiquement moins rentables. Pour accompagner ce projet, dans un pays où près de 80 % des foyers sont déjà connectés, des fonds seront débloqués. Et la Finlande ne veut pas s'arrêter là, puisqu'elle envisage de fixer à 100 Mbits/s le débit garanti à ses citoyens. Le pays rejoint ainsi l'estonie où l'accès à Internet est déjà un droit, inscrit même dans sa constitution.

ZDNET

^ Haut
Matière
Matière et Energie
Encore plus de miniaturisation en électronique : la diode moléculaire
Vendredi, 23/10/2009 - 00:00

Une équipe de chercheurs du Biodesign Institute de l'université d'Arizona State a conçu un composant électronique à partir d'une molécule unique : une diode moléculaire.

Concevoir des diodes plus petites, moins chères, plus rapides et plus efficaces représente un grand espoir pour le futur de l'électronique. Les diodes en électronique représentent un ingrédient essentiel, elles sont utilisées partout et dans toutes les puces électroniques de l'industrie du semiconducteur. Les experts de cette industrie ont depuis longtemps annoncé que la fameuse loi de Moore, sur l'évolution de la microélectronique, qui stipule que le nombre de transistors intégrés sur une puce en silicium double tous les 18-24 mois, risque bientôt de ne plus pouvoir être respectée car l'on atteint déjà les limites physiques en termes de taille pour la gravure des transistors. Comme les transistors, les diodes sont irremplaçables, par exemple pour des systèmes de conversion de puissance, pour les radios, les portes logiques, des photo détecteurs, ou en électro luminescence (les fameuses LEDs).

Le principe d'une diode est de ne laisser passer le courant que dans une unique direction. Pour qu'une molécule ait cette propriété, elle doit être physiquement asymétrique, et bien sûr pouvoir s'intégrer dans un circuit électronique, c'est-à-dire avec un coté capable de former une liaison covalente avec l'anode chargée négativement, et l'autre coté avec la cathode chargée positivement. L'idée de surpasser les limites de l'électronique sur silicium grâce à l'électronique moléculaire existe déjà depuis un certain temps : en 1974 les chimistes Mark Ratner et Ari Aviram avaient lancé l'idée. Cela fait donc plus de trente ans que les chercheurs se penchent sur la faisabilité de l'électronique moléculaire.

La plupart des efforts faits dans cette direction impliquent de nombreuses molécules, mais seules de très récentes tentatives ont été fructueuses dans l'utilisation de molécules uniques. Un des défis est de relier une molécule unique à au moins deux électrodes et à y faire passer du courant. Un autre défit implique l'orientation de la molécule dans le système. Les chercheurs sont maintenant capables de faire ceci, en construisant un système mono moléculaire avec une orientation bien définie.

BE

Au Mazet-St-Voy, La Sybérienne optimise l'option géothermie
Vendredi, 23/10/2009 - 00:00

Un système géothermique innovant, La Sybérienne, pourrait se faire une belle place au soleil, dans un avenir proche, tant ce procédé présente de solides avantages. Il peut se prévaloir de vingt-quatre années d'expérience sur un Plateau cévenol, aux hivers réputés pour être peu cléments. Il a été mis au point par Roger Dolmazon, artisan au Mazet-Saint-Voy. Premier point fort, ce chauffage géothermique - couplage de l'énergie solaire thermique avec une pompe à chaleur géothermique - permet de se chauffer de manière autonome sans aucun apport.

Sa conception est aussi une première car un système de couplage, géré par une régulation électronique, assure la liaison capteurs solaires et pompe à chaleur. Certes, ce type de couplage existe déjà, mais uniquement au niveau du ballon tampon. Ici, le système élaboré est différent et plus subtil. Il est relié à une armoire de couplage gérée par une régularisation électronique en fonction de la demande de chaleur et des températures des différents éléments, (capteurs solaires thermiques, capteur enterré de surface, pompe à chaleur).

De ce fait, il peut se décliner en quatre modes. Tout d'abord géothermie. Il fonctionne comme une géothermie classique, la pompe à chaleur prend dans le capteur enterré de surface pour chauffer le bâtiment. Ensuite solaire. Les capteurs solaires chauffent le bâtiment (classique). Troisième possiblité, le géo solaire. La pompe à chaleur reçoit directement les calories des capteurs solaires. Et pour finir, le mode stockage. Les calories des capteurs solaires se déchargent directement dans le sol, par l'intermédiaire du capteur enterré.

Selon ses concepteurs, cela permet une économie d'énergie substantielle, une augmentation du rendement du système (température moyenne beaucoup plus élevée de l'eau glycolée utilisée par la pompe) et aussi, cerise sur le gâteau, d'avoir un chauffage 100 % solaire en mi-saison donc gratuit. Le système est totalement autonome. Enfin, les professionnels apprécieront ce dernier argument : le capteur enterré ne gèle plus, il est réchauffé par les capteurs solaires.

Le recul confirme, au travers de rélévés, une optimsiation des rendements et de la durée de vie des matériaux prolongée. Aucun problème de cet ordre n'est apparu depuis la mise en service de la première installation, qui rappelons-le, date de vingt-quatre ans.

Maison neuve ou maison ancienne, là encore que du positif. Comme le prouve la réalisation d'installations sur la région, sur du neuf en basse température ou en remplacement de chaudière fuel en haute température avec des radiateurs anciens. Leurs utilisateurs s'en félicitent et peuvent en témoigner.

Progrés

^ Haut
Espace
Espace et Cosmologie
Découverte d'une trentaine de nouvelles exoplanètes
Vendredi, 23/10/2009 - 00:00

Des astronomes européens ont repéré 32 nouvelles exoplanètes grâce au spectrographe Harps, installé sur un télescope de l'European Southern Observatory à la Scilla au Chili. Elles ont été découvertes dans plus de 30 systèmes planétaires différents. Les 32 exoplanètes sont pour la plupart très grandes. Certaines font 5 fois la taille de la Terre et d'autres sont 5 fois plus grandes que Jupiter. Les technologies utilisées pour les repérer sont très pointues mais pas assez pour apercevoir leur surface. Impossible également d'en analyser l'atmosphère, donc de déterminer si elles pourraient être habitables. "Ce serait vraiment difficile pour Harps de trouver une Terre réelle" a expliqué Stéphane Udry de l'Observatoire de Genève, qui travaille avec l'équipe de chercheurs.

Après 5 ans de recherches, les découvertes de Harps ont permis aux chercheurs d'en apprendre davantage sur la naissance des étoiles et la formation des planètes. Près de 2.000 étoiles ont été étudiées. Le nombre d'exoplanètes connues s'élève désormais à 400. Les analyses ont par exemple montré que les périodes orbitales des planètes peuvent atteindre des milliers de jours contrairement à celle de la Terre.

L'équipe d'astronomes poursuit maintenant ses recherches en se concentrant sur les « super-Terres » orbitant autour d'étoiles solaires : le nombre connu de ce type de planètes a en effet augmenté de 30 % grâce aux recherches de Harps.

Yahoo

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Qatar Airways a assuré son premier vol au gaz naturel
Vendredi, 23/10/2009 - 00:00

Grâce à un carburant alternatif réalisé par Shell à partir de 50 % de kérosène synthétique de gaz liquide (GTL) et à 50 % de kérosène conventionnel, et qui sera commercialisé sous le nom de GTL Jet Fuel, Qatar Airways a réalisé un vol de six heures entre Londres et Doha. Qualifié d'historique par la compagnie, ce vol a été effectué à bord d'un Airbus A340-600 utilisant un moteur Rolls-Royce Trent 556.

Les données récoltées lors du vol devraient "être utilisées par les scientifiques pour mieux analyser les bénéfices du GTL par rapport à un carburant normal" a indiqué Qatar Airways dans un communiqué. Alternative au kérosène classique, le GTL Jet Fuel permettrait de dégager moins de dioxyde de soufre lors de sa combustion et donc d'améliorer la qualité de l'air dans les aéroports les plus fréquentés. Disposant des premières réserves mondiales de gaz naturel connues, un gisement sous-marin qu'il partage avec l'Iran, le Qatar estime pouvoir produire au moins un million de tonnes de GTL par an à partir de 2012.

Ms

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Nouvelles données encourageantes sur le vaccin anti-VIH
Vendredi, 23/10/2009 - 00:00

Une première analyse des données de cette étude conduite auprès de 16.000 volontaires thaïlandais, dévoilée le 24 septembre, avait mis en évidence une réduction de 31,2 % du risque de contamination par le VIH. Les résultats complets de cet essai ont été présentés le 21 octobre dans le cadre de la conférence Aids vaccine 2009, qui se tient cette semaine à Paris. Ils sont également publiés dans le New England Journal of Medicine. "C'est une confirmation des résultats", a déclaré le Dr Jerome Kim, de l'institut de recherche de l'armée américaine Walter Reed, dans le Maryland, qui a participé à la réalisation de cet essai.

Il a cependant souligné que cet effet reste modeste et difficile à interpréter, insistant sur le fait que la commercialisation du vaccin testé était encore loin d'être envisageable. Sans compter que ce vaccin pourrait ne pas fonctionner en Afrique, le continent le plus touché par l'épidémie de sida. Près de 33 millions de personnes à travers le monde sont séropositives, selon les dernières données diffusées par l'Onusida. On estime qu'environ 25 millions de personnes sont mortes du sida dans le monde depuis le début de l'épidémie au début des années 1980.

L'étude a été réalisée par le ministère thaïlandais de la Santé publique avec l'aide de Sanofi-Pasteur, et financée par les Etats-Unis, notamment l'armée américaine. Elle a consisté à tester un vaccin expérimental résultat de la combinaison de deux autres vaccins : l'Alvac de Sanofi-Pasteur - qui consiste en des gènes du VIH intégré dans le virus de la variole du canari, inoffensif pour l'homme - et de l'Aidsvac, un vaccin qui s'était auparavant révélé inefficace seul. Mis au point par Genetech puis VaxGen, les droits de l'Aidsvac sont désormais détenus par l'organisation à but non lucratif Global Solutions for Infectious Diseases.

Quelques jours après l'annonce des premiers résultats, intervenue de façon inhabituelle lors d'une conférence de presse à Bangkok, des chercheurs cités anonymement par la revue Science et par le Wall Street Journal avaient émis des doutes sur leur fiabilité, suggérant que l'efficacité du vaccin était en fait plus faible qu'avancé. La remise en cause portait sur les méthodes statistiques utilisées pour analyser les données.

Les auteurs de l'essai ont procédé à trois analyses. L'une, appelée "en intention de traiter", prend en compte l'ensemble des participants, indépendamment de leur observance du protocole. La seconde, "en intention de traiter modifiée", repose sur le même principe mais sept volontaires en ont été exclus a posteriori, les chercheurs ayant découvert qu'ils avaient été infectés par le VIH avant de recevoir le vaccin. La troisième approche, dite "per protocole", ne prend en compte que les personnes ayant strictement respecté le protocole.

D'après le Dr Kim, l'analyse en intention de traiter modifiée est la plus précise. Mais les scientifiques ayant émis des doutes sur ces résultats dans la presse ont affirmé que les résultats concernant l'efficacité du vaccin n'étaient pas significatifs statistiquement après une analyse per protocole ou une analyse en intention de traiter.

Le médecin de l'armée américaine a indiqué que son équipe avait répondu à cette question dans l'article publié dans le New England Journal of Medicine. De fait, dans un éditorial accompagnant l'étude, le Dr Raphael Dolin de la Harvard Medical School, à Boston, estime que cet essai a été conçu et conduit de manière rigoureuse.

"Même si les mérites de chaque type d'analyse peuvent être discutés, ils ont tous les trois mis en évidence un possible, bien que modeste, effet du vaccin dans la prévention de l'infection par le VIH", écrit ce spécialiste. Différents points restent à préciser, notamment la durée de la protection conférée par le vaccin et la contribution respectif de l'Alvac et de l'Aidsvac à l'effet du vaccin.

NEJM

Les nanotechnologies contre le cancer
Vendredi, 23/10/2009 - 00:00

Des marqueurs fluorescents qui aident le chirurgien à repérer en temps réel les contours de la tumeur maligne qu'il opère. Des médicaments «intelligents» capables d'être activés à distance dès qu'ils ont atteint leur cible... Comme d'autres domaines de la médecine, la cancérologie se met à l'heure des nanotechnologies. La plupart de ces minuscules outils, dont la taille est de l'ordre du milliardième («nano» en grec) de mètre, n'en sont qu'au stade de la recherche. Mais ils ouvrent, à moyen terme, des perspectives passionnantes tant pour diagnostiquer que pour soigner les cancers. Un symposium international, récemment organisé à Paris par l'Institut national du cancer (Inca) et l'Inserm, a fait le point sur ces recherches en «onconano».

Côté diagnostic, l'un des défis majeurs consiste à mettre au point des nanosondes capables de se fixer sur les cellules cancéreuses. Injectées dans l'organisme, elles peuvent ainsi révéler la présence d'une tumeur en émettant un signal, radioactif ou optique par exemple. «Le traceur idéal, qui marque à 100 % les cellules cancéreuses, et uniquement celles-ci, est sans doute un mythe», note d'emblée Philippe Rizo, directeur scientifique de Fluoptics, une start-up du Commissariat à l'énergie atomique (CEA) qui travaille sur deux pistes prometteuses dont l'une, la nanoémulsion de fluorophore, permet d'illuminer le système lymphatique.

Ce traceur, à l'essai chez l'animal, repère les ganglions drainant une tumeur, c'est-à-dire les voies par lesquelles les cellules cancéreuses se disséminent dans le corps du patient. «En protégeant le fluorophore, notre nanémulsion permet d'obtenir une brillance très importante et une très grande stabilité, ce qui permettra d'appliquer cette technique à de nombreux types de cancer», poursuit M. Rizo.

Plus spectaculaire encore, Fluoptics développe un marqueur de la néoangiogénèse, autrement dit la formation de nouveaux vaisseaux sanguins qui accompagne la croissance des tumeurs cancéreuses. Chez un malade sur quatre, ce traceur fluorescent se fixe aussi sur la tumeur elle-même. Couplé au système optique développé par Fluoptics, «cela aidera le chirurgien à visualiser directement les cellules potentiellement cancéreuses et les limites de la tumeur pendant l'intervention», prédit M. Rizo en précisant que les cancers de la cavité abdominale devraient être les premiers concernés.

Actuellement à l'étude chez de petits animaux, ce marqueur devra cependant passer par le même circuit de validation qu'un médicament. Selon le directeur scientifique de Fluoptics, les premiers essais cliniques sont prévus vers 2011.

«Les techniques de diagnostic par imagerie moléculaire sont prometteuses à assez court terme», confirme le Pr Jean-Yves Blay, cancérologue au centre Léon-Bérard, à Lyon.

Mais pour ce praticien, les nanotechnologies auront bien d'autres applications dans le dépistage des cancers. «À l'avenir, ces outils permettront de réaliser de minuscules prélèvements, beaucoup moins traumatisants pour les malades que les biopsies d'aujourd'hui. Les laboratoires sur puce seront aussi très utiles pour étudier de façon très fine les caractéristiques des tumeurs, avec une série de biomarqueurs.» Un profilage indispensable en vue de traitements personnalisés.

Le versant thérapeutique des nanotechnologies est également en pleine ébullition. Le principe est séduisant : en plaçant les substances médicamenteuses dans des nanoenveloppes, on modifie profondément leur diffusion dans l'organisme. Soixante-dix fois plus petits qu'un globule rouge, les «nanovecteurs» franchissent aisément les barrières biologiques, à commencer par les membranes cellulaires.

Au final, l'efficacité est augmentée, et la toxicité du traitement réduite. Plusieurs nanomédicaments (notamment à base de liposomes et de protéines pegylées) sont déjà commercialisés. L'équipe du Pr Patrick Couvreur de la faculté de Chatenay-Malabry (Hauts-de-Seine) développe de nouvelles générations de nanovecteurs.

Un composé à base de gemcitabine - une chimiothérapie déjà ancienne - et de squalène (le cholestérol du requin) est ainsi à l'étude. L'association de ces deux substances, qui entraîne la formation spontanée de nanoparticules, a déjà obtenu des résultats spectaculaires dans plusieurs types de cancers chez l'animal. Des travaux consistant à envelopper le duo gemcitabine-squalène dans des particules d'oxyde de fer sont également en cours. Objectif : activer le médicament à distance par un aimant quand il a atteint sa cible tumorale.

Figaro

Des chercheurs américains produisent du tissu cardiaque qui bat
Vendredi, 23/10/2009 - 00:00

Des scientifiques américains ont réussi à produire du muscle cardiaque à partir des cellules souches d'un embryon de souris, et l'ont vu battre. Une étape importante dans le domaine de la régénération du tissu cardiaque après un infarctus. "Nous fabriquons une pièce détachée pour l'introduire dans le coeur", explique le Dr Kenneth Chien pour décrire le travail de son équipe de l'Université de Harvard et celui des chercheurs de l'hôpital général du Massachusetts.

La route est encore longue avant de pouvoir essayer une opération aussi importante sur l'homme. Régénérer un muscle cardiaque lésé est une sorte de Saint Graal dans le domaine des soins cardiaques. Le Dr Chien espère que "d'ici cinq ans" les tests humains pourront commencer.

Aujourd'hui, les médecins ont à leur disposition de nombreux traitements de prévention de l'infarctus. Mais quand cet accident se déclare, il n'existe aucun moyen de réparer le muscle cardiaque détruit. D'où l'intérêt des cellules souches embryonnaires, les cellules maîtresses qui peuvent évoluer en n'importe quelle cellule de l'organisme.

Jusque-là, les chercheurs ne savaient pas comment leur faire produire des cellules de muscle cardiaque pur. Par défaut, ils ont tenté d'injecter à des rescapés d'un infarctus du myocarde des mélanges de différentes sortes de cellules souches, comme celles que l'on trouve dans la moelle épinière. L'idée étant que, une fois dans le coeur abîmé, les cellules souches capables de produire du muscle cardiaque recevraient peut-être le feu vert pour se mettre au travail. Le succès a été très limité.

La nouvelle recherche publiée dans le magazine "Science" promet une approche plus ciblée. "Ce n'est pas LA solution mais c'est une avancée majeure", estime le Dr Elizabeth Nabel, directrice de l'Institut national (américain) du coeur, du poumon et du sang, qui consacre des millions de dollars à la recherche américaine sur la régénération du tissu cardiaque.

L'équipe de l'Institut des cellules souches de Harvard et de l'hôpital général du Massachusetts a récemment découvert une cellule- souche cardiaque présente à la fois dans les embryons de souris et les embryons humains. Mais les chercheurs peuvent-ils les diriger contrôler suffisamment pour qu'elles ne produisent que le type de cellules cardiaques recherché?

Le Dr Chien a créé des souris génétiquement programmées pour que certaines cellules présentes dans le coeur en développement des embryons se colorent soit en rouge fluorescent, soit en vert. Il a ensuite observé la croissance de ces embryons: là où le vert et le rouge se chevauchent, c'est du pur muscle cardiaque de ventricule (la pompe du coeur) qui se développe. Il s'agit bien de cellules génératrices de ventricule cardiaque, comme l'a vérifié l'équipe. L'équipe a ensuite ensemencé un échafaudage cellulaire avec ces cellules souches de ventricule et une fine bande de muscle cardiaque s'est immédiatement développée dans le laboratoire. Plus fort encore, le tissu s'est spontanément mis à battre, souligne l'équipe dans "Science".

AP

Parkinson : une trithérapie génique prometteuse
Vendredi, 23/10/2009 - 00:00

C'est peut-être une nouvelle alternative thérapeutique pour les patients atteints de maladie de Parkinson. Testée chez des primates, une trithérapie génique a permis à des animaux parkinsoniens de récupérer 80 % de leur motricité. Surtout, le bénéfice s'est maintenu pendant des mois sans apparition d'effets secondaires. Ces résultats impressionnants, obtenus par l'équipe de Béchir Jarraya et Stéphane Palfi, tous deux neurochirurgiens à l'hôpital Henri-Mondor (Créteil) et chercheurs CEA/Inserm, ont été publiés hier dans une nouvelle revue scientifique, Science Translational Medicine. Des essais cliniques sont en cours chez six patients.

La maladie de Parkinson concerne plus de 100 000 personnes en France. Elle est due à une dégénérescence du Locus niger, la zone cérébrale où des neurones fabriquent la dopamine. La carence en ce neurotransmetteur entraîne des symptômes très handicapants : tremblement de repos, raideur, difficultés à initier des mouvements... Le traitement de référence, la L Dopa, est utilisé depuis cinquante ans. Ce précurseur de la dopamine permet de stimuler la production du neurotransmetteur.

Mais après une période de «lune de miel», la L Dopa présente l'inconvénient majeur d'induire des mouvements anormaux (dyskinésies) tout aussi gênants que les symptômes de la maladie. Depuis une quinzaine d'années, certains patients (environ 400 par an en France) bénéficient d'une stimulation électrique cérébrale profonde. Les électrodes cérébrales, implantées au niveau des noyaux sous-thalamiques, sont activées par une sorte de pacemaker, posé au niveau thoracique.

«Chez les malades qui prennent de la L Dopa, les mouvements anormaux sont liés à une stimulation irrégulière de la dopamine dans la journée, explique le Dr Béchir Jarraya. La solution pour les éviter serait d'obtenir une sécrétion continue et locale du neurotransmetteur.» D'où l'idée des chercheurs français d'implanter une mini-usine à dopamine dans le cerveau, sous forme de gènes. «Le principe, ici, n'est pas de remplacer un gène défectueux (les formes héréditaires de la maladie de Parkinson représentent moins de 15 % des cas), mais d'apporter les trois gènes nécessaires à la synthèse de dopamine», poursuit Béchir Jarraya. Pour pouvoir introduire ces trois gènes dans un même vecteur - un véritable défi - les chercheurs ont fait appel à un lentivirus équin, un virus (inoffensif) de la famille du HIV. Ce cocktail est produit par une société britannique, Oxford BioMedica.

L'étude a été menée chez 18 macaques, rendus parkinsoniens par l'injection d'une toxine. Ils ont été séparés en trois groupes. Six d'entre eux ont reçu des injections bilatérales des gènes en intracérébral, au niveau d'une zone nommée striatum ; six autres ont reçu le vecteur viral mais sans les gènes thérapeutiques. Les six derniers ont servi de contrôles. «Après un délai de quatre à six semaines, les animaux traités ont eu une amélioration de 80 % de leur motricité, mesurée objectivement, raconte le Dr Jarraya.

Ce résultat est resté stable pendant les 12 mois de l'expérience.» Il s'est même maintenu pendant 44 mois chez le macaque qui avait été gardé en vie plus longtemps. De plus, contrairement à la L Dopa, la thérapie génique n'a pas entraîné de mouvements anormaux, ni d'ailleurs d'autres effets secondaires. Les chercheurs ont pu vérifier que l'amélioration des signes cliniques correspondait à une augmentation du niveau de dopamine dans la zone d'injection des gènes thérapeutiques. Ils ont aussi pu établir que cette stratégie pouvait être efficace chez des animaux déjà traités par L Dopa, ce qui laisse espérer une diminution des doses du médicament.

Des essais cliniques ont commencé à l'hôpital Henri-Mondor chez six malades avec un Parkinson évolué. «Avec plus d'un an de recul, il n'y a pas eu de problème de tolérance. Tous les malades, à des degrés variables, ont eu un effet bénéfique, mais nous cherchons encore la dose optimale», précise le Pr Stéphane Palfi. Selon ce neurochirurgien, l'injection des gènes thérapeutiques dans le striatum, qui se fait sous anesthésie générale, est plus facile techniquement que l'implantation d'électrodes de stimulation dans les noyaux sous-thalamiques. Elle présenterait aussi l'avantage d'être plus spécifique, ce qui pourrait peut-être prévenir certains troubles du comportement décrits après stimulation cérébrale profonde.

Figaro

Exposition aux radiofréquences : aucune preuve convaincante d'un effet biologique
Vendredi, 23/10/2009 - 00:00

Le rapport rendu par l'Agence française de sécurité sanitaire de l'environnement et du travail (Afsset), jeudi 15 octobre, à la veille d'une table ronde organisée dans le cadre du Grenelle des ondes, ne va pas plaire à tout le monde. 'Les données issues de la recherche expérimentale disponible n'indiquent pas d'effet à court terme ni à long terme de l'exposition aux radiofréquence', conclut ce rapport, établi par un groupe pluridisciplinaire d'experts qui a travaillé pendant plus d'un an. Les experts ont évalué la qualité méthodologique de 225 études concernant les fréquences supérieures à 400 MHz, c'est-à-dire excluant la radio et la télédiffusion. Ils sont arrivés à la conclusion qu'une très nette majorité des études mettant en évidence des effets biologiques de l'exposition aux radiofréquences présentaient des défauts méthodologiques significatifs.

Ils estiment ainsi que seulement 11 % (9 sur 82) des études menées sur l'animal ou in vitro et montrant l'existence d'un effet biologique et clinique 'ont une méthodologie rigoureuse'. A l'inverse, cette proportion atteint 69 % pour les études sur l'animal ou in vitro qui ne constatent pas d'effet biologique.

Concernant les travaux sur l'humain, seules quatre des 19 études (21 %) mettant des effets en évidence 'ont suivi des protocoles rigoureux'. 'Parmi les 24études ne montrant pas d'effet, 17 présentent une méthodologie rigoureuse, soit 71 % des études', estime l'Afsset.

Celle-ci affirme par ailleurs que "le téléphone mobile reste très largement le principal mode d'exposition aux champs de radiofréquences, en comparaison notamment à l'exposition générée par les antennes-relais" et que les effets pathologiques retrouvés dans certaines études ne sont constatés que pour des utilisations supérieures à dix ans. L'agence recommande la poursuite des études sur les effets possibles à long terme, "notamment sur la reproduction et le développement sur plusieurs générations d'animaux".

De même, elle encourage les études épidémiologiques, notamment sur la sensibilité des personnes voisines d'antennes-relais. Elle reconnaît le phénomène d'électrohypersensibilité, sur lequel des associations ont attiré l'attention et pour lequel elle préconise "le développement et l'évaluation d'un outil de diagnostic".

Les ministres de la santé et de l'écologie avaient saisi l'Afsset, le 14 août 2007, afin qu'elle procède à une "mise à jour de l'expertise relative aux radiofréquences". Les technologies utilisant ce type d'ondes électromagnétiques - du radar à la téléphonie mobile en passant par le Wi-Fi - ont connu un engouement spectaculaire qui a fait naître des craintes et des controverses, donnant lieu notamment à des décisions de justice fondées sur le principe de précaution.

L'Afsset s'était déjà prononcée en 2003 et 2005 sur la téléphonie mobile. Pour cette nouvelle expertise, elle a élargi les compétences du groupe de travail aux sciences humaines et sociales. Autre innovation : elle a sollicité les quatre associations actives dans le domaine des champs électromagnétiques pour qu'elles désignent un représentant commun, présent comme observateur aux réunions et aux auditions. Agir pour l'environnement et Priartem ont accepté. Le Centre de recherche et d'information indépendant sur les rayonnements électromagnétiques non ionisants (Criirem) et Robin des Toits ont refusé.

S'appuyant sur les résultats disponibles concernant les niveaux d'exposition de la population "obtenus à partir des études de terrain et de la base de données de l'AFNR , le groupe de travail de l'Afsset indique qu'ils sont "tous inférieurs aux valeurs limites d'exposition réglementaires et même souvent très en dessous de ces valeurs limites". Compte tenu de l'"évolution rapide des technologies et des usages", l'Afsset estime nécessaire "une adaptation progressive des normes et des protocoles d'évaluation des niveaux d'exposition".

L'Afsset exonère les radiofréquences supérieures à 400 MHz. Selon l'agence, celles-ci ne provoquent ni effet perturbateur sur les grandes fonctions cellulaires, ni stress pour les cellules, ni effet génotoxique à court ou à long terme, ou mutagène. Elles n'entraînent pas d'augmentation d'incidence ou d'aggravation de cancers, d'effet délétère sur le système nerveuxni d'effet susceptible d'affecter le fonctionnement du système immunitaire.

[LM">Agence nationale des fréquences]", le groupe de travail de l'Afsset indique qu'ils sont "tous inférieurs aux valeurs limites d'exposition réglementaires et même souvent très en dessous de ces valeurs limites". Compte tenu de l'"évolution rapide des technologies et des usages", l'Afsset estime nécessaire "une adaptation progressive des normes et des protocoles d'évaluation des niveaux d'exposition".

L'Afsset exonère les radiofréquences supérieures à 400 MHz. Selon l'agence, celles-ci ne provoquent ni effet perturbateur sur les grandes fonctions cellulaires, ni stress pour les cellules, ni effet génotoxique à court ou à long terme, ou mutagène. Elles n'entraînent pas d'augmentation d'incidence ou d'aggravation de cancers, d'effet délétère sur le système nerveuxni d'effet susceptible d'affecter le fonctionnement du système immunitaire.

[LM

Une prothèse auditive totalement implantable...
Vendredi, 23/10/2009 - 00:00

Depuis le début des années 2000, la société Envoy Medical, a démarré la commercialisation des prothèses auditives Esteem, de petits appareils totalement implantables par voie chirurgicale sans microphone et dotés d'une pile pouvant durer jusqu'à 9 ans. Explications. L'implant auditif Esteem s'annonce comme une véritable alternative aux aides auditives classiques externes. Selon le fabricant, cette appareillage totalement implantable par voie chirurgical « procure aux patients une clarté de sons naturels, car il est basé sur une technologie de pointe qui utilise l'oreille et le tympan comme microphone naturel. Il minimise ainsi les distorsions acoustiques, les bruits de fond et les larsens qui peuvent se produire avec les appareils auditifs conventionnels s'appuyant sur un microphone physique externe ».

Étant complètement implanté, il garantit aux patients, toujours selon le fabricant, une qualité de vie et une mobilité bien meilleures ; les personnes équipées de ce système peuvent ainsi continuer à vivre normalement et oublier qu'elles portent une prothèse... puisqu'elles peuvent se baigner, faire du sport et dormir... tout en entendant.

Albert Narchal, 75 ans, ancien homme d'affaires à la retraite, atteint de surdité sévère et récemment doté de cet appareillage a déclaré : « La raison pour laquelle j'ai été très intéressé par cet implant, c'est qu'il soit totalement interne... Donc pour moi, c'était une révolution extraordinaire... C'est non seulement un progrès considérable, mais c'est un confort fantastique... Je suis redevenu un homme normal, même si j'ai un ordinateur dans la tête ».

SA&

Une méthode innovante apporte de nouvelles réponses sur la transmission neuronale
Vendredi, 23/10/2009 - 00:00

Comment le corps transmet-il les signaux nerveux et les transforme-t-il en pensées ? Des chercheurs de Brunswick et de Göttingen ont développé une méthode permettant de mieux comprendre la transmission du signal nerveux entre deux cellules. Leurs résultats ont fait l'objet d'une publication dans la revue PNAS du 12 octobre 2009.

Les travaux des Prof. Peter Jomo Walla et Prof. Reinhard Jahn, respectivement Directeurs des départements de chimie biophysique à l'Université technique de Brunswick et à l'Institut Max Planck de Göttingen, permettent de mieux comprendre les mécanismes à l'origine de la pensée et des sensations. Ils ont développé une méthode permettant d'observer très précisément le transfert d'un signal nerveux entre deux cellules.

Ce transfert repose sur des molécules biochimiques appelées neurotransmetteurs. Ces molécules sont contenues dans des vésicules présentes dans les cellules nerveuses le long de la membrane cellulaire. Un signal chimique déclenche le passage des vésicules à travers la membrane et la libération des neurotransmetteurs à l'extérieur de la cellule. Ces derniers sont alors fixés et reconnus par les cellules voisines. Pour que la transmission des pensées et des sensations puisse s'effectuer suffisamment vite, il est primordial que les vésicules soient prêtes à réagir dès que le signal déclencheur arrive. Cet état temporaire précédant le signal déclencheur étant difficile à observer, il n'existait jusque-là que très peu d'informations sur la nature et la régulation de ce signal déclencheur.

La méthode développée consiste à marquer les vésicules par fluorescence afin de pouvoir les observer au microscope. Le Prof. Peter Jomo Walla explique que leur procédé permet d'ajouter ou de retirer des biomolécules spécifiques, et d'analyser ainsi lesquelles sont importantes et quels sont les différents mécanismes. Pour la première fois, les scientifiques ont pu observer le procédé de transmission neuronale pendant la libération des neurotransmetteurs

BE

Découverte d'un nouveau gène lié à l'autisme
Vendredi, 23/10/2009 - 00:00

L'équipe du Dr de Jonge de l'université d'Utrecht a mis au jour un nouveau gène impliqué dans l'apparition de l'autisme. Celui-ci se retrouverait aussi dans le cerveau des patients déjà atteints d'autisme. Les chercheurs ont analysé les caractéristiques génétiques de plus de 1.000 familles dont un ou plusieurs membres sont atteints d'autisme. Ils les ont ensuite comparées à celles des membres sains de ces familles. Ils ont ainsi pu tracer le gène sémaphorine 5A en partie responsable du développement de l'autisme.

La variante de ce gène permet d'expliquer l'origine de l'autisme, mais ce n'est pas le seul facteur qui contribue à l'émergence de la maladie. Les chercheurs ont ensuite comparé l'activité du gène sémaphorine 5A dans le cerveau de vingt patients autistes et de dix personnes non autistes.

Dans le cerveau des patients atteints d'autisme, le gène est considérablement moins actif. Le gène sémaphorine 5A serait impliqué dans le contrôle des ramifications des neurones en développement. Les cellules nerveuses communiquent les unes avec les autres via des connexions entre elles. Le Dr. Maretha de Jonge explique : "La mauvaise communication entre les aires cérébrales pourrait aussi être la cause de l'autisme." L'autisme est un trouble du développement sévère, les patients souffrent de problèmes d'interaction sociale et la communication. Il est considéré comme le trouble psychiatrique le plus fortement déterminé par des facteurs génétiques.

MS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Premier ferry électrique au monde pour 2015
Vendredi, 23/10/2009 - 00:00

Selon le journal Nikkei, la compagnie japonaise IHI Corp. envisage de commercialiser en 2015 un ferry dont la propulsion serait assurée par deux moteurs électriques. Le navire sera construit par sa filiale IHI Marine United Inc. Il mesurera 30 mètres de long et pourra embarquer 800 passagers. Ses deux moteurs auront chacun une puissance de 400 kW. Ils seront alimentés par des batteries rechargeables de type lithium-ion, pouvant fournir au total 5.000 kWh. L'autonomie du navire sera de l'ordre de 120 km et nécessitera 6 à 8 heures de charge.

Compte tenu de la baisse annoncée du prix des batteries lithium-ion du fait notamment de leur utilisation grandissante dans le secteur automobile, le surcoût de l'électrification du navire serait de l'ordre de +60 % par rapport au prix d'un ferry classique à propulsion diesel (400 à 500 millions de yens - 3 à 3,7 millions d'euros). Ce surcoût serait amorti par les économies que réaliserait une compagnie qui utiliserait un tel navire. Ainsi, en rechargeant les batteries la nuit, période où l'électricité est en générale moins chère, le coût du km parcouru serait de 400 yen (3 euros), soit moitié moins que pour un bateau équipé d'un moteur diesel.

Le remplacement du moteur diesel par des moteurs électriques permet un gain de place qui autorise une coque plus élancée, rendant le navire plus hydrodynamique. De plus, ses coûts de fonctionnement seront réduits. Il pourra entre autre être opéré par un équipage plus restreint. Les passagers quant à eux y gagneront en confort : un moteur électrique est beaucoup plus silencieux qu'un moteur diesel. Il provoque également moins de vibration.

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top