RTFlash

RTFLASH Recherche & Technologie
NUMERO 392
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Juillet 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'acte de naissance en ligne vient étoffer l'e-administration
Aladdin : le compagnon de voyage des touristes
Paris veut devenir la capitale la plus connectée au monde
RFID : une technologie plébiscitée par le secteur de la santé pour le diagnostic, le dépistage et la lutte contre la contrefaçon
France Télécom ouvre le LiveBox Labs, laboratoire à idées
Avenir
Un nanocapteur ultrasensible
Un nanomoteur solaire
Matière
La France veut rattraper son retard en énergie solaire
Les grands opérateurs évaluent le potentiel des énergies renouvelables
Grande-Bretagne : feu vert pour la première centrale électrique utilisant l'énergie des vagues
Terre
Le Prix Nobel de chimie Paul Crutzen suggère de "manipuler le climat"
Vivant
De l'ADN immortel dans les cellules souches musculaires
Aider les plantes qui en sont incapables à fixer l'azote
Du jus de grenade contre le cancer de la prostate
Greffe du visage : un exploit salué par la communauté scientifique internationale
Le scyllo-cyclohexanehexol pourrait devenir le nouveau traitement de la maladie d'Alzheimer
Homme
Google s'attaque au paiement en ligne
Edito
Loi sur les droits d'auteur : un combat d'arrière-garde



A l'issue d'une longue navette parlementaire et d'un compromis laborieux obtenu en Commission Mixte Paritaire entre l'Assemblée nationale et le Sénat, le très controversé projet de loi sur le droit d'auteur qui vise notamment à empêcher tout téléchargement illégal ou copie sauvage sur l'Internet, a été définitivement adopté le vendredi 30 juin 2006.

Ce texte "relatif au droit d'auteur et aux droits voisins dans la société de l'information" transpose en droit français la directive européenne du 22 mai 2001 en l'élargissant à l'ensemble des droits d'auteur dans le numérique.

Mais ce texte recèle de nombreuses failles et suscite bien des interrogations. Il ne dit pas par exemple comment va s'effectuer la traque aux pirates. On ignore également si l'internaute sera sanctionné pour un seul morceau téléchargé en fraude ou à partir d'un certain nombre de fichiers téléchargés.

Autre question centrale que ce texte ne règle pas, celle de l'interopérabilité. Le droit de lire de la musique téléchargée sur le baladeur de son choix est certes inscrit dans le texte, mais est strictement encadré par une Autorité administrative indépendante qui ne sera saisissable que par les professionnels et pas par les utilisateurs.

Selon le Ministre de la Culture, grâce à cette loi, la possibilité de lire une oeuvre téléchargée légalement sur n'importe quel support numérique sera assurée. Mais les principales associations de consommateurs, ainsi que les associations qui défendent l'utilisation des logiciels libres en doutent et dénoncent plusieurs restrictions à ce droit qui vont bénéficier aux géants de l'informatique et du multimédia. Exemple, Apple dont la plate-forme iTunes Music Store n'est accessible qu'avec son baladeur iPod. Actuellement, un internaute qui télécharge par exemple en toute légalité le dernier album de Laurent Voulzy sur le site payant d'Apple, "iTunes Music Store", ne peut l'écouter que sur le baladeur numérique iPod d'Apple.

Par ailleurs, le texte autorise les artistes et leurs majors à mettre des verrous numériques sur leurs CD ou DVD pour éviter le piratage. Le droit qu'ont les particuliers de faire une copie des albums ou films qu'ils achètent pour leur usage personnel sera davantage encadré.

Il est intéressant de souligner à quel point, au cours des débats passionnés qui ont accompagné l'examen de ce projet de loi, se sont manifestées deux conceptions des technologies numériques qui ont largement transcendé les clivages politiques traditionnels. La première conception, même si elle s'en défend, apporte un soutien implicite aux géants de l'économie numérique, éditeurs de logiciels, comme Microsoft, ou producteurs de contenus numériques, comme Apple ou Vivendi. Cette conception défend avant tout la fameuse Gestion des Droits Numériques (DRM) et vise à verrouiller de manière stricte l'accès aux contenus numériques, qu'il s'agisse de logiciels ou de fichiers audio ou vidéo que les internautes s'échangent en grande quantité grâce au "Peer To Peer".

L'autre conception du monde numérique privilégie la liberté de choix de l'internaute et du consommateur et favorise la créativité et la liberté d'entreprendre notamment pour les petites entreprises et les acteurs qui oeuvrent pour la diffusion des logiciels libres.

Dans un souci louable de consensus et de synthèse, le gouvernement a tenté de concilier ces deux conceptions mais une telle entreprise s'apparentait un peu à la quadrature du cercle et à vouloir ne déplaire à personne on finit souvent par mécontenter tout le monde !

Sans entrer dans les détails très techniques de cette loi, on peut regretter au moins deux dispositions de ce texte qui devront probablement être corrigées dans l'avenir. La première concerne les DRM (Gestion des Droits Numériques) qui ne visent pas seulement à empêcher une reproduction illimitée des oeuvres, mais à limiter le nombre de lectures en instituant des péages permanents. Par ailleurs ces DRM limitent aussi l'accès aux oeuvres tombées dans le domaine public.

La seconde disposition contestable de ce texte concerne évidemment la question centrale de l'interopérabilité entre les systèmes. Dans sa version finale, la loi reconnaît certes le principe d'interopérabilité mais elle en rend de facto l'application très difficile : ainsi il ne sera plus possible de saisir le tribunal de grande instance en référé, et plus possible pour un consommateur d'exécuter des copies privées sur tout type de matériel lui appartenant.

Ces deux points révèlent toute la difficulté de concilier des exigences socio-culturelles et des intérêts économiques de plus en plus complexes et contradictoires et montrent à quel point les enjeux politiques, culturels, économiques et technologiques sont à présent inextricablement liés dans l'économie numérique mondiale portée par le fantastique développement de l'Internet.

Comme le dénoncent avec force les principales associations de défense et de promotion des logiciels libres, et notamment l'ALL, l'AFUL et l'ADDULACT, ce projet de loi sur le droit d'auteur et droits voisins dans la société de l'information généralise et légalise la mise en place de protections techniques nouvelle génération (DRM) sur les contenus numériques ainsi qu'une sanctuarisation juridique des protections techniques.

Ces associations soulignent également que, contrairement aux oeuvres sur papier que l'on peut reproduire par photocopie, le médium numérique est susceptible d'être verrouillé par des DRM, sous le prétexte apparemment louable de prévenir tout contournement des DRM au motif de l'exception pédagogique. » Concrètement, cela signifie qu'un texte qui a d'abord été publié sur support papier puis a été mis en ligne dans un second temps bénéficie de l'exception pédagogique, contrairement à un texte qui est directement publié en ligne. Sur ce point particulier, comme le souligne la lettre d'Homo Numericus " Le gouvernement semble avoir cherché à favoriser le passé (qui bénéficie d'un régime plus libéral) au détriment de l'avenir (sévèrement verrouillé). Les conséquences dans certains secteurs comme les revues scientifiques qui sont en train de basculer massivement vers un mode de diffusion exclusivement ou d'abord numérique, seront considérables."

Ces associations insistent sur le fait que la mise en place de ces protections techniques peut exclure, par leur définition, les logiciels libres de certaines activités comme par exemple les lecteurs de DVD de salon, les assistants personnels numériques, les téléphones portables. Cette sanctuarisation juridique met les utilisateurs, les diffuseurs et les auteurs des logiciels libres permettant d'accéder à la culture hors la loi. Mais les conséquences sociales, technologiques, économiques et géo-stratégiques dépassent la sphère du logiciel libre pour toucher tout citoyen utilisateur de données numériques.

Frédéric Couchet, président de la FSF (Free Software Foundation) France, souligne pour sa part avec pertinence qu'avec cette loi «La sécurité de développement du logiciel libre n'est absolument pas garantie. Alors que les ténors de l'informatique s'investissent de plus en plus dans le développement de projets logiciels libres, que les administrations poussent majoritairement à l'utilisation des technologies libres, je ne pense pas que ce soit le moment de mettre gravement en danger l'industrie européenne.»

Comme l'a très bien exprimé Jean Michel Billaut, dans un article drôle mais impitoyable intitulé " La révolte des pronétaires démarre", cette affaire de la loi DADVSI annonce bien un changement majeur de civilisation. Il souligne à juste titre que tout ce qui représente la culture humaine, au sens large, a été mis en oeuvre pour être exploité sur une plate-forme technologique donnée : une plate-forme "analogique" (broadcast hertzien pour télé et radio, éditeurs de presse, téléphonie traditionnelle, etc.) qui s'est construite avec la Révolution industrielle.

Or, avec la fantastique montée en puissance de l'internet à haut débit, cette plate-forme analogique est tout simplement devenue obsolète. Dans ce nouveau monde numérique, chacun peut devenir producteur et diffuseur d'informations grâce aux outils open source très puissants, à présent disponibles en ligne.

Bien entendu, cette démocratisation numérique qui remet radicalement en cause les normes, droits, systèmes propriétaires et rentes de situation en tout genre, ne fait pas du tout plaisir aux géants du multimédia, de l'informatique et du numérique qui cherchent par tous les moyens à conserver leurs avantages acquis et leurs positions dominantes. Mais, à la lumière très révélatrice du débat suscité par cette loi DADVSI, comment ne pas voir qu'il s'agit là d'un combat d'arrière-garde et que les consommateurs, qu'on le leur permette ou non, sont bien décidés à continuer d'exploiter toutes les immenses potentialités que leur ouvre la combinaison de l'internet à très haut débit et l'accès à une vaste panoplie d'outils logiciels gratuits et ouverts.

Commencée il y seulement 15 ans, la révolution techno-économique et culturelle du Web touche à présent un terrien sur 6 et représente sans doute la plus importante mutation de civilisation depuis l'imprimerie. Il est dommage, pour ne pas dire inquiétant, que certains de nos dirigeants économiques et politiques n'aient pas encore pris toute la mesure de ce phénomène unique par son ampleur, sa rapidité et ses conséquences globales sur nos sociétés et persistent à vouloir le contrôler en s'inspirant de conceptions et de méthodes issues d'une époque révolue. Dans ce domaine plus que dans tout autre, le conservatisme, le corporatisme et l'opacité d'un pouvoir pyramidal multiséculaire n'ont plus cours et sont devenus insupportables aux yeux de nos concitoyens. Il est temps que nos élites s'en aperçoivent !

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'acte de naissance en ligne vient étoffer l'e-administration
Vendredi, 07/07/2006 - 00:00

Après l'espace personnalisé, mon.service-public.fr et changement-adresse.gouv.fr, c'est au tour de la gestion des actes de naissance d'entrer dans l'arène de l'e-administration. Certes le site acte-naissance.fr est ouvert depuis février 2006 et seulement 42 % des actes de naissances français sont disponibles sur demande via le Web mais Jean-Francois Copé a assuré vouloir étendre ce service à toutes les communes françaises. Rien de plus simple pour demander un extrait d'acte de naissance, il suffit d'indiquer son nom, prénom, sa commune de naissance ainsi que si l'acte doit être avec ou sans filiation...

Aucune donnée personnelle n'est conservée, mais le traitement post-saisie est différent selon l'équipement informatique de la commune. Cela va du formulaire envoyé directement à la mairie de naissance à la possibilité d'imprimer le document pour l'envoyer par voie postale. Actuellement, seules 274 communes offrent ce service mais bientôt elles seront plus de 600. L'objectif est de traiter d'ici à la fin de l'année 20 % des demandes d'acte de naissance. Les demandes d'extrait de mariage et de décès devraient, elles, devenir possibles en ligne d'ici à la fin de l'année.

Acte-naissance.fr

Aladdin : le compagnon de voyage des touristes
Vendredi, 07/07/2006 - 00:00

Le tourisme utilise à son tour les technologies mobiles : le projet de recherche européen "Aladdin", subventionné par l'Union européenne, consiste à créer un système de gestion de destination mobile pour les touristes ainsi que pour les organisateurs de voyages. L'institut d'ergonomie et de gestion technologique (IAT) de l'université de Stuttgart, qui coopère étroitement avec l'institut Fraunhofer IAO, est un des quatre instituts de recherche travaillant sur ce projet. Il y a également six PME, des prestataires de services et des fournisseurs de système développé.

Le projet "Aladdin" offre ainsi une solution d'information mobile. Dans un premier temps, les scientifiques ont effectué une analyse des demandes puis ont étudié les solutions existantes et les normes en vigueur dans le domaine de la radiotéléphonie mobile. Actuellement, le projet se trouve en phase de conception du système, pour laquelle les applications requises seront définies prochainement. Les régions de Stockholm, de Budapest et de Wolfgangsee, qui sont des zones de test du projet, représentent chacune différents groupes ciblés de voyageurs.

BE

Paris veut devenir la capitale la plus connectée au monde
Vendredi, 07/07/2006 - 00:00

Paris compte étendre la couverture de la ville en points d'accès à l'internet sans fil d'ici à la fin 2007 pour en faire la capitale la plus connectée au monde, a déclaré son maire Bertrand Delanoë. La ville prévoit d'installer l'année prochaine 400 points WiFi gratuits donnant un accès au Web à haut débit. Les fournisseurs d'accès à l'Internet seront également autorisés à installer des antennes sur des sites publics stratégiques. "Nous agirons vite et fort (...) pour créer les conditions les plus favorables à Paris", a déclaré le maire lors d'une conférence de presse de présentation du projet.

Il est aussi envisagé de réduire de 25 % les redevances pour les opérateurs installant des fibres optiques afin que 80 % des immeubles de la ville disposent de connexions optiques à "très haut débit" d'ici à 2010. "Soixante pour cent des foyers parisiens disposent déjà d'une connexion à haut débit", a dit Bertrand Delanoë, ajoutant que le but était non seulement de maintenir ce chiffre mais aussi de le faire progresser. En outre, la redevance sur les 400 derniers mètres de raccordement sera abaissée de plus de 90 %. Les points d'accès sans fil gratuits, prévus pour fleurir dans les jardins et les squares parisiens, les bibliothèques et les édifices publics, seront installés par des entreprises privées après un appel d'offre prévu en mars 2007.

Paris

RFID : une technologie plébiscitée par le secteur de la santé pour le diagnostic, le dépistage et la lutte contre la contrefaçon
Vendredi, 07/07/2006 - 00:00

Alors que la Commission européenne a lancé sur un site Web dédié une consultation publique en ligne pour demander aux citoyens européen comment "garantir que l'utilisation accrue des étiquettes d'identification par radiofréquence (RFID) ne porte pas atteinte à la vie privée et aux libertés individuelles," la technologie RFID ne cesse de s'étendre et de s'affirmer comme un outil irremplaçable de traçabilité. Les technologies d'identification par ondes radio trouvent également de nombreux champs d'application dans le domaine de la santé.

Les technologies de marquage et de traçabilité ont connu une évolution considérable ces dernières années. Considérée comme le « code barre du futur », la technologie RFID (Radio Frequency Identification) est en passe de devenir un standard. Le marché de la RFID est en pleine expansion : estimé à une valeur de 2,7 milliards de dollars en 2006, ce marché devrait atteindre 26,2 milliards de dollars en 2016 selon la société d'étude britannique IDTechEx.

Développée dès la Seconde Guerre mondiale par la Royal Air Force pour l'identification de ses appareils, la technologie RFID a véritablement commencé à être explorée et testée pour des usages civils à la fin des années 1990. Utilisant les ondes radio pour permettre l'identification d'un individu ou d'un objet, elle désigne un ensemble constitué d'une puce - on parle d'étiquette, permettant de stocker des chiffres ou du texte, et d'une antenne assurant l'émission et la réception d'informations.

« Par rapport au code barre, nécessitant le décryptage d'un signal optique pour ne traduire que quelques caractères alphanumériques, la RFID présente de grandes innovations techniques qui en font l'outil de traçabilité idéal pour de nombreux industriels. D'abord, les puces RFID disposent d'une grande capacité de stockage d'informations et d'une excellente résistance aux agressions extérieures. Elles apportent aussi une grande souplesse d'utilisation, puisqu'un lecteur peut lire simultanément plusieurs étiquettes RFID et parce que la lecture peut se faire à distance sans nécessité de disposer d'un espace dégagé », explique Sébastien Guinard, Consultant pour le bureau lyonnais d'ALCIMED.

« Surtout, leur antenne permet non seulement l'émission des informations associées à l'étiquette, mais aussi la réception de données et leur intégration dans la mémoire de la puce. C'est ce caractère évolutif de la technologie RFID, permettant par exemple d'ajouter sur la puce que le produit vient de subir telle action à telle heure, qui marque une véritable rupture avec les systèmes d'étiquetages classiques ».

Après avoir prouvé son efficacité dans les secteurs de la distribution, du transport et de l'élevage, la technologie RFID est étudiée par d'autres secteurs qui lui envisagent de nouvelles applications. C'est le cas notamment du secteur de la santé. ALCIMED revient sur les deux champs d'applications qui ont déjà été investis par cette technologie d'identification par ondes radio : Les secteurs du référencement et du traitement d'échantillons biologiques ont été les tous premiers secteurs de la santé à adopter la puce RFID. Ce n'est pas une surprise au vu des enjeux sécuritaires colossaux qui y sont associés. Par exemple, la Croix-Rouge allemande qui est chargée de la collecte des dons de sang, opère près de 12 millions de prélèvements par an et, même si les taux d'erreurs sont faibles, les risques qui en découlent sont importants. L'intégration de la technologie RFID aux poches de collecte pourrait donc engendrer une meilleure traçabilité des échantillons et diminuer les risques associés aux très nombreux actes de prélèvements et de transfusions.

Précurseur en France, l'hôpital marseillais Paoli Calmette a équipé de tags RFID l'un de ses départements qui traite fréquemment des échantillons biologiques. Ce n'est qu'une première étape et la technologie RFID devrait s'étendre par la suite à d'autres services et hôpitaux. ThermoElectron, DadeBehring et Abbott, leaders de l'industrie du diagnostic viennent de lancer les premières chaînes de diagnostic intégrant la technologie RFID. Dans ce segment, les puces RFID permettent de tracer les flux d'échantillons (sang, urine, salive...) pour éviter les erreurs de diagnostic dans les hôpitaux et les laboratoires. Elles permettent en outre de répondre aux deux contraintes les plus fortes du secteur : garantir la qualité du diagnostic et la maîtrise des coûts en optimisant le traitement des flux d'échantillons lors des analyses.

Surtout aujourd'hui, la technologie RFID contribue à la lutte contre la contrefaçon de médicaments. En effet, la lutte contre la contrefaçon demeure un problème majeur pour les laboratoires pharmaceutiques, qui enregistrent de fortes pertes dues à la production et à la distribution de copies de médicaments fabriqués en Inde ou en Chine. En Afrique du Sud par exemple, près de la moitié des médicaments consommés sont contrefaits. Pour pallier ce problème, quelques grands laboratoires ont recours à la technologie RFID et s'en servent pour marquer les palettes de médicaments d'étiquettes « anti-contrefaçon » afin d'en garantir l'origine.

UE

Gazettelabo

France Télécom ouvre le LiveBox Labs, laboratoire à idées
Vendredi, 07/07/2006 - 00:00

France Télécom ouvre son Liveboxlab une « pépinière d'innovations » dédiée à la Livebox et l'ensemble de ses partenaires. Le service en ligne veut être une plaque tournante créée pour favoriser l'ouverture de la Livebox à des tiers : « Le Livebox Lab accueille tous les projets pouvant contribuer au développement d'un « écosystème » Livebox ouvert, en ligne avec la stratégie de convergence de France Télécom » Parmi les premiers projets, la LiveRadio. Développé par Baracoda, c'est un radio-réveil IP qui, via la Livebox, permettra d'écouter les radios Internet du monde entier et de transmettre des infos pratiques.

Ce laboratoire à idées autour de l'univers Livebox va profiter des moyens de l'entreprise : des projets y seront évalués, et testés, avec la mise à disposition de données techniques et de moyens humains de France Télécom. Les participants profiteront de l'ouverture des API officielles (Application Program Interface) pour mener à bien leurs projets.

Les projets appelés à entrer dans le laboratoire de France Télécom connaîtront alors un processus d'étude de 4 à 5 mois. Ils seront rassemblés dans le cadre du programme NExT (Nouvelle Expérience des Télécommunications) et pourront être industrialisés par France télécom.

LBL

^ Haut
Avenir
Nanotechnologies et Robotique
Un nanocapteur ultrasensible
Vendredi, 07/07/2006 - 00:00

Des chercheurs de l'Université d'Osaka, associés à l'AIST (National Institute of Advanced Industrial Science and Technology), ont développé à partir de nanotubes de carbones, un capteur à très haute sensibilité qui pourra être utilisé lors d'analyses médicales. Comme dans d'autres capteurs dits "biologiques" ("biosensor" en anglais), lorsque la molécule cible se fixe sur un récepteur du capteur, cela induit un changement dans le courant qui passe à travers le récepteur. C'est ce changement qui va être détecté et analysé comme une "touche".

Alors que les capteurs traditionnels font appel à des transistors en silicium pour amplifier le signal reçu, le transistor de ce nouveau nano capteur est composé d'un simple nanotube de carbone placé entre deux électrodes. Les transistors faits à partir de nanotubes peuvent amplifier un signal de manière plus importante que les transistors "classiques", mais avec souvent une instabilité du signal fourni. En modifiant le processus de fabrication, le groupe de l'Université d'Osaka a permis de réduire l'instabilité à un millième de sa valeur initiale.

D'après les chercheurs, ce procédé permettrait de multiplier la sensibilité du capteur par un facteur 100 à 1000, ce qui permettrait de distinguer des protéines habituellement présentes en très faible quantité, comme le marqueur PSA (Prostate-Specific Antigen), présent en quantité de l'ordre de quelques nanogrammes par millilitre de sang, et qui augmente en cas d'hyperplasie bénigne de la prostate ou de cancer de la prostate. Sous réserve d'obtenir une grande quantité de nanotubes de carbone de taille identique, il serait alors possible de fabriquer une biopuce contenant près de 10 000 nanocapteurs sur 1 millimètre carré.

BE

Un nanomoteur solaire
Vendredi, 07/07/2006 - 00:00

Des chimistes de l'Université de Bologne, en collaboration avec des chercheurs de l'Université de Californie, ont mis au point Sunny, un moteur propre de taille nanométrique qui fonctionne avec la lumière du soleil. Ce système, qui transforme l'énergie solaire en énergie mécanique, est composé de deux molécules, l'une en forme d'anneau, qui glisse le long d'un axe de six nanomètres formé par la seconde molécule. Quand un photon frappe l'anneau, celui-ci change de forme et se déplace le long de l'axe en transférant un électron.

Le déplacement de ce « piston moléculaire » est inversé grâce à l'énergie apportée par un autre photon. Le cycle de ce moteur est effectué en moins d'un millième de seconde, soit l'équivalent de 60 000 tr/min pour un moteur à combustion. Pour exploiter la puissance mécanique engendrée par ce dispositif à l'échelle macroscopique, les scientifiques cherchent à synchroniser le fonctionnement de millions de tels nanomoteurs. Une autre application de ce système est de construire la mémoire d'un « ordinateur chimique », la conductibilité de la molécule en forme d'anneau se trouvant modifiée par les photons incidants.

ADIT - Technologies Internationales

^ Haut
Matière
Matière et Energie
La France veut rattraper son retard en énergie solaire
Vendredi, 07/07/2006 - 00:00

L'Institut National de l'Energie Solaire (Ines) a officiellement vu le jour le 3 juillet 2006, afin, dit le gouvernement, de permettre à la France de rattraper son retard en matière d'énergie solaire. "C'est un moment fondateur, un moment d'une très grande importance, c'est l'aboutissement de travaux considérables", a déclaré le ministre délégué à l'Enseignement supérieur et à la Recherche, François Coulard, sur le site de 3.200 m2 de l'Ines, dans le parc industriel de Savoie-Technolac au Bourget-du-Lac. "Ce centre de recherche pourra se comparer avec les meilleurs du genre dans le monde", a-t-il assuré.

Le ministre a confirmé l'intention du gouvernement de promouvoir l'énergie solaire. Il a reconnu qu'en la matière la France avait des handicaps, notamment "le retard incontestable pris par rapport à d'autres pays comme le Japon ou l'Allemagne". François Goulard a appelé de ses voeux un rattrapage rapide de ce retard. "Pour réussir, il faut de la part des pouvoirs publics la conjonction de trois efforts : une recherche puissante, l'organisation de cette recherche, en l'articulant à l'industrie, et la création d'un marché", a-t-il dit. L'Ines sera l'organisme de référence pour l'énergie solaire, et devrait adopter d'ici trois ans un statut d'établissement public pour devenir un pôle de recherche et d'enseignement supérieur. L'institut accueille actuellement une centaine de chercheurs et devrait rapidement passer à 250 chercheurs, formateurs et industriels.

L'objectif en France est de produire, à l'horizon 2010, 21 % de l'énergie à partir d'énergies renouvelables. Des mesures incitatives ont été mises en place comme des crédits d'impôts de 50 % et la hausse du tarif de rachat de l'énergie photovoltaïque. En Allemagne, aux USA et au Japon, pays en pointe dans le domaine, l'industrie solaire connaît un taux de croissance annuel de plus de 35%.

INES

Contact

Les grands opérateurs évaluent le potentiel des énergies renouvelables
Vendredi, 07/07/2006 - 00:00

Les grands opérateurs dans le domaine de l'énergie viennent d'exposer leur vision du futur à l'occasion du colloque annuel du Syndicat des énergies renouvelables à Paris.

L'année 2005 a été marquée par une forte croissance des énergies renouvelables. Aujourd'hui, même si de nombreux choix politiques restent encore déterminants pour favoriser le développement harmonieux de chacune des filières, toutes les entreprises productrices ou distributrices d'énergie, et notamment des opérateurs tels que Total, EDF, GDF ou Suez, ont engagé des stratégies volontaristes pour élargir leur palette de sources d'approvisionnement. D'où l'occasion lors de cette table ronde, d'évaluer avec eux le potentiel de développement des diverses formes d'énergies renouvelables par rapport à l'engagement de la France à diviser par 4 ses émissions de gaz à effet de serre en 2050 !

Chez Total, une énergie s'apprécie selon trois critères : son coût compétitif à moyen terme, son potentiel à long terme, et son apport au marché, autrement dit l'avantage concurrentiel qu'elle représente. Mais une source d'énergie pourra fournir moins de 1 Giga de tonnes équivalent pétrole (Gtep) à cette échéance de 2050 et rendre des services régionaux locaux, a précisé Gilles Cochevelou, Directeur général énergies renouvelables, lors de son intervention. Simplement, elle ne jouera pas un rôle important à l'échelle de l'enjeu ! Parce qu'elles peuvent influencer la manière de développer certaines énergies non renouvelables, les technologies connexes doivent également être prises en compte. Par exemple, si la recherche de procédés de capture/stockage de CO2 aboutit, le charbon devient intéressant au moins en matière de chaleur. De même, le stockage de l'électricité sous forme de batteries va dans un sens favorable aux énergies renouvelables.

Chez EDF, on retient deux critères pour améliorer la compétitivité d'une filière : le coût de l'installation et le dispositif d'incitation public. Ainsi, le Groupe - qui consacre 25 % de son budget recherche aux ENR - planche sur la maintenance et l'optimisation du processus d'exploitation de ses installations pour baisser les coûts intrinsèques, entraînant in fine des aides et incitations plus faibles. Sachant qu'en parallèle, son positionnement en industriel lui permet de trouver un équilibre économique en fonction des politiques, pays par pays.

Au travers de cette grille d'analyse, l'énergie d'origine hydraulique - qui fournit l'essentiel de l'électricité renouvelable dans le monde à l'heure actuelle - s'affirme comme la ressource prépondérante. Elle a vocation à continuer à croître, a prédit Gilles Cochevelou. Mais à un rythme assez modéré car la plupart des sites possibles a été identifiée.

L'objectif étant d'arriver à parité avec l'énergie traditionnelle, l'éolien terrestre sur un site bien venté fait partie des énergies dont le seuil de compétitivité est le plus proche du coût de l'électricité produite par une turbine à gaz. Cette forme d'énergie devrait atteindre facilement 1 Gtep à échéance 2050. Avec l'éolien off-shore, nous estimions avoir un avantage concurrentiel du fait de notre métier traditionnel pétrolier, a poursuivi le Directeur général ENR de Total. Mais nous avons constaté que les coûts sensiblement plus élevés que ceux de l'éolien terrestre, ne sont pas compensés par une production plus élevée ! En outre, les tarifs actuellement mis en place par les pouvoirs publics s'avèrent trop justes pour permettre le développement satisfaisant de cette filière.

Selon EDF, l'hydrolien semble une ressource prometteuse car prédictive pour produire l'électricité, mais décalée en maturité d'au moins dix ans par rapport à l'éolien off-shore. Principe : les hydroliennes disposées sous l'eau, récupèrent le courant des marées. L'eau étant plus dense que l'air, leur rendement à taille de pales égales est beaucoup plus important que celui des éoliennes. En revanche, se posent d'autres problèmes liés à la corrosion et au milieu marin plus hostile en terme de maintenance compte tenu des courants.

Même s'il n'est pas certain d'obtenir 1 Gtep en 2050, le solaire thermique et photovoltaïque rallie tous les suffrages et les investissements, car le développement s'annonce exponentiel au-delà de cette échéance et donc, avec un passage de 1 à 2 ou 3 voire 4 Gtep plus facile en valeur relative ! La plupart des opérateurs ont d'ores et déjà fédéré différents laboratoires autour de leur programme de recherche, afin d'aboutir à une concrétisation plus rapide sur le plan industriel. Sur ces aspects R&D, une nouvelle génération de capteurs photovoltaïques à base de silicium à couches minces s'apprête à voir le jour. Tandis que chez EDF, on communique sur des panneaux utilisant un autre procédé à base de composés chimiques électro-déposés (cuivre, indium, sélénium) pour remplacer le silicium cristallin déjà très convoité par les producteurs de microprocesseurs.

Concernant la biomasse, la gazéification a été identifiée comme décisive dans le développement de sa valorisation énergétique. Toutefois, cette énergie issue de matières vivantes, végétales et animales, s'avère plus difficile à apprécier, parce qu'elle se heurte à la problématique alimentaire et à la nécessité de restituer une partie du carbone à l'éco-système ! Dès lors que la partie disponible pour l'énergie aura été déterminée, encore faudra-t-il répartir la production entre le biocarburant et la chaleur, et avoir résolu la problématique de gestion d'approvisionnement en eau nécessaire !

Les ressources géothermiques qui utilisent la chaleur de la terre, peuvent revêtir diverses formes selon la profondeur du captage. La géothermie à basse température dite de surface sert pour le chauffage et la climatisation. La géothermie à moyenne température (jusqu'à 2000 m de profondeur) permet d'extraire de la vapeur d'eau à une température suffisante pour produire de l'électricité à des tarifs très compétitifs. L'autre géothermie dite en roches chaudes sèches, consiste à faire circuler de l'eau entre deux puits profonds de 5000 m, et à la récupérer à une température d'environ 200°C. L'eau froide est injectée à travers les fissures naturelles de la roche et se réchauffe à son contact, avant d'être pompée à la surface par un puits de production. La vapeur ainsi produite est détendue dans une turbine couplée à un alternateur électrique. Mais la principale difficulté de ce procédé tient à la création d'un échangeur souterrain dans le massif granitique, et les opérateurs se montrent pour le moment un peu dubitatifs quant à l'économie d'ensemble du dispositif !

En conséquence, les intervenants à cette table ronde ont reconnu qu'il était prématuré d'écarter telle ou telle forme d'énergie pour l'avenir. Et également présomptueux de prétendre que telle ou telle autre satisfera tous les besoins. Il est clair qu'aujourd'hui, c'est la recherche d'un mix énergétique qui est privilégiée, avec une maîtrise de l'énergie comme base de toute politique engagée !

Actu Environnement

Grande-Bretagne : feu vert pour la première centrale électrique utilisant l'énergie des vagues
Vendredi, 07/07/2006 - 00:00

Le gouvernement de Grande-Bretagne vient de conclure à la faisabilité de son projet de plate-forme immergée houlomotrice d'une puissance de 30 MW. La construction de cette centrale qui va produire de l'électricité à partir de l'énergie des vagues va donc bientôt démarrer à 16 Km au large des côtes de Hayle, en Cornouailles du Nord.

Les études qui viennent d'être rendues publiques mettent en avant l'excellente rentabilité directe de ce projet ainsi que son impact économique local (25 millions d'euros par an selon les prévisions). Cette centrale, qui sera mise en service en 2007, devrait produire assez d'électricité pour alimenter 14.000 foyers et créer environ 700 emplois d'ici 2020. Ces études commandées par l'Agence pour les énergies renouvelables et l'Agence pour le développement du Sud Ouest de l'Angleterre soulignent par ailleurs le faible impact de cette centrale sur l'environnement et la vie sous-marine. La Grande-Bretagne souhaite produire 10 % de son électricité à partir des énergies renouvelables en 2010.

Le Ministre de l'Energie, Monsieur Mike O'Brien, a souligné que l'utilisation de l'énergie des vagues représentait un énorme potentiel pour la Grande-Bretagne et que ce projet de "Wave Hub" constituait un remarquable exemple de partenariat entre la recherche publique et l'industrie.

REA

BBC

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le Prix Nobel de chimie Paul Crutzen suggère de "manipuler le climat"
Vendredi, 07/07/2006 - 00:00

Pour lutter contre le réchauffement climatique, le spécialiste de la couche d'ozone Paul Crutzen, prix Nobel de chimie, propose de larguer un million de tonnes de soufre dans l'atmosphère, dans un entretien publié dans le numéro de juillet-août de la revue "La Recherche". Pour le chercheur néerlandais, aujourd'hui âgé de 72 ans, il s'agirait là d'une "solution d'urgence, au cas où le réchauffement climatique se révélerait plus brutal que prévu". Il faudrait alors déployer des particules de sulfates dans l'atmosphère pour que celles-ci, en réfléchissant les rayons du Soleil, entraînent en quelques années une réduction de la température moyenne du globe.

Concrètement, précise-t-il, "il s'agit de larguer au moins un million de tonnes de soufre ou de sulfure d'hydrogène dans la stratosphère, la couche de l'atmosphère située entre 10 et 50 kilomètres d'altitude, à l'aide de ballons. Une fois à ce niveau, ces composés sont brûlés de manière à obtenir du dioxyde de soufre, lequel est ensuite converti en particules de sulfate de moins d'un micromètre (un millionième de mètre) de diamètre". "Cette idée, reconnaît le Pr Crutzen, n'est pas nouvelle. Elle a été discutée il y a une trentaine d'années par le scientifique russe Mikhaïl Budyko. Mais il me semble important de l'étudier désormais car tout ne peut être prévu en matière de climat. Il est possible que nous ayons sous-estimé le réchauffement climatique à venir. "Nous devrions avoir une discussion sans hystérie sur cette question d'influencer artificiellement le climat", ajoute le professeur honoraire à l'université de Mayence et à l'institut américain d'océanologie Scripps, à San Diego.

LR

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
De l'ADN immortel dans les cellules souches musculaires
Vendredi, 07/07/2006 - 00:00

Des chercheurs de l'Institut Pasteur et du CNRS viennent de visualiser pour la première fois le mécanisme qu'utilisent les cellules souches musculaires adultes pour protéger leur patrimoine génétique. On sait que c'est au moment où l'ADN est recopié que des erreurs peuvent intervenir et entraîner des mutations, dont l'accumulation peut au cours du temps provoquer des dérégulations et des cancers. Dans un travail publié dans le journal Nature Cell Biology, les chercheurs ont montré par quel mécanisme les cellules souches n'emportent avec elles que l'ADN qui n'est pas recopié, ainsi préservées des erreurs qui pourraient, par exemple, les entraîner vers des processus de cancérisation graves. Ce mécanisme qui conserve un ADN "immortel" aux cellules implique des régulations cellulaires et moléculaires complexes à des niveaux non encore explorés.

De tels mécanismes de sauvegarde du patrimoine génétique des cellules souches ont des implications multiples. La compréhension de ces phénomènes est importante pour arriver à maîtriser un jour la culture et le maintien de cellules souches destinées à être utilisées dans les voies de thérapies cellulaires. D'autre part, il est établi que certains cancers parmi les plus virulents sont occasionnés par des cellules qui ont des caractéristiques de cellules souches et qui, échappant au contrôle de multiplication cellulaire, prolifèrent anarchiquement. Les clefs de ce contrôle de prolifération sont peut-être situées au niveau de ce processus de sauvegarde de l'ADN immortel dont un des buts est justement de préserver intact tout au long de la vie le patrimoine génétique qui contient l'information qu'une cellule reste une cellule souche.

CNRS

Aider les plantes qui en sont incapables à fixer l'azote
Vendredi, 07/07/2006 - 00:00

L'azote est essentiel pour les végétaux qui, dans la majorité des cas, le récupèrent par leurs racines sous forme de nitrates. Ce besoin a conduit à un usage intensif d'engrais azotés qui ont l'inconvénient de polluer l'environnement. D'où l'intérêt des scientifiques pour les plantes qui ont l'avantage de pouvoir fixer l'azote et dont la culture enrichit les sols en azote, comme les légumineuses. En découvrant comment provoquer la formation des nodules qui servent à fixer l'azote, deux équipes de chercheurs espèrent pouvoir étendre cette capacité à d'autres plantes. Les légumineuses, comme les lentilles ou les pois, vivent en symbiose avec des bactéries fixatrices d'azote, les rhizobiums, qui s'installent dans des nodules sur la racine des plantes.

Les équipes de Giles Oldroyd (John Innes Centre,GB) et de Jens Stougaard (University of Aarhus, Danemark), ont identifié un gène qui joue un rôle clef dans la production des nodules chez les légumineuses. Normalement, la formation du nodule est liée à la reconnaissance de la bactérie par la plante. Utilisant deux approches différentes, les chercheurs ont réussi à provoquer la croissance des nodules en l'absence de la bactérie. Ils publient leurs travaux dans la revue Nature. L'objectif est désormais de parvenir à transférer ce mécanisme chez des plantes qui sont incapables de fixer l'azote, comme le maïs ou d'autres céréales. A terme, l'enjeu écologique est considérable car l'extension de ce mécanisme de fixation de l'azote permettrait de réduire sensiblement les quantités d'engrais azotés utilisées par l'agriculture.

Nature

Du jus de grenade contre le cancer de la prostate
Vendredi, 07/07/2006 - 00:00

On savait déjà que le jus de grenade pouvait avoir un effet protecteur chez la souris, contre le cancer de la prostate. Mais une étude de l'Université de Californie, publiée dans le Journal américain de la Recherche Clinique contre le Cancer vient de montrer que la consommation régulière de jus de grenade pouvait également protéger l'homme contre ce cancer.

L'équipe californienne a fait consommer régulièrement du jus de grenade à 50 hommes qui avaient été traités par chirurgie ou radiothérapie contre un cancer de la prostate mais qui étaient en phase de récidive. La présence de cellules cancéreuses chez ces patients était surveillée en mesurant leur niveau de PSA (antigène prostatique spécifique). Les chercheurs ont mesuré combien de temps a été nécessaire pour que ce niveau de PSA double chez les patients. Ce temps de doublement moyen est d'environ 15 mois, mais, pour les patients qui buvaient régulièrement du jus de grenade, ce temps a été de 54 mois en moyenne.

Quelques patients de cette étude continuaient même à présenter des niveaux très faibles de PSA plus de trois ans après leur traitement initial et alors qu'ils ne bénéficiaient plus d'aucune thérapie, hormis la consommation journalière de jus de grenade. Le Professeur Allan Pantuck, responsable de cette étude, souligne qu'il a été surpris par une telle amélioration durable du niveau de PSA. « Chez des hommes âgés de plus de 65 ans qui ont été traités pour le cancer de prostate, la consommation régulière de jus de grenade pourrait améliorer sensiblement leur espérance de vie en diminuant les risques de récidive", souligne le chercheur.

Le jus de grenade est réputé pour ses effets anti-inflammatoires et sa richesse en antioxydants qui protégent l'organisme contre les dommages provoqués par les radicaux libres. Il contient également les isoflavones, substances dont on sait qu'elles jouent un rôle dans l'apostose (mort programmée) des cellules cancéreuses. Selon le Professeur Pantuck « Il y a beaucoup de substances complexes dans le jus de grenade et c'est probablement l'association en synergie de tous ces composants qui produit cet effet protecteur remarquable".

Le Professeur Laura-Jane Armstrong souligne pour sa part que « Si les résultats de cette étude peuvent être confirmés, ils pourraient avoir des implications importantes pour des patients atteints de cancer de la prostate, notamment en retardant le recours à des traitements plus agressifs qui peuvent avoir des effets secondaires sérieux. »

Article @RTFlash

BBC

WebMD

Greffe du visage : un exploit salué par la communauté scientifique internationale
Vendredi, 07/07/2006 - 00:00

L'état de la Française Isabelle Dinoire, devenue il y a sept mois la première personne au monde à subir une greffe partielle du visage, continue de s'améliorer, selon ses médecins, qui pour la première fois détaillent cette opération dans l'édition en ligne de la revue scientifique britannique "The Lancet". Isabelle Dinoire, 38 ans, avait été gravement défigurée en mai 2005 par les morsures de son chien Labrador.

Opérée le 27 novembre dernier au CHU d'Amiens par l'équipe du Pr Bernard Devauchelle, spécialiste de chirurgie maxillo-faciale, en coopération avec celle du Pr Jean-Michel Dubernard, chef du service de chirurgie à l'hôpital Edouard-Herriot de Lyon, la patiente a reçu les lèvres, le nez et le menton d'une femme en état de mort cérébrale. Les experts ont relevé que les excellents résultats de cette intervention de 15 heures avaient surpris la patiente elle-même, mais aussi l'ensemble de la communauté médicale.

"Il est difficile d'imaginer qu'un même succès (...) aurait été possible avec les techniques existantes" et sans transplantation, souligne le Dr Patrick Warnke, chirurgien du visage à l'université de Kiel (Allemagne), dans un commentaire publié sur le site de "The Lancet".

Depuis la première transplantation de rein avec donneur vivant en 1952 et la première greffe de coeur en 1967, la transplantation a soulevé des questions éthiques plus souvent à propos du donneur que du receveur, remarquent pour leur part Edgardo Carosella (recherche en hémato-immunologie, hôpital Saint-Louis-CEA, Paris) et Thomas Pradeu (histoire et philosophie des sciences, université Paris Sorbonne).

L'avènement de greffes d'organes non vitaux et visibles, en particulier de la main et de la face, a introduit un "changement majeur" dans ces débats, relèvent-ils. Selon eux, "une telle greffe ne peut être considérée comme un succès que si elle assure non seulement la fonction de l'organe, mais aussi la reconstruction de l'identité du receveur".

Dans cette même édition, le Dr Devauchelle explique comment lui et son équipe ont utilisé des vers à soie pour drainer les fluides pendant l'opération. Avant le transfert fatidique, le visage de la donneuse était maintenue dans des éponges gelées.

En cours d'intervention, les praticiens ont découvert que le visage de la donneuse était dépourvu d'un nerf crucial qui devait permettre d'animer la partie inférieure du visage d'Isabelle Dinoire. Malgré cette carence, l'opérée était en mesure de manger et de mâcher une semaine seulement après l'intervention, et son élocution s'est rapidement améliorée. Quatre mois plus tard, la patiente retrouvait des sensations jusqu'à l'extrémité de l'une de ses lèvres. Il lui reste encore impossible de bouger sa lèvre inférieure ou de sourire vraiment, et les médecins avertissent qu'elle ne sera jamais à l'abri d'un possible rejet.

Isabelle Dinoire a déjà connu ce désagrément lorsque ses nouveaux tissus ont viré au rouge betterave, transformant son visage en un masque terrifiant. L'injection de doses importantes d'immuno-suppressants ont permis de contrôler la situation, mais la première greffée du visage devra prendre un traitement anti-rejet le restant de ses jours pour ne pas perdre ses nouveaux traits.

Les chirurgiens ont également transplanté une portion de la peau de l'avant-bras gauche de la donneuse sous l'un des seins d'Isabelle Dinoire. Ils peuvent ainsi pratiquer régulièrement des biopsies sur la patiente pour traquer d'éventuels signes de rejet sans avoir à tailler dans son visage reconstitué.

L'opération lui a rendu non seulement son apparence mais aussi sa confiance en elle, ce qui lui donne la force mentale de réapparaître en public. Le 6 février, pour la première fois depuis sa greffe du triangle nez-lèvres-menton, elle avait donné une conférence de presse à Amiens, expliquant comment l'intervention avait ouvert une "porte sur l'avenir", pour elle comme pour d'autres blessés. Avant l'intervention, trois psychiatres et un expert indépendant s'étaient accordés pour la trouver psychologiquement apte à supporter cette procédure extrêmement délicate, rappelle le Dr Devauchelle dans "The Lancet". Après l'opération, elle a dû subir des évaluations psychologiques quotidiennes durant le premier mois, la fréquence étant depuis réduite à deux examens par semaine.

Depuis cette première mondiale, la Clinique de Cleveland (Ohio) a fait état d'un projet de greffe totale du visage. Dans le même temps, des médecins chinois ont pratiqué une autre greffe partielle, tandis qu'une équipe britannique étudie actuellement une demande en ce sens. Le Dr Devauchelle et ses collègues ont annoncé qu'ils prévoyaient de procéder à cinq autres greffes de visage. Aucune n'est toutefois imminente.

BBC

Lancet

Le scyllo-cyclohexanehexol pourrait devenir le nouveau traitement de la maladie d'Alzheimer
Vendredi, 07/07/2006 - 00:00

Les chercheurs de l'Université de Toronto viennent de faire une nouvelle avancée dans la recherche d'un traitement contre la maladie d'Alzheimer. L'étude du Pr Joanne McLaurin au centre de recherche sur les maladies neurodégénératives, a permis d'identifier un composé susceptible de bloquer le peptide amyloïde responsable de cette maladie. Son accumulation serait directement liée au déficit cognitif qui s'installe progressivement chez les malades. Les chercheurs de l'Université de Toronto ont administré un traitement à base de scyllo-cyclohexanehexol dans un modèle murin de la maladie d'Alzheimer (souris TgCRND8). Le scyllo-cyclohexanehexol a été administré à des souris âgées de 6 semaines, engendrant en 6 mois, par rapport au groupe contrôle, une réduction significative de 20% à 45% des taux des acides aminés du peptide amyloïde ainsi que de la taille des plaques s'accumulant, avec en parallèle une amélioration comportementale significative et une baisse de la mortalité. Les résultats de l'étude publiés dans la revue Nature Medicine, suggèrent que ce composé pourrait être testé en phase II dès 2007.

BE

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Google s'attaque au paiement en ligne
Vendredi, 07/07/2006 - 00:00

Google a enfin lancé le 29 juin son propre système de paiement électronique. Baptisé Checkout, il s'adresse pour l'instant uniquement aux sites de commerce en ligne professionnels situés aux Etats-Unis. Mais contrairement à Paypal, leader du paiement en ligne, les internautes ne pourront pas l'utiliser pour régler des achats entre eux, comme c'est aujourd'hui le cas sur eBay ou d'autres sites de commerce entre particuliers.

Pour convaincre les commerçants en ligne d'utiliser Checkout, Google a deux arguments irrésistibles : un coût de transaction imbattable et une grande facilité d'utilisation. Ainsi, d'après le New York Times, Google facturera 20 cents plus 2 % du prix de la transaction, quand les grands établissements de crédit, type Mastercard ou Visa prélèvent 30 cents et 1,95 % du prix. Ce qui serait aussi un peu moins cher que Paypal. Google espèrerait en fait se rattraper sur le volume de transactions.

Le moteur pourrait même être plus généreux avec ses clients acheteurs de liens sponsorisés : pour chaque dollar investi en publicité, il renoncerait à une partie de sa commission. L'objectif du package étant évidemment aussi d'attirer plus de publicité. Google vante aussi la rapidité : "Le but est qu'il s'écoule moins d'une seconde entre le moment où le client décide d'acheter et celui où la transaction est acceptée" a précisé Eric Schmidt, le directeur général de Google. CheckOut autorisera les achats avec les cartes Visa, Mastercard, American Express et la carte bancaire du groupe Morgan Stanley.

Jouant la prudence, Google a donc choisi pour l'instant de ne pas se placer en concurrent direct de Paypal. Avec Checkout, le moteur de recherche diversifiera légèrement ses revenus, basés aujourd'hui à 97 % sur la publicité. Paypal, pour sa part, génère plus d'un cinquième des bénéfices de sa maison mère Ebay. Selon le Wall Street Journal, qui cite des chiffres de Celent, en 2006, le paiement par carte devrait représenter 55,8 % des transactions, les débits différés 30,1% et Paypal 11,3 %.

Mais Google voit plus loin et, avec Checkout, le géant de l'économie numérique va pouvoir se doter d'une base de données d'une valeur inestimable sur les modes de consommation des internautes. Pour utiliser Checkout, le client intéressé devra en effet créer son compte personnel et à y déposer des informations privées. Cette mine de renseignements vaudra évidemment de l'or pour les annonceurs et permettra à Google de proposer des publicités parfaitement ciblées qui auront un impact commercial redoutable. Reste à attendre la riposte de Paypal et Ebay qui ne devrait pas tarder.

NYT

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top