RTFlash

RTFLASH Recherche & Technologie
NUMERO 335
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Mai 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Gros succès attendu pour la télévision sur mobile
Le haut-débit dépasse le bas-débit
La Bretagne pionnier de l'IPv6, le futur protocole d'Internet
Huit centres de recherche créent la plus grosse grille de calcul scientifique du monde
Des chercheurs australiens tiendraient la solution anti-hackeurs
Quelles solutions pour les réseaux domestiques ?
Matière
La fusion nucléaire tient dans la poche
Des diodes électroluminescentes très économes
Montmélian, bourg pionnier et missionnaire de l'énergie solaire
Espace
La première photo d'une planète extra-solaire
Cassini découvre des hydrocarbones complexes dans l'atmosphère de Titan
Terre
L'effet de serre atmosphérique confirmé par une étude de la Nasa
Vivant
Cancer du sein : mise au point d'une sonde pour localiser les ganglions suspects
La salive pour dépister des cancers ?
L'obésité serait liée à un dérèglement de l'horloge biologique
Un gène qui gêne le sommeil
L'obésité en milieu de vie accroît les risques de démence sénile
Homme
L'UE dit oui à une "bibliothèque numérique européenne"
Le marché des contenus en ligne devrait doubler en 2005 en Europe
Edito
Mens sana in copore sano !



Une étude passionnante, publiée récemment dans le Journal américain d'épidémiologie, montre de manière éclairante que les personnes âgées qui restent actives dans de multiples domaines, marche, danse, jardinage, gymnastique, jeux de société, sont beaucoup moins touchées par les démences que les personnes sédentaires. Fait encore plus remarquable, l'étude souligne que cet effet protecteur n'est pas lié à l'intensité physique de l'effort accompli mais à la diversité et à la richesse sociales et cognitives des activités pratiquées. "Ce n'est pas nécessairement l'énergie que vous déployez, mais plutôt la diversité qui compte", explique le Dr Constantine Lyketsos, épidémiologiste de l'Université Johns Hopkins et auteur principal de l'étude.

Les chercheurs ont suivi 3.375 hommes et femmes âgés de plus de 65 ans de 1992 à 2000, étudiant le type d'activités qu'ils pratiquaient. Ceux qui en pratiquent le plus sont ceux qui souffrent le moins de démences. Les volontaires étaient interrogés sur la fréquence et la durée des 15 activités les plus fréquemment pratiquées par les seniors : la marche, la natation, le jogging, le bowling, le golf, le vélo, la danse, l'aérobic.... Mais aussi les activités ménagères et le jardinage.

Selon les conclusions de l'étude, même l'activité intellectuelle ou une activité aussi calme que jouer aux cartes est bénéfique, ajoute Lyketsos. "Exercer son corps, c'est aussi exercer son cerveau, puisque le cerveau est central dans la coordination des mouvements". La raison de l'influence de ces activités multiples sur la prévention d'une démence n'est pas expliquée. Selon Lyketsos, la diversité des activités activerait plus de régions cérébrales.

Selon les chercheurs de Johns Hopkins, l'activité agirait dans la prévention de toutes les démences, à l'exception de celles liées à des prédispositions génétiques. L'aspect le plus impressionnant de cette étude réside en effet dans le fait que les chercheurs ont éliminé l'influence des maladies cardio-vasculaires, du diabète et d'autres pathologies sur la survenue d'une démence. Sur les quelque 3.400 personnes de l'étude, 480 ont développé une démence. Celles qui ne pratiquaient qu'une activité ou aucune représentaient 130 de ces cas. Celles qui en pratiquaient plus, 84 des cas seulement.

Une autre étude américaine vient par ailleurs de confirmer que l'exercice physique régulier chez la souris peut prévenir l'apparition de la maladie d'Alzheimer. Cette étude menée par les docteurs Paul A. Adlard, et Carl W. Cotman, de l'Université de la Californie, a tenté d'évaluer les relations de causalité entre l'apparition de signes cliniques annonciateurs de la maladie d'Alzheimer et la pratique d'un exercice physique régulier. (Voir article dans la revue de presse Science Daily).

Pour parvenir à cet objectif, les chercheurs ont eu l'idée d'utiliser des souris transgéniques qui présentent la particularité de commencer à développer des plaques amyloïdes à environ 3 mois. Ces souris ont été divisées en deux groupes : le premier groupe était maintenu dans une situation sédentaire alors que l'autre groupe était placé dans un environnement l'obligeant à faire des exercices physiques réguliers sur des roues tournantes.

Après cinq mois, les chercheurs ont comparé les aptitudes cognitives des deux groupes en les soumettant à de tests consistant à mémoriser le trajet permettant de sortir d'un labyrinthe. Le verdict a été sans appel : les animaux qui ont été soumis au régime d'exercice physique régulier ont mémorisé le trajet du labyrinthe deux fois plus rapidement que les souris sédentaires (2 jours au lieu de 4).

De manière corrélée, les chercheurs ont ensuite constaté que le cerveau des souris « sportives » contenait deux fois moins de plaques de beta-amyloïdes, un peptide dont l'accumulation anormale dans le cerveau signale la présence de la maladie d'Alzheimer. Selon ces recherches, l'effet protecteur apparaîtrait après un mois d'exercice continu.

Selon le docteur Stephen Snyder, directeur du programme sur Alzheimer à l'Institut National du Vieillissement, « On savait déjà que dans le cerveau humain qui vieillit les dépôts de beta-amyloïdes augmentent. Mais cette étude nous indique qu'il est possible de réduire sensiblement le développement de ces dépôts par un simple exercice physique quotidien, en tout cas chez la souris. »

Enfin, une dernière étude récente menée par le Docteur Lazarov a montré que le niveau de beta-amyloïdes a diminué dans le cerveaux d'un autre type de souris transgéniques placées, elles-aussi, dans un environnement enrichi, composé notamment de roues, de tunnels colorés et de jouets.

Ces études récentes confirment donc pleinement les résultats de la grande étude canadienne de 2001 qui a porté sur 4615 sujets de plus de 65 ans qui ont été suivis pendant 5 ans. Cette étude avait en effet montré qu'un haut niveau d'activité physique diminuait de moitié le risque de maladie d'Alzheimer.

Bien qu'on ne comprenne pas encore tous les mécanismes neurobiologiques par lesquels se produisent ces effets protecteurs, toutes ces études sont passionnantes parce qu'elles montrent clairement que la pratique quotidienne d'exercices physiques et mentaux diversifiés peut prévenir de manière puissante, indépendamment des autres facteurs de risque, le déclin cognitif et l'apparition de la maladie d'Alzheimer et sans doute aussi d'autres maladies neurodégénératives.

Ces recherches montrent également à quel point notre corps et notre esprit sont indissociablement liés et constituent une entité globale dont nous commençons seulement à entrevoir l'extraordinaire complexité et les fantastiques capacités de régénération.

Confrontée au vieillissement inéluctable de notre population, notre collectivité, à la lumière de ces recherches remarquables, doit tout mettre en oeuvre pour permettre à nos aînés de rester physiquement et intellectuellement actifs jusqu'à la fin de leur vie. Dans cette perspective, Il est essentiel que nos seniors puissent être maintenus dans un environnement social, affectif, culturel et cognitif le plus riche possible.

Les anciens, de manière empirique, avaient bien compris, il y a plus de 2000 ans, ce lien profond et cette unité fondamentale entre le corps et l'esprit. Alternant les exercices physiques et les activités intellectuelles, associant les plaisirs de la conversation à ceux de l'art, les Romains pratiquaient dans les thermes un art de vivre que l'écrivain Juvénal a parfaitement résumé dans son célèbre précepte : « mens sana in corpore sano » : « un esprit sain dans un corps sain. ». Jamais cette formule n'a été d'une telle actualité !

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Gros succès attendu pour la télévision sur mobile
Mercredi, 04/05/2005 - 00:00

Environ 125 millions de personnes devraient être équipées de téléphones portables pouvant recevoir la télévision d'ici cinq ans, selon une étude publiée le 29 avril. La véritable télévision sur mobile n'est pas encore disponible mais des tests sont partout en cours. A la différence des combinés actuels qui proposent seulement de la vidéo en continu (streaming) qui transite sur le réseau des opérateurs mobiles, les combinés qui devraient être mis en vente avant la fin de l'année, permettront de capter directement les signaux TV, de la même manière qu'un téléviseur. Selon le cabinet d'études Informa, 130.000 téléphones portables recevant la télévision devraient être vendus dès cette année et 83,5 millions en 2010. Les analystes estiment que le marché de la télévision mobile devrait être particulièrement porteur du fait de la forte consommation de programmes télévisés en Europe et aux Etats-Unis, deux régions où une grande majorité de personnes sont en outre équipées de téléphones portables. Nokia a fait savoir qu'il proposerait son premier téléphone recevant la télévision au premier semestre 2006 et qu'il s'attendait à un fort volume de ventes dès le deuxième semestre de la même année. Le coréen Samsung a de son côté déjà présenté les premiers prototypes de combinés.

Reuters

Le haut-débit dépasse le bas-débit
Mercredi, 04/05/2005 - 00:00

C'est au cours du dernier trimestre 2004, vers le mois d'octobre, que les courbes se sont croisées. Le passage des abonnements haut-débit devant leurs homologues bas-débit est révélé par les chiffres de l'Observatoire du marché de l'Internet, publiés par l'Autorité de régulation des télécommunications (ART), à partir des données fournies par 28 fournisseurs d'accès. Jusqu'ici, le bas-débit continuait de représenter la majorité du parc français. Avec la bagatelle d'un million de lignes supplémentaires au cours du 4e trimestre 2004, le haut-débit est passé devant et s'arroge une part de marché de 55 %. Sur les 11,9 millions d'abonnements à Internet que comptait la France, fin 2004, 6,5 millions d'entre eux concernaient des connexions large bande. Ils n'étaient que 3,6 millions un an auparavant. L'augmentation atteint 83 %. Le bas-débit continue, lui, sa chute irrémédiable et logique. De 7 millions d'abonnements fin 2003, il a régressé à 5,4 millions.

Si le haut-débit possède une telle santé, c'est bien évidemment grâce à l'ADSL, la vedette de l'année 2004. Cette technologie d'accès est sans rivale, avec plus de 6 millions d'abonnements sur un total de 6,5 millions de lignes haut-débit. Le dégroupage aura aussi dopé l'ADSL avec son 1,6 million de lignes dégroupées. La France est, sur ce point, le pays le plus dynamique d"Europe. En 2004, l'ADSL aura connu une croissance folle de de 91 %. En face, le câble ne revendique que 454 000 abonnés.

Le règne sans partage de l'ADSL risque de durer bien longtemps. Le câble peut prétendre aujourd'hui à un parc total de 6,3 millions de prises, alors que l'ADSL possède un potentiel de 25 millions de lignes... En France l'an dernier, le « gâteau » Internet a représenté 2,4 milliards d'euros, provenant à 70 % des recettes du haut-débit. De quoi donner faim aux nombreux FAI du marché.

INet

La Bretagne pionnier de l'IPv6, le futur protocole d'Internet
Mercredi, 04/05/2005 - 00:00

La région Bretagne a décidé de faire un effort exceptionnel, pour promouvoir le nouveau protocole IPv6 régissant les adresses Internet, en finançant l'ouverture du centre d'expertise et de test « Point6 ». La matière grise de ce centre est apportée à la fois par les chercheurs de l'École nationale supérieure des télécommunications de Bretagne (ENST) et de l'Institut de recherche en informatique et systèmes aléatoires (IRISA).

Point6 aide gratuitement les entreprises comme les établissements publics non seulement à comprendre l'intérêt d'IPv6, mais aussi à assurer la bonne évolution (tout en maintenant la compatibilité avec IPv4) des routeurs, des terminaux et des applications vers ce protocole de nouvelle génération. « Depuis début avril, notre laboratoire de tests est le premier en Europe habilité à délivrer la certification“IPv6 ready logo program”de l'IPv6 Forum auprès des fabricants qui nous font tester leurs équipements », souligne Yannick Skrzypacz, responsable de la communication de Point6.

Les PME ou les groupes industriels travaillant dans le secteur de l'armement seraient les premiers intéressés par l'obtention de ce label IPv6 ready. En effet, l'Otan exige des produits de communication par Internet compatibles avec ce protocole. La grande bascule vers IPv6 sera sans doute menée par l'Asie. Si l'Union européenne possède des réseaux dédiés à la recherche comme 6Bone ou EuroIPv6, le Japon aurait déjà plus d'une quinzaine de fournisseurs d'accès Internet parés pour IPv6. Dès l'an prochain, tous les équipements Sony connectables à Internet seront conformes au protocole.

Fin 2004, la Chine a ouvert, quant à elle, « Cernet », un réseau IPv6 natif destiné à ses dizaines de millions d'élèves et d'étudiants. Le pays le plus peuplé du monde ne dispose en effet que de 1,5 % des adresses disponibles sous IPv4. et le passage à l'IPv6 repésente un enjeu stratégique pour la Chine.

Le futur protocole d'Internet devrait apporter à terme deux avantages majeurs. D'une part, sa capacité d'adressage, portée de 4 à 16 octets, offrira un nombre a priori illimité d'adresses pour raccorder à Internet de nouveaux équipements ou utilisateurs. D'autre part, IPv6 favorisera la continuité des applications en situation de mobilité, permettant d'attribuer à la fois une adresse IP fixe au terminal et une adresse IP dynamique, en fonction de la localisation de l'équipement.

ENST

Huit centres de recherche créent la plus grosse grille de calcul scientifique du monde
Mercredi, 04/05/2005 - 00:00

Huit centres de recherche viennent de réussir une performance inégalée en atteignant un taux de transfert continu de 600 Mo par seconde pendant 10 jours depuis le centre de calcul du Cern à Genève vers sept autres centres de recherche en Europe et aux Etats-Unis. Au total, ce sont ainsi 500 To de données qui ont été transférées. Pour donner une idée de ce volume, cela aurait pris 250 ans avec une connexion ADSL de 512 Kbits/s. Cette expérimentation a été réalisée dans le cadre du projet de l'accélérateur de particule s LHC (Large Hadron Collider).

Ce test s'inscrit dans une série d'expérimentations destinées à tester l'infrastructure informatique du LHC qui est en cours de construction à Genève pour étudier les propriétés fondamentales des particules sous-atomiques et des forces. Les participants à ces expérimentations sont le Brookhaven National Laboratory et le Fermilab aux Etats-Unis, le Forschungszentrum Karlsruhe en Allemagne, le CCIN2P3 en France, l'INFN-CNAF en Italie, le SARA/NIKHEF aux Pays-Bas et le Rutherford Appleton Laboratory en Angleterre.

Une production de 15 Po de données par an Dans l'état actuel, le Grid est le plus important dans le monde. Il réunit plus de 100 sites répartis dans 31 pays. Lorsqu'il sera finalisé, le LHC nécessitera un système comportant entre 50 000 et 100 000 processeurs et des capacités de stockage répondant aux tonnes de données qui seront produites, évaluées à 1500 Mo chaque seconde, soit l'équivalent de 15 Po par an. L'objectif du LHC est de mettre en place une grille de calcul qui permettra de répondre à ces défis en matière de calcul, de traitement et de débit.

L'infrastructure de calcul qui sera utilisée s'appuiera sur des grilles nationales et internationales, entre autres le projet EGEE (Enabling Grids for E-Science), l'OSG (Grid3/Open Science), l'INFNGrid et GridPP. L'expérimentation qui vient d'être conduite a dépassé d'un tiers les objectifs que s'était fixés le LHC. Pour y arriver, il a utilisé les réseaux nationaux à très haut débit incluant : DFN, GARR, GEANT, ESNet, LHCnet, Letherlight, Renater et UKLight. Quand l'accélérateur sera en service, les données qu'il produira seront accessibles à plus de 5000 chercheurs répartis dans plus de 500 laboratoires répartis dans le monde. Ces données seront accessibles selon un schéma à trois cercles : le premier correspond au Cern, le second à des laboratoires qui pourront archiver une partie des données et le troisième sera constitué d'antennes locales de laboratoires ou même de chercheurs isolés. Les données devront être "historisées" sur une période d'une quinzaine d'années au moins, période qui correspond à peu près à la durée de vie du LHC.

CERN

Des chercheurs australiens tiendraient la solution anti-hackeurs
Mercredi, 04/05/2005 - 00:00

Des chercheurs australiens ont élaboré un code qu'ils espèrent inaccessible aux pirates informatiques, au moyen d'un diamant, d'un four à micro-ondes et d'une fibre optique. Ces scientifiques de l'université de Melbourne ont utilisé le four pour "souder" un diamant d'un millième de millimètre à une fibre optique afin de créer un faisceau lumineux à photon unique, selon eux inviolable. Les photons sont les plus petites particules de lumière connues. A ce jour, aucun chercheur n'a su produire un faisceau à photon unique, qui permettrait de limiter le rayon lumineux utilisé pour transmettre des informations. "En matière de cryptologie, la question n'est pas tant d'intercepter le message codé, mais d'avoir la clé (pour le décoder)", explique James Rabeau, l'un des chercheurs qui a mis au point le système. "Le faisceau à photon unique est une clé inviolable."

Le degré de sécurité de l'information transmise dépend des propriétés du faisceau lumineux utilisé pour la convoyer. Les rayons laser utilisés aujourd'hui émettent des milliards de photons, facilitant ainsi la tâche des pirates, qui peuvent en détourner quelques-uns et décrypter le code, selon Rabeau. L'intérêt du nouveau système réside en ce qu'un faisceau de photons unique permet de repérer toute intrusion dans le système, qui se traduit par une rupture de la chaîne de communication, trahissant la présence du pirate auprès de l'émetteur et du destinataire du message, ajoute-t-il. Seuls les diamants sont connus pour produire des rayons lumineux à un photon.

Reuters

Quelles solutions pour les réseaux domestiques ?
Mercredi, 04/05/2005 - 00:00

De nos jours, créer un petit réseau domestique de quelques ordinateurs se partageant une connexion Internet est relativement facile. Mais lorsqu'il s'agit de mettre en place une connectique digne de ce nom reliant divers appareils électroniques (télévision, lecteur DVD, ordinateurs, chaîne Hi-Fi...), cela devient plus compliqué. Certes, il est possible de tirer les fils d'un réseau Ethernet dans chaque pièce de la maison mais cette méthode reste onéreuse. Quant au sans fil, des interférences avec d'autres machines viennent parfois réduire la qualité du signal de façon inacceptable pour des applications gourmandes en bande passante (vidéo, etc.). Pour certains, la solution pourrait provenir des fils électriques, grâce à un adaptateur capable de séparer le courant électrique des signaux de données. Cette approche est notamment encouragée par les consortiums HomePlug Powerline Alliance (Comcast, Echostar et RadioShak) ou CE-Powerline Communications Alliance (Panasonic, Sony et Mitsubishi).

Les essais du premier ont déjà permis d'obtenir des débits de 150 Mbits/s. D'autres entreprises, comme D-Link, Motorola et Thomson, proposent à travers la Multimedia Over Coax Alliance de privilégier les câbles coaxiaux, largement déployés pour la télévision dans les foyers américains. Ces câbles présentent l'avantage d'être protégés par un blindage ce qui favorise les transferts de données sans perte et sur de longues distances. Le principe, testé dans 200 maisons, a autorisé un taux de 100 Mbits/s vers 95 % des prises coaxiales. Mais un dernier venu d'Intel pourrait changer la donne : l'Ultra Wide Band ou UWB. Cette technologie sans fil offre des débits de 480 Mbits/s avec une portée limitée à une dizaine de mètres. Elle serait donc idéale pour des connexions de proximité. Ces trois solutions sont attendues dans le commerce d'ici la fin de l'année. En tout état de cause, plusieurs industriels indiquent qu'ils n'ont pas encore choisi la technologie qu'ils mettront finalement en oeuvre mais on s'attend à ce que les matériels soient assez bon marché pour que différentes solutions puissent être disponibles dans un même produit.

NYT

^ Haut
Matière
Matière et Energie
La fusion nucléaire tient dans la poche
Mercredi, 04/05/2005 - 00:00

«Nous avons construit un petit appareil, d'une taille de seulement quelques centimètres cubes, qui est capable de produire des réactions de fusion nucléaire quand on le réchauffe en le tenant simplement dans ses mains», s'émerveille Seth Putterman, professeur à l'université de Californie à Los Angeles (UCLA), et l'un des auteurs de cette étonnante découverte publiée aujourd'hui dans la revue britannique Nature (1). En ce moment, l'expression «fusion nucléaire» évoque plutôt une tout autre échelle : celle du projet de réacteur thermonucléaire Iter, un monstre de 30 mètres de haut, et d'un coût de 10 milliards d'euros.

Dans le passé, quand des scientifiques ont prétendu avoir réussi à maîtriser la fusion nucléaire sur un coin de table, la communauté s'est immédiatement mise en émoi, criant à la fraude ou à la manipulation. En 1989, les physiciens américains Stanley Pons et Martin Fleischmann avaient provoqué un immense scandale, en prétendant avoir produit des réactions de «fusion froide», dans un liquide à température ambiante. Plus récemment, en 2002, le physicien indien Rusi Taleyarkhan a ravivé la polémique en affirmant créer des réactions de fusion nucléaire dans des minuscules bulles de gaz qui éclatent dans un liquide.

Cette fois-ci, le sérieux de la découverte n'est pas remis en doute. Premièrement, parce que, comme l'admettent les auteurs, le système consomme intrinsèquement plus d'énergie qu'il n'en produit par fusion nucléaire. Cette découverte ne peut donc prétendre servir de source d'énergie miracle, simple et inépuisable, comme l'annonçaient au contraire les précédentes «inventions». D'autre part, «cette technique utilise un type de fusion nucléaire qui est très facile à produire, et qui se fait très facilement en laboratoire. Il n'y a rien de mystérieux là-dedans», commente Michael Saltmarsh, physicien longtemps responsable de la fusion au très célèbre Oak Ridge National Laboratory, dans le Tennessee. En effet, le principe de la fusion obtenue par l'équipe californienne est très classique, mais c'est en revanche le moyen de la mettre en oeuvre qui est totalement original. La méthode utilisée à UCLA par Seth Putterman, Brian Naranjo et Jim Gimzewski consiste en fait à bombarder une cible avec un flux d'atomes accélérés. Les cibles et les projectiles sont ici du deuterium, une forme lourde de l'hydrogène (noyau avec un proton et un neutron), qui fusionne assez facilement.

De temps à autre, un atome vient percuter de plein fouet un autre atome de la cible, avec une énergie suffisante pour que leurs deux noyaux fusionnent et donnent naissance à un nouvel atome, plus lourd. C'est une réaction de fusion nucléaire : deux noyaux d'atome fusionnent pour en créer un nouveau. Et comme la masse du noyau final est légèrement inférieure à celle des deux noyaux de départ, conformément à la célèbre formule d'Einstein E=mc2 la différence de masse est convertie en énergie.

Le même principe est au coeur du projet de réacteur thermonucléaire Iter, à la différence majeure qu'il n'y a plus de cibles, mais seulement des atomes libres, chauffés à une température de quelques dizaines de millions de degrés, afin d'augmenter la probabilité pour que deux noyaux viennent se percuter et produisent la fusion tant recherchée. Le coût et la complexité des futurs réacteurs de fusion résident dans le défi extrême qui consiste à conserver un gaz ionisé, un plasma chauffé à plusieurs millions de degrés, dans une sorte de thermos magnétique géant.

En laboratoire, la fusion par bombardement sur une cible est couramment utilisée pour un de ses sous-produits : l'émission de neutrons. D'ailleurs, des générateurs de neutrons utilisant cette technique sont en vente dans le commerce (les neutrons servent à analyser des matériaux en profondeur, dans l'industrie ou pour les douanes par exemple) et certains sont même transportables. «Ce qui est nouveau, explique Brian Naranjo, c'est que nous arrivons à produire un jet d'ions sans avoir besoin d'alimentation électrique importante, en chauffant simplement un cristal aux propriétés très particulières.» Il s'agit d'un cristal dit pyroélectrique, qui a la propriété étonnante de produire des charges électriques quand on le chauffe.

«Cet effet est sans doute connu depuis l'étude de la tourmaline en 314 avant J.-C. par Téophraste», précise Michael Saltmarsh. Mais personne, jusqu'à l'expérience faite par Brian Naranjo, n'avait su exploiter cet effet pour produire un faisceau d'ions assez intense pour réaliser des réactions de fusion dans une cible enrichie au deutérium. En chauffant le petit cristal (composé de tantale et de lithium) de seulement 12°C par minute, les chercheurs obtiennent une tension qui augmente de 50 000 volts dans le même intervalle, et ionise un gaz de deutérium pour le projeter vers la cible avec une très forte énergie. Les physiciens vont maintenant essayer d'obtenir des réactions de fusion plus nombreuses en améliorant leur dispositif, afin d'en faire une source de neutrons compacte et économique. Autre application, le cristal pourrait servir de micropropulseur pour de petits engins spatiaux.

Figaro

Des diodes électroluminescentes très économes
Mercredi, 04/05/2005 - 00:00

Des chercheurs du Rensselaer Polytechnic Institute ont développé des diodes électroluminescentes (ou DEL) à lumière blanche possédant une meilleure efficacité lumineuse sans consommer plus d'énergie. Beaucoup de DEL aujourd'hui commercialisées combinent des composants semiconducteurs au rayonnement monochromatique à du phosphore émettant des photons d'une couleur complémentaire (ce qui permet d'obtenir une lumière blanche visible). Cependant, plus de la moitié des photons émis par le phosphore sont réabsorbés par la DEL, diminuant la quantité de lumière générée.

En jouant sur la distance entre le phosphore et le semi-conducteur ainsi que sur la géométrie de la lentille des DEL, Nadarajah Narendran et ses collègues ont réussi à libérer les photons habituellement absorbés. des prototypes de diodes SPE (pour Scattered Photon Extration) mises point par les scientifiques ont ainsi permis d'atteindre, sous faible courant, une efficacité lumineuse supérieure à 80 lumens par watt (lm/W), contre 60 lm/W pour une lampe à fluorescence et 14 lm/W avec une lampe classique à incandescence. L'industrie de l'éclairage dit à état solide (SSL), qui regroupe des applications variées (signalisation, éclairage urbain, etc.), s'est fixée un objectif de 150 lm/W d'ici 2012. Le Département américain de l'Energie (DOE) quant à lui estime que la généralisation des DEL, reconnues pour leur sécurité, leur résistance et leur efficacité, pourrait réduire la consommation d'énergie nationale de 29 % d'ici 2025.

USAT

Montmélian, bourg pionnier et missionnaire de l'énergie solaire
Mercredi, 04/05/2005 - 00:00

Le bourg savoyard de Montmélian, qui a misé depuis plus de 20 ans sur l'énergie solaire, est désormais l'une des communes les mieux équipées de France, avec un millier de m2 de panneaux alimentant en eau chaude un centre nautique, un hôpital et des logements sociaux.

Cette ville de 4.000 habitants espère susciter des vocations, alors que vient d'avoir lieu à Lyon le 3e Salon des énergies renouvelables. "Quand on voit l'augmentation du prix du gaz, on se dit qu'on n'a pas eu tout à fait tort", glisse malicieusement Roger Rinchet, le maire (PS) de cette commune, située au pied du massif des Bauges. La ville a été récemment primée par le Comité de liaison des énergies renouvelables (CLER), une association de professionnels. Les premiers panneaux mis en place à Montmélian datent de 1983, à une époque où l'énergie solaire n'était presque pas développée en France, explique M. Rinchet, 71 ans, maire depuis plus de 30 ans. L'idée lui est venue lors d'un voyage en Israël, où il avait été frappé par les énormes bidons servant de chauffe-eau, disposés sur les toits terrasses, raconte-t-il. Avec l'association savoyarde pour le développement des énergies renouvelables (ASDER) et deux ingénieurs, il installe alors 220 m2 de capteurs solaires sur le toit d'un bâtiment recouvrant une piscine, une salle de danse et des vestiaires. "A l'époque, on n'était pas très sûrs de ce qu'on faisait. Mais dès la première année, les économies ont été substantielles", affirme M. Rinchet.

La facture de gaz a ainsi été réduite de 74 %, assure le maire, qui se targue en outre de n'avoir pas augmenté les impôts depuis 20 ans, notamment en finançant partiellement les investissements avec les aides accordées dans le cadre de la promotion des énergies renouvelables. La mairie a ensuite étendu ses installations solaires à des vestiaires sportifs, à deux immeubles de logements sociaux, à un atelier de la mairie et à un hôpital pour personnes âgées. Outre un intérêt économique, le solaire présente un énorme avantage écologique, insiste le maire. Chaque année, l'ensemble des installations de la commune permet d'éviter le rejet dans l'atmosphère de 200 tonnes de gaz à effet de serre, souligne Roger Rinchet, qui souhaite convertir le plus grand nombre à cette énergie "d'avenir". "On n'est pas un ordre contemplatif mais un ordre missionnaire", s'amuse le maire, qui intervient régulièrement dans des colloques. La mairie apporte aussi une aide financière aux habitants désireux de se doter de chauffe-eau solaires, et a fourni des panneaux à un village au Tchad.

AFP

^ Haut
Espace
Espace et Cosmologie
La première photo d'une planète extra-solaire
Mercredi, 04/05/2005 - 00:00

La première image jamais obtenue d'une planète extra-solaire, cinq fois plus massive que Jupiter et en orbite autour d'une naine brune (étoile de faible masse), a été obtenue l'an dernier par une équipe internationale, ont annoncé vendredi le Centre National de la Recherche Scientifique (CNRS) et l'Observatoire Européen Austral (ESO).

Un autre objet, d'une masse à la limite de celles des planètes et des naines brunes, a d'autre part été détecté de la même manière par cette même équipe autour d'une jeune étoile. Les comptes rendus de ces deux découvertes seront publiés prochainement dans la revue européenne Astronomy and Astrophysics. Il y a un an, avec le système d'optique adaptative, d'imagerie dans le proche infrarouge et de spectrométrie du Télescope Géant de l'ESO du mont Paranal (Chili), les chercheurs ont détecté et photographié, à 230 années-lumière de la Terre, un "objet" cent fois moins lumineux qu'une naine brune près de laquelle il se situait. Cette naine brune, 2M1207, appartient à "TW Hydrae", un ensemble de jeunes étoiles. Mais il était cependant sur le moment impossible d'affirmer que l'objet identifié était bien une planète en orbite autour de 2M1207.

Après de nouvelles observations, en février et mars derniers et la prise de nouveaux clichés, l'équipe, sous la direction de Gaël Chauvin, de l'ESO, vient de confirmer que l'objet était bien lié à la naine brune. Cette planète est une exoplanète, c'est-à-dire un astre dont la masse ne dépasse pas 13,6 fois celle de Jupiter. Ces photographies sont une première, car si plus de 150 planètes extra-solaires ont été détectées autour d'étoiles semblables au Soleil depuis une première découverte pendant l'été 1995, elles l'avaient été de façon indirecte, par la méthode dite "des vitesse radiales", qui consiste à détecter dans le spectre d'une étoile les perturbations de son mouvement causées par la présence autour d'elle d'un corps céleste. Cette nouvelle planète se trouve à 55 unités astronomiques (8,250 milliards de kilomètres) de la naine brune, soit deux fois la distance Neptune-Soleil, et sa période orbitale est estimée à 2.500 ans environ. Sa température est dix fois celle de Jupiter.

La même équipe vient également de découvrir autour d'une jeune étoile de la constellation du Peintre, AB Pictoris, un objet de masse estimée entre 13 et 14 fois celle de Jupiter. Ces deux découvertes laissent penser que les exoplanètes pourraient s'être formées de façon tout à fait différente de celle des planètes du système solaire.

SD

Cassini découvre des hydrocarbones complexes dans l'atmosphère de Titan
Mercredi, 04/05/2005 - 00:00

Un vol rapproché autour de Titan, une des lunes de Saturne, par la sonde internationale Cassini a révélé une haute atmosphère bordée de matière organique complexe, une découverte qui pourrait fournir des indices sur l'apparition de la vie sur Terre, ont annoncé des scientifiques. Le 16 avril dernier, Cassini a survolé à une altitude de seulement 1.027 km la surface gelée de Titan et découvert une atmosphère supérieure teintée d'hydrocarbone. L'atmosphère de Titan est composée principalement d'azote et de méthane, la forme la plus simple d'hydrocarbone. Mais les scientifiques ont été surpris de découvrir des matières organiques plus complexes lors de ce dernier vol rapproché en date.

Dans la mesure où Titan se trouve dans un froid extrême, les scientifiques s'attendaient à ce que les matières organiques se condensent avant de retomber en pluie sur la surface. "Nous commençons à saisir le rôle de l'atmosphère supérieure dans le cycle complexe du carbone qui se produit sur Titan", a dit Hunter Waite, professeur à l'université du Michigan. Les scientifiques pensent que l'atmosphère de Titan pourrait être semblable à celle de la Terre à ses origines. La température de moins 143 degrés Celsius sur Titan empêche les réactions chimiques qui ont probablement permis le développement de la vie sur Terre. Cassini-Huygens est un projet commun de la Nasa et de l'agence spatiale européenne (ASE). La sonde interplanétaire a été lancée en 1997 et a mis sept ans pour arriver dans l'orbite de Saturne. La sonde Huygens, développée et contrôlée par l'ASE, a touché le sol de Titan au début de l'année.

AP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'effet de serre atmosphérique confirmé par une étude de la Nasa
Mercredi, 04/05/2005 - 00:00

La Terre absorbe davantage d'énergie solaire qu'elle n'en émet, un déséquilibre calorique qui confirme le réchauffement de la planète par effet de serre atmosphérique dû à la pollution humaine, indique une étude de la Nasa, publiée aux Etats-Unis.

"Ce déséquilibre d'énergie est l'indice prouvant que les estimations scientifiques de l'impact de l'activité humaine sur le climat sont bien exactes", a déclaré James Hansen, directeur des études spatiales de l'institut Goddard de la Nasa, l'agence spatiale américaine, principal auteur de ces recherches publiées dans Science Express, version en ligne de la revue scientifique américaine. Utilisant des satellites qui relaient des données recueillies par des stations climatologiques installées sur des bouées sur les océans ou dans des stations terrestres, ainsi que des modèles informatiques d'océanographie, cette équipe de chercheurs a calculé que la Terre retenait 0,85 watt d'énergie de plus par mètre carré qu'elle n'émettait sur une période donnée. Cette accumulation d'énergie entraînera, si elle persiste, un relèvement de 0,6 degré Celsius (un degré Fahrenheit) de la température médiane de la Terre d'ici la fin du siècle, selon ces chercheurs. Bien que paraissant modeste, cette quantité de chaleur supplémentaire, emmagasinée sur l'ensemble de la superficie du globe, aura un impact significatif sur le climat, ont-ils affirmé. Un accroissement d'un watt par mètre carré maintenu pendant dix mille ans est suffisant pour faire fondre la glace d'un kilomètre à la surface de l'océan, ont calculé ces climatologues.

En outre, les océans gardent la chaleur plus longtemps que le sol, ont-ils souligné, comme le montre le fait que l'eau met plus longtemps à se réchauffer au début de l'été que l'air. Ce phénomène, qui se produit dans les profondeurs océaniques, appelé "inertie thermale", signifie que l'on peut s'attendre à terme à une élévation supplémentaire de 0,6 degré Celsius (un degré Fahrenheit), ont relevé ces scientifiques. En d'autres termes, souligne James Hansen, si le monde décide d'avoir davantage de preuves du réchauffement atmosphérique avant d'agir, le phénomène d'inertie thermale des océans laisse prévoir un changement climatique encore plus important qu'il sera très difficile voire impossible d'éviter.

En effet, "des eaux plus chaudes accroissent la probabilité d'une fonte accélérée de la couche de glace aux pôles comme l'a déjà montré la montée du niveau des océans". Les données recueillies par les satellites d'observation ont montré que le niveau des océans a monté de 3,2 centimètres (1,26 pouces) depuis 1993, a-t-il précisé. Cette variation paraît minime mais elle est deux fois plus importante que celle enregistrée sur l'ensemble du siècle dernier. "Il est donc nécessaire de surveiller la fonte et désintégration des glaces pour éviter que ce phénomène ne deviennent incontrôlable", a insisté James Hansen.

Cette étude américaine met en évidence une question capitale pour le réchauffement à venir : celle de l'inertie du système climatique. Une inertie largement liée à l'océan et aussi aux calottes polaires, explique Jean Jouzel, directeur de l'Institut Pierre-Simon-Laplace. Cela signifie que nous subirons pendant longtemps les effets du déséquilibre énergétique actuel, même si on maintient les GES à leur taux d'aujourd'hui. Le niveau des océans continuera aussi à s'élever de 10 à 25 cm pendant plusieurs siècles. Si on ne stabilise pas le taux des GES, ce sera pire, car l'élévation sera de 40 cm par siècle. Aussi, l'idée que certains avancent, selon laquelle le recours à de nouvelles techniques pourrait minimiser les dégâts, est illusoire comparée à l'énorme énergie des océans."

"C'est donc un défi considérable qui attend l'espèce humaine, prévient le spécialiste français, membre du GIEC. Nous relâchons actuellement dans l'atmosphère 7 milliards de tonnes de carbone par an. Pour stabiliser la situation, il faudrait descendre à 2 milliards de tonnes. Cela plaide donc en faveur de l'Europe, qui souhaite limiter à 2 ºC l'augmentation de la température par rapport à celle qui prévalait avant l'ère industrielle."

NASA




^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du sein : mise au point d'une sonde pour localiser les ganglions suspects
Mercredi, 04/05/2005 - 00:00

Des chercheurs français ont mis au point une sonde prometteuse pour détecter les ganglions sentinelles, première étape des métastases du cancer du sein avant l'envahissement de l'organisme. "Cet outil intéresse les cancers dépistés tôt, dont la taille est inférieure à deux centimètres", a précisé mercredi à l'Associated Press, Jean-Louis Guyonnet, chargé de recherche à l'Institut de recherches subatomiques de Strasbourg (Bas-Rhin). "Si le cancer a déjà commencé à envahir le corps, cet envahissement passe forcément par un ganglion, le ganglion sentinelle."

Le cancer du sein est la première cause de mortalité chez les femmes de 35 à 55 ans. Son incidence ne cesse d'augmenter, avec 42.000 nouveaux cas par an en France. L'amélioration des techniques d'imagerie, la sensibilisation des patientes et la généralisation des tests de dépistage (par la technique de la mammographie), ont permis de découvrir ces cancers à des stades de plus en plus précoces.

Il y a quelques années encore, toute femme qui en était atteinte subissait "systématiquement un curage de tous les ganglions du creux axillaire", a rappelé Jean-Louis Guyonnet. Un geste aux conséquences souvent dramatiques : troubles de la mobilité de l'épaule, diminution de sensibilité, douleurs, lymphoedème se traduisant par un "gros bras"... Aujourd'hui, les chirurgiens prélèvent uniquement les ganglions sentinelles, qui sont analysés pendant l'opération afin de voir s'ils sont indemnes. Cette technique permet d'éviter environ 70 % des curages ganglionnaires.

L'emplacement exact des ganglions sentinelles, parfois très proches des autres ganglions, doit être déterminé pour chaque patiente. La veille de l'intervention chirurgicale, on injecte un composé radioactif dans le sein de la patiente. Ce composé étranger à l'organisme est arrêté par les ganglions sentinelles, qui jouent ainsi un rôle de filtre et deviennent faiblement radioactifs. Ils sont détectés par un appareil de scintigraphie (analyse d'un organe après injection de produit radioactif). On complète cet examen pré-opératoire avec une sonde qui fonctionne suivant le même principe, mais vient au contact des ganglions pendant l'opération.

Parallèlement à la réalisation de cet instrument, l'Institut de recherches subatomiques de Strasbourg a développé une mini gamma caméra opératoire destinée à l'examen scintigraphique des régions où se trouvent les ganglions. Après prélèvement des ganglions sentinelles, la mini gamma caméra permet de mettre en évidence la présence d'éventuels ganglions non détectés. "D'ici quelques semaines, nous allons démarrer un projet de recherche interne", a souligné M. Guyonnet. Ce projet qui sera mené à Strasbourg au centre anticancéreux Paul-Strauss concerne 25 patientes qui bénéficieront de la sonde et de la gamma caméra.

AP

La salive pour dépister des cancers ?
Mercredi, 04/05/2005 - 00:00

Le dépistage du cancer du sein se fera-t-il un jour à partir d'un simple prélèvement de salive ? Des chercheurs américains y ont en effet isolé des biomarqueurs susceptibles de prédire des cancers du sein ou (moins surprenant) de la cavité buccale ! "Avec même neuf chances de succès sur dix pour ce dernier" expliquent les auteurs, de l'Université de Californie à Los Angeles (UCLA). Lesquels ont travaillé à partir de prélèvements oraux effectués chez 32 patients souffrant d'un cancer de la cavité buccale. Et de 40 malades atteintes d'un cancer du sein. L'analyse de ce que les auteurs appellent les transcriptomes salivaires rendraient possibles ces détections. Mais "nos résultats doivent encore être validés par des études portant sur des échantillons (de population) plus importants". Avant peut-être de voir naître un test de dépistage qui serait à coup sûr, révolutionnaire.

DS

L'obésité serait liée à un dérèglement de l'horloge biologique
Mercredi, 04/05/2005 - 00:00

Une équipe américaine vient de découvrir un lien entre la survenue de l'obésité et du diabète et le déraillement chronobiologique de l'organisme... Décidément, ces deux maladies n'ont pas encore dévoilé tous les secrets de leurs origines. C'est le moins que l'on puisse dire. Le Pr Fred W. Turek et ses collègues de la Northwestern University dans l'Illinois, ont modifié génétiquement l'horloge biologique d'une lignée de souris. "Un mécanisme qui, à l'instar de celui qui régit les battements du coeur, régule l'ensemble des systèmes qui gouvernent notre organisme" précise Fred W. Turek. Et à la surprise générale, les auteurs ont constaté que les petits rongeurs ne contrôlaient plus leur appétit ! Pis, leur métabolisme s'est alors emballé, ce qui les a rendu incapables de "réguler leur poids." Ce qui a très rapidement provoqué, l'apparition d'un syndrome métabolique...Pour l'équipe du Pr Turek, cette découverte "révèle qu'au niveau cérébral, notre horloge biologique agit directement sur la régulation de l'appétit." Et donc sur le poids.

Science

Un gène qui gêne le sommeil
Mercredi, 04/05/2005 - 00:00

Pourquoi certains se suffisent quotidiennement d'une courte nuit de 5 à 6 heures tandis que d'autres n'aspirent qu'à prolonger leurs nuits ? Pour tenter de comprendre les mécanismes qui régulent la durée du sommeil, des chercheurs ont étudié des mouches drosophiles mutantes qui n'ont besoin que de 3 à 4 heures de sommeil par jour contre 10 à 12 heures pour les mouches normales.

L'équipe de Chiara Cirelli, de l'Université du Wisconsin (USA), a passé au crible 9.000 mouches ayant subi une mutation génétique après exposition à un produit chimique. Parmi ces mutantes, les chercheurs ont repéré des drosophiles dormant 30 % de moins que les autres sans montrer pour autant de signes de faiblesse. Ces petites dormeuses étaient porteuses d'une mutation sur un gène appelé Shaker, expliquent les chercheurs dans la revue Nature. Ce gène code pour un canal ionique qui permet le passage du potassium dans la cellule. La mutation -un seul acide aminé diffère- empêchait ce passage. Même si la mouche ne ferme pas ses yeux comme un mammifère pour dormir, elle a un cycle de sommeil proche du nôtre, soulignent les chercheurs. L'un des membres de l'équipe, Giulio Tononi, a mis en évidence que les mouches restaient immobiles 6 à 12 heures chaque nuit. Privées de ce repos, les insectes répondaient moins bien aux stimuli et récupéraient le manque la nuit suivante. Comme les hommes, les drosophiles ont un sommeil plus profond au début de leur vie et plus morcelé par la suite. Autre similitude : la caféine les empêche de dormir. Les chercheurs estiment donc que ces découvertes sur le rôle du gène Shaker peuvent s'appliquer aux mammifères et donc aux hommes. Avant d'imaginer que l'on puisse manipuler le besoin de sommeil chez l'homme, il faudra résoudre un point important : la mutation des petites dormeuses affecte leur mortalité mais ils ne savent encore comment. Ce qui est certain c'est que les mouches petites dormeuses vivent moins longtemps.

S&A

L'obésité en milieu de vie accroît les risques de démence sénile
Mercredi, 04/05/2005 - 00:00

L'obésité et la démence pourraient être liées : selon les résultats d'une étude californienne publiée dans le dernier numéro du British Medical Journal, plus on est gros à 40 ans, plus le risque de démence est important par la suite. "Ceci ne fait que s'ajouter aux motifs d'inquiétude concernant l'obésité", a déclaré Philip James, Président du groupe de travail international sur l'obésité, qui n'a pas participé à cette recherche.

L'étude financée par les Institut nationaux de santé américains a été conduite par la Fondation médicale Kaiser Permanente. Quelque 19.276 personnes ont été recrutées du milieu des années 60 au tout début des années 70, alors qu'elles avaient environ 40 ans, et ont été suivies pendant 27 ans en moyenne.

Entre 1994 et 2003, 713 personnes ont développé une démence, soit 7 % des participants. Les chercheurs ont étudié les liens entre démence et obésité en mesurant deux paramètres : l'indice de masse corporelle (IMC) et l'épaisseur des plis de peau à hauteur des omoplates et sous les bras. L'IMC est calculé en divisant le poids d'une personne, exprimé en kilos, par la taille (en mètre) élevée au carré. L'obésité est caractérisé par un IMC supérieur à 30. Quand les scientifiques se référaient à l'IMC, les personnes obèses avaient un risque de développer une démence augmenté de 74 %. De leur côté, les personnes en surpoids simple -dont l'IMC est supérieur à 25-, n'avaient que 35 % de risque en plus de développer une démence.

Chez les femmes, cette corrélation était plus nette que chez les hommes. Les femmes obèses avaient deux fois plus de risque que les femmes de poids normal d'être frappées par la maladie d'Alzheimer ou un autre type de démence, alors que chez les hommes, ce risque n'était que de 30% supérieur. Toutefois, quand les chercheurs mesuraient l'obésité avec l'épaisseur des plis de la peau pour mesurer l'obésité, il n'existait pas de différence entre les sexes, tous deux présentant un risque de démence supérieur de 70 % s'ils avaient un pli épais. Et plus le pli était épais, plus le risque de démence était élévé.

Selon Philip James, l'aspect le plus impressionnant de cette étude est que les chercheurs ont éliminé l'influence des maladies cardio-vasculaires, du diabète et d'autres pathologies sur la survenue d'une démence. Toutefois l'étude n'a pas réussi à déterminer comment l'obésité pourrait accroître le risque de démence. Elle a simplement proposé plusieurs théories : l'une d'entre elles est que les cellules graisseuses produisent des substances inflammatoires, et que ces substances pourraient passer dans le cerveau. L'équilibre alimentaire et la quantité de bonnes graisses (contenues dans les huiles de poisson, par exemple), pourraient aussi être un facteur.

"Dans nos sociétés occidentales, nous ne mangeons pas suffisamment de ces acides gras", a insisté James. "Ce qui caractérise les obèses, c'est qu'ils mangent trop de graisses et trop de sucres, mais pas assez d'acides gras à longue chaîne.

AP

BMJ

^ Haut
Homme
Anthropologie et Sciences de l'Homme
L'UE dit oui à une "bibliothèque numérique européenne"
Mercredi, 04/05/2005 - 00:00

L'Union européenne dit "oui" à une bibliothèque numérique européenne" pour contrer le gigantesque programme de numérisation de livres lancée par l'américain Google, a déclaré mardi à Paris le président en exercice de l'UE Jean-Claude Juncker. "Il s'agit avant tout d'agir. C'est pourquoi je dis 'oui' à l'initiative du président de la République française (Jacques Chirac) consistant à lancer une bibliothèque numérique européenne", a déclaré M. Juncker lors d'une intervention à la Comédie Française, dans le cadre des Rencontres pour l'Europe de la Culture. "Je dis 'oui' parce que l'Europe ne doit pas se soumettre devant la virulence de l'attaque des autres", a poursuivi le Premier ministre luxembourgeois. Six pays européens (France, Pologne, Allemagne, Italie, Espagne et Hongrie) avaient demandé jeudi à l'UE, sur proposition de la France, de lancer une "bibliothèque numérique européenne" pour coordonner les actions des bibliothèques nationales. Cette initiative intervenait au lendemain d'une motion commune de 19 bibliothèques nationales européennes qui avaient appelé à des initiatives communautaires, pour contrer le gigantesque programme de numérisation de livres lancé fin 2004 par le moteur de recherche américain Google. Cette motion avait été lancée à l'initiative du président de la Bibliothèque nationale de France, Jean-Noël Jeanneney.

AFP

Le marché des contenus en ligne devrait doubler en 2005 en Europe
Mercredi, 04/05/2005 - 00:00

Le chiffre d'affaires du contenu en ligne (vidéo, musique, jeux) destiné au public va presque doubler en 2005 en Europe de l'Ouest, atteignant plus de 3 milliards d'euros, et devrait représenter jusqu'à 16 milliards en 2008, selon une étude de l'organisme d'étude européen EITO. Cette étude souligne particulièrement qu'en trois ans, le chiffre d'affaires de ce contenu en ligne devrait dépasser celui du contenu destiné aux entreprises. Actuellement, plus d'un tiers du marché public du contenu en ligne est basé sur la vidéo en ligne qui devrait dépasser le milliard d'euros cette année.

"Les chaînes de valeurs traditionnelles se développent pour devenir de nouveaux réseaux de valeurs", indique le directeur de l'EITO, Bruno Lamborghini. Les principales catégories concernées sont la musique, les jeux, les vidéos et les publications (textes et images), mais égalements de nouveaux services à valeur ajoutée.

Pour sa part, le chiffre d'affaires des jeux en ligne devrait atteindre 929 millions d'euros en 2005 en Europe de l'Ouest, rattrapant celui des vidéos en ligne. La musique en ligne fera également un grand saut en avant en 2005. De plus en plus, les téléchargements légaux remplacent les téléchargements illégaux. Avec 3 millions de téléchargements en 2005, le marché "décolle" et fait plus que doubler.

Actuellement, 90 % de tout le contenu en ligne (autant public que pour les entreprises) est appelé depuis un ordinateur. Mais les experts estiment que 40 % du contenu en ligne public sera délivré par des technologies mobiles d'ici 2008. De nouveaux services comme des jeux mobiles et de la musique mobile à la demande ont déjà été lancés et commencent à engendrer du chiffre d'affaires.

Le chiffre d'affaires du contenu en ligne pour entreprises est encore prédominant, avec 8,5 milliards d'euros de chiffre d'affaires, soit cinq fois plus que le chiffre d'affaires du contenu en ligne public.

AFP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top