RTFlash

RTFLASH Recherche & Technologie
NUMERO 322
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 02 Février 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Des puces RFID pour surveiller les frontières des Etats-Unis
Comment le haut débit modifie notre comportement sur Internet
La chaîne américaine Piggly Wiggly expérimente le paiement par scanner digital
Le site A9.com propose aux Américains les pages jaunes en images
3 entreprises françaises sur 4 utilisent le haut débit
Haut débit : avis favorable du Conseil de la concurrence sur l'analyse de l'ART
Matière
Hewlett-Packard annonce un successeur moléculaire au transistor
L'énergie solaire pour traiter l'eau
La moitié de l'énergie mondiale pourrait être renouvelable en 2030
Terre
Conférence internationale d'Exeter : le changement climatique a déjà commencé
Le réchauffement climatique pourrait être le double de ce qui est attendu
Vivant
Traitement de l'obésité : de nouvelles pistes thérapeutiques
Le bout du tunnel pour la cécité ?
Vers une pilule contraceptive masculine
Des neurones moteurs de la moelle épinière issus de cellules souches
Edito
le très haut débit sans fil : prochaine révolution des loisirs numériques



Le Consumer Electronics Show (CES) de Las Vegas a permis comme d'habitude aux constructeurs informatiques et électroniques de présenter non seulement leurs nouveaux produits mais également leurs visions de l'avenir numérique. Globalement la tendance 2005 est plus que jamais au « Media Center » qui matérialise la convergence numérique entre l'ordinateur de salon, le multimédia et l'électronique de loisirs.

L'époque des machines austères et complexes entièrement dédiées au travail est bien révolue et le PC, dopé par l'internet à haut débit, est devenu à présent une véritable plate-forme multimédia d'abord conçue pour les loisirs numériques et pilotable par télécommande, comme la chaîne Hi fi ou le téléviseur. Il ne restait plus qu'à transformer notre mobile en télécommande de PC, ce que vient de faire Toshiba, et la boucle numérique est bouclée entre l'informatique, le multimédia et les télécoms.

Après avoir essayé pendant des années d'imposer au secteur du divertissement ses logiciels pour créer et distribuer musique et vidéo, Microsoft a finalement opéré un sérieux revirement stratégique en donnant à présent la priorité à la nouvelle attente des consommateurs : un accès facile et ouvert aux contenus numériques. "Nous sommes à l'avant scène pour réaliser de larges investissements technologiques et offrir des inventions qui vont apporter le style de vie numérique au plus grand nombre", a déclaré Bill Gates lors de l'ouverture de ce salon. "Notre stratégie est d'offrir d'excellents logiciels et une plateforme innovante grâce à des partenariats, de manière à ce que les consommateurs puissent choisir parmi une large palette d'appareils et de services qui fonctionnent en parfaite harmonie et conviennent à leur mode de vie", a-t-il souligné.

Microsoft veut ainsi fournir de la musique et des programmes de télé sur une large gamme de supports différents (téléphone, télévision, ordinateurs de poche, baladeur ou encore console de jeu) utilisant ses logiciels. L'enjeu pour Microsoft est de se développer au-delà de son activité principale, qui consiste à placer son système d'exploitation Windows dans le plus grand nombre possible de machines informatiques. Une grande partie de l'intervention du président de Microsoft Bill Gates au Consumer Electronics Show (CES) de Las Vegas était d'ailleurs consacrée à la manière dont Microsoft se positionnait pour devenir un acteur clé du marché des loisirs numériques. Face au succès phénoménal de l'iPod (4,5 millions d'appareils vendus au troisième trimestre 2004) et du service de téléchargement iTunes d'Apple, et dans un nouvel environnement dominé par la crainte du piratage exprimée par les maisons de disques et les studios hollywoodiens, Microsoft a compris qu'il lui serait de plus en plus difficile d'inciter les fournisseurs de contenus et les fabricants d'appareils numériques à utiliser son logiciel pour créer ou diffuser musique et vidéos.

C'est ainsi que la dernière version de Media Player lit les fichiers MP3, le format numérique le plus répandu. MSN Music de Microsoft n'est pas le seul service de téléchargement disponible sur Windows Media Player. Le numéro un mondial du logiciel a annoncé cette semaine des accords avec des sociétés comme MTV ou TiVo destinés à lui permettre d'accéder aux salons des consommateurs comme à leurs appareils portables. "Au bout du compte, c'est le contenu délivré à travers la technologie qui est très important", a assuré Bill Gates au CES de Las Vegas. Les utilisateurs d'un magnétoscope numérique TiVo, pourront par ailleurs enregistrer des émissions et les transférer sur un PC ou un appareil portable.

Parallèlement, cependant, Microsoft a également affirmé vouloir continuer à placer le PC -donc Windows- au centre des loisirs numériques pour les particuliers et les entreprises. Au centre de cette stratégie, les PC équipés de Windows Media Center, largement présentés au CES. Il s'agit d'ordinateurs équipés d'une version modifiée de Windows qui se connectent aux téléviseurs et permettent de regarder des films, des photos ou d'écouter de la musique en utilisant une télécommande. La console de jeux Xbox et le système d'exploitation Media Center ont permis à Microsoft de rentrer dans le salon des consommateurs, a déclaré son président Bill Gates, qui a annoncé de nouveaux partenariats dans ce sens, avec la chaîne de télévision MTV, l'opérateur BellSouth et Fuji Photo Film.

Microsoft a déjà signé un accord semblable avec SBC Communications. Les sociétés de télécoms veulent en effet concurrencer les opérateurs de réseaux câblés et devenir diffuseurs de contenus vidéo. L'objectif de Microsoft est désormais clair : augmenter sa part de marché dans le secteur en pleine expansion de la vidéo, de la musique et de la photographie numériques, et diversifier ainsi ses sources de revenus à côté du système d'exploitation Windows et de sa suite bureautique Office. Selon Bill Gates, après douze ans d'investissements dans la convergence entre les médias et les PC, on commence à voir le bout du tunnel. "C'est sans aucun doute là où le monde se dirige", a dit Bill Gates lors de l'ouverture du salon.

Hewlett-Packard mise, pour sa part, sur un nouveau concept dont il sera intéressant de suivre l'accueil auprès des consommateurs : le Media Hub, ou passerelle multimédia. Le Media Hub possède un disque dur, grave les DVD, enregistre la télévision, la musique et la vidéo. Cette fois, avec ce produit, nous visons les gens qui n'ont pas envie des fonctionnalités d'un PC dans leur salon. » a déclaré Carly Fiorina, PDG de HP en présentant le Media Hub. Contrairement au Media Center qui reste un PC doté d'un système d'exploitation Microsoft adapté aux usages du multimédia, le Media Hub, lui, est une boîte noire qui tourne sous Linux, il n'est pas conçu pour être modifié par ses utilisateurs. Compatible avec les programmes de télévision haute définition, il dispose de deux tuners et d'un disque dur pour enregistrer les programmes TV. Le Media Hub disposera d'un disque dur, extractible comme une simple disquette et bien sûr d'un graveur de DVD.

Mais l'événement de ce CES n'aura sans doute pas été le discours de Bill Gates, ni la présentation du Media Hub par HP mais le discours d'un autre invité prestigieux, Robert Redford. L'acteur a rejoint Craig Barrett, le Président d'Intel, pour évoquer la première diffusion d'un film à travers un réseau Wimax à l'occasion du Sundance Film Festival de Park City (Utah). Un long métrage y sera diffusé à partir d'un ordinateur situé dans l'Oregon. Pour Craig Barrett, le Président d'Intel, cette première diffusion de films en WiMax marque le début d'une nouvelle révolution dans les loisirs numériques. "Le Wimax sera la technologie qui enveloppera tous les autres réseaux en un unique ensemble numérique. Où que vous soyez, le réseau et tous les divertissements et informations qu'il transporte seront là aussi." Rappelons que le WiMax permet un débit théorique de 75 Mbits dans un rayon de 50 Km. Selon le dernier rapport de TelecomView, le WiMax, grâce à ses hautes performances et de sa remarquable adaptabilité va entrer en concurrence directe avec les technologies DSL.

D'ailleurs, selon cette étude, le modèle économique du Wimax est « nettement plus rentable que celui de la 3G et se rapproche de celui des réseaux filaires DSL, ce qui en fait une alternative particulièrement séduisante ». Mais la bataille du très haut débit sans fil est loin d'être terminée car l'allemand Siemens et le japonais DoCoMo ont réussi, il y a quelques semaines, des transmissions sans fil d'un Gigabits par seconde ! Cette prouesse a été réalisée en combinant un système «intelligents » MIMO (Multiple Input - Mutiple Output), à une technologie de multiplexage fréquentiel de type OFDM (Orthogonal Frequency Division Multiplexing). Cette nouvelle technologie MIMO sera au coeur de la future téléphonie 4G qui verra le jour en 2009 et pourrait également, à terme, rendre obsolète le Wimax avec des débits réels de l'ordre de 400 Mbits !

Ces nouvelles technologies très haut débit sans fil (WiMax, MIMO, 4G) à moyenne ou longue distance vont être en outre complétées à courte distance par l'UWB. L'UWB permet des débits de l'ordre de 400 Mbit/s sur une dizaine de mètres et pourra servir aux réseaux sans fil locaux (WLAN) ou personnels (WPAN) pour connecter des terminaux et périphériques informatiques, ou encore faire communiquer des matériels multimédias entre eux.

On voit donc que l'arrivée de ces nouvelles technologies sans fil à très haut débit, combinée aux mini disques durs de grande capacité qui vont envahir nos mobiles et PDA dès cette année, vont profondément bouleverser ce secteur en plein essor des loisirs numériques en rendant possible partout le téléchargement très rapide de musique, de films ou de vidéos ainsi que l'accès à la télévision numérique mobile sur nos terminaux portables, mobiles ou PDA (cet accès à la TNM sur mobile est déjà une réalité en Corée du sud depuis le début de l'année). C'est bien désormais l'accès personnalisé et permanent aux contenus numériques qui constitue le nouvel enjeu majeur de l'économie numérique.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Des puces RFID pour surveiller les frontières des Etats-Unis
Jeudi, 03/02/2005 - 00:00

Des tests vont être organisés aux États-Unis pour «automatiser l'enregistrement de l'arrivée et du départ des voyageurs à pied ou en véhicule», dès leur entrée sur le territoire américain. L'innovation réside dans l'emploi des fameux identifiants électroniques à fréquence radio (RFID). Ces expérimentations, qui débuteront le 31 juillet 2005, seront menées par le service de régulation des frontières et des transports du ministère de la Sécurité intérieure (Department of Homeland Security, ou DHS). La plus importante s'effectuera aux postes de douanes situés à Nogales (Arizona), une des principales villes-frontières avec le Mexique, à Alexandria Bay (New York), ainsi que dans deux postes-frontières avec le Canada (État de Washington). Ils dureront jusqu'en 2006. L'emploi de RFID, selon les minces informations avancées par le DHS, servira ainsi «d'identifiant unique», vraisemblablement ajouté au passeport, mais sans savoir si cette étiquette restera active après l'entrée sur le territoire. Ces tests s'inscrivent dans le cadre du programme de gestion de l'immigration "US VISIT". Dans les aéroports, tous les visiteurs étrangers doivent laisser leur empreinte digitale et être photographiés. Le DHS indique qu'à ce jour 407 personnes ont été refoulées du territoire américain grâce à ces nouvelles dispositions.

DHS

Comment le haut débit modifie notre comportement sur Internet
Jeudi, 03/02/2005 - 00:00

Au commencement était le bas débit. Souvenez-vous : à l'époque, le téléchargement de certaines pages était si long que surfer sur le web demandait la complémentarité d'une autre activité. Préparer un café, ranger son bureau... A l'époque donc, certains domaines de l'Internet tels que nous les connaissons aujourd'hui étaient loin d'être acquis au plus grand nombre : faire ses achats en ligne, poster des articles sur son blog, écouter la radio en ligne, etc. Le fournisseur d'accès Internet AOL vient de réaliser une enquête, outre-Manche, à travers laquelle il a tenté de déterminer quels étaient les nouveaux usages liés à l'Internet haut débit.

Premier constat : les internautes demeurent connectés plus longtemps et leur ordinateur a pris une place centrale au sein de leur domicile. Il apparaît ainsi que 46 % des internautes britanniques surfant au haut débit ont placé leur ordinateur dans leur pièce de vie principale. 59 % d'entre eux se connectent avant le petit déjeuner et 21 % surfent parfois au beau milieu de la nuit.

Deuxième constat : le haut débit a mis fin à une ère Internet dans laquelle les internautes étaient plutôt passifs et se connectaient pour recevoir l'information. Selon les résultats du FAI, le téléchargement, le partage et l'interactivité sont aujourd'hui aussi importants que la réception d'informations.

C'est ainsi que 57 % des internautes haut débit disent avoir posté du contenu en ligne, ce qu'ils n'auraient pas fait avec une connexion bas débit. 56 % le font plus d'une fois par mois, et 18 % le font quotidiennement. Par ailleurs, 28 % des connectés en haut débit ont créé un site web, ce qu'ils n'auraient pas fait avec une connexion classique. L'Internet haut débit, c'est aussi, contrairement à ce que d'aucuns diront, un excellent medium pour étoffer ses relations sociales. Les internautes sondés par AOL sont ainsi 81 % à déclarer qu'ils sont restés en contact, grâce au courrier électronique, avec certaines personnes dont ils n'auraient pas eu de nouvelles autrement et qu'ils auraient fini par perdre de vue.

Atelier

La chaîne américaine Piggly Wiggly expérimente le paiement par scanner digital
Jeudi, 03/02/2005 - 00:00

L'enseigne Piggly Wiggly vient de lancer un test de paiement par « finger scanning ». Le principe est simple : le consommateur qui souhaite s'inscrire scanne ses empreintes digitales, donne toutes ses coordonnées de paiement (compte bancaire, carte de crédit, toutes données sécurisées dans une datawarehouse gérée par IBM). Pour payer, dans n'importe quel magasin, il pose son index sur un appareil qui va reconnaître sa signature biométrique ; ensuite il tape son code d'accès et choisit à chaque fois son mode de paiement. Piggly Wiggly teste ce système sur une cinquantaine de caisses dans quatre magasins et envisage de l'étendre à la totalité de ses magasins dans les deux ans à venir. Selon Pay By Touch, concepteur su système, le finger scanning permet de gagner beaucoup de temps aux caisses, environ 33 %. Le prix unitaire du finger scanner est de 50 dollars, auxquels il faut ajouter les coûts de transaction, modiques selon le fabricant. Selon une étude menée par Supermarket News, 18 % des distributeurs souhaitent tester le finger scanning en 2004, versus 4 % en 2003. Une autre enseigne Pick'n Save teste également ce système.

Supermarket News

Le site A9.com propose aux Américains les pages jaunes en images
Jeudi, 03/02/2005 - 00:00

Le site A9.com, filiale du groupe américain Amazon spécialisée dans la recherche en ligne, propose depuis cette semaine aux internautes américains de voir en images le commerce de proximité où ils souhaitent se rendre et le parcours pour y accéder. Pour créer ces pages jaunes virtuelles d'un nouveau type, Amazon dit avoir pris plus de 20 millions de photos numériques en parcourant en voiture les rues de 10 métropoles américaines, dont New York, San Francisco, Los Angeles, Boston, Chicago ou encore Atlanta. Cette nouvelle application est accessible à l'adresse A9.com en cliquant sur le lien "Yellow Pages" et la recherche se fait ensuite par type de commerce. Après avoir entré par exemple le nom d'une chaîne de librairies rivale d'Amazon.com, ainsi qu'éventuellement un code postal pour mieux cibler un quartier précis d'une grande ville, les résultats s'affichent aux côtés d'une carte constellée de numéros.

Certaines références sont dotées d'images pour visualiser l'emplacement de la librairie en question. Et uniquement en déplaçant la souris d'une image sur l'autre l'internaute se déplace virtuellement dans la rue vers la bonne adresse. Amazon a lancé fin 2003 le site A9.com, misant sur le fait qu'un outil de recherche concurrent des populaires Google, Yahoo! (ou depuis lors MSN Search) l'aide à diriger les internautes vers Amazon.com ou des sites partenaires. De son côté Google a lancé cette semaine, d'abord dans une version expérimentale en anglais, sa nouvelle application Google Video permettant d'obtenir en ligne images animées ou programmation TV liées au mot-clé recherché.

A9.com->http://a9.com/-/home.jsp?nc=1]

3 entreprises françaises sur 4 utilisent le haut débit
Jeudi, 03/02/2005 - 00:00

Après les particuliers, c'est au tour des entreprises en général et des PME en particulier d'être séduites par les connections Internet haut débit... Désormais conscientes des facilités professionnelles que le Web peut leur procurer, elles délaissent ainsi de plus en plus les autres types d'accès à Internet. Les chiffres publiés par BNP Paribas Lease dans son étude font apparaître que 75 % (62 % en 2003) des PME utilisent une connexion de type ADSL, ligne spécialisée, BLR ou câble contre 14 % qui se servent encore d'un modem simple ou 13 % d'une ligne numéris....

"Paradoxalement ce sont les plus petites PME qui tirent davantage parti de la dimension commerciale. Elles ont plus orienté leur site sur les services aux clients » constate cette étude. Dans le détail, on constate que les entreprises d'imprimerie (97 %), de conseil (95%), des services liés à l'immobilier (89 %) et du commerce de gros non alimentaire (88%) sont dans le peloton de têtes quant à l'adoption du haut débit. On remarque aussi, sans surprise, que 84 % des PME utilisent intensivement le courrier électronique tandis que 77 % d'entres elles se servent de leur Internet pour effectuer des recherches d'informations professionnelles, 68 % pour des opérations bancaires ou encore 35 % pour consulter des sites de recrutement en vue d'une éventuelle embauche. Des chiffres qui nous placent en 2ème position au niveau européen, derrière l'Espagne (89 %) mais devant l'Italie (64 %) et l'Allemagne (46 %)...

PC Boost

Haut débit : avis favorable du Conseil de la concurrence sur l'analyse de l'ART
Jeudi, 03/02/2005 - 00:00

Le Conseil de la concurrence a rendu mardi un avis favorable sur l'analyse de l'Autorité de régulation des télécommunications (ART) des marché de gros des accès haut débit à l'internet, qui réclame à France Télécom des compensations pour sa position dominante sur ce marché. Cet avis marque une nouvelle étape dans le processus d'ouverture à la concurrence de ce marché en plein essor. Bruxelles devra trancher dans quelques semaines et France Télécom pourrait par exemple se voir interdire certains tarifs jugés trop bas par rapport à ses concurrents.

L'ART, qui avait saisi le Conseil de la concurrence en octobre, propose d'abord de ne pas réguler le marché de détail du haut débit mais seulement le marché de gros. Une position approuvée par le Conseil de la concurrence pour qui "le contrôle a priori des tarifs sur les marchés de détail" ne "peut se justifier que dans des cas exceptionnels". Dans les marchés de gros, le Conseil de la concurrence juge comme l'ART que France Télécom est un opérateur dominant car sa taille, sa présence sur l'ensemble des marchés des communications et sa maîtrise de l'accès direct au client lui permettent d'agir de façon indépendante de ses concurrents et des consommateurs.

La définition de France Télécom comme opérateur dominant va conduire l'ART à lui imposer des compensations. L'ART doit maintenant transmettre le dossier à la Commission européenne, qui a six semaines pour répondre. Hors un veto européen, ce qui est rare, l'analyse de l'ART se traduira en décisions concrètes.

AFP

^ Haut
Matière
Matière et Energie
Hewlett-Packard annonce un successeur moléculaire au transistor
Jeudi, 03/02/2005 - 00:00

Hewlett-Packard a annoncé la découverte par ses chercheurs d'une nouvelle technologie qui pourrait remplacer à terme le transistor, un composant électronique fondamental utilisé dans les circuits intégrés des ordinateurs. Dans un article publié mardi dans le Journal of Applied Physics, le numéro deux mondial des PC indique que trois membres de son laboratoire de recherche quantique, le Quantum Science Research de Palo Alto, ont fait la démonstration d'une "crossbar latch" (jonction transversale) dont les propriétés physiques permettent de véhiculer un signal électrique dans les deux sens, sans l'aide de transistors.

Cette jonction a une taille de seulement 2 nanomètres (contre 60 nanomètres pour les transistors les plus petits). Elle est capable de réaliser l'opération logique de base NOT. Le dispositif consiste en un simple fil croisé avec deux autres fils avec des liaisons à l'échelle moléculaire à leurs intersections. L'application d'impulsions électriques permet de faire appliquer l'opération NOT. Avec les opérations AND et OR, l'opération NOT constitue l'une des bases logiques de l'informatique. Du coup, le dispositif développé par les chercheurs de HP pourrait bien servir de base à une nouvelle forme d'informatique, encore plus intégrée que les composants électroniques actuels.

La firme californienne a déclaré dans un communiqué que sa technologie pourrait permettre de fabriquer des ordinateurs mille fois plus puissants que ceux qui existent aujourd'hui. Phil Kuekes, un des coauteurs de l'article, indique dans un rapport, que les transistors devraient continuer dans les prochaines années à être utilisés sur des circuits de silicium conventionnels. Mais il ajoute : "En dessous de 15 nanomètres, la physique actuelle appliquée dans les semi-conducteurs ne marche plus. Notre technologie pourra permettre de franchir cette limite et pourra remplacer les transistors des ordinateurs, de la même façon que ces derniers ont fait de l'ombre aux tubes électroniques et aux commutateurs électromagnétiques." HP envisage de commercialiser en 2012 des puces hybrides combinant ces nouveaux composants nanométriques avec des transistors conventionnels. Mais il faudra sans doute attendre 2020 pour que cette nouvelle technologie ne supplante complètement le transistor

Article @RTFlash

HP

JAP

L'énergie solaire pour traiter l'eau
Jeudi, 03/02/2005 - 00:00

C'est entre mer et sierra, au milieu des cultures sous serre de la région d'Almeria, en Andalousie, que les ingénieurs Sixto Malato et Julian Blanco ont mis en place une technologie de pointe pour traiter les eaux contaminées grâce à l'énergie solaire. Leur découverte vient d'être récompensée par la communauté scientifique européenne, qui leur a décerné, le 13 janvier dernier à Monte Carlo, le grand prix du jury européen. Une récompense qui souligne l'originalité d'une recherche, qui a fait l'objet de plus de quatorze ans de travail et financée en grande partie par des fonds de projets européens. A la différence d'expériences scientifiques réalisées pour la plupart à une échelle réduite, la dépollution de l'eau par photocatalyse mise au point par les deux Espagnols est aujourd'hui mise en application à un niveau industriel. Les agriculteurs d'El Ejido, une grosse bourgade près d'Almeria, qui produit chaque année 1,5 million de tonnes par an de légumes, en sont les premiers utilisateurs.

Chaque année, les maraîchers utilisent deux millions de bidons de pesticide dont plus de la moitié est désormais traitée dans une des usines de la Plate-forme solaire d'Almeria. Avant d'être recyclés, les bidons sont nettoyés à grande eau. Le liquide contaminé passe ensuite dans des tubes superposés sur des panneaux solaires de vingt mètres, avant d'être reversé dans la mer, une fois purifié. «L'énergie solaire est à l'origine d'un processus photochimique produisant une dégradation des pesticides», explique Sixto Malato. Elle déclenche la minéralisation de composés organiques industriels, non biodégradables et toxiques, sans ajout chimique. A la fin, il ne reste plus que du dioxyde de carbone et des sels inorganiques, non polluants. Selon Sixto Malato, la difficulté de cette technique réside notamment dans la «récupération» des rayons ultraviolets ou de la partie du spectre lumineux le plus proche des ultraviolets. «Notre technique est aujourd'hui au point et suscite l'intérêt de plusieurs chercheurs internationaux, dont le département de l'Energie américain», note Sixto Malato. Cette technologie peut en effet être appliquée à la décontamination des eaux de traitement des produits pharmaceutiques et des colorants. Dans l'avenir, elle pourrait aussi permettre la purification d'eau potable en zone rurale dans les pays émergents, uniquement par le biais de la lumière solaire sans ajout chimique.

Figaro

La moitié de l'énergie mondiale pourrait être renouvelable en 2030
Jeudi, 03/02/2005 - 00:00

Selon un chercheur de l'Université de Victoria, en Colombie-Britannique, la moitié du parc énergétique mondial pourrait être constituée d'énergies renouvelables d'ici 2030. Ned Djilali, directeur de l'Institut des systèmes énergétiques intégrés de l'Université de Victoria, estime donc qu'il est impératif de poursuivre la recherche dans le domaine. Avec son équipe, le professeur Djilali développe des piles à hydrogène qui pourront alimenter, d'ici quelques années, des véhicules, des ordinateurs, voire des maisons entières. À son avis, la recherche sur les énergies renouvelables, qu'il s'agisse de l'hydrogène, du vent ou des marées, est indispensable à notre civilisation. « Il n'y a aucune autre alternative à long terme, dit-il. Il faut se reporter de plus en plus sur les énergies durables, les énergies renouvelables. » Selon lui, même si la recherche n'est pas terminée, d'importantes transformations sont à prévoir dans le secteur énergétique. M. Djilali indique qu'à l'heure actuelle, le monde se trouve dans une période de transition et ses principales sources d'énergie changeront progressivement. « Combien de temps cela prendra pour avoir une conversion du parc énergétique qui soit substantielle, disons à 50 % ? Je pense que ce sera d'ici 2030. » Ned Djilali croit que le défi sera avant tout d'intégrer les nouvelles sources d'énergie aux réseaux d'approvisionnement déjà existants. À titre d'exemple, il rappelle que la Colombie-Britannique et l'État de Washington ont lancé un projet d'autoroute de l'hydrogène qui permettra aux véhicules fonctionnant grâce à ce type de carburant de s'approvisionner aussi facilement que pour l'essence conventionnelle.

RC

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Conférence internationale d'Exeter : le changement climatique a déjà commencé
Jeudi, 03/02/2005 - 00:00

La complexe machine climatique a déjà commencé à se dérégler sous l'effet des gaz à effet de serre relâchés par l'homme dans l'atmosphère. Tel est le message délivré par les experts réunis mardi 1er février à l'ouverture de la conférence scientifique internationale sur le climat. Il n'y a plus aucun doute que le climat de la planète change", a martelé le président de la conférence, Dennis Tirpak, devant une centaine de scientifiques réunis pour cette conférence internationale au siège de l'Office météorologique britannique, à Exeter (sud-ouest). "Neuf des dix dernières années se sont révélées les plus chaudes depuis le début des relevés météorologiques en 1861", a-t-il précisé. Il a pointé les effets dévastateurs de la canicule qui a frappé l'Europe en août 2003, provoquant près de 30 000 morts et 30 milliards de dollars (23 milliards d'euros) de dégâts.

"Depuis les années 1970, le changement climatique a accru la fréquence et l'intensité des épisodes de sécheresse", a-t-il remarqué. "Les écosystèmes terrestres et marins sont modifiés, avec des conséquences difficiles à prédire", ajoute-t-il. En Asie, "la répétition des inondations et sécheresses est déjà visible", a estimé Rajendra Pachauri, président du groupe intergouvernemental d'experts sur l'évolution du climat (GIEC), qui travaille sous l'égide de l'ONU.

La fonte de la glace de l'Antarctique est responsable d'au moins 15 % de l'élévation de 2 mm du niveau de la mer par an induit par le réchauffement climatique, selon le scientifique britannique Chris Rapley. Toutefois, l'impact du réchauffement climatique est loin d'être uniforme : une partie de l'Antarctique connaît actuellement une baisse de température, selon les experts. Le niveau moyen des océans a déjà augmenté de 10 à 20 cm en un siècle et devrait s'élever d'ici à 2100 de 9 à 88 cm, du fait de la hausse de la température et de la fonte des glaciers et calottes glaciaires, selon le GIEC. La fonte possible du Groenland inquiète beaucoup les experts. Certaines régions côtières commencent déjà à fondre, et une hausse locale de température de 2,7 degrés entraînerait une fonte massive de la couche de glace.

La fonte totale du Groenland se traduirait par une hausse de 7 mètres du niveau des océans, sur plusieurs siècles. "Il est fort possible que le point de bascule intervienne dans les tout prochains siècles", a estimé Jason Lowe du Centre Peter Hadley sur le climat. Même si l'homme parvenait à stabiliser les concentrations de gaz à effet de serre dans l'atmosphère, le niveau de la mer continuerait de monter "pendant plus de 1 000 ans", remarque-t-il. Les experts du GIEC prévoient une hausse de 1,4 à 5,8 degrés de la température moyenne à la surface de la Terre d'ici la fin du siècle, sous l'effet des gaz libérés dans l'atmosphère par les activités humaines, principalement le CO2 (gaz carbonique) relâché par les énergies fossiles telles que le charbon, le pétrole et le gaz.

BBC

Le réchauffement climatique pourrait être le double de ce qui est attendu
Jeudi, 03/02/2005 - 00:00

Les mises en garde et les déclarations alarmistes des experts réunis cette semaine à la conférence internationale sur le climat d'Exeter se sont trouvées confortées par les résultats d'une nouvelle étude publiée dans la revue britannique Nature. Selon cette étude, le réchauffement climatique, en cas de doublement des gaz à effet de serre, pourrait être deux fois plus important que prévu jusqu'à présent, pouvant atteindre plus de 11 degrés C et non 5,8. L'équipe du Pr David Stainforth, de l'université d'Oxford, estime en s'appuyant sur plus de 2.000 modélisations que les températures moyennes pourraient augmenter de 1,9 à 11,5 degrés C si le taux de gaz carbonique double, alors que les estimations officielles actuelles vont de 1,4 à 5,8 degrés. La plupart des modèles de l'étude, notent ses auteurs, fixent l'augmentation à environ 3,4 degrés, peu l'estimant à moins de 2 degrés et 4,8 % à plus de 8 degrés.

Les chercheurs ont basé leurs résultats sur le projet climateprediction.net dans lequel ils avaient confié à des dizaines de milliers de personnes des données pour effectuer des simulations sur leurs ordinateurs personnels. Chaque participant, écolier, scientifique... a rendu son propre modèle, suivant les différents paramètres qui lui avaient été fournis. Seuls ont été gardés les modèles des personnes dont l'ordinateur avait simulé de manière réaliste le climat dans le passé. Cette étude, soulignent ses auteurs, s'appuie sur les premiers résultats reçus - plus de 2.000 -, mais le projet se poursuit avec les simulations encore en cours. "Ces résultats représentent une étape critique pour une meilleure compréhension des réponses potentielles à apporter à l'élévation des niveaux de gaz à effet de serre", notent les chercheurs.

La température terrestre pourrait franchir d'ici une vingtaine d'années un seuil critique au-delà duquel de dangereux bouleversements climatiques sont à craindre, met en garde l'organisation de défense de l'environnement WWF. "Si rien n'est fait, la Terre va dépasser de 2° Celsius les niveaux pré-industriels à une date comprise entre 2026 et 2060", estime le WWF dans un rapport commandé à Mark New, climatologue à l'université d'Oxford, en Grande-Bretagne.

De nombreux animaux arctiques, dont les ours polaires et certains types de phoques pourraient disparaître au cours des vingt prochaines années en raison des effets du réchauffement climatique de la planète, a annoncé dimanche le World wild fund for nature (WWF). Certains modes de vie traditionnels des peuples indigènes de l'Arctique seraient également menacés si le monde "n'adopte pas des mesures drastiques pour atténuer le changement climatique", estime le WWF. "Si nous n'agissons pas immédiatement l'Arctique va rapidement devenir méconnaissable", a affirmé Tonje Folkestad, spécialiste du changement climatique au WWF. "Les ours polaires feront partie de l'Histoire, et nos petits-enfants n'en entendront parler que dans les livres."

Aux alentours de 2026, la terre pourrait connaître des températures en moyenne supérieures de 2 degrés (Celcius) par rapport à ce qu'elles étaient en 1750, selon une étude commandée par le WWF pour la conférence sur le changement climatique qui a eu lieu du 1er au 3 février à Exeter en Angleterre. La zone recouverte par la banquise d'été dans l'Arctique réduit déjà de 9,2 % par décennie et "disparaîtra entièrement d'ici la fin de ce siècle" à moins que la situation ne change, a souligné le WWF. Cela menace l'existence des ours polaires et des phoques qui vivent sur la banquise, et en conséquence prive les communautés indigènes d'une de leurs ressources alimentaires principales.

Les zones boisées s'étendront plus au nord où il fait plus chaud, ce qui déplace l'habitat d'oiseaux comme les corbeaux, les bruants des neiges, les faucons, les plongeons arctiques, les bécasseaux et les hirondelles des mers. Des recherches publiées en novembre 2004 par le Conseil de l'Arctique, comprenant le Canada, le Danemark, la Finlande, l'Islande, la Norvège, la Russie, la Suède et les Etats-Unis, montraient que la masse moyenne de la banquise dans l'Arctique a réduit de 8 % en 30 ans. Les Etats-Unis sont le seul pays de la région arctique à ne pas avoir signé le protocole de Kyoto. La Russie a quant à elle ratifié l'accord proposé par les Nations unies pour lutter contre le réchauffement de la planète en novembre 2004.

Oxford

Nature

BBC




^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Traitement de l'obésité : de nouvelles pistes thérapeutiques
Jeudi, 03/02/2005 - 00:00

L'obésité est un facteur de risque élevé pour le diabète de type II et pour les maladies cardio-vasculaires. Son importance est directement liée au développement excessif du tissu adipeux. Une des principales fonctions des adipocytes (les cellules graisseuses qui composent ce tissu) est le stockage des triglycérides en vue de leur restitution en cas de besoin. Les mécanismes moléculaires, normaux et pathologiques, qui contrôlent le recrutement de ces cellules restent cependant obscurs.

Les ERK sont des protéines qui appartiennent à la famille des protéines kinases. Ces molécules ont la particularité d'ajouter des groupements phosphates sur d'autres molécules entraînant une activation ou une inactivation de celles-ci. Les ERK sont régulées par un ensemble de réactions en cascades qui se mettent en place à l'intérieur de la cellule après un message extra cellulaire. La voie de signalisation intracellulaire ERK, qui aboutit à l'activation des kinases ERK1 et ERK2, joue un rôle clé dans de nombreuses fonctions cellulaires essentielles comme la multiplication et la différenciation.

L'équipe de Bernard Binetruy a recherché le rôle de la kinase ERK1 dans le développement du tissu adipeux en analysant les souris génétiquement modifiées par l'invalidation du gène codant cette protéine (des souris dites ERK1-/-). Les souris étudiées (issues du laboratoire CNRS dirigé par le Dr J. Pouysségur, coauteur de l'article) présentent une adiposité réduite et moins d'adipocytes matures par rapport à des souris non modifiées.

Afin de déterminer les mécanismes cellulaires et moléculaires responsables de l'adiposité réduite des souris ERK1-/-, l'équipe Inserm a analysé la capacité de différenciation en adipocyte des cellules dépourvues de ce gène. Comparés aux cellules contrôles, les précurseurs cellulaires embryonnaires ou adultes isolés d'animaux ERK1-/- présentent une différenciation en adipocyte réduite. De plus, cette étude montre que la kinase ERK2 est impliquée dans la prolifération de ces cellules mais non dans leur capacité à former des adipocytes.

Les résultats de l'équipe de l'Inserm établissent un lien entre la kinase ERK1, la régulation de la différenciation des cellules graisseuses, l'adiposité des animaux et l'obésité provoquée par un régime riche en graisses. En ciblant le développement du tissu adipeux en inhibant de façon spécifique ERK1 sans affecter ERK2, les chercheurs proposent ainsi une nouvelle cible d'approche thérapeutique de l'obésité.

Inserm

Le bout du tunnel pour la cécité ?
Jeudi, 03/02/2005 - 00:00

Des chercheurs britanniques ont mis à jour un moyen de rendre certaines cellules de la rétine photo-réceptives, c'est-à-dire sensibles à la lumière. Ce travail très important pourrait être à l'origine de futurs traitements contre la cécité. Le Dr Rob Lucas et ses collègues, de l'Université de Manchester, ont travaillé à partir d'une protéine-clé : la mélanopsine, impliquée dans la détection de la lumière par l'oeil. Une protéine qui d'ailleurs, intervient également dans le fonctionnement de notre horloge biologique. "Nous avons introduit de la mélanopsine dans des cellules qui n'en utilisent pas habituellement" explique Lucas. "Nous avons ainsi découvert que ces cellules devenaient photosensibles. Et qu'elles étaient capables d'émettre un signal biologique. Voilà pourquoi ce travail pourrait avoir des applications dans le traitement de certaines formes de cécité".

Université de Manchester

Vers une pilule contraceptive masculine
Jeudi, 03/02/2005 - 00:00

La pilule contraceptive masculine pourrait bien voir le jour : un accord vient d'être signé entre une société norvégienne et l'école de médecine de l'Université du Massachusetts dans le but de développer la recherche d'une pilule capable de bloquer les capacités du spermatozoïde à nager dans les voies génitales féminines et à féconder un ovule. Pour les chercheurs de l'Université du Massachusetts, à Worcester, cette approche scientifique présente moins de risques d'effets secondaires que la manipulation des hormones masculines, une voie qui a déjà séduit de nombreuses équipes de recherche désireuses de trouver une alternative aux préservatifs et à la vasectomie. "A priori, il ne devrait pas y avoir d'effets secondaires puisqu'il n'y a pas d'autre place dans l'organisme où ces protéines sont fabriquées", a expliqué le Dr Louis De Paolo, directeur adjoint de l'Institut national de la santé de l'enfant et du développement humain, une branche des Institut nationaux de santé (NHI) qui financent la recherche sur la contraception masculine.

"Nous sommes très enthousiastes parce que les pilules contraceptives disponibles jusqu'alors étaient à base d'hormones circulant dans l'organisme et entraînant des effets secondaires ailleurs que dans la zone génitale", a ajouté Bjorn Steen Skalhegg, cofondateur de la société norvégienne SpermaTech, qui participe au projet. Les chercheurs rappellent que les risques d'une hormonothérapie sont nombreux : cette thérapeutique peut abîmer la prostate et provoquer une éjaculation rétrograde.

SpermaTech, qui cherche à mettre au point une molécule capable de bloquer la protéine Cs, s'est déjà mise en rapport avec de grands groupes dans le but de trouver un partenaire pour son développement. Un tel médicament pourrait prendre la forme d'une pilule ou d'un implant, d'un patch ou d'un gel, et demander une décennie pour sa fabrication. A terme, il appartiendra aux scientifiques de trouver une molécule capable de bloquer la protéine dans le sperme, sans en bloquer d'autres dans l'organisme", a indiqué le Dr John Amory, professeur assistant de médecine à l'Université de Washington. En plus des effets secondaires moindres, un tel produit agirait plus rapidement qu'une hormonothérapie, qui nécessite deux à trois mois pour agir sur la stérilité masculine, les cellules spermatiques demandant 72 jours pour arriver à maturité.

UMMS

BR

Des neurones moteurs de la moelle épinière issus de cellules souches
Jeudi, 03/02/2005 - 00:00

Des cellules souches embryonnaires sont prometteuses : elles recèlent l'étonnante capacité de se différencier en dizaines de cellules de l'organisme. Encore faut-il contrôler cette différentiation. En obtenant des neurones moteurs de la moelle épinière à partir de ces cellules souches embryonnaires humaines (CSEh), l'équipe de Su-Chun Zhang estime avoir franchi un pas important dans ce domaine. Obtenir des neurones ayant une fonction bien précise à partir de CSE est encore un défi. Des neurones dopaminergiques ont déjà été produits. Zhang et ses collègues de l'Université de Wisconsin-Madison (USA) ont réussi à obtenir des motoneurones de la moelle épinière, des neurones qui permettent de faire circuler l'information entre le cerveau et la moelle et qui sont indispensables à chaque mouvement de notre corps. Les chercheurs rapportent dans la revue Nature Biotechnology les tâtonnements qui leur ont finalement permis de trouver la délicate recette.

Primo : les motoneurones apparaissent tôt dans le développement de l'embryon. Il faut donc travailler à partir de cellules souches âgées d'environ 3 à 4 semaines seulement, estiment les auteurs. La fenêtre est étroite. Secundo : le développement de la cellule souche en motoneurone spinal passe par plusieurs étapes nécessitant différents milieux de culture bien précis. En publiant leur recette, Zhang et ses collègues espèrent faire avancer des recherches qui permettront peut-être un jour de soigner des maladies comme la sclérose latérale amyotrophique.

Wired

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top