RTFlash

RTFLASH Recherche & Technologie
NUMERO 474
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 15 Mai 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le mobile est au coeur de l'Internet des objets
Vers des capacités de stockage mille fois supérieures
Les professeurs virtuels réagiront aux émotions des élèves
Le CEA et le CNRS s'unissent pour augmenter leur puissance de calcul
Microsoft teste la formule de l'abonnement pour sa suite Office
Consultations médicales et échographies par satellite
Avicca Colloque TRIP 2008 : Territoires et Réseaux d'Initiative Publique "Tous pour le très haut débit, le très haut débit pour tous "
Avenir
Des robots-guerriers en 2025
Matière
Une pile à hydrogène pour alimenter sa maison
Espace
La Nasa veut construire des bases sur la Lune pour des séjours de 6 mois
L'astrophycisien Stephen Hawking plaide pour une vraie conquête de l'espace
Terre
L'accumulation des émissions de gaz à effet de serre s'accélère, selon des estimations
La glace de l'Arctique fond plus vite que prévu
Vivant
Le maintien du métabolisme du glucose permettrait aux cellules cancéreuses d'éviter l'apoptose
Cellules cancéreuses : découverte d'un nouveau mécanisme de communication
La régulation du sommeil se programme dans les premières années de la vie
Edito
QUE FAIRE POUR QUE TOUS LES FRANÇAIS SOIENT CONNECTÉS Á UNE FIBRE OPTIQUE ? Editorial de synthèse rédigé pour célébrer le 10ème Anniversaire d'@RT Flash. (Le N° 1 de notre Lettre hebdomadaire était mis en ligne le 17 Mai 1998).



A l'encontre de l'opinion qui dominait il y a 10 ans, tous les spécialistes sont maintenant convaincus que la place de la France dans le monde dépendra de sa capacité, dans le quart de siècle qui vient (le temps d'une génération) à connecter chaque Français à une fibre optique. Beaucoup de nos concitoyens ne soupçonnent pas encore que cette connexion à une fibre optique leur sera aussi importante, dans la vie de tous les jours, que peut l'être, aujourd'hui, leur raccordement au réseau électrique ou au réseau d'eau potable...

En France, depuis 25 ans, la télédistribution est passée prioritairement par l'hertzien, le satellite et maintenant la TNT, et non par les réseaux câblés.

Cela fait qu'à l'encontre de beaucoup d'autres pays (voir nos voisins Allemands ou Belges où plus de 90 % de la population est connectée à un réseau câblé !) un seul fil porteur de signal (le fil téléphonique) atteint le foyer Français, alors que dans beaucoup d'autres pays, il y a 2 supports physiques qui apportent le signal : le fil du téléphone et le câble.

Dans les pays dont l'histoire des télécoms repose sur un opérateur dominant (ce qui est le cas de la plupart des pays européens) les tarifs attractifs des offres ADSL « Triple Play » (surtout en France) ne permettent pas aux opérateurs alternatifs (sauf Numéricable qui repose sur un autre modèle économique) de dégager suffisamment de marge pour investir lourdement dans le déploiement intégral de réseaux optiques.

Le consommateur français largement habitué maintenant à ne débourser que 30 euros par mois pour accéder à un service Triple Play haut débit, ne semble pas être prêt à payer beaucoup plus (surtout dans le débat actuel sur le pouvoir d'achat) pour passer de 20 mégas à 100 mégas et demain au giga.

Aussi, les divers opérateurs présents sur le marché vont devoir définir un modèle économique qui leur permettra de rester bénéficiaires tout en allant vers le très haut débit optique avec une stabilité de prix (c'est le défi qu'à dû relever la micro-informatique depuis 30 ans !).

Tout laisse à penser que l'équation ne sera pas facile à résoudre. Il y aura beaucoup de casse dans ce transfert technologique inexorable.

La concurrence entre tous les opérateurs devenant de plus en plus vive dans ces temps prochains dans l'accès au très haut débit, les habitants des grandes villes, là où tous les grands opérateurs (France télécom, Numéricable, Free, Neuf, etc...) sont déjà présents, n'ont pas de soucis à se faire : ils seront tous, dans les 5 ans qui viennent, desservis par un (sinon deux) réseau(x) optique(s) très haut débit.

Mais qu'en sera-t-il dans le reste de la France, des habitants des petites villes et du monde rural qui représente quand même plus d'un tiers de la population de notre Pays ?

En raison de son Histoire, de sa géographie (n'oublions pas qu'avec ses 540.000 Km², la France est de loin le plus grand territoire d'Europe !), mais aussi son organisation politique et administrative, seuls de forts partenariats publics/privés permettront à notre Pays d'apporter une solution satisfaisante à cette lancinante question.

Encore faut-il, pour que la démarche soit couronnée de succès, que du « côté public » les partenaires soient les bons. L'Etat n'a malheureusement plus les moyens, comme il l'avait encore dans les années 1970 avec le plan téléphone, d'initier et de financer un plan national d'opticalisation de l'ensemble de son territoire. Les régions sont souvent géographiquement trop grandes et trop disparates (sauf pour quelques unes) pour y conduire une politique cohérente d'aménagement numérique allant jusqu'à chacun de ses habitants. Les villes, surtout les plus grandes, n'ont aucune envie de s'investir financièrement dans les réseaux optiques, puisque le marché réalise déjà, sans aide publique, tous les investissements nécessaires. Restent donc les petites villes, les territoires ruraux et les intercommunalités qui eux ont besoin et envie de s'investir dans l'opticalisation de leur territoire. Mais, malheureusement, ces territoires n'ont souvent pas les moyens de faire face aux immenses dépenses auxquelles ils seraient confrontés. Dans ces déserts d'incapacités d'investissements, ci et là, des oasis de prospérités liés ici aux revenus d'une forte Taxe Professionnelle, là aux financements propres liés à certaines activités (villes d'eaux, casinos, etc...) ont permis depuis 25 ans de voir se créer des centaines de micro-poches équipées de réseaux câblés. Mais chacun ressent bien aujourd'hui que ces opérations en petits morceaux ne répondent plus du tout au défi de l'avenir.

Aussi, comme cela s'est vérifié à de nombreuses reprises, depuis plus de 2 siècles, avec la construction de la plupart des réseaux, que ce soit les réseaux routiers, les réseaux d'eau ou d'électricité, seul le Département avec son chef lieu comme ses plus petites communes, avec cette obligation de solidarité entre tous ses habitants sur laquelle il se fonde, est à la bonne échelle pour la construction de ces réseaux optiques du futur. Sur les territoires départementaux, les moindres coûts, par habitant, générés pour équiper les villes, permettent de dégager des capacités supplémentaires pour équiper le monde rural.

C'est bien sur cette solidarité départementale, entre des milieux urbains denses et des territoires ruraux à l'habitat dispersé, qu'il faut rechercher le modèle économique sur lequel s'appuiera la construction des réseaux optiques du futur.

Toutefois, chacun sait qu'avec les divers transferts de charges réalisés par l'Etat depuis une quinzaine d'années (RMI, Personnes âgées, Handicapés, routes, etc...) les Départements eux aussi ne disposent plus des mêmes ressources, pour l'investissement, qu'au début des années 1990.

Aussi, tout opérateur qui, actuellement, proposerait à un Département, un plan d'investissement pour construire un réseau optique global, aurait peu de chance (sauf peut-être pour quelques départements encore riches !) d'être écouté si sa demande se résumait au versement d'une subvention.

Cela est malheureusement d'autant plus vrai que la plupart des Départements ayant fait preuve d'initiative et de bonne volonté, dans ces 4 dernières années, dans ce domaine des TIC en appliquant l'article L1425-1 du Code Général des Collectivités Territoriales (voté avec la LCEN en juin 2004), ont été mal conseillés et se sont souvent engagés sur des voies sans issue. Ces Départements, souvent au travers de Délégation de Service Public (DSP) s'étirant sur une vingtaine d'années, ont investi plusieurs milliards d'euros pour dégrouper des DSLAM de France Télécom et pour déployer des technologies radio qui, les uns et les autres seront obsolètes avant 10 ans. Dans 15 ans, ne resteront valables et utiles de ces investissements, que quelques milliers de kilomètres de fibres optiques pour relier la DSLAM. C'est bien cher payé le kilomètre de fibre optique !

Le Cabinet Tactis, dans une analyse rédigée par son Président, Stéphane Lelux et par son Directeur de Développement, Laurent Laganier, et rendue publique, il y a quelques semaines, affirme qu'il n'y a pas de modèle économique qui justifierait les énormes investissements nécessaires pour la construction d'une nouvelle infrastructure FTTH couvrant l'ensemble du territoire national.

S'exprimant en économistes qu'ils sont, ils ont raison. Mais répliquant en politique que je reste, j'affirme qu'ils ont tort, et je vais essayer de le démontrer.

Si au début des années 1930, nos anciens avaient tenu le même raisonnement que nos économistes, face à l'électrification du monde rural, pensez-vous que chaque maison de France, même la plus isolée, disposerait aujourd'hui d'un câble (pourtant autrement difficile que la fibre optique à mettre en oeuvre tant il est dangereux !) pour lui apporter la « fée électricité » ?

Comme nos anciens ont su se montrer imaginatifs et entreprenants, il y a près de 80 ans, pour amener l'électricité partout, il va nous falloir nous monter aussi imaginatifs et entreprenants en ce début de XXIe siècle, pour amener la fibre optique, donc le très haut débit, partout.

Dans ses propositions, le Cabinet Tactis affirme que cela serait faire preuve de « bon sens économique » que de créer une infrastructure optique nationale mutualisée qui serait gérée par une entité indépendante. Si cette proposition peut se révéler pertinente, sous certaines conditions, pour les Départements à dominante rurale (j'y reviendrai d'en quelques instants), je pense que la mise en oeuvre d'une telle solution serait inadéquate dans les Départements à dominante urbaine.

En effet, les acteurs majeurs dans ce domaine de la fibre optique (France Télécom, Numéricable, Free, Neuf, etc...) ont déjà décidé d'investir plusieurs milliards d'euros dans des réseaux concurrents dans les principales villes françaises. Quel serait l'intérêt pour le consommateur français de mutualiser en un seul ensemble ces réseaux concurrents qui, à terme, vont desservir plus de la moitié des Français ?

Si, dans ces départements à dominante urbaine, ne sont mutualisées que les parties rurales de ces futurs réseaux optiques, le bon sens économique nous permet de deviner, même si ces réseaux sont gérés par une entité indépendante, que leur prix de revient avec leur coûts d'investissement (par abonné) nettement plus élevé nous obligerait à constater que l'accès au très haut débit serait beaucoup plus coûteux dans le monde rural que dans les villes. Ce qui serait indubitablement néfaste pour l'avenir.

Ce qu'il nous faut espérer, c'est que la concurrence naissante dans ce domaine du très haut débit entre les acteurs du marché dans le domaine de l'optique se développe et reste forte.

Notre crainte, en cet instant, serait d'être amenés, dans quelques temps, à constater que les investisseurs, après avoir écrémé le marché français en opticalisant les grandes villes décident de tourner leurs regards (et leurs capitaux !) vers d'autres pays, où les réseaux câblés sont beaucoup plus étendus qu'en France et abandonnent les régions de France moins urbanisées.

France Télécom qui, en silence, opticalise depuis plusieurs années l'ensemble de ses NRA en France (même dans le monde rural profond avec ses NRA ZO souvent cofinancés par les Collectivités Locales) se retrouverait alors seule dans le monde rural, et nous serions alors dans une situation hors concurrence sur les infras ce qui, malgré la bonne volonté du politique et de l'ARCEP, amènerait à constater, au bout de quelques années, une différence sensible sur le coût d'accès au très haut débit entre la ville et la campagne.

Ce que je voudrais vous démontrer à l'encontre de ce qu'affirme le Cabinet Tactis dans ses documents, c'est qu'il existe bien, dans les Départements à dominante urbaine, un modèle économique rentable pour tout opérateur global qui investit à la fois dans le monde urbain et dans le monde rural de l'ensemble d'un département.

J'affirme qu'il est d'autant plus facile de trouver ce modèle économique que j'en ai personnellement apporté la preuve dans un territoire, le Département du Rhône, département à dominante urbaine, mais qui compte quand même plus de 300.000 habitants hors agglomération lyonnaise, dont j'étais alors responsable dans ce domaine des nouvelles technologies, et où j'ai fait construire dans les années 1990 le plus grand réseau optique unifié de France.

Quelque 15 ans après la construction de ce réseau, les habitants de Lyon, mais aussi ceux de la plus petite commune du Département (qui compte moins de 100 habitants) peuvent accéder à un triple play à 100 mégas pour moins de 30 euros par mois (il n'y a pas actuellement un autre territoire de France, à l'échelle d'un Département, ou chacun dispose d'une telle bande passante).

Ce réseau dont j'ai initié la réflexion en 1989, auprès du Conseil Général du Rhône, a été construit à partir de 1994 par Time Warner.

Dans le contrat nous liant pour 30 ans, le PDG de Time Warner qui, à l'époque (1993) ne voyait qu'une finalité de télédistribution au réseau qu'il allait construire sur notre département, a accepté de construire un réseau optique étoilé et non arborescent comme cela était jusqu'alors la règle en France, et d'insérer un article prévoyant la gratuité pour tous les usages publics (à l'intérieur du département) qui pourraient être faits avec les nouveaux services qui apparaîtraient sur ce réseau. C'est ainsi que 15 ans plus tard, quelque 1500 bâtiments publics sont tous reliés gratuitement les uns aux autres par un immense Intranet permettant par exemple de connecter tous les collèges en très haut débit à un centre serveur départemental, d'améliorer le fonctionnement des services d'incendie et de secours du département (SDIS), de relier gratuitement les uns aux autres les milliers d'ordinateurs présents dans tous services publics du département, de faire de la télésurveillance de tous les points sensibles, etc...

Les services compétents du Conseil Général du Rhône viennent d'évaluer que toutes les Collectivités Publiques du Rhône avaient réalisé, en 2007, une économie globale de quelque 3.000.000 d'euros qu'elles auraient du verser à un opérateur de télécoms si cette clause de gratuité n'avait pas été insérée dans le contrat.

Ils ont même calculé que l'économie globale devrait atteindre les quelque 6.000.000 d'euros annuels quand, dans trois ans environ, tous les bâtiments publics du Rhône (y compris Lyon) seront connectés à cet immense intranet gratuit.

L'opérateur, Numéricable, qui a repris le contrat de Time Warner, et en respecte toutes les clauses, ne se plaint pas, tout au contraire, de cette règle de gratuité pour tous les usages publics internes au département de ce réseau optique.

En effet, l'expérience montre que, systématiquement, toute collectivité connectée gratuitement à l'Intranet départemental prend auprès de l'opérateur un abonnement payant pour tous les usages externes au Département (internet) de ce réseau optique.

Ainsi, chacun est gagnant.

15 ans après le début de sa construction, nous pouvons maintenant affirmer que le réseau optique du Rhône repose sur un réel modèle économique.

Ce réseau étoilé entièrement optique jusqu'aux points de livraison optique (PLO) sur lesquels ne peuvent être regroupés que 125 utilisateurs potentiels (desservis par un réseau câble coaxial) dessert tout le Département du rhône.

Il aura coûté quelque 1,5 milliard de Francs. Sur ce total, le Département du Rhône a apporté une subvention totale de 500 millions de Francs (33 %). Lorsque la concession se terminera, dans une vingtaine d'années, les collectivités publiques du Rhône auront réalisé une économie globale sur leurs besoins en services de télécommunications qui dépassera le montant global des remboursements de l'emprunt de 500 millions de Francs que le Conseil Général du Rhône a souscrit pour financer 33 % de ce réseau.

Nous sommes bien là devant un réel modèle économique qui, avec le temps, montre qu'il est crédible.

Pourquoi ne pourrions-nous pas appliquer ce modèle pour l'adapter aux autres Départements à dominante urbaine ?

En réponse à une consultation publique lancée par les départements à dominante urbaine, les opérateurs devront conduire leurs réflexions, non plus sur les seules parties urbanisée et rentables du territoire concerné, mais devront y inclure les zones rurales dont le point d'équilibre est impossible à atteindre sans aide publique.

En toute transparence, les opérateurs intéressés devront préciser les coûts réels de construction de ces réseaux optiques. Ils devront préciser la part qu'ils sont prêts à prendre en charge et la somme qu'ils attendent de la collectivité publique pour atteindre un point d'équilibre qui justifierait l'investissement auprès des actionnaires.

Mais si l'opérateur s'arrête à ce niveau dans sa réflexion et ses propositions, il est à craindre, dans le contexte actuel, que la collectivité, malgré l'importance qu'à pour elle la construction de ces réseaux optiques, ne puisse apporter l'aide attendue.

C'est pourquoi, je pense que dans leurs réponses, dorénavant, les opérateurs devront proposer aux collectivités qui apporteront la subvention, des propositions d'économies sur leurs services de télécommunication, afin que dans le temps, ces économies réelles puissent atténuer la charge de remboursement de l'emprunt souscrit pour verser à l'opérateur la subvention demandée. Avec l'importance que va prendre le très haut débit pour aider au maintien à domicile des personnes âgées ou dans la formation des collégiens, population auprès desquelles les Départements assument des responsabilités de plus en plus lourdes, les propositions d'échanges entre constructions des réseaux et services sur ces réseaux vont devenir de plus en plus nombreuses.

Bien entendu, ce modèle ne peut fonctionner que pour les départements à dominante urbaine où la moitié de la population au moins est déjà desservie par plusieurs réseaux (réseaux téléphoniques d'une part, et réseau câblé d'autre part), et où la concurrence (Free, Neuf, Orange, Numericable, etc...) dans les parties urbaines s'exprime totalement. Cette situation concerne une grande partie de la population française et intéresse tous les départements dont l'agglomération chef lieu représente près ou plus de 50 % de la population totale du territoire (Metz pour la Moselle, Le Mans pour la Sarthe, Toulon pour le Var, Saint Etienne pour la Loire, etc...)

Par contre, pour les départements peu peuplés, sur lesquels il n'y a pas suffisamment de populations regroupées permettant (sans aides publiques) de construire des réseaux optiques et de trouver un équilibre financier, il n'existe pas, a priori, comme l'affirme le Cabinet Tactis, de modèle économique pour le FTTH. En effet, dans ces départements géographiquement très étendus et avec des populations très dispersées, où tout serait à construire, les subventions que devrait verser le Conseil général seraient trop importantes pour qu'une simple gratuité des services publics sur ces nouveaux réseaux soit suffisante pour générer des économies assez importantes afin d'équilibrer les dépenses.

En nombre, ces départements à dominante rurale représentent plus de la moitié des départements français.

Aussi, il est impérieux qu'il soit trouvé sans tarder une solution pour ces territoires, car il est indispensable que tous leurs habitants, à l'échéance d'une génération, dans 25 ans, soient tous connectés au très haut débit mondial grâce à une fibre optique.

C'est pourquoi, m'appuyant en cela sur l'Histoire, je préconise que tous les Présidents des Conseils Généraux de France décident, sans tarder, de créer une fédération nationale des Départements participant aux financements des réseaux optiques, comme l'ont fait leurs anciens en 1934 pour l'électrification du Pays en créant la Fédération Nationale des Collectivités Concédantes et de Régies (FNCCR).

La création de cette fédération avait alors eu, surtout après la réunion du Congrès National d'Electrification, qui s'était tenue à Moulins en 1935, un effet d'accélération très important sur l'électrification du monde rural. Cette accélération fut d'autant plus importante que tous les grands élus locaux obtinrent alors d'un Gouvernement qui n'avait pas plus de moyens financiers que celui d'aujourd'hui, la création du Fonds d'Amortissement des Charges d'Electrification (FACE) qui a joué et joue toujours un rôle déterminant dans le financement de l'électrification des zones rurales dans notre Pays. Lors de la création de ce fonds, en 1936, le Parlement décida, devant l'importance des enjeux de faire jouer pleinement la solidarité entre les habitants des villes et ceux des campagnes. Depuis cette époque, tous les consommateurs d'électricité en France, qu'ils habitent les villes ou les campagnes, paient un peu plus cher, de 3 à 5 %, leur kilowatt facturé pour permettre l'électrification des zones rurales difficiles à desservir.

Ce modèle a montré son efficacité depuis plus de 70 ans. Je propose qu'un modèle similaire soit mis en place par le Gouvernement, le Parlement et tous les Départements, pour trouver les moyens de financer la construction en milieu rural de tous les réseaux optiques qui seront nécessaires à ces territoires pour préparer l'avenir.

Il suffirait au Parlement, comme ont su le faire les anciens, il y a 72 ans, pour l'électrification, de voter une petite taxe de quelques euros sur tous les abonnements mensuels haut débit souscrits en France, pour trouver, enfin, les financements nécessaires pour ces investissements déterminants pour l'avenir de notre Pays. Ces fonds seraient gérés par la Fédération Nationale des Départements participant au financement des réseaux optiques et seraient versés aux départements les moins peuplés et les plus pauvres pour les aider à construire leurs réseaux optiques.

Le temps des décisions est maintenant venu.

Les Pays du Monde les plus avancés, que ce soit en Asie, en Amérique ou en Europe du Nord, avancent à grandes enjambées vers l'avenir en construisant de très nombreux réseaux optiques. Le nombre d'abonnés au très haut débit sur fibres optiques (FTTH) vient même de dépasser, il y a quelques mois le nombre d'abonnés par ADSL au Japon.

Ne tergiversons plus. Arrêtons de nous poser la question pour savoir si la fibre optique est le meilleur choix pour l'avenir. De tous les investissements que peuvent actuellement réaliser les collectivités pour préparer l'avenir dans le domaine des nouvelles technologies, la fibre optique est le seul pour lequel nous avons une visibilité sur tout le prochain siècle alors que tous les autres investissements technologiques (cuivre, radio, CPL, etc...) n'ont pas une espérance de vie optimale qui dépasse les 10 ans...

Comme nos anciens ont su le faire pour les routes, le chemin de fer, les canaux, l'eau potable, l'électricité, le téléphone, sachons, tous ensemble, dépassant en cela toute approche partisane, nous mobiliser pour que cette opticalisation intégrale de notre Pays soit la grande aventure de notre temps.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le mobile est au coeur de l'Internet des objets
Vendredi, 16/05/2008 - 00:00

Embarquer un lecteur RFID dans son mobile. C'est le projet sur lequel travaille Nokia, qui publie ses premières recherches dans le rapport "Architecturales Solutions for Mobile RFID Services on Internet of Things". Le constructeur désire développer des solutions hardware à intégrer aux smartphones, en explorant différentes interfaces possibles : USB, Bluetooth... Ce, dans l'optique d'un "Internet des objets" toujours plus étendu. A savoir, assurer une connexion web à tous les objets, au-delà des seuls appareils électroniques. Un système rendu possible entre autres grâce au système de tags RFID. Xavier Dalloz, consultant, indique : "c'est la base de la troisième vague de l'Internet : après celle du trafic, et celle de l'audience, voici celle de l'implication des internautes avec une augmentation spectaculaire du nombre d'objets connectés : on les estime à 14 milliards d'ici à 2012. "Le mobile, en lisant les puces RFID, deviendra alors l'interface entre l'objet, le service et le consommateur.

La tendance actuelle est que quatre grands acteurs se partagent le marché des télécoms : les constructeurs de terminaux, les opérateurs, les fournisseurs de services et enfin les consommateurs. "Ici, Nokia suit la logique de ce qu'a fait Apple avec son iphone : montrer aux opérateurs que les constructeurs de téléphone peuvent aussi guider le marché.

Ce, en prouvant la valeur ajoutée du terminal, le mobile", explique Xavier Dalloz. Le consultant pense cependant que la vraie rupture va cependant arriver avec la data. "Le téléphone de demain, ce sont les datas : on utilisera de plus en plus notre mobile comme un scanner : appareil photo, scan de tags RFID." Une tendance qui nécessitera d'installer des applications au préalable dans le terminal. Ce qui rendra les opérateurs un peu plus dépendants des constructeurs.

"Il deviendra aussi naturel pour l'utilisateur d'avoir un lecteur RFID embarqué dans son téléphone qu'un appareil photo", estime lui aussi Nicolas Pauvre, chef de projet spécialiste de l'Internet des objets chez GS1, organisme de standardisation auprès des entreprises.

Quant aux applications, Xavier Dalloz en évoque plusieurs pour le consommateur : comparatif de prix en direct, partage d'informations en social networking...

Mais ce sont surtout les services d'identification et de personnalisation qui vont représenter l'atout majeur de la RFID sur mobile. "Le consommateur pourra via son téléphone recueillir toutes les informations sur la bouteille d'eau qu'il veut acheter : provenance, date de production, composants, etc.", commente Nicolas Pauvre. "Le mot clef dans ce cas, c'est l'information". Et pour l'entreprise, c'est la visibilité. En attribuant un code unique sur les objets qui sont commercialisés, le système RFID permet d'assurer la traçabilité des produits.

Atelier

Vers des capacités de stockage mille fois supérieures
Vendredi, 16/05/2008 - 00:00

Un iPod amélioré capable de contenir 150 000 fois plus de données que la version commerciale du baladeur. Tel pourrait être le résultat des recherches en nanotechnologies entreprises par des scientifiques de l'Université de Glasgow. Ces derniers ont développé un commutateur à l'échelle de l'atome permettant d'accroître de manière exponentielle les capacités de stockage, et ce, sans qu'aucune modification des dimensions d'un appareil ne soit nécessaire. Ainsi, les chercheurs annoncent être parvenus à insérer près de 500.000 Go de mémoire dans un espace d'environ 6 centimètres carrés.

Pour rappel, la capacité maximale envisageable aujourd'hui est de 3 Go pour une surface équivalente.

A terme, le développement d'une telle technologie pourrait engendrer une génération de micropuces capables d'embarquer plus d'un milliard de transistors, commentent les chercheurs britanniques. "Nos travaux nous ont permis de trouver un moyen potentiel d'accroître les capacités de stockage de façon radicale", a déclaré le professeur Lee Cronin. D'un point de vue technique, cette nouvelle méthode a consisté en l'assemblage d'un nanocluster - groupe de molécules aux dimensions nanométriques - dont les infimes éléments qui le composent ont pu être précisément espacés de 0,32 nanomètres, formant ainsi ce nouveau type de composant dit "commutateur moléculaire". L'appareil peut être aisément manipulé via un champ électrique, précise Lee Cronin. A noter : si l'expérimentation de cette technique s'est avérée concluante, la fabrication de tels composés fait encore face à un certain nombre d'obstacles.

Atelier

Les professeurs virtuels réagiront aux émotions des élèves
Vendredi, 16/05/2008 - 00:00

Elle s'appelle Eve. Elle porte les cheveux courts, des vêtements sport, enseigne les mathématiques et est spécialisée dans l'aide individuelle. Mais elle est loin d'être un professeur comme les autres. Eve est un personnage virtuel : plus qu'un simple logiciel, un avatar très perfectionné capable de détecter, grâce à une webcam, les réactions de son élève et d'adapter sa pédagogie.

Conçu pour les classes d'école primaire par le laboratoire du docteur Abdolhossein Sarrafzadeh, chercheur à l'université Massey d'Auckland (Nouvelle-Zélande), ce système de "tutorat affectif" (Affective Tutoring System, ATS) fonctionne grâce à une base de données d'environ 3 000 vidéos, réalisées auprès de trois professeurs dispensant leurs cours à des élèves âgés de 8 à 9 ans. Gestuelle, paroles et expressions de ces derniers ont été soigneusement décryptées et décodées. Résultat : Eve peut savoir si son élève est angoissé, perdu, en colère... et même s'il triche en comptant sur ses doigts ! La prof virtuelle réagit en conséquence en s'adressant à l'élève avec une voix humaine, agrémentée d'un sourire, d'un geste ou d'une attitude adéquats. Sans prendre véritablement de décisions, elle reproduit ce qu'auraient fait des humains dans une même situation.

"En tant qu'enseignant, je change souvent ma pédagogie quand je sens que les étudiants ne suivent pas. Je pose parfois une question ou reviens sur ce que je disais précédemment en donnant davantage d'explications", indique le docteur Sarrafzadeh, pour qui, "quand nous témoignons d'une émotion devant quelqu'un, nous nous attendons à ne pas être ignoré". A ses yeux, la même exigence pourrait être espérée des ordinateurs.

Aboutissement d'un travail de sept ans, ce nouveau système en est pour l'instant au stade du prototype. Mais, selon son créateur, Eve pourrait intervenir dans certaines écoles de Nouvelle-Zélande d'ici un an ou deux, dans une version améliorée. L'équipe du docteur Sarrafzadeh travaille en effet à étendre son système de reconnaissance émotionnelle à de nouveaux gestes, ainsi qu'à la voix de l'élève, à son regard... et même à son pouls, qui pourrait être mesuré grâce à une souris intelligente.

Eve devrait également élargir ses compétences à d'autres disciplines que les mathématiques. Et peut-être apprendre à améliorer son savoir-faire professionnel au fil des cours. A l'heure où la formation à distance et le tutorat en ligne sont en plein essor, les perspectives du système ATS pourraient donc être multiples. Y compris dans des domaines tels que la sécurité, la santé ou le commerce électronique.

LM

Le CEA et le CNRS s'unissent pour augmenter leur puissance de calcul
Vendredi, 16/05/2008 - 00:00

L'union fait la force. Le CEA et le CNRS réunissent leurs deux supercalculateurs de l'Essonne au sein du Centre National Jacques Louis Lions de Calcul Haute Performance de l'Essonne. Ils en augmentent également la puissance. L'ensemble devrait proposer plus de 500 Tflops dès l'an prochain aux chercheurs français pour étudier en particulier des simulations numériques.

De plus, le centre est candidat à l'accueil d'un noeud du réseau européen Prace (Partnership for Advanced Computing in Europe) destiné aux machines de capacité « pétaflopique ». A la clé une subvention à hauteur de 10 % pour l'infrastructure. Le projet d'un montant de 10 millions d'euros est financé par le Genci (Grand Equipement National de Calcul Intensif), société civile créée pour coordonner les politiques françaises d'équipement en supercalculateurs.

Le Centre Jacques Louis Lions est adossé d'une part à l'Institut du Développement et des Ressources en Informatique Scientifique du CNRS (Idris) et d'autre part au Centre de calcul « recherche et technologie » du CEA (CCRT). Le premier, destiné à la recherche académique, développera 200 Tflops dès septembre et le second, ouvert aux industriels, 300 Tflops en 2009. Les deux seront reliés par un lien haut débit.

Le nouveau supercalculateur, un cluster NovaScale de Bull, vient compléter la configuration du CCRT. Celle-ci comprend déjà des serveurs Bull scalaires de 48 Tflops et une machine vectorielle Nec de 2 Tflops. « Nous allons désormais disposer d'une machine hybride et c'est une première mondiale, affirme Christophe Béhar, président du CCRT et directeur du centre CEA de Bruyères le Châtel où se situe le supercalculateur. La simulation numérique est devenue un enjeu fondamental dans de nombreuses industries et dans beaucoup de domaines d'application, qu'il s'agisse de reproduire un crash automobile, de simuler le climat ou de reproduire des expériences trop dangereuses à réaliser en réel.

Reproduire les comportements physiques (aérodynamique, acoustique, effets électromagnétiques, etc.) est une opération particulièrement complexe. Sans parler de la simulation multi-physique qui tente de reproduire des phénomènes de domaines physiques différents intervenant simultanément (aérodynamique et comportement routier d'une automobile en cas de coup de vent latéral par exemple). De même pour la climatologie ou l'ingénierie nucléaire.

RT

Microsoft teste la formule de l'abonnement pour sa suite Office
Vendredi, 16/05/2008 - 00:00

Microsoft a commencé à tester une nouvelle manière de vendre sa suite bureautique Office, via un abonnement incluant un logiciel de sécurité et des services en ligne. Microsoft a lancé récemment ce programme de test baptisé "Albany", qui permet aux utilisateurs de télécharger et d'installer Office 2007, qui comprend les programmes Word et Excel, et ensuite de recevoir des actualisations via un abonnement au lieu d'acheter ponctuellement une licence.

Les utilisateurs choisissant cette option recevront également Windows Live OneCare, un logiciel de protection, ainsi que des applications en ligne telles que Windows Live Mail et Office Live Workspace. Le géant du logiciel n'a pas précisé quel serait le prix de cet abonnement et à quelle date il serait disponible au grand public. La firme de Redmond doit faire face à une âpre concurrence de Google ainsi que de plusieurs start-up qui offrent des programmes bureautiques similaires à ceux contenus dans Office mais disponibles en ligne gratuitement ou via un abonnement mensuel. Microsoft a néanmoins indiqué qu'il ne s'agissait pas d'une révision complète de la manière dont il vend ses logiciels. "Nous n'avons pas l'intention de nous éloigner de notre modèle traditionnel de vente de logiciels", a dit Bryson Gordon, responsable de ce produit.

Yahoo

Consultations médicales et échographies par satellite
Vendredi, 16/05/2008 - 00:00

«Il y a quinze ans, personne, y compris dans cette maison, ne croyait que les satellites pourraient contribuer un jour à améliorer la santé de nos concitoyens», se rappelle le Docteur Antonio Güell, aujourd'hui chef du service valorisation du Centre national d'études spatiales (Cnes). Mise au point des fusées Ariane, développement de la télédétection et des télécommunications spatiales, observation de la Terre : les priorités étaient clairement ailleurs.

C'est Claude Allègre qui, le premier, s'est penché sur le sujet lorsqu'il était ministre de la Recherche (1997-2000). «Après quelques mois de réflexion, nous avons défini quatre domaines d'intervention possibles dont le désenclavement sanitaire», poursuit M. Güell. De plus en plus de gens vivent dans des endroits isolés où il n'y a pas ou très peu de médecins. C'est vrai dans les déserts ou dans les forêts guyanaises mais aussi en métropole où certains départements deviennent sous-médicalisés ou encore lors de catastrophes naturelles ou industrielles». Et de citer l'explosion de l'usine AZF de Toulouse, le 21 septembre 2001, où pendant les premières 24 heures, lorsque les communications au sol étaient coupées, les liaisons avec les hôpitaux ont pu être rétablies grâce au satellite Immarsat.

Depuis quatre ans, le Cnes a participé à la mise au point du «terminal infirmier» Medany, actuellement en phase pilote, en collaboration avec Franck Soulier, vice-président de l'Organisation nationale des syndicats d'infirmiers libéraux (Onisil). Il s'agit d'un équipement mobile de type PDA couplé à un serveur d'applications qui permet à un infirmier en visite chez un patient d'échanger à distance des informations (examen clinique, données biomédicales, prescription médicamenteuse) mais aussi des images, des vidéos et même des électrocardiogrammes avec le médecin traitant.

Lorsque le réseau terrestre est indisponible ou inexistant, la communication est acheminée par satellite. En outre, le terminal est équipé d'un GPS qui permet de localiser le patient en cas d'urgence. «Sur l'île de la Réunion où j'exerce mon métier, beaucoup de gens sont très isolés ou ne sont pas motorisés, ce qui rend parfois difficile le suivi de certaines pathologies comme le diabète dont la prévalence est trois fois supérieure à celle de la métropole (17 % au lieu de 6 %) explique Franck Soulier.

Avec Medany, je peux transmettre directement des informations comme le pouls, la tension ou la glycémie au médecin qui, en retour, délivrera son diagnostic et ses prescriptions. Au final, le parcours de soins est optimisé sans que le patient ou le médecin se déplace avec un gain de temps et de confort pour tout le monde.» Sans parler des économies : un diabète bien soigné évitera au malade d'être amputé, une opération traumatisante dont le coût de surcroît équivaut à un an de suivi infirmier à domicile.

La seconde application promue par le Cnes et l'Agence spatiale européenne (ESA) depuis 1997 consiste à pratiquer des échographies à distance grâce à un bras robotisé «qui reproduit bêtement les mouvements du praticien» situé à des dizaines voire à des milliers de kilomètres de là, explique le professeur Philippe Arbeille, directeur de l'unité de médecine et physiologie spatiales au CHU de Tours.

Cette technique d'imagerie est indispensable pour réaliser, souvent en urgence, une multitude d'examens anatomiques (grossesse, fracture, thrombose veineuse, calculs rénaux, douleurs hépatiques...) en vue d'évaluer rapidement la gravité de l'état d'un patient, par exemple suite à un accident de la route. «Le problème c'est que l'échographie est dépendante de l'opérateur», explique le Professeur Arbeille.

Le geste très précis qu'elle requiert ne peut être guidé par la voix ou par la vidéo. D'où l'intérêt du robot et de la sonde échographique Estele qui, une fois positionnés sur le corps du patient par un non-spécialiste (infirmière, généraliste), vont pouvoir être manipulés à distance et en temps réel par l'échographiste via des lignes Numéris ou par satellite.

Figaro

Avicca Colloque TRIP 2008 : Territoires et Réseaux d'Initiative Publique "Tous pour le très haut débit, le très haut débit pour tous "
Vendredi, 16/05/2008 - 00:00

L'Avicca http://www.avicca.org, Association de collectivités, organise un Colloque les 4 et 5 juin 2008 à Paris autour des problématiques d'aménagement numérique des territoires. Après les élections locales, le début de nouvelles mandatures est l'occasion de réfléchir à la mise en oeuvre de politiques d'aménagement numérique des territoires, qui mettent plusieurs années à se concrétiser.

Si chacun doit acquérir sa vision pour son territoire, il est important de bénéficier des expériences antérieures et d'apprécier le contexte général. Des zones blanches au très haut débit, les initiatives locales sur ces deux extrêmes de l'aménagement numérique se sont multipliées, et le contexte évolue rapidement, tant du point de vue réglementaire et technique que du jeu des acteurs : régulation des fourreaux, mutualisation dans les immeubles, fusions, convergence fixe/mobile, incursion des opérateurs dans les contenus...

Téléchargez la dernière version du programme:

Avvica

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots-guerriers en 2025
Vendredi, 16/05/2008 - 00:00

La Mule pèse 2 tonnes. Elle a la taille d'une camionnette, mais sa carrosserie arrondie et moulée d'un seul bloc lui donne l'air d'un jouet. Grâce à ses six énormes roues indépendantes, elle peut circuler sur n'importe quel terrain, franchir un bourbier et même grimper un escalier. Lorsqu'il faut aller vite, elle actionne son moteur diesel. S'il vaut mieux avancer lentement et en silence, c'est le moteur électrique qui prend le relais.

Elle n'a ni porte ni fenêtre, car personne ne monte à son bord : la Mule est le premier véhicule robotique au service de l'armée américaine, capable de se déplacer toute seule, sans pilote ni télécommande. Elle est surmontée d'une grosse tête ronde translucide, fixée à un bras rétractable et bourrée de caméras, de micros, de capteurs, de radars, de sonars et de lasers. Elle peut voir et entendre tout ce qui se passe autour d'elle, de jour comme de nuit. Elle détecte les mouvements et les sources de chaleur, calcule la distance la séparant d'un objet fixe ou mobile.

Grâce à ce flux continu de données, son ordinateur de bord dessine en temps réel une carte dynamique de son environnement, puis définit un itinéraire praticable. La Mule est "intelligente".

Sa première mission sera d'accompagner les fantassins en opérations et de porter leurs paquetages - d'où son nom. Plus exactement, elle suivra un mini-émetteur logé dans la veste de l'un des soldats de son unité. Equipée d'une benne, elle pourra transporter des centaines de kilos d'armes, de vivres et de matériel. Les GI qui doivent parfois porter sur leur dos plus de 40 kg d'équipement seront ainsi plus agiles. Elle servira également de groupe électrogène, de purificateur d'eau et de détecteur de mines ou d'armes chimiques et bactériologiques.

Attention, la Mule n'est pas encore au point. Mais au printemps 2005, le Laboratoire de recherche de l'armée américaine (USARL), installé près de Washington, a annoncé que ses tests réalisés sur un circuit accidenté avaient été très encourageants. La décision a été prise de lancer la fabrication de plusieurs modèles, ainsi que d'une gamme étendue de véhicules robotiques dont le nom de code générique est simplement UGV pour "Unmanned Ground Vehicles" (véhicules terrestres sans pilote).

La production en série pourrait commencer dès 2012, pour un déploiement sur le terrain à partir de 2014. Le Darpa (Defense Advanced Research Projects Agency), l'agence de recherche scientifique du Pentagone, a confié les différentes parties du programme à plusieurs consortiums, réunissant des laboratoires publics, des universités, des grands fabricants d'armements et des petites start-up d'informatique et de robotique.

L'arrivée de ces UGV pleinement "autonomes", vers 2020, va d'abord bouleverser les règles de surveillance et de reconnaissance des zones de combat. Grâce à ses batteries de capteurs, un robot patrouillant inlassablement autour d'une zone sera plus efficace que toute une armée de sentinelles. Aucun bruit, aucun mouvement, aucun dégagement de chaleur, même infime, ne lui échappera. De même, un robot envoyé en éclaireur en territoire hostile pourra collecter en quelques minutes des masses gigantesques d'informations sur les positions ennemies et les transmettre en direct à sa base arrière.

A partir de 2025 ou 2030, l'armée américaine espère posséder, en sus des UGV autonomes, de véritables robots guerriers capables de prendre part aux combats. Il s'agira d'une gamme de blindés rapides de 2 à 10 tonnes. Il est déjà prévu de les équiper de fusils à longue portée, de mitrailleuses, de lance-grenades et de missiles à guidage électronique. Ils ne seront pas programmés pour une mission précise. Ils devront être capables de patrouiller dans une zone hostile et d'analyser des situations complexes.

LM

^ Haut
Matière
Matière et Energie
Une pile à hydrogène pour alimenter sa maison
Vendredi, 16/05/2008 - 00:00

La firme japonaise Panasonic a annoncé qu'elle commercialiserait l'année prochaine une pile à hydrogène capable de fournir 60 % de l'énergie utilisée dans une maison. Le journal japonais Nikkei à fièrement annoncé que Panasonic avait développé la pile à combustible la plus efficace du marché grâce à un système unique permettant une réaction chimique plus complète la rendant capable de convertir plus de 39 % de son hydrogène en énergie électrique et délivrant ainsi une puissance de 750 watts tout en réduisant de 37 % les émissions contaminantes pour l'environnement par rapport aux générateurs traditionnels.

Le système proposé par Panasonic utiliserait des électrodes polymérisées beaucoup plus efficaces que les électrodes habituelles. Pour fonctionner, la pile à combustible ne nécessite que de l'hydrogène et de l'oxygène.

Une centaine de ces piles seront mises à l'essai durant une année et si les tests s'avèrent concluants, Panasonic projette de vendre 10 000 unités de son générateur à pile à combustible pour 2010 et 100 000 unités pour l'année 2015 jusqu'à fournir 30 % des foyers nippons.

L'hydrogène sera-t-il en fin de compte l'énergie du futur ? Il ne pose aucun problème d'approvisionnement puisqu'il est l'élément le plus abondant de l'univers et il est non polluant dans le sens où sa combustion ne génère que de la vapeur d'eau, mais il faut prendre en compte la pollution générée lors de sa fabrication. Hélas, dans l'état actuel des techniques, sa production, son stockage et son transport posent encore de réels problèmes.

C4N

^ Haut
Espace
Espace et Cosmologie
La Nasa veut construire des bases sur la Lune pour des séjours de 6 mois
Vendredi, 16/05/2008 - 00:00

La Nasa envisage de construire sur la Lune des installations permettant à ses astronautes des séjours pouvant aller jusqu'à six mois, dans le cadre de son projet de retour sur le sol lunaire prévu autour de 2020, a indiqué récemment un responsable de l'agence spatiale américaine.

"Nous devons établir des périodes plus longues de présence sur la Lune, jusqu'à six mois, comme nous le faisons actuellement sur la Station spatiale internationale (ISS)" a déclaré à l'AFP Carl Walz, ancien astronaute et un des directeurs du département des missions d'exploration de la Nasa. "Je peux aller jusqu'à dire que nous construirons quelque chose de semblable à ce que nous construisons avec l'ISS, mais avec un concept différent : nous allons développer des systèmes de transport, nous allons vivre sur la Lune, travailler sur la Lune, construire des infrastructures et utiliser les ressources de la Lune" a-t-il dit.

Lors d'une conférence à l'université de Miami (Floride, sud-est) sur "l'avenir de la Nasa", le responsable a indiqué que les priorités à venir de l'agence spatiale américaine sont de compléter la construction de l'ISS, d'assurer la sécurité des vols des navettes spatiales jusqu'en 2010, de retourner sur la Lune avant 2020 et d'accroître la présence humaine dans le système solaire et au-delà. La mise à la retraite de la navette est programmée pour 2010 après 30 ans de service. Elle sera remplacée par une nouvelle génération de lanceurs baptisés "Ares".

Yahoo

L'astrophycisien Stephen Hawking plaide pour une vraie conquête de l'espace
Vendredi, 16/05/2008 - 00:00

L'astrophysicien britannique Stephen Hawking, mondialement connu pour ses travaux sur l'univers et la gravité, a plaidé à Washington pour que l'humanité se lance à la conquête de l'espace dans le même esprit que celui de Christophe Colomb au 15e siècle. "Nous sommes dans la situation de l'Europe en 1492. Certains auraient très bien pu dire que c'était un gaspillage d'envoyer Colomb chercher quelque chose qui n'existait pas. Et pourtant, la découverte du Nouveau monde a profondément changé l'Ancien. Pensez, nous n'aurions pas le BigMac", a déclaré M. Hawking.

"Partir à la conquête de l'espace aura un effet encore plus grand. Cela va changer complètement l'avenir de la race humaine, et peut-être même déterminer si nous avons un avenir", a ajouté scientifique lors d'une conférence à l'occasion du cinquantenaire de la Nasa.

Il s'agit d'un projet à long terme, qui verrait l'homme installer une base expérimentale sur la lune dans une trentaine d'années, puis trouver dans 200 à 500 ans un moyen pour se transporter hors du système solaire, vers une autre planète accueillante dans un autre système. "Aller dans l'espace ne va pas résoudre les problèmes immédiats que nous avons sur terre, mais cela va nous donner une nouvelle perspective (...), cela va nous unir autour d'un défi commun", a insisté Stephen Hawking, expliquant que le coût ne représenterait "qu'une petite partie des ressources du monde".

Yahoo

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'accumulation des émissions de gaz à effet de serre s'accélère, selon des estimations
Vendredi, 16/05/2008 - 00:00

Les principaux gaz à effet de serre comme surtout le dioxyde de carbone (CO2) s'accumulent plus rapidement dans le monde ces dernières années malgré des efforts déjà déployés pour les contrôler, selon des estimations préliminaires pour 2007 d'une agence du gouvernement américain publiées le 24 avril.

La concentration mondiale de CO2 dans l'atmosphère a augmenté de 0,6 % ou de 19 milliards de tonnes par rapport à 2006, indique le laboratoire de recherche de la Terre de la "National Oceanic and Atmospheric Administration" (NOAA). En d'autres termes, l'accroissement de CO2 a été de 2,4 unités par million (ppm) ou de 2,4 milligrammes par litre d'air en 2007, précise la NOAA.

Depuis 2000, les accroissements annuels de CO2 de deux ppm/an ou davantage sont communs comparativement à 1,5 ppm/an dans les années 80 et moins de un ppm/an dans la décennie 60, souligne l'agence fédérale américaine. La concentration mondiale de CO2 est désormais proche de 385 ppm.

Dans l'ère pré-industrielle le niveau se situait autour de 280 ppm et ce jusqu'en 1850. La combustion du charbon, du pétrole et du gaz naturel est la principale source de l'accroissement des émissions de CO2. Les océans, la végétation et les sols absorbent environ la moitié de la totalité du CO2 émis et les autres 50 % restent dans l'atmosphère pendant des siècles voire davantage, rappelle le NOAA dans un communiqué publié sur son site.

Quelque 20 % du CO2 provenant de la combustion des hydrocarbures en 2007 resteront probablement dans l'atmosphère pendant des milliers d'années, selon la dernière évaluation scientifique du Groupe d'experts internationaux sur le climat (GIEC). Outre le CO2, de loin le plus important gaz à effet de serre responsable du réchauffement du climat, le méthane, un autre de ces gaz, s'est accru de 27 millions de tonnes l'an dernier après une décennie sans augmenter, indique la NOAA.

Le méthane est 25 fois plus puissant comme gaz à effet de serre que le CO2 mais il y en a beaucoup moins dans l'atmosphère, faisant que son impact global sur le réchauffement climatique est près de deux fois moindre que celui du CO2.

Selon Ed Dlugokencky, un scientifique de la NOAA, cet accroissement du méthane en 2007 pour la première fois depuis 1998 s'explique probablement par la croissance rapide de l'industrialisation en Asie et l'augmentation des émissions de ce gaz dans les marais de l'Arctique et des tropiques.

NOAA

La glace de l'Arctique fond plus vite que prévu
Vendredi, 16/05/2008 - 00:00

La glace du Groënland et de l'Arctique semble fondre plus rapidement que ce qu'ont prévu la plupart des experts du changement climatique, selon un rapport de l'organisation mondiale de protection de la nature WWF. "La calotte glaciaire du Groënland, dont le volume atteint environ 2,9 millions de kilomètres cubes, rétrécit à un rythme rapide et pourrait contribuer davantage que ce qu'on estimait précédemment à la montée du niveau des mers au XXIe siècle", note WWF.

L'organisation indique aussi que le réchauffement de l'Arctique a réduit à la fois l'étendue et l'épaisseur des glaces marines de cette région septentrionale, ce qui les rend plus vulnérables au dégel estival. De nombreux spécialistes du climat n'ont pas suffisamment pris en compte les forces motrices de ces tendances, notamment les interactions entre l'épaisseur de la glace marine et la température de l'eau, selon WWF.

L'accélération récente de la fonte des glaces marines n'est pas intégrée à la plupart des modèles, note l'organisation dans son étude qui passe en revue les recherches sur le réchauffement mondial depuis 2005, dont les documents publiés l'an dernier par le Giec (Groupe d'experts intergouvernemental sur l'évolution du climat).

"Notre compréhension des impacts climatiques est en retard sur les changements que nous observons déjà dans l'Arctique", a déclaré Martin Sommerkorn, conseiller pour le changement climatique auprès du Programme pour l'Arctique de WWF. "C'est extrêmement dangereux, car certains de ces changements de l'Arctique possèdent le potentiel de réchauffer la Terre nettement au-delà de ce que prévoient les modèles actuellement", a-t-il souligné. WWF exhorte les pays de l'Arctique à coopérer pour aider les populations de la région à s'adapter aux défis à venir. "Nous devons réduire les émissions de gaz à effet de serre à des niveaux qui éviteront un réchauffement persistant de l'Arctique et la perturbation du système climatique global qui en résulterait", a déclaré Sommerkorn.

WWW

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le maintien du métabolisme du glucose permettrait aux cellules cancéreuses d'éviter l'apoptose
Vendredi, 16/05/2008 - 00:00

Une équipe de chercheurs de l'Université de Duke School of Medicine aurait découvert pourquoi les cellules cancéreuses ont autant d'affinité avec le sucre. Jonathan Coloff et Jeffrey Rathmell ont en effet démontré que le maintien du métabolisme du glucose dans les cellules tumorales leur permettait d'éviter d'entrer dans le processus d'apoptose.

Pour maintenir ce taux, les cellules tumorales utiliseraient la protéine Akt, influençant ainsi le fonctionnement de toute une famille de protéines essentielles pour la survie des cellules. Cette protéine, plaque tournante de la voie phosphatidylinositol 3-kinase-Akt, permet de relayer les messages à l'intérieur de la cellule, notamment le facteur de croissance IGF (Insulin Growth Factor). Ainsi, Akt fonctionne comme un interrupteur biologique oscillant entre état inactif et état actif et contrôlant plusieurs mécanismes fondamentaux dans la cellule tels que la prolifération, la transcription, la migration et l'apoptose.

Dans les cellules saines, les facteurs de croissance régulent le métabolisme et la survie cellulaire. Cependant, les cellules cancéreuses peuvent résister à la mort cellulaire, même lorsqu'elles sont privées de facteurs de croissance, ceci en maintenant leur métabolisme du glucose.

En effet, l'introduction d'une forme cancéreuse de Akt, appelée myrAkt, a permis de maintenir le métabolisme du glucose (et donc la survie de ces cellules) en l'absence de facteurs de croissance. Selon les chercheurs, Akt empêcherait l'action de Mcl-1 et Puma qui sont des protéines activées lors du processus de l'apoptose en l'absence de facteurs de croissance. Cette dépendance au glucose chez les cellules cancéreuses pourrait permettre de découvrir, dans des recherches futures, une voie métabolique alternative pour le traitement du cancer.

BE

Cellules cancéreuses : découverte d'un nouveau mécanisme de communication
Vendredi, 16/05/2008 - 00:00

Un nouveau mécanisme de communication des cellules tumorales vient d'être mis à jour par l'équipe du Docteur Janusz Rak de l'Institut de recherche du Centre Universitaire de Santé McGill (CUSM), en collaboration avec le Docteur Guha de l'Université de Toronto. Ainsi, les cellules cancéreuses peuvent communiquer avec d'autres cellules, saines ou moins malignes, en émettant des vésicules. Ces structures en forme de bulles contiennent des protéines oncogènes (qui causent le cancer) qui peuvent déclencher des mécanismes spécifiques à l'intérieur des cellules avec lesquelles elles fusionnent. Ces découvertes pourraient mener à des innovations cliniques majeures. Elles ont été publiées le 20 avril dans l'édition électronique de Nature Cell Biology.

Ces vésicules ont été appelées oncosomes. Elles vont se déplacer hors de la cellule tumorale jusqu'à ce qu'elles rencontrent une cellule saine ou tumorale bénigne, puis fusionnent avec elle. Les protéines oncogéniques vont alors s'intégrer dans la membrane de la cellule « receveuse » et stimuler certaines voies métaboliques pour induire un comportement aberrant et malin.

Bien que cette transformation ne soit que transitoire, elle a un impact important sur toute la tumeur en provoquant une augmentation plus rapide du nombre de cellules et en stimulant la croissance de vaisseaux sanguins, un des marqueurs des tumeurs malignes du cerveau. Cela prouve que le cancer est un processus multicellulaire, où les cellules communiquent beaucoup entre elles. On entre en opposition avec la vision traditionnelle d'une unique cellule « mutée » qui se multiplie de façon incontrôlée jusqu'à former une tumeur. Cette découverte ouvre de nouvelles perspectives de recherche passionnantes, mais nous espérons aussi qu'elle aura des conséquences positives pour les patients.»

NO

La régulation du sommeil se programme dans les premières années de la vie
Vendredi, 16/05/2008 - 00:00

Une équipe de chercheurs de l'Inserm dirigée par Joëlle Adrien (Unité Inserm 677 "Neuropsychopharmacologie") a mis en lumière le rôle crucial des premières années de la vie dans la régulation du sommeil. Cette période serait effectivement essentielle au bon fonctionnement d'un système cérébral mettant en jeu la sérotonine. Les antidépresseurs les plus utilisés actuellement sont des inhibiteurs de la recapture de la sérotonine (ISRS), un neurotransmetteur présent dans le cerveau. Chez les personnes dépressives, l'efficacité de ce traitement repose sur sa capacité à protéger le cerveau du manque de sérotonine en augmentant artificiellement son taux dans la synapse.

Il est avéré que les dysfonctionnements du système sérotoninergique entraînent des troubles du sommeil et certains troubles du comportement. Pour mieux en comprendre les mécanismes, les chercheurs ont étudié l'impact pendant les premières années de la vie des altérations du système sérotoninergique sur la qualité du sommeil et les éventuels troubles dépressifs associés.

Chez la souris, le traitement du tout jeune animal avec un antidépresseur pendant quinze jours, peu après sa naissance, induit plus tard des troubles du sommeil qui persistent pendant toute la vie. Ils se traduisent par un sommeil fragmenté, instable, et peu récupérateur et s'apparentent aux troubles observés dans des modèles de dépression.

En revanche, ces effets néfastes ne sont plus observés lorsque ces expériences sont menées après la puberté. "Ces travaux nous laissent fortement penser que les trois premières semaines de la vie, chez la souris, constituent une période critique pendant laquelle s'installe et se consolide l'impact du système sérotoninergique sur l'équilibre du sommeil et des comportements émotionnels.

Une fois que ce système est mis en place, il semble que l'on ne puisse plus agir sur cet équilibre de façon persistante" précise Joëlle Adrien, neurobiologiste et directrice de recherche à l'Inserm. Cette étude, combinée à de précédents travaux réalisés par l'équipe de Joëlle Adrien, montre qu'il est donc possible d'altérer durablement ou de rétablir définitivement le sommeil et le comportement par un traitement avec des composés qui modifient la neurotransmission sérotoninergique pendant le développement.

Inserm

Les acides gras trans favoriseraient le risque de cancer du sein

D'après une étude conduite par l'Inserm en France, les taux élevés de graisses hydrogénées ou acides gras trans dans le sang contribueraient à un risque accru de cancer du sein invasif. Le cancer du sein reste le type de cancer le plus fréquent chez les femmes aux Etats-Unis.

Les recherches en cours de l'Inserm ont étudié l'effet du régime alimentaire sur le risque de développer un cancer du sein. De nombreuses études réalisées sur des animaux ainsi que des études d'observation réalisées sur les humains ont déjà suggéré qu'un régime alimentaire gras pouvait contribuer au risque de développer un cancer du sein chez les femmes ménopausées. Cependant, les études concernant les régimes alimentaires peu chargés en graisses n'ont pas montré une réduction du risque de cancer du sein.

Les acides gras trans ont été développés dans les années 1900 et sont ajoutés à la nourriture pour allonger leur durée de vie. Un exemple fréquent d'acide gras trans est le Crisco, une graisse végétale qui a été développée pour la première fois en 1911. Des études précédentes ont montré que la consommation d'acides gras trans pouvait faire augmenter « les taux de mauvais cholestérol », qui peuvent conduire à un risque accru de cardiopathie coronarienne

Dans l'étude actuelle, les chercheurs ont évalué l'association entre la consommation quotidienne de graisses et le risque de cancer du sein chez 19934 femmes européennes. Chaque femme donnait un échantillon de sang et remplissait un questionnaire concernant son histoire alimentaire. Au cours d'un suivi de sept ans en moyenne, 363 femmes ont été diagnostiquées avec un cancer du sein invasif. D'autres femmes d'âge similaire, étant aussi ménopausées, et ayant des résultats sanguins similaires, et qui n'ont pas développé de cancer du sein, ont été comparées à ces femmes qui ont développé la maladie.

Les résultats de l'étude révèlent que les taux élevés d'acides gras trans présents dans le sang était associés à un risque accru de cancer du sein, surtout chez les patientes ayant un taux très élevé d'acides gras trans. Cependant, d'autres formes de graisses, telles que les graisses non saturées, ne semblaient pas contribuer au risque de cancer du sein. Les chercheurs ont conclu qu'un risque accru de cancer du sein était associé aux taux élevés d'acides gras trans, qui peuvent indiquer une grande consommation d'aliments traités industriellement.

Inserm

Comment agit l'arsenic pour guérir la leucémie

L'arsenic est un traitement remarquablement efficace d'une forme rare de leucémie. Les chercheurs d'une unité CNRS / Université Paris Diderot, située à l'Institut Universitaire d'Hématologie au sein de l'Hôpital Saint Louis, ont mis en évidence le mécanisme d'action de l'arsenic dans le traitement de ce type de leucémie. L'arsenic est un poison utilisé en médecine depuis plus de 3000 ans.

Il est maintenant régulièrement utilisé dans le traitement de la leucémie aiguë promyélocytaire. Le développement de ce type de leucémie se caractérise par la fusion des protéines PML et RARA. La protéine de fusion PML/RARA suffit à rendre les cellules leucémiques. Dans un premier temps, l'équipe du Professeur Hugues de Thé avait montré que l'arsenic provoque la fixation SUMO, un peptide régulant les interactions entre protéines, à PML/RARA. Mais la voie de dégradation de ce complexe demeurait inconnue, car SUMO s'oppose en général à la dégradation. Une nouvelle enzyme, RNF4, impliquée dans ce mécanisme, vient d'être identifiée par ces chercheurs.

Cette enzyme a un rôle clef dans la reconnaissance et la dégradation des formes de PML/RARA modifiées par l'arsenic (PML/RARA-SUMO). Les travaux de l'équipe française, comme ceux d'une équipe anglaise co-publiés dans la même revue, montrent que RNF4 se lie à PML-SUMO ou PML/RARA-SUMO. Elle fixe alors sur ce complexe un autre peptide, l'ubiquitine, connu pour induire la dégradation des protéines auxquelles il est conjugué. L'ubiquitine provoque ensuite la modification de la protéine PML/RARA-SUMO.

CNRS

USA : vers un nouveau vaccin plus efficace contre la grippe aviaire

Un nouveau vaccin contre la grippe aviaire mis au point par des chercheurs américains pourrait fournir une protection plus efficace et plus durable et serait plus facile à produire que les vaccins existants, selon une étude publiée dans The Journal of infectious diseases. Ce vaccin a permis de protéger des souris de la grippe aviaire pendant plus d'un an et les chercheurs espèrent que des résultats similaires puissent être obtenus avec des humains. Il a aussi fourni une protection plus grande en cas de mutations du virus, indique l'étude. "Nous voulons avoir un vaccin qui puisse être stocké à l'avance et ayant le potentiel de protéger pour une certaine période, jusqu'à ce que nous changions de vaccin pour l'adapter à la dernière forme de grippe aviaire", affirme l'auteur de l'étude, Suresh Mittal, de Purdue University.

"La combinaison de gènes de la grippe qui ont été utilisés pour produire le vaccin devrait permettre d'y parvenir", a ajouté le chercheur. M. Mittal et ses collègues ont utilisé une version modifiée d'un banal virus du rhume (adenovirus) comme vecteur servant à transporter des gènes de deux types de virus mortels H5N1 de la grippe aviaire. Cela présente plusieurs avantages : l'adenovirus étant rendu incapable de se multiplier, le vaccin devrait être bien supporté.

D'autre part, il est fabriqué sans recourir à des oeufs, dont la production risque de se raréfier pendant les épidémies de grippe aviaire. En outre, le vaccin devrait être moins cher et plus rapide à produire, assure Suresh Mittal. Le vaccin contient aussi des molécules stimulant le système de défense immunitaire, ce qui permet d'utiliser des doses moins élevées.

SD

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top