RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 403
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Octobre 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un acheminement des lettres plus fiable grâce aux étiquettes RFID
La RFID remplace le code à barres dans la blanchisserie hospitalière
Avenir
AVC : un "robot spécialiste" au chevet du malade
Matière
Transformer le gaz carbonique en hydrocarbures !
Microdiesel : le biocarburant directement produit par des bactéries
Premier test pour la cape d'invisibilité
Une méthode pour trier les nanotubes de carbone
Terre
Bilan très positif du Programme Bois Energie 2000-2006
L'étalement urbain, une plaie pour l'environnement
Vivant
Les Français meurent trop tôt
Des chirurgiens lillois réussissent les premières greffes de trachée
Homme
Orange et Microsoft lancent MSN sur les téléphones portables
Edito
Les puces multicoeurs et l'interconnexion optique relancent la course à la puissance informatique



Depuis deux ans, les microprocesseurs multicoeurs ont fait une apparition remarquée et tous les géants de l'électronique, AMD, Freescale, IBM, Intel, se sont lancés dans cette nouvelle compétition technologique. Aujourd'hui, la plupart de ces puces se contentent d'intégrer deux coeurs mais demain ces puces multicoeurs comporteront plusieurs dizaines de coeurs, faisant ainsi exploser leur puissance de calcul. La nouvelle puce Cell qui équipera la prochaine console de jeux PlayStation3 de Sony comporte déjà huit coeurs et la mise en parallèle de plusieurs unités centrales sur une seule et même puce constitue un véritable tournant pour l'industrie informatique et le multimédia.

Paradoxalement, si la microélectronique table à présent sur les puces multicoeurs pour poursuivre sa course à la puissance c'est parce qu'elle a, pour l'instant, échoué à faire grimper la fréquence d'horloge des microprocesseurs. Depuis 3 ans, la barre des 3 GHz semble constituer une limite physique au delà de laquelle la consommation électrique et l'échauffement deviennent excessifs, ce qui porte directement atteinte à la fiabilité de ses microprocesseurs. En attendant de résoudre ce problème plus ardu qu'il n'y paraît, les fabricants de microprocesseurs misent donc sur le « multiprocessing », c'est-à-dire la multiplication des coeurs et leur fonctionnement en parallèle pour augmenter la puissance de calcul des puces.

Mais 40 ans après sa formulation, la fameuse « loi » de Moore, c'est-à-dire le doublement du nombre de transistors par cm2 de silicium tous les 2 ans, est quant à elle toujours d'actualité. Cette loi, qui se traduit actuellement par le passage progressif d'un procédé de fabrication où la largeur des traits sur la puce est de 130 nm à un procédé où elle n'est plus que de 90 nm, rend en effet possible l'intégration de deux coeurs par circuit sans augmentation de sa taille. Demain, le passage de 90 nm à 65 puis à 45 nm permettra d'en intégrer quatre. Et ainsi de suite...

Intel a annoncé le lancement de trois puces à deux coeurs gravées avec des traits de 65 nm. Ces puces devraient offrir un ratio puissance de calcul/consommation électrique 3 à 5 fois supérieur à celui dont les utilisateurs disposent actuellement. Sur le segment des serveurs par exemple, la firme californienne prévoit que les processeurs multicoeurs devraient représenter plus de 85 % de ses ventes dès 2007.

Du côté des ordinateurs de bureau et des ordinateurs portables, il faut également souligner la réussite technique que constitue la mise au point du processeur Athlon 64 X2 à deux coeurs qui permet une amélioration des performances de 20 % à 80 % par rapport à celles de son prédécesseur dans le cadre d'applications multitâches. Pour l'utilisateur, cela offre par exemple la possibilité de graver un CD ou d'exécuter un logiciel de pare-feu en arrière-plan tout en effectuant en premier plan, et sans aucune difficulté, des transactions bancaires en ligne ou des retouches d'images vidéo.

Intel a par ailleurs commencé l'échantillonnage d'un microprocesseur 64 bits Itanium 2 qui a été fabriqué en reliant 1,72 milliard de transistors. Le processeur, baptisé du nom de code Montecito, intègre deux coeurs de traitement. Mais parallèlement à la montée en puissance de ses puces multicoeurs, Intel poursuit la course à la miniaturisation et a amorcé le passage aux microprocesseurs gravés en 65 nanomètres, contre 90 actuellement. Le principal avantage du 65 nm est que cette amélioration s'effectue sans surchauffe des transistors. «À performances égales par rapport aux transistors gravés en 90 nm, ces derniers peuvent diviser par quatre la déperdition électrique», poursuit le fondeur, ce qui permet un gain en terme de dissipation thermique. Selon sa dernière feuille de route, le fondeur envisage une finesse de gravure de 45 nm en 2007, 32 nm en 2009 et 22 nm à l'horizon 2011.

Le 26 septembre, à l'occasion du Intel Developer Forum qui s'est tenu à San Francisco, Paul Otellini, P-DG d'Intel, a annoncé l'arrivée de ses premiers processeurs quadricoeurs en novembre. Il a par ailleurs dévoilé devant des milliers de participants un prototype de galette de silicium contenant plusieurs processeurs à 80 coeurs. Ces derniers, cadencés chacun à 3,16 GHz, sont dédiés aux opérations de calcul à virgule flottante. Chacun est capable d'échanger des données à raison d'un téraoctet par seconde. Le fondeur espère distribuer ces processeurs dans le commerce d'ici cinq ans. L'objectif ultime est de permettre un téraflop (mille milliards) d'opérations à virgule flottante par seconde sur un même processeur. (Voir article du New Scientist)

Parallèlement, Intel a annoncé, il y a quelques jours, avoir mis au point un laser microscopique intégré à une puce au silicium, une étape vers la réalisation de circuits où l'électricité serait remplacée par la lumière avec, à la clé, un énorme gain en performances. Ces lasers pourraient transmettre un térabit de données par seconde et Intel estime pouvoir en intégrer quelques dizaines, voire quelques centaines dans une seule puce électronique. Intel a déjà fait la démonstration de modulateurs optiques semi-conducteurs capables de débits de l'ordre de 10 Gbps. (Voir article dans notre lettre 399 du 29-09-2006 Depuis 5 ans, Intel a produit plusieurs composants expérimentaux pour permettre aux lasers et à la technologie optique de remplacer les fils d'interconnexion.

D'ici la fin de cette décennie, Intel compte améliorer de 300 % les performances par watt de ses transistors grâce à de nouvelles conceptions et technologies de fabrication, a expliqué Paul Otellini. On voit également que la technologie sur silicium, que l'on avait un peu vite enterrée, a encore quelques belles années devant elle, notamment grâce à la combinaison de cette technologie multicoeurs et de l'interconnexion optique par mini lasers.

Avec l'intégration d'un nombre toujours plus grand de coeurs sur une même puce, la loi de Moore devrait pouvoir s'appliquer encore une dizaine d'années. Vers 2015-2020, les géants de l'électronique devraient atteindre une finesse de gravure de l'ordre de 10 nanomètres, à peine quatre fois la largeur d'une molécule d'ADN et seulement 150 fois la taille d'un atome d'hydrogène ! Nous serons alors proches des limites physiques de la technologie sur silicium et d'autres voies technologiques, déjà en cours d'exploration, devront être utilisées et développées, comme les nanotubes de carbone, l'électronique moléculaire et l'électronique quantique pour que cette course sans fin à la puissance informatique se poursuive et permette à chacun de disposer, dans tous les objets de sa vie quotidienne, d'une puissance de calcul et d'une "intelligence" que nous pouvons à peine concevoir aujourd'hui.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Un acheminement des lettres plus fiable grâce aux étiquettes RFID
Vendredi, 27/10/2006 - 00:00

Le système de logistique de la poste est très complexe. Les nouvelles puces RFID à affichage (identification par radiofréquence) vont rendre cette logistique encore plus rapide et plus fiable. Actuellement, environ 70 millions de lettres transitent tous les jours dans les 84 centres de distribution de la poste allemande, triées dans six millions de conteneurs jaunes. Chaque conteneur voyage accompagné d'une feuille de renseignements (contenu, destination...) qui doit être lisible pour les employés des postes et d'un code barres pour les installations d'acheminement automatiques. La poste allemande utilise chaque année plus de 500 millions de fiches de renseignements. Afin de remplacer tous ces documents-papiers, une équipe de chercheurs interdisciplinaires examine maintenant comment intégrer des puces RFID dans la logistique postale afin de minimiser encore le taux d'erreurs d'acheminement.

Ces puces pour la poste allemande doivent être équipées d'un écran d'affichage afin de permettre aux employés de lire les informations importantes. Cet affichage bistable, appelé D-RFID, est actuellement

développé dans le projet PARIFLEX encouragé par le ministère fédéral de l'enseignement et de la recherche (BMBF). Des ingénieurs de la poste et de l'Institut Fraunhofer pour la fiabilité et la micro-intégration (IZM) travaillent en collaboration avec les scientifiques spécialisés en technique sensorielle de l'université de Paderborn ainsi qu'avec les entreprises Vossloh IT GmbH, INSPIRE AG et Spree Hybrid & Kommunikationstechnik GmbH.

Le projet durera jusqu'à septembre 2008. Par ailleurs, les exigences de la poste allemande sont les suivantes : en raison des coûts élevés des puces, elles devront pouvoir fonctionner de façon fiable pendant au moins 4 à 5 ans et sous toutes les situations météorologiques (soleil, pluie...). Les chercheurs ont résolu le problème de l'alimentation des puces : à chaque scanne il sera possible de non seulement de lire la puce mais également de l'alimenter, permettant par exemple de rafraîchir l'écran et d'écrire dessus.

BE Allemagne

La RFID remplace le code à barres dans la blanchisserie hospitalière
Vendredi, 27/10/2006 - 00:00

Finie la fastidieuse saisie des codes à barres un à un à la cadence de 600 articles par heure ! Dans la blanchisserie inter-hospitalière (BIH) des hôpitaux de Cannes, Grasse et Antibes (Alpes-Maritimes), les 34 000 vêtements de travail des personnels hospitaliers - bientôt 36 000 - pourvus d'une puce RFID (Radiofrequency identification device) sont désormais triés automatiquement à la cadence de 5000 articles à l'heure. Avec cette nouvelle application, Tagsys, une start-up marseillaise spécialisée dans les infrastructures RFID, conforte son développement dans l'un de ses secteurs de prédilection. C'est d'ailleurs encore l'un des plus porteurs selon une étude du cabinet Frost & Sullivan.

Tous les postes profitent de l'augmentation de la productivité : la vitesse de mise sur cintre des vêtements a ainsi augmenté de 250 à 300 articles à l'heure et par poste. Par ailleurs, comme les données des étiquettes RFID sont automatiquement enregistrées dans le système de gestion pour l'identification et le tri en temps réel, les opérateurs ont la possibilité de connaître à tout moment le niveau des stocks ainsi que le nom du propriétaire du vêtement traité ou de son service médical, sa date d'arrivée dans la blanchisserie, sa date de lavage, le nombre de traitements, etc.

UN

^ Haut
Avenir
Nanotechnologies et Robotique
AVC : un "robot spécialiste" au chevet du malade
Vendredi, 27/10/2006 - 00:00

Après un accident vasculaire cérébral (AVC), les médecins doivent agir vite, mais les décisions cruciales dépendent souvent de l'avis d'un neurologue, qui n'est pas toujours sur place. Dès le mois prochain, une vingtaine d'hôpitaux américains vont se doter d'un "robot de garde", dirigé à distance par un spécialiste...

Fer de lance de cette expérience, l'Hôpital St Joseph Mercy d'Oakland (SJMO) fait partie des quelques hôpitaux dans lesquels des spécialistes des AVC vont pouvoir partager leur savoir plus facilement en utilisant cette haute technologie. Selon les experts, ce procédé devrait grandement améliorer les chances de rétablissement des patients.

Les spécialistes de garde des hôpitaux concernés vont utiliser ordinateurs portables et l'Internet pour se connecter à ce robot, accompagnant ainsi à distance le médecin qui, lui, sera au chevet du malade.

Où que se trouvent ces médecins, "grâce à la connexion Internet, nous pouvons avoir l'un d'entre eux, même dans un hôpital situé en zone rurale ou dans une région difficile d'accès, qui nous aide pour le diagnostic et la mise en place d'une stratégie thérapeutique", a expliqué Jack Weiner, directeur de l'hôpital d'Oakland. Un meilleur choix, selon lui, que de mettre le patient dans une ambulance ou un hélicoptère pour être transféré vers un hôpital mieux équipé. Ce qui retarde d'autant un traitement vital.

Des programmes de telémédecine similaires sont en train de se mettre en place dans de nombreux Etats du pays (Alaska, Colorado, Géorgie, Illinois, Kansas, Missouri, Nevada, Washington), selon Katy Bandemer, porte-parole de l'association cardiaque américaine. Deux hôpitaux du Massachusetts font eux fonctionner un réseau incluant 14 autres hôpitaux.

En vertu de ce nouveau programme dans le Michigan, certains patients devront quand même être physiquement transportés auprès des spécialistes du SJMO, mais uniquement s'ils ne réagissent pas à l'administration du tPA, un anticoagulant, ou s'ils ont passé la fenêtre de trois heures après l'AVC dans laquelle il peut être administré.

Le Dr Gregory Albers, neurologue qui dirige le centre de l'AVC de l'Université de Stanford, en Californie, dont le centre n'appartient à aucun de ces programmes de télémédecine, a déclaré vouloir voir les résultats des études en cours avant de sauter dans le train. Parmi les questions qu'il se pose : un scanner est-il vraiment lisible à distance? Un médecin en ligne est-il vraiment capable de surveiller un patient, une fois le traitement administré ?

Les robots RP-7, mesurent environ 1,50 mètre. Ils ont un écran en guise de tête, sur lequel on voit le médecin situé à l'autre bout. Une caméra est située à son sommet, qui retransmet les images et le son de l'autre côté. Le médecin "virtuel" active le robot à distance.

Selon le Dr Douglas Slater, médecin chef de l'hôpital Mercy de Grauling (Michigan), qui fait partie du réseau, ce robot va fournir un réel bénéfice à sa structure, qui n'a pas de neurologue de garde. Ici, des non-spécialistes ont déjà donné du tPA à des patients en accord avec des neurologues ou des neurochirurgiens exerçant ailleurs, mais le nouveau programme va permettre d'améliorer les choses, a-t-il estimé.

SJMO

^ Haut
Matière
Matière et Energie
Transformer le gaz carbonique en hydrocarbures !
Vendredi, 27/10/2006 - 00:00

Sera-t-il un jour possible de transformer le gaz carbonique en hydrocarbures ? Oui, sans doute, si l'on en croit de récentes recherches. Le CO2, principal fauteur de réchauffement climatique - relâché en quantité dans l'atmosphère par les industries et les transports - serait alors autant de carburant potentiel...

Ce rêve est porté par un programme de recherche européen, Elcat (Electrocatalytic Gas-Phase Conversion of CO2 in Confined Catalysts), dont l'objectif est de maîtriser cette réaction convoitée de "réduction" du gaz carbonique - et ce avec un très faible apport énergétique.

Lancé fin 2004, le projet fédère quatre universités et instituts de recherche européens. Il a fait l'objet d'une première communication remarquée, mi-septembre à San Francisco, au congrès de l'American Chemical Society et, selon son coordinateur Gabriele Centi, professeur à l'université de Messine (Italie), il a soulevé "un grand intérêt", malgré son caractère très exploratoire. La raison de cet engouement est simple : la molécule de dioxyde de carbone est très stable et la faire réagir sans apport énergétique conséquent est singulièrement délicat.

"Le but ultime de ce travail est en quelque sorte de concevoir une cellule fonctionnant sur le même principe que la photosynthèse, c'est-à-dire capable d'utiliser l'énergie solaire et de l'eau pour transformer du dioxyde de carbone en produits utiles entrant dans la composition de nos carburants actuels", explique Gauthier Winé, chercheur au sein du groupe Carbures et nanostructures du Laboratoire des matériaux, surfaces et procédés pour la catalyse (LMSPC) de Strasbourg, associé au projet.

Un premier élément du dispositif repose sur l'utilisation de l'énergie solaire et d'un catalyseur à base de titane pour "craquer" la molécule d'eau et obtenir des électrons et des protons. Les deux produits de cette première réaction sont ensuite utilisés dans une deuxième étape pour réaliser la "réduction" proprement dite du CO2 en hydrocarbures. "Notre travail ne porte pas spécifiquement sur la première étape du processus, qui fait l'objet de nombreux travaux dans le monde, précise Julien Amadou, doctorant au LMSPC. Nous travaillons sur la seconde, qui concentre les difficultés et repose sur une approche absolument nouvelle."

Cette étape cruciale nécessite l'utilisation d'un autre catalyseur. Au contact de ce matériau - constitué de particules de platine - "le CO2 réagit avec les électrons et les protons pour se réduire en méthanol ou en alcanes" (méthane, butane, propane, etc.), explique M. Winé. Selon le chercheur, l'efficacité de la réaction est encore ténue : "Nous parvenons aujourd'hui à convertir 20 millilitres de gaz carbonique par minute, à température et pression ambiantes, ce qui est très intéressant du point de vue du bilan énergétique puisqu'il n'est pas nécessaire de chauffer ou de refroidir les réactifs", dit-il.

A l'avenir, les progrès réalisés dans la fabrication de nanotubes de carbone - qui sont le siège de la réaction, là où entrent en contact les réactifs et le catalyseur - devraient permettre d'améliorer la vitesse et le rendement du procédé. Ce recours aux nanotubes de carbone est nécessaire car il permet d'augmenter considérablement la surface de contact entre les différents ingrédients de la réaction et le catalyseur.

Des travaux sont également menés sur le catalyseur lui-même, pour en abaisser le coût et en accroître l'efficacité. "Nous utilisons aujourd'hui principalement du platine mais nous travaillons aussi à expérimenter d'autres métaux nobles, dit M. Amadou. En améliorant le catalyseur, on pourra augmenter la vitesse de passage du gaz dans la cellule."

Combien d'années de recherche en laboratoire seront-elles nécessaires pour que le processus puisse être mis en oeuvre par l'industrie ? "Cela dépend de nombreux facteurs, et en particulier de l'intérêt que manifesteront d'autres groupes de recherche et les industriels pour ce domaine très exploratoire où nous sommes aujourd'hui seuls, répond Gabriele Centi, coordinateur du projet. Mais pour rester réaliste, il faut compter au moins dix ans avant d'éventuelles applications à grande échelle."

LM

Microdiesel : le biocarburant directement produit par des bactéries
Vendredi, 27/10/2006 - 00:00

L'institut de microbiologie de l'université de Munster, sous la direction du Professeur Steinbuchel, a développé une souche de bactéries capables de produire du biocarburant a partir de matières premières renouvelables et peu coûteuses (comme le glucose). Ce procédé, protègé par un brevet, vient d'être présenté dans la dernière édition de la revue scientifique "Microbiologie". Les triacylglicérides contenues dans les huiles végétales présentent des propriétés de viscosité qui empêchent l'utilisation directe de ces huiles en tant que biocarburants.

Il faut faire réagir ces triacylglicérides avec du méthanol pour obtenir des methylesters d'acides gras (FAMEs), principaux composants des biocarburants. Or, cette réaction chimique est particulièrement coûteuse et demande un grand apport énergétique. En outre, le méthanol étant relativement toxique, son utilisation doit rester limitée. C'est pourquoi le procédé biotechnologique mis au point par l'équipe du Professeur Steinbuchlen est particulièrement intéressant.

En modifiant génétiquement la bacterie E. Coli, ces chercheurs ont pu produire, à partir de glucose et d'acides gras, non pas des FAMEs mais des ethylester d'acides gras à longues chaînes (FAEEs) qui peuvent être également utilisés comme biocarburant. Ils ont appelé ces substances des "microdiesels". D'après le professeur Steinbuchlen : "l'avantage de ce système est que l'alcool nécessaire au métabolisme des acides gras est produit par la bactérie elle-même.

Cela signifie que le "microdiesel", contrairement aux "biodiesels classiques", est entièrement produit à partir de matières premières renouvelables". Les perspectives de l'institut de microbiologie de Munster sont donc désormais de développer le spectre des substrats de ces bactéries c'est-à-dire de mettre au point des bactéries capables d'utiliser des matières premières bon marché et renouvelables, comme la lignite ou la cellulose, pour produire des FAEEs.

BE

Premier test pour la cape d'invisibilité
Vendredi, 27/10/2006 - 00:00

Harry Potter apprécierait sûrement. Des chercheurs américains et britanniques ont conçu une cape d'invisibilité, qui certes n'est pas encore tout à fait au point, mais a déjà permis de rendre quasiment indétectable dans certaines conditions un cylindre en cuivre, selon une nouvelle étude publiée dans la revue "Science". Le principe de cette technique futuriste est simple : les ondes, par exemple radar, passent autour de l'objet masqué comme s'il n'était pas là.

Les micro-ondes rebondissent sur les objets, les rendant visibles et créant une ombre, bien que ce phénomène ne soit détectable que par des instruments. Si un objet peut être rendu indétectable à des micro-ondes, il peut également devenir invisible pour un radar, une perspective qui ne manquera pas de fasciner les militaires.

L'étude ouvre également des perspectives dignes de la science-fiction. Elle évoque en effet la possibilité d'améliorer la technique pour rendre des personnes et objets indétectables à la lumière visible. En théorie, les chances d'adapter le concept à la lumière visible sont bonnes, souligne David Schurig, concepteur de la cape. Mais "d'un point de vue technique, c'est un vrai défi", ajoute le chercheur de l'université de Duke.

L'expérience du cylindre a été réalisée seulement cinq mois après que Schurig et d'autres chercheurs eurent publié une théorie montrant qu'elle devait être possible. "Nous avons fait ce travail très rapidement (...) et cela a conduit à une cape qui n'est pas optimale", reconnaît David Smith, co-auteur de l'étude. "Nous savons comment en fabriquer une bien meilleure".

La "cape" déjà existante, composée de métamatériaux -des matériaux composites artificiels- dirige les micro-ondes autour de l'objet caché. Outre le fait d'occulter des choses, rediriger des ondes électromagnétiques pourrait également s'avérer utile pour protéger des appareils électriques sensibles contre les radiations nuisibles, précise Smith.

La cape était seulement en deux dimensions et projetait une petite ombre, admet Smith. La prochaine étape sera de passer à trois dimensions et de supprimer toute ombre.

Une personne peut voir des objets parce qu'ils diffusent la lumière qui les frappe. "La cape réduit la réflexion de l'objet et son ombre, deux phénomènes permettant sa détection", explique le chercheur.

En théorie, une personne regardant un objet caché devrait voir ce qu'il y a derrière la cape comme si elle était transparente. Mais "nous n'avons pas une cape parfaite à ce stade : il y a du reflet et de l'ombre, ce qui signifie que l'arrière-plan serait visible mais un peu assombri", souligne Smith. La cape idéale produirait une réflexion négligeable et quasiment pas d'ombre, ajoute-t-il.

Natalia Litchinitser, de l'université du Michigan, qui n'a pas participé à l'étude, souligne qu'il s'agit de la "première réalisation expérimentale, à ma connaissance, de l'idée fascinante de rendre indétectable à des fréquences micro-ondes en utilisant des métamatériaux". "Bien que l'invisibilité rapportée dans cette étude n'est pas parfaite, ces travaux" montrent qu'elle est possible, ajoute-t-elle.

AP

Une méthode pour trier les nanotubes de carbone
Vendredi, 27/10/2006 - 00:00

La grande majorité des méthodes de fabrication des nanotubes de carbone produisent des mélanges de plusieurs types de nanotubes qui diffèrent en diamètre et en structure. Cette situation rend difficile leur exploitation pour un certain nombre d'applications, notamment pour l'électronique où on souhaite exploiter un type particulier de propriété électrique et avoir des objets soit conducteurs, soit semi-conducteurs. Deux solutions : fabriquer des nanotubes ordonnés ou les après synthèse. De plus en plus de chercheurs s'intéressent à cette deuxième solution pour trouver une solution efficace et suffisamment peu coûteuse à ce problème.

Ainsi, des chercheurs de Northwestern University (Chicago) viennent de proposer une méthode physico-chimique attrayante qui semble relativement efficace. La première étape de cette méthode est d'enrober les nanotubes avec des molécules de surfactant, ce qui permet de les garder en suspension dans une solution aqueuse en évitant qu'ils s'agglomèrent et précipitent. Les nanotubes sont ensuite introduits dans un tube de centrifugeuse qui contient un liquide à gradient de densité. Ce type de milieu est obtenu en introduisant successivement des concentrations décroissantes d'un composé visqueux depuis le fond jusqu'au sommet du tube (procédé classique utilisé pour les séparations en biochimie).

Sous l'effet de centrifugations à des vitesses allant jusqu'à 1 000 tours par seconde, pendant des durées allant de 9 à 24 heures, les nanotubes se déplacent dans le gradient pour occuper des positions d'équilibre qui correspondent à leur densité. On obtient ainsi une répartition de nanotubes différents le long du tube, que l'on peut ensuite analyser en récupérant par fractions successives le contenu du tube. On trouve ainsi que les nanotubes de plus grands diamètres sont situés au fond, dans les zones de plus forte densité. En ajustant soigneusement la composition des surfactants utilisés et en optimisant les cycles de centrifugation utilisés, il est même possible de trier les nanotubes par type électronique -des solutions fortement enrichies en nanotubes conducteurs ou semiconducteurs ont pu être ainsi obtenues.

UN

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Bilan très positif du Programme Bois Energie 2000-2006
Vendredi, 27/10/2006 - 00:00

Le bilan du Programme Bois Energie 2000-2006 - lancé par l'ADEME est très positif et montre que le bois énergie est devenu une source d'énergie renouvelable moderne et compétitive dans les collectivités, l'industrie, ou chez les particuliers. Avec plus de 1 000 chaudières installées fin 2006, le programme Bois Energie a dépassé largement ses objectifs.

L'objectif principal du Programme Bois Energie était de susciter l'installation de 1 000 chaudières à bois sur le territoire national (400 dans le secteur industriel, 600 dans l'urbain et le collectif) afin d'économiser jusqu'à 300 000 tep (tonnes équivalent pétrole) par an, réduire de 700 000 tonnes les émissions de CO2 et créer jusqu'à un millier d'emplois durables. Cet objectif a été largement atteint. Au total, on dénombre 1 400 chaufferies collectives et tertiaires et 480 chaufferies industrielles financées par l'ADEME et les Régions en 2005 : le nombre de chaufferies financées a ainsi été multiplié par 5 depuis le début du programme en 2000.

Le parc des chaufferies collectives en fonctionnement fin 2006 - avec ses 1400 installations - représente 670 MW de puissance thermique installée. L'objectif du Programme Bois Energie était aussi d'optimiser et de professionnaliser la filière bois. Avec plus de 60 sociétés organisant et livrant du bois combustible, plus de 300 organisations institutionnelles et professionnelles intervenant sur ce marché, la filière Bois Energie est devenue une véritable filière structurée, profitable et industrialisée.

La filière, par son action au niveau des matériels utilisés et des processus d'approvisionnement, a contribué à l'amélioration de la compétitivité de cette énergie. Toutefois, le coût d'installation des chaufferies urbaines ou collectives reste 3 à 4 fois supérieur à celui d'une chaufferie au gaz ou au fioul. Une aide à l'investissement est donc encore nécessaire. Les économies réalisées sur l'achat du combustible ne suffisent pas à équilibrer le surcoût d'investissement. Prenant en compte les progrès effectués, l'ADEME continue donc à soutenir les maîtres d'ouvrage jusqu'à ce que la filière soit totalement autonome.

La loi de programme et d'orientation sur l'énergie a fixé un objectif d'augmentation de 50 % de la contribution des EnR à la production de chaleur en France en 2010. Concrètement, cela signifie que cette contribution doit passer de 9,7 millions de tep en 2005 à 14,5 millions de tep en 2010. La biomasse, dont le bois énergie en particulier, devra fournir l'essentiel de cette augmentation. A cet effet, le gouvernement a mis en place une série de mesures :

? Le crédit d'impôt pour les particuliers a été porté à 50 % sur le prix du matériel, ce qui a permis une rapide progression de la vente de ces équipements pour lesquels des performances énergétiques et environnementales élevées sont exigées. Le crédit d'impôt devrait contribuer à maintenir cette progression. Le renouvellement du parc, relativement vétuste, par des matériels modernes devrait permettre à la fois une meilleure utilisation de la ressource en bois et une réduction drastique des émissions nocives (poussières, composés organiques volatiles, dioxines,...).

? Des appels d'offres pour la production d'électricité à partir de biomasse qui prévoient explicitement une obligation de valoriser la chaleur en parallèle de la production d'électricité. Un premier appel d'offres a été lancé en 2004 et a approuvé 14 projets pour un total de 216 MW. Un second appel d'offres sera lancé prochainement pour un total de 300 MW.

? La TVA sur les abonnements aux réseaux de chaleur a été abaissée de 19,6 à 5,5 %, comme pour les abonnements aux réseaux de gaz et d'électricité. Cela améliorera la rentabilité de ces réseaux, parmi lesquels le bois prend une part grandissante. De plus, pour les réseaux approvisionnés majoritairement aux énergies renouvelables, la TVA sur la vente de chaleur a également été abaissée à 5,5 %.

? Le Premier ministre a annoncé, le 4 octobre, un doublement des crédits de l'ADEME, consacrés au développement de la chaleur renouvelable, soit un renforcement de 20 M?/an. Conjugués aux moyens des collectivités territoriales, c'est un ambitieux programme de développement qui doit permettre de doubler les résultats annuels de l'actuel Plan Bois Energie.

Par ailleurs, les chaufferies alimentées par énergies renouvelables (bois, géothermie, biogaz) sont éligibles aux Certificats d'Economie d'Energie (CEE). Le Plan National d'Affectation des Quotas (PNAQ) contribue aussi au développement du Bois Energie car les grands réseaux de chaleur sont soumis aux obligations de réduction des émissions de CO2.

Grâce à ces mesures, l'ADEME mise sur un doublement des résultats annuels de l'actuel Plan Bois-Énergie. Selon l'ADEME, la ressource forestière française utilisable pour l'énergie est importante et estimée à 50 millions de mètres cubes par an soit 7 Mtep/an.

Ademe

L'étalement urbain, une plaie pour l'environnement
Vendredi, 27/10/2006 - 00:00

Jadis concentrées derrière leurs remparts, les villes ne cessent désormais d'étendre leurs banlieues tentaculaires, dévorant l'espace et bétonnant la terre, multipliant les atteintes à l'environnement et menaçant la biodiversité. Dans son dernier rapport quadriennal, l'Institut français de l'environnement (Ifen) tire la sonnette d'alarme sur le recul préoccupant des espaces naturels en France, irrésistiblement grignotés par les lotissements, zones d'activités et routes.

Les zones artificielles couvrent désormais 8 % du territoire métropolitain alors que, dix ans auparavant, elles n'en couvraient que 7 %, une augmentation qui représente chaque année 60.000 hectares perdus, selon le ministère de l'Ecologie. Une évolution qui est due plus encore au mode de vie des Français qu'à la croissance démographique, explique Guillaume Sainteny, directeur des études économiques et de l'évaluation environnementale.

Il évoque le rêve du pavillon individuel, l'aspiration à vivre au vert, l'individualisation des modes de vie, l'augmentation de la surface des logements, la recomposition des familles, sans compter la flambée de l'immobilier qui oblige les familles à faible revenu à s'éloigner de plus en plus des centres-villes pour trouver un logement adéquat.

Résultat, le modèle de ville à l'américaine, très étalée, se développe rapidement sur le vieux continent, pourtant historiquement composé de villes compactes. Or "la ville dense est le modèle le moins polluant et le plus économe en espace, en énergie, en temps et en coût", fait remarquer l'Ifen. Car l'étalement de la ville renforce la dépendance à l'automobile, avec pour corollaire, toujours plus d'émissions de gaz carbonique (CO2), principal gaz à effet de serre responsable du réchauffement climatique. Les grandes villes très étalées des Etats-Unis, telles que Houston ou Los Angeles, connaissent une consommation de carburant par habitant 5 à 7 fois plus élevée que les métropoles d'Europe ou d'Asie, comme Amsterdam ou Hong-Kong, selon les économistes australiens Peter Newman et Jeffrey Kenworthy.

"Les grandes agglomérations entraînent au plan environnemental une concentration de nuisances : artificialisation des sols, congestion et pollution de l'air liées aux transports, bruit, pollution des eaux superficielles, risques liés à la présence d'activités industrielles dans le tissu urbain, importante production de déchets ...", résume l'Ifen.

Ce mouvement, irréversible, génère des coûts environnementaux mais également des coûts de développement d'infrastructures - transport, branchements d'eau et d'électicité - sans parler des coûts sociaux liés à l'exclusion des personnes non motorisées et aux problèmes de santé engendrés par la pollution.

La biodiversité est la première victime de ce recul de la nature. De nombreuses espèces sont menacées en France, comme les vertébrés, et d'autres, hier banales, pourraient devenir rares, comme les populations d'oiseaux communs qui ont reculé de 27 % depuis 15 ans en milieu agricole, selon l'Ifen. "L'espace urbain se dilate et la ville diffuse colonise le monde périurbain, à tel point qu'il paraît de plus en plus difficile de réfléchir à l'évolution des territoires en séparant l'urbain du rural", avertit l'institut. La Délégation à l'aménagement du territoire et à l'action régionale (Datar) avait déjà mis en garde contre les risques d'une urbanisation des campagnes dans une étude prospective publiée en 2003 ("Quelle France rurale pour 2020").

IFEN

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Les Français meurent trop tôt
Vendredi, 27/10/2006 - 00:00

Le rapport très instructif de la Direction de la Recherche, des Etudes, de l'Evaluation et des Statistiques (Drees) révèle que la mortalité prématurée en France reste l'une des plus élevées de l'Union européenne. En 2002, le nombre de décès survenus avant 65 ans s'élevait à 113.537, avec un taux près de trois fois supérieur chez les hommes. Ce rapport analyse plus particulièrement la mortalité prématurée dite "évitable", car liée au mode de vie et aux comportements à risque (alcool, accidents de circulation, suicide...). Le nombre de décès prématurés par "mortalité évitable" était ainsi de 37.662 en 2002.

Il apparaît ainsi que la mortalité évitable la plus élevée touche le Nord-Pas-de-Calais (44 % par rapport à la moyenne métropolitaine) puis la Picardie (34 %), Bretagne (29 %), Haute-Normandie et Champagne-Ardenne. La plus faible est observée en Midi-Pyrénées (-22 %), Ile-de-France (-22 %), Alsace (-18 %) et Rhône-Alpes (-18 %).

Pour les taux de mortalité par cancers à tous âges pouvant être rapportés à une consommation excessive d'alcool, ainsi que pour la mortalité par psychose alcoolique, on observe un excès de mortalité dans les régions du nord, Nord-Pas-de-Calais (81 % par rapport à la moyenne métropolitaine), Picardie (34 %) et de l'ouest, la Basse-Normandie (17 %) et la Bretagne (29 %).

Les disparités régionales sont également marquées en matière de surcharge pondérale (surpoids et obésité). La prévalence du surpoids est élevée dans le Nord-Pas-de-Calais (48,4 %) et dans une zone regroupant les régions Bourgogne, Centre, Champagne-Ardenne, Basse et Haute Normandie et Picardie (47,25 %). La fréquence de l'obésité est également notable dans cette zone (13,8 %) ainsi que dans le Nord-Pas-de-Calais (16,0 %) et dans l'est de la France - Alsace, Franche-Comté, Lorraine - (14,3 %). C'est dans la zone regroupant Languedoc-Roussillon, PACA et Corse que l'obésité adulte est la plus faible (8,4 %).

MS

Des chirurgiens lillois réussissent les premières greffes de trachée
Vendredi, 27/10/2006 - 00:00

Une équipe de chirurgiens lillois a annoncé la réussite des premières greffes de trachée sur des patients atteints de certains types de cancers jusque-là incurables, une première mondiale réalisée en remplaçant l'organe malade par un segment de l'aorte. Cette opération chirurgicale lourde a été réalisée à quatre reprises depuis mars 2005 sur trois hommes et une femme âgés de 20 à 46 ans, a déclaré le Pr. Alain Wurtz, chef de l'équipe de chirurgiens thoraciques du centre hospitalier (CHRU) de Lille lors d'une conférence de presse.

Les personnes victimes de tumeurs de la trachée peuvent faire l'objet d'une ablation d'une partie de l'organe, qui ne peut excéder 50 % de la longueur de la trachée, longue d'une dizaine de centimètres. Mais certains cas rares de cancers - qui ne sont pas dus au tabac et qui affectent particulièrement les jeunes adultes - s'étendent tout au long de la trachée. Dans ces cas, les malades ne pouvaient bénéficier que de traitements palliatifs. "Cette technique ne s'adresse qu'à un nombre très faible de patients", prévient donc le Pr Henri Porte, membre de l'équipe.

L'opération, qui dure entre neuf et quatorze heures, consiste à retirer la quasi-totalité de la trachée et de la remplacer par un segment d'aorte de longueur égale, prélevé sur une personne en état de coma dépassé. Les chirurgiens insèrent ensuite à l'intérieur de l'aorte un tube de silicone pour éviter que l'aorte, qui est molle, ne s'écrase à chaque respiration. Les chirurgiens utilisent enfin le propre muscle pectoral du patient pour entourer la nouvelle trachée, afin de la protéger et de permettre sa vascularisation.

AFP

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Orange et Microsoft lancent MSN sur les téléphones portables
Vendredi, 27/10/2006 - 00:00

Microsoft et Orange, la filiale mobile de France Télécom, ont annoncé le lancement de la messagerie instantanée "Orange Messenger by Windows Live", qui permettra à ses utilisateurs de communiquer avec les utilisateurs de Windows Live Messenger, la messagerie phare de Microsoft, plus connue sous le nom de MSN. Selon les deux groupes, qui ont annoncé ce lancement au cours d'une conférence de presse en présence de Didier Lombard, patron de France Telecom et Steve Ballmer, celui de Microsoft, il s'agit de la première offre de convergence entre PC et téléphone mobile. Orange Messenger permettra aux usagers de rester toujours connectés, qu'ils soient sur leur PC ou sur leur téléphone portable.

La première offre sera lancée début décembre en France, puis dans d'autres pays européens en 2007. Le service sera gratuit sur ordinateur, mais payant sur les téléphones, sans qu'Orange en ait encore révélé les tarifs. Orange compte 135 millions de clients et il y a 240 millions d'utilisateurs de la messagerie MSN dans le monde.

Le PDG de France Télécom, Didier Lombard, a estimé que "les connexions vont augmenter de façon exponentielle", et jugé que le marché était appelé à s'élargir : "les jeunes sont des utilisateurs intensifs de messageries instantanées", et "à terme, les adultes prendront aussi l'habitude d'utiliser les messageries instantanées aussi souvent que l'email".

Didier Lombard a également exclu que cet accord sonne le glas des Sms, les actuels petits messages échangés sur les portables, qui représentent 20 % des profits d'Orange dans le mobile. Pour lui, "les Sms et la messagerie instantanée vont s'ajouter et non pas se cannibaliser".

Le géant américain du logiciel a choisi de lancer ce service "aujourd'hui en Europe avec Orange", car "les usages du mobile y sont nettement plus développés qu'aux Etats-Unis", et que "la France est particulièrement en avance dans ce domaine", explique pour sa part Steve Ballmer. Mais Microsoft entend bien signer par la suite le même type d'accord avec d'autres opérateurs européens.

AP

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top