RTFlash

RTFLASH Recherche & Technologie
NUMERO 379
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 06 Avril 2006
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'informatique ubiquitaire va transformer la ville en espace de communication interactive
Une nouvelle norme Bluetooth pour relier les appareils du salon
Sony : un système sans fil pour faire communiquer les appareils numériques
Forte de son succès en France, la TNT s'emploie à détrôner la TV analogique
Le Sipperec va proposer l'accès à l'Internet par le CPL dans 86 communes de l'Ile-de-France
Des hôpitaux écossais utilisent des iPods pour former leur personnel
Avenir
Un tétraplégique espère gravir un sommet des Alpes grâce à un robot
Des pinces nanométriques
Matière
Les bus de Lille vont rouler au biogaz
Inauguration d'une centrale thermique biomasse à Baden-Baden
Des rayons T pour tout voir ou presque !
Espace
La sonde Venus Express à une semaine de son arrivée à l'étoile du Berger
Vivant
Des cellules souches adultes pour réparer la moelle épinière
Une nouvelle possibilité d'emploi des cellules souches en médecine
Cancers et métastases osseuses : identification d'une molécule-clé
Celebrex : possible effet préventif sur le cancer du colon
Combiner les approches pour vaincre les tumeurs ?
Découverte d'une molécule efficace contre le chikungunya à Marseille
Cerveau : l'intelligence liée à l'évolution du cortex
Homme
La fusion d'Alcatel et de Lucent Technologies va donner naissance à un géant des télécoms
Recherche
Essais réussis d'un "scramjet" en Australie
Voitures à air comprimé : ça roule !
Edito
Produire en 2025 plus de la moitié de notre énergie de manière propre, c'est possible !



Le dernier rapport 2005 sur les énergies renouvelables du Ministère de l'Industrie est riche d'enseignements. Ce document nous apprend que la consommation intérieure brute d'électricité s'est élevée à 516,4 TWh (516 milliards de kWh) en 2004. La production d'électricité d'origine renouvelable était dans le même temps de 65,7 TWh (dont 93 % par l'énergie hydraulique, 6 % par la biomasse et 1 % par les énergies éoliennes et solaires), soit prés de 13 % de la consommation intérieure brute d'électricité. Le reste, soit 451 TWh est essentiellement assuré par l'énergie nucléaire (77 %) et l'énergie thermique (10 %).

La marge de progression de l'énergie hydraulique est faible car la plupart des grands sites sont déjà équipés. Mais serait-il possible de produire de manière propre la totalité de l'électricité que notre pays consomme ? En théorie oui. Imaginons en effet que nous voulions remplacer l'électricité électronucléaire et thermique par la même quantité d'électricité issue des énergies renouvelables. Cela signifie qu'il nous faudrait produire environ 451 milliards de kWh par an de manière "propre". Pour simplifier notre calcul, mettons de côté l'énergie géothermique et l'énergie des mers (courants marins, énergie des marées et des vagues) qui possèdent de réelles potentialités à terme (que nous avons déjà évoquées dans cette lettre) mais qu'il est difficile de mettre en oeuvre rapidement pour des raisons tenant à la lourdeur des investissements et aux incertitudes technologiques qui subsistent.

Si l'on se limite aux technologies disponibles en matière d'énergie éolienne et solaire photovoltaïque il faudrait, pour pouvoir produire chaque année 451 milliards de kWh, installer 45000 éoliennes géantes de 5 MW de puissance chacune (production moyenne annuelle 10 millions de kWh par éolienne) ou déployer 4500 km de panneaux solaires photovoltaïques (production moyenne annuelle 100 millions de kWh par km² de panneaux). On pourrait aussi envisager de combiner ces deux sources d'énergie propre. Dans ce cas, il faudrait installer 22500 éoliennes géantes et 2250 km² de panneaux solaires, soit une vingtaine de km² de panneaux solaires et 236 éoliennes par département.

De tels équipements sont importants mais ne paraissent pas hors de portée d'un pays comme la France, compte tenu de notre superficie et de nos caractéristiques géoclimatiques. Mais en matière d'énergie, rien n'est simple et l'électricité n'est pas une substance qu'on peut stocker et libérer à loisir, quand on a besoin. Elle doit être produite "à flux tendu" et s'adapter en temps réel à l'évolution de la consommation. Or les énergies éoliennes et solaires, si elles présentent le grand avantage d'être propres et non émettrices de gaz à effet de serre, présentent deux inconvénients intrinsèques majeurs : elles sont à la fois intermittentes et non prévisibles.

On peut certes évaluer statistiquement la capacité de production moyenne annuelle d'une centrale éolienne ou solaire, en fonction de sa zone d'implantation. C'est ainsi qu'on sait qu'une éolienne géante de 5 MW dans un secteur normalement venteux va produire, en moyenne, 10 millions de kWh (pour un rendement moyen de 23 %). On sait également qu'un panneau solaire photovoltaïque d'un mètre carré produit en moyenne (dans une zone de moyen ensoleillement) 1000 kWh par an. Mais tout le problème est que la disponibilité journalière de ces deux sources d'énergie est imprévisible et qu'on ne peut commander ni au soleil, ni au vent.

En admettant qu'on installe suffisamment d'éoliennes et de centrales solaires pour produire, en moyenne annuelle, toute électricité actuellement produite par le nucléaire (77 %) et le thermique (10 %), soit environ 451 TWh (451 milliards de kWh), le problème ne serait pas résolu pour autant car nous ne serions absolument pas en mesure de pouvoir ajuster en temps réel notre production d'électricité aux variations parfois très brusques de la demande, tant industrielle que domestique. Pour ces raisons fondamentales, il n'est pas facile, c'est le moins que l'on puisse dire, pour un pays développé comme la France, de produire toute l'électricité dont il a besoin uniquement grâce aux énergies renouvelables. Mais face à ce défi nous ne devons pas baisser les bras mais faire preuve de pragmatisme, de volontarisme et d'imagination pour parvenir à produire, d'ici une génération, la majeure partie de notre énergie de manière propre.

En admettant que nous parvenions, d'ici 20 ans, à multiplier par 100 la puissance éolienne installée, pour atteindre 60 TWh, ce qui représenterait déjà un effort considérable, nous pourrions produire, en installant 6000 éoliennes (terrestres mais aussi "offshore", en mer) géantes de 5 MW, environ 11 % de notre consommation électrique totale, soit l'équivalent de la quantité d'électricité que nous produisons actuellement par l'énergie thermique qui contribue à aggraver le réchauffement climatique, ce qui constituerait déjà un remarquable résultat.

Imaginons que dans le même temps nous installions 1000 km² de panneaux solaires photovoltaïques (soit 10 km² par département, cette superficie comprenant non seulement la surface au sol mais également la surface équipée sur les toits des maisons et immeubles), nous pourrions produire environ 100 TWh supplémentaires d'énergie propre, soit 19 % de notre consommation électrique totale. Dans ce scénario énergétique très volontariste, nous pourrions donc, à l'horizon 2025, produire, en comptant aussi l'énergie hydroélectrique, environ 45 % de notre électricité à l'aide des énergies renouvelables. En faisant, en outre, un gros effort sur l'ensemble de la filière de la biomasse (déchets, bois), et notamment en développant les centrales électrique au bois (un quart de notre territoire est constitué de forêts), comme au Portugal ou en Suisse, nous pourrions ajouter 5 % de production électrique propre supplémentaire (26 TWh). Nous pourrions enfin développer, à l'horizon 2025, les énergies issues de la mer, énergie marémotrice, énergie des vagues et des courants marins de manière à produire par cette voie au moins 5 % de notre consommation électrique totale.

Finalement, au prix d'un effort public et privé considérable et en combinant de manière optimale éolien, solaire, hydraulique, biomasse et énergies de mers, la France pourrait, à l'horizon 2025, produire, de manière diversifiée et décentralisée, plus de la moitié de sa consommation électrique totale grâce aux énergies renouvelables, ce qui, outre la réduction très positive de la pollution et des gaz à effet de serre responsables du réchauffement climatique, aurait un effet dynamisant sur l'économie et la création de nombreux emplois nouveaux.

Parallèlement à cet effort, un grand programme visant à réduire de moitié, dans le secteur des transports, de l'industrie et du chauffage domestique, notre consommation de produits pétroliers, pourrait être mis en oeuvre. Ce programme agirait d'une part au niveau de l'efficacité énergétique et de la maîtrise de la consommation grâce aux nouvelles technologies et viserait, d'autre part, de manière beaucoup plus volontariste qu'actuellement et avec des objectifs chiffrés, à substituer aux carburants fossiles, des biocarburants de première et de seconde génération (ceux issus de la forêt qui n'entrent pas en concurrence avec les cultures agricoles) et d'autres sources et formes d'énergie renouvelables, électricité et hydrogène notamment. Le but étant, à terme, d'aller vers le "zéro pétrole", objectif qui deviendra de toute façon incontournable, compte tenu de l'explosion de la demande mondiale (4 milliards de tonnes par an en 2005, 6 milliards de tonnes en 2020 !), de l'épuisement rapide des réserves de pétrole "faciles", exploitables à moindre coût et de la hausse prévisible inévitable du prix des carburants.

Grâce à la mise en oeuvre de cette politique énergétique ambitieuse mais réaliste, car s'appuyant sur des technologies existantes et maîtrisées, la France pourrait devenir le premier pays développé au monde, après la Suède, à produire de manière propre, d'ici une génération, plus de la moitié de toute l'énergie qu'elle consomme, transports inclus. Je propose de baptiser cet objectif historique "25-50" puisqu'il vise à produire en 2025 au moins 50 % de toute l'énergie que nous consommons grâce aux énergies renouvelables.

Si nous parvenions à atteindre cet objectif, nous aurions accompli un pas de géant et notre pays deviendrait au niveau mondial un modèle et une référence en matière de mutation énergétique combinant volontarisme politique, pragmatisme techno-économique et vision à long terme. Il nous appartient à présent de relever ce défi et de mettre en oeuvre ce véritable projet de société. Nous portons une responsabilité historique vis à vis des générations qui nous succéderont et nous avons le devoir de leur léguer un monde vivable et un environnement préservé. Faisons en sorte d'être à la hauteur des enjeux qui nous attendent pour relever ensemble ce défi de civilisation.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'informatique ubiquitaire va transformer la ville en espace de communication interactive
Vendredi, 07/04/2006 - 00:00

Dans le film Minority Report, de Steven Spielberg, des caméras identifient Tom Cruise pour lui proposer des publicités adaptées à ses goûts. Il pourrait en être de même, en France, dans les prochains mois. L'Institut national de recherche en informatique et automatique (Inria) et la société JCDecaux ont annoncé avoir conclu un accord de transfert de technologie aux termes duquel le groupe d'affichage publicitaire pourra utiliser les technologies d'" informatique diffuse" développées, depuis huit ans, par l'équipe de Michel Banâtre, directeur de recherche dans les laboratoires rennais de l'Inria.

L'approche retenue par les chercheurs, consiste à traiter très simplement des informations collectées en fonction de la position des objets qui les contiennent et de leurs déplacements relatifs. Ce principe permet d'enrichir les objets courants avec une « intelligence contextuelle » embarquée. A la différence du héros du film de Steven Spielberg, le chaland ne sera pas identifié par l'iris de son oeil, mais grâce à son téléphone portable ou tout autre objet communicant (assistant personnel, par exemple) qu'il aura sur lui. Il ne sera pas non plus importuné à son insu, affirment les promoteurs de cette technologie. Il aura précédemment entré son profil (âge, goûts, type d'informations souhaitées, etc.) dans son téléphone.

Le service ne dépendra pas de l'opérateur téléphonique : la liaison entre le panneau d'affichage (qui aura été équipé d'un boîtier ad hoc) et le portable s'effectuant par une liaison de courte portée (du type Bluetooth, Wi-Fi ou infrarouge). Et l'utilisateur devra préalablement télécharger un logiciel sur son téléphone, à partir d'une borne, ou du site Wap de l'annonceur. A moins que ce dernier ne préfère distribuer des cartes intégrant une puce à radiofréquence (RFID), dans laquelle seront enregistrés le profil du prospect et son numéro de téléphone. Devant une publicité pour un film, le passant pourra regarder la bande-annonce sur son portable. Autre exemple, en passant devant une affiche de voitures en promotion, il recevra l'adresse du point de vente le plus proche par SMS, s'il est un passionné de voitures.

La technologie développée par l'Inria pourrait aussi servir aux handicapés. Une des premières démonstrations réalisées en 2004 visait cette communauté. Des Ubibus, abribus spécifiquement équipés, permettaient de repérer qu'un aveugle, ou une personne en fauteuil roulant, approchait. L'information pouvait alors être transmise au conducteur du bus pour qu'il prenne les précautions nécessaires, et à la personne handicapée pour l'informer du numéro du bus, de sa direction et de l'heure de passage du prochain véhicule.

INRIA

Une nouvelle norme Bluetooth pour relier les appareils du salon
Vendredi, 07/04/2006 - 00:00

Les plus grandes entreprises d'électronique ont décidé d'utiliser une nouvelle norme de la technologie Bluetooth de connexion sans fil à courte portée pour relier entre eux les différents appareils de la maison et permettre notamment le transfert de vidéo haute définition, ont annoncé deux associations du secteur. Cette décision devrait permettre de déterminer la façon dont des centaines de millions de téléviseurs, magnétoscopes et ordinateurs seront connectés sans fil les uns aux autres d'ici la fin de la décennie.

Jusqu'à présent, les professionnels n'étaient pas parvenus à se mettre d'accord sur un standard unique assez rapide pour relier les appareils numériques de nouvelle génération. Le Bluetooth Special Interest Group et la WiMedia Alliance, deux associations qui comptent parmi leurs membres Intel, Nokia et Microsoft, ont expliqué qu'ils coopéreraient pour proposer d'ici 2008 des appareils Bluetooth capables d'envoyer et de recevoir des contenus multimédia à des vitesses cent fois supérieures à celle de la norme actuelle. "Cette nouvelle version de la technologie Bluetooth répondra à la demande de synchronisation et de transfert de gros volumes de données tout en autorisant l'usage des applications audio et vidéo de haute qualité pour les appareils portables, les projecteurs mutimédias et les téléviseurs", a déclaré dans un communiqué le Bluetooth SIG.

La nouvelle version de Bluetooth, qui utilise les fréquences de l'Ultra Wideband (UWB), permettra des connexions de 100 mégabits par seconde, contre moins d'un mégabit pour la plupart des téléphones portables actuels. Des vitesses d'au moins 10 megabits sont nécessaires pour transférer une vidéo de qualité entre différents appareils.

L'Ultra wideband, qui fonctionne sur un spectre de fréquences radio très élevées, impose une distance maximale entre deux appareils de 10 à 15 mètres. Selon les deux associations le nouveau module Bluetooth utilisera une fréquence radio au-delà de la bande des 6 gigahertz. Bluetooth SIG s'attachera à conserver les points forts de la technologie actuelle, comme la faible consommation en énergie et les fonctions de sécurité, a assuré Michael Foley, directeur général du groupe. Ce nouveau standard sera également compatible avec la technologie actuelle qui équipe plus de 500 millions d'appareils. Les appareils Bluetooth devraient dépasser le milliard d'unités à la fin 2006, a-t-il précisé. Les deux associations estiment que les prototypes seront disponibles au deuxième trimestre 2007. Les premiers appareils Bluetooth nouvelle génération devraient être commercialisés début 2008.

Reuters

Sony : un système sans fil pour faire communiquer les appareils numériques
Vendredi, 07/04/2006 - 00:00

Le géant de l'électronique japonais Sony a présenté récemment un nouveau système sans fil qui facilite le visionnage sur grand écran de photos stockées dans un appareil numérique, de même que l'écoute sur un ensemble hi-fi de musiques enregistrées dans un baladeur. "Il suffit par exemple de poser un appareil photo numérique sur un petit boîtier récepteur raccordé au téléviseur pour qu'immédiatement les images stockées dans sa mémoire apparaissent à l'écran", a expliqué un directeur de la division modules de communications de Sony, Kunio Fukuda. Ce dispositif utilise la transmission de données sans fil et sans contact basée sur une technologie dite d'identification radiofréquences (RFID).

Une fois posé dans n'importe quel sens sur un boîtier de quinze centimètres de côté environ, l'appareil photo ou le téléphone portable est détecté, identifié, et son contenu envoyé directement par transmission à haut-débit vers le téléviseur, sans aucune manipulation. La navigation dans la bibliothèque d'images s'effectue avec la télécommande TV.

Même procédé avec un baladeur audio. En le posant sur le boîtier, ou en le maintenant à une distance maximale de trois mètres, son contenu est directement adressé vers l'ensemble hi-fi. "Il est également possible de poser simultanément deux objets sur le boîtier récepteur", ajoute M. Fukuda. L'utilisateur devra alors sélectionner celui dont il veut visionner ou écouter le contenu. Le système permet en outre de recharger le téléphone simplement en le plaçant sur le boîtier.

A l'avenir, le boîtier-récepteur pourra être directement intégré dans un téléviseur ou un PC. Quant au module de transmission, il peut être intégré d'origine dans les appareils nomades, ou bien inclus dans une carte-mémoire. Le système développé par Sony, baptisé "Reflex System" a pour autres avantages "d'offrir un débit de données de 16 Mbit/s contre seulement 0,75 MBit/s pour la technologie sans fil de proximité Bluetooth et de consommer moins d'énergie que les technologies Wi-Fi", selon M. Fukuda.

Wanadoo

Forte de son succès en France, la TNT s'emploie à détrôner la TV analogique
Vendredi, 07/04/2006 - 00:00

La moitié du territoire couvert, 2,5 millions de foyers connectés. Un an après son lancement et forte de son succès, la télévision numérique terrestre (TNT) n'a désormais qu'un seul but : détrôner la télévision analogique. "Les 18 chaines gratuites de la TNT seront demain l'offre télévisuelle démocratique de tous les Français", a déclaré Marc Pallain, président du groupement Télévision numérique pour Tous qui regroupe la plupart des 18 chaînes gratuites de la TNT, à l'occasion du premier anniversaire du lancement de ce nouveau mode de diffusion.

Un enthousiasme partagé par le ministre de la Culture et de la Communication Renaud Donnedieu de Vabres, pour qui le succès de la TNT "dépasse les prévisions les plus optimistes". Pour sa part, le président du Conseil supérieur de l'audiovisuel (CSA) Dominique Baudis parle d'un "immense succès".

Selon le groupement Télévision numérique pour tous, plus de 2,5 millions de foyers (2.519.000) en France, tous moyens de réception confondus, sont aujourd'hui en mesure de recevoir les chaînes gratuites de la TNT, un an après leur lancement, alors même que la moitié seulement du territoire est couverte par les relais ad hoc. Selon les chiffres les plus récents de l'institut de mesure d'audience Médiamétrie, la durée d'écoute des téléspectateurs français équipés en TNT a été supérieure de 24 minutes par jour en février à celle des téléspectateurs non-équipés (4 heures 16 au lieu de 3 heures 52).

Les téléspectateurs français "aiment leurs nouvelles chaînes", assure Stéphanie Martin, déléguée générale du groupement Télévision numérique pour tous, qui s'appuie sur un sondage IFOP du mois de mars selon lequel 74 % des Français de 15 ans et plus ayant l'adaptateur ont choisi la TNT pour les programmes. Les autorités et les industriels doivent désormais relever de nouveaux défis pour parachever ce que Marc Pallain appelle "l'inéluctable substitution du numérique à l'analogique", que le ministre de la Culture a fixé au 1er janvier 2011. Car le déploiement prévu de 115 émetteurs en mars 2007 ne devrait permettre de couvrir que 80 % du territoire. Or, selon le ministre délégué à l'aménagement du territoire Christian Estrosi, la TNT ne doit laisser "personne de côté".

Selon M. Estrosi, "une double approche" est envisagée pour les 20 % du territoire laissés sans couverture, d'une part, le déploiement de 300 à 500 nouveaux sites terrestres d'émission supplémentaires pour un coût évalué à un million d'euros, d'autre part la mise en place d'un bouquet satellite sans abonnement.

D'ores et déjà, les autorités et les diffuseurs de chaînes réfléchissent au basculement de l'analogique vers le numérique, qui, de l'avis général, ne pourra se faire que par étapes. Selon Marc Pallain, l'extinction de la diffusion analogique, une fois la totalité de la population couverte et "initialisée" (connectée), "pourra être réalisée, plaque par plaque, zone par zone". Le groupement télévision numérique pour tous suggère "de choisir, le plus rapidement possible, une zone donnée, une agglomération test, afin de réaliser un arrêt de la diffusion analogique sur cette zone dans un délai donné".

Wanadoo

Le Sipperec va proposer l'accès à l'Internet par le CPL dans 86 communes de l'Ile-de-France
Vendredi, 07/04/2006 - 00:00

Après trois ans de tests, le Syndicat intercommunal de la périphérie de Paris pour l'électricité et les réseaux de communication (Sipperec) va pouvoir démarrer pour de bon le chantier de l'Internet par courant porteur en ligne (CPL). Une délégation de service public a été attribuée le 30-03-2006 à la société Mecelec. Celle-ci va déployer les équipements nécessaires dans les cinq ans qui viennent, sur tout le territoire du Sipperec. Soit quatre-vingt-six communes dans les Hauts-de-Seine, la Seine-Saint-Denis, le Val-de-Marne, les Yvelines et le Val d'Oise. Ce qui correspond à 1,55 million de foyers et plus de 7 700 transformateurs EDF à équiper. Les premiers déploiements auront lieu à Courbevoie et Rosny-sous-Bois à partir de début 2007. Il s'agit du premier projet en France et au monde portant sur un déploiement d'une telle ampleur.

Le CPL, c'est la possibilité de délivrer des accès à l'Internet rapide sans avoir à passer par une ligne téléphonique, en utilisant le réseau électrique et les prises de courant normales des habitations. Cette solution technique est généralement évoquée pour couvrir les « zones blanches », mal voire non desservies par les FAI, en régions rurales et isolées. Ici, il s'agit du premier chantier d'envergure en pleine zone urbaine. Les trois ans de tests ont permis de vérifier plusieurs choses. « Premièrement, que cela ne perturbe pas le réseau électrique, affirme-t-on au Sipperec. Deuxièmement, la fiabilité des matériels et des installations. Et enfin, la qualité du service derrière. »

Mecelec vendra ses liaisons aux FAI 10 euros HT pour la seule téléphonie sur IP et 15 euros pour de l'Internet rapide et de la téléphonie. « A ce tarif-là, estime Bruno Estienne, président de Mecelec, ce sera un peu moins cher que les offres actuelles dans l'ADSL, NDLR] », même si la différence ne devrait pas être spectaculaire. Pour l'instant, ce sont des accès d'au moins 1 Mbit/s qui sont prévus. Avec plusieurs particularités par rapport à l'ADSL. « Il n'y a pas les contraintes physiques de l'ADSL, avec ce problème de distance par rapport au répartiteur, explique-t-on au Sipperec. Actuellement, avec toutes les publicités, on a l'impression qu'on peut avoir du triple-play partout : ce n'est pas vrai. »

Autre intérêt : pas besoin de prise téléphonique, on peut brancher l'ordinateur n'importe où dans l'appartement et avoir Internet. Mieux : le projet prévoit de l'accès à Internet et de la téléphonie sur IP, couplés ou non. La société Mecelec a obtenu une concession de quinze ans sur le réseau du Sipperec, le temps de récupérer les investissements engagés, soit 155,6 millions d'euros. Après cette période, le Sipperec procédera à un nouvel appel d'offres.

[Sipperec

Des hôpitaux écossais utilisent des iPods pour former leur personnel
Vendredi, 07/04/2006 - 00:00

Deux hôpitaux écossais ont adopté un programme de formation de leur personnel basé sur l'utilisation d'un iPod, a annoncé le NHS, le service de santé public britannique. Ces deux hôpitaux de Glasgow, l'Infirmerie royale et la Maternité de la princesse royale, ont adopté le iPod pour former leur nouveau personnel via un fichier audio téléchargeable (podcast), leur prodiguant des conseils divers en parallèle à une visite guidée des lieux. Ce podcast informe par exemple les nouvelles recrues sur les précautions à prendre pour se protéger des maladies nosocomiales, les maladie contractées dans les hôpitaux via les virus ambiants, sur la procédure à suivre pour faire une piqûre sans se blesser, ou sur la meilleure façon de déplacer un patient dans son lit.

En plus des conseils, l'audiodiffusion numérique se conclut par un test permettant à chaque recrue de vérifier si elle a bien enregistré les informations prodiguées. "Utiliser la technologie du iPod signifie que toutes nos recrues seront formées selon exactement les mêmes normes, et cela est une amélioration notable dans un système qui repose sur le personnel et est très vulnérable aux erreurs humaines", a plaidé Alastair Kirk, responsable de la formation pour tous les établissements du NHS à Glasgow. Ce système de formation via l'audiodiffusion numérique, sur un lecteur MP3 iPod, a été conçu en Australie, où il a déjà été testé avec succès dans plusieurs hôpitaux.

NHS

^ Haut
Avenir
Nanotechnologies et Robotique
Un tétraplégique espère gravir un sommet des Alpes grâce à un robot
Vendredi, 07/04/2006 - 00:00

Un Japonais tétraplégique compte gravir en août une montagne des Alpes suisses en se faisant transporter sur le dos d'un alpiniste, dont les forces seront décuplées par une combinaison robotisée. Seiji Uchida, 43 ans, et Ken Noguchi, 33 ans, escaladeront la partie finale du Breithorn (4 164 mètres), après s'être approchés du sommet par téléphérique. L'expédition doit durer une journée. Noguchi transportera Uchida sur son dos grâce à HAL, un exosquelette motorisé, mis au point au Japon pour accomplir des tâches qu'un homme normal n'aurait autrement pas la force de faire.

Avec HAL, une personne capable de pousser une charge de 100 kilos avec les jambes sur une machine de musculation peut en pousser 180, selon Cyberdyne, la société du professeur d'ingénierie Yoshiyuki Sankai, qui a mis au point le robot. Les médias se sont fait l'écho de HAL et de ses performances l'an dernier, aidant Uchida à concevoir son expédition, souligne Shinichiro Saigo, responsable de l'association «Avec des rêves», fondée par Uchida pour soutenir le projet. Paralysé depuis un accident de la circulation en 1983, Uchida a décidé de gravir un sommet des Alpes suisses parce qu'une photo du Matterhorn, un mont de ce massif, l'a aidé à retrouver le moral durant sa convalescence, selon M. Saigo. En découvrant HAL l'an dernier, il a eu l'idée de la manière dont il pourrait réaliser son rêve. Noguchi, alpiniste chevronné qui a escaladé les plus hauts sommets de la planète, a accepté en octobre de participer au projet. Uchida espère faire oeuvre utile avec son aventure. «J'essaye d'ouvrir de nouvelles voies pour les handicapés tout en réalisant un rêve», explique-t-il. «J'espère ainsi pouvoir donner du courage et de l'espoir à toutes les personnes handicapées dans une situation difficile.»

Canoe

Des pinces nanométriques
Vendredi, 07/04/2006 - 00:00

Depuis quelques années, les chercheurs travaillent sur la conception de machines moléculaires (rotors unidirectionnels ...), mais aucune n'avait encore été utilisée pour manipuler d'autres molécules. L'équipe de Kazushi Kinbara, au sein de l'Université de Tokyo, vient de créer une paire de pinces permettant de manoeuvrer des molécules de l'ordre du nanomètre. Elles sont faites de 2 molécules organiques de trois nanomètres de long, reliées par un axe composé d'un ferrocène, une molécule organo-métallique (métallocène).

Côté "pince", les bras mesurent environ un nanomètre de long et se terminent chacun par une molécule de porphyrine ayant un atome de zinc en son milieu, qui constitue les "spatules" de la pince, qui vont être en contact avec la molecule-cible. A l'autre extrémité de l'axe-ferrocène, en bout de molécule, les branches sont reliées par un azobenzène. Par photoisomerisation, cette molécule a la capacité de s'étirer sous l'action d'une lumière UV, et de se contracter sous la lumière visible. L'azobenzène va donc agir comme un vérin, serrant ou desserrant la pince suivant son élongation. Les applications peuvent être très variées : de l'outil "classique" à l'échelle du nanomètre, au transport de médicament, permettant de libérer une molécule à un endroit donné.

BE Japon

^ Haut
Matière
Matière et Energie
Les bus de Lille vont rouler au biogaz
Vendredi, 07/04/2006 - 00:00

Décidemment, les initiatives des collectivités locales en matière d'utilisation d'énergies propres se multiplient. La communauté urbaine de Lille (LMCU) veut récupérer le méthane dégagé par la décomposition des ordures ménagères pour faire rouler ses bus. Les 85 communes (1,1 million d'habitants) laissent chaque année un tas de déchets équivalant à une pelouse de football de la hauteur de la tour Eiffel. La Commission européenne a justement lancé un partenariat des villes aux biocarburants et LMCU a été chargée du management complet du projet Biogasmax regroupant 28 partenaires européens. Pierre Mauroy, président (PS) de LMCU, a présenté le dossier vendredi 24 mars à Lille, en présence des quatre collectivités les plus engagées, la région de Göteborg (Suède), les villes de Stockholm (Suède), Haarlem (Pays-Bas) et Rome (Italie). "En France, le biocarburant liquide est focalisé sur l'éthanol, regrette Paul Deffontaine, vice-président (PS) de LMCU chargé des déchets urbains. On pense toujours au gaz issu des productions agricoles, mais rarement à celui émanant des ordures. Ce qu'on veut faire de manière industrielle se produit naturellement !"

L'idée est d'éviter la dissipation du méthane issu des résidus urbains, qui induit le réchauffement de l'atmosphère, mais aussi de produire un carburant à source renouvelable. L'originalité lilloise est de réaliser cela à grande échelle. Le Centre de valorisation organique (CVO) en construction à Sequedin sera unique en Europe. D'abord par sa taille. A partir de 2007, il traitera 108 000 tonnes de déchets par an. Le plus gros centre, actuellement en Allemagne, recueille 50 000 tonnes. "Ensuite, explique Paul Deffontaine, nous aurons un garage de 150 bus directement branchés sur le biogaz. Cela n'existe pas ailleurs, excepté en Suède, mais en plus petites unités. En Allemagne, ils transforment en électricité l'énergie produite par la méthanisation." La rivalité avec les Scandinaves a poussé LMCU à prendre le management complet du projet européen et à édifier le CVO sur l'ancien site industriel de la Pierrette. "Nous voulions être aussi novateurs que les Suédois", ajoute Paul Deffontaine : Stockholm et Göteborg ont prévu d'équiper de sept stations-service au biogaz l'autoroute E20 (500 km) qui les relie.

Le Monde

Inauguration d'une centrale thermique biomasse à Baden-Baden
Vendredi, 07/04/2006 - 00:00

Le parc industriel Baden Airpark, près de Karlsruhe, accueille depuis le 21 mars 2006 une centrale thermique biomasse. Fruit d'un brevet finlandais, la centrale fonctionne avec des résidus ligneux issus de l'activité paysagère, soit 80.000 tonnes de biomasse par an, collectées dans un rayon de 100 km. La nouvelle centrale fournira de l'électricité et de la chaleur à quelque 12.000 foyers de la région de Baden-Baden. Elle peut produire une puissance électrique allant jusqu'à 5,2 mégawatts et jusqu'à 3,5 mégawatts pour le chauffage urbain.

Ce sont ainsi 65.000 tonnes de dioxyde de carbone en moins par an qui seront rejetées dans l'atmosphère par rapport à l'activité d'une centrale à charbon. Lors de l'inauguration, la chancelière Angela Merkel a souligné que la nouvelle centrale constituait une référence en matière d'innovation technologique, et serait une source de création de richesse et d'emploi. A moyen terme, le gouvernement allemand entend augmenter sensiblement la part de la biomasse dans la consommation énergétique primaire et accorder plus de moyens financiers à la recherche énergétique. Le 3 avril, le sommet national sur l'énergie a réuni à l'invitation de la chancelière les représentants des secteurs de l'énergie, de la protection des consommateurs, de l'automobile et de l'environnement. Les résultats serviront à l'élaboration d'une stratégie globale en matière de politique énergétique.

BE Allemagne

Des rayons T pour tout voir ou presque !
Vendredi, 07/04/2006 - 00:00

Le rayon T pourrait détrôner le puissant rayon X. Cela faisait plus d'un siècle qu'il patientait, tapi entre la lumière visible et les ondes radio, attendant patiemment que les progrès techniques lui permettent d'accéder aux feux de la rampe. L'avènement des nanotechnologies, ces procédés d'ultraminiaturisation des équipements électromagnétiques, devraient permettre au rayon T d'illuminer des domaines aussi divers que les télécommunications, l'imagerie médicale, la caractérisation de matériaux, la détection de gaz ou de polluants, la lutte contre le terrorisme ou l'observation astronomique.

Car le rayon T est capable de voir à travers la peau, à travers les vêtements, à travers la fumée, à travers les murs... Les articles scientifiques le concernant se sont multipliés depuis quelques années et les congrès accueillent maintenant des sessions entières consacrées à leur développement industriel. Les rayons T doivent leur dénomination à leur pedigree électromagnétique de fréquence, dont l'unité de mesure est le hertz. Situés juste après l'infrarouge et avant les micro-ondes utilisés pour les téléphones portables, ils couvrent la gamme allant de 0,3 à 10 térahertz (un térahertz étant mille milliards de hertz). Du fait de ces caractéristiques, et sans entrer dans le détail, cette «lumière» terahertz est restée longtemps impossible à écouter comme une onde radio grâce à une antenne, ou à être vue comme une particule de lumière.

Cela est dû essentiellement à la faible énergie des particules de cette «lumière». Mais c'est ce qui fait sa force aujourd'hui. Ces particules interagissent peu avec la matière, et peuvent donc la traverser comme le font les ondes radio. Tissus, plastiques, briques sont transparents aux rayons T. Ce qui n'est pas le cas des métaux et de l'eau qui les bloquent. Les rayons T sont capables de pénétrer la peau d'une dizaine de centimètres. Etant mi-radio, mi-lumière, il a fallu combiner les deux techniques pour les apprivoiser. On exploite leur côté lumière en les focalisant avec des lentilles, et leur côté radio en utilisant comme pellicule-photo un matériau sensible à la chaleur recouvert d'un tapis de microscopiques antennes que l'on sait réaliser depuis peu. Celles-ci sont conçues pour recueillir les particules des rayons T, et les transformer en chaleur. Cette élévation de température est transformée en image comme dans un instrument infrarouge. Ainsi est née l'impudique caméra à rayons T. Elle est assez sensible pour capter les rayons T naturellement présents sans qu'il y ait besoin d'utiliser un «éclairage» artificiel. Pointée sur une personne, elle va donc donner l'image du corps de cette personne, les rayons T étant arrêtés par les tissus humains, mais pas par ses vêtements. Les rayons T distingueront donc également tout objet métallique «caché». Il est de même possible de détecter une personne derrière une cloison.

Plusieurs sociétés s'emploient à commercialiser cette propriété des rayons T pour des applications de sécurité. Une expérimentation a eu lieu l'été dernier dans un aéroport britannique. Les rayons T peuvent également révéler le contenu de paquets, de lettres. Ils sont même capables de compter les allumettes dans une boîte sans l'ouvrir. Ces tests sont encore préliminaires mais pourraient assez vite déboucher sur des applications à grande échelle. Et pas seulement dans le domaine de la sécurité. Une caméra capable de voir dans le brouillard ou dans la fumée trouverait des clients dans de nombreux domaines. Autre grand champ de travail pour les rayons T, l'imagerie médicale. Car, là aussi, progrès technique aidant, on est désormais capable de fabriquer des sources de «lumière T». Ses particules étant beaucoup moins énergétiques, moins fortes, que celles des rayons X, elles présentent moins de dangers que ces derniers. Et même s'ils ne traversent pas le corps, ils permettent des diagnostics sur une bonne profondeur.

Figaro

^ Haut
Espace
Espace et Cosmologie
La sonde Venus Express à une semaine de son arrivée à l'étoile du Berger
Vendredi, 07/04/2006 - 00:00

La sonde européenne Venus Express se trouvait à une semaine de son arrivée à proximité de l'étoile du Berger, et se préparait aux manoeuvres qui lui permettront de s'insérer le 11 avril sur son orbite autour de la planète, a indiqué l'agence spatiale européenne (ESA). Venus Express, qui a parcouru plus de 400 millions de kilomètres depuis son lancement le 9 novembre, a pour mission essentielle d'étudier l'atmosphère de Vénus - composition, températures...

Elle restera sur orbite autour de la planète pendant 500 jours. Les contrôleurs de la mission au Centre européen d'opérations spatiales (ESOC) de l'ESA à Darmstadt se préparent à effectuer différentes manoeuvres "afin de réduire d'environ 15 % la vitesse relative" de Venus Express, qui est actuellement de 29.000 km/h par rapport à la planète. "L'insertion sur orbite autour de Vénus est une étape périlleuse. Le plus difficile est d'effectuer la manoeuvre au bon moment", a expliqué un ingénieur de l'ESOC, Jean-Baptiste Gratadour.

A l'approche de la planète, la sonde devra notamment allumer son moteur principal pendant 50 minutes afin de pouvoir se placer sur une orbite provisoire. Fin mai, après quelques corrections, elle parcourra en 24 heures une orbite quasi polaire de 250 km de périgée et 66.000 km d'apogée. L'atmosphère de Vénus est très dense et chaude, constituée à 96 % de dioxyde de carbone, ou gaz carbonique (CO2). On y trouve également de l'azote, du dioxyde de soufre (SO2) et de la vapeur d'eau. Par ailleurs, à une soixantaine de kilomètres d'altitude, les vents soufflent, pour une raison inconnue, à quelque 400 km/h.

La planète est couverte d'une épaisse couche de nuages dont les sept instruments à bord de la sonde tenteront de percer les secrets pour en tirer des enseignements sur la géologie et une éventuelle activité volcanique. La sonde pourrait en outre fournir des informations sur l'origine de la croûte vénusienne, relativement jeune (500 millions d'années environ), alors que la planète a été constituée il y a 4 milliards d'années.

ESA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules souches adultes pour réparer la moelle épinière
Vendredi, 07/04/2006 - 00:00

Des chercheurs canadiens dirigés par Michael Fehlings (Université de Toronto) ont réussi à améliorer les fonctions motrices de rats dont la moelle épinière avait été abîmée grâce à des cellules souches prélevées dans le cerveau de rats adultes. Mais pour être efficace, le traitement doit être administré rapidement après la blessure : au-delà d'un délai de deux semaines l'efficacité de la procédure diminue très nettement.

De précédentes recherches menées sur des rats ont montré que des cellules souches embryonnaires pouvaient réparer les lésions de la moelle épinière. L'équipe de Fehlings a, elle, injecté aux rats blessés un cocktail de cellules souches neuronales, de facteurs de croissance et de médicaments anti-rejet. Plus d'un tiers des cellules souches se sont intégrées aux tissus endommagés de la moelle épinière. La majeure partie de ces cellules sont devenues des oligodendrocytes qui produisent la myéline, la gaine qui entoure les fibres nerveuses et qui permet de transporter l'influx nerveux vers le cerveau.

Les rats qui ont reçu le traitement ont récupéré en partie leurs fonctions motrices, expliquent les chercheurs dans le Journal of Neuroscience, mais surtout ils bénéficiaient d'une meilleure coordination de leurs membres que les rats non traités. Pour obtenir des résultats, les cellules doivent être transplantées très tôt après la lésion de la moelle épinière. D'après Fehling et ses collègues, 30 % des cellules souches neuronales injectées survivent si le traitement est administré deux à trois semaines après la blessure, contre 5 % seulement au bout de 6 à 8 semaines.

MF

JNS

Une nouvelle possibilité d'emploi des cellules souches en médecine
Vendredi, 07/04/2006 - 00:00

Des scientifiques de l'université Georg-August de Gottingen ont découvert que les cellules souches adultes du tube séminifère de souris, c'est-à-dire les spermatogonies qui forment par division les spermatocytes, se comportent comme des cellules souches embryonnaires. A partir de ces cellules souches adultes, les chercheurs sont parvenus à former un agglomérat de cellules de type embryonnaire et pluripotentes. Ils ont ainsi obtenu par différenciation des cellules cardiaques. De la même manière, on pourrait également obtenir des cellules nerveuses afin de soigner la maladie de Parkinson, des cellules vasculaires, des cellules de peau, de foie, de pancréas ou de sang. Ces cellules souches adultes pourraient être prélevées chez un patient masculin, cultivées in vitro puis réimplantées chez ce même patient afin de soigner les séquelles d'un infarctus, la maladie de Parkinson ou le diabète. On éviterait ainsi le risque de rejet immunologique et les problèmes éthiques que posent l'utilisation de cellules souches embryonnaires en recherche médicale. Cette capacité des cellules souches adultes cultivées de se différencier en tout type cellulaire, comme le font les cellules souches embryonnaires, n'avait pour le moment jamais été observée. Il conviendrait maintenant d'étudier la possibilité d'obtenir le même type de cellules souches adultes chez les femmes.

BE Allemagne

Cancers et métastases osseuses : identification d'une molécule-clé
Vendredi, 07/04/2006 - 00:00

Une équipe internationale a découvert une molécule qui jouerait un rôle-clé dans la survenue de métastases osseuses d'un cancer du sein, de la prostate ou de la peau, ouvrant d'éventuelles pistes thérapeutiques, selon une étude parue dans la revue scientifique britannique Nature. Les douloureuses métastases osseuses sont une complication fréquente de nombreux cancers, mais on a longtemps ignoré pourquoi certains cancers envahissent souvent les os, expliquent Josef Penninger (Académie autrichienne des sciences) et ses collègues.

On estime que 70 % des patientes ayant un cancer du sein évolutif et 84 % des hommes souffrant d'un cancer de la prostate développent des métastases osseuses, ajoutent-ils. La communication entre les cellules cancéreuses échappées de la tumeur principale et le tissu-cible influence le choix de l'organe, notent-ils. La molécule-clé en question, une cytokine appelée RANKL, est produite en grande quantité dans la moelle osseuse. Elle induirait la migration de cellules de mélanome ou d'autres cellules épithéliales cancéreuses possédant à leur surface un récepteur RANK lui correspondant. De tels récepteurs sont également retrouvés sur les cellules de cancers du sein ou de la prostate, selon ces travaux.

En se servant de souris génétiquement modifiées comme modèle pour le mélanome, les chercheurs montrent que bloquer l'action de la molécule RANKL prévient les métastases osseuses, mais pas celles envahissant d'autres organes. Le blocage de l'interaction entre cette molécule-clé et son récepteur cellulaire représente, selon les chercheurs, une "cible thérapeutique prometteuse" pour lutter contre les métastases osseuses.

Cyberpresse

Celebrex : possible effet préventif sur le cancer du colon
Vendredi, 07/04/2006 - 00:00

Le Celebrex, un anti-inflammatoire très répandu dans le traitement de l'arthrose et de la polyarthrite rhumatoïde, pourrait également être efficace dans la prévention du cancer du colon, selon deux nouvelles études cofinancées par son fabricant, le laboratoire Pfizer. Toutefois, en raison de sa contre-indication déjà connue chez les patients présentant une maladie cardiaque ou une maladie cérébro-vasculaire, ce médicament ne pourra pas être recommandé, en prévention du cancer du colon, à des personnes ne présentant qu'un risque moyen ou légèrement supérieur. Ces deux études de grande ampleur, présentées à Washington lors d'un congrès médical consacré au cancer, ont montré que le Celebrex pouvait réduire de 33 % à 45 % le risque de réapparition de polypes précancéreux chez les patients ayant déjà subi une ablation de ce type de tumeur.

Pour la première étude, cofinancée par l'Institut national américain sur le cancer (National Cancer Institute) et par le laboratoire Pfizer, plus de 2.000 personnes ont été traitées soit au Celebrex, soit par une pilule placebo sur trois ans. Alors que plus de 60 % de l'échantillon sous placebo a développé de nouveaux polypes, cette proportion est tombée à moins de 50 % pour l'échantillon traité au Celebrex, a rapporté le Dr Monica Bertagnolli du Women's Hospital de Boston. Toutefois, la survenue d'attaques cardiaques et autres problèmes cardiaques graves a été majorée dans le groupe Celebrex (3,4 % contre 2,5 % dans le groupe placebo).

L'autre étude, elle entièrement financée par Pfizer, est parvenue à des résultats similaires avec un échantillon de près de 1.600 personnes réparties dans 32 pays : à échéance de trois ans, le taux de réapparition de polypes s'est élevé à 34 % dans le groupe Celebrex, contre 49 % dans le groupe placebo. Mais, là encore, les problèmes cardiaques ont été plus nombreux chez les patients traités au Celebrex que dans le groupe placebo : 7,5 % contre 4,6 %.

Pfizer

Combiner les approches pour vaincre les tumeurs ?
Vendredi, 07/04/2006 - 00:00

Les traitements actuels contre le cancer connaissent des limites, d'ou la nécessite de combiner différentes approches pour soigner cette maladie. En effet, la plupart des traitements actuels contre le cancer tels que les chimiothérapies ou radiothérapies ne peuvent différencier les cellules saines des cellules malades. De plus, les thérapies fondées sur l'utilisation du système immunitaire sont plus spécifiques, mais non applicables contre certaines variétés de tumeurs. Des chercheurs de l'Université Stanford en Californie ont mis au point un traitement alliant deux techniques pour le traitement du cancer. Les pistes envisagées pour remédier aux problèmes évoqués sont de combiner des virus " tueurs de cancers " avec des cellules du système immunitaire. Concrètement, la cellule se fixe sur la cellule cancéreuse par des récepteurs spécifiques, le virus se réplique ensuite au sein de la tumeur et détruit la cellule malade.

L'équipe de Steve Thorne et Christopher Contag a recherché des candidats pour répondre à ce cahier des charges complexe. Ils ont identifié des cellules CIK (Cytokine-Induced Killer) qui agissent sur un nombre important de tumeurs. Le virus intègré a longtemps été utilisé contre la variole. Il s'agit du virus Vaccinia qui a l'avantage de se répliquer seulement 72 heures après l'injection. Cette longue phase éclipse est suffisante pour que les cellules CIK se logent profondément dans la tumeur. Ainsi le virus agit vraiment à l'intérieur de la tumeur alors qu'il n'est que très faiblement détecté dans les autres parties du corps.

L'efficacité de cette stratégie a été testée sur trois lots de 8 souris. Des souris immunodéprimées ont subi une xénogreffe de cellules tumorales ovariennes humaines. Les souris testées avec cette double technique ont survécu. Les souris traitées avec seulement la cellule CIK sans le virus intègré ont survécu une semaine de plus que les souris contrôles alors que l'injection du virus seul a guéri 25 % des souris malades. Cette stratégie est un exemple des effets bénéfiques apportés par la combinaison de techniques anti-cancéreuses. Selon Inder Verma du Salk Institute de San Diego en Californie, il s'agit de la démarche la plus prometteuse pour le traitement des cancers.

BE USA

Découverte d'une molécule efficace contre le chikungunya à Marseille
Vendredi, 07/04/2006 - 00:00

L'unité des virus émergents du CHU de la Timone, à Marseille, a testé en laboratoire une molécule qui s'est révélée efficace contre le virus du chikungunya. Le médicament doit toutefois encore faire l'objet de tests cliniques.

Les tests ont été réalisés in vitro par l'équipe du professeur Xavier de Lambarellie, professeur de virologie à la faculté de la Timone et responsable de l'unité des virus émergents. M. de Lambarellie est également membre de la cellule de coordination de la recherche sur le chikungunya La molécule testée contre le chikungunya est une molécule déjà existante : elle est utilisée contre les affections parasitaires.

"Cette molécule, qui a déjà été utilisée par des millions de gens, est très peu toxique et ne présente pas de souci de tolérance", a expliqué au journal le professeur de Lambarellie, qui s'est toutefois refusé à donner le nom du médicament en question, "par crainte d'une ruée dans les pharmacies". M. de Lambarellie a présenté les résultats de ses tests au ministère de la Santé, a indiqué le journal La Provence. 230.000 cas de chikungunya ont été recensés à la Réunion depuis l'apparition de l'épidémie en 2005, entraînant 174 décès directs ou indirects en 2006.

Timone

Cerveau : l'intelligence liée à l'évolution du cortex
Vendredi, 07/04/2006 - 00:00

Selon des recherches effectuées par Philip Shaw, de l'Institut National de la Santé de Grande Bretagne, un quotient intellectuel (QI) supérieur à la moyenne ne serait pas lié à un cerveau plus volumineux mais aurait un lien avec le développement du cortex, la couche de substance grise qui recouvre les deux hémisphères cérébraux. Chez les personnes qui ont un QI supérieur, le cortex s'épaissit plus rapidement pendant l'enfance, atteignant son maximum plus tardivement que chez les autres enfants, avant de diminuer à l'adolescence, expliquent des chercheurs dans la revue Nature.

Les chercheurs anglais ont utilisé le test d'intelligence le plus répandu, l'échelle de Weschler, pour évaluer le QI des enfants enrôlés pour cette étude. Les chercheurs ont suivi plus de 300 enfants de l'âge de 6 ans à l'âge de 19 ans. Ils ont étudié leur structure cérébrale à plusieurs reprises à l'aide de l'imagerie par résonance magnétique nucléaire (IRM).

Les enfants ayant un QI "supérieur" (121 à 145) ont au départ un cortex plutôt fin qui s'épaissit rapidement jusqu'à l'âge de 11 à 12 ans, atteignant alors son pic avant de s'affiner progressivement. Chez les enfants ayant un QI "moyen" (83-108), le cortex est initialement plus épais et atteint son pic dès 8 ans. Chez les enfants ayant un QI "élevé" (109-120) le développement du cortex suit un chemin intermédiaire. Les variations, dont les causes exactes demeurent inexpliquées, sont particulièrement nettes dans le cortex préfrontal, soulignent les chercheurs.

Ces résultats suggèrent que l'intelligence est davantage liée à l'évolution de la structure du cerveau qu'à sa masse ou son volume. Les chercheurs souhaitent poursuivre leurs travaux pour identifier les variantes génétiques liées aux différentes évolutions du cortex. Philip Shaw souligne toutefois que l'intelligence est très probablement le fruit d'une interaction complexe entre les gènes et l'environnement.

NIH

^ Haut
Homme
Anthropologie et Sciences de l'Homme
La fusion d'Alcatel et de Lucent Technologies va donner naissance à un géant des télécoms
Vendredi, 07/04/2006 - 00:00

Alcatel et Lucent Technologies ont trouvé un accord le 2 avril 2006 pour entamer le processus de fusion des deux sociétés. Le montant de la transaction, qui s'opère par un échange d'actions, s'élève à 13,4 milliards de dollars. Principaux atouts à cette fusion : une complémentarité géographique très forte entre Alcatel, qui réalisait 42 % de son chiffre d'affaires en Europe de l'Ouest (chiffres 2004), et Lucent Technologies dont l'activité reste centrée sur les Etats-Unis où l'entreprise constituait 63 % de son chiffre d'affaires en 2005. La réunion des deux ensembles affiche un équilibre quasi-parfait en termes d'activité entre les différentes zones géographiques (1/3 en Europe, Amérique du Nord et Asie/Pacifique).

Le deuxième atout de cette fusion vient de la taille critique qu'offre désormais le nouvel équipementier. Il peut mieux répondre aux demandes des opérateurs télécoms internationaux qui eux-mêmes cherchent à se rapprocher, comme en témoigne les dernières opérations AT&T / Bellsouth, Verizon / MCI ou Sprint / Nextel... Le nouvel équipementier pèse désormais 30 milliards d'euros en capitalisation boursière pour un chiffre d'affaires annuel de 21 milliards d'euros.

L'opération retire un concurrent aux deux sociétés tout en leur offrant des économies potentielles liées aux synergies, à la mise au point d'une gamme de produits commune et à la mutualisation de ressources. Consécutivement à cette opération, la direction espère économiser 1,4 milliard d'euros par an et prévoit de supprimer 10 % de sa masse salariale, évaluée à 88 000 collaborateurs à travers le monde. Le nouvel ensemble emploiera 26 100 ingénieurs et dépensera près de 2,4 milliards d'euros en recherche et développement. Selon les termes de l'accord signé entre les deux parties, les actionnaires de Lucent recevront 0,2 titre Alcatel pour chaque action Lucent. A terme, ils détiendront ainsi 40 % du nouvel ensemble et partageront à égalité avec Alcatel les places au conseil d'administration. Le siège social du groupe sera basé à Paris mais dirigé par Patricia Russo, actuelle PDG de Lucent Technologies, qui prendra le titre de directrice générale à cette occasion. Serge Tchuruk, le PDG d'Alcatel, deviendra le président de la nouvelle entité.

La fusion doit cependant être encore validée par les autorités de régulation indépendantes. Un processus d'examen en cours qui ne rendra la fusion effective que d'ici 6 à 12 mois. A cette occasion, de nombreux problèmes seront débattus, notamment celui du financement des retraites des employés de Lucent Technologies ou encore les questions de sécurité nationale des projets télécoms d'Alcatel ou de Lucent.

Alcatel

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Essais réussis d'un "scramjet" en Australie
Vendredi, 07/04/2006 - 00:00

Des scientifiques australiens ont réussi le 30 mars un deuxième essai de "scramjet", appareil à vitesse hypersonique qui pourrait révolutionner le transport aérien. L'engin a atteint une altitude supérieure à 325 km et une vitesse d'environ 7.500 km/h, ont précisé des scientifiques de l'Université du Queensland (nord-est), organisateurs de l'essai. Ce lancement, réalisé en collaboration avec l'Agence japonaise d'exploration aérospatiale, intervient après une première expérimentation le 25 mars, également en Australie. "Le lancement s'est passé comme prévu, nous avons eu un nouveau décollage tout à fait correct", a déclaré Michael Smart, designer.

Les "scramjets" ("supersonic combustion ramjet", ou statoréacteur à combustion supersonique) utilisent l'oxygène de l'air plutôt que de devoir emmener de lourds réservoirs comme le font les fusées. Ce genre d'appareil atteint des vitesses hypersoniques (Mach 5 et plus). Les scientifiques espèrent que cela permettra un jour de réduire considérablement la durée des vols commerciaux et de diminuer le coût du lancement des satellites.

Le test a consisté à propulser à l'aide d'une fusée un engin non habité, constitué essentiellement d'un moteur de scramjet, pesant une centaine de kilos et mesurant 1,5 mètre de long. Contrairement aux moteurs subsoniques, les scramjets n'ont pas besoin de pièces mobiles pour compresser l'air. La compression est plutôt effectuée en mettant à profit le déplacement rapide du jet. La technique a cependant l'inconvénient suivant : les scramjets ne peuvent pas, à l'heure actuelle, voler à vitesse subsonique. C'est pourquoi ils doivent être propulsés à l'aide d'une fusée avant de pouvoir être largués à la vitesse à laquelle ils peuvent fonctionner.

NS

BBC

Voitures à air comprimé : ça roule !
Vendredi, 07/04/2006 - 00:00

En matière de mode de propulsion, les ruptures technologiques n'ont pas été nombreuses depuis l'invention du moteur à explosion ; c'est pourquoi la voiture à air comprimé mise au point par l'ingénieur Guy Nègre et sa société MDI mérite le détour.

Dans ce véhicule, l'air est comprimé dans un réservoir de 200 litres en carbone avec une pression de 4350psi. Il passe par une injection vers la chambre de combustion où l'expansion de l'air entraîne le piston. Chaque modèle est présenté dans trois versions, 2, 4 ou 6 cylindres.

Le réservoir se recharge sur une simple prise électrique en 4 heures pour un coût de 1.50 ? et permet une autonomie de 150 km. Pour la même distance, il en coûte environ 9 ? avec un véhicule à essence. Certes, la vitesse de cette voiture est limitée à 60km/h, mais celle-ci ne rejette que de l'air froid qui peut être réutilisé pour la climatisation. Outre sa propreté, la voiture à air comprimé est donc un véhicule économique à l'entretien simple et peu coûteux, grâce notamment à la température modérée de fonctionnement du moteur : une vidange tous les 50.000 km avec de l'huile alimentaire suffit !

MDI

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top