RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 431
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Mai 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Dix technologies d'avenir pour changer les systèmes d'information
Wi-Fi : les points d'accès sortent du cadre expérimental en France
Le contrôle du couplage qubits : une grande avancée vers l'ordinateur quantique
Matière
16 % d'électricité éolienne en Europe d'ici 2020
Transformer les toits en panneaux solaires grâce à un spray !
France : les collectivités locales misent sur les énergies renouvelables
Espace
L'explosion d'étoile la plus brillante jamais observée
La Nasa présente le futur télescope spatial James Webb qui va succéder à Hubble
Vivant
ESB : un vaccin prometteur à l'essai chez la souris
Un diabète : un mécanisme inflammatoire révélé
La chaleur contre l'asthme
Un riz qui aime le fer
Création d'une encyclopédie numérique inédite de toutes les espèces vivantes
Les mécanismes décryptés d'un cancer de l'enfant
Une vaste étude confirme l'efficacité du vaccin contre le cancer de l'utérus
Lire dans les pensées, un rêve de science-fiction qui devient réalité
Recherche
Un premier avion propulsé par une pile à combustible
Edito
Microsoft et Yahoo! : l'inévitable alliance pour contrer les ambitions de Google



Il y a quelques jours, le « New York Post »révélait que Microsoft envisageait sérieusement d'acheter Yahoo! pour la coquette somme de 50 milliards de dollars. De son côté, le « Wall Street Journal » parle d'un simple « rapprochement et d'un « partenariat renforcé ». Mais derrière ces doux euphémismes, c'est bien une lutte de pouvoir impitoyable au niveau planétaire qui a commencé pour le contrôle de la vente de biens, services et publicité sur le Net.

Il est vrai qu'avec une capitalisation boursière de 300 milliards de dollars (contre 155 milliards pour Google) et 20 milliards de dollars de cash, Microsoft a les moyens de prendre le contrôle de Yahoo ! qui ne vaut, si l'on peut dire, que 42 milliards de dollars et a enregistré une perte de 60 % de bénéfice net pour l'activité de son portail en 2006.

Mais quelles sont les raisons qui pousse Microsoft, traditionnellement rétif à de telles acquisitions, à envisager une fusion pour le moins risquée avec une société, Yahoo!, qui compte plus de 10 000 salariés ? La réponse est simple : l'explosion du marché publicitaire sur le Web et la croissance prévisible des services informatiques en ligne. Or, dans ces deux domaines absolument stratégiques pour son avenir, Microsoft ne se suffit plus à lui-même et a un besoin vital d'élargir ses horizons commerciaux et de s'imposer sur ces nouveaux marchés qui représentent d'immenses profits potentiels pour les décennies à venir. Après avoir renouvelé en 2005 un partenariat publicitaire avec AOL, Microsoft cherche à présent le moyen de résister au rouleau compresseur Google qui est devenu l'acteur dominant de la publicité en ligne.

Une fusion Microsoft-Yahoo! permettrait la constitution d'une entité qui aurait un chiffre d'affaires publicitaire équivalent à celui de Google : 7 milliards de dollars par an, contre 7,3 milliards pour Google. Une étude publiée récemment par Nielsen/NetRatings permet de bien éclairer ces enjeux économiques : l'institut américain révèle que, sur le mois de mai 2007, plus de 3,8 milliards de recherches ont été effectuées à partir de Google, numéro un mondial, avec 54 % de parts de marché, devant Yahoo!, 1,55 milliard et 22 % de parts de marché, et Microsoft avec 715 millions de recherches, soit 10 % du marché mondial.

En parts de marché, le nouveau groupe constitué par Microsoft et Yahoo! pourrait espérer, pour sa part, contrôler 32 % du marché mondial. Il pourrait donc espérer une part plus importante du fructueux gâteau de la publicité en ligne qui croît de 20 % par an et atteindra 45 milliards de dollars en 2009. Quant à Yahoo!, il ne cesse de perdre des parts de marché en matière de publicité en ligne et n'attire plus que 16 % de la publicité sur le Web, contre 75 % pour Google, qui vient encore de renforcer sa position par le rachat de la régie « Double Clic ».

Mais pour Microsoft, il y a plus grave encore : Google est en train de l'attaquer frontalement, et victorieusement, sur son terrain, celui de la vente de logiciels et de services informatiques. Ayant parfaitement pressenti et exploité la demande mondiale en matière de services logiciels en ligne (SaaS), Google est devenu, en quelques années, un acteur incontournable et dominant sur ce nouveau marché d'avenir grâce à une multitude de services aux entreprises et aux particuliers, tous plus innovants les uns que les autres.

Le succès actuel de sa suite bureautique « Google Apps » ne fait que confirmer cette tendance. Bien sûr, Microsoft a fini par prendre conscience de cette menace et par réagir en proposant de nouveaux services en ligne, associés à ses logiciels résidents dans les ordinateurs, mais pour beaucoup d'analystes, cette réponse tardive est insuffisante pour contrer efficacement la stratégie globale et remarquable de cohérence de Google, comme le prouve le doublement de son bénéfice, en 2006, à 3,07 milliards de dollars.

Enfin, autre élément à prendre en compte, selon une étude conjointe réalisée par Arthur Little et BNP Paribas, les opérateurs Télécoms ont renoncé à être producteurs de contenus et de services et multiplient les partenariats avec les géants du Net et des médias. Mais, selon cette étude, le rapport de force, pour l'instant "gagnant-gagnant", basculera inévitablement du côté des géants du Web. L'étude observe que ces géants, comme Yahoo! et Google, sont déjà en mesure d'imposer leurs services aux opérateurs et prévoit que, d'ici 3 ans, ces grands groupes numériques rentreront en concurrence frontale avec les opérateurs sur l'ensemble des services proposés. Microsoft et Yahoo! n'ont évidemment pas l'intention d'abandonner cette nouvelle manne à Google.

Dans un tel contexte, et alors qu'en matière de logiciels comme en matière de navigateurs Internet, les systèmes « open source » ne cessent de gagner du terrain, Microsoft semble donc bel et bien condamné à se rapprocher de Yahoo! qui fait, en ce moment, l'objet de beaucoup de convoitises, notamment de la part d'AOL qui aimerait bien enrichir son offre en prenant le contrôle du célèbre portail.

Reste à voir si deux entreprises aussi différentes dans leur culture, leur organisation et leur management pourront fusionner de manière synergique. L'exemple de la fusion AOL-Time Warner montre en effet à quel point il est difficile de faire travailler ensemble des firmes à la culture bien tranchée.

Quoiqu'il en soit, on mesure à quel point, en observant ces grandes manoeuvres entre géants de l'économie numérique, la chaîne de valeur économique est en train de changer radicalement de nature dans l'économie dématérialisée et cognitive de ce début de XXIe siècle. Désormais, l'économique et le culturel, l'éducatif et le ludique, le social et le commercial, le public et le privé, le gratuit et le payant se combinent de manière inédite et complexe et les géants qui domineront demain l'économie virtuelle seront ceux qui sauront le mieux innover dans cette nouvelle dynamique combinatoire en évolution de plus en plus imprévisible.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Dix technologies d'avenir pour changer les systèmes d'information
Vendredi, 18/05/2007 - 00:00

« Les directeurs informatiques qui pensent que leur métier n'est que de faire fonctionner la salle de serveurs, s'assurer de la continuité de service et trouver de nouveaux jouets technologiques, ne survivront pas aux prochaines années ». Cet avis brutal est signé Andy Kite, vice-président de Gartner Group. Pour lui, les directeurs informatiques doivent désormais agir comme un conduit entre le business et les technologies. « Ils doivent voir comment les nouvelles technologies peuvent aider à résoudre un problème soulevé par le coeur de métier de leur société. »

Dans cette optique, Gartner liste dix technologies d'avenir : les processeurs multicoeurs, les interfaces utilisateurs, les plates-formes Web, les applications hybrides utilisant le contenu de plusieurs sources différents, les architectures Tera, les réseaux sociaux, les mondes virtuels à la Second Life, la vidéo, la sémantique et l'intégration des préoccupations environnementales dans la high-tech. Selon Gartner, la pression pour adopter ces technologies viendra moins de la direction que des besoins des employés et des clients de l'entreprise. Et l'adoption d'une ou de l'ensemble de ces technologies ne sera pas une garantie de survie. Pour Andy Kite, « les sociétés devront marcher sur la corde raide pour fournir les nouvelles technologies d'Internet que les clients veulent et gérer les menaces sur la sécurité qu'elles vont apporter. »

R&T

Wi-Fi : les points d'accès sortent du cadre expérimental en France
Vendredi, 18/05/2007 - 00:00

L'Arcep a décidé de sortir les 31 000 hotspots Wi-Fi du cadre expérimental dans lequel ils étaient jusqu'à présent confinés en France. «Ce régime dérogatoire, justifié durant la période d'expérimentation de réseaux ouverts au public (...), n'est désormais plus pertinent», indique le régulateur des télécoms, mettant principalement en exergue «la maturité de la technologie».

Depuis leur ouverture au public début 2003, les réseaux de hotspots Wi-Fi sont basés sur des autorisations accordées à titre expérimental. Ils dérogent ainsi au régime général appliqué aux opérateurs de communications électroniques. En sortant du cadre expérimental, les sociétés gérant des hotspots Wi-Fi vont désormais obtenir le statut de véritables opérateurs télécoms. Début 2007, plus de 210 opérateurs Wi-Fi étaient déclarés auprès de l'Arcep.

ART

Le contrôle du couplage qubits : une grande avancée vers l'ordinateur quantique
Vendredi, 18/05/2007 - 00:00

Une équipe de recherche formée par NEC, l'Institut de Recherche en Physique-Chimie (RIKEN), financée par l'Agence Japonaise pour la Science et la Technologie (JST) a développé une nouvelle étape indispensable à l'élaboration d'un ordinateur quantique, qui était attendue depuis longtemps. Après le premier qubit ("quantum bit" soit l'équivalent d'un bit informatique dans sa version quantique) basé sur des semiconducteurs en 1998, puis la première porte logique au monde à base de 2 qubits sur semiconducteurs en 2003, l'équipe a démontré, pour la première fois, que l'on pouvait contrôler la force de couplage entre deux qubits à l'aide d'un circuit simple. Les qubits ont la particularité d'avoir un état dit de "superposition" où les valeurs 0 et 1 sont prises en même temps, en plus des valeurs standard 0 et 1 du bit classique. Cette originalité permet à un nombre N de qubits de prendre 2N valeurs en même temps alors que N bits ne peuvent prendre qu'une valeur à la fois parmi ces 2N habituellement. La résolution de certains problèmes qui pourraient prendre 10 millions d'années avec les ordinateurs classiques, pourrait se faire en seulement quelques dizaines de secondes avec un ordinateur quantique.

Pour faire une opération de calcul quantique, il faut être capable de manipuler l'état quantique de plusieurs qubits au cours du temps. Une telle entreprise implique de pouvoir manipuler soit des qubits individuellement, soit deux qubits en même temps pour une opération logique, mais aussi d'être capable de démarrer ou d'arrêter le couplage entre deux qubits.

Pour cela, l'équipe a utilisé un troisième qubit entre les deux autres capable de fonctionner comme un transformateur non linéaire activant ou désactivant le couplage entre les deux qubits. Le tout se contrôle par la simple impulsion d'une micro-onde. De plus, l'opération de couplage ne réduit pas la durée de vie des qubits.

Jusqu'à présent le contrôle du couplage s'était avéré une opération difficile à mettre en place. Avec une porte logique à un qubit, une porte logique universelle (porte de base pouvant permettre l'élaboration de toutes les opérations logiques d'un ordinateur comme le NAND dans les ordinateurs actuels) à deux qubit et la possibilité de coupler deux qubits, tous les outils de base nécessaires à la mise en pratique d'algorithmes quantiques sont réunies. La prochaine étape des chercheurs est l'élaboration d'opérations quantiques plus complexes. On peut supposer qu'elles comporteront plusieurs portes logiques faites de paires de qubits couplés (les plus petites unités en logique quantique).

BE Japon

^ Haut
Matière
Matière et Energie
16 % d'électricité éolienne en Europe d'ici 2020
Vendredi, 18/05/2007 - 00:00

L'énergie éolienne pourrait générer jusqu'à 16 % de l'électricité en Europe d'ici 2020, c'est ce qu'ont entendu les délégués présents à l'ouverture de la Conférence européenne sur l'énergie éolienne à Milan, en Italie (7 mai). L'énergie éolienne contribuera fortement à atteindre l'objectif de 20 % de l'approvisionnement global en énergie dans l'Union européenne provenant de sources d'énergie renouvelables d'ici 2020 indique Arthouros Zervos, président de l'Association européenne de l'énergie éolienne (EWEA).

Les politiques énergétiques et la protection du climat ont été en première ligne de l'agenda lors du conseil de printemps, qui s'est tenu à Bruxelles en mars, au cours duquel les chefs d'État et de gouvernement de l'UE se sont engagés à un objectif contraignant de 20 % d'énergies renouvelables d'ici 2020. L'Europe tire d'ores et déjà plus de 3 % de son électricité de l'éolien, produisant ainsi 50 000 mégawatts (MW) de puissance installée. L'année dernière a été un record, plus de 7 500 MW de nouveaux parcs éoliens ont été construits. D'ici 2020, 180 000 MW pourraient être à même de fonctionner.

La séance d'ouverture a permis d'entendre des messages positifs de la part d'un certain nombre d'éminents politiques et personnalités industrielles européens.

Peter Ahmels, président de la conférence et ancien président de l'Association allemande de l'énergie éolienne, indique. Si le nouvel objectif européen est atteint, plus d'un tiers de l'énergie européenne sera d'origine renouvelable d'ici la fin de la prochaine décennie. Cela a envoyé un signal politique fort. Ce n'est pas moins que le début d'une deuxième révolution industrielle.

Représentant la présidence allemande de l'UE, Michael Müller, secrétaire d'État parlementaire du ministère de l'Environnement allemand, dit : Avec la menace d'un changement climatique, il ne nous reste plus que peu de temps pour éviter de détruire la planète. La part en augmentation des énergies renouvelables qui est nécessaire, ne sera possible que si le développement de l'énergie éolienne, sur terre et sur mer, est soutenu aussi fortement que possible.

Mechtild Rothe, vice-présidente du Parlement européen, dit que le nouvel objectif de 20 % a dû être traduit en des plans d'action nationaux indiquant des objectifs spécifiques pour l'électricité, les transports, le chauffage et la climatisation. Elle a appelé la Commission européenne à des négociations rapides et équilibrées avec chacun des 27 États membres.

Le partage de l'objectif des 20 % doit être réellement européen. Chaque pays dispose d'un énorme potentiel. Je n'ai jamais entendu parler d'un seul pays au monde où le vent ne souffle pas et où le soleil ne brille pas, s'est-elle exclamée. Il n'est pas acceptable que certains des États membres font opposition en disant que les énergies renouvelables ne sont que pour les pays riches.

Fabrizio Barbaso, directeur général adjoint de la Commission européenne, a indiqué qu'un nouveau cadre juridique pour les énergies renouvelables serait proposé à l'automne, après avoir négocié des plans nationaux avec chaque état membre.

Nous voulons des objectifs nationaux par secteur et nous voulons que les efforts et les opportunités soient partagés entre les 27 pays. La Commission surveillera ensuite de très près les progrès réalisés par chaque pays, a-t-il dit. Il ne fait aucun doute que les énergies renouvelables et l'efficacité énergétique seront les pierres angulaires de la future politique énergétique de l'UE a-t-il ajouté, et l'énergie éolienne est l'une de ses principales composantes.

Shi Lishan, directeur des énergies renouvelables au Bureau de l'Énergie chinois, qui est à la tête d'une délégation de 80 personnes se rendant à la conférence, a indiqué que la Chine suit désormais la voie tracée par l'Europe, avec un objectif de 10 % d'énergies renouvelables d'ici 2010 et de 16 % d'ici 2020. Je crois que la Chine sera bientôt l'un des pays en plus fort essor en ce qui concerne l'énergie éolienne s'est-il félicité.

Présentant des chiffres indiquant qu'environ un tiers des nouvelles capacités génératrices installées en Europe entre 2002 et 2006 étaient pour de l'énergie éolienne, Arthouros Zervos a dit que le facteur crucial était que le marché s'est développé avec succès à l'extérieur des pays traditionnellement favorables à cette énergie que sont l'Allemagne, l'Espagne et le Danemark.

De nos jours, l'Europe dispose d'une capacité éolienne installée de 50 000 MW. Au cours d'une année de vent moyenne, cela permet de produire environ 100 TWh d'électricité, ce qui revient à 3,3 % de la consommation d'électricité totale dans l'UE. Si nous arrivons à 180 GW d'ici 2020, cela produira plus de 500 TWh d'électricité par an, ce qui représente une augmentation d'un facteur de cinq en comparaison à la production actuelle, a conclu le Professeur Zervos.

Prnewswire

Transformer les toits en panneaux solaires grâce à un spray !
Vendredi, 18/05/2007 - 00:00

Chaque jour, notre Terre reçoit une quantité d'énergie solaire suffisante pour couvrir sa consommation totale d'énergie pendant 27 ans ! Pourra-t-on un jour transformer, à l'aide d'un simple spray, une simple plaque d'acier sur un toit, en un panneau solaire. Oui, d'ici 5 ans, grâce aux recherches menées par la société Corus Colors, avec le concours de chercheurs britanniques des universités de Bath, Bangor, Swansea et de l'Imperial College de Londres.

Leur projet triennal, cofinancé par le ministère du commerce et de l'industrie, a pour objectif de concevoir un revêtement à cellules solaires nanocristallines à colorant, utilisable sur les toits des entrepôts et supermarchés. Ces cellules (appelées DSSC pour Dye-Sensitised Semi-conductor Cells) sont des nanostructures en oxyde de titane capables de convertir la lumière en électricité. Leur taille infime permettrait de les projeter en spray sur des feuilles d'acier.

Le recours aux DSSC présente plusieurs avantages. Celles-ci ne contiennent pas de silicium, un produit qui coûte cher. Elles ont, en outre, un très bon rendement sur une plage d'intensité lumineuse variable. L'intérêt principal de cette technique réside dans la possibilité d'équiper de grandes surfaces de toits disponibles. Les entrepôts, les usines ou les supermarchés sont fréquemment recouverts d'au moins 20 000 m2 d'acier. Ces surfaces permettraient, selon David Worsely, de l'université de Swansea, de générer des quantités raisonnables d'électricité, même en tenant compte du taux de conversion des DSSC, inférieur à celui des cellules photovoltaïques en silicium.

L'équipe envisage d'enduire directement les rouleaux d'acier grâce à des techniques déjà utilisées par Corus Colors pour les revêtements de bâtiments. Mais il faut, par exemple, s'assurer de la résistance du revêtement à la corrosion, et protéger la "peinture" des dégradations dues au rayonnement solaire.

A Londres, l'Imperial College s'intéresse depuis longtemps aux DSSC, co-inventées par certains de ses chercheurs. Cet institut sera chargé de les fabriquer, en collaboration avec l'université de Bath, en testant plusieurs combinaisons de nouveaux matériaux. La production de ce revêtement incombera ensuite à Corus Colors. Selon le chef de projet, Maarten Wijdekop, le produit devrait être commercialisé aux alentours de 2012.

Sachant qu'il existe environ 100 millions de m2 de toits recouverts de tôles d'acier et que la quantité moyenne d'énergie solaire reçue en Grande -Bretagne est de 900 kWh par mètre carré et par an, si le rendement de cet enduit solaire est de 6 %, ces 100 millions de m2 de toits pourraient produire 5400 GWh par an d'électricité solaire, soit plus de 5 % de toute l'électricité consommée annuellement en Grande-Bretagne.

EPSRC

France : les collectivités locales misent sur les énergies renouvelables
Vendredi, 18/05/2007 - 00:00

Les énergies renouvelables ont longtemps été marginales, les réalisations en cours dans les régions et les entreprises, à base de géothermie, biomasse, éolien, photovoltaïque et solaire thermique, témoignent de l'émergence d'une nouvelle industrie .

- En Savoie, Montmélian, pour chauffer la piscine municipale et les douches du centre nautique, a installé des capteurs thermiques, qui, associés à des travaux d'isolation, permettent une économie annuelle de 27000 euros de gaz. A Chambéry, la centrale photovoltaïque des Monts avec ses 1000 m2 de capteurs installés en 2005 produit annuellement 120000 kWh, soit la consommation de 50 familles. Du photovoltaïque équipe aussi la Maison des énergies et des établissements scolaires de Chambéry.

- Le « plan Energies pour l'Isère » du Conseil Général de l'Isère sur 2005-2020 donne la priorité aux filières bois et énergie solaire. 164 nouvelles installations de chauffage (de la petite installation de 50 kW aux réseaux de chaleur de 2000 kW) ont été créées par des maîtres d'ouvrage publics. Le Conseil réfléchit à la mise en place d'une aide pour le petit éolien et travaille avec la Préfecture à la réalisation d'un atlas éolien pour l'Isère.

- D'autre part, La Savoie et L'Isère sont associées dans le projet Alliance PV (avec Photowatt, l'INES - Institut National de l'Energie Solaire- et le CEA), pour développer une filière de fabrication de cellules photovoltaïques de rang mondial qui permettra d'abaisser les coûts du silicium.

- Chalon-sur-Saône a engagé en 2002 le 1er plan Climat local français (avec le WWF, l'Ademe et le programme européen Privilèges). Une chaufferie au bois alimente 1000 logements. Ce plan a été étendu en 2006 aux 37 communes de l'agglomération du Grand Chalon.

- A Besançon, 350 m2 de panneaux photovoltaïques installés sur les toits du centre technique municipal approvisionnent les 35 véhicules électriques de la ville (42 MWh). Bilan : 12800 tonnes de CO2 évitées en 2005. Une chaufferie au bois (inaugurée en octobre 2006 dans le quartier de Planoise), permet d'économiser près de 3300 tonnes de fuel et 10000 tonnes de CO2 par an.

- La Bretagne a adopté en octobre 2006 un schéma éolien qui vise à fournir 8 % des besoins en électricité de la région. 600 à 800 nouvelles éoliennes devraient être installées d'ici à 2010, assurant une production de 1000 MW.

- La Région Poitou-Charentes a inscrit dans son programme régional une réduction de 800000 tonnes équivalent CO2 de ses émissions de gaz à effet de serre d'ici à 2010 : soutien aux énergies renouvelables (bois-énergie, solaire et agrocarburants), construction de 1000 maisons en bois à faible conso d'énergie. Réalisation du « Lycée Kyoto », le 1er lycée d'Europe 100 % énergies propres. Au programme : 1000 m2 de panneaux photovoltaïques, isolation en chanvre, toitures végétalisées et récupération des eaux de pluie. Investissement : 26 millions d'euros HT. Consommation visée : 7 kWh/m2/an de chauffage et 2 kWh/M2/an d'électricité. Il regroupera un lycée hôtelier et un lycée agricole et ouvrira ses portes en septembre 2009.

- L'Alsace, à travers le programme Energivie, a développé une politique de promotion des énergies renouvelables dans l'habitat. Résultat : Plus de 32900 m2 de capteurs solaires installés et 602 chaudières au bois. Le lycée des métiers du bâtiment Gustave Eiffel à Cernay, siège du CIFEER (Centre d'Initiative et de Formation à l'Energie et aux Energies Renouvelables), prévoit la construction d'un nouveau bâtiment en 2008 dédié à l'expérimentation pédagogique. Equipements : géothermie (sonde, forage, nappe), solaire thermique sur le toit et photovoltaïque en façade. Plusieurs lycées de la région sont équipés de chauffage au bois et/ou de panneaux solaires.

- L'Ile-de-France a un bon gisement en géothermie, en particulier la nappe d'eau du Dogger (entre 1500 et 2000 mètres de profondeur, la température de l'eau est entre 55 et 85°). Aujourd'hui, plus d'une trentaine d'exploitations fournissent environ 1200 GWh aux réseaux de chaleur qui alimentent en chauffage et en eau chaude plus de 150000 logements. Ces équipements fournissent 10 % de l'énergie distribuée par les réseaux de chaleur en Ile-de-France et évitent 400 000 tonnes de CO2.

- La Réunion a inauguré fin 2006 la plus grande centrale photovoltaïque de France sur un bâtiment industriel. De 10000 m2, elle produit 1300000 kWh/an, soit la consommation moyenne de 300 clients EDF. Coût : 5 millions d'euros. La vente d'électricité produite générera 520 000 euros de recettes par an.

BW

^ Haut
Espace
Espace et Cosmologie
L'explosion d'étoile la plus brillante jamais observée
Vendredi, 18/05/2007 - 00:00

Des astronomes américains ont observé l'explosion la plus lumineuse d'une étoile -une lointaine supernova- jamais découverte à ce jour, a annoncé la NASA. Les restes de ce feu d'artifice céleste, vu pour la première fois par un étudiant du Texas en septembre, sont suivis au télescope depuis plusieurs mois par une poignée d'astronomes émerveillés par le spectacle.

"De toutes les explosions d'étoiles vues précédemment, celles-ci a été de loin la plus puissante", a indiqué Alex Filippenko, l'un des astronomes ayant fait cette découverte. "Nous avons été surpris de l'intensité lumineuse et aussi de sa durée (70 jours)", a-t-il ajouté dans un communiqué. Sa luminosité a atteint 50 milliards de fois celle de notre soleil.

L'étoile géante a émis une lumière cinq fois plus intense que celle de n'importe quelle autre supernova observée jusqu'ici, souligne le chef de l'équipe à l'origine de la découverte, Nathan Smith, de l'université de Californie à Berkeley. M. Smith précise que l'étoile, baptisée SN2006gy, "est un type spécial de supernova qui n'a jamais été vu avant". C'est une étoile "étonnamment massive" possédant 150 fois la masse du soleil.

Des observations réalisées à l'aide du télescope spatial à rayons X Chandra montrent qu'elle ne s'est pas transformée en trou noir comme d'autres supernovas. Et alors que les autres étoiles qui explosent produisent un pic de luminosité pendant quelques semaines au plus, celle-ci brille plus fortement que les autres supernovas depuis plusieurs mois, précise M. Smith.

Cette étoile est située à 240 millions d'années-lumière dans une lointaine galaxie. Une "jumelle" plus proche de la Terre pourrait exploser de manière similaire dès aujourd'hui ou dans un lointain avenir, sans toutefois menacer notre planète. L'étoile Eta Carina, qui se trouve dans notre galaxie, la Voie Lactée, pourrait bien être cette supernovae « proche » qu'attendent les astronomes. Alors que la supernova SN 2006gy se trouvait dans la galaxie NGC 1260 à quelque 240 millions années-lumière de la Terre, Eta Carina n'est qu'à 7.500 années-lumière.

"Nous ne savons pas avec certitude si cette étoile va exploser mais nous ferons mieux de la surveiller de près", a relevé Mario Livio, un astronome du Space Telescope Science Institute à Baltimore (Maryland, est) qui n'a pas participé à l'observation de l'explosion de SN 2006gy. "Une explosion d'Eta Carina pourrait représenter le plus grand spectacle stellaire dans l'histoire de la civilisation moderne", selon lui. La luminosité produite par cette déflagration serait telle qu'elle pourrait permettre de lire en pleine nuit, précise David Pooley, astronome à l'université de Californie à Berkeley. Mais elle ne serait visible pour la population que dans l'hémisphère sud, précise-t-il.

Une supernova représente l'évolution d'une étoile massive, environ huit à vingt fois la masse de notre soleil et qui implose sous la force de sa propre gravité pour former un trou noir, sorte de siphon cosmique dont rien n'échappe, pas même la lumière.

Dans le cas de SN 2006gy, les astronomes pensent que l'explosion a résulté d'un mécanisme différent alors que cette étoile avait une masse beaucoup plus grande de l'ordre de 150 fois celle de notre soleil. Des étoiles aussi massives sont très rares soulignent ces astronomes selon lesquels la Voie Lactée pourrait en compter seulement une dizaine sur les quelque 400 milliards d'étoiles que compte notre galaxie.

NASA

La Nasa présente le futur télescope spatial James Webb qui va succéder à Hubble
Vendredi, 18/05/2007 - 00:00

La Nasa a présenté une maquette grandeur nature du futur télescope spatial James Webb (JWST) devant succéder à Hubble en 2013 et qui permettra de remonter à la naissance de l'univers et de découvrir des planètes et une possible vie dans d'autres systèmes solaires.

Le James Webb Space Telescope, du nom d'un ex-patron de la Nasa, explorera tous les champs de l'astronomie et toutes les périodes de notre histoire des premières lumières après le Big Bang à la formation de galaxies et de systèmes solaires capables d'abriter la vie sur des planètes, selon Matt Mountain, directeur du Space Telescope Science Institute à Baltimore (Maryland).

Ce sera le plus grand télescope jamais déployé dans l'espace avec un miroir principal composé de 18 segments de forme hexagonale d'un diamètre total de 6,5 mètres, près de trois fois celui d'Hubble.

Le télescope, qui recoure à dix nouvelles technologies, sera doté de quatre instruments scientifiques d'une précision extrême, dont une caméra infrarouge et un spectromètre maintenu à une température très basse pour assurer un fonctionnement optimum. Il devrait fonctionner pendant dix ans.

Le JWST sera également protégé de la chaleur du soleil par plusieurs parasols géants d'une superficie équivalente à celle d'un terrain de tennis.

Hubble, le premier télescope spatial lancé il y a 17 ans et qui a totalement révolutionné l'astronomie, est capable de voir jusqu'à un milliard d'années après le Big Bang qui a marqué la création de l'univers il y a environ 14 milliards d'années, selon les estimations des astrophysiciens.

Le JWST, qui pourra capter six fois plus de lumière qu'Hubble, pénétrera dans cette période "sombre de l'histoire de l'univers", remontant quasiment jusqu'à sa naissance, a aussi expliqué Edward Weiler, directeur du Goddard Space Flight Center de la Nasa.

Hubble et les deux autres grands télescopes spatiaux de la Nasa, Chandra et Spitzer, ont permis de montrer "que l'univers est beaucoup plus mystérieux qu'on pouvait l'imaginer", a-t-il précisé. "Mais ces télescopes n'ont pas les capacités de percer ces mystères", a ajouté le responsable de la Nasa. Il a cité les "trous noirs", la matière cachée dite sombre qui représenterait 22 % de l'univers ou de l'énergie du vide (74 %).

Le JWST sera lancé par la fusée européenne Ariane V en 2013 et mis sur une orbite à 1,5 million de kilomètres de la Terre, soit bien plus loin qu'Hubble (600 km) ou que les deux autres télescopes spatiaux américains déployés depuis.

Outre le lancement, l'Agence spatiale européenne (ESA) fournira aussi un instrument et demi sur les quatre qui seront à bord du JWST. L'agence spatiale canadienne participe également à ce projet. Le coût total du JWST est estimé à 4,5 milliards de dollars et inclut le lancement et son fonctionnement. Hubble a coûté jusqu'à présent quelque 8 milliards de dollars. Figure légendaire de la Nasa, James Webb a dirigé l'agence spatiale de 1961 à 1968.

NASA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
ESB : un vaccin prometteur à l'essai chez la souris
Vendredi, 18/05/2007 - 00:00

Des chercheurs américains ont annoncé avoir mis au point un vaccin capable de protéger des souris d'une maladie similaire à l'encéphalopathie spongiforme bovine (ESB, ou maladie de la vache folle). Ce vaccin empêche le développement des maladies à prion (particule protéique infectieuse qui dégrade les facultés du cerveau) qui existent sous plusieurs formes telles que la tremblante du mouton, la maladie de la vache folle, ou la variante humaine de la maladie de Creutzfeld-Jacob.

Ces maladies sont considérées comme incurables. Le vaccin mis au point par des chercheurs de l'Ecole de médecine de New York permet au système immunitaire de distinguer les protéines normales et les protéines pathologiques (prion) et fabriquer ainsi des anticorps. Jusqu'à présent, ces deux protéines étaient si proches que le système immunitaire ne pouvait pas les reconnaître et donc ni les attaquer, ni les détruire.

L'équipe conduite par le professeur Thomas Wisniewski a réussi à stimuler le système immunitaire des souris en associant au prion une souche génétiquement modifiée de salmonelle. L'étude présentée à l'occasion de la réunion annuelle de l'Académie américaine de neurologie à Boston, a montré que les souris bénéficiant de ce traitement n'ont pas développé de maladie à prion après 400 jours d'incubation alors que les souris sans anticorps ont développé cette maladie après 120 jours. "C'est prometteur", s'est félicité le professeur Wisniewski qui envisage d'adapter son vaccin pour les bovins et les cervidés. Mais, a-t-il prévenu, il faudra encore de longues recherches avant de mettre au point un vaccin pour l'être humain.

Le nouveau variant de la maladie de Creutzfeldt-Jakob (nvMCJ), forme humaine de la maladie bovine (ESB), est une maladie neurodégénérative mortelle. Dix ans après sa découverte, on ignore encore sa réelle durée d'incubation et la fréquence des contaminations. Moins de 200 cas ont été comptabilisés dans le monde, dont 161 au Royaume Uni et 17 en France.

BBC

Un diabète : un mécanisme inflammatoire révélé
Vendredi, 18/05/2007 - 00:00

Un régime riche en graisses augmente le risque de prise de poids et de diabète. Le fait est connu. Ce que l'équipe des professeurs Jacques Amar et Rémy Burcelin (Pôle cardio-vasculaire et métabolique, CHU de Toulouse et Inserm) vient de mettre en évidence, ce sont les mécanismes moléculaires de ce phénomène chez la souris. Ces travaux mettent au jour des modifications de la flore bactérienne intestinale et des réactions inflammatoires. L'étude est consultable, en ligne, sur le site de la revue américaine Diabetes.

L'obésité et le diabète de type 2 sont liés à une résistance à l'insuline. Contrairement au diabète de type 1, qui apparaît dès l'enfance et résulte d'une insuffisance de sécrétion de cette hormone, le diabète de type 2 survient après des années pendant lesquelles l'insuline sécrétée n'agit pas suffisamment sur les tissus de l'organisme pour faire baisser le taux sanguin de glucose. Dans le diabète de type 2 comme dans l'obésité existent également des phénomènes inflammatoires. L'équipe des professeurs Amar et Burcelin s'est intéressée à la flore intestinale, mais cette fois en recherchant un facteur causal à l'origine des mécanismes inflammatoires impliqués dans l'apparition d'une résistance à l'insuline, d'une obésité et d'un diabète.

Les chercheurs français se sont particulièrement penchés sur une substance, le liposaccharide (LPS), constituant de la paroi des bactéries de type Gram négatif, également appelée endotoxine. Ces bactéries sont produites en continu dans l'intestin. Le LPS passe ensuite dans le sang. "Notre étude permet de montrer que le type de régime, selon qu'il est plus ou moins gras, module la quantité d'endotoxine dans le sang, en dehors de tout processus infectieux", indique le professeur Amar. L'augmentation du taux sanguin de LPS déclenche une réaction inflammatoire qui entraîne le développement d'un diabète et d'une obésité chez les souris soumises à un régime alimentaire riche en graisses.

Le mécanisme conduisant de l'inflammation à la résistance à l'insuline était déjà connu. L'inflammation dans le tissu adipeux entraîne la libération de cytokines. Ces médiateurs vont agir sur le récepteur de l'insuline situé à la surface des cellules. Les molécules d'insuline produites par l'organisme vont bien aller se fixer sur ce récepteur, mais le "message" qu'elles apportent ne passe pas dans la cellule, qui résiste alors à l'insuline.

Les chercheurs français ont montré que le régime riche en graisses modifie la flore bactérienne et facilite le passage dans le sang du LPS. L'élévation du taux sanguin de LPS déclenche une réaction inflammatoire par le biais d'un récepteur. Cette réaction entraîne, chez la souris, une prise de poids et un diabète qu'il est possible de contrer en inhibant la réaction inflammatoire. A la lumière de ces recherches, il serait donc envisageable de prévenir le développement d'une obésité et d'un diabète de type 2 en modulant le taux de LPS dans le sang souligne le professeur Amar.

La réponse pourrait être apportée à l'avenir en étudiant l'impact d'une modification de la flore bactérienne intestinale sur le taux de LPS. "Une adaptation de la flore par une alimentation appropriée serait susceptible de diminuer le passage du constituant toxique de la paroi bactérienne de l'intestin vers la circulation sanguine", explique le professeur Amar. Concrètement, certains probiotiques, des bactéries bénéfiques pour l'homme contenues dans des aliments comme les yaourts, pourraient être testés dans cette optique.

Diabetes

La chaleur contre l'asthme
Vendredi, 18/05/2007 - 00:00

Un traitement réduisant, au moyen d'une forte chaleur, le volume des tissus pulmonaires bloquant les bronches des asthmatiques, et qui les laissent à bout de souffle, semble avoir réduit de façon significative le nombre des crises d'asthme des patients qui y ont recours, contrairement à ceux qui ne se soignent qu'avec des médicaments, a constaté une équipe de chercheurs canadiens.

Les patients soumis à la thermoplastie bronchiale ont également dit éprouver moins de symptômes et dépendre moins des médicaments bronchodilatateurs, à la suite de la procédure, affirment les chercheurs, dont l'étude a été publiée dans les pages du New England Journal of Medecine.

Le Docteur John Miller, spécialiste de la chirurgie thoracique au St. Joseph's Hospital de Hamilton, en Ontario, a indiqué que les essais, qui ont duré un an, dans le cadre desquels 55 asthmatiques ont été traités au moyen d'une thermoplastie bronchiale et 54 autres se sont contentés de prendre des médicaments standards, était la première à mettre à l'épreuve l'efficacité de la nouvelle procédure comparativement aux soins habituels. «Ce sont les premiers essais d'efficacité et il y en aura d'autres au fil des ans», a déclaré M. Miller.

L'asthme, qui provoque 2000 morts par an en France, est une maladie provoquant une inflammation des voies respiratoires, rendues sensibles aux allergènes et irritants. Un excès de mucosité est alors produit, provoquant la contraction musculaire et le rétrécissement des parois des voies respiratoires, ce qui entraîne des difficultés à respirer. Dans le cadre d'une thermoplastie bronchiale, un cathéter est introduit dans l'étroit canal bronchique. Une fois en place, ses branches sont écartées et des ondes à radiofréquence détendent le muscle lisse, ayant pour effet de réduire la constriction respiratoire.

Canoe

Un riz qui aime le fer
Vendredi, 18/05/2007 - 00:00

En transférant une enzyme de levure au riz, des chercheurs japonais annoncent dans les comptes rendus de l'Académie des sciences américaine avoir réussi à rendre cette plante beaucoup plus efficace pour la capture du fer et à multiplier son rendement par huit sur des sols calcaires.

Le fer est indispensable à la vie, étant le cofacteur de nombreuses enzymes, et les plantes ont élaboré diverses stratégies pour le capturer dans le sol. Le riz ne s'avère pas très efficace pour cela, notamment dans des sols peu humides où le fer se trouve sous sa forme oxydée non soluble. Les plantes non graminées ont alors recours à une réductase, une enzyme capable de réduire le fer dans leurs racines, ce qui permet de le solubiliser et de pouvoir le transporter.

Y. Ishimaru et ses collègues ont eu l'idée d'introduire le gène de la réductase de levure dans le riz, en sélectionnant de surcroît une forme modifiée de l'enzyme plus efficace dans le milieu peu acide typique des terrains calcaires. L'enzyme exprimée dans les racines a permis une absorption plus rapide du fer par les plantes transgéniques, ce qui s'est traduit par leur meilleur développement et une multiplication par huit de la production de grains en terrain calcaire.

La culture du riz, premier aliment de base pour la moitié de la population mondiale, fait l'objet d'intenses recherches pour améliorer ses rendements au moment où les ressources en terres et en eau disponibles régressent en raison de l'urbanisation et de l'industrialisation notamment dans les pays asiatiques.

NO

Création d'une encyclopédie numérique inédite de toutes les espèces vivantes
Vendredi, 18/05/2007 - 00:00

De nombreuses institutions scientifiques dans le monde coopèrent pour créer une encyclopédie numérique de la vie qui décrira les 1,8 million d'espèces vivantes connues et sera un outil précieux pour gérer et protéger la biodiversité. Ce projet donnera un libre accès à toutes les connaissances actuelles sur la biodiversité terrestre, permettant aussi de mieux la préserver face aux risques présentés notamment par le réchauffement climatique et la sur-exploitation par les humains, ont annoncé les promoteurs américains du projet.

"L'Encyclopédie de la Vie offrira des informations précieuses et bien organisées sur la biodiversité et sa protection à tout le monde, partout dans le monde et à tout moment", explique James Edwards qui dirigera ce projet. "Ce sera un outil de grande valeur pour les chercheurs, les enseignants, les étudiants et les décideurs politiques", ajoute-t-il précisant que 1,25 million de pages ont déjà été scannées. "La création de cette vaste encyclopédie est permise grâce aux récentes avancées technologiques dans les moteurs de recherche et de visualisation de l'information réalisées depuis cinq ans", relève-t-il.

Il faudra environ 10 ans pour créer l'ensemble des pages numériques (300 millions au total) qui contiendront toutes les espèces vivantes cataloguées depuis 250 ans par les scientifiques. En outre, l'Encyclopédie de la Vie sera constamment actualisée pour inclure les nouvelles espèces identifiées ou éteintes. Ce catalogue qui donnera une vue d'ensemble de la biodiversité englobant le monde animal et végétal ainsi que les champignons, pourra être ultérieurement étendu à l'univers microbien.

Les pages fourniront des informations écrites et, quand cela est disponible, des photos, de la vidéo et du son ainsi que des cartes et d'autres informations multimédia sur chacune des espèces. L'intégrité scientifique de l'encyclopédie est garantie par la participation de milliers d'experts dans le monde, assurent les promoteurs de l'Encyclopédie de la Vie.

Elle intégrera les encyclopédies existantes très complètes cataloguant certains groupes d'espèces comme ceux de la faune marine ou des batraciens. Les auteurs du projet sont aussi en négociation avec les responsables de L'Atlas des espèces vivantes d'Australie, a indiqué James Edward, un biologiste à la tête actuellement du Global Biodiversity Information Facility. Aux Etats-Unis, les principaux participants de ce projet sont notamment le Marine Biological Laboratory, l'université Harvard (Massachusetts, est), le musée d'histoire naturelle de Chicago (Illinois, nord) et la Smithsonian Institution, ainsi que la Biodiversity Heritage Library à Washington.

En Europe, le Musée d'Histoire naturelle de Londres et le Royal Botanic Garden, également en Grande-Bretagne, sont des participants actifs à l'élaboration de la nouvelle encyclopédie. Mais nombre d'autres chercheurs en Asie, Amérique latine, Afrique et dans d'autres pays européens coopèrent étroitement dans ce projet, assure James Edwards.

L'encyclopédie numérique de la vie

Les mécanismes décryptés d'un cancer de l'enfant
Vendredi, 18/05/2007 - 00:00

Des chercheurs de l'Inserm à l'Institut Curie à Paris viennent de découvrir les cellules à l'origine du sarcome d'Ewing, cette tumeur maligne osseuse qui touche de 80 à 100 adolescents et jeunes adultes par an. Il s'agit des cellules du mésenchyme, un tissu conjonctif qui sert de soutien aux autres tissus. Cette découverte publiée le 7 mai dans Cancer Cell est d'un intérêt majeur car les chercheurs ont par la suite réussi à « forcer » les cellules tumorales à redevenir normales. Une telle approche ouvre des perspectives thérapeutiques nouvelles. Car il pourrait alors être possible de les rendre moins agressives et de s'opposer ainsi à leur prolifération.

Cette tumeur qui a un pic de fréquence au moment de la poussée de croissance osseuse, entre 12 et 20 ans, se développe le plus souvent au niveau des os des membres inférieurs (bassin, fémur, tibia, péroné). Elle se traduit par une douleur à la marche et une tuméfaction. Comme le sarcome d'Ewing possède un certain pouvoir métastatique, il n'est pas rare de voir apparaître des foyers cancéreux au niveau des poumons et de la moelle osseuse.

Pour les sarcomes d'Ewing, cette signature a été identifiée et caractérisée au début des années 1990. L'équipe dirigée par Olivier Delattre, directeur de l'Unité Inserm 830 « Génétique et biologie des cancers », avait montré que cette tumeur était due à un échange accidentel de matériel génétique entre les chromosomes 11 et 22. Tant et si bien que les deux gènes cassés et recollés de façon anormale aboutissent à la naissance d'un gène muté dirigeant la mise en place d'un programme aberrant. Mais jusqu'à présent, depuis la description de ces sarcomes dans les années vingt par James Ewing, il y avait beaucoup d'interrogations non résolues sur le type de cellule à l'origine de la tumeur : endothéliale, neurale, épithéliale, etc.

Après avoir mis en culture des cellules de la tumeur et ensuite inactivé le gène muté, les chercheurs de Curie en collaboration avec Pierre Charbord de l'Inserm à Tours ont réussi à « forcer » les cellules tumorales à retrouver leur statut d'origine. Ils ont ainsi découvert qu'il s'agit de cellules souches mésenchymateuses, capables de se différencier normalement en cellules soit osseuses, soit graisseuses.

« Pour essayer de comprendre la biologie des cellules tumorales et tenter de les contrecarrer, il est important d'abord de connaître la biologie des cellules normales correspondantes », explique Olivier Delattre. Or à l'adolescence, au moment de la poussée de croissance, les cellules normales sont soumises à une intense signalisation par l'hormone de croissance et par l'IGF (insuline growth factor). En cas de tumeur d'Ewing, ces cellules perdent leur capacité d'être régulées finement par l'IGF 1, d'où une prolifération sans contrôle.

Cette découverte va permettre aux chercheurs de construire un modèle animal de la tumeur d'Ewing, une étape essentielle à la mise au point de futurs traitements « qui agiraient par exemple contre la signalisation par l'IGF 1 », précise Olivier Delattre.

IC

Une vaste étude confirme l'efficacité du vaccin contre le cancer de l'utérus
Vendredi, 18/05/2007 - 00:00

L'efficacité du premier vaccin contre le cancer du col de l'utérus est confirmée par une vaste étude internationale dont les résultats montrent une protection contre les papillomavirus responsables de la plupart des tumeurs utérines. Ce cancer est le deuxième cancer le plus meurtrier chez les femmes dans le monde avec 240.000 décès par an. Près de 500.000 cas sont diagnostiqués annuellement dans le monde. En France, l'incidence standardisée du cancer du col est de 9,5/100 000 avec une mortalité de 3,5/100 000.

L'étude relative au vaccin Gardasil du groupe pharmaceutique américain Merck, commercialisé depuis 2006, a porté sur plus de 12.000 jeunes femmes de 15 à 26 ans, non-infectées par ces papillomavirus, dans une dizaine de centres hospitaliers dans 13 pays. La moitié d'entre elles a été vaccinée, l'autre a reçu un placebo. "Il s'agit du premier vaccin conçu spécifiquement contre le développement d'un cancer. Cet essai clinique a montré que le vaccin est efficace à 98 % et sans danger comme le montre la rareté des cas d'effets secondaires sévères", a souligné le Docteur Kevin Ault, professeur de gynécologie à Atlanta (Géorgie), qui a participé à l'élaboration du vaccin et à l'étude.

Le Gardasil permet de développer une immunité contre quatre types de papillomavirus humains (6, 11, 16 et 18), selon les auteurs de l'étude parue dans le New England Journal of Medicine daté du 10 mai. L'essai a montré que le vaccin était efficace à près de 100 % contre les types 16 et 18, responsables de 70 % des cancers utérins. Le Gardasil a aussi été efficace contre les types 6 et 11 qui causent 90 % des verrues de l'anus et des organes génitaux.

"Bien que ce vaccin donne des résultats remarquables, son efficacité est limitée par le fait que tous les cancers utérins ne sont pas provoqués par des papillomavirus et que la vaccination doit être faite très tôt chez les jeunes filles (dès 9 ans) avant qu'elles ne deviennent infectées" par des relations sexuelles, selon le Docteur Lindsey Baden, auteur d'un éditorial dans le New England Journal of Medicine.

Le cancer du col de l'utérus est responsable de près de 1 000 décès par an en France. Mais on considère que près de 90 % pourraient être évités grâce à un dépistage régulier.

NEJM

Lire dans les pensées, un rêve de science-fiction qui devient réalité
Vendredi, 18/05/2007 - 00:00

La tragédie de Virginia Tech a relancé aux Etats-Unis un débat récurrent entre chercheurs. Aurait-il été possible d'anticiper un tel massacre et d'identifier le tueur avant son passage à l'acte ? Pur fantasme ? Toujours est-il qu'en Europe et aux Etats-Unis des technologies sont imaginées et même testées pour anticiper au plus tôt les pensées et les intentions d'un individu. Une quête digne du film futuriste Minority Report...

Ainsi, certains chercheurs estiment que les progrès de l'imagerie cérébrale pourraient non seulement permettre d'analyser l'activité du cerveau, mais également d'y débusquer des projets naissants. "Chaque pensée, et donc chaque intention, est associée à un schéma unique d'activité du cerveau, explique John-Dylan Haynes, chercheur au Max Planck Institute pour les sciences de la cognition et du cerveau. Ainsi, le projet d'une attaque terroriste doit correspondre à un schéma particulier. Si on est capable de le reconnaître, on doit pouvoir prédire que quelqu'un fomente un tel complot."

Le scientifique, qui travaille avec l'University College de Londres et d'Oxford, a demandé à des volontaires dont le cerveau était scruté par imagerie par résonance magnétique fonctionnelle (IRMf) de choisir entre l'addition et la soustraction, puis de réaliser l'opération avec deux chiffres présentés sur un écran, entre 3 et 10 secondes plus tard. Un logiciel de reconnaissance de formes a permis d'identifier que des images cérébrales distinctes étaient obtenues selon que le sujet avait choisi l'addition ou la soustraction. Le taux de réussite de la prédiction a atteint 71 % grâce aux images prises dans le cortex préfrontal médian, une région impliquée dans la préparation de mouvements volontaires.

L'exploitation possible de ces résultats, pour préliminaires qu'ils soient, inquiète M. Haynes, qui appelle à la vigilance - et à la réflexion éthique - vis-à-vis de ces nouvelles techniques. Pour lui, il faudrait réglementer leur utilisation afin qu'elles ne soient pas utilisées à des fins commerciales et de marketing. Le scientifique estime que l'imagerie cérébrale pourrait donner de meilleurs résultats que les actuels détecteurs de mensonges. "Nous accédons directement au cerveau, et il sera beaucoup plus difficile de brouiller cette mesure parce que les suspects n'apprendront pas facilement comment manipuler la machine." Le Graal, dans ce domaine, serait de découvrir des schémas de pensées communs à tous les êtres humains. "Le problème, reconnaît M. Haynes, c'est que les détails des pensées correspondent à des schémas d'activité cérébrale différents suivant les individus. Nous avons beaucoup de recherches à mener."

LM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Un premier avion propulsé par une pile à combustible
Vendredi, 18/05/2007 - 00:00

L'ingénieur suisse Koni Schafroth est content. L'avion Smartfish qu'il a construit voici quatre ans a réussi son premier vol avec une pile à combustible, une batterie «propre», qui ne consomme que des gaz et ne rejette que de l'eau. L'aéroplane de Koni Schafroth, désormais baptisé Hyfish («Hy» pour hydrogène, «fish» pour sa forme aquatique), est le premier avion en Europe à être propulsé par une pile à combustible fournie par l'Agence aérospatiale allemande, la DLR. Le premier vol du modèle réduit Hyfish, début avril, a été un succès. Ses concepteurs n'ont rencontré ni problèmes avec l'avion, ni incidents avec la toute nouvelle pile. Cet avion à la silhouette rondelette, avec sa source d'énergie innovante, a ensuite été l'une des attractions à la Foire de Hanovre, mi-avril.

Koni Schafroth avait d'abord développé le Smartfish, premier modèle inspiré par les formes des poissons. Grâce à sa silhouette aérodynamique et à sa surface très glissante, le thon est en effet un excellent nageur, qui peut atteindre jusqu'à 35 km/h. En se référant à ces qualités, l'ingénieur bricoleur bernois terminait, voici quatre ans, son premier modèle d'avion aux formes aquatiques. Certes, il ne s'agissait que d'un modèle réduit, mais plusieurs experts ont considéré qu'il a les capacités de devenir un jour «un grand avion». Fabriqué en fibre de verre, Smartfish pesait à vide moins de 4 kg. Ses particularités aérodynamiques le rendaient très économe en carburant.

Alors que son invention sombrait dans l'oubli, le Bernois recevait l'année passée une proposition originale des ingénieurs de la DLR : équiper le Smartfish d'une pile à combustible. A Stuttgart, la DLR s'est dotée récemment d'un nouvel Institut de thermodynamique et aimerait se présenter au monde comme un pionnier des technologies de pointe. L'équipe allemande, dirigée par Till Kaz, a rapidement construit un petit prototype, dit «PEFC» (Polymer Electrolyte Fuel Cell) d'une puissance de 1 kW. Il procure une vitesse maximale d'environ 300 km/h à Hyfish.

Dans son état actuel, le Hyfish compte 1 mètre d'envergure, 1,2 mètre de long et un poids total de 6 kg, dont 3 kg seulement pour la pile. Le vol inaugural de Hyfish devait avoir lieu en octobre dernier. Mais, au dernier instant, l'équipe a rencontré des problèmes pour contrôler les hautes températures à bord. L'espace à l'intérieur de l'avion s'est révélé trop limité pour y installer un système de refroidissement convenable. «La pile à combustible «brûle» de l'hydrogène et répand donc une grande chaleur», explique Till Kaz. Il a en outre fallu résoudre les grands besoins en oxygène de la pile et le stockage de l'hydrogène en grande quantité à bord. Au final, le réservoir actuel à bord d'Hyfish peut accueillir 200 litres d'hydrogène comprimé, qui garantissent une autonomie de vol de quinze minutes. Selon Till Kaz, la nouvelle star du ciel pourrait atteindre une vitesse approchant 300 km/h et monter à 7000 mètres d'altitude.

LT=

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top