RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 347
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Juillet 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les régions accèdent au haut-débit mais pas toujours au meilleur prix
Microsoft : la prochaine version de Windows s'appellera Vista
Réseaux "Wimax" : les régions refusent que les collectivités soient placées sur le même plan que les opérateurs
Intel teste la géolocalisation sur réseaux Wi-Fi
La télé à emporter devient réalité
Deux images sur un seul écran !
Avenir
Japon : Osaka veut devenir la capitale mondiale des robots
Matière
Fujitsu présente son écran « papier électronique »
Espace
Retour dans l'espace pour les navettes américaines, avec l'envol de Discovery
Vivant
La vie serait bien née dans l'espace interstellaire
Des bactéries d'un nouveau genre
La plupart des tumeurs du sein n'augmentent pas fortement le risque de cancer
La microscopie à force atomique dévoile les secrets de la cellule
Cancer du poumon : mortalité en hausse chez les femmes
Hépatite B et cancers du foie : une affaire d'enzyme
Obésité : la piste génétique se confirme
Une vie improbable sous les glaces de l'Antarctique
Le fruit "tatoué", bientôt dans les rayons des supermarchés
Des nanoparticules dans les vaisseaux sanguins pour réparer nos neurones
Premier test de diagnostic de l'autisme
Alzheimer : des souris retrouvent la mémoire
Le cortex, un supercalculateur qui gère nos informations sensorielles
Homme
Les RFID s'implantent dans les banques
Le nombre de mobiles vendus passera le milliard en 2009
Recherche
Les propriétés des nombres premiers révèlent l'ordre et la beauté du monde mathématique
Edito
La France doit miser sur la bio-agriculture



Au cours des cinq prochaines années, la France va se doter de six nouvelles usines de production de carburant végétal afin de pouvoir porter à 950 000 tonnes sa production annuelle de biocarburants à l'horizon 2010. Pour atteindre cet objectif ambitieux, la France va devoir doubler ses surfaces de bio-végétaux dans les années à venir.

Dans cette perspective, l'union européenne a créé en 2004 les aides à la création énergétique (ACE) qui incitent au développement des cultures de ces bio-végétaux. Ces mesures devraient permettre de respecter la directive européenne qui vise à incorporer dans les réservoirs 5,75 % de biocarburants d'ici 2010.

Selon les experts, d'ici 25 ans, un tiers des cultures pourrait ainsi être consacré à des productions non alimentaires, ce qui ne va pas manquer d'entraîner une profonde mutation de l'ensemble de notre agro économie. Outre les raisons environnementales et énergétiques évidentes qui justifient cette évolution, ce basculement de notre agriculture vers les bio-végétaux offre également de nouvelles perspectives à l'ensemble de notre secteur agricole alors que la tendance à la baisse des prix et la concurrence mondiale croissante tendent à réduire les débouchés pour les cultures alimentaires classiques.

À l'horizon 2020, cette bio agriculture verra en outre son champ d'action et de production s'élargir et se diversifier de manière considérable et, à terme, c'est l'ensemble des végétaux qui seront utilisés et transformés en bio-produits et biocarburants mais aussi en énergie, sous forme de chaleur et d'électricité (biomasse).

Enfin, parallèlement à cette production généralisée de biocarburants et de bioénergie, toute une nouvelle agrochimie verte, basée sur la transformation d'un nombre croissant d'espèces végétales en produits chimiques industriels, est en train de se mettre en place à travers la création d'agro-filières à forte valeur ajoutée.

A l'horizon 2050, la production de bio-végétaux destinés à la transformation en biocarburants, à la production d'énergie ou aux nouvelles filières de la chimie verte va donc probablement dépasser l'ensemble de nos productions alimentaires ce qui constitue évidemment pour nos agriculteurs, au delà du défi scientifique et technologique, un défi social et culturel sans précédent.

Si nous voulons que la France réussisse cette mutation techno-économique capitale de notre agriculture, nous devons consentir un effort accru de notre recherche fondamentale dans tous les domaines botaniques et agronomiques afin que la France, qui dispose à la fois des compétences humaines et technologiques, des conditions géo-climatiques et des réserves d'espace nécessaires, puisse devenir dans 20 ans la référence mondiale en matière de bio-agriculture, en réconciliant efficacité économique, respect de l'environnement et aménagement du territoire.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les régions accèdent au haut-débit mais pas toujours au meilleur prix
Jeudi, 28/07/2005 - 00:00

Selon France Télécom, 96 % de la population française sera couverte d'ici la fin de l'année par ses réseaux ADSL. Poussé par ses obligations de service universel, l'opérateur terminera d'équiper en 2006 l'ensemble de ses 12 500 répartiteurs disséminés sur le territoire. Si tout le monde est unanime pour saluer ce taux de couverture il l'est moins sur la qualité des débits proposés et les tarifs. Selon France Télécom, seuls 30 % de la population pourront bénéficier de débits supérieurs à 4 Mbit/s, et donc des offres triple play (Internet + TV + téléphone).

Mais France Télécom n'est plus seul. La loi sur la confiance et l'économie numérique (LEN), votée l'été dernier, permet aux collectivités locales de déployer et de gérer des infrastructures de télécommunications. Depuis, près de 70 projets ont été amorcés par des collectivités pour construire leurs propres réseaux. A ce jour, il existe une dizaine de réseaux de collectivités locales en exploitation, et à peu près autant de marchés attribués. Le reste étant encore au stade de projet. Mais financer un réseau coûte cher, et bon nombre de départements ont préféré opter pour la charte « départements innovants » de France Télécom, créée début 2004 pour freiner la création de réseaux locaux. Soixante-dix-sept l'ont ainsi signée en un an et demi.

« Dans les zones rurales, les réseaux de France Télécom sont fermés à la concurrence car les tarifs de gros pratiqués sont anti-économiques et ne permettent pas aux concurrents de proposer leurs services en dehors de zones denses, explique Florent Schaeffer, chargé de mission à l'Avicca. Au contraire, les réseaux de collectivités locales sont pensés pour être ouverts à la concurrence et les tarifs au client final peuvent baisser jusqu'à 30 % dans certains cas par rapport à ceux de France Télécom » .

L'un des derniers projets à avoir abouti se situe dans l'Eure. Un département oublié par le haut-débit puisque moins d'une commune sur deux était couverte par l'ADSL à la fin 2004. La construction d'un réseau passif de 340 km de fibre optique a coûté 11 millions d'euros. Le département en a investi 6,5 de plus dans une filiale de l'opérateur Altitude Télécom, baptisée CPOD, délégataire du service publique. Selon Laurent Choisie, responsable en charge du projet chez Altitude Télécom, « le Conseil Général a tenu compte du réseau existant de France Télécom. Nous couvrirons donc les zones blanches, ainsi que les principales zones urbaines. Le Conseil Général a aussi pu définir ses priorités pour dynamiser ses zones économiques. En définitive, les prix de gros seront moins chers de 20 % à ceux de FT, ce qui permettra aux opérateurs et FAI de proposer leurs services dans la région. Des FAI pourront fournir des offres ADSL2+ dégroupées à une population qui n'avait pas accès au haut-débit jusque-là. » En conséquence, fin 2006, plus de 99 % de la population de l'Eure aura accès au haut-débit, soit par ADSL soit par WiMax.

Et devant la recrudescence de projets visant à améliorer la compétitivité économique de zones d'activités, l'opérateur historique annoncera en septembre son plan pour renforcer la compétitivité de ces zones. Selon l'un de ses porte-parole, France Télécom se prépare ainsi à poser « 300 000 km de fibres d'ici fin 2007 pour couvrir d'offres très haut-débit 2 000 zones d'activité économique, soit près de 120 000 entreprises ». France Télécom envisage de proposer dans ces zones des offres de débits symétriques allant jusqu'à 8 Mbit/s et des offres de 100 Mbit/s par fibre optique. Le haut débit en région n'a pas fini de se développer.

OINet

Microsoft : la prochaine version de Windows s'appellera Vista
Jeudi, 28/07/2005 - 00:00

La prochaine version du système d'exploitation Windows sera baptisée Windows Vista, a annoncé le 22 juillet dans un communiqué Microsoft, le numéro un mondial des logiciels informatiques. Le groupe américain n'a toutefois pas fourni de date précise pour la sortie de ce nouveau logiciel qui devrait être mis sur le marché dans le courant de l'année prochaine et qui succèdera à Windows XP. Le fabricant a toutefois précisé que la version "beta" de Vista, qui durant toute sa phase de développement portait le nom de code de "Longhorn", sera disponible pour les testeurs et développeurs à partir du 3 août. Selon les informations qui ont filtré, Microsoft a donné à Vista un nouveau visage, avec une interface graphique modifiée. La sécurité du logiciel et ses dispositifs de communication ont également été améliorés. Vista "donnera clairement les moyens d'organiser et d'utiliser l'information comme vous souhaitez le faire", assure Microsoft dont le système d'exploitation Windows équipe 90 % des ordinateurs au monde et représente le tiers du chiffre d'affaires du géant informatique.

Microsoft

Réseaux "Wimax" : les régions refusent que les collectivités soient placées sur le même plan que les opérateurs
Jeudi, 28/07/2005 - 00:00

Afin d'assurer un équilibre entre les zones à fort potentiel économique et les autres, les régions veulent obtenir une des deux fréquences Wimax prévues pour leur collectivité. Elles craignent des attitudes opportunistes de la part de certains opérateurs. Dans une lettre adressée à Dominique de Villepin, l'Association des régions de France (ARF) indique que les régions « contestent avec force le postulat selon lequel les collectivités devraient être mises au même niveau que les opérateurs de télécommunications, et qu'elles ne sauraient être interrogées prioritairement dans un processus d'attribution de ressources rares». Elle ajoute que «le développement harmonieux du haut débit nécessite que l'acteur public local dispose d'une posture spécifique». Les conseils régionaux demandent donc au premier ministre Dominique de Villepin d'obtenir en priorité une des deux fréquences Wimax qui seront prochainement disponibles. Le gouvernement étudie en effet les récentes propositions de l'Autorité de régulation des communications électroniques et de la poste (Arcep) relatives à l'attribution des autorisations d'exploitation de la technologie de radiocommunication à longue portée. Le régulateur des télécoms propose indifféremment l'attribution de deux autorisations par région. Les opérateurs télécoms, dont France Télécom, peuvent être candidats. Même chose pour les conseils régionaux qui, en tant que collectivité locale, peuvent devenir opérateur télécoms depuis 2004. Dans les zones à faible densité de population et donc à potentiel économique restreint, l'Arcep préconise une attribution des fréquences selon le principe du "premier arrivé, premier servi". Dans les zones denses à fort potentiel économique, les candidatures risquent d'être très nombreuses. Dans ce cas, le régulateur estime que les fréquences peuvent être attribuées au meilleur dossier. C'est cette compétition avec les opérateurs télécoms que refusent les institutions régionales.

MI

Intel teste la géolocalisation sur réseaux Wi-Fi
Jeudi, 28/07/2005 - 00:00

Le fondeur américain expérimente la géolocalisation sur réseaux Wi-Fi. Il va tenter de déterminer si repérer la position géographique d'un PDA ou d'un PC portable via ce type de réseau sans fil donne de meilleurs résultats que le GPS. La start-up Skyhook Wireless commercialise déjà un produit basé sur cette technique. Comme elle, Intel part du principe que la géolocalisation sur réseau Wi-Fi se destine aux milieux urbains denses où le signal satellite GPS risque d'être bloqué par des immeubles.

De plus, là où le GPS peut donner uniquement la latitude et la longitude d'une position, la géolocalisation sur réseau Wi-Fi peut fournir la hauteur. Comme par exemple l'étage où se trouve une personne, explique un porte-parole d'Intel à notre rédaction américaine. Le fondeur n'a pas précisé sa méthode de triangulation, mais, a priori, il devrait s'agir du même procédé que Skyhook Wireless, qui exploite une base de données recensant tous les réseaux Wi-Fi d'une ville.

ZDnet

La télé à emporter devient réalité
Jeudi, 28/07/2005 - 00:00

A la fin des années 90, le magnétoscope numérique Tivo a popularisé le concept du « time shifting », l'enregistrement sélectif et automatique des programmes télévisés sur un disque dur. Le succès du boîtier de l'entreprise de la Silicon Valley est tel que Tivo a atteint le statut d'objet culte dans la culture américaine au point devenir un verbe à part entière, au même titre que Google par exemple. Depuis cet été, une autre mode est sur le point de révolutionner la manière dont on regarde la télévision de ce côté-ci de l'Atlantique : le « place shifting ». « L'idée est d'accéder à sa télé, sa radio satellite ou son Tivo de n'importe où à partir d'un PC et d'une liaison Internet », explique Blake Krikorian, le Pdg de Sling Media.

Cette start-up californienne vient tout juste de commercialiser pour le prix de 300 dollars, un petit boitier, la Slingbox, qui se branche entre le téléviseur et une source vidéo (câble, satellite, Tivo, magnétoscope, etc). Pour fonctionner, l'utilisateur doit ensuite brancher la Slingbox à une connexion Internet haut-débit (câble ou ADSL), via son réseau domestique par exemple. Et le tour est joué. La qualité de l'image est acceptable et s'adapte à la bande passante du réseau Internet disponible entre le boîtier et le PC qui s'y connecte, lui même équipé du lecteur multimédia « maison », SlingPlayer. Ce dernier permet de contrôler le décodeur d'un réseau de télé payante, ou virtuellement n'importe quelle source audio ou vidéo de l'utilisateur, grâce à une télécommande virtuelle et surtout un petit émetteur infrarouge qui se colle sur le récepteur de l'appareil en question.

Afin d'éviter les foudres d'Hollywood, Slingmedia a bridé son appareil pour n'accepter qu'un seul utilisateur connecté simultanément. Ce qui n'empêche pas cependant de rediffuser le flux vidéo sur un écran plus grand, dans un café par exemple. « Ce qui n'est pas non plus autorisé, à moins d'avoir une autorisation adéquate, mais que certains font quand même avec les programmes du câble ou satellite », ajoute Luc Julia, le co-fondateur d'Orb Networks, une autre start-up californienne qui surfe aussi sur la vague du « place shifting ».

A la différence de Slingmedia, la solution d'Orb est gratuite et purement logicielle. Il faut cependant un PC, qui joue le rôle de serveur, et équipé d'une carte tuner si l'on veut regarder la télé à distance. Même si son installation est un peu plus complexe qu'avec la Slingbox, l'avantage du logiciel d'Orb sur son concurrent est double : il fonctionne avec toute sorte de média (fichiers vidéos, images, musique...) et pas seulement la télé ; et il est déjà possible d'accéder au contenu audio-vidéo du PC à partir d'un téléphone mobile ou un agenda de poche.

Expansion

Deux images sur un seul écran !
Jeudi, 28/07/2005 - 00:00

Deux images en même temps sur une seule dalle LCD. Une image visible alternativement par une ou plusieurs personnes. Le constructeur japonais Sharp vient de présenter coup sur coup deux technologies qui pourraient radicalement modifier l'usage des écrans plats. La première double donc le nombre d'images diffusées sur un même écran. Suivant leurs positions, les spectateurs pourront suivre deux programmes différents. « Ce n'est qu'une extension de notre technologie d'image 3D, explique Ian Thomson, du centre de recherche Sharp à Oxford. En utilisant la technique de barrière de parallaxe, les chercheurs diffusent deux images différentes. L'une s'affiche sur les colonnes paires de l'écran et l'autre sur les colonnes impaires.

Dans le cas de la 3D, un groupe de colonnes est dirigé vers l'oeil gauche et l'autre vers l'oeil droit, créant une illusion de profondeur pour le cerveau. Si un décalage de quelques degrés dans l'angle de vision suffit pour créer cet effet, il faut l'augmenter de plusieurs dizaines de degrés pour que deux personnes voient deux images différentes. Pour arriver à un tel niveau de séparation, il a fallu deux ans et demi de recherche. »

Sur l'écran, un bouton permet de mettre en place le double affichage ou de le stopper lorsque les personnes sont d'accord sur le programme. Si la première application de cette technique concernera les télévisions (partage de programme ou utilisation simultanée du poste pour regarder une émission et jouer avec une console vidéo), d'autres écrans devraient équiper les voitures, pour permettre au conducteur de voir une carte GPS, tandis que son passager regarde sur le même écran un DVD.

L'intérêt de cette technique est une baisse des prix. Un tel écran, même s'il est plus cher qu'un écran LCD simple restera bien moins cher que deux écrans. Avec les moyens de production de masse, nous espérons obtenir des produits qui ne seront que 50 % plus cher que ceux vendus actuellement. Bien qu'annoncée simultanément, la deuxième technologie ne repose pas sur le même principe. Ici, il s'agit d'appliquer un courant électrique sur les molécules de cristaux liquides. Ce courant les fait basculer de façon à ce qu'elles bloquent la lumière sur les côtés. De cette manière, la seule façon de voir correctement l'image est d'être face à l'écran. De quoi empêcher des intrus de regarder son moniteur.

OINet

^ Haut
Avenir
Nanotechnologies et Robotique
Japon : Osaka veut devenir la capitale mondiale des robots
Jeudi, 28/07/2005 - 00:00

Ville d'accueil cette année de la compétition de robots "Robocup 2005", Osaka (ouest) veut se défaire de son image de cité d'industrie lourde pour devenir la capitale de la robotique, en s'appuyant notamment sur la renommée mondiale de ses entreprises. Profitant de l'événement annuel international Robocup, en présence de 330 équipes de "roboticiens" confirmés ou en devenir venus de 31 pays, la municipalité d'Osaka a affiché ses ambitions de créer au coeur de la ville un gigantesque pôle de compétitivité robotique. "Dans 10 à 20 ans, Osaka (2,65 millions d'habitants) deviendra la robot-city (ville des robots). Les technologies robotiques sont devenues notre première priorité industrielle", affirme un des responsables du bureau des industries de la mairie d'Osaka, Shuichi Takano.

De fait, la municipalité a lancé un vaste projet immobilier à proximité de la gare centrale d'Osaka, sur 60 hectares de terrain, dédiés à l'accueil d'entreprises, d'instituts de recherches et de sociétés impliquées dans les développement et usages des technologies robotiques (RT). "60 % des robots existant dans le monde vivent et travaillent au Japon. L'Archipel est le numéro un des technologies robotiques qui sont un programme national soutenu par l'Etat. Le Japon sera sans nul doute le premier pays du monde à introduire les robots dans la vie quotidienne des citoyens. Donc il doit en même temps devenir le plus fort promoteur des RT", renchérit le professeur de l'université d'Osaka Minoru Asada, président de la Fédération Robocup et un des fers de lance des ambitions robotiques de la ville.

Le marché des robots représentera 7.200 milliards de yens (54 milliards d'euros) en 2025, selon le ministère japonais de l'Economie, du Commerce et de l'Industrie (METI). Osaka espère profiter de cette manne et attirer les entreprises japonaises ou étrangères (américaines, chinoises notamment) en s'appuyant sur l'aimant que peut constituer l'environnement scientifique local. La ville insiste notamment sur la présence de nombreuses sociétés renommées impliquées plus ou moins directement dans le développement de technologies robotiques. Et M. Takano de citer Matsushita (marque Panasonic), Sanyo, Omron, Sharp ou encore Keyence.

Les promoteurs du projet sont formels : les robots seront de mieux en mieux acceptés dans la vie quotidienne. "L'une des ambitions du projet est aussi de permettre aux entreprises de réaliser des expérimentations grandeur nature directement auprès du public", ajoute le directeur du Robot Laboratory, sorte de structure centrale de coordination des sociétés participantes au projet, mise en place par la municipalité d'Osaka. Les citoyens de cette ville auraient, selon lui, une plus forte capacité à interagir avec les robots, étant plus habitués que ceux des autres régions. Ils seraient aussi plus pertinents dans leurs commentaires et moins réticents a priori. "Nous voulons favoriser les interactions entre les chercheurs et les utilisateurs", insiste M. Ishiguro qui rappelle que les projets nippons visent le développement de robots pacifiques de service, de secours, de sécurité, d'assistance et de divertissement.

Conscients que ces créatures peuvent faire peur, les chercheurs japonais se veulent rassurants, insistant sur leur bénéfice humain. "Les robots peuvent avoir un rôle social majeur. Certains peuvent aider les personnes âgées ou encore permettre de soigner des enfants autistes en les aidant à communiquer", assure le professeur Asada. Interrogé sur le risque d'usage des technologies robotiques dans les développements de robots soldats (en vogue aux Etats-Unis), capables de tuer, ce dernier estime que "nous devons prendre le maximum de précautions, mais qu'il n'est pas possible de stopper les recherches pour cette raison".

La Croix

^ Haut
Matière
Matière et Energie
Fujitsu présente son écran « papier électronique »
Jeudi, 28/07/2005 - 00:00

Fujitsu a développé un écran couleur flexible de type film, dont la propriété non-volatile permet de conserver une image sans alimentation électrique. Ce support est très économique, car on ne doit l'alimenter que pour changer les images. Cet affichage est l'un des produits que la société Fujitsu a présentés les mercredi 13 et jeudi 14 juillet à Tokyo.

Il s'agit d'un écran à cristaux liquides cholestériques réfléchissants, de type matrice passive. Deux prototypes QVGA de 7,62 cm (3,8 pouces) en diagonal ont été exposés : un écran monochrome et un écran couleur capable d'afficher 512 couleurs.

Selon Fujitsu, l'écran électronique pourrait remplacer le papier dans un certain nombre d'applications : des panneaux d'informations et d'affichage aux affiches et menus de restaurant en passant par les étiquettes de supermarché. Fujitsu, Ltd. a l'intention de proposer ses produits d'écran papier au cours de l'exercice 2006, qui s'étend d'avril 2006 à mars 2007. En plus d'une campagne publicitaire pilote, la société réalise des tests sur le terrain pour déterminer les premières applications commerciales de cet écran. Fujitsu Laboratories Ltd., Fujitsu Frontech Ltd. et la société mère Fujitsu ont travaillé de concert pour développer ce produit. Fujitsu Labs a réalisé les matériaux et la technologie alors que Fujitsu Frontech a pris part à la production.

Contrairement aux écrans plats habituels, dont les filtres couleurs consistent en pixels rouges, verts et bleus, l'écran papier se compose d'une structure à trois couches d'une épaisseur totale de 0,8 mm environ. Une couche comporte deux films de 0,125 mm d'épaisseur, qui prennent les cristaux liquides « en sandwich ». Les cristaux cholestériques de chacune des couches sont orientés de manière à refléter du rouge, du vert ou du bleu ciel respectivement. Les images sur l'écran peuvent être modifiées, avec une puissance de 10 à 100 milliwatts, selon la vitesse de balayage. Un porte-parole de Fujitsu Labs a affirmé que, même lorsqu'il est plié, l'écran parvient à conserver son image.

EET

^ Haut
Espace
Espace et Cosmologie
Retour dans l'espace pour les navettes américaines, avec l'envol de Discovery
Jeudi, 28/07/2005 - 00:00

Discovery a décollé mardi matin de Cap Canaveral, première mission d'une navette américaine depuis l'accident de Columbia le 1er février 2003. Discovery s'est envolée de Cap Canaveral à 10h39 (16h39 heure française) pour une mission de 12 jours considérée par la NASA comme un vol d'essai, avec toutes les incertitudes que cela comporte. Ses sept astronautes auront pour mission de tester et évaluer des équipements et modifications techniques destinés à améliorer la sécurité des navettes. Ils doivent également acheminer des ravitaillements à la station spatiale internationale (ISS). Un problème de jauge d'hydrogène liquide avait entraîné le report du tir le 13 juillet, alors que les astronautes embarquaient à bord. Les tests effectués mardi n'ont pas fait apparaître de dysfonctionnement. Les jauges du gros réservoir externe servent à empêcher les moteurs principaux de la navette de s'arrêter trop tôt ou trop tard après le décollage, deux situations extrêmement dangereuses. Seules deux sur quatre sont nécessaires pour assurer la sécurité, mais depuis l'accident au décollage de Challenger en 1986 la Nasa avait établi des critères plus exigeants : le fonctionnement parfait de l'ensemble des jauges étant requis pour autoriser le décollage. La Nasa n'a pas complètement élucidé la cause de la défaillance d'une des quatre jauges le 13 juillet, mais avait décidé de procéder malgré tout au lancement si les tests effectués avant le lancement se révélaient concluants. Ces tests n'ont fait apparaître aucun dysfonctionnement et le lancement a donc pu avoir lieu. Dix minutes après le décollage, le gros réservoir externe s'est séparé comme prévu de la navette, qui a atteint son orbite en moins de vingt minutes de vol.

"Notre longue attente va peut-être prendre fin. Alors, au nom de millions de gens qui croient profondément en ce que nous faisons, bonne chance et amusez vous quand même un peu là-haut", a déclaré aux astronautes le directeur des opérations de lancement, Mike Leinbach, juste avant le décollage filmé sous tous les angles par deux avions de reconnaissance et plus de 100 caméras.

Les techniciens de l'agence spatiale américaine veulent en effet vérifier qu'aucun débris n'ait atteint la navette. En 2003, un morceau de mousse isolante s'était détaché du réservoir externe de Columbia lors du décollage, heurtant l'aile gauche de la navette et creusant un orifice dans le revêtement de protection thermique. Ainsi fragilisée, la navette n'a pas supporté la rentrée dans l'atmosphère, le 1er février 2003, et des gaz brûlants se sont infiltrés dans la structure de Columbia, qui s'est disloquée en vol, provoquant la mort de ses sept astronautes.

Les astronautes de Discovery ont un programme chargé pour ces 12 jours dans l'espace dont neuf arrimés à la Station spatiale internationale (ISS) où ils apportent du ravitaillement et des pièces de rechange très attendues. Une série de premières à haut risque doivent être réalisées durant cette mission conçue comme un vol d'essai pour tester les modifications décidées après la désintégration de Columbia le 1er février 2003, quand sept astronautes avaient trouvé la mort durant leur retour sur Terre. Première nouveauté, dès que Discovery a atteint l'orbite huit minutes après la mise à feu, la commandante Collins a légèrement incliné l'orbiteur pour permettre à l'équipage d'inspecter visuellement le gros réservoir orange de la navette pendant qu'il se détachait et allait retomber dans l'atmosphère.

La manoeuvre, jamais tentée auparavant, visait à vérifier qu'aucun morceau d'isolant ne s'était détaché du réservoir externe pendant le décollage, comme celui qui avait été fatal à la navette Columbia. D'autres procédures risquées sont au programme, parmi lesquelles l'inspection de l'extérieur de la navette par un laser monté au bout du bras robotisé de Discovery, qui frôlera l'orbiteur par endroit. Une fausse manoeuvre pourrait avoir des conséquences dramatiques. Pendant leurs trois sorties dans l'espace, deux des astronautes de Discovery, dont un Japonais, testeront également des composants chimiques toxiques destinés à réparer la navette. Les astronautes seront prêts à interrompre d'urgence leur sortie si ces matériaux s'avèrent trop risqués à manipuler dans l'espace. La navette doit revenir se poser en Floride le 7 août.

NASA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
La vie serait bien née dans l'espace interstellaire
Jeudi, 28/07/2005 - 00:00

Une équipe de chercheurs franco-allemande a réussi à obtenir une preuve selon laquelle la vie aurait bien pu apparaître dans l'espace, en analysant des "molécules de la vie" que sont les acides aminés dans des conditions du milieu interstellaire, annonce vendredi l'Université de Nice Sophia Antipolis. Les scientifiques de l'université, dirigés par Uwe Meierhenrich, en collaboration avec ceux du LURE/CEA/SOLEIL à Orsay et du CNRS Orléans, ont vu se former, sur leurs échantillons d'acides aminés (utilisés par les cellules pour fabriquer des protéines) irradiés à l'aide d'un synchrotron, un mélange asymétrique de ces acides à partir d'un mélange symétrique.

Plutôt abscons pour un profane, ces travaux sont est en fait de la plus haute importance scientifique puisqu'il montrent, expliquent les chercheurs, qu'un tel phénomène, provoqué en laboratoire par un rayonnement polarisé circulaire gauche et droit pour simuler des conditions astrophysiques, pourrait être à l'origine de la vie sur Terre. Les organismes vivants ne sont pas symétriques, et l'homme n'échappe pas à la règle, soulignent Uwe Meierhenrich et ses collègues. Leur travail vient d'être publié dans l'édition internationale de la revue allemande "Angewandte Chemie (Chimie appliquée)".

Certains sont droitiers, d'autres gauchers, le coeur du côté gauche et le foie du côté droit. Et cette rupture de symétrie (ou homo-chiralité) existe aussi au niveau moléculaire, poursuivent les chercheurs. Les agents de saveurs et les parfums possèdent des odeurs différentes selon qu'elles sont du type gauche ou droit. Mise en évidence par Louis Pasteur dès 1847, cette propriété est appelée, en sciences naturelles, asymétrie bio-moléculaire.

Des expériences similaires avaient déjà été menées aux Etats Unis, mais les acides aminés se trouvaient alors en solution, alors qu'un état liquide n'est pas représentatif des conditions du milieu interstellaire. "La percée de notre expérience, conduite lors de plusieurs sessions d'irradiation intense de jour comme de nuit, a consisté à choisir nos échantillons, les acides aminés, à l'état solide", résume Uwe Meierhenrich. Les conclusions de ce travail suggèrent donc que l'homo-chiralité des acides aminés est apparue dans l'espace interstellaire, bien avant l'origine et l'évolution de la vie sur Terre. Ultérieurement, ces acides aminés asymétriques ont été transportés sur Terre, via des météorites et des comètes, où ils ont déclenché l'apparition de la vie.

AFP

Des bactéries d'un nouveau genre
Jeudi, 28/07/2005 - 00:00

Dans la famille des bactéries, je voudrais celle qui, comme les plantes, réalise la photosynthèse (réaction qui permet de fabriquer des molécules organiques à partir de dioxyde de carbone grâce à la lumière) mais sans soleil, et celle qui fabrique de l'électricité. Aussi farfelus qu'ils paraissent, ces scénarios ne sont pas de la pure fiction. Des biologistes sont parvenus à dénicher récemment ces deux types de micro-organismes. La première bactérie a été trouvée il y a peu de temps par une équipe dirigée par Thomas Beatty (université de Vancouver) à 2 400 mètres de profondeur sur le plancher océanique de l'océan Indien au niveau de sources hydrothermales, là où s'échappe de l'eau chauffée par les gaz et la lave volcaniques (1). Découverts à la fin des années 70, ces sites foisonnent de vie. Pour les biologistes, ils représentent un grand mystère.

Comment un écosystème peut-il se développer à une telle profondeur en l'absence totale de la lumière du soleil ? Réponse : les bactéries sont chimiosynthétiques. En d'autres termes, elles puisent leur énergie non pas de la photosynthèse mais grâce à des réactions chimiques faisant intervenir certains éléments (le sulfure d'hydrogène surtout) contenus dans les fluides hydrothermaux. Et c'est le cas de notre dernière bactérie. Mais, comme le précise Joël Quérellou, de l'Ifremer : «Elle n'utilise pas seulement la photosynthèse comme complément à la chimiosynthèse. Sans photosynthèse, elle meurt.»

Dès 2002, des chercheurs avaient remarqué que certaines bactéries abyssales avaient la faculté d'utiliser - toujours par photosynthèse - le faible rayonnement lumineux émis par la chaleur incandescente des fumerolles. Mais c'est ici le premier cas d'organisme pour qui la lumière non solaire est vitale. Si la découverte reste à confirmer (les chercheurs n'ont en effet pas collecté la bactérie sur la source hydrothermale mais juste au-dessus de cette structure), elle ouvre de nouveaux horizons aux biologistes et aux exobiologistes.

La photosynthèse au fond des océans a-t-elle précédé celle sur la Terre ? Existe-t-il d'autres formes de vie basées sur le même principe sur d'autres planètes ? Personne ne peut encore répondre à ces questions mais en tout cas, «cette découverte va à l'encontre de l'idée communément admise que la vie dépendante de la lumière est forcément limitée à des habitats éclairés par le Soleil», concluent les chercheurs dans l'article. Autre curiosité de la nature : la bactérie Geobacter sulfurreducens que des biologistes conduits par Gemma Reguera (université du Massachusetts) ont observée sur des dépôts sédimentaires riches en fer (2). Ce spécimen fait partie d'un groupe de bactéries connu depuis la fin des années 80 qui tirent leur énergie de la transformation du fer. «Ils ont besoin de fer comme nous avons besoin d'oxygène pour notre métabolisme», explique Muhamed-Kheir Taha, de l'Institut Pasteur.

Mais Geobacter sulfurreducens est différente : alors que les autres possèdent une membrane à travers laquelle le fer est transformé, cette dernière s'attache littéralement à la couche ferreuse grâce à des filaments microscopiques (appelés pili) qui partent de ses cellules. Et les chercheurs ont réussi à montrer, grâce à un microscope à force atomique, sensible aux variations fines de courant électrique, que ces pili étaient conducteurs d'électricité.

Ils servent à transférer des électrons depuis la cellule jusqu'au fer, créant ainsi un courant électrique. Il n'en fallait pas plus aux chercheurs pour imaginer une application étonnante à partir de cette bactérie : récupérer le courant généré par les bactéries en se servant des pili comme autant de fils électriques nanométriques qu'on pourrait utiliser en électronique. Les microbiologistes, qui ont identifié également la protéine qui permettait le développement des filaments, pensent même modifier génétiquement les bactéries pour multiplier les fonctions de ces nanofils. La perspective paraît très lointaine mais elle est alléchante.

Figaro

La plupart des tumeurs du sein n'augmentent pas fortement le risque de cancer
Jeudi, 28/07/2005 - 00:00

La plupart des femmes atteintes de tumeurs ou d'autres anomalies non cancéreuses à la poitrine ne présentent pas un risque beaucoup plus élevé de développer ultérieurement un cancer du sein, surtout s'il y a peu d'antécédents dans leur famille, souligne une nouvelle étude américaine. Toutefois certaines tumeurs bénignes ne sont pas si inoffensives et peuvent être les précurseurs d'un cancer, nuance-t-elle. Les femmes qui en sont atteintes peuvent avoir intérêt à envisager une opération ou un traitement médical pour réduire les risques.

L'étude publiée dans le "New England Journal of Medicine" est l'une des plus vastes jamais entreprises sur le risque de cancer du sein évalué en fonction du type de tumeur bénigne observé. Elle a impliqué près de 1.000 femmes qui ont subi une biopsie entre 1967 et 1991 à la Clinique Mayo à Rochester, dans le Minnesota. Globalement, les femmes atteintes de tumeurs bénignes voient leur risque de développer un cancer du sein augmenter de 56 % les quinze années suivantes, souligne l'étude qui aboutit à la même conclusion que des travaux précédents. Mais cette moyenne cache des disparités, en fonction du type d'anomalie.

Chaque année, on diagnostique chez plus d'un million d'Américaines des pathologies mammaires bénignes : amas de cellules suspects, kystes ou tumeurs. Dans l'étude de la Clinique Mayo, 707 femmes sur les 9.087 présentant de tels symptômes ont développé un cancer du sein, souvent une décennie plus tard. Les deux tiers des tumeurs bénignes examinées dans cette étude étaient composées de cellules qui ne se divisaient pas rapidement, et se traduisaient par un risque de cancer du sein plus élevé de seulement 27%.

Trente pour cent des femmes de l'étude présentaient des tumeurs se développant de manière active : elles avaient 88 % de risque en plus de contracter ultérieurement la maladie. Enfin, 4 % présentaient les tumeurs les plus inquiétantes, composées de cellules paraissant très anormales et se multipliant activement. Ces femmes avaient 324 % de plus de risques de développer un cancer. Les tumeurs paraissant très anormales devraient être retirées même lorsqu'elles sont bénignes, souligne le Dr Julia Smith, une responsable de l'Institut du cancer à l'université de New York.

Dans un éditorial, Gerd Gigerenzer de l'Institut Max Planck pour le développement humain à Berlin et le Dr Joann Elmore de l'université de Washington à Seattle, appellent les médecins à présenter les risques causés par ces tumeurs de manière moins alarmiste aux patientes. Une augmentation du risque de 27 % signifie qu'environ six femmes sur 100 contracteraient le cancer du sein au lieu de cinq, écrivent-ils. Avec le pire type de tumeur, on passe à 19 sur 100, et tous ces chiffres sont inférieurs au risque encouru par les femmes présentant une prédisposition génétique à la maladie, soulignent les deux médecins.

L'âge est également un facteur de risque. Les femmes chez qui on a découvert une tumeur bénigne avant 40 ans risquaient davantage de développer un cancer du sein que celles qui étaient plus âgées au moment du diagnostic, selon l'étude. Les antécédents familiaux comptent également. Les femmes atteintes d'anomalies ne se développant pas de manière active et dans la famille desquelles il y avait eu peu ou pas de cas de cancer du sein, ne présentaient pas elles-mêmes de risque accru de développer la maladie.

AP

La microscopie à force atomique dévoile les secrets de la cellule
Jeudi, 28/07/2005 - 00:00

Environ 25 % des gènes codent pour des protéines membranaires. Mais l'organisation des membranes reste un mystère. Or les membranes entourent toutes les cellules de notre organisme : elles forment une barrière naturelle, mais elles peuvent aussi servir à reconnaître certaines cellules et à diriger une drogue vers elles.

Grâce à la microscopie à force atomique, Simon Scheuring (Inserm), dans une unité CNRS à l'Institut Curie, et James N. Sturgis, professeur à l'Université de la Méditerranée (unité CNRS) ont observé l'organisation d'une membrane de bactérie et ses changements en fonction de facteurs externes. C'est la première fois qu'une membrane est épiée dans son intimité. Ils montrent ainsi que l'organisation des protéines membranaires n'est pas fixe mais peut aussi varier géographiquement et temporellement selon les besoins.

L'organisme est constitué d'une multitude d'organites aux fonctions variées. Pour qu'ils trouvent leur place, ils doivent être bien différenciés et surtout isolés. C'est le rôle des membranes. Composées d'une double couche de lipides, elles entourent les cellules et délimitent ainsi leur volume. Mais les membranes ne sont pas de simples clôtures, elles servent aussi de garde-frontières. Et pour cela elles sont aidées par les protéines membranaires. Ce sont en effet ces dernières qui filtrent le passage entre les deux milieux.

Les membranes assurent également le relais des informations entre l'intérieur et l'extérieur. Elles sont indispensables à la communication entre les cellules et leur environnement. Les messages informatifs venus de l'extérieur (autres cellules, tissus et organes) se fixent au niveau des récepteurs membranaires ce qui active des protéines à l'intérieur de la cellule qui à leur tour en activent d'autres, et ainsi de suite jusqu'à activer une réponse génétique. Une fois interprétés, ces signaux vont permettre aux cellules de déterminer leur position et leur rôle dans l'organisme.

Ils sont indispensables à la prolifération, à la différenciation, à la morphologie et à la mobilité des cellules, des fonctions cellulaires essentielles. Au niveau des organes, ces signaux assurent le maintien harmonieux de la taille et de la fonction des tissus.

Près de 70 % des médicaments ciblent d'ailleurs ces protéines membranaires. Ces protéines extrêmement nombreuses ne fonctionnent généralement pas de manière isolée mais en s'associant entre elles pour former des supercomplexes protéiques. Simon Scheuring et James N. Sturgis ont obtenu des images à haute résolution de membranes biologiques en conditions physiologiques grâce à la microscopie à force atomique, une technique développée par des physiciens en 1986 qui permet d'obtenir une image de la surface d'un échantillon à des résolutions atomiques.

Son principe consiste à balayer la surface de l'échantillon avec une pointe dont les déplacements sont repérés par un laser. Ces données permettent ensuite de dresser la carte « topographique » de l'échantillon. La microscopie à force atomique présente l'énorme avantage de pouvoir analyser des échantillons en solution : un atout majeur pour la biologie. Dès 1995, des protéines membranaires ont pu être observées en microscopie à force atomique, à des résolutions latérales de 10 angströms et verticales de 1 angström (un dixième de milliardième de mètre).

Les chercheurs ont ainsi observé le « relief » de multiples protéines membranaires qui travaillent ensemble dans les membranes natives - c'est-à-dire très proches de leur état naturel - et ainsi accéder à leur organisation. Ils montrent que l'organisation de la membrane des bactéries photosynthétiques changent en fonction de la quantité de lumière disponible. Lorsque l'intensité lumineuse est faible, la proportion de collecteurs de lumière est plus importante. Pour "gérer" l'ensemble de cette lumière "récoltée", les centres réactionnels s'agencent entre eux de manière à éviter de trop grandes pertes : en effet si une trop grande quantité de lumière est perdue, elle peut entraîner la formation de radicaux nuisant à l'ADN et aux protéines et à terme endommager la bactérie.

Les membranes sont donc totalement réactives à l'environnement et se réorganisent en fonction des besoins. Ces résutats semblent par ailleurs confirmer que les membranes ne sont pas homogènes mais qu'il existe au sein d'une même membrane plusieurs compositions possibles (la localisation et la quantité de lipides et de protéines membranaires varient dans une même membrane). A travers cet exemple, les chercheurs abordent des aspects très généraux de l'organisation des membranes.

Au-delà d'une meilleure compréhension de la photosynthèse chez les bactéries, ces résultats montrent tout l'intérêt de la microscopie à force atomique pour observer des protéines à l'échelle nanométrique (c'est-à-dire à l'échelle du millième de millimètre) dans des membranes natives. Simon Scheuring nous plonge dans l'intimité des complexes de protéines en les observant in situ et dans des conditions physiologiques naturelles. C'est grâce à la combinaison de technique d'imagerie à haute résolution telle que la microscopie à force atomique, la microscopie optique et la microscopie électronique que les cellules livreront progressivement leurs secrets.

Inserm

Cancer du poumon : mortalité en hausse chez les femmes
Jeudi, 28/07/2005 - 00:00

Le taux de mortalité annuel par cancer du poumon chez les femmes suit une courbe croissante dans la quasi-totalité des pays européens, alors que pour les hommes, la tendance générale est à la baisse, malgré quelques exceptions. Le British Medical Journal publie cette semaine, pour les 25 pays de l'Union européenne, la courbe respective des décès par cancer du poumon pour chacun des deux sexes au cours des quarante dernières années dans la tranche des 35-54 ans. Les variations spectaculaires dans le temps, dans l'espace et entre hommes et femmes illustrent l'évolution de la consommation de tabac dans les différents pays de la Communauté européenne.

L'évolution du nombre de morts par cancer du poumon chez les femmes suit avec 20-25 ans d'intervalle, les effets des campagnes de marketing de l'industrie du tabac, qui, dans les années 70-80 et partout en Europe ont ciblé le sexe féminin, associant le fait de fumer à l'image de la réussite, de la libération et à celle de l'«executive women». Elle souligne aussi l'impact des campagnes de lutte contre le tabac qui depuis plus de vingt ans maintenant incitent les hommes à ne pas fumer ou à arrêter dans nombre de pays d'Europe. Certes, les taux de décès par cancer du poumon restent plus élevés chez l'homme que chez la femme, à peu près partout en Europe. Mais les deux courbes ont tendance à se rejoindre partout.

En revanche, pour les femmes, la courbe - qui partait de très bas dans les années 60 - continue à grimper partout, sauf en Grande-Bretagne, en Irlande et au Danemark. L'augmentation de cette mortalité chez les femmes est la plus importante en France, en Espagne et en Hongrie. Ce dernier pays est d'ailleurs celui où les femmes payent le plus lourd tribut à ce cancer puisque le nombre de décès y est le plus élevé d'Europe, et plus important même que celui observé pour les hommes dans la moitié des pays de l'Union. Dans une analyse accompagnant la publication de l'étude, Eva Krakilova et son équipe d'épidémiologistes de l'institut d'hygiène de Prague mettent en exergue les moyens qui ont permis à l'épidémie de tabac de se développer chez les femmes, grâce à des interventions actives :

Pour ce qui est de la France, l'évolution de la vente des cigarettes corrobore l'évolution du nombre de cancers du poumon. Ainsi, selon le Bulletin épidémiologique du 31 mai 2005, en 1900, les hommes achetaient en moyenne 4,9 cigarettes par jour (roulées ou manufacturées) ; en 1967, 9,7 cigarettes et en 2003, 5,2. Pour les femmes, en 1945 elles achetaient 0,1 cigarettes et 3,8 en 2000. Le cancer du poumon suit cette évolution. Les dernières données publiées, il y a quelques semaines, par l'assurance-maladie font état de 2930 nouveaux cas en 1997 et de 3 900 cas cinq ans plus tard, en 2002, avec une progression de 5,6 % par an. La population la plus touchée est celle des 40-59 ans. Plus globalement, avec plus de 22 700 décès en 2000, le cancer du poumon (lié majoritairement au tabac) est le plus meurtrier chez l'homme et le troisième chez la femme.

Figaro

Hépatite B et cancers du foie : une affaire d'enzyme
Jeudi, 28/07/2005 - 00:00

Des chercheurs américains ont mis au jour le mécanisme par lequel le virus de l'hépatite B (VHB) provoquerait la dégénérescence cancéreuse des cellules hépatiques. Il "désactiverait" un enzyme qui normalement, protège le foie.

Cet enzyme -la GSK-3ß- prévient l'accumulation dans les cellules de la beta-caténine, qui joue un rôle essentiel dans la prolifération des cellules cancéreuses. Le blocage de cet enzyme aurait ainsi un lien étroit avec la survenue du carcinome hépatocellulaire, le plus répandu des cancers du foie. Cette découverte est donc particulièrement intéressante. Et sans doute plus encore dans la mesure où la beta-caténine intervient aussi dans les cancers du sein, du colon, de l'estomac, des reins...

Le Pr Mien-Chie Hung et son équipe, de l'Université du Texas à Houston, ont mené ces recherches. Ils précisent dans leur publication originale, que "50 % à 70 % des carcinomes hépatocellulaires étudiés présentaient une accumulation anormale de beta-caténine". Cette découverte ouvre la perspective de nouvelles approches thérapeutiques visant par exemple, à "réactiver" la GSK-3ß par thérapie génique.

L'enjeu est considérable. Deux millions de femmes et d'hommes sont infectés par le VHB dans le monde, un virus considéré comme 100 fois plus infectieux que celui du VIH ! Et d'après l'OMS, le virus de l'hépatite B serait à l'origine de 60 % à 80 % des cancers primitifs du foie enregistrés dans le monde.

Molecular Cell

Obésité : la piste génétique se confirme
Jeudi, 28/07/2005 - 00:00

Bonne pêche. Des chercheurs de l'université de Lille explorent patiemment, depuis huit ans, l'ADN de familles françaises comptant au moins un enfant obèse (1). Et ils viennent de ramener dans leurs filets un nouveau gène impliqué dans cette maladie. Baptisé ENPP 1, il prédispose à la fois au surpoids et au diabète. Les personnes dont ce gène a muté ont un risque accru de devenir très gros - jusqu'à deux fois plus élevé que la moyenne. Selon les travaux publiés par le Pr Philippe Froguel dans la revue Nature Genetics, environ 15 % des obèses sont concernés en Europe.

Voilà dix ans maintenant que le tout premier gène de l'obésité a été découvert. Dans l'intervalle, le regard des médecins sur leurs patients les plus gravement atteints a radicalement changé. Non, tous les gros ne sont pas des êtres mous qui manquent de volonté. Quelques-uns sont les victimes d'une maladie héréditaire aussi implacable que la myopathie ou la mucoviscidose. D'autres, plus nombreux, ont hérité d'une simple prédisposition. Car il est acquis, désormais, que la tendance au surpoids peut se transmettre de génération en génération, comme les yeux bleus ou la fossette au menton.

Ce changement des mentalités met du baume au coeur aux généticiens. Leurs travaux avaient d'abord provoqué les sarcasmes des médecins qui voyaient exclusivement, dans l'obésité, un problème de diététique, voire de comportement. Aujourd'hui, les experts de l'ADN sont assez crédibles pour proposer de nouvelles pistes de traitement. Ils comptent par exemple mettre au point des tests pour repérer les personnes à risque dès leur plus jeune âge. Le dépistage a d'ailleurs déjà commencé, à petite échelle, pour le gène du récepteur de la mélanocortine. Celui-ci n'est présent que chez 5 % des obèses, mais ses effets sont dévastateurs. Les enfants concernés, qui ont faim en permanence, sont affectés à coup sûr par la maladie. A ce jour, près de 1 000 gamins en surpoids se sont prêtés à ce test, à Lille, à Paris et à Toulouse. Par ailleurs, les généticiens cherchent quel effet chaque gène identifié produit dans l'organisme. Dans l'espoir de pouvoir gripper un jour le mécanisme à l'aide d'un médicament.

Express

Une vie improbable sous les glaces de l'Antarctique
Jeudi, 28/07/2005 - 00:00

Un écosystème encore jamais observé en Antarctique a été découvert sous la calotte glaciaire, dans les fonds marins, à un endroit où les chercheurs ne s'attendaient pas à trouver de la vie. La zone étudiée par l'équipe de l'US Antarctic Program était située sous la glace avant qu'un énorme iceberg de 3.250 km2 se détache de la plate-forme de glace de Larsen, en 2002. Grâce à un instrument submersible équipant leur bateau l'équipe a pris des images du fond de l'eau, à 850 mètres de profondeur. C'est ainsi qu'ils ont eu la surprise de voir que des bactéries et des sortes de coquillages peuplaient cet endroit peu propice à la vie.

Les images ont révélé la présence d'un tapis blanc semblable aux colonies de bactéries des grands fonds marins, d'où s'échappaient des bulles de gaz. Des coquillages se regroupent eux autour de ''volcans de boue'', expliquent les chercheurs dans le journal de l'Union américaine de géophysique (Eos). La lumière ne parvenant pas jusqu'à cet endroit, ces organismes ne vivent pas de la photosynthèse, précise Eugene Domack et ses collègues. Il pourrait s'agir d'un ''cold-seep'', ces sources situées au fond de l'océan qui laissent suinter des fluides très riches.

NO

Le fruit "tatoué", bientôt dans les rayons des supermarchés
Jeudi, 28/07/2005 - 00:00

Après les étiquettes, les codes-barres et les puces RFID, voici un nouveau venu dans les rayons des supermarchés : le tatouage au laser ! La société Durand-Wayland a développé une technologie permettant d'incruster sur des fruits et des légumes (pommes, poires, tomates, concombre, etc.) les différentes informations nécessaires à leur identification et commercialisation. Approuvé par les instances gouvernementales, le procédé consiste en un laser capable de dépigmenter les couches superficielles de la peau d'un fruit sans toucher celles en profondeur, créant ainsi un contraste permanent, visible à l'oeil nu ou par n'importe quel procédé de lecture optique.

Selon les promoteurs de cette technique de tatouage, toutes les garanties alimentaires sont assurées puisque le faisceau lumineux n'est pas conçu pour traverser la peau et ne peut donc altérer le produit. Par ailleurs, le gouvernement fédéral a demandé, par suite des craintes d'attaque bioterroriste, la mise en oeuvre de dispositifs de traçabilité sur l'ensemble des produits agroalimentaires, ce qui oblige grossistes et fournisseurs à apposer des étiquettes autocollantes sur chaque fruit. A partir de 2006 tout produit importé devra être dûment étiqueté. Ce système peu pratique, aussi bien pour les industriels que les consommateurs (avec des étiquettes qui se détachent ou sont trop fortement collées) pourrait être avantageusement remplacé par l'empreinte laser. Certains imaginent même déjà la possibilité de tatouer des messages publicitaires sur les fruits.

ST Presse USA 752

Des nanoparticules dans les vaisseaux sanguins pour réparer nos neurones
Jeudi, 28/07/2005 - 00:00

En acheminant jusqu'aux neurones, par les vaisseaux sanguins, des nanofils de platine 100 fois que des cheveux humains, une équipe de recherche américano-japonaise a mis au point une technique très prometteuse qui pourrait bien un jour permettre aux médecins d'intervenir directement sur les différentes cellules du cerveau, ouvrant ainsi la voie à de nouveaux traitements pour les maladies neurologiques, comme la maladie de Parkinson.

Ces recherches ont montré que ces nanofils pouvaient transiter par les plus minuscules vaisseaux sanguins jusqu'à n'importe quel point du cerveau, sans perturber l'écoulement normal du sang ou les échanges gazeux. Les chercheurs utilisent déjà depuis longtemps les voies artérielles pour acheminer des cathéters jusqu'à certains endroits du corps. Mais à présent les chercheurs envisagent d'utiliser un bouquet de nanofils pour intervenir sur le cerveau. Chaque nanofils serait employé pour enregistrer l'activité électrique d'une cellule nerveuse.

Les technologies courantes, telles que des balayages de tomographie d'émission de positron et la résonance magnétique ont déjà permis de mieux comprendre comment les circuits neuronaux traitent par exemple l'information ou les images. Mais le niveau d'analyse reste flou. En fournissant des informations à l'échelle du neurone les nanocapteurs pourraient permettre une connaissance bien plus fine du fonctionnement de notre cerveau.

Selon les chercheurs, la première application de ces nanocapteurs serait de mieux comprendre les interactions entre neurones mais une telle nanotechnologie devrait permettre d'ouvrir des domaines d'étude entièrement nouveaux et pourrait finalement déboucher sur de nouvelles thérapies pour les maladies neurologiques et les tumeurs du cerveau.

Autre avantage de cette nanotechnologie, par rapport aux techniques actuelles, elle est totalement indolore et non-invasive pour le patient. Mais pour parvenir à mettre au point ces nouveaux outils thérapeutiques, les chercheurs doivent réussir à guider avec une précision extrême ces bouquets de nanofils dans le système vasculaire du cerveau. Une solution prometteuse consisterait, selon eux, à remplacer les nanofils de platine par des nanofils en polymères conducteurs qui pourraient être guidés par des champs électriques à travers le système circulatoire du cerveau. Ces nanofils en polymères sont non seulement biodégradables mais ont l'avantage d'être 20 à 30 fois plus petits que ceux en platines utilisés dans les expériences actuelles.

Article @RTFlash

SD

Premier test de diagnostic de l'autisme
Jeudi, 28/07/2005 - 00:00

La société française de biotechnologie IntegraGen, basée au Génopole d'Evry, vient d'annoncer le lancement, dès 2006, du premier test génétique de diagnostic de l'autisme. L'affection touche entre 60 000 et 80 000 personnes en France. Le test devrait être proposé, dans un premier temps, aux Etats-Unis et en Allemagne, en tant que "home-test", c'est-à-dire disponible sans prescription médicale. La communication d'IntegraGen a été associée à la publication, mardi 19 juillet, sur le site de la revue Molecular Psychiatry, des résultats de l'une de ses équipes de chercheurs. Dirigée par le docteur Jörg Hager, celle-ci aurait découvert une anomalie moléculaire semblant étroitement associée à cette affection. On sait aujourd'hui que les syndromes autistiques sont la conséquence de troubles majeurs du développement neurologique survenus durant la grossesse et la petite enfance. Ils concernent en majorité le sexe masculin et se caractérisent notamment par des handicaps majeurs dans les interactions sociales. Le développement des techniques de biologie moléculaire et du séquençage du génome humain a permis de progresser dans l'analyse des possibles bases génétiques de cette affection.

Il y a quatre ans, un groupe de 82 chercheurs travaillant dans huit pays (Grande-Bretagne, Danemark, France, Allemagne, Grèce, Italie, Pays-Bas et Etats-Unis) annonçait ainsi avoir localisé certaines zones situées sur quatre chromosomes différents, qui apparaissaient alors directement impliqués dans les anomalies neurologiques des syndromes autistiques. Depuis, différentes publications scientifiques ont confirmé et affiné ces résultats et différents gènes, possiblement liés à quelques-uns de ces syndromes, ont été identifiés. On sait aussi que ces gènes sont ceux qui, s'exprimant au sein du cerveau, participent normalement aux divers mécanismes de neurotransmission et aux fonctions sensorielles et de communication. La découverte des chercheurs d'IntegraGen concerne un nouveau gène dont la mutation serait étroitement associée à l'existence de ces affections. Présent sur le chromosome 16, ce gène dirige, au sein de cellules présentes dans des régions spécifiques du cerveau, la synthèse d'une protéine (la protéine kinase C bêta 1) qui joue un rôle essentiel dans certains processus de neurotransmission

Le Monde

Alzheimer : des souris retrouvent la mémoire
Jeudi, 28/07/2005 - 00:00

Des chercheurs ont constaté avec surprise que les pertes de mémoire liées à une dégénérescence cérébrale comparable à la maladie d'Alzheimer étaient réversibles chez des souris. Même si cette découverte est encore loin de pouvoir s'appliquer à l'homme, elle devrait permettre de mieux comprendre les causes de cette maladie. A l'heure actuelle les scientifiques s'accordent sur le fait qu'Alzheimer se caractérise par deux types de lésions cérébrales : des plaques amyloïdes d'une part et une accumulation de filaments à l'intérieur des neurones d'autres part. L'un des principaux composants de ces enchevêtrements est une protéine tau anormale. Reste à faire le tri entre les causes et les effets de la maladie.

L'équipe de Karen Ashe (Université du Minnesota) a travaillé avec des modèles de souris transgéniques qui produisent des protéines tau en trop grande quantité. Ces chercheurs étaient également capables de stopper l'action du gène modifié. Comme prévu, ces souris ont montré les signes d'un vieillissement cérébral précoce avec pertes de mémoire : elles trouvaient moins facilement leur chemin dans le labyrinthe à moitié rempli d'eau.

Plus inattendu, lorsque les chercheurs ont stoppé la production de protéines tau chez certaines souris, elles ont amélioré leurs performances, signe qu'elles avaient recouvré en partie leur mémoire. Les formations de filaments continuaient pourtant à s'accumuler dans les neurones.

Ces résultats, publiés dans la revue Science du 15 juillet, montrent que les dégénérescences neuro-fibrillaires seules ne suffisent pas à provoquer le déclin cognitif ou la mort neuronale. Les neurofilaments ne sont donc pas la cause des pertes de mémoires. C'est l'action sur l'hippocampe des protéines tau qui serait à l'origine des pertes de mémoire. Une quinzaine de mutations du gène codant pour la protéine tau ont déjà été associées à des formes de démences. La prochaine étape pour les chercheurs est d'identifier la version de cette protéine qui envahit les neurones des souris.

MPR

Le cortex, un supercalculateur qui gère nos informations sensorielles
Jeudi, 28/07/2005 - 00:00

Les neurones corticaux sont capables d'incroyables performances. Des chercheurs de l'Institut des sciences cognitives de Lyon (CNRS-université Claude-Bernard), en collaboration avec des équipes de l'Université catholique de Louvain et de l'université de Rochester, viennent d'en administrer la preuve dans la revue Nature Neuroscience du mois de juillet. Ils montrent comment certains neurones du cortex pariétal parviennent à intégrer différentes informations spatiales provenant de signaux visuels ou sonores et de stimulations mécaniques à la surface du corps, pour procéder ensuite à une pondération entre ces différentes informations. "Tout se passe comme si le cerveau humain fonctionnait à l'image d'un ordinateur qui combine de multiples données pour trouver l'information optimale", explique Jean-René Duhamel, neurophysiologiste à l'Institut des sciences cognitives. C'est ce que fait notre cerveau lorsque nous nous trouvons dans un environnement bruyant et que nous réussissons néanmoins à comprendre ce que nous dit notre interlocuteur. C'est aussi de cette façon qu'un boxeur anticipe l'impact sur son corps d'un coup porté par son adversaire.

Dans le cerveau, le cortex comporte des aires qui répondent de manière spécifique à différentes composantes élémentaires des stimuli visuels (couleur, direction du mouvement, reconnaissance des formes). D'autres aires corticales participent aussi à l'élaboration de la perception visuelle, comme le cortex temporal ou le cortex pariétal. Ce dernier évalue certaines données, telles la position du corps et celle d'un objet dans l'espace, grâce aux informations sensorielles qu'il reçoit. Comment toutes ces données se combinent-elles ? Pour le savoir, les chercheurs ont étudié les réactions de singes macaques soumis à des stimulations sollicitant plusieurs sens. Parallèlement, ils ont fait appel à des simulations fournies par des réseaux de neurones artificiels.

Cela leur a permis de vérifier deux hypothèses. D'une part, avant d'être combinées, les informations sensorielles et posturales convergent vers des ensembles de cellules situées dans des aires intermédiaires. Ces cellules servent à nouer un "dialogue" entre les cartes visuelles et les cartes somatosensorielles du cortex. D'autre part, les chercheurs ont constaté que les voies de communication nerveuses sont à double sens, permettant ainsi à l'information de circuler de manière itérative d'une région à l'autre. Les scientifiques estiment qu'ils peuvent extrapoler à l'homme les données obtenues sur le petit macaque, car "leur système visuel et la structure interne de leur cerveau sont très semblables", précise Jean-René Duhamel.

Ces travaux concernent une région du cortex impliquée dans "des fonctions cognitives de très haut niveau, comprenant notamment la capacité à manipuler les nombres", ajoute le scientifique. Une aptitude qui a été mise en évidence par les techniques d'imagerie fonctionnelle. Ainsi les travaux menés récemment par Stanislas Dehaene, spécialiste des neurosciences à l'Inserm, ont montré une très forte relation entre nos capacités mathématiques et notre faculté à manipuler les informations spatiales.

Le Monde

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Les RFID s'implantent dans les banques
Jeudi, 28/07/2005 - 00:00

Le secteur bancaire devient un terreau de choix pour le développement des puces RFID (Radio Fréquence IDentification). La banque Rabobank a ainsi optimisé et sécurisé la gestion de ses transports de fonds par le biais de cette technologie. C'est la société marseillaise Tagsys qui a décroché ce marché, société dont nous vous parlions il y a peu pour son déploiement de puces RFID en secteur hospitalier. En hollande, la puce RFID permettra aux 200 agences de la Raobank de recevoir des fonds sans intervention humaine, tout en assurant une plus grande fiabilité. Le système est simplissime : des étiquettes RFID haute fréquence (HF) sont intégrées dans des enveloppes bancaires sécurisées au stade de la production.

Lorsqu'un transporteur de fonds effectue une livraison, l'étiquette RFID de l'enveloppe est lue automatiquement par le lecteur RFID installé à l'intérieur de chacun des 200 coffres-forts du réseau bancaire. Une section logicielle met alors à jour la base de données qui de fait, confirme immédiatement la bonne réception de l'argent. Ce système permet ainsi de sécuriser ces circuits à risque tout en fluidifiant les transferts. Selon les dernières données en date, le marché de la RFID est plus que juteux. On le chiffre à 7,26 milliards de dollars pour la seule année 2008.

PCI

Le nombre de mobiles vendus passera le milliard en 2009
Jeudi, 28/07/2005 - 00:00

Plus d'un milliard de téléphones portables seront vendus en 2009, ce qui en fera les appareils d'électronique grand public les plus répandus, selon une étude du cabinet d'études Gartner. Quelque 1,04 milliard de combinés seront vendus en 2009, contre une estimation revue à la hausse de 779 millions en 2005 et 674 millions en 2004, affirme l'étude qui précise que les détenteurs d'un portable seront 2,6 milliards cette année-là. "Le téléphone portable est l'appareil électronique grand public le plus répandu sur la planète", a déclaré Ben Wood, analyste pour Gartner. A titre de comparaison, il se vend, chaque année, 200 millions de PC et le même nombre de télévisions.

La région Asie-Pacifique, dans laquelle un téléphone sur trois sera vendu en 2009, contre un sur quatre aujourd'hui, devrait devenir un marché encore plus important. "Les seuls marchés chinois et indien représenteront environ 200 millions d'unités en 2007, l'Inde dépassant la Chine en 2009 avec 139 millions de combinés", a indiqué Ann Liang, analyste spécialisée sur la région.

Le prix moyen d'un combiné sera de 161 dollars en 2009 contre 174 dollars en 2004 et pour des appareils de meilleure qualité, indique l'étude. La différence de prix entre les combinés d'entrée de gamme vendus une vingtaine de dollars sur les marchés émergents et les smartphones, véritables petits ordinateurs, représentera plusieurs centaines de dollars. Ces combinés "intelligents" représenteront seulement un cinquième des ventes en 2008. "Les marges bénéficiaires vont dramatiquement fondre sur les marchés matures et émergents, ce qui sera fatal aux plus petits acteurs", affirme Wood.

"Cette année, Siemens s'est séparé de son activité téléphones portables, Alcaltel est sorti d'une coentreprise, Panasonic de Matsushita s'est retiré du marché nord-américain et Mitsubishi, de celui de l'Europe de l'Ouest, Sendo a échoué, Lite-On a renoncé à son activité ODM (original design manufacturing), Panda et Soutec ont fermé leurs portes en Chine", rappelle Ben Wood. Les six principaux constructeurs, le finlandais Nokia, l'américain Motorola, les sud-coréens Samsung Electronics et LG Electronics, Sony Ericsson et BenQ/Siemens, produisent déjà quatre combinés sur cinq au monde, et quelque cinquante autres se partagent le reste du marché.

Reuters

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les propriétés des nombres premiers révèlent l'ordre et la beauté du monde mathématique
Jeudi, 28/07/2005 - 00:00

« Une avancée majeure dans la compréhension des nombres premiers », « une démonstration aux conséquences puissantes sur les théories mathématiques »... Voici quelques-uns des commentaires lus ou entendus, depuis quelques semaines, sur les forums et les sites spécialisés en mathématiques, depuis que deux jeunes mathématiciens, l'un anglais et l'autre australien, Ben Green et Terence Tao, ont rendu publique leur démonstration sur les « progressions arithmétiques de longueurs arbitraires dans les nombres premiers ».Une démonstration qui vient d'être couronnée, après vérification par des experts anonymes, par un accord de parution à venir dans la revue internationale de référence dans le domaine des mathématiques, les Annals of Mathematics.

Alors, de quoi s'agit-il ? Pour l'expliquer, il faut tout d'abord faire un détour par les nombres premiers, ces briques élémentaires de l'univers des nombres. En effet, les nombres premiers n'étant divisibles que par un et par eux-mêmes, c'est inévitablement à l'un d'entre eux qu'on aboutit lorsqu'on divise d'autres nombres entre eux.« Les nombres premiers sont aux nombres ce que les atomes sont à la matière », résume Jean-Christophe Yoccoz, mathématicien spécialiste des systèmes dynamiques et professeur au Collège de France. Mais au-delà de cette propriété principale, les nombres premiers ne cessent, depuis la nuit des temps, de fasciner les mathématiciens. Ils possèdent en effet de nombreuses autres propriétés, observables mais pas toujours démontrables, qui, mises bout à bout, dessinent une étonnante harmonie, un tout à la fois complexe, régulier et ordonné. Ainsi, on sait depuis une démonstration lumineuse du mathématicien grec Euclide, au IIIe siècle avant J.-C., que la série des nombres premiers se poursuit à l'infini... même s'il est par définition impossible de les écrire tous sur le papier ou dans un ordinateur !

Plus récemment, au XIXe siècle, le mathématicien allemand Riemann ajoutait sa pierre à l'édifice en reliant leur répartition aux propriétés analytiques d'une fonction mathématique... Précisant en cela, de façon spectaculaire, l'observation déjà faite auparavant que la fréquence d'apparition des nombres premiers diminue lorsque l'on avance dans les nombres.

Plus étonnant encore, les mathématiciens se sont aperçus, sans pouvoir le démontrer, que les intervalles qui séparent les nombres premiers entre eux répondent eux aussi à des règles précises. C'est là que l'on se rapproche du résultat récent de Green et Tao. Les mathématiciens ont observé qu'il existe une infinité de paires de nombres premiers qui ne sont séparées que par un nombre, comme par exemple la paire 3 et 5. On sait aussi, sans l'avoir encore démontré, qu'il existe à l'infini des séries de trois nombres premiers dont celui du milieu est à égale distance des deux autres.

Avancé à la fin de l'année 2004, puis vérifié depuis par des dizaines de mathématiciens à travers le monde, le résultat de Green et Tao démontre une autre forme, bien plus puissante encore, de régularité dans les suites de nombres premiers. Une harmonie dont les mathématiciens se doutaient, sans jamais avoir pu en apporter la preuve : en parcourant la succession infinie des nombres, on trouvera toujours des suites plus ou moins longues formées de deux, de trois ou plus de nombres premiers, séparés entre eux par des intervalles identiques. D'apparence banale, cette affirmation renforce aux yeux des mathématiciens le caractère fascinant de régularité des nombres premiers.

Pour les chercheurs, cette relative simplicité d'une démonstration clôturant un problème après lequel courent les mathématiciens depuis plus d'un siècle, ne la rend que plus belle. De conjecture, c'est-à-dire d'une intuition basée sur l'observation, la « progression arithmétique de longueur arbitraire des nombres premiers » est donc devenue un théorème, démontré en bonne et due forme.

Pour les chercheurs comme Jean-Christophe Yoccoz, ce résultat confirme que les nombres sont des objets à part entière, comme les atomes ou les molécules... Même si leur nature diffère, ils existent indépendamment de l'esprit qui les étudie, le cerveau des mathématiciens ne créant que les outils théoriques qui permettent de les appréhender.

SA

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top