RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 348
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 13 Août 2005
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Télévision mobile : le Gouvernement veut encourager les expérimentations
Plus de 190 millions d'abonnés au haut débit en 2005
Wimax : lancement de l'appel à candidatures pour le développement de l'Internet haut débit hertzien en France
La Rochelle expérimente des balises pour guider les aveugles à la plage
Podcasting : Internet lance la radio sur mesure
Télémédecine pour les populations rurales isolées de l'Inde
Avenir
Un bien joli robot
Un robot suisse qui numérise les livres
Quand des bactéries produisent des fils conducteurs
Peintures et vernis high-tech grâce aux nanotechnologies
Matière
La carte d'identité authentifiée par sa matière première
Première détection d'antineutrinos "géologiques"
Espace
Des astronomes affirment avoir découvert la 10e planète du système solaire
Le plus gros satellite de télécom mis sur orbite par Ariane-5
Mars Orbiter en route vers la planète rouge
Terre
Antarctique : une fonte des glaces jamais vue depuis 10.000 ans
Les grandes villes d'Europe commencent à sentir le réchauffement climatique
Vivant
Premier chien cloné, un petit lévrier afghan
Des cellules de peau rajeunies en cellules souches
Des chercheurs produisent des neurones à partir de cellules du cerveau
Des cellules de la peau pour guérir des brûlures chez les enfants
Une bio-usine pour fabriquer de l'os
Faire vieillir les cellules pré-cancéreuses pour les empêcher de proliférer
Une bombe thérapeutique pour soigner le cancer
Cancer : un outil pour mesurer le risque de métastase
Cancer du sein : le dépistage précoce améliore la survie des malades
Un lien entre diabète et cancer du pancréas
Un régime pauvre en graisses ralentirait le cancer de la prostate
Cancers et leucémies infantiles : la pollution automobile accusée
Le génome du riz révélé
Du nouveau sur la schizophrénie
Homme
Le Président Chirac installe l'AII et annonce un projet de "moteur de recherche multimédia"
Bruxelles autorise l'Arcep à réguler le haut débit
Les grands studios de cinéma adoptent une même norme numérique
La téléphonie mobile sur réseau Wi-Fi promise à un bel avenir
Edito
Les dernières avancées en biologie ouvrent la voie à la révolution de la médecine régénératrice



La science ne s'arrête décidément jamais ! Au cours de ce mois d'août, les avancées biologiques et médicales de premier plan se sont succédées avec, comme point commun, de fulgurants progrès dans les domaines du clonage et de la thérapie cellulaire (Voir le détail de nos articles dans notre rubrique « Sciences de la Vie » de ce numéro).

Pour la première fois au monde, des biologistes sud-coréens ont en effet réussi à réaliser par clonage la "copie conforme" d'un lévrier afghan au pelage noir et blanc, qui a été mis au monde par une mère labrador jaune. Le résultat de cette opération s'appelle "Snuppy" (pour Seoul National University puppy/chiot de l'Université nationale de Séoul). Snuppy est le premier chien à rejoindre toute une galerie d'animaux déjà clonés avec succès, allant des moutons aux chevaux en passant par des souris, des vaches, des chèvres, et des porcs. Les chiens étaient pourtant parmi les plus difficiles des animaux à copier. Comme l'a souligné Ian Wilmut, le biologiste britannique qui a créé la brebis Dolly, "Les succès obtenus dans le clonage d'un nombre d'espèces de plus en plus important confirment qu'il est bel et bien possible de cloner n'importe quel mammifère et notamment l'homme".

Alors que les chercheurs coréens faisaient cette annonce, confirmant ainsi leur savoir-faire dans ce domaine stratégique du clonage, des chercheurs américains de Harvard annonçaient, fin août, qu'ils avaient réussi l'exploit, à partir d'une cellule de peau d'une personne, fusionnée à une cellule souche embryonnaire, (extraite d'embryons surnuméraires obtenus après fécondation in vitro), de fabriquer une entité radicalement nouvelle, une cellule hybride («cybride») réussissant ainsi à reprogrammer une cellule adulte à son état embryonnaire. Cette cellule "cybride" de peau possède un extraordinaire potentiel de régénération et ouvre la perspective de pouvoir disposer de cellules souches embryonnaires personnalisées, parfaitement compatibles avec l'organisme des malades.

Cette technique permet en outre de surmonter de délicats problèmes éthiques en évitant d'avoir recours à la création d'embryons humains pour récupérer leurs précieuses cellules souches embryonnaires. Fait inhabituel et révélateur de l'importance de cette découverte, la revue Science qui a publié ces travaux le 26 août, a organisé une téléconférence de presse pour les présenter à l'ensemble de la communauté scientifique.

D'autres chercheurs américains sont parvenus, pour leur part, à cultiver de l'os in vivo sur un animal et à l'utiliser pour réparer un os abîmé. Un tel procédé pourrait un jour remplacer l'opération délicate consistant à prélever un petit morceau d'os sur la hanche, par exemple, pour combler une fracture à un autre endroit. L'équipe de Prasad Shastri (Université de Vanderbilt, Nashville) a mis à profit le mécanisme naturel de réparation de l'os pour mettre au point ce qu'ils ont appelé le ''bioréacteur'' à os. Jusqu'à présent les tentatives pour greffer un tissu osseux cultivé in vitro ont échoué. Prasad Shastri et ses collègues ont préféré cultiver l'os sur sa matrice naturelle. Lorsque l'os est abîmé, la membrane qui l'entoure, le périoste, orchestre la réparation de la partie fracturée (périostéogénèse) et permet ainsi à l'os de se ressouder en six semaines.

Dans cette moisson estivale de découvertes et d'annonces scientifiques majeures, l'Europe n'est pas en reste puisque des chercheurs suédois ont annoncé qu'ils étaient parvenus, à partir de cellules souches cérébrales prélevées sur des adultes vivants, à créer de nouvelles cellules qui sont devenues fonctionnelles, suscitant l'espoir de pouvoir, à terme, traiter des affections lourdes comme les maladies de Parkinson et d'Alzheimer. Grâce à un agent capable de provoquer leur division, les chercheurs suédois ont réussi à produire plusieurs millions de nouvelles cellules à partir des cellules souches originelles, et environ un quart d'entre elles sont devenues des neurones actifs. Ces nouvelles cellules se sont mises à communiquer entre elles, ce qui montre qu'elles ont établi de nouvelles connexions synaptiques permettant aux neurones d'être fonctionnels.

Les biologistes tentent depuis longtemps de remplacer les cellules mortes du cerveau par des cellules saines pour tenter d'inverser le processus de dégradation qui survient lors d'affections incurables comme la sclérose en plaque, la maladie d'Alzheimer ou la maladie de Parkinson. Comme le soulignent les responsables de ces recherches passionnantes, "Le simple potentiel de ces cellules a un impact significatif sur la manière dont nous évaluons aujourd'hui la capacité de régénération du système nerveux central et, très important, sur les moyens potentiels dont dispose désormais la science pour mieux comprendre les mécanismes de la réparation neuronale".

En Suisse, c'est une avancée remarquable dans le traitement des enfants brûlés qui vient d'être réalisée par des chercheurs qui, après avoir remarqué que des incisions dans la peau d'un foetus guérissaient sans laisser de trace, ont eu l'idée d'utiliser de la peau de foetus «cultivée» pour traiter les jeunes enfants brûlés. Mais alors qu'ils s'attendaient à ce que la nouvelle greffe de peau provenant d'un foetus avorté s'intègre à celle des enfants traités, la greffe de peau s'est dissoute ou s'est changée en un gel facile à enlever. De plus, aucun phénomène de rejet n'a été noté, puisque la greffe demeurait en surface et ne s'intégrait pas à la peau des enfants. Traditionnellement, les brûlures sont traitées avec des lambeaux de peau prélevés ailleurs sur le corps du patient, une procédure douloureuse et qui cause des lésions additionnelles sur le corps.

«Nous avons plutôt observé une guérison spontanée des brûlures en seulement deux semaines, ce qu'on ne voit jamais dans les greffes traditionnelles», explique le Dr Patrick Hohlfeld, professeur de gynécologie et d'obstétrique à l'Hôpital universitaire de Lausanne, en Suisse. Avec les greffes traditionnelles, «la guérison ne se fait pas de cette manière et prend plusieurs mois. Non seulement la guérison est plus rapide, mais la douleur est beaucoup moindre et cette technique ne laisse pas de cicatrice. Les chercheurs doivent maintenant déterminer si les greffes de peau provenant de foetus peuvent avoir le même effet de guérison chez les adultes.

Ces avancées annoncées au cours de l'été, toutes plus remarquables les unes que les autres, nous montrent que nous sommes bien à l'aube d'une nouvelle révolution scientifique et médicale d'une ampleur que nous avons encore du mal à évaluer. Avec la maîtrise de l'utilisation des cellules-souches et la mise au point des thérapies cellulaires, la médecine va accomplir un prodigieux bond en avant en permettant, sans doute plus tôt qu'on ne l'imagine, une véritable et complète régénération d'organes et de fonctions lésés ou détruits par la maladie ou l'âge.

Fait remarquable, cette médecine régénératrice va non seulement concerner le corps mais aussi l'esprit en permettant une restauration jusqu'à présent hors d'atteinte de tous traitements médicaux, des fonctions intellectuelles et cognitives chez des personnes victimes d'accidents ou de maladies neuro-dégénératrices, et bien entendu chez les personnes âgées dont le nombre ne cesse d'augmenter dans notre pays. Ces extraordinaires perspectives thérapeutiques vont considérablement modifier les conséquences économiques et socio-culturelles liées au vieillissement croissant de notre population car elles laissent espérer l'avènement d'une société où l'on vivra non seulement beaucoup plus longtemps (sans doute un siècle d'espérance de vie d'ici 2050) mais dans laquelle la grande majorité des individus pourront conserver jusqu'à la fin de leur vie leur autonomie et une bonne qualité de vie.

Souhaitons que notre pays prenne toute la mesure de cette révolution et se donne rapidement les moyens juridiques et budgétaires de rester dans cette course scientifique et technologique capitale.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Télévision mobile : le Gouvernement veut encourager les expérimentations
Dimanche, 14/08/2005 - 00:00

Le Premier ministre Dominique de Villepin a indiqué dans un communiqué le 26 août que son gouvernement allait "encourager les expérimentations" afin de développer la télévision mobile auprès d'un "large public". M. de Villepin a fait cette annonce au vu d'un rapport qui lui a été remis par Daniel Boudet de Montplaisir et qui suggère un lancement commercial de la télévision mobile entre fin 2006 et 2008. "A partir d'une analyse des technologies disponibles et à la lumière des expériences internationales, ce rapport précise les conditions nécessaires pour réussir en France le déploiement à grande échelle de la réception télévisuelle sur les téléphones portables", relève le communiqué de Matignon. "Le gouvernement encouragera les expérimentations destinées à en faciliter le succès auprès d'un large public", ajoute-t-il.

Le rapport - disponible sur le site www.ddm.gouv.fr - préconise de "lancer sans tarder des expérimentations" afin de mieux cerner les attentes du public et de "mettre en place parallèlement plusieurs groupes de travail sur les technologies et les fréquences", qui pourraient remettre leurs conclusions "dans le courant 2006". "L'apparition de la mobilité pour la télévision pourrait bouleverser les habitudes de consommation tout comme l'introduction de la mobilité a révolutionné l'usage du téléphone", écrit M. Boudet de Montplaisir. "Les années 2005 et 2006 devraient être mises à profit par les différents acteurs pour mener des expérimentations permettant de préciser le ou les modèles économiques efficaces, les services attendus, la technique de diffusion ainsi que l'ergonomie et les caractéristiques des terminaux", suggère-t-il.

"Sous réserve de la disponibilité des fréquences et de l'adaptation du cadre juridique à ces nouveaux services, le lancement commercial pourrait être envisagé entre la fin 2006 et l'année 2008, vraisemblablement de manière progressive, et limitée au démarrage aux plus grandes agglomérations", ajoute-t-il. M. Boudet de Montplaisir a été chargé en 2004 par le Premier ministre Jean-Pierre Raffarin d'une mission de suivi du lancement de la télévision numérique terrestre (TNT) et d'une mission sur les modalités d'introduction et de développement de la télévision haute définition (TVHD) et de la télévision mobile.

Les industriels n'ont pas attendu ce coup de pouce gouvernemental pour lancer des expérimentations, sous l'égide du CSA (Conseil supérieur de l'audiovisuel). Deux pôles ont été constitués, regroupant d'un côté Towercast-SFR-Nokia-Canal+ et, de l'autre, TPS-Orange-Bouygues Telecom-France Télécom. Dans les deux cas, c'est la norme DVB-H (Digital Video Broadcasting Handheld) qui a été retenue. Cette déclinaison mobile du DVB-T, utilisé pour la télévision numérique terrestre (TNT), est également testée dans d'autres pays d'Europe, comme la Finlande, ou l'Allemagne. A la mi-septembre, Towercast et ses partenaires vont ainsi mener un test grandeur nature auprès de 500 utilisateurs, qui accéderont à 14 chaînes de télévision en direct, ainsi qu'à des radios numériques comme NRJ.

Mais si le DVB-H a aujourd'hui le vent en poupe, d'autres normes, tel le T-DMB (Terrestrial Digital Multimedia Broadcasting) déjà déployé commercialement en Corée du Sud, sont à l'étude. Bouygues Telecom et Orange indiquent qu'ils vont étudier cette technologie. Reste que ce développement de la télévision sur mobile va se heurter à une autre difficulté : celle de la disponibilité des fréquences déjà réservées pour la TNT et la TVHD.

Rapport Boudet

Plus de 190 millions d'abonnés au haut débit en 2005
Dimanche, 14/08/2005 - 00:00

L'avenir est radieux pour l'internet. Selon la société d'études britannique Informa Telecoms & Media, le nombre d'internautes disposant d'un accès haut débit devrait dépasser les 190 millions cette année, et approcher les 440 millions à l'horizon 2010. D'ici cinq ans, 77 % des accès internet, soit 332 millions, se feront via une technologie DSL. En revanche, le câble ne devrait pas dépasser les 76 millions d'abonnés, soit environ 17 %. Le restant correspondra à des accès directs par fibre optique ou par réseaux sans fil, notamment avec la technologie WiMax.

D'un point de vue géographique, la société d'étude table sur «un changement significatif de la croissance» du nombre d'accès haut débit. Après l'Europe et les États-Unis ces cinq dernières années, les plus forts taux seront relevés en Chine et en Inde. «Par sa croissance démographique, la Chine dépassera les États-Unis en nombre d'abonnés internet haut débit en 2008. En 2010, elle représentera à elle seule un quart des accès mondiaux». En France, l'Arcep (Autorité de régulation des communications électroniques et des postes) a recensé 7,4 millions d'abonnés à la fin du premier trimestre 2005.

NO

Wimax : lancement de l'appel à candidatures pour le développement de l'Internet haut débit hertzien en France
Dimanche, 14/08/2005 - 00:00

Après le câble et l'ADSL, voici venu le "Wimax". L'Autorité de régulation des communications électroniques et des Postes (ARCEP) vient de lancer l'appel à candidatures pour l'attribution de fréquences qui permettront le développement d'accès Internet à haut débit sur tout le territoire grâce à cette nouvelle technologie. Développé par un consortium d'une soixantaine d'industriels, le Wimax (World Interoperability for Microwave Acces) est un nouveau moyen d'accès Internet haut débit par voie hertzienne. Son objectif est de désenclaver les territoires ne bénéficiant pas de l'ADSL.

Grâce à une antenne située sur un point élevé, elle permet d'accéder à l'Internet haut débit, de l'ordre de 10 à 20 Mégabits par seconde, sur une zone de couverture de 20 kilomètres environ. "En complément des offres ADSL classiques qui seront disponibles fin 2005 pour près de 96 % des foyers français, la boucle locale radio, avec la technologie Wimax, est la technologie alternative qui a l'un des plus forts potentiels", souligne le ministre délégué à l'Industrie François Loos dans un communiqué.

Par arrêtés du 28 juillet 2005, M. Loos a donc fixé les modalités et conditions d'autorisation d'utilisation des fréquences de boucle locale radio disponibles dans la bande 3,4-3,6 GHz. Deux licences seront attribuées par région, soit 44 au total. Les futurs candidats (collectivités territoriales, opérateurs de télécommunication) ont jusqu'au 14 octobre pour déposer leurs dossiers auprès de l'ARCEP. A l'issue de cette première étape, celle-ci tranchera le 6 janvier.

Dans les régions où le nombre de candidats sera supérieur aux fréquences disponibles, une deuxième phase sera lancée le 13 janvier et s'achèvera le 17 juillet 2006, afin de sélectionner les meilleures candidatures. La technologie Wimax "est majeure pour l'aménagement numérique du territoire", souligne François Loos dans son communiqué. Au 31 mars 2005, La France comptait 7,4 millions d'abonnements haut débit, soit près de trois millions d'abonnements supplémentaires en un an. Au cours du 1er trimestre, le nombre d'abonnements a augmenté de 850.000 (+13 %). L'ADSL représente en France 94 % des accès avec 6,9 millions d'abonnements. L'ADSL passe sur les lignes de cuivre du réseau local de France Télécom.

AP

La Rochelle expérimente des balises pour guider les aveugles à la plage
Dimanche, 14/08/2005 - 00:00

«Première bouée à quinze mètres du pontage». Une voix douce et féminine s'élève d'une balise sonore, suscitant la curiosité des touristes paisiblement allongés sur le sable. Depuis la mi-juillet, le dispositif «audio-plage» a fait son apparition aux Minimes, à La Rochelle. Ce concept novateur permet aux déficients visuels de se repérer sur la rive et en mer. Désormais, ils peuvent goûter en toute autonomie aux plaisirs de la baignade qui leur étaient jusqu'alors inaccessibles. Le système de guidage vocal a tout changé pour les personnes non voyantes. Désormais elles peuvent venir régulièrement se baigner. Sitôt sortie du bus qui les amène directement à la plage, les personnes non voyantes passent par le poste de secours où un bracelet émetteur leur est remis. Des balises tactiles, réparties tout au long du pontage, leur permettent alors de repérer l'endroit où elles laissent leurs affaires. Un bouton d'appel de détresse est prévu sur leur bracelet, directement relié au poste de secours, ce qui est très sécurisant pour les non-voyants. Tous les utilisateurs s'accordent à louer les vertus de ce système dont le coût - 18 000 euros - a été cofinancé par la mairie de La Rochelle et le conseil régional Poitou-Charentes.

Figaro

Podcasting : Internet lance la radio sur mesure
Dimanche, 14/08/2005 - 00:00

Depuis quelques mois, le "podcasting" fait des émules sur la Toile. Ce nouveau procédé de téléchargement légal consiste à enregistrer les émissions radiophoniques disponibles sur Internet, notamment sur des pages personnelles comme les "blogs". Ainsi, en quelques clics, l'auditeur crée sa propre grille de programmes. Une fois enregistrés ils sont transférés sur un lecteur MP3, ou un ordinateur personnel. L'internaute dispose alors de sa programmation personnalisée (sans publicité) et il peut l'écouter où et quand il lui plaira...

Pour utiliser ce système, la première étape consiste à télécharger un logiciel de transfert du type iTunes ou iPodder. Ces logiciels recensent plusieurs milliers de podcasts (c'est-à-dire des émissions de radio ou des blogs audio). On peut également repérer par soi-même les blogs qui diffusent les informations souhaitées. Ensuite, il faut choisir dans la variété des domaines proposés (juridique, politique, littérature, sportif, culturel, financier, etc.) les émissions à enregistrer. Le logiciel se charge du reste : enregistrement, transfert quasi automatique vers le lecteur MP3 et mise à jour des podcasts choisis. Après cette démarche totalement gratuite, il ne reste qu'à décider du lieu et du moment où écouter la sélection.

Aux Etats-Unis, le podcasting fonctionne depuis juillet 2004 et est déjà devenu une véritable mode. Le cabinet d'études Pew Internet estime même que 29 % des 22 millions d'Américains possédant un baladeur MP3 ont déjà écouté un podcast. Le phénomène est également arrivé jusqu'en Europe. Ainsi, au Royaume-Uni, des universités comme Cambridge ou Liverpool ont créé des blogs pour diffuser leurs propres podcasts. La BBC profite aussi de la tendance en diffusant certaines rubriques d'informations sur Internet. En France, alors que le terme podcasting n'est pas encore rentré dans le vocabulaire, Arte Radio, propose des reportages et RTL met chaque jour en ligne les meilleurs moments des émissions d'informations. Au total, l'engouement est tel que le nombre d'adeptes du podcasting pourrait même atteindre au niveau mondial quelque 10 millions de personnes, d'ici quelques mois, aux dires du spécialiste du domaine, Adam Curry, développeur du logiciel de transfert iPodder.

Un problème se pose toutefois pour ce nouveau système d'écoute gratuit et tout à fait légal. Dès que les téléchargements concernent des programmes musicaux et non plus d'information, la limite de la légalité est en effet délicate à établir. Car outre la diffusion d'informations proposée par les blogs, le téléchargement de morceaux musicaux pourrait s'apparenter aux méthodes des sites de Peer to Peer tels que Kazaa ou E-Mule. Ainsi, la frontière entre l'information désintéressée et le piratage condamnable semble très facile à franchir.

Tribune

Télémédecine pour les populations rurales isolées de l'Inde
Dimanche, 14/08/2005 - 00:00

L'Inde prévoit de lancer, d'ici 4 ans, le satellite HEALTHSAT exclusivement dédié à relier virtuellement le patient et le médecin. En Inde, 70 % de la population est rurale et habite dans des zones très éloignées des centres urbains qui regroupent 75 % des praticiens spécialisés. Selon G. Madhavan NAIR, directeur de l'agence spatiale indienne (ISRO), l'activité de télémédecine fonctionne déjà avec les transpondeurs actuellement en orbite qui permettent de connecter actuellement une centaine de stations sur le sol indien et plus d'un millier en 2007. En Inde, les projets de télémédecine ont débuté en 2001 et auraient permis à plus de 25.000 patients de se faire soigner. L'ISRO va également créer 25 centres de ressources (Village Ressource Centre) afin de fournir des informations spécifiques locales par l'intermédiaire de ses satellites de télédétectection (Indian Remote Sensing Satellites). A travers ces VRC, les populations isolées seront informées de l'occupation et de l'utilisation des sols, de la prospection de terres arables et de sources d'eau souterraine. Ces centres permettront également aux agriculteurs de soumettre leurs interrogations à des scientifiques compétents et aux pêcheurs d'obtenir des informations sur les conditions maritimes. Ces centres permettront enfin de diffuser la parole du gouvernement central et local. L'ISRO a signé des mémoires d'ententes avec diverses sociétés de technologies de l'information pour la mise en place de ces centres.

BE

^ Haut
Avenir
Nanotechnologies et Robotique
Un bien joli robot
Dimanche, 14/08/2005 - 00:00

Grâce à sa peau de silicone souple, grâce aux nombreux capteurs et moteurs qui l'équipent, le robot Repliee Q1 ressemble vraiment à un être humain. Le nouveau robot humanoïde de l'équipe du Pr Hiroshi Ishiguru, de l'université d'Osaka, a pris les traits d'une jeune femme. ''Elle'' peut cligner des paupières, mouvoir ses bras et ses mains comme un être humain lorsqu'elle parle et paraît même respirer. Pour que les mouvements du robot soient le plus proches possibles de ceux des humains, il a été programmé pour les imiter. Pour cela il suffit qu'un humain équipé de petits réflecteurs aux points clefs, comme les articulations, se place face au robot. Celui-ci essaie alors de retrouver les points sur son propre ''squelette'' et dispose de 31 mécanismes dans la partie supérieure du corps pour reproduire les mouvements. Repliee Q1 n'a pas encore la fluidité d'un être humain mais a quand même épaté les visiteurs de l'Expo internationale du Japon.

S&A

Un robot suisse qui numérise les livres
Dimanche, 14/08/2005 - 00:00

Jusqu'à présent, une grande partie du travail de numérisation des documents conservés dans les bibliothèques était effectué manuellement par une main d'oeuvre de moindre coût. Mais un nouveau robot, mis au point par la société suisse 4DigitalBooks, pourrait changer ces vieilles pratiques !

De la taille d'un véhicule utilitaire, la machine est capable de tourner les pages d'un livre et de les scanner à un rythme de 1500 pages par heure, quel que soit le type de livre. Et si deux pages sont jointes, un jet d'air est alors envoyé pour les décoller. Du coup, plus de problème de logistique ou de contrôle de qualité. Cependant, le prix de cette technologie distribuée depuis peu aux Etats-Unis reste élevé et son acquisition n'est rentable qu'au-delà de 5,5 millions de pages numérisées. L'Université Stanford a quant à elle déjà été convaincue. Un robot a été installé dans les locaux de la bibliothèque en septembre 2002 et fonctionne depuis à pleins volumes. «Nous avons essayé avec des ouvrages de différentes tailles et textures de papier. Nous avons par exemple numérisé des collections entières du New York Times de la fin des années 40.»

Seul hic, la merveilleuse machine, qui gère le A2 comme le A3, le noir et blanc comme la couleur, a un prix compris entre 250 000 et 350 000 euros. Outre son prix, la machine n'est pas près de séduire tout le monde. «Il est hors de question de confier nos documents anciens et fragiles à une machine, clame-t-on à la BNF. Sans parler des problèmes de droits d'auteur.».

NYT

Quand des bactéries produisent des fils conducteurs
Dimanche, 14/08/2005 - 00:00

Alors qu'elle faisait d'ores et déjà l'objet d'études approfondies en tant qu'agent de traitement des déchets toxiques, une souche de bactérie a surpris les chercheurs par sa capacité à produire des nanofils conducteurs. Ces fils longs et très fins sont uniques dans les systèmes biologiques, selon le microbiologiste qui a découvert la bactérie et la conductivité de ses fils. Pour lui, ils révolutionnent complètement l'approche scientifique des rapports entre microbes et électrons. Derek Lovley et ses collègues de l'Université du Massachusetts (Amherst, Massachusetts) affirment avoir observé et mesuré la conductivité de longs fils de 3 à 5 nanomètres de diamètre, provenant de la bactérie Geobacter. Si la composition exacte des filaments est encore à l'étude, leur gène a, quant à lui, été identifié, déclare Derek Lovley. Cette découverte permettrait d'utiliser le génie génétique et les systèmes biologiques pour fabriquer des fils dotés de propriétés prédéterminées

EET

Peintures et vernis high-tech grâce aux nanotechnologies
Dimanche, 14/08/2005 - 00:00

«Les revêtements seront les premières vraies applications dans la vie courante des nanotechnologies», selon Dirk Meine, un chimiste à l'origine de la quatrième Smart Coatings Conference tenue à Berlin sous l'égide d'une société de communication du secteur, Vincentz Network. Un premier objectif pour la recherche sur les matériaux de surface et leur industrie est d'éviter la corrosion. «Bon nombre des problèmes de corrosion peuvent se résoudre par le recours à un revêtement», estime ainsi Michael Rohwerder, physicien d'un Max Planck Institute consacré à la recherche sur le fer à Düsseldorf, en Allemagne.

Même pour l'acier, l'oxygène arrive encore à diffuser lentement jusqu'au métal et cela malgré les meilleures protections. La corrosion s'accélère quand le revêtement s'écaille sous l'effet de la délamination, un processus chimique amorcé à la moindre fissure. Et c'est là que les nanotechnologies pourraient intervenir. Le groupe de Rohwerder travaille sur un revêtement qui permettrait à la surface attaquée de s'autoréparer en libérant des ions écrans capables de bloquer l'accès au métal. Les polymères conducteurs incorporés à ce produit pour le rendre réactif à l'environnement corrosif pourraient, dans certaines conditions, favoriser l'attaque du métal, aussi les chercheurs ont-ils encore du pain sur la planche. Leur objectif serait à terme de remplacer le chrome, l'additif quasi universel utilisé pour les revêtements de métaux qui s'avère profondément toxique quand il se trouve libéré dans l'environnement.

Les nanomatériaux pourraient également servir à contenir une oxydation beaucoup plus rapide, le feu. Des agents retardants sont déjà utilisés dans les revêtements depuis une trentaine d'années, mais ils présentent de sérieux inconvénients. Selon Stefan Sepeur, chimiste à la société Nano-X de Sarrebruck, plus de 90 % des décès occasionnés par les incendies sont dus non aux flammes mais à l'émission de gaz toxiques et corrosifs souvent produits par les retardants eux-mêmes. Une société spécialisée dans la recherche de tels produits, Inomat, a trouvé le moyen de recouvrir les surfaces avec des nanoparticules retardantes d'oxydes d'aluminium ou de silice. Ces dernières, solubles en raison de leur petitesse, pourraient remplacer les produits organiques toxiques actuellement utilisés à base d'époxy et d'acrylates. Seul hic, leur dépôt doit se faire à 100 °C, ce qui limite l'étendue de leur usage.

Une autre approche développée par les chercheurs du Fraunhofer Institute for Wood Research à Braunschweig est d'essayer de doter les surfaces de leur propre moyen d'extinction. Ce qui paraît être une peinture ou un vernis banal à température ambiante se transforme soudain au contact des flammes en une mousse de carbone. Celle-ci, formée d'élastomères se durcissant en céramique, a été développée il y a trente-cinq ans pour isoler la chambre de combustion des missiles, indique Sebastian Simon, l'ingénieur chimiste en charge du projet. Après lui avoir conféré l'apparence d'un simple vernis, les chercheurs l'ont passée sur un escalier en bois qui a ensuite subi l'épreuve des flammes à 900 °C pendant une demi-heure. Pourtant, à la suite du traitement, chaque marche pouvait encore supporter un poids de cent kilos. D'autres chercheurs prévoient des revêtements intelligents pour des scénarios encore plus dramatiques. A l'université de Pittsburgh, en Pennsylvanie, les biologistes moléculaires Richard Koepsel et Alan Russell travaillent sur une protection contre les armes biologiques ou chimiques. Ils développent avec des fonds militaires américains un «plastique bioréactif» recouvert d'anticorps et d'enzymes qui décontaminent les surfaces dès que les pathogènes ou les toxines se présentent.

Figaro

^ Haut
Matière
Matière et Energie
La carte d'identité authentifiée par sa matière première
Dimanche, 14/08/2005 - 00:00

Lecture optique sur les passeports, code à trois chiffres au dos des cartes bancaires, filigrane dans les billets de banques... Les moyens d'authentifier un document et de lutter contre la fraude sont connus. Mais des chercheurs anglais viennent d'en trouver un autre, beaucoup plus simple. Tellement, même, que personne ne semble y avoir songé avant : identifier le document par les caractéristiques de la matière dont il est fait (papier, plastique, carton).

C'est une équipe de scientifiques de l'Imperial College, à Londres, et des universités de Durham et de Sheffield qui a travaillé sur ce projet. Menée par le professeur de nanotechnologie de l'Imperial College, Russell Cowburn, elle en a publié les résultats dans un article du journal Nature du 28 juillet dernier.

L'idée de base, donc : parvenir à créer un genre de code d'identité physique, sur le principe de l'ADN pour les être humains, en relevant au laser les imperfections microscopiques du matériau. La rugosité, les nervures, la densité de la matière provoquent alors des variations d'intensité du faisceau de lumière. Celles-ci sont enregistrées, transcrites en chiffres, donnant une empreinte unique car intrinsèque au document. Et surtout, premier intérêt, quasiment impossible à reproduire, car due aux aléas de la fabrication du papier ou du plastique utilisé. Ce que personne ne peut contrôler, pour l'instant en tout cas. « Il n'existe aucun procédé connu de fabrication permettant de copier les imperfections d'une surface au niveau de précision requis », estiment les chercheurs dans Nature .

Le deuxième intérêt est de simplifier le moyen d'authentification et, donc, de proposer une solution beaucoup moins chère que ce qui se fait actuellement. Plus besoin, en effet, d'insérer quoi que ce soit dans le document. Ni puce, ni hologramme, ni code barre, ni filigrane, ni encre spéciale. Le marqueur du document, c'est le document lui-même. Les chercheurs garantissent une grande fiabilité de cette technique. Au cours d'un test, ils ont pris un bout de papier, l'ont froissé, défroissé, plongé dans l'eau froide pendant cinq minutes, l'ont fait sécher naturellement, chauffé artificiellement à 180°C pendant une demi-heure, gribouillé au marqueur noir, gratté à l'éponge... Il a toujours été possible de récupérer l'empreinte d'origine de ce bout de papier.

OINet

IT

Première détection d'antineutrinos "géologiques"
Dimanche, 14/08/2005 - 00:00

Des particules issues de la désintégration naturelle des éléments radioactifs présents au sein de la Terre, des antineutrinos "géologiques", viennent, pour la première fois, d'être détectées, annonce jeudi dans la revue Nature l'équipe de l'expérience japonaise KAMland.

Ces résultats, indiquent les 87 chercheurs conduits par Giorgio Gratta, de l'Université de Stanford (Californie), et le Pr Asuto Suzuki, vice-président de l'Université Tohoku, à Sendai, confirment les modèles géophysiques et géochimiques et ouvrent de nouvelles perspectives pour l'étude de notre planète. Les neutrinos comptent parmi les douze particules du Modèle standard élaboré par les physiciens pour expliquer la constitution de notre matière. On en connaît trois : le neutrino électronique, le neutrino muonique et le neutrino tauïque. Les neutrinos existent en nombre considérable dans l'Univers : ils sont émis par les étoiles au cours de leur vie, par les supernovae, issus des réactions des rayons cosmiques, produits dans les centrales nucléaires et les accélérateurs de particules et lors de la désintégration des éléments radioactifs de la Terre - il s'agit ici d'antineutrinos - ou sont des reliques des "débuts" de l'Univers. Ces particules peu massives interagissent très faiblement avec la matière : sur 100.000 milliards qui traversent la Terre, par exemple, un seul est arrêté. Malgré les difficultés que présente leur capture, plusieurs expériences ont été montées, et la physique des neutrinos est en plein essor. Pour connaître l'intérieur de la Terre, les scientifiques ne disposent que d'un seul outil : la sismologie. C'est en analysant la propagation des ondes sismiques qu'ils ont découvert que la Terre était constituée de trois parties très différentes : un noyau métallique, entouré de métal fondu, un manteau et une croûte. Les mouvements de convection au sein du manteau engendrent notamment la tectonique des plaques et les séismes.

L'énergie totale dissipée par la Terre (sa chaleur) est comprise, estiment les géophysiciens, entre 30 et 44 térawatts, dont 19 TW au total sont attribués à la désintégration de trois de ses constituants : l'uranium-238, le thorium-232 et le potassium-40. C'est l'énergie issue de cette radioactivité qui pilote la tectonique des plaques et c'est lors des processus de désintégration que naissent les antineutrinos géologiques. Conçue en particulier pour l'étude de ces "géoneutrinos", l'installation KamLAND, installée au Japon à 1.000 mètres de profondeur, est une sphère de matière plastique qui contient 1.000 tonnes de liquide scintillateur, entourée de 1.325 photomultiplicateurs. Chaque antineutrino qui interagit avec un proton du liquide produit un électron et un neutron. Celui-ci se combine avec un proton pour former un deutéron et libérer de l'énergie : un éclair de rayonnement gamma caractéristique.

Cette lumière est captée et amplifiée par les photomultiplicateurs et analysée par l'informatique qui leur est associée. On détermine ainsi l'énergie de ces neutrinos, leur direction... En deux ans, 152 antineutrinos "potentiels" ont été enregistrés par KamLAND, dont vingt-cinq seulement ont été retenus par les chercheurs comme antineutrinos "géologiques", dus à la désintégration de l'uranium et du thorium. De l'analyse de ces géoneutrinos, les chercheurs déduisent que la désintégration de l'uranium et du thorium contribue à la production énergétique de la Terre à hauteur de 16 TW environ, ce qui concorde avec les modèles. "L'obtention des rapports de concentration thorium-uranium", explique Norman Sleep, professeur de géophysique à l'Université de Stanford, "va aider les scientifiques à mieux comprendre les processus qui ont lieu dans les profondeurs de la Terre."

AFP

^ Haut
Espace
Espace et Cosmologie
Des astronomes affirment avoir découvert la 10e planète du système solaire
Dimanche, 14/08/2005 - 00:00

Une équipe d'astronomes américains a affirmé le 29 juillet avoir découvert une "dixième planète du système solaire" gravitant à 15 milliards de kilomètres de la Terre, nouvelle spectaculaire qui, si elle est confirmée, rendra obsolète un certain nombre de manuels scolaires. Provisoirement baptisée 2003-UB313, la "planète" "est l'objet le plus éloigné jamais découvert à graviter autour du soleil", a affirmé l'astronome Michael Brown lors d'une conférence de presse. "Sortez vos crayons, et commencez à réécrire les manuels scolaires", a plaisanté M. Brown, chef de l'unité d'astronomie planétaire du prestigieux Institut californien de technologie (Caltech) à Pasadena, près de Los Angeles. Selon lui, cet objet est "situé à 97 unités astronomiques (14,4 milliards de kilomètres) de la Terre" et "une fois et demie" plus grand que Pluton, mais aussi deux à trois fois plus éloigné du soleil que la neuvième planète. 2003-UB313 a été prise en photo par un appareil numérique extrêmement puissant de 880 mégapixels via le télescope Samuel-Oschin du mont Palomar, dans le sud de la Californie, a précisé M. Brown, qui s'exprimait depuis le Jet Propulsion Laboratory, une installation de l'Agence spatiale américaine (Nasa) à Pasadena.

La Nasa finance en partie le programme dont M. Brown est le responsable. La découverte a été effectuée en collaboration avec Chad Trujillo, de l'observatoire Gemini de Mauna Kea à Hawaï, et David Rabinowitz, de l'Université de Yale, dans le Connecticut (est). M. Brown a reconnu que qualifier de "planète" ce corps, apparemment composé de roches et de glace de méthane tout comme Pluton, pouvait prêter à une controverse entre spécialistes, mais affirmé que si 2003-UB313 n'était pas une planète, Pluton n'en était pas une non plus. La nouvelle "planète", pour laquelle un nom non encore dévoilé a été proposé à l'Union astronomique internationale, n'a été découverte que le 8 janvier dernier dans la zone appelée "ceinture de Kuiper", en réexaminant des photos prises depuis l'observatoire du mont Palomar le 21 octobre 2003.

Ces sept derniers mois, les trois astronomes ont épluché les données pour essayer de déterminer la taille du corps et la nature de son mouvement, en analysant la réfraction de la lumière du soleil, ce qui permet déjà d'affirmer qu'elle est au moins aussi grande que Pluton. En outre, l'objet céleste devrait faire moins de 3.000 kilomètres de diamètre, puisqu'il n'a pas été détecté par le télescope Spitzer de la Nasa, dont c'est la limite inférieure. "Je dirais qu'il fait à peu près une fois et demie la taille de Pluton", a affirmé M. Brown. Pluton a un diamètre équatorial de 2.302 km. L'annonce de cette nouvelle à caractère universel s'est faite précipitamment après que les scientifiques de Caltech se furent rendus compte que leur site internet avait été attaqué par un pirate informatique dans la nuit de jeudi à vendredi, et que ce dernier avait pris connaissance de leurs travaux. La planète n'avait pas été remarquée auparavant parce que son orbite se trouve à 45 degrés du plan de l'écliptique, au contraire des autres planètes dont la plupart sont très proches de ce plan. Selon M. Brown, les astronomes amateurs pourraient être en mesure de voir la planète, qui ressemble beaucoup à Pluton, très tôt le matin ou tard le soir, dans la constellation de Cetus.

NASA

Le plus gros satellite de télécom mis sur orbite par Ariane-5
Dimanche, 14/08/2005 - 00:00

Le plus gros satellite de télécommunications au monde à ce jour, Thaïcom-4 (Thaïlande), de 6,5 tonnes, a été mis sur orbite avec succès jeudi 11 août par une fusée Ariane-5, tirée depuis le Centre spatial guyanais à 05h20 (08h20 GMT, 10h20 heure de Paris). Le lanceur européen, dont c'était le deuxième vol de l'année, a décollé une centaine de minutes après l'ouverture du créneau horaire à 03h39, en raison de l'interruption automatique du compte à rebours, à 15 secondes de l'allumage des moteurs, pour des problèmes techniques sur la table de lancement : le logiciel de contrôle a signalé une anomalie au niveau des allumeurs de mise en froid (dispositif qui assure la combustion de l'hydrogène de mise en froid du moteur principal de la fusée) et interrompu le décompte final. Ce satellite géostationnaire de plus de 6,5 tonnes au lancement, réalisé pour le compte de l'opérateur thaïlandais Shin Satellite Plc, doit fournir, pendant plus de douze ans, des services internet et multimédia à travers la région Asie-Pacifique, la Nouvelle-Zélande et l'Australie.

Construit par la société américaine Space Systems/Loral à Palo Alto (Californie), Thaïcom-4 (anciennement IPSTAR) est le premier satellite au monde entièrement dédié aux services "large bande" (réseaux à haut débit) et le quatrième et dernier Thaïcom mis sur orbite par Arianespace. Les trois satellites précédents ont été lancés respectivement en décembre 1993, en octobre 1994 et en avril 1997. Grâce à Thaïcom-4, 20 millions d'abonnés dans 40 pays, y compris dans les zones rurales, devraient disposer d'un service internet à haut débit, pour 2 dollars par mois, a indiqué, après le lancement, le président de Shin Satellite, Dumrong Kasemset.

Ce vol Ariane numéro 166 a été réalisé à l'aide d'une Ariane-5 dans sa configuration de base, dite "générique". Le vol précédent avait eu lieu le 12 février : c'était un tir de démonstration de la nouvelle Ariane-5 ECA, dite "dix tonnes", clouée au sol jusqu'à cette date suite à l'échec du lancement de son premier exemplaire, en décembre 2002. La nouvelle réussite, a souligné le ministre de l'Education nationale, de l'Enseignement supérieur et de la Recherche Gilles de Robien, venu assister au tir sur place en Guyane, fait "tourner la page de certaines difficultés techniques de mise au point d'Ariane-5, confirmant sa pertinence". "C'est un beau jour pour l'Europe spatiale. L'Europe spatiale n'est pas une utopie, c'est de plus en plus une réalité", a-t-il ajouté. "Ce tir confirme la pleine maîtrise européenne des technologies nécessaires aux lancements de satellites", a souligné de son côté le Premier ministre, Dominique de Villepin.

AFP

Mars Orbiter en route vers la planète rouge
Dimanche, 14/08/2005 - 00:00

Mars Reconnaissance Orbiter a entamé le 12 août un voyage de sept mois vers la planète rouge. Après deux reports, la NASA a lancé avec succès ce satellite de reconnaissance qui doit recueillir plus de données sur Mars que toutes les précédentes missions réunies. Mars Orbiter a été lancé de Cap Canaveral en Floride par un matin clair sur une fusée Atlas V. L'agence spatiale américaine avait reporté à la dernière minute la précédente tentative de lancement à la suite d'un problème dans le système de mesure informatique du niveau de carburant du lanceur.

Mars Reconnaissance Orbiter doit rejoindre trois autres satellites qui tournent autour de Mars, avec à son bord les instruments scientifiques les plus puissants jamais envoyés dans l'espace. Le nouveau satellite restera en orbite pendant au moins quatre ans pour fournir des données météorologiques, climatiques et géologiques sans précédent. Ses instruments lui permettront d'analyser la composition du sol de la planète jusqu'à 500 mètres de profondeur, d'étudier la météo martienne et d'identifier les minéraux. La mission, d'un coût de 720 millions de dollars (580 millions d'euros), est divisée en deux parties. A partir de mars 2006 et pendant deux ans, le satellite aidera la NASA à retracer l'histoire de la glace sur Mars. Il scrutera la surface de la planète, à la recherche de preuves de la présence d'eau et d'autres éléments indiquant que la vie a pu s'y développer dans le passé.

Equipée de la plus grande caméra télescopique jamais envoyée vers une autre planète, le satellite recueillera également des données qui permettront à la NASA de déterminer l'endroit où atterriront les deux prochains robots explorateurs de l'agence américaine. Le Phoenix Mars Scout, qui recherchera des substances organiques, sera lancé en 2007 suivi deux ans plus tard par le Mars Science Laboratory. Lors de la deuxième phase de sa mission, Mars Orbiter assurera les liaisons de communication entre la Terre et les deux robots martiens. Le satellite possède une antenne puissante qui peut transmettre dix fois plus de données par minute que le trio de satellites actuellement positionné autour de Mars, Global Surveyor et Mars Odissey pour la NASA et Mars Express pour l'ESA, l'agence spatiale européenne. Deux autres robots de l'agence américaine, Spirit et Opportunity, lancés en 2003, continuent d'explorer Mars et pourraient être les premiers à envoyer des informations via Mars Orbiter.

AP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Antarctique : une fonte des glaces jamais vue depuis 10.000 ans
Dimanche, 14/08/2005 - 00:00

L'effondrement d'énormes pans de la plate-forme glaciaire de Larsen-B dans l'Antarctique au cours des dix dernières années, lié au réchauffement des océans, est le plus important depuis au moins 10.000 ans, selon une étude dans la revue britannique Nature. En janvier 1995 et février 2002, cette plate-forme située le long de la péninsule Antarctique a connu deux effondrements majeurs dans sa partie nord qui s'est fragmentée en icebergs. Le second couvrait quelque 3.250 km2, soit une surface plus vaste que le Luxembourg. De tels effondrements n'avaient jamais été enregistrés au cours de l'actuelle période interglaciaire, soit au cours des derniers 10.000 ans, souligne dans Nature l'équipe du Pr Eugene Domack, du Hamilton College de Clinton (Etat de New York).

Les chercheurs ont analysé six carottes de sédiments dans le voisinage de l'ancienne plate-forme glaciaire Larsen-B. Ils ont constaté qu'elle était restée longtemps intacte avant de perdre lentement de son épaisseur pendant cette période interglaciaire. Puis de grandes parties se sont effondrées ces dernières années, en raison, selon eux, du réchauffement planétaire plus prononcé dans la péninsule Antarctique, sur la mer de Weddell, que partout ailleurs en Antarctique même et sur le reste de la planète. Ainsi, la plate-forme glaciaire Larsen-B a perdu ces dernières années une surface totalisant quelque 12.500 km2, notent encore les auteurs de l'étude.

Déjà, en 2003, une équipe de chercheurs menée par Andrew Shepherd de l'Université de Cambridge avait rapporté qu'entre 1992 et 2001, l'épaisseur de la partie restante de la plate-forme avait diminué d'environ 30 cm par an. "Le réchauffement de l'océan a progressivement aminci les couches inférieures de la barrière de glace", estimaient-ils. A l'opposé de la péninsule, le plus grand iceberg du monde - B15, 11.655 kilomètres carrés, soit la taille de la Jamaïque - s'est détaché en mars 2000 de la plate-forme glaciaire de Ross. Il s'était ensuite divisé en de multiples pans, le plus grand ayant été baptisé B-15A (160 km de long).

Nature

Les grandes villes d'Europe commencent à sentir le réchauffement climatique
Dimanche, 14/08/2005 - 00:00

Les températures estivales ont augmenté fortement dans la plupart des villes d'Europe occidentale depuis 30 ans, a indiqué à Genève le Fonds mondial de la nature (WWF), y voyant une illustration de l'accélération du changement climatique. Entre 2000 et 2004, la température moyenne de 13 des 16 villes mises sous observation était supérieure d'au moins 1 degré Celsius à celles observées entre 1970-1975, rapporte le WWF, dont l'étude porte sur 15 villes de l'UE avant l'élargissement et Varsovie. La plus forte hausse a été enregistrée à Madrid (+2,2 degrés Celsius), où la température moyenne en été atteint désormais 23,7 degrés. A Londres, la température moyenne est désormais de 22,5 degrés, contre 20,5 degrés il y a 30 ans. Dublin et Copenhague ont enregistré les hausses les plus faibles, avec seulement +0,7 et +0,2 degré.

La température moyenne en Europe a augmenté de 0,8 degré au cours du siècle écoulé, selon le groupe intergouvernemental de l'Onu sur les changements climatiques. Ce groupe de scientifiques prévoit que les températures moyennes du vieux continent devraient augmenter de 0,1 à 0,4 degré tous les dix ans, avec des vagues de chaleur en été de plus en plus intenses et fréquentes. Selon le WWF, la "pollution" liée au secteur de l'énergie est la principale cause du réchauffement climatique. "Les villes reflètent cette tendance", a expliqué Imogen Zethoven du WWF. "Les températures montent de plus en plus l'été, et c'est dû surtout au secteur de l'énergie".

Cette étude du WWF fait partie de la campagne lancée par l'organisation pour amener les gouvernements à remplacer des centrales "vieilles et sales" et à produire de l'énergie à partir de sources moins émettrices de gaz à effet de serre, comme l'hydro-électricité, le vent, ou le gaz naturel. Le WWF souligne ainsi que les centrales électriques sont responsables de 39 % des émissions de gaz carbonique. Selon Martin Beniston, un expert en climatologie de l'université de Fribourg, en Suisse, l'étude "montre que quelque chose est en train de se passer, et que l'environnement urbain est plus réactif". "Nous savons à présent que les villes sont des +îles de chaleur+, par rapport à d'autres environnements non-citadins", estime-t-il. Selon M. Beniston, à la campagne, l'évaporation des zones plantées aide à rafraîchir l'atmosphère. Le réchauffement climatique, appelé aussi "effet de serre", est causé par les émissions de gaz à effet de serre, en particulier de gaz carbonique, provoquées notamment par la combustion de pétrole, de gaz ou de charbon.

WWF

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Premier chien cloné, un petit lévrier afghan
Dimanche, 14/08/2005 - 00:00

Pour la première fois au monde, des biologistes sud-coréens ont réussi à réaliser par clonage la "copie conforme" d'un lévrier afghan au pelage noir et blanc, qui a été mis au monde par une mère labrador jaune. Les scientifiques dirigés par Woo Suk Hwang, de l'Université nationale de Séoul, ont eu recours à la technique dite de transfert de noyaux de cellules somatiques. Ces noyaux ont été obtenus par prélèvement dans la peau d'une oreille du père pour être injectés dans les cellules sexuelles (ovocytes) de la mère porteuse. Après développement en laboratoire, les embryons obtenus ont été transplantés dans l'utérus de la femelle.

Le résultat de cette opération, né par césarienne au bout d'une gestation normale de 60 jours, s'appelle "Snuppy" (pour Seoul National University puppy/chiot de l'Université nationale de Séoul). Les tests ont confirmé, assurent les chercheurs coréens, qu'il est génétiquement identique à son papa de trois ans. Snuppy est le premier chien à rejoindre toute une galerie d'animaux déjà clonés avec succès, allant des moutons aux chevaux en passant par des souris, des vaches, des chèvres, des porcs et même un bovidé sauvage, le gaur. Les chiens sont parmi les plus difficiles des animaux à "copier", principalement en raison de la difficulté d'acquérir des ovocytes matures.

Mais le taux de réussite demeure toujours très bas. Pour obtenir ce résultat, les chercheurs ont transféré 1.095 embryons vers 123 chiennes, trois opérations ont donné lieu à un début de gestation et deux ont abouti. Le second chiot, enregistré sobrement sous la dénomination Nt-2, est mort de pneumonie à l'âge de 22 jours. Son corps, tiennent à préciser les auteurs de l'étude, ne présentait aucune anomalie anatomique notable.

Nature

NS

BBC

Des cellules de peau rajeunies en cellules souches
Dimanche, 14/08/2005 - 00:00

Des chercheurs nord-américains de Harvard viennent de réussir un véritable exploit à partir d'une cellule de peau d'une personne, fusionnée à une cellule souche embryonnaire, (extraite d'embryons surnuméraires obtenus après fécondation in vitro). Ils ont fabriqué une entité radicalement nouvelle, une cellule hybride («cybride») réussissant ainsi à reprogrammer une cellule adulte à son état embryonnaire. Un extraordinaire retour en arrière pour la cellule de peau, lui conférant ainsi un potentiel de régénération. Avec à l'horizon la perspective de pouvoir disposer de cellules souches embryonnaires personnalisées, parfaitement compatibles (au plan immunitaire) avec l'organisme d'un malade potentiel...

Cette technique permet d'éviter d'avoir recours à la création d'embryons humains pour récupérer leurs précieuses cellules souches embryonnaires (une approche condamnée par de très nombreux courants religieux et humanistes). Elle ne nécessite pas l'utilisation d'ovocytes féminins (nécessaires à la mise en oeuvre du clonage thérapeutique pour obtenir des cellules souches embryonnaires) avec tous les risques de marchandisation du corps des femmes, inhérents à une telle pratique. Vu l'importance de la découverte, la revue Science qui a publié ces travaux le 26 août, a organisé une téléconférence de presse pour les présenter à l'ensemble de la communauté scientifique.

Mais il reste encore un obstacle de taille, la cellule ainsi reprogrammée est tétraploïde, ce qui veut dire qu'elle possède un double jeu de 92 chromosomes, au lieu de 46 pour une cellule normale. Il est donc impossible de l'utiliser à ce stade. L'équipe américaine de Chad Cowan, Douglas Melton et Kevin Eggan de l'université de Harvard à Cambridge, est bien consciente des problèmes liés à ce double jeu de chromosomes. Elle le décrit comme une «substantielle barrière technique» à l'expérimentation clinique ultérieure de telles cellules. Mais elle omet de mentionner que d'autres équipes, l'une en Australie l'autre dans l'Illinois (USA), travaillent justement sur cette problématique qui vise à extirper l'ADN contenu en excès dans ces cellules hybrides. Les travaux publiés dans Science, certes encore très préliminaires, pourraient mettre un terme aux débats éthiques qui agitent adversaires et partisans des recherches sur les cellules souches embryonnaires humaines, notamment aux Etats-Unis.

DS

Des chercheurs produisent des neurones à partir de cellules du cerveau
Dimanche, 14/08/2005 - 00:00

Des chercheurs suédois sont parvenus, à partir de cellules souches cérébrales prélevées sur des adultes vivants, à créer de nouvelles cellules qui sont devenues fonctionnelles, suscitant l'espoir de pouvoir, à terme, traiter des affections lourdes comme les maladies de Parkinson et d'Alzheimer, selon la presse suédoise. Les cellules ont été prélevées par biopsie au cours d'interventions chirurgicales de routine destinées à évacuer l'eau présente dans le cerveau de patients atteints d'hydrocéphalie, a expliqué un chercheur du réputé Karolinska Institute de Stockholm au quotidien Svenska Dagbladet.

A ces cellules, les chercheurs ont ajouté un agent capable de provoquer leur division, ce qui a abouti à la création de nouvelles cellules, parfaitement actives, selon les chercheurs. "Jusqu'à présent, nous avons réussi à produire plusieurs millions de nouvelles cellules à partir des cellules souches originelles, et environ un quart d'entre elles sont devenues des neurones actifs, a précisé le principal responsable de ces travaux, le jeune chercheur Ulf Westerlund, qui soutenait sa thèse sur ce sujet. En leur adjoignant du glutamate - un sel présent dans le système nerveux central où il sert de neuro-transmetteur - les nouvelles cellules se sont mises à communiquer entre elles, a indiqué Ulf Westerlund. "Cela signifie que nous disposons de connexions synaptiques parfaites permettant aux cellules nerveuses (les neurones) d'être fonctionnelles", a-t-il ajouté. Les cellules souches sont de très jeunes cellules qui se développent pour remplacer les cellules endommagées d'un organe ou d'un muscle.

Les biologistes tentent depuis longtemps de remplacer les cellules mortes du cerveau par des cellules saines pour tenter d'inverser le processus de dégradation qui survient lors d'affections incurables comme la sclérose en plaque, la maladie d'Alzheimer ou la maladie de Parkinson. En coopération avec l'Université de Californie à Los Angeles (UCLA), des chercheurs suédois parmi lesquels Ulf Westerlund, ont inséré les cellules souches prélevées dans la moelle épinière de rongeurs, où elles ont continué à se diviser pour former de nouveaux neurones. L'injection de ces cellules chez les souris semble également avoir entraîné une guérison plus rapide de celles qui souffraient d'allodynie, une douleur résultant d'un stimulus non douloureux de la peau, a souligné Ulf Westerlund. "Le simple potentiel de ces cellules a un impact significatif sur la manière dont nous évaluons aujourd'hui la capacité de régénération du système nerveux central et, très important, sur les moyens potentiels dont dispose désormais la science pour mieux comprendre les mécanismes de la réparation neuronale", précise-t-il dans sa thèse.

Wanadoo

Des cellules de la peau pour guérir des brûlures chez les enfants
Dimanche, 14/08/2005 - 00:00

Après avoir remarqué que des incisions dans la peau d'un foetus guérissaient sans laisser de trace, des médecins suisses ont eu l'idée d'utiliser de la peau de foetus «cultivée» pour traiter les jeunes enfants brûlés. Mais alors qu'ils s'attendaient à ce que la nouvelle greffe de peau provenant d'un foetus avorté s'intègre à celle des enfants traités, la greffe de peau s'est dissoute ou s'est changée en un gel facile à enlever. De plus, aucun phénomène de rejet n'a été noté, puisque la greffe demeurait en surface et ne s'intégrait pas à la peau des enfants. Traditionnellement, les brûlures sont traitées avec des lambeaux de peau prélevés ailleurs sur le corps du patient, une procédure douloureuse et qui cause des lésions additionnelles sur le corps.

«Nous avons plutôt observé une guérison spontanée des brûlures, ce qu'on ne voit jamais dans les greffes traditionnelles», explique le Dr Patrick Hohlfeld, professeur de gynécologie et d'obstétrique à l'Hôpital universitaire de Lausanne, en Suisse. Avec les greffes traditionnelles, «la guérison ne se fait pas de cette manière et aussi rapidement. Il faut des mois, et encore ce n'est pas toute la surface brûlée qui guérit», ajoute-t-il. Au total, huit enfants âgés de 14 mois à 9 ans ont été traités avec la peau de foetus cultivée en laboratoire. Les enfants souffraient de brûlures profondes au deuxième et au troisième degrés sur les mains, les pieds, les jambes et les fesses. Les brûlures étaient le résultat d'accidents : eau bouillante, feu ou fer à repasser.

Sur une période de trois semaines, les greffes de peau de foetus ont été changées tous les trois ou quatre jours. En moyenne, la guérison prenait deux semaines, comparativement à trois mois pour la méthode traditionnelle, qui nécessite d'autres interventions chirurgicales. «Non seulement la guérison est plus rapide, mais la douleur est beaucoup moindre. On n'a plus besoin de prélever des greffes sur le corps. Il n'y a pas d'autre cicatrice», explique le Dr Hohlfeld. Les chercheurs reconnaissent que cette procédure risque de soulever des questions d'éthique de la part de ceux qui s'opposent à l'utilisation de tissus foetaux. Certains craignent que des femmes acceptent d'interrompre leur grossesse pour fournir des tissus foetaux aux malades. Pour le Dr Hohlfeld cependant, la question ne se pose pas «puisqu'une seule biopsie sur un foetus peut donner des millions de greffes de peau. Aucune femme n'aurait besoin de devenir enceinte pour ça.» Les chercheurs doivent maintenant déterminer si les greffes de peau provenant de foetus peuvent avoir le même effet de guérison chez les adultes.

Lancet

Une bio-usine pour fabriquer de l'os
Dimanche, 14/08/2005 - 00:00

Des chercheurs américains sont parvenus à cultiver de l'os in vivo sur un animal et à l'utiliser pour réparer un os abîmé. Un tel procédé pourrait un jour remplacer l'opération délicate consistant à prélever un petit morceau d'os sur la hanche, par exemple, pour combler une fracture à un autre endroit. L'équipe de Prasad Shastri a mis à profit le mécanisme naturel de réparation de l'os pour mettre au point ce qu'ils ont appelé le ''bioréacteur'' à os. Jusqu'à présent les tentatives pour greffer un tissu osseux cultivé in vitro ont échoué. Prasad Shastri (Université de Vanderbilt, Nashville) et ses collègues ont préféré cultiver l'os sur sa matrice naturelle. Lorsque l'os est abîmé, la membrane qui l'entoure, le périoste, orchestre la réparation de la partie fracturée (périostéogénèse) et permet ainsi à l'os de se ressouder.

Le périoste est composé de deux couches : une couche externe fibreuse et une couche interne abritant des cellules souches du tissu osseux. Les chercheurs, qui ont travaillé sur des lapins, ont créé une lésion juste sous la couche supérieure du périoste avec une solution chirurgicale et ont rempli les cavités ainsi créées avec un gel contenant du calcium. Au bout de six semaines les chercheurs ont pu prélever un nouveau tissu osseux et l'intégrer sans problème à un autre endroit pour réparer une fracture. Ces travaux sont publiés dans l'édition électronique des PNAS. Si les expériences sur d'autres animaux confirment ces résultats, des essais cliniques pourront être menés pour vérifier que cette nouvelle technique fonctionne sur l'homme.

PNAS

Faire vieillir les cellules pré-cancéreuses pour les empêcher de proliférer
Dimanche, 14/08/2005 - 00:00

Le corps disposerait d'un moyen jusque là méconnu pour se défendre contre la formation de cancers, la condamnation au vieillissement des cellules pré-cancéreuses, les empêchant ainsi de proliférer, selon des études publiées dans la revue britannique Nature suggérant de nouvelles pistes thérapeutiques. Ce phénomène de rabougrissement, observé sur des cultures de cellules, restait controversé, mais plusieurs études viennent de l'explorer in vivo notamment dans le cas de l'évolution du cancer de la prostate, au deuxième rang des causes de décès par cancer chez les hommes aux USA.

Une version cellulaire de la condamnation à mort, l'apoptose, est un mécanisme bien établi de défense contre le cancer. Déclencher un processus de vieillissement ou sénescence des cellules parait être un moyen supplémentaire de contre attaque de l'organisme. Le cancer de la prostate est lié à des modifications (une altération, la perte d'une copie du gène...) de gènes suppresseurs de tumeur, dont le p53 et le Pten. Il manque ainsi une copie du gène Pten dans jusqu'à 70 % des cas de cancers de la prostate et le gène P53 est absent dans un plus grand nombre de cas encore, selon l'équipe de Pier Paolo Pandolfi du Memorial Sloan-Kettering Cancer Center (New York), qui a notamment travaillé sur des souris transgéniques présentant des anomalies génétiques comparables.

Les chercheurs ont suivi une cohorte de 128 souris mâles normales ou présentant des altérations génétiques concernant ces deux gènes. Leurs prostates ont été contrôlées par imagerie par résonance magnétique (IRM). Les rongeurs normaux et ceux privé de p53 n'avaient pas de tumeurs au bout de six mois. Ceux dépourvus de gène Pten avaient une petite tumeur confinée à la prostate. En revanche, les rongeurs dépourvus des deux gènes ont développé d'importantes tumeurs ayant provoqué leur mort en sept mois.

Ceci montre que l'inactivation du p53 conduit à une tumeur massive et un cancer mortel de la prostate seulement lorsque le gène Pten est inactivé ou tronqué. L'équipe a par ailleurs trouvé des marqueurs de sénescence au sein d'une hyperplasie de la prostate. L'hyperplasie de la prostate est l'une des maladies les plus fréquentes des hommes avancés en âge. Avant même la 50e année, cette glande grossit peu à peu. Cette hypertrophie (gonflement) bénigne de la prostate peut précéder la formation d'un cancer. "Nous sommes déjà en en train de tester des molécules" pour restaurer la fonction de Pten dans le cadre de ce cancer, indique le Dr Howard Scher co-auteur de l'étude.

Nature

Une bombe thérapeutique pour soigner le cancer
Dimanche, 14/08/2005 - 00:00

Un traitement anti-cancéreux capable de s'introduire dans une tumeur vient d'être imaginé par des chercheurs du MIT. Cette bombe intelligente thérapeutique (un engin minuscule, baptisé "nano-cellules", de l'ordre du milliardième de mètre) a été testée avec succès sur des souris atteintes de mélanome (redoutable cancer de la peau) et, avec de moindres performances sur une forme de tumeur du poumon. Ces nano-cellules, plus petites qu'un globule rouge, sont formées d'une enveloppe graisseuse dans laquelle le médicament anti-angiogénèse (combrétastatine) a été dissous.

Cette enveloppe recouvre un ballon solide (un polymère biodégradable) contenant la chimiothérapie (une molécule classique : la doxorubicine) sous forme de nano-particules. Une fois parvenue à l'intérieur de la tumeur, leur enveloppe extérieure se désintègre, libérant rapidement le traitement qui stoppe l'angiogénèse (la formation de vaisseaux destinés à nourrir la tumeur). Les vaisseaux nourrissant la tumeur s'effondrent, piégeant du coup les nano-particules au sein de la tumeur. Ces particules relâchent alors lentement la chimiothérapie qui tue les cellules cancéreuses. Ce traitement séquentiel (chaque médicament en son temps) a permis de doubler la survie des souris (de 30 à 60 jours). On ne peut toutefois pas encore envisager une transposition rapide de ces résultats prometteurs en thérapie humaine.

MIT

Cancer : un outil pour mesurer le risque de métastase
Dimanche, 14/08/2005 - 00:00

En mettant au jour les gènes qui guident la migration de certaines cellules du cancer du sein vers les poumons, des chercheurs espèrent pouvoir mieux comprendre ce phénomène et aider les médecins à prévoir les cas de métastase. Lors de précédents travaux sur des souris, l'équipe de Joan Massagué (Sloan-Kettering Cancer Center) a déjà identifié une sorte de ''boîte à outils'' composée des gènes actifs dans les cellules du cancer du sein capables de provoquer une métastase au niveau des os. Ces biologistes ont supposé que chaque organe avait sa propre façon de se défendre contre les cellules cancéreuses et que, par conséquent, chaque métastase devait dépendre d'outils génétiques différents.

Ces chercheurs ont injecté à des souris des cellules du poumon prélevées sur une patiente atteinte d'un cancer du sein métastasé. Ils ont ainsi pu isoler les cellules cancéreuses les plus agressives pour le poumon, étudier l'activité de leurs gènes et repérer un groupe de gènes qui distinguaient ces cellules capables de déclencher une tumeur au poumon des autres cellules cancéreuses. Allant plus loin, les chercheurs ont retrouvé la même ''signature'' génétique dans les tumeurs primaires de patients ayant eu une métastase au poumon. Cela signifie que ces gènes ne sont pas seulement des marqueurs mais qu'ils conditionnent la capacité de ces cellules cancéreuses à créer un nouveau foyer cancéreux. L'identification de cette ''signature'' dans la tumeur primaire permettrait de mieux suivre les patients à risque, expliquent les chercheurs, qui publient leurs travaux dans la revue Nature. Le Docteur Massagué estime que la technique pourrait être facilement étendue à d'autres types de cancers.

MSKCC

Cancer du sein : le dépistage précoce améliore la survie des malades
Dimanche, 14/08/2005 - 00:00

C'est au dépistage précoce des tumeurs du sein et non aux traitements pourtant de plus en plus efficaces que l'on doit les progrès considérables obtenus dans l'allongement de l'espérance de vie des femmes qui en sont victimes, selon une étude américaine. L'examen de 25 années d'archives nationales a permis aux chercheurs de conclure que la taille d'une tumeur comptait pour 61 % dans l'amélioration de la survie après un cancer du sein lorsqu'elle était locale ; ce pourcentage passait à 28 % lorsque la tumeur était légèrement étendue.

Au total, ce sont 265.000 tumeurs qui ont été analysées. L'étude conduite par les médecins du centre du cancer du Mémorial Sloan-Kettering de New York a été publiée sur le site Internet de la revue de la Société américaine du cancer. Elle le sera par ailleurs dans le prochain numéro de la revue à paraître le 15 septembre. Pour les femmes de 65 ans et plus dont le cancer est diagnostiqué à un stade précoce, le scénario le plus courant, c'est la taille de la tumeur qui favorise le pronostic. "Nous ne voulons en aucun cas diminuer le bénéfice des traitements qui est très important, a déclaré la directrice de l'équipe de recherche, Elena Elkin. "Mais on ne peut pas leur attribuer la totalité de ce bénéfice. La taille de la tumeur a largement contribué à cette amélioration".

Le but de l'étude n'était pas d'évaluer l'efficacité des traitements ou de la mammographie, mais plutôt des bénéfices d'un diagnostic précoce. "Ceci nous a aidés à démontrer l'importance du dépistage", a souligné Debbie Saslow, extérieure à l'étude, mais qui dirige la recherche sur le cancer du sein de la Société américaine du cancer. "En plus de la découverte de tumeurs de plus petite taille, nous avons aussi moins trouvé de grosses tumeurs".

A l'heure actuelle, les deux tiers des tumeurs sont diagnostiqués à un stade précoce, lorsque celles-ci sont bien localisées. Dans les années 70, seule la moitié l'était. Le nombre de tumeurs dépistées de moins d'un centimètre est passé de moins de 10 % de 1975 à 1979, à 25 % entre 1995 et 1999. Concernant les tumeurs étendues aux ganglions lymphatiques ou aux tissus avoisinants, mais sans métastases, le pourcentage des tumeurs de moins de deux centimètres est passé de une sur cinq à une sur trois. Ensuite, les chercheurs ont comparé le taux de survie à cinq ans pendant ces deux mêmes périodes, en prenant en compte la taille de la tumeur. Pour les femmes dont la tumeur était localisée, le taux de survie est passé de 91 % à plus de 97 %. Autrement dit, la taille de la tumeur compte pour 61 % dans l'amélioration de la survie. Pour les cancers "régionaux" sans métastases, la survie est passée de 68 % à 80 %.

AP

Un lien entre diabète et cancer du pancréas
Dimanche, 14/08/2005 - 00:00

Selon une étude, parue dans le journal de l'Association Américaine de Gastroentérologie (AGA), les personnes âgées de cinquante ans et plus chez qui on vient de diagnostiquer un diabète de type 2 ont huit fois plus de risques de développer un cancer du pancréas par rapport à la population générale. Depuis de nombreuses années les scientifiques cherchent à savoir si le diabète de type 2 prédispose au cancer du pancréas ou n'en n'est que le révélateur. Cette étude, la première à prendre en compte l'âge de diagnostic du diabète comme indicateur du cancer du pancréas, révèle un nouveau groupe à risque.

Le cancer du pancréas a un pronostic particulièrement mauvais et est d'évolution très rapide. Seulement 23 % des personnes atteintes survivent plus d'un an, une fois le diagnostic posé. Ce taux élevé de décès s'explique, en partie, par le fait que le cancer du pancréas est souvent décelé tardivement. Deux raisons expliquent ce retard : l'absence de symptômes au début de la maladie et la méconnaissance des populations à risque. Le pancréas est l'organe qui secrète, entre autre, l'insuline, hormone qui assure la régulation du sucre dans l'organisme.

L'étude, réalisée par les chercheurs de la clinique Mayo, a porté sur plus de 2000 patients âgés de 50 ans et plus et diagnostiqués diabétiques entre 1950 et 1995. Les résultats montrent que moins de 1 % des diabétiques ont un cancer du pancréas qui explique leur diabète. En revanche, ils constituent un groupe à haut risque pour le développement de ce cancer. Sur les 2000 sujets, 18 ont eu un cancer du pancréas dans les trois ans suivant le diagnostic du diabète. Et, entre 55 et 65 % des personnes qui ont un cancer du pancréas sont diabétiques. Ces premiers résultats, qui demandent des études complémentaires, permettront de mettre en place une surveillance accrue des diabétiques nouvellement décelés, le diagnostic précoce du cancer du pancréas étant encore le meilleur moyen pour diminuer sa mortalité.

NO

Un régime pauvre en graisses ralentirait le cancer de la prostate
Dimanche, 14/08/2005 - 00:00

Un régime draconien très pauvre en graisses associé à des règles d'hygiène de vie permettrait à une tumeur de la prostate précoce de ne pas s'aggraver, selon les résultats d'une étude publiée dans le numéro de septembre de la revue américaine "The Journal of Urology". Si l'étude est restreinte et limitée aux hommes dont les tumeurs ne sont pas agressives, elle promet de renouveler l'intérêt de la nutrition dans le combat contre le cancer. L'étude était conduite par le gourou de la santé cardiaque, le Dr Dean Ornish, qui utilise son fameux régime draconien végétarien très pauvre en graisses. Leur quantité ne dépasse pas 10 % du total des calories. Des exercices réguliers et la pratique de méthodes de contrôle du stress, notamment de yoga y étaient associées.

Il existe quelques indices du rôle des graisses dans la survenue d'un cancer de la prostate et du rôle protecteur de certains aliments, notamment les brocolis, ou le lycopène, un nutriment qui donne sa couleur rouge aux tomates. C'est pourquoi le Dr Ornish et son équipe de chercheurs de l'Université de Californie à San Francisco, ont inclus 53 hommes qui avaient refusé le traitement d'une tumeur de la prostate découverte à un stade précoce, un comportement qualifié "d'attente vigilante". La moitié d'entre eux recevaient le régime Ornish, associé aux habitudes de vie ; les autres ne devaient rien changer à leurs pratiques habituelles. Les échantillons sanguins de ces hommes étaient adressés à un centre spécialisé pour le dosage des "PSA", un antigène spécifique du cancer de la prostate. Au bout d'un an, le niveau de PSA avait diminué de 4 % dans le groupe au régime, un fait inhabituel chez des gens non traités, alors qu'il avait augmenté de 6 % dans le groupe contrôlé. Une différence peu importante, mais statistiquement significative, et les chercheurs comptent poursuivre le suivi de ces hommes pour confirmer ces résultats.

AP

Cancers et leucémies infantiles : la pollution automobile accusée
Dimanche, 14/08/2005 - 00:00

Les cancers de l'enfant sont fortement liés à la pollution de l'air par les gaz d'échappement des moteurs d'autos, camions et autres véhicules auxquels femmes enceintes ou bébés ont pu être exposés, selon une étude britannique qui épingle surtout les moteurs diesel. Le monoxyde de carbone et le butadiène-1,3, issus des gaz d'échappement, en particulier des moteurs diesel, figurent parmi les principaux coupables, selon l'étude qui paraît dans la revue médicale britannique Journal of Epidemiology and Community Health. "Le résultat le plus frappant est la concentration extraordinaire de cancers dans une zone située à 300 mètres de gares routières ou d'autobus", souligne l'équipe du Pr George Knox (Université de Birmingham).

Etre exposé à ces gaz ou au monoxyde de carbone et vivre à moins de 500 mètres d'une gare routière multiplie par 12 le risque pour un enfant de décéder d'un cancer, précise le Pr Knox, relevant que le monoxyde de carbone n'est généralement pas considéré comme cancérogène, contrairement au butadiène-1,3, encore appelé vinyléthylène. Ce professeur émérite de l'université de Birmingham, qui avait déjà réalisé plusieurs études sur quelque 22.500 enfants décédés de leucémie ou de cancer entre 1953 et 1980 en Grande Bretagne, a pu retrouver les anciennes adresses de plus de 12.000 d'entre eux, nés après 1954. En comparant leurs lieux de résidence avec des cartes indiquant les niveaux de pollution atmosphérique, les chercheurs ont constaté que les enfants vivant à moins d'un kilomètre d'une source importante de pollution (gares routières et autres centres importants de transports, hôpitaux, installations de stockage de produits pétroliers...) avaient un risque accru de mourir d'un cancer.

Ce risque augmente également pour les enfants vivant ou dont les mères ont vécu pendant la grossesse à environ 300 mètres d'un point local d'émissions de polluants (monoxyde de carbone, particules, oxydes d'azote, butadiène-1,3, benzène, dioxines, benzopyrène, composés organiques volatiles). Les auteurs invitent à mieux contrôler les effluents produits par les moteurs à combustion interne, "en particulier les moteurs diesel des autobus, camions et locomotives". Ils recommandent aussi une surveillance "plus fine et fréquente du butadiène-1,3 en particulier", en veillant à fixer des doses limites, y compris sur les lieux de travail, permettant de protéger les enfants à naître. Une étude réalisée dans quatre villes françaises (Nancy, Lille, Lyon et Paris) et portant sur 280 cas de leucémie aiguë d'enfants, avait suggéré, l'an dernier, que vivre près d'un garage ou une station-service pourrait quadrupler le risque de leucémie infantile. Le risque semblait augmenter avec la durée d'exposition, selon les chercheurs de l'Inserm (recherche médicale) dont les travaux avaient été publiés en septembre 2004 dans la revue Occupational and Environmental Medicine.

BBC

Le génome du riz révélé
Dimanche, 14/08/2005 - 00:00

Une équipe internationale de scientifiques vient de déchiffrer le code génétique du riz, une avancée qui devrait accélérer l'élaboration d'une variété améliorée de cette plante qui nourrit plus de la moitié de la population mondiale. C'est la première céréale dont le génome est séquencé, ce qui signifie que les chercheurs ont identifié la quasi-totalité des 389 millions d'éléments chimiques constituant son ADN. Certaines séquences de ces éléments forment des gènes, comme des lettres forment des mots.

Cette percée aidera les agriculteurs à produire de nouvelles variétés de riz offrant un meilleur rendement, un contenu nutritionnel amélioré et une plus grande résistance aux maladies et aux parasites, affirme Richard McCombie, du Laboratoire Cold Spring Harbor à New York, un des responsables de l'étude. "Cela va permettre de trouver des gènes et probablement d'améliorer les récoltes en moins de dix ans", prédit-il. L'étude est publiée dans la revue "Nature" par le Projet international de séquençage du génome du riz (IRGSP), qui a été créé en 1998 et comprend des chercheurs de dix pays : Brésil, Chine, Corée du Sud, USA, France, GB, Inde, Japon, Taïwan et Thaïlande.

Les chercheurs estiment que le riz contient 37.544 gènes mais avertissent que ce chiffre sera certainement révisé à l'avenir après de nouvelles recherches. Par comparaison, l'homme en possède seulement entre 20.000 et 25.000. L'étude souligne que le séquençage du génome du riz sera crucial pour augmenter le rendement des récoltes grâce aux biotechnologies. Elle note que selon une estimation, la production mondiale de riz devra augmenter de 30 % au cours des vingt prochaines années pour répondre à la demande.

Pamela Ronald, de l'université de Californie, qui étudie la résistance du riz aux maladies mais n'a pas participé à l'IRGSP, souligne que le séquençage du génome du riz permettra aux scientifiques de réaliser de nouvelles expériences pour découvrir les secrets de la plante. "Beaucoup de gens vont profiter de ces travaux", souligne-t-elle. Par exemple, son laboratoire a utilisé des données publiées précédemment par l'IRGSP pour mettre au point un moyen d'identifier les gènes du riz qui deviennent actifs lorsque la plante est confrontée à un stress comme l'attaque d'un micro-organisme ou la sécheresse.

Le riz, qui a occupé une place essentielle dans la nutrition humaine depuis 10.000 ans, demeure la nourriture de base pour quelque 3 milliards d'individus dans le monde et, selon les Nations unies, il fournit 20 % de la ressource énergétique alimentaire dans le monde, avant le blé (19 %) et le maïs (5%). Dans la seule région d'Asie, plus de 2 millions de personnes trouvent 60 à 70 % de leurs calories dans le riz et ses produits dérivés. La production de riz, qui représente 30 % de la production céréalière mondiale, a doublé depuis 30 ans et, rappelle Nature, on prévoit que 4,6 millions de personnes en seront dépendantes en 2025, ce qui imposera à cet horizon une augmentation de 25 % de la production pour satisfaire la demande.

AP

Du nouveau sur la schizophrénie
Dimanche, 14/08/2005 - 00:00

Deux études viennent compléter les connaissances des spécialistes qui se consacrent à ce désordre mental qu'est la schizophrénie. L'origine de cette maladie est encore inconnue. Plusieurs pistes sont aujourd'hui étudiées par les scientifiques. L'une d'elles concerne le développement du foetus dans l'utérus. En effet, de nombreuses données suggèrent que des facteurs intra-utérins comme une infection ou un traumatisme à la naissance pourraient accroître le risque de schizophrénie. Une étude, publiée dans JAMA (Journal of the American Medical Association) fait état d'un lien entre l'insuffisance alimentaire foetale et le risque d'apparition de la schizophrénie. Pour arriver à cette conclusion, le professeur David St Clair de l'Université de Shanghai en Chine, a étudié une population d'adultes nés entre 1959 et 1961 durant une famine massive dans la province d'Anhui. Les résultats démontrent clairement que l'exposition prénatale à la famine augmente le risque de développer une schizophrénie plus tard. Bien sûr, ce n'est certainement pas le seul facteur intervenant dans l'apparition de ce trouble mental.

Concernant le dépistage de cette pathologie, des chercheurs australiens de l'université de Nouvelle-galles-du-Sud ont mis au point un test qui permettrait de diagnostiquer plus rapidement la schizophrénie en analysant la façon dont les patients réagissent à des sons. En observant les encéphalogrammes de personnes saines et de malades atteints de schizophrénie, lorsqu'ils étaient soumis à des stimulations sonores, les neurologues ont constaté de subtiles différences. Certaines courbes du tracé étaient perturbées chez les schizophrènes. Cette découverte ouvre la voie à un test de dépistage précoce et fiable. Néanmoins, des essais cliniques sont encore nécessaires pour valider cette théorie. Jusqu'à présent le diagnostic de la schizophrénie repose, presque exclusivement, sur l'observation du comportement du malade par le psychiatre. La schizophrénie est une psychose caractérisée par une dissociation des perceptions sensorielles et émotionnelles. Elle affecte environ 1 % de la population mondiale sans variation notable d'un pays à l'autre. C'est le trouble psychiatrique chronique le plus répandu en France.

JAMA

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Le Président Chirac installe l'AII et annonce un projet de "moteur de recherche multimédia"
Dimanche, 14/08/2005 - 00:00

Le Président Chirac a officiellement installé mardi 30 août à Reims l'Agence pour l'Innovation Industrielle (AII) dont la vocation est d'aider des projets de haute technologie à horizon de cinq à dix ans. Le président du conseil de surveillance de l'AII, Jean-Louis Beffa, a ensuite indiqué à la presse que quatre projets franco-allemands avaient déjà été retenus et qu'une douzaine le seraient d'ici à la fin de l'année. A la différence des grands projets publics de l'ère Pompidou, il s'agit de "projets menés par des entreprises privées pour le marché privé en association avec des laboratoires de recherche publics", a-t-il souligné.

L'AII engagera un milliard d'euros dès cette année pour soutenir, après une sélection sévère, des projets visant 5 à 10 % du marché mondial. L'Agence pour l'innovation industrielle (AII) validera en septembre, parmi les quatre projets franco-allemands déjà retenus, un projet sur "le développement d'un moteur de recherche multimédia sur internet", a annoncé Jacques Chirac qui a également évoqué "des programmes dans le secteur en pleine expansion de la téléphonie mobile et des terminaux multimédia".

Ce projet de moteur de recherche multimédia est baptisé "Quaero". Il aura pour principales applications l'aide à la création et la production audio, vidéo, texte et image, l'archivage et la préservation du patrimoine multimédia, la création de bibliothèques numériques, des services de recherches multimédias, des services de transcription et de traduction, de protection et de surveillance de contenus, indique le dossier de presse.

Le développement de ce projet sera réalisé conjointement par des réseaux de recherche publique et d'acteurs industriels, dont Thomson, Deutsche Telekom et France Telecom. Les trois autres projets franco-allemands concernent les réseaux multimédias du futur, l'imagerie moléculaire à très hauts champs "pour mieux comprendre et soigner les maladies neuro-dégénératives, comme la maladie d'Alzheimer", et la biophotonique, qui permettra de "mieux soigner par exemple les cancers de la peau", a expliqué M. Chirac.

Le Président a affirmé à Reims (Marne) que "toutes les conditions sont réunies pour que la France passe résolument à l'offensive" dans le domaine de l'innovation industrielle, afin de "partir à la conquête des emplois de demain". "Nous allons conquérir de nouvelles positions et nous placer aux avant-postes de l'innovation industrielle et de la recherche", a-t-il dit. "Il est temps d'agir massivement. Nous devons le faire avec ambition, pour permettre à la France d'être au tout premier rang" dans ce qui est aujourd'hui "une compétition mondiale pour la suprématie technologique", a-t-il ajouté. "Pour la France, il s'agit de partir à la conquête des emplois de demain, en engageant résolument le pays sur la voie de l'innovation. Parce que l'innovation, c'est la condition nécessaire pour créer, sur notre territoire, des emplois hautement qualifiés. Parce que c'est la meilleure réponse aux délocalisations", a souligné le chef de l'Etat.

M. Chirac s'exprimait devant plusieurs centaines de chefs d'entreprises, chercheurs et universitaires au palais des congrès de Reims après avoir installé la nouvelle Agence de l'innovation industrielle (AII) et inauguré le pôle de compétitivité de Champagne-Ardennes axé sur les biotechnologies, un des 67 pôles retenus le 12 juillet par le gouvernement. "Nous allons faire un effort inédit pour notre recherche fondamentale" avec la loi sur la recherche qui sera présentée "dans les toutes prochaines semaines", a-t-il dit. "Nous allons mettre en place une nouvelle politique industrielle" avec l'AII qui sera dotée d'un milliard d'euros par an pour financer des projets innovants sur 5 à 15 ans, a ajouté M. Chirac. "Nous allons signer un nouveau pacte entre la Nation, ses entreprises et ses chercheurs", a-t-il déclaré.

Le président de la République a par ailleurs estimé que "le prix du pétrole risque d'être durablement élevé" et que "le renouveau de notre politique énergétique est indispensable". Ce renouveau "passe par des politiques d'économies d'énergie, mais aussi par la mise au point de nouvelles technologies", a dit M. Chirac. "C'est une nécessité pour la planète. C'est aussi un marché dont le potentiel est gigantesque".

Article @RTFlash

AFP

AP

Bruxelles autorise l'Arcep à réguler le haut débit
Dimanche, 14/08/2005 - 00:00

La Commission européenne a approuvé, pour une durée limitée à un an, les dispositions proposées par l'Arcep, l'autorité française de régulation des télécoms, sur l'ADSL, l'accès à l'internet à haut débit. Afin d'ouvrir ce type de service à la concurrence et de laisser ainsi plus de choix aux consommateurs, France Télécom sera donc tenu pendant cette période de laisser ses concurrents accéder à son réseau à haut débit.

"Les mesures acceptées par la Commission aujourd'hui pour une période transitoire d'une année doivent donner aux acteurs du marché la sécurité juridique et la confiance pour investir davantage dans les services de connexion au niveau local et régional pendant l'année à venir", a dit Viviane Reding, le Commissaire européen chargé de la Société de l'information et des médias. Cela devrait permettre "d'améliorer la qualité et la variété des services fournis aux consommateurs et accélérer le développement du haut débit en France", a-t-elle ajouté. Ces dispositions seront réexaminées par l'Arcep dans un an.

L'autorité française est arrivée à la conclusion que France Télécom domine le marché de gros du haut débit au niveau national du fait de sa part de marché, de sa capacité à fournir tout l'éventail des services à large bande, en gros et au détail, de sa dimension et du contrôle qu'il exerce sur l'infrastructure locale. "La mesure s'appliquera jusqu'à ce que les opérateurs de réseaux concurrents aient développé un réseau de collecte et une base de clients suffisamment larges pour leur permettre de continuer dans les services à haut débit régionaux", a précisé la Commission européenne.

EDN

Les grands studios de cinéma adoptent une même norme numérique
Dimanche, 14/08/2005 - 00:00

Les plus grands studios de cinéma de Hollywood se sont mis d'accord sur une norme commune pour la projection numérique de films en salles, ce qui pourrait signer à terme la fin de la bonne vieille pellicule de 35 mm. Digital Cinema Initiatives (DCI), une société en participation croisée des principaux studios de cinéma américains, a annoncé qu'elle avait établi une norme numérique commune destiné aux fabricants de matériels de projection. "Nous avons désormais une norme unifiée qui permettra aux fabricants de créer des matériels utilisables dans tout les Etats-Unis et, nous l'espérons, dans le monde entier", a déclaré Walt Ordway, responsable de la technologie au sein de DCI. DCI a été créée en mars 2002 par les studios Disney, Fox, Paramount, Sony Pictures Entertainment, Universal et Warner Bros., les six entreprises de cinéma américaines les plus puissantes, surnommées les "majors".

Tous ces studios ont immédiatement salué la percée que représente cet accord, qui signifie sans doute à long terme la fin des séculaires pellicules de 35 mm et à court terme la projection de films d'une qualité technique sans faille, même après des dizaines de séances. "Alléluia, il était temps !", a ainsi réagi le metteur en scène Robert Zemeckis, auteur de la série "Retour vers le futur" et dont le film "Polar Express" avait été filmé en format numérique en 2004. Un écueil de taille subsiste encore sur le chemin du succès du cinéma numérique, les studios et les exploitants de salles ne s'étant pas encore mis d'accord pour savoir qui financera le coûteux remplacement des projecteurs classiques par des appareils numériques dernier cri. "Ces spécifications devraient permettre de fournir un socle commun afin de développer les innovations et d'encourager les acteurs du marché qui auraient été réticents à investir dans une technologie peut-être non viable", s'est toutefois félicité M. Ordway.

Au fur et à mesure que le marché s'agrandira, le prix des équipements et de leur installation diminuera au point que "ce problème (du coût) n'en sera plus un", a-t-il ajouté. Des responsables des "majors" ont par ailleurs annoncé qu'ils avaient l'intention de sortir rapidement des films en format numérique. "Avec ce format essentiel désormais mis en place, nous prévoyons de diffuser ces films en deux formats d'ici à la fin de l'année 2005 : 35 mm et DCI", a indiqué le responsable de la distribution chez Warner Bros., Dan Fellman.

Les nouveaux standards, qui couvrent une résolution de "2000" à "4000" lignes afin de mesurer la finesse de l'image, présentent des spécifications particulières en matière de compression numérique, de protection contre la copie pirate et de conditionnement. Si les bobines de films se détériorent chaque fois qu'elles sont manipulées, avec le nouveau système de diffusion numérique, même après cent passages, l'image du film reste nette et contrastée. En outre, les réalisateurs travaillent sur des films utilisant des technologies en trois dimensions qui devraient améliorer les scènes d'actions. Pour les studios, le cinéma numérique devrait abaisser les coûts de distribution des films puisqu'il ne sera plus nécessaire de vendre à chaque salle des bobines de films. Les films seront transmis par fichiers informatiques via le satellite ou le câble.

Selon des experts, ce nouveau format aidera Hollywood, qui lutte actuellement pour reconquérir l'affection du public aux Etats-Unis, à se mesurer à d'autres médias comme les DVD et l'internet en améliorant la qualité visuelle de ses films. "Aller au cinéma reste une expérience unique, mais pour continuer à attirer un public important, les salles doivent dépasser les médias concurrents", a remarqué Charles Swartz, du Centre de la technologie du divertissement de l'Université de Californie du sud à Los Angeles. John Fithian, président de l'Organisation nationale des propriétaires de salles de cinéma, a décrit pour sa part l'établissement de la norme comme "une étape importante pour faire passer le cinéma numérique dans la réalité".

Cette avancée technologique a également été saluée par deux poids lourds de l'industrie cinématographique américaine, George Lucas et Rick McCallum, pionniers de la projection numérique avec "Star Wars : Episode II, l'attaque des clones" en 2002. Cette décision marque "un pas de géant pour ceux d'entre nous qui créent des films et peut-être plus important, pour tous ceux qui les voient", ont-ils affirmé dans un communiqué commun.

Reuters

La téléphonie mobile sur réseau Wi-Fi promise à un bel avenir
Dimanche, 14/08/2005 - 00:00

Les experts s'accordent à dire que la téléphonie sur Wi-Fi prendra rapidement de l'ampleur, surtout du côté des combinés dual-mode Wi-Fi/GSM. Motorola, Cisco et Fance Télécom s'y préparent. Téléphoner avec un combiné mobile en utilisant un réseau Wi-Fi, en entreprise, dans un hot spot public ou à la maison, reste une pratique marginale. Mais selon Infonetics Research, société britannique d'études de marchés, le secteur est en plein essor. En 2004, le chiffre d'affaires cumulé par les ventes mondiales de combinés mobiles compatibles Wi-Fi a atteint 54,7 millions de dollars. Seuls 143.000 téléphones Wi-Fi ont été vendus.

Mais l'usage grand public de combinés Wi-Fi en milieu urbain, sur des hot spots, est encore embryonnaire et cantonné surtout à des expérimentations aux États-Unis et en Asie. Dans les entreprises, les combinés Wi-Fi ne font pas encore le poids face aux combinés DECT (Digital Enhanced Cordless Telecommunication), en termes de prix et de fonctions.

Mais les prix devraient baisser, et les solutions gagner en maturité. En 2009, estime Infonetics Research, les combinés Wi-Fi devraient générer un peu moins de 500 millions de dollars. La plus forte croissance est cependant attendue du côté des combinés "dual-mode", compatibles à la fois avec les réseaux Wi-Fi et GSM. En 2004, ces portables dont l'utilisation est bien entendu plus large, ont généré 6,7 millions de dollars. Un chiffre qui devrait atteindre 3,5 milliards de dollars en 2009. Sans commune mesure donc avec les combinés purement Wi-Fi.

Avec un tel potentiel, les acteurs du marché fourbissent déjà leurs armes. Le fabricant de combinés mobiles Motorola et l'équipementier réseaux Cisco Systems viennent d'annoncer un partenariat en vue de développer une solution mobile Wi-Fi /GSM. Il s'agira de combinés capables de passer sur le réseau Wi-Fi de l'entreprise lorsque l'employé est dans son périmètre, ou au réseau GSM lorsqu'il est en déplacement. Motorola fournira le téléphone (CN622) et Cisco toute la plate-forme de communication pour l'entreprise. Cette solution clé en main devrait être commercialisée début 2006.

«Je partage la vision d'Infonetics Research», confie un porte-parole américain de Motorola. «L'avenir est aux combinés "dual-mode". Ils permettront aux employés d'utiliser le même combiné dans toutes les situations, avec un seul numéro et un seul répondeur. L'entreprise pourra pour sa part réduire ses coûts de communication en couplant son réseau Wi-Fi à des services de VoIP».

Une possibilité également offerte au grand public. Depuis juin 2005, British Telecom a dévoilé une offre de convergence fixe et mobile basée sur un combiné unique. Le téléphone est capable de basculer sur le réseau fixe au domicile en mode VoIP, et de se connecter au réseau GSM en extérieur. La connexion au domicile s'effectue pour l'instant via la technologie Bluetooth, mais BT a précisé qu'il passera au Wi-Fi en 2006, quand les prix des combinés auront baissé. France Télécom prépare une offre similaire baptisée "Homezone", qui s'appuiera également sur un téléphone compatible GSM et Wi-Fi, et utilisera la plate-forme Windows mobile de Microsoft.

ZDNet

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top